JP2006065862A - ビュー・モーフィング法の改良 - Google Patents

ビュー・モーフィング法の改良 Download PDF

Info

Publication number
JP2006065862A
JP2006065862A JP2005235059A JP2005235059A JP2006065862A JP 2006065862 A JP2006065862 A JP 2006065862A JP 2005235059 A JP2005235059 A JP 2005235059A JP 2005235059 A JP2005235059 A JP 2005235059A JP 2006065862 A JP2006065862 A JP 2006065862A
Authority
JP
Japan
Prior art keywords
image
images
map
parallax
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005235059A
Other languages
English (en)
Other versions
JP4548840B2 (ja
Inventor
Graham R Jones
アール. ジョーンズ グラハム
Miles Hansard
ハンサード マイルズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2006065862A publication Critical patent/JP2006065862A/ja
Application granted granted Critical
Publication of JP4548840B2 publication Critical patent/JP4548840B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 ビュー・モーフィング法を改良する方法を提供する。
【解決手段】 本発明による方法は、シーンの第1および第2の画像(30a、30b)を提供し、第1の画像から第2の画像への対応する点の間をマップする第1の視差マップ(32a、32b)を生成するために、第1および第2の画像にステレオマッチングアルゴリズム(31)を適用し、第2の視差マップ(33a、33b)を生成するために、第1の視差マップを第3の画像の座標の中に前方向マッピングする。さらに、第2の視差マップを使用し、第3の画像の少なくともいくつかのピクセルの各々にあり得る色値を取得するために、第3の画像の少なくともいくつかのピクセル位置を第1および第2の画像の対応する点に逆方向マッピングし、あり得る色値に基づいて第3の画像の少なくともいくつかのピクセルの各々に、最終的色値を指定し、シーンの新しいビュー(34a、34b)を提供する。
【選択図】 図6

Description

本発明の方法は、画像処理法及び、特に、あるシーンの第1と第2の画像から、それと異なる視点からの該シーンの第3の画像を作成する処理法に関する。
コンピュータ画像作成の分野では、あるシーンのある視点からのビューを、すでに利用可能ないくつかのそれを用いて作成することが、しばしば望まれる。このような手法の使用目的のひとつは、立体表示装置のためのコンテンツ作成である。立体表示装置では、同じシーンのわずかに異なった二つの画像が利用者に提示され、それぞれの眼に一つの画像が与えられ、利用者の知覚がそれを三次元シーンとする。二つの画像によって与えられる奥行きレンジ(depth range)が、与えられた三次元表示装置の上の快適な眺めには大きすぎるということがありうる。このような場合には、立体画の奥行きレンジを変更することが望ましい。シーンに対する明白な三次元情報が得られないので、存在する画像のみに基づいてシーンの新しい画像を作成する方法のみが、利用者がより快適に眺めることができる新しい立体画の創造を可能とするであろう。
いくつかの既存の画面合成の手法が知られている。ChenおよびWilliamsによる「View Interpolation for Image Synthesis」、(Proc,ACM SIGGRAPH 1993,279〜288ページ)、ならびにChenおよびWilliamsによる「Three−Dimentional Image Synthesis using View Interpolation」(米国特許No.5,613,048)は、二つの二次元画像の集合により、いかに三次元シーンが表現できるかについて記述している。いくつかの「対応マップ」が利用できることを想定している。これらのマップはある与えられた特徴(feature)の二次元画像の中の、視点の変更による位置を定義する。マップは、ソース画像(source image)の中の特徴を手動的にラベル付けする方法で、又はシーンの幾何学的モデルを参照する方法で得ることができることが示唆されている。ある与えられた特徴の位置の変更は、シーン内の位置の両眼視差(binocular disparities)を定義する。
シーンの新しいビューを作るために、ソース画像からのピクセルが、対応マップに従って新しい画像の中に「前方マップ(forward mapped)」される。新しいビューの中の同じターゲット位置に、複数の特徴がマップされる場合、「前方に(in front)」ある特徴が選択される。この手法は、新しいビューの画質を落とすことなく、保存スペースの量と処理時間の削減を可能とする。しかしながら、新しいビューが完全であることは保障されないであろう。新しいビューには前方マップの処理過程において、色値(colour value)が与えられない領域が存在し得る。新しいビューは最初にある識別の容易な色で満たされ、後に前方マップされたピクセルの色値で置きかえられる方法が示唆されている。これにより新しいビューのいかなる隙間も容易に特定することができる。その後、隙間は周囲のピクセルの色からの内挿法または周囲の対応マップの情報にソース画像を参照した値からの内挿法により満たされる。これらの手法では何れも正確な表現を得ることはできない。周囲のピクセルの色からの内挿法は、隣接するピクセルとの間の滑らかな連続を作るものの、それは色値の欠けた領域に現れるはずのあらゆる画像構造の貧弱な近似値を提供する結果となる。新しいビューはそれ故に不鮮明に見え、この不具合は情報の欠けた領域のサイズと共に大きくなる。隙間に隣接する対応マップのデータからの単純な内挿法は、それが奥行きの不連続を考慮していない故に、通常適切ではない。
ビューの内挿法の理論的分析が、SeitzおよびDyerによる「View Morphing,Proc」、(ACM SIGGRAPH 1996、21〜30ページ)に提供されており、それはChenおよびWilliamsの方法を実際の画像に適用できるように改良している。この場合にも、対応マップは与えられた特徴の画像位置を定義することで得られる。対応マップを作成するために、ステレオマッチングアルゴリズムが、一対の画像に適用することが出来る。SeitzおよびDyerは、新しいビューを与えるために、ChenおよびWilliamsと同じ前方マッピングの手順を使用している。両方のソース画像からの色情報が新しいビューのピクセル値を作るために混合される。新しいビューの隙間は、近接するピクセル間の内挿法で埋められる。
SeitzおよびDyerの方法は、図1aと図1bの流れ図に示されている。図1aは、用いられている幾何学的形状の処理を示す。原画像(original image)IおよびIの中の位置(i、j)および(i,j)が、マッチングアルゴリズムMによってマッチチングされ、視差マップ(disparity map)DおよびDが作られる。マッチ(matche)は類似した画像の特徴を探すことで得られ、その結果I(i,j)およびI(i,j)はシーンの同じ特徴を表すものであるから、概ね等しい。見方を変えると、Iの中の位置(i,j)は、Iの中の(i,j)=(i,j−D(i,j))に対応する位置を有すると考えることができる。同様にIの中の位置(i,j)は、Iの中の(i,j)=(i,j+D(i,j))に対応する位置を有する。行インデクスiは二つの画像の中で同じであるので、画像は補正されている(rectified)と見なされ、従って共通の特徴は水平方向の変換のみに関連することが期待される。
図1bは画像の色処理を示す。原画像(IおよびI)からの色は、二つの新しい画像(I’およびI’)の座標位置(j’およびj’)に前方マップされる。それぞれの場合において、最終的な色は混合操作Bによって得られる。混合操作は新しい画像(I’およびI’)の色値を、それぞれに対応する画像の特徴に対して作成する。
図2は、原画像(IおよびI)と結びつくカメラの位置を示す。二つの原画像の間の、新しい画像(I’およびI’)の位置は、その値が両原画像の間で0と1の間で変化するパラメータtを用いて定義される。二つの立体視画像の合成には、新しいビュー(I’およびI’)に対してそれぞれtおよびtの、二つのパラメータが必要である。
図1bに示された処理手順は、特定のピクセルのルートをたどることにより理解される。例えば、図1bの最上位左の箱からスタートし、画像Iの位置jからの色が選定される。この色を二つの新しい位置にマップするために、視差マップDが使用される。第1の新しい位置は、画像I’の中の位置j’=j−t(j)である。第2の新しい位置は、画像I’の中の位置j’=j−t(j)である。同様に画像Iの位置jからの色は、視差マップDを用いて、画像I’の中の位置j’=j+(1−t)D(j)および画像I’の中の位置j’=j+(1−t)D(j)にマップされる。この結果、I’およびI’の各位置に二個づつの色の組が与えられ,その組は前述の方法で混合される。
米国特許No.6,215,496は、修正された「スプライト(sprite)」表現について記述し、その中で通常のスプライトがあるシーンの中の比較的平坦な、或いは遠距離の部分を与えるために使用できるとしている。ただ一つの入力画像が使用され、関連付けられる奥行きマップと共に採られる。奥行きの情報は出力位置に前方マップされ、色は一つの入力画像に逆方向マップされる(reverse mapped)。この表現は、各ピクセルがスプライトマッピングから独立にオフセットすることを許容することで、改良することができる。オフセットは、歪められた表面に対する、その位置のシーンの奥行きによって定められる。オフセットは表面の既存のモデルから得られるか、あるいは対応アルゴリズムによる計算によって得られると、想定されている。米国特許No.6,215,496の方法が図3aおよび図3bに示され、幾何学的形状および色の処理方法が、それぞれ示されている。原画像(IおよびI)が、上述の方法でマッチングされる。次いで視差が前方マップされ、新しい画像の座標位置に新しい視差マップ(D’およびD’)を与える。特に、視差D(j)は新しい視差マップD’の中の位置j’=j−t(j)にマップされ、そして同様に視差D(j)は新しい視差マップD’の中の位置j’=j+(1−t)D(j)にマップされる。
図3bに示される色の処理方法は、新しいビューの一つのある位置から始まり、対応する視差マップを用いて原画像の一つの中の色を見つける。この色は新しいビューの中に与えられる。例えば、画像I’の中の位置j’は、視差D’(j’)に対応する。これは、j’は画像Iの中の位置j=j’+t’(j’)にマップされることを意味する。よって、I(j)の色が、画像I’の位置j’に与えられる。
ChenおよびWilliamsの方法は、コンピュータで作成された画像を用いて作業するように設計されている。SeitzおよびDyerの方法は、前方マッピングを用いる。前述した米国特許の方法は、あるシーンの平坦なあるいは遠距離の部分の新しいビューが単一のソース画像に基づいて作成するように、設計されている。シーンの新しいビューを製作する方法を提供できることが望まれる。特に、あるシーンの明白な三次元情報が得られない時に、立体画の奥行きレンジを変更するために使用できる方法を提供することが望まれる。
US5917937は、複数の入力画像から視差、色およびあいまいさ(opacities)を決定するためのステレオマッチングアルゴリズムを公開している。このアルゴリズムは一般的な視差スペースを作成し、ソース画像を視差スペースに前方マッピングすることにより、視差スペースの中の色とあいまいさの推測値を作成する。推測値を精密化するために、統計的方法が用いられる。
発明の第1の局面に従って、
(a)シーンの第1および第2の画像の提供するステップと、
(b)ステレオマッチングアルゴリズムを第1および第2の画像に適用し、第1の画像から第2の画像への対応する点の間をマップする第1の視差マップの生成するステップと、
(c)第1の視差マップの第3の画像の座標への前方マッピングによる、第2の視差マップの生成するステップと、
(d)第2の視差マップを使用し、第3の画像の中の各ピクセル位置を第1および第2の画像の対応する位置に逆方向マッピングし、第3の画像の中の各ピクセルに対するあり得る色値の取得するステップと、
(e)第3の画像の中の少なくともいくつかのピクセルのそれぞれに対して、あり得る色値に基づく最終的色値を指定し、およびその結果によるシーンの新しいビューの提供するステップとを包含する画像処理の方法が、提供される。
第1および第2の画像は、水平方向のオフセットのみによって関連づけられるように補正され得る。
第3の画像の位置は利用者によって選択され得る。第3の画像の位置は、第1と第2の画像の間に位置し得る。
ステップ(c)は、第2の視差マップの各エントリーが第1および第2の画像のそれぞれの中に唯一の位置を識別するように、第1の視差マップの前方マッピングを包含し得る。ステップ(c)は、第2の視差マップの中の隙間が満たされるように、前方マッピングの調整を包含し得る。第3の画像のピクセル位置の中の隙間は、それぞれの隙間のそれぞれの端における第2の視差マップの値に基づいて、満たされ得る。
ステップ(d)の中で第3の画像の中の各ピクセル位置に対応する第1および第2の画像から得られる色値は、第1および第2の画像のそれぞれの中の隣接するピクセルの間の内挿法によって得られうる。内挿法は一次近似法および三次近似法の何れでもよい。
ステップ(e)は色値を提供するために、あり得る色値の混合を包含し得る。混合は、第1および第2の画像の場所に対する第3の画像の場所の近接度に従って、実施され得る。色の混合は、第1および第2の画像のうち第3の画像により近い方が、第3の画像のピクセルの色により大きな影響を有するように、重み付けされ得る。
最終的な色値は、あり得る色値の一つであり得る。
ステップ(b)のステレオマッチングアルゴリズムは、単一の視差マップを作るために、単調性(monotonicity)の制限を強制することを包含し得る。
該方法は、第1および第2の画像を交換してステップ(b)を繰り返すことにより、第2の画像から第1の画像の対応する位置にマップする、異なる第1の視差マップを生成するさらなるステップと、異なる第2の視差マップを生成するために、異なる第1の視差マップに対してステップ(c)を繰り返すさらなるステップであって、あり得る色値を得るためにそれぞれの第2の視差マップに対してステップ(d)が実行される、さらなるステップを包含し得る。
二つの第2の視差マップは、ステップ(d)および(e)に先立って、第3の画像の座標の中に併合され(merged)得る。該方法は、二つの第1の視差マップを比較し、全ての不整合なエントリーを削除し、その結果、単一の第1の視差マップを提供する、さらなるステップを包含し得る。
該方法は、異なる第3の画像に対してステップ(c)および(e)を繰り返し、その結果、シーンの新しい一対のステレオビューを形成する二つの第3の画像を作成する、さらなるステップを包含し得る。
該発明の第2の局面に従って、シーンの第1および第2の画像を提供する画像取得手段と、第1の画像から第2の画像に対応する点の間をマップする第1の視差マップを生成するために第1の画像および第2の画像に対してステレオマッチングアルゴリズムを適用するための手段と、第2の視差マップを生成するために第1の視差マップを第3の画像の座標の中に前方マッピングするための手段と、第3の画像のなかの少なくともいくつかのピクセルのそれぞれに対してあり得る色値を得るために、第2の視差マップを使用して第3の画像の中の少なくともいくつかのピクセル位置から第1および第2の画像の対応する点に逆方向マッピングを実行するための手段と、第3の画像の中の少なくともいくつかのピクセルのそれぞれにあり得る色値に基づいて最終的色を指定し、その結果、シーンの新しいビューを提供するための手段とを備える画像処理のための装置が、提供される。
該発明のさらなる局面に従って、発明の方法および第1の局面を実行するコンピュータを制御するプログラムが提供される。
該プログラムは記憶媒体に蓄えられ得る。プログラムは通信ネットワークを通じて送信され得る。
本発明の更にさらなる局面に応じて、発明の第1の局面の方法を実行するためにプログラムされたコンピュータが提供される。
本発明は、さらに以下の手段を提供する。
(項目1)
画像を処理する方法であって、
(a)シーンの第1および第2の画像(I、I)を提供する(30a、30b)ステップと、
(b)該第1および第2の画像(I、I)にステレオマッチングアルゴリズム(M)を適用すること(31)により、該第1の画像から該第2の画像へ対応する点の間でマップする第1の視差マップ(D、D)を生成するステップと、
(c)該第1の視差マップを第3の画像の座標の中に前方マッピングすることにより、第2の視差マップ(D’、D’)を生成するステップと、
(d)該第2の視差マップを使用して、該第3の画像の中の少なくともいくつかのピクセル位置から該第1および第2の画像の中の対応する点に逆方向マップ(B)することによって、該第3の画像の中の少なくともいくつかの該ピクセルのそれぞれにあり得る色値を取得するステップと、
(e)該あり得る色値に基づいて該第3の画像の中の少なくともいくつかの該ピクセルのそれぞれに対して最終的色値を指定することによって、該シーンの新しいビュー(I’、I’)を提供するステップと
を包含する、方法。
(項目2)
上記第1および第2の画像(I、I)は、水平方向のオフセットのみによって関連づけられるように補正されていることを特徴とする、項目1に記載の方法。
(項目3)
上記第3の画像の位置は、利用者によって選択されることを特徴とする、項目1または2に記載の方法。
(項目4)
上記第3の画像の位置は、上記第1および第2の画像(I、I)の位置の間にあることを特徴とする、項目1から3のいずれか一項に記載の方法。
(項目5)
上記ステップ(c)は、上記第2の視差マップ(D’、D’)のそれぞれのエントリーが上記第1および第2の画像のそれぞれの中に唯一の位置を識別するように、上記第1の視差マップ(D、D)を前方マップすることを包含することを特徴とする、項目1から4のいずれか一項に記載の方法。
(項目6)
上記ステップ(c)は、上記第2の視差マップ(D’、D’)の中の隙間が満たされるように、上記前方マッピングを調整することを包含することを特徴とする、項目5に記載の方法。
(項目7)
上記第2の視差マップ(D’、D’)の中の隙間は、各隙間のそれぞれの端における上記第2の視差マップ(D’、D’)の値に基づいて埋められることを特徴とする、項目6に記載の方法。
(項目8)
上記ステップ(d)において、上記第1および第2の画像(I、I)から上記第3の画像の中の対応するそれぞれのピクセル位置に対して取得される色値は、該第1および第2の画像(I、I)のそれぞれの中の隣接するピクセルの間の内挿法によって取得されることを特徴とする、項目1から7のいずれか一項に記載の方法。
(項目9)
上記内挿法は、一次近似法および三次近似法のいずれか一つによることを特徴とする、項目8に記載の方法。
(項目10)
上記ステップ(e)は、最終的色値を提供するためにあり得る色値を混合することを包含することを特徴とする、項目1から9のいずれか一項に記載の方法。
(項目11)
上記混合は、上記第1および第2の画像(I、I)の撮影位置に対する上記第3の画像の位置の近接度に従って行われることを特徴とする、項目10に記載の方法。
(項目12)
上記色の混合は、上記第1および第2の画像(I、I)のうち上記第3の画像により近い方が上記第3の画像の中のピクセルの色により大きな影響を有するように重み付けがなされることを特徴とする、項目11に記載の方法。
(項目13)
上記最終的な色値は、あり得る色値のうちの一つであることを特徴とする、項目1から10のいずれか一項に記載の方法。
(項目14)
上記ステップ(b)のステレオマッチングアルゴリズム(M)は、単一の視差マップを作成するために単調的な制約を強制することを包含することを特徴とする、項目1から13のいずれか一項に記載の方法。
(項目15)
該方法は、
上記第1および第2の画像(I、I)を入れ替えて上記ステップ(b)を繰り返すことにより、上記第2の画像から上記第1の画像に対応する点の間でマップする異なる第1の視差マップを生成するステップと、
該異なる第1の視差マップに対して上記ステップ(c)を繰り返すことにより異なる第2の視差マップを生成するステップとをさらに包含し、
あり得る色値を取得するために、二つの第2の視差マップ(D’、D’)のそれぞれに対して上記ステップ(d)が実行されることを特徴とする、項目1から14のいずれか一項に記載の方法。
(項目16)
上記ステップ(d)および(e)に先立って、上記二つの第2の視差マップ(D’、D’)が上記第3の画像の座標の中に併合されることを特徴とする、項目15に記載の方法。
(項目17)
上記二つの第1の視差マップ(D、D)を比較し、全ての整合しないエントリーを削除することによって、単一の第1の視差マップを提供するさらなるステップを包含することを特徴とする、項目16に記載の方法。
(項目18)
異なる第3の画像位置に対して上記ステップ(c)からステップ(e)までを繰り返すことによって、上記シーンの新しい一対のステレオビューを形成する二つの第3の画像(I’、I’)を作成するさらなるステップを包含することを特徴とする、項目1から17のいずれか一項に記載の方法。
(項目19)
第1および第2の画像(I、I)を提供する画像取得手段(1、2)と、
該第1および第2の画像(I、I)に対してステレオマッチングアルゴリズムを適用し、第1の画像から第2の画像への対応する点の間をマップする第1の視差マップ(D、D)を生成する手段(4)と、
該第1の視差マップ(D、D)を第3の画像(I’、I’)の座標の中に前方マッピングすることによって、第2の視差マップ(D’、D’)を生成する手段(4)とを備えた、画像処理のための装置であって、該装置は、
該第2の視差マップ(D’、D’)を使用して該第3の画像(I’、I’)の中の少なくともいくつかのピクセル位置に対して該第1及び第2の画像(I、I)の中の対応する点への逆方向マッピングを実行することにより、該第3の画像(I’、I’)の中の少なくともいくつかのピクセルのそれぞれに対してあり得る色値を獲得する手段(4)と、
該あり得る色値に基づいて該第3の画像(I’、I’)の中の少なくともいくつかのピクセルのそれぞれに対して最終的色を指定することによって、該シーンの新しいビューを提供するための手段と
を備えたことを特徴とする、装置。
(項目20)
項目1から18のいずれか一項に記載する方法を実行するためのコンピュータ(4)を制御するためのプログラム。
(項目21)
記憶媒体(21)に蓄えられる、項目20に記載のプログラム。
(項目22)
項目20に記載のプログラムの、通信ネットワーク(27)を経由しての送信。
(項目23)
項目1から18のいずれか一項に記載する方法を実行するためにプログラムされたコンピュータ(4)。
(摘要)
シーンの新しいビューを作成するための方法および装置を提供する。該方法は以下のステップ、
(a)シーンの第1および第2の画像(30a、30b)を提供するステップ、
(b)第1の画像から第2の画像への対応する点の間をマップする第1の視差マップ(32a、32b)を生成するために、第1および第2の画像にステレオマッチングアルゴリズム(31)を適用するステップ、
(c)第2の視差マップ(33a、33b)を生成するために、第1の視差マップを第3の画像の座標の中に前方向マッピングするステップ、
(d)第2の視差マップを使用し、第3の画像の中の少なくともいくつかのピクセルのそれぞれにあり得る色値を取得するために、第3の画像の少なくともいくつかのピクセル位置を第1および第2の画像の中の対応する点に逆方向マッピングするステップ、
(e)あり得る色値に基づいて第3の画像の中の少なくともいくつかのピクセルのそれぞれに、最終的色値を指定し、その結果としてシーンの新しいビュー(34a、34b)を提供するステップを包含する。
本発明をより良く理解するために、およびその同一物が有効にもたらされ得ることを示すために、添付図面が参照される。
以下に記述する実施形態は、あるシーンに対する二つの与えられたビューから、新しい画像を合成する方法を規定する。各々の新しいビューの部分的にさえぎられた(occluded)およびあいまいな(ambiguous)領域は、適切に提供される。更に加えて、両方の入力画像からの色情報が、各々の新しいビューのピクセル値を決めるために用いられる。本発明の一実施形態が図4に示されている。カメラ1および2は、それぞれ入力画像IおよびIを得るために用いられる.これらの画像はコンピュータ4に送られる。利用者は、入力装置6を介して、位置tで示す中間の視点位置を指定することができる。入力装置は、例えばキーボードまたはマウスが使用できる。コンピュータは以下に記述する方法で入力を処理し、中間のビューI’を作成する。出力画像はコンピュータに付属したディスプレイ5に現れる。新しいビューが作られる中間の位置は、カメラ1から距離bの位置にある仮想のカメラ3によりシーンの画像が得られる位置と等価である。新しいビューI’の位置は、カメラ1と2の間の全距離aに対する距離bの割合によって定義される。
本発明の第1の実施形態の方法は、一つより多くの入力画像の間の視差マップを、例えばマッチングアルゴリズムを用いて、得ること、一つより多くの画像からの視差をそれぞれの所要の出力画像位置に前方マッピングすること、および一つより多くの入力画像に逆方向マッピングすることにより、新しいビューの色情報を得ること、を含む。本発明の実施形態は、一対の新しい合成ステレオを含む一対の新しいビューを作成するために利用し得る。本発明の実施形態は、SeitzおよびDyerにより記述された前方マッピングアルゴリズムよりも正確である。逆方向マッピングの手順は異常なピクセルをほとんど作らず、また偽の空白領域を作らない。よく知られるように、逆方向マッピングの手順はまた、より制御された方法でソース画像からのサンプル採取を可能にする。
以下に記述する逆方向マッピング処理の利点は、上記既存技術のいくつかで必要とされるように、シーンの新しく隠されたあるいは現された部分が、ピクセルの色の間でよりもむしろピクセルのオフセットの間で解像され得ることにある。このことが新しいビューをより完全にまたより正確にする。
実施形態のいくつかに従えば、二つのソース像の間に相互に不整合がないことを保証できる。この制約は、新しい画像が一対のステレオとして眺められたときに明らかとなる、奥行き人工物(depth artefacts)の数を減らす。異なるソース画像からの色情報の結合の重要性が保持される。
以下に記述する方法は、同一のシーンあるいはオブジェクトの二つ以上の入力ビューを必要とする。最小のケースが図2に示されており、そこではカメラ1および2が、深度の異なる表面7および8を含む一つのシーンの、一対のステレオ画像IおよびIを撮影する。二台のカメラが平行な光軸をもって並んでいない場合には、画像は最初に補正される必要がある。補正の処理は、二つの画像の中の対応する特徴が水平方向のオフセットのみに関係することを保証する。
図2の二台のカメラによって作られた二つの画像を図5に示す。二つの表面7および8はFおよびGの記号で記される。二つの画像を撮影した二台のカメラは平行であるので、水平方向の視差のみが存在する。二つの画像は端切され(cropped)ているので、表面Gは視差を有しない。各画像の中心を通るピクセルの行が点線で記される。ピクセルの行および対応する視差が10に示されている。例えば点fは、画像Iのピクセル位置5にあり、画像Iのピクセル位置5+(−2)=3にある。つまり、11で示されたピクセルは画像の特徴fを所有し、また視差マップの対応するエントリー位置12に−2を有する。このことは画像Iの中に特徴fの対応する位置を得るためには、画像Iの中のfのピクセル位置から二つのピクセル位置を引き算し、13で示すように画像Iの中のピクセル位置3を得ることを示している。Xの記号が記された点は一つの画像のみに見られ、従ってマッチされることができない。
図6aおよび6bは、本発明の実施形態における幾何学的形状の処理及び色の処理の局面を、それぞれ示す。ソース画像IおよびI(30a、30b)から出発し、対応マップ(あるいは視差マップ)を計算するためにステレオマッチングアルゴリズムM(31)が使用され、視差マップD(32a)(画像Iを画像Iにマップする)およびD(32b)(画像Iを画像Iにマップする)を作成する。一般的に二つのマップは独立であり、その理由は画像Iには画像Iのビューから隠された特徴が存在し、またその逆もあるからである。視差マップが計算され、新しい視差マップD’およびD’(33a、33b)を作るために前方マッピングされる。二つの新しいビューの一つの位置からスタートし、対応する視差マップを使用して、ソースビューの中に色を見つける。例えば画像IおよびIの中のそれぞれjおよびjの位置の色を見つけるために、視差マップD’が使用される。画像Iからの色は位置j’と関連づけられ、同じく位置j’と関連づけられる画像Iからの色と混合される。その結果は、画像I’の位置j’に指定される。これと対応する一連の手順が、画像I’の位置j’の色を計算するために採られる。その結果、ソース画像のシーンの新しいビューを構成する二つの出力画像I’およびI’(34a、34b)が得られる。
アルゴリズムの個々のステージを以下に記述する。単独の画像I’の合成を考えることが、ステレオの一対の画像I’およびI’を考えるよりも好都合である。以下の章を参照するときに、左手の新しい画像は対応する特徴に添字Lを付加することで得られ、右手の新しい画像に対しては添字Rを用いる。
図7は、表面7の上の点fからfおよび表面8の上の点gからg10を示す。二つの表面の形状はカメラ1および2によって撮影され、それぞれ画像IおよびIを作る。
およびgはカメラ2から隠されており、gおよびgはカメラ1から隠されていることに注意する。画像IおよびIからのピクセルの行が図9に示されており、IおよびIの画像点間のマッチを示す。点のマッチは矢印で示され、矢印は視差のある場合は傾斜している。図7を参照し、表面Gは視差がゼロであるように画像は水平方向に整列されていることが、説明のために想定される。IのgおよびgあるいはIのgおよびgには、これらの点が両方のカメラから見えないために、視差は与えられない。
画像I’は「ターゲット画像」であり、元のカメラの間の視点に対応する。特にtを範囲0から1までの値をとるパラメータとし、CとCをカメラの位置とすると、新しい視点は位置(1−t)C+tCに有効に置かれる。例えばt=1/2とすると、画像I’はCとCとの間の中間点の視点に対応し、図8に示す仮想のカメラ3により撮影される。
逆方向マッピングを実行するために、図6aおよび6bに示すように、I’の座標で記述された新しい視差マップD’が必要である。DとDとをD’に前方マップすることができる。視差が非負の数で表されている場合は、それぞれの位置(i,j)に対して、
方程式は、
D’(i,j’)←D(i,j),
ここで、 j’=j−tD(i,j) および
D’(i,j’)←D(i,j),
ここで、 j’=j+(1−t)D(i,j)。 (1)
記号「a←b」は、「値bをaに指定する」ことを意味する。これらの方程式は0≦t≦1の範囲で与えられ、それぞれjおよびjに向けてのマッピングと解釈される。
前方マッピング処理が図6aの下部に示されている。一般に方程式(1)の水平方向のターゲット座標は整数ではなく、そのためにソース視差は正確なピクセルの位置にマップしないであろう。更に、一つより多くのもとの値が(ほぼ)同一の位置にマップされ得る。各ピクセルに単一の推定値を作るために、下記の手順が使用できる。
前方マップされた各サンプルは、「適用範囲(coverage)」値0≦α≦1と関連づけられることができる.例えば、水平方向のターゲット位置が二つのピクセルpおよびqの間にあると仮定すれば、j≦j’≦jである。元の値が両方の位置、α=j−j’およびα=j’−jにマップされる。その結果、各ターゲット位置の元の値と対応する「適用範囲」のリストが作られる。ターゲット視点に最も近い表面を表す最も外側の値は、各位置の他の値をふさぐ(occlude)傾向にある。この原則は、各位置の単一のターゲット値を得るために使用することができる。その値は候補値のリストを視差の低い方から高い方にソーティングすることにより計算される。その後、リストは、a値(a values)を重みとして、後ろから前へと合成される。
上述した手順は、D’の各位置に、複数の値を分析してその中から単一の推定値を得るために用いられる。D’の各エントリーは各ソース画像の中の唯一の位置を識別(identify)する。しかし一般に、値がマップされていないD’の領域が存在するであろう。これはシーンのふさいでいる表面の影響による。その結果生じる隙間は、以下に述べるように、視差アレイの各行に沿って、個々に埋めることができる。
一般に、ふさがれた表面の視差表面は、それがふさいでいる縁に達するまで延長されなければならない。そしてこれは以下の方法で達成可能である。それぞれの隙間の両端における視差が調査され、二つのうちの小さいほうが外挿されるべき側となる。次いで隙間の該当する側の隣接する視差に対して、一次元モデルが適合される。このモデルには、外挿された端が接触点においてふさいでいる端の前にくることはできない、という制約がある。この手順の便利な近似法として、二つの端の点の視差のうち小さいほうを単純に隙間の全ての位置に指定することができる。これは実質的に零次の外挿モデルである。
前方マッピングのステージを図10に示す。視差が図9に示された対応に従って前方マップされる。この処理ではI’座標のgとfの間およびfとgの間に隙間が生じる。欠けている値は隙間の端の位置を比較することにより推定される。この例ではgの視差はfのそれよりも小さいので、gの値が隙間の中にコピーされる。同様にgの視差がI’のfからgの隙間にコピーされる。図2および図7を参照し、図11において表面Gがふさいでいる表面Fに出会うまで効果的に延長されていることが見られる。
新しいビューを提供するために、各ピクセルの位置がソースビューの中に、以下のように逆方向マップされなければならない:
Figure 2006065862
t=0の場合、j=j’であることに注意すれば、点はIから直接導かれることができる。同様に、t=1の場合、j=j’であり、点はIから直接導かれることができる。一般に、IおよびIのソース座標は、整数の位置にはないであろう。しかし、各ケースの色を、隣接するピクセル間の内挿法により求めることは簡明(straightfoward)である。例えば三次式による内挿法などの、より精度の高いモデルも使用可能であるが、水平方向に隣り合う値の間の直線補間は適切な方法である。
方程式(2)によれば、後方マッピング(backward mapping)と内挿法が、新しいビューの各ピクセルに対して、通常二つの可能な値を与える。新しい視点のソースカメラ位置に対する近接度に従って、これらの色を混合することは自然である。特に、I’がIと一致するとき、Iからの色は全く寄与しない。同様にI’がIと一致するとき、Iは寄与しない。新しいビューが元のビューの一つと一致するときは、新しい色は対応する元の色と等しく設定される。これらの考察から、色混合のスキーム
I’(i,j’)←(1−t)I(i,j)+tI(i,j) (3)
が、方程式(2)で定義されたjとjを用いて、導かれる。一方のビューのみに見える点(図11のgのような)は、混合される相手の色が存在しないので、直接に与えられる必要がある。この理由のために、ピクセルがマップされる前に、二つの原画像に対して包括的な色標準化を実施することが望ましいことがある。
上述された処理は、幾何学的に正確な内挿されたビューを、視差情報と外挿モデルとの精度に応じて、作成するであろう。例えば、図7に示されたシーンは、ここで記述された方法で正確に提供される。これは、例えばピクセルの色が前方マップされると仮定する、通常の前方マッピング方法では真実でない。図10を参照し、以前のように、I’の座標の中で定義されずに残されているgとfとの間のピクセルについて考察する。ChenおよびWilliams、ならびにSeitzおよびDyerによって示されたように、隙間は既知の色gと色fとの間の内挿法により埋められることができる。一般に、この方法は欠けている値の正確な推定値を与えないであろう。特に、図7に示すように表面FおよびGが離れているときであり、それは目立つ色になりやすい。gの周辺の隙間が大きいときは、合成された範囲に正しくない色勾配が現れるであろう。隙間の何れの側からの色の外挿法も、一般にはまた人工物を作るであろうということに留意すべきである。これは、欠けた画像領域は複雑な画像の特徴を含んでいることがあり得るからである。画像の特徴を周辺のピクセルから外挿(または内挿)することは通常可能ではない。原則として、元の視差アレイの隙間は前方マッピング処理に先立って埋めることができる。しかし、これは、なお、I’の中の全てのピクセルが埋められることを保証することは無いであろう。それゆえに隙間充填の問題は残される。
ある場合には、以前には見ることが出来なかった画像のテクスチャが新しいビューの中で合成されなければならない。テクスチャ合成アルゴリズムと組み合わせたとき、上述した手順は、異なる視点からの新しい画像が相互に整合することを保証する。
上述のように、ここに記述される方法は、立体視的一対の画像の合成に特に良く適している。その理由は、同一のシーンの二つの内挿された画像が相互に整合するからである。この先の実施形態において、この方法が、非立体視的な使用目的に対して、個別的な画像の合成にもまた使用することが可能である。
視差マップDおよびDは、左の画像を右に、および右の画像を左に、それぞれマッチングすることにより、個々に独立に得ることができた。一般に二つの視差マップは、マッチング処理中のエラーにより、相互に整合するとは言えないであろう。しかし、下記の方法で整合を強制することができる。つまり,Dを用いて、Iの中の点(i,j)をIの中の点(i,j)にマップする。他の視差マップDは、次に(i,j)をIに戻すマップのために用いられる。両方の視差マップの間に不整合がなければ、上記の処理は元の点(i,j)に帰ることになる。このテストが失敗する場合、視差D(i,j)は廃棄可能である。添字LとRとを入れ替えた場合にも、同様の結果が得られる。
視差マップが整合する場合、DはDから計算でき、その逆も同じであるので、その両方を保存する必要はない。単調性は整合することの特別なケースであり、IとIの中の同じ水平方向の並び順に対応する特徴が現れることを意味する。画像マッチングアルゴリズムの一部として、単調性を強制することはしばしば有用である。その結果、視差マップは一つになる。さらに、この場合には、視差の前方マッピング処理(方程式(1)のような)は単純化される。並び順に関する制約は、D’の与えられた位置に一つよりも多い視差がマップされることがあり得ないことを意味し、それ故に解決を要する不整合は生じない。
マッチングアルゴリズムの選択によっては、視差マップは不完全なものになり得る。
例えば、マッチングアルゴリズムはソース画像の空白領域において作動不良となる可能性があり、その場合マッチされるべき特徴が得られない。同じく、上述したとおり、Dと整合しないDの中の視差は、その逆も、全て削除されることが望まれ得る。その結果生じる隙間は、上述した方法で埋めることが可能である。
二つよりも多いソースビューがあるときは、いくつかの独立な視差マップを計算することが可能である。その理由は、そのシーンの視認できる領域が、対となるカメラの選択によって変わるからである。複数の推定値を組み合わせる、二つの方法がある。二つの視差マップのケースにおいて以前に述べたように、採りうる最大値(最も近い特徴を意味する)を常に選択することが可能である。他の方法としては上述したように、全ての視差マップの間に整合する関係を導入することが可能である。
奥行きレンジを増加するためには、より幅広く離れた位置からの新しいビューが得られなければならない。これは、新しいビューの部分が二つのソースカメラの何れからも隠されることを、より生じやすくさせる。隠された部分を正確に提供することは通常不可能であろうが、良好な予測を作成することは可能である。さらに、その予測はいくつかの合成ビューの間で整合して作成することが可能である。
見えない部分の外見は、しばしば周囲の領域の外見から良く予測可能である。例えば、Effrosおよび Leungによる「Texture Synthesis by Non−Parametric Sampling」、(Proc,IEEE International Conference on Computer Vision、1999、1033〜1038ページ)は、種々の画像テクスチャの合成が可能な簡単なアルゴリズムについて記述している。新しいピクセルの色が、近隣の水平方向および垂直方向の画像のサンプリングを含む手順により予測される。二つの新しいビューの各々に全く新しい画像領域を作らねばならないときは、テクスチャ合成アルゴリズムが、各ケースの欠落した領域に適用できる。しかしその結果は、整合したステレオ画像の対ではないであろう。
上述した逆方向マッピングの表現は、整合したテクスチャ合成を可能にする。その理由は、後方マッピング処理を通じてソース画像をサンプルすることが出来るからである。その結果得られたテクスチャモデルは、欠けているピクセルの値を与える。各新しい画像に対して同じテクスチャモデルが使用されるので、その結果得られる新しいビューは、相互に整合している。
図12の概略図は、上述した画像処理を実行するコンピュータ4を示す。中央処理装置
(CPU)23は、読取り専用記憶装置(ROM)20およびランダムアクセス記憶装置(RAM)22に接続されている。CPUは、入力/出力装置25を経由して、画像ソースから画像データ24を供給される。CPUはつぎに、プログラム記憶装置21(これはROM20の一部であり得る)によって供給される指示に従って、幾何学的形状と色の処理を実行し、新しい画像26を提供する。プログラムそれ自身、あるいはシステムに対する全ての入力および/または出力は、通信ネットワーク27、これは例えばインターネットであり得る、に/から供給または送信される。
上記の実施形態に対して、本発明の範囲から逸脱することなく、添付の請求項の中の形態として、様々な変更がなされることは、当業者によって認識されるであろう。
図1aおよび図1bは、シーンの新しいビューを合成する従来技術による方法を示すデータフロー図である。 シーンの二つの異なるビューを取得する二つのカメラを示す。 図3aおよび図3bは、シーンの新しいビューを合成する他の従来技術による方法を示すデータフロー図である。 本発明の一実施形態を示す。 本発明の一実施形態に従った視差マップの形成を示す。 図6aおよび図6bは、本発明の実施形態に従った、シーンの新しいビューを合成する方法を示すデータフロー図である。 図2のシーンの平面図である。 図2のシーンの平面図である。 本発明の一実施形態に従った、前方および逆方向マッピングのステップを示す。 本発明の一実施形態に従った、前方および逆方向マッピングのステップを示す。 本発明の一実施形態に従った、前方および逆方向マッピングのステップを示す。 本発明の一実施形態に従った、コンピュータの概略図である。
符号の説明
1、2 カメラ
4 コンピュータ
第1の画像
第2の画像
’、I’ 第3の画像
、D 第1の視差マップ
’、D’ 第2の視差マップ

Claims (23)

  1. 画像を処理する方法であって、
    (a)シーンの第1および第2の画像(I、I)を提供する(30a、30b)ステップと、
    (b)該第1および第2の画像(I、I)にステレオマッチングアルゴリズム(M)を適用すること(31)により、該第1の画像から該第2の画像へ対応する点の間でマップする第1の視差マップ(D、D)を生成するステップと、
    (c)該第1の視差マップを第3の画像の座標の中に前方マッピングすることにより、第2の視差マップ(D’、D’)を生成するステップと、
    (d)該第2の視差マップを使用して、該第3の画像の中の少なくともいくつかのピクセル位置から該第1および第2の画像の中の対応する点に逆方向マップ(B)することによって、該第3の画像の中の少なくともいくつかの該ピクセルのそれぞれにあり得る色値を取得するステップと、
    (e)該あり得る色値に基づいて該第3の画像の中の少なくともいくつかの該ピクセルのそれぞれに対して最終的色値を指定することによって、該シーンの新しいビュー(I’、I’)を提供するステップと
    を包含する、方法。
  2. 前記第1および第2の画像(I、I)は、水平方向のオフセットのみによって関連づけられるように補正されていることを特徴とする、請求項1に記載の方法。
  3. 前記第3の画像の位置は、利用者によって選択されることを特徴とする、請求項1または2に記載の方法。
  4. 前記第3の画像の位置は、前記第1および第2の画像(I、I)の位置の間にあることを特徴とする、請求項1から3のいずれか一項に記載の方法。
  5. 前記ステップ(c)は、前記第2の視差マップ(D’、D’)のそれぞれのエントリーが前記第1および第2の画像のそれぞれの中に唯一の位置を識別するように、前記第1の視差マップ(D、D)を前方マップすることを包含することを特徴とする、請求項1から4のいずれか一項に記載の方法。
  6. 前記ステップ(c)は、前記第2の視差マップ(D’、D’)の中の隙間が満たされるように、前記前方マッピングを調整することを包含することを特徴とする、請求項5に記載の方法。
  7. 前記第2の視差マップ(D’、D’)の中の隙間は、各隙間のそれぞれの端における前記第2の視差マップ(D’、D’)の値に基づいて埋められることを特徴とする、請求項6に記載の方法。
  8. 前記ステップ(d)において、前記第1および第2の画像(I、I)から前記第3の画像の中の対応するそれぞれのピクセル位置に対して取得される色値は、該第1および第2の画像(I、I)のそれぞれの中の隣接するピクセルの間の内挿法によって取得されることを特徴とする、請求項1から7のいずれか一項に記載の方法。
  9. 前記内挿法は、一次近似法および三次近似法のいずれか一つによることを特徴とする、請求項8に記載の方法。
  10. 前記ステップ(e)は、最終的色値を提供するためにあり得る色値を混合することを包含することを特徴とする、請求項1から9のいずれか一項に記載の方法。
  11. 前記混合は、前記第1および第2の画像(I、I)の撮影位置に対する前記第3の画像の位置の近接度に従って行われることを特徴とする、請求項10に記載の方法。
  12. 前記色の混合は、前記第1および第2の画像(I、I)のうち前記第3の画像により近い方が前記第3の画像の中のピクセルの色により大きな影響を有するように重み付けがなされることを特徴とする、請求項11に記載の方法。
  13. 前記最終的な色値は、あり得る色値のうちの一つであることを特徴とする、請求項1から10のいずれか一項に記載の方法。
  14. 前記ステップ(b)のステレオマッチングアルゴリズム(M)は、単一の視差マップを作成するために単調的な制約を強制することを包含することを特徴とする、請求項1から13のいずれか一項に記載の方法。
  15. 該方法は、
    前記第1および第2の画像(I、I)を入れ替えて前記ステップ(b)を繰り返すことにより、前記第2の画像から前記第1の画像に対応する点の間でマップする異なる第1の視差マップを生成するステップと、
    該異なる第1の視差マップに対して前記ステップ(c)を繰り返すことにより異なる第2の視差マップを生成するステップとをさらに包含し、
    あり得る色値を取得するために、二つの第2の視差マップ(D’、D’)のそれぞれに対して前記ステップ(d)が実行されることを特徴とする、請求項1から14のいずれか一項に記載の方法。
  16. 前記ステップ(d)および(e)に先立って、前記二つの第2の視差マップ(D’、D’)が前記第3の画像の座標の中に併合されることを特徴とする、請求項15に記載の方法。
  17. 前記二つの第1の視差マップ(D、D)を比較し、全ての整合しないエントリーを削除することによって、単一の第1の視差マップを提供するさらなるステップを包含することを特徴とする、請求項16に記載の方法。
  18. 異なる第3の画像位置に対して前記ステップ(c)からステップ(e)までを繰り返すことによって、前記シーンの新しい一対のステレオビューを形成する二つの第3の画像(I’、I’)を作成するさらなるステップを包含することを特徴とする、請求項1から17のいずれか一項に記載の方法。
  19. 第1および第2の画像(I、I)を提供する画像取得手段(1、2)と、
    該第1および第2の画像(I、I)に対してステレオマッチングアルゴリズムを適用し、第1の画像から第2の画像への対応する点の間をマップする第1の視差マップ(D、D)を生成する手段(4)と、
    該第1の視差マップ(D、D)を第3の画像(I’、I’)の座標の中に前方マッピングすることによって、第2の視差マップ(D’、D’)を生成する手段(4)とを備えた、画像処理のための装置であって、該装置は、
    該第2の視差マップ(D’、D’)を使用して該第3の画像(I’、I’)の中の少なくともいくつかのピクセル位置に対して該第1及び第2の画像(I、I)の中の対応する点への逆方向マッピングを実行することにより、該第3の画像(I’、I’)の中の少なくともいくつかのピクセルのそれぞれに対してあり得る色値を獲得する手段(4)と、
    該あり得る色値に基づいて該第3の画像(I’、I’)の中の少なくともいくつかのピクセルのそれぞれに対して最終的色を指定することによって、該シーンの新しいビューを提供するための手段と
    を備えたことを特徴とする、装置。
  20. 請求項1から18のいずれか一項に記載する方法を実行するためのコンピュータ(4)を制御するためのプログラム。
  21. 記憶媒体(21)に蓄えられる、請求項20に記載のプログラム。
  22. 請求項20に記載のプログラムの、通信ネットワーク(27)を経由しての送信。
  23. 請求項1から18のいずれか一項に記載する方法を実行するためにプログラムされたコンピュータ(4)。
JP2005235059A 2004-08-26 2005-08-12 画像処理方法、画像処理装置、画像処理方法のプログラムおよびプログラム記録媒体 Expired - Fee Related JP4548840B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB0418965A GB2417628A (en) 2004-08-26 2004-08-26 Creating a new image from two images of a scene

Publications (2)

Publication Number Publication Date
JP2006065862A true JP2006065862A (ja) 2006-03-09
JP4548840B2 JP4548840B2 (ja) 2010-09-22

Family

ID=33104626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005235059A Expired - Fee Related JP4548840B2 (ja) 2004-08-26 2005-08-12 画像処理方法、画像処理装置、画像処理方法のプログラムおよびプログラム記録媒体

Country Status (3)

Country Link
US (1) US7505623B2 (ja)
JP (1) JP4548840B2 (ja)
GB (1) GB2417628A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079505A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム
DE102017125313A1 (de) 2016-11-07 2018-05-09 Ngk Spark Plug Co., Ltd. Sensorsteuerung, Verbrennungsmotor-Steuersystem und Verbrennungsmotorsteuerung

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2564383C (en) * 2004-04-30 2014-06-17 Research In Motion Limited System and method for administering digital certificate checking
JP2011081605A (ja) * 2009-10-07 2011-04-21 Fujifilm Corp 画像処理装置、方法及びプログラム
JP5024410B2 (ja) * 2010-03-29 2012-09-12 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5556394B2 (ja) 2010-06-07 2014-07-23 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
KR20120049997A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 영상 변환 장치 및 이를 이용하는 디스플레이 장치와 그 방법들
EP2466898B1 (en) 2010-12-20 2017-10-18 Vestel Elektronik Sanayi ve Ticaret A.S. A method and apparatus for calibration of stereo images
US8773427B2 (en) * 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品
KR20130074383A (ko) * 2011-12-26 2013-07-04 삼성전자주식회사 다중-레이어 표현을 사용하는 영상 처리 방법 및 장치
US9361699B2 (en) * 2012-06-27 2016-06-07 Imec Taiwan Co. Imaging system and method
EP2860975A1 (en) * 2013-10-09 2015-04-15 Thomson Licensing Method for processing at least one disparity map, corresponding electronic device and computer program product
WO2017014691A1 (en) * 2015-07-17 2017-01-26 Heptagon Micro Optics Pte. Ltd. Generating a distance map based on captured images of a scene
WO2017023210A1 (en) 2015-08-06 2017-02-09 Heptagon Micro Optics Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
WO2017030507A1 (en) 2015-08-19 2017-02-23 Heptagon Micro Optics Pte. Ltd. Generating a disparity map having reduced over-smoothing
US10097805B2 (en) 2015-10-13 2018-10-09 Apple Inc. Multi-image color refinement with application to disparity estimation
US10380753B1 (en) * 2018-05-30 2019-08-13 Aimotive Kft. Method and apparatus for generating a displacement map of an input dataset pair
KR20210116953A (ko) * 2020-03-18 2021-09-28 삼성전자주식회사 타겟 트래킹 방법 및 장치
CN114485953A (zh) * 2020-11-13 2022-05-13 杭州海康威视数字技术股份有限公司 温度测量方法、装置及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
WO2002069272A2 (en) * 2001-01-26 2002-09-06 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
WO2004053591A1 (en) * 2002-10-31 2004-06-24 Hewlett-Packard Development Company, L.P. Image capture and and display and method for generating a synthesized image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
GB9823689D0 (en) * 1998-10-30 1998-12-23 Greenagate Limited Improved methods and apparatus for 3-D imaging
US6714672B1 (en) * 1999-10-27 2004-03-30 Canon Kabushiki Kaisha Automated stereo fundus evaluation
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
US7292735B2 (en) * 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0927969A (ja) * 1995-05-08 1997-01-28 Matsushita Electric Ind Co Ltd 複数画像の中間像生成方法及び視差推定方法および装置
WO2002069272A2 (en) * 2001-01-26 2002-09-06 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
WO2004053591A1 (en) * 2002-10-31 2004-06-24 Hewlett-Packard Development Company, L.P. Image capture and and display and method for generating a synthesized image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079505A (ja) * 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム
US8811717B2 (en) 2008-09-25 2014-08-19 Kddi Corporation Image generating apparatus and computer program
DE102017125313A1 (de) 2016-11-07 2018-05-09 Ngk Spark Plug Co., Ltd. Sensorsteuerung, Verbrennungsmotor-Steuersystem und Verbrennungsmotorsteuerung

Also Published As

Publication number Publication date
US7505623B2 (en) 2009-03-17
GB0418965D0 (en) 2004-09-29
US20060045329A1 (en) 2006-03-02
GB2417628A (en) 2006-03-01
JP4548840B2 (ja) 2010-09-22

Similar Documents

Publication Publication Date Title
JP4548840B2 (ja) 画像処理方法、画像処理装置、画像処理方法のプログラムおよびプログラム記録媒体
JP4679033B2 (ja) 深度マップのメジアン値融合のためのシステムおよび方法
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
KR101613721B1 (ko) 2d 이미지 시퀀스들로부터 3d 장면을 재구성하기 위한방법
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8791941B2 (en) Systems and methods for 2-D to 3-D image conversion using mask to model, or model to mask, conversion
JP4889182B2 (ja) ベイジアンフレームワークにおける仮説混合による深度マップの生成
KR20180003535A (ko) 라이더 스테레오 융합 실사 3d 모델 가상 현실 비디오
RU2382406C1 (ru) Способ улучшения карты диспарантности и устройство для реализации способа
US20120182403A1 (en) Stereoscopic imaging
JP4828506B2 (ja) 仮想視点画像生成装置、プログラムおよび記録媒体
Dellepiane et al. Flow-based local optimization for image-to-geometry projection
US20080226194A1 (en) Systems and methods for treating occlusions in 2-d to 3-d image conversion
JP2009211335A (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US9443338B2 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
CA2540538C (en) Stereoscopic imaging
JP5373931B2 (ja) 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
EP3651119A1 (en) Disparity estimation from a wide angle image
Jantet et al. Joint projection filling method for occlusion handling in depth-image-based rendering
Sharma et al. A novel image fusion scheme for ftv view synthesis based on layered depth scene representation & scale periodic transform
CN107590857A (zh) 用于生成虚拟视点图像的设备和方法
Howard et al. Depth-based patch scaling for content-aware stereo image completion
CN117061720B (zh) 基于单目图像及深度图像渲染的立体图像对生成方法
JP2002095011A (ja) 疑似3次元画像生成方法および装置
CN104902253B (zh) 一种基于改进贝叶斯模型的立体图像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100705

R150 Certificate of patent or registration of utility model

Ref document number: 4548840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

LAPS Cancellation because of no payment of annual fees