JP3728160B2 - 奥行き画像計測装置及び方法、並びに複合現実感提示システム - Google Patents

奥行き画像計測装置及び方法、並びに複合現実感提示システム Download PDF

Info

Publication number
JP3728160B2
JP3728160B2 JP34669999A JP34669999A JP3728160B2 JP 3728160 B2 JP3728160 B2 JP 3728160B2 JP 34669999 A JP34669999 A JP 34669999A JP 34669999 A JP34669999 A JP 34669999A JP 3728160 B2 JP3728160 B2 JP 3728160B2
Authority
JP
Japan
Prior art keywords
depth information
image
reference image
measuring
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34669999A
Other languages
English (en)
Other versions
JP2001169308A (ja
Inventor
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP34669999A priority Critical patent/JP3728160B2/ja
Priority to US09/648,295 priority patent/US7295697B1/en
Publication of JP2001169308A publication Critical patent/JP2001169308A/ja
Application granted granted Critical
Publication of JP3728160B2 publication Critical patent/JP3728160B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は所定位置から取得した実空間画像から、画像取得位置からその画像に含まれる物体との距離情報(奥行き情報)を取得する奥行き情報計測技術に関し、特に計測処理速度と処理精度の両面に優れた奥行き情報計測技術に関する。
【0002】
【従来の技術】
近年、現実空間と仮想空間の継ぎ目のない結合を目的とした複合現実感(Mixed Reality、MR)に関する研究が盛んになっている。MRは従来、現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(VR)の世界と現実空間との共存を目的とし、VRを増強する技術として注目されている。
【0003】
複合現実感を実現する装置として代表的なものは、ヘッドマウントディスプレイ(HMD)である。すなわち、現実空間(又はそのビデオ画像)と仮想空間画像をHMDに合成して表示することにより、複合現実感を実現するものである。また、HMDを用いたMRの方式としては、半透過型(シースルー型)のヘッドマウントディスプレイ(HMD)にコンピュータグラフィックス(CG)等で作成した仮想空間画像を表示することで、体験者自身の目で直接視認した現実空間とディスプレイ上の仮想空間画像が体験者の目で合成されて複合現実空間が体感される光学シースルー方式と、HMD等に装着したビデオカメラで撮影した画像データにCG等の画像を合成した複合現実空間画像を生成した後、その画像をHMDに表示することにより体験者が複合現実空間を体感するビデオシースルー方式がある。
【0004】
MRの用途としては、患者の体内の様子を透過しているように医師に提示する医療補助や、工場において製品の組み立て手順を実物に重ねて表示する作業補助、現実空間に仮想空間画像で生成された仮想の敵やボール等を表示し、射撃やスポーツなどを行なうゲーム、現実空間の部屋に仮想の家具を配置するリビングシミュレーションなど、今までのVRとは質的に全く異なった新たな分野が期待されている。
【0005】
このような複合現実空間を実現するためには、現実空間の物体の位置関係を把握しておく必要がある。すなわち、仮想空間画像で示される物体(仮想物体)を表示する場合には、現実空間に存在する物体に隠れる部分は表示しないようにする必要があるし、仮想物体を移動させる場合であれば、現実空間の物体と重なる位置には移動できないようにする必要がある。また、ゲームなどで現実空間の物体と仮想物体との当たり判定を行なう場合にも、現実物体の位置情報が必要になる。
【0006】
現実空間の物***置情報を取得する方法として、レーザー光を走査してその戻り光受信までの時間により距離情報(奥行き情報)を求めるレーザレンジファインダを用いる方法や、複数のビデオカメラにより現実空間を撮影し、その画像データから、撮影位置から物体までの距離を求める多眼ステレオ法などがある。また、奥行き情報の利用に当たっては、距離に応じて輝度を変化させたり、色を割り当てるなどの方法で画像化した奥行き画像の形で用いることが多い。
【0007】
【発明が解決しようとする課題】
複合現実感提示システムにおいては、ユーザの視点位置において現実空間と仮想空間とを違和感無く整合させて提示(表示)する必要がある。ユーザの視点位置は常に移動するため、奥行き情報及び視点位置情報の検出及びこれらの情報に基づく描画を実時間に近い速度で行なう必要がある。特にゲームなどのアプリケーションにおいてはユーザの視点位置は高速にかつ大きく移動するため、奥行き情報の取得(奥行き画像の生成)にも更に高速性が要求される。
【0008】
しかしながら、従来の奥行き情報計測装置においては、演算が高速であれば得られる奥行き情報の精度は低く、高精度の情報を得ようとすると演算が複雑になり処理時間が長くなるという問題を有していた。
【0009】
本発明はこのような従来技術の問題点に鑑みなされたものであり、高速な演算時間で高精度な奥行き情報の取得が可能な奥行き情報計測装置及び方法、並びに複合現実感提示システムを提供することを目的とする。
【0018】
また、本発明の別の要旨は、基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、基準画像と周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、前記基準画像の特性に応じて、基準画像と周辺画像から、第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、基準画像もしくは周辺画像の所定領域毎に、第1の奥行き情報と第2の奥行き情報のいずれか一方を選択する選択手段と、第1の奥行き情報と第2の奥行き情報を、選択信号に応じて合成して基準画像の取得位置における奥行き情報として出力する合成手段とを有し、第1の奥行き情報計測手段が、第2の奥行き情報計測手段よりも処理速度が速く、第2の奥行き情報が、第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測装置に存する。
【0019】
また、本発明の別の要旨は、基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、基準画像の取得位置における奥行き情報を計測する奥行き情報計測方法であって、基準画像と周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測ステップと、基準画像と周辺画像から、第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測ステップと、前記基準画像の特性に応じて、基準画像もしくは周辺画像の所定領域毎に、第1の奥行き情報と第2の奥行き情報のいずれか一方を選択する選択ステップと、第1の奥行き情報と第2の奥行き情報を、選択信号に応じて合成して基準画像の取得位置における奥行き情報として出力する合成ステップとを有し、第1の奥行き情報計測ステップが、第2の奥行き情報計測ステップでの計測処理よりも処理速度が速い方法により第1の奥行き情報を計測し、第2の奥行き情報が、第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測方法に存する。
【0020】
また、本発明の別の要旨は、コンピュータ装置に本発明の奥行き情報計測方法を実現させるためのプログラムを格納したコンピュータ装置読み取り可能な記録媒体に存する。
【0021】
【発明の実施の形態】
以下、本発明をその好適な実施形態に基づき更に詳細に説明する。
(第1の実施形態)
図1は、本発明の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。本実施形態において、奥行き情報は奥行き画像であり、多眼ステレオ法を用いる場合の構成例を示す。
【0022】
図において、奥行き情報計測装置は、基準カメラ11及び周辺カメラ12からなるステレオカメラと、動き検出部20と、高速ステレオ処理部30と、高精度ステレオ処理部40及び画像合成部50とからなる。基準カメラ11で撮影された基準画像は,動き検出部20,高速ステレオ処理部30及び高精細ステレオ処理部40にそれぞれ入力される.一方,周辺カメラ12で撮影された周辺画像は,高速ステレオ処理部30及び高精細ステレオ処理部40に入力される.ここで、図を簡単にするためにステレオカメラは2台のカメラで構成されているように示しているが、後述する高速ステレオ処理部30及び高精度ステレオ処理部40における処理精度を向上させるため、実際には3台以上のカメラを用いることが好ましい。特に、5台、9台、13台・・・のように、1台の基準カメラを中央に配置した正方形領域に、複数台の周辺カメラを規則的に配置した所謂カメラマトリックスを用いることが好ましい。3台目以降のカメラについても、周辺カメラ12と同様に、高速ステレオ処理部30及び高精度ステレオ処理部40にそれぞれ入力されるように構成すればよい。
【0023】
高速ステレオ処理部30と高精度ステレオ処理部40は、それぞれ単独でステレオカメラで撮影した画像データから奥行き情報を計測し奥行き画像を生成する機能を有するが、高速ステレオ処理部30は高精度ステレオ処理部40と比較して精度が低いが高速に奥行き画像を生成する。逆に、高精度ステレオ処理部40は高速ステレオ処理部30よりも精度の高い奥行き画像を生成可能であるが、生成に必要とする時間が長い。
【0024】
ここで、上述の実時間処理に近い高速処理を実現するためには、少なくとも高速ステレオ処理部30はビデオフレームレート(30フレーム/秒又は60フレーム/秒)における1フレームの処理時間以下の時間で奥行き画像を出力可能であることが好ましい。すなわち、高速ステレオ処理部30は1画面分の画像データを処理して奥行き画像を生成する処理が33ミリ秒もしくは17ミリ秒以内で可能な能力を有することが好ましい。このような高速ステレオ処理部30は、例えば金出武雄、木村茂:「ビデオレート・ステレオマシン」、日本ロボット学会誌解説、vol.13, No.3, pp. 322-326, 1995や、後述する高精度ステレオ処理の例を開示するK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995等の論文に開示に基づき構成することができる。
【0025】
このような高速ステレオ処理部30における具体的な処理としては、(1)対応候補点の相違度(又は類似度)演算、(2)類似度による視差推定、(3)推定された視差の画像化という流れになる。以下、各処理について説明する。
【0026】
例えば、図2に示されたように、互いに光軸が平行で、全レンズ中心を通る平面と光軸が直交するように等間隔で配置されたN台(本図ではN=9)のカメラマトリクスによって撮影された、中心画像(基準画像)I0,0とN−1枚の周辺画像Ik,l(図2では−1≦k,l≦1)によって構成されるN−1組のステレオ画像対から、中心画像I0,0上の画素I0,0(x,y)における視差推定は次の手順で行なうことができる。
【0027】
(1)相違度の算出
まず画素I0,0(x,y)と、視差をdと仮定したときの各種右辺画像上の対応点Ik,l(x−kd,y−ld)との相違度ek,l(x,y,d)を求める。相違度は、2画素間(または、各画素を中心とした小ブロック間)のRGB空間におけるユークリッド距離を用いる。
【0028】
(2)推定視差の算出
各ステレオ画像対で得られた相違度ek,l(x,y,d)の総和
【0029】
【数1】
Figure 0003728160
を視差dのペナルティ値として定義し、これを最小とするdをI0,0(x,y)における推定視差d’とする。
【0030】
(3)推定された視差の画像化
各画素に対して求めた推定視差d’の値を、対応する画素の画素値として与えることで、視差画像、即ち奥行き画像を生成する。
一方、高精度ステレオ処理部40は、高速ステレオ処理部30よりも処理速度は遅くても、得られる奥行き画像の精度が高くなくてはならない。具体的には高速ステレオ処理部30では考慮していない条件、例えば隠れの影響を考慮して奥行き画像生成を行なうことにより、高速度ステレオ処理部30で生成する奥行き画像よりも高精度な奥行き画像を生成することができる。
【0031】
最も単純な隠れの検出方法は、対となるステレオ画像の一方には存在するが、一方には存在しない部分を探索することである。また、ステレオ画像を取得するためのカメラの台数を増加させることによって隠れ検出の精度を向上させることが可能である。このような多眼ステレオ法において、隠れの影響を考慮した奥行き画像を生成する方法としては、例えば上述のK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995等の論文に開示されている。
【0032】
具体的には、高速ステレオ法における隠れの影響を以下のような原理に基づいて補正した推定視差を算出する。
隠れは、カメラマトリクスの中心に位置するカメラで撮影した中心画像上では観測できる点が、その点よりも手前に位置する物体によって隠され、他のカメラで撮影した1つ以上の画像(周辺画像)上では観測できないという現象である。
【0033】
ステレオ画像対において対応する画素間の実際の視差dに対して、隠れが発生している部分においては、前述した高速ステレオ処理における対応点Ik,l(x−kd,y−ld)は隠れの原因となる物体の像であり、相違度ek,l(x,y,d)は小さくならない。この結果、式(1)に示した視差dのペナルティ値e(x,y,d)も大きくなり、ペナルティ値を最小にする値として実際の視差dとは異なる値が選ばれる可能性が高い。
【0034】
異なる値の選択を回避するには、隠れが発生している周辺画像を用いずに式(1)の計算を行なえばよい。しかしながら、相違度が大きい場合に、それが視差dが正しくないことを意味するのか、隠れによるものかを判別することは困難である。
【0035】
周辺画像を撮影するカメラのレンズ中心と、撮影される空間の対象点とを結ぶ直線上に他の物体が存在する場合、このカメラで撮影した周辺画像には隠れが含まれることになる。従って、隠れを含んだ周辺画像の組み合わせは、隠れの原因となる物体の輪郭をカメラマトリクスの格子点で標本化したものと考えることができる。
【0036】
隠れの原因となる物体の輪郭が局所的には直線であると仮定すれば、隠れを有する周辺画像の組み合わせを8通りに限定し、偽の視差と隠れが発生している正しい視差を以下のようにして区別することが可能となる。
【0037】
隠れを含んだ周辺画像の組み合わせを表現したタイプ0〜8のマスク(隠れマスク)M0〜M8を図3のように用意する。黒い部分が隠れを有する周辺画像とし、その値を0、白い部分が隠れのない画像とし、その値を1とそれぞれ表す。また、M0は全ての画像において隠れがない場合である。
【0038】
前述のように、隠れが含まれる周辺画像は用いないとすると、隠れマスクMtで表されるような状態が生じていると仮定したときの視差dに対するペナルティを
【0039】
【数2】
Figure 0003728160
と再定義する。
【0040】
ここで、nは各マスクMtの周辺画像における1の数である。wは隠れが含まれない場合にt=0が選択されやすくなるような重みで、w0=1、それ以外のときは1よりもわずかに大きな値に設定する。このとき、e(x,y,d)は実際の視差dを仮定し、実際に隠れが含まれる周辺画像の組み合わせに対応する隠れマスクを用いて評価した場合に最小となる。
【0041】
そして、高速ステレオ処理において記載したペナルティeの評価式(1)を、
【数3】
Figure 0003728160
と再定義し、これを最小とする視差dを隠れを考慮したI0,0(x,y)における推定視差d’とする。そして、この推定視差d’を画像化することにより、隠れを考慮した奥行き画像(視差画像)が生成される。
【0042】
高精度ステレオ処理部40が1つの奥行き画像を生成するのに許される時間は、奥行き画像の用途及び高速ステレオ処理部30で得られる奥行き画像精度、処理時間等の条件に応じて適宜決定する。逆に、これらの条件を満たす範囲内で最も精度良く奥行き画像を生成することの可能な処理を高精度ステレオ処理部40で行なうように決定することもできる。
【0043】
本実施形態の奥行き情報計測装置は、高速ステレオ処理部30で生成した奥行き画像データと、高精度ステレオ処理部40で生成した奥行き画像データを、画像データの特性に応じて切り替えて合成し、1画面分の奥行き画像を生成することを特徴とする。
【0044】
本実施形態においては、動き検出部20において基準カメラ11が取得した基準画像の動きを検出し、画像合成部50は動き検出部20の検出結果を基に、動きのある部分には高速ステレオ処理部30の出力する奥行き画像データを、動きの無い部分については高精度ステレオ処理部40の生成する奥行き画像データを選択して合成を行ない、1画面分の奥行き画像を生成する。
【0045】
すなわち、画像データ中、現実空間中の静止物体など、距離情報の変化の周期が高精度ステレオ処理部40で1画面分の奥行き画像生成に必要な時間(単位処理時間)に対して十分長い部分については高精度ステレオ処理部40の生成する奥行き画像データを、移動物体など距離情報の変化の周期が高精度ステレオ処理部40の単位処理時間よりも短い部分については高速ステレオ処理部30の生成する奥行き画像データを選択することにより、精度と処理速度をバランスよく両立した奥行き画像を得ることができる。
【0046】
この場合、高精度ステレオ処理部40の生成した奥行き画像データは、高速ステレオ処理部30で生成した複数の奥行き画像データに対して共通に使用されることになる。しかし、上述したように高精度ステレオ処理部40の生成した奥行き画像を用いるのは、静止部分のような距離情報の変化が十分長い周期の部分であるから、実使用上の問題が生じる可能性は非常に小さい。
【0047】
動き検出部20としては、MPEGエンコーダ等、動画の圧縮符号化を行なう回路を用いて実現することができる。動き検出部20の出力する動き情報としては、最低限動きのあった領域が認識できればよいが、動きの量、方向等の情報を含んでいても良い。
【0048】
画像合成部50は、動き検出部20からの動き情報によって高速ステレオ処理部30の出力か高精度ステレオ処理部40の出力かを1データ毎、即ち画像データの1画素毎に選択するセレクタである。選択の判断基準は動きが検出されたかされなかったかという最も単純な場合から、所定の移動量以下であれば高精度ステレオ処理部40の出力、所定の以上量を超える場合には高速ステレオ処理部30の出力としても良い。
【0049】
図4は、動作開始時における各部出力のタイミングを示した図である。ステレオカメラのフレームレートの逆数(すなわち、1フレーム分の画像取得時間)をtとし、t0〜t6はt間隔であるとする。説明を簡単にするため、高速ステレオ処理部30が1画面分の処理を行なうのに必要な時間がt、高精度ステレオ処理部40の処理時間が3t、画像合成部50が高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力とを合成して出力するのに時間t必要であるとする。また、図示しないが、動き検出部20はtに対して十分短い時間で動き情報を検出し、画像合成部50に供給可能であるものとする。
【0050】
まず、時刻t0において、ステレオカメラが画像I0を取得する。この画像I0は動き検出部20、高速ステレオ処理部30及び高精度ステレオ処理部40に入力され、処理が開始される。
【0051】
高速ステレオ処理部30の処理はt時間後の時刻t1に終了し、画像データI0に対応する奥行き画像S0が画像合成部50へ出力される。この時点では高精度ステレオ処理部40の処理は終了していないため、画像合成部50は高速ステレオ処理部30の出力S0をそのまま出力し、時刻t2に出力を完了する。
【0052】
そして、時刻t1で取得した画像データI1に対する高速ステレオ処理部30の出力S1が画像合成部50に供給される。時刻t2においても高精度ステレオ処理部40の処理は終了していないため、画像合成部50は再び高速ステレオ処理部30の出力S1をそのまま出力する。
【0053】
時刻t3になると、高精度ステレオ処理部40の処理が終了し、取得画像データI0に対応する高精度の奥行き画像H0が出力される。一方、同時刻t3において、高速ステレオ処理部30では時刻t2で取得した画像データI2に対応する奥行き画像S2が出力される。
【0054】
画像合成部50は、動き検出部20が時刻t3及びt2における画像データI3及びI2に基づいて求めた動き情報に基づき、動きが所定値以下の部分については高精度ステレオ処理部40の出力した奥行き画像H0を、それ以外の部分については高速ステレオ処理部30の出力した奥行き画像S2を選択して出力する。
【0055】
時刻t4〜t6においては、高精度ステレオ処理部40の出力H0と、高速ステレオ処理部30の出力S2〜S4とを用いて、画像合成部50が最終的な奥行き画像を出力する。時刻t6で高精度ステレオ処理部40の次の出力である奥行き画像H3が得られるので、図示しない時刻t7〜t9においてはこの奥行き画像H3と高速ステレオ処理部30の出力する奥行き画像S5〜S7を用いて最終的な奥行き画像H3+S5、H3+S6及びH3+S7が得られる。以後同様に処理を行なう。
【0056】
また、本実施形態において、動き情報を高速ステレオ処理部30に供給し、動きがほぼ無く、高精度ステレオ処理部40の出力を利用できると思われる領域については高速ステレオ処理部30の処理を省くことも可能である。ただし、この場合には、動き検出部20の処理速度が高速ステレオ処理部30の処理速度に比べて十分早くないと大きな効果は期待できない。
【0057】
(第2の実施形態)
第1の実施形態においては、動き検出部20による動き情報によって高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力を選択するように構成した場合について説明したが、動き情報以外にも選択条件を用いることができることはいうまでもない。
【0058】
本実施形態は、高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力を選択する条件として、奥行き情報の信頼度を用いることを特徴とする。
【0059】
図5は、本実施形態に係る奥行き情報計測装置の構成例を示す図である。図1に示した第1の実施形態に係る装置の構成とは、動き検出部20が無く、動き情報の代わりに高速ステレオ処理部30’から出力される奥行き情報の信頼度を用いる点のみが異なる。本実施形態において,I0,0(x,y)における推定視差S(x,y)の信頼度とは、例えば,その導出の際のペナルティ値e(x,y,S(x,y))(あるいは定数からのペナルティ値の差分値)によって定義される.高速ステレオ処理部30’は,奥行き画像S以外に,各画素毎に推定視差の信頼度を画素値として保存した信頼度画像を出力する。
【0060】
そして、高速ステレオ処理部30’において所定の領域毎に奥行き画像データの信頼度を算出し、信頼度の低い領域については高精度ステレオ処理部40の出力を、信頼度の高い領域については高速ステレオ処理部30’の出力を画像合成部50’で選択する。
【0061】
(第3の実施形態)
図6は、本発明の第3の実施形態に係る奥行き情報計測装置の構成を示すブロック図である。本実施形態は、高速ステレオ処理部30’の出力と高精度ステレオ処理部40の出力を選択する条件として、動き情報と奥行き情報の信頼度の両方を用いることを特徴とする。
【0062】
具体的な選択条件としては、例えば信頼度が所定の値より低いか、動きが処理量よりも少ない領域については高精度ステレオ処理部40の出力を、それ以外の領域は高速ステレオ処理部30’の出力を画像合成部50’’で選択して出力するように構成すればよい。
【0063】
(第4の実施形態)
第2の実施形態においては、高速ステレオ処理部30’と高精細ステレオ処理部40は共に画像中の全領域に対して奥行き情報の計測処理を行なっていたが、図7に示すように、高速ステレオ処理部30’の出力する信頼度を奥行き情報合成の手がかりとして用いる場合には、この信頼度情報を高精細ステレオ処理部40’に別途入力することで、画像合成部50’において高精細ステレオ処理部40’の出力した奥行き情報が選択される領域のみに奥行き情報計測処理を行なうような構成にすることも可能である。これにより、高精細ステレオ処理部40’の処理量を軽減できる。同様に、一般に画像合成部50に入力される奥行き情報選択の指標となる情報を高速ステレオ処理部30あるいは/又は高精細ステレオ処理部40に入力することで、画像合成部50で選択される領域のみに奥行き情報計測処理を限定することが可能である。
【0064】
(第5の実施形態)
第1〜第4の実施形態においては、高速ステレオ処理部と高精細ステレオ処理部がそれぞれ全ての処理を独立して行なう構成であったが、両者に共通する処理については別の手段を用いて一括して行なってもよい。
【0065】
例えば、第1の実施形態において(1)の相違度の算出は高速ステレオ処理部30と高精細ステレオ処理部40の両者で全く同一の処理であるので、図8に示すように、相違度の算出を行なう相違度算出部15を別途設け、相違度算出部15の演算結果を各ステレオ処理部35、45に転送する構成とすることができる。
【0066】
このような構成の場合、各ステレオ処理部35及び45は、第1の実施形態において相違度算出に引き続く処理((2)の視差算出)以降の処理を行なう構成とすることが可能である。
【0067】
もちろん、各ステレオ処理部30及び40の構成は第1の実施形態と同じ、全ての処理が行える構成にして、(2)の視差算出以降の実施のみ行なうようにしてもよい。また、第2、第3の実施形態のように、奥行き画像データの信頼度や動き情報の組み合わせによる条件で画像合成部50の選択を制御しても良いことは言うまでもない。
【0068】
【他の実施の形態】
上述の実施形態においては、奥行き情報として奥行き画像の1種である視差画像を生成する場合についてのみ説明したが、推定視差から算出した距離を画像化した距離画像を生成しても良いし、また推定視差の計測のみ、あるいは推定視差から算出した距離のみを計測し、画像化は他の装置を用いて行なうことも可能である。
【0069】
また、上述の実施形態においては、ステレオ画像対を生成するステレオカメラを奥行き情報計測装置の構成として記載したが、このようなステレオカメラは本発明による奥行き情報計測装置に必須ではなく、外部から供給されるステレオ画像データを用いて、奥行き情報を計測する構成であっても本発明の効果は十分達成される。
【0070】
また、上述の実施形態においては、高速ステレオ処理部30と高精度ステレオ処理部40における奥行き画像生成方法として上述のK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995に開示されている方法を示したが、例えばK. Satoh and Y. Ohta, “Occlusion Detectable Stereo ---Systematic Comparison of Detection Algorithms---,” Proc. International Conference on Pattern Recognition, pp280-286, 1996に開示されているような、各ステレオ画像対の評価値ek,l(x,y,d)をソートし小さいほうから数組の和をペナルティ値とする方法等、他の方法を用いてもよい。
【0071】
また、上記の実施形態においては、ステレオカメラとして、図2に示されたように、互いに光軸が平行で、全レンズ中心を通る平面と光軸が直交するように等間隔で配置されたN台のカメラマトリクスを用いているが、カメラ配置は必ずしもこの関係を保つ必要はなく、ステレオ画像対が得られれば、任意の台数、任意の配置を用いることができる。
【0072】
加えて、高精細ステレオ処理部40の奥行き画像生成方法として、隠れ以外の要因を考慮したいずれの高精細ステレオ法を用いても良い。
【0073】
例えば、前述の高速ステレオ処理部30の奥行き画像生成方法では、入力画像上のテクスチャ性の低い領域(模様のない領域)については正確な奥行き情報を計測することが困難である。したがって、ステレオ画像対に含まれるテクスチャ性の低い領域の検出部を付加し、検出された領域についてはテクスチャ性の低い領域でも正確に奥行き情報を計測することのできる他の高精度ステレオ処理部の出力を選択するように構成すればよい。
【0074】
このようなテクスチャ性の低い領域に適したステレオ処理方法としては、例えば大田友一、金出武雄“走査線間の整合性を考慮した2段の動的計画法によるステレオ対応探索”、情報処理、No.26, Vol.11, pp1356-1368, 1985に開示されている手法を用いることができる。
【0075】
そして、基準画像の空間的な濃淡分布の度合いに応じて、テクスチャ性の高い領域については高精度ステレオ処理部40の出力を、テクスチャ性の低い領域については高速ステレオ処理部30の出力を画像合成部50で選択するように構成すれば、さらに精度の高い測定結果(奥行き情報)が得られる。
【0076】
また、3種類以上のステレオ処理部を設け、さらにきめ細かい選択条件によって最適なステレオ処理部の出力を選択するように構成することも可能である。
【0077】
たとえば、上述の実施形態にテクスチャ性の低い領域に適した別の高精度ステレオ処理部と、基準画像の空間的濃度分布の測定処理部を組み合わせ、濃度変化が十分ある領域の高精度な奥行き情報としては通常の高精度ステレオ処理部の出力を、濃度変化の少ない領域の高精度な奥行き情報としては別の高精度ステレオ処理部の出力を用いる構成などが考えられる。
【0078】
さらに、上述の実施形態においては、各ステレオ処理部が1画面全体の処理を必ず行なう構成となっていたが、各ステレオ処理部が処理する画像中の領域を予め制限しておくこともできる。
【0079】
さらに、本発明の奥行き情報計測装置で得られた奥行き情報は、複合現実感提示装置以外にも、例えばロボットの制御や車両の自動運転制御など、実時間での奥行き計測を必要とするいずれの用途にも用いることができることはもちろんである。
【0080】
【発明の効果】
以上説明したように、本発明によれば、高速に奥行き情報を計測可能な高速処理部と、高速処理部よりも演算時間は長いが精度の高い結果が得られる高精度処理部とを用い、取得した画像の状態、例えば動きの大きさによって適切な出力結果を選択して合成出力することにより、処理速度と精度とがバランス良く両立した奥行き情報を得ることが可能であるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である
【図2】ステレオカメラの構成例を示す斜視図である。
【図3】隠れマスクの例を示す図である。
【図4】図1の構成における各部の出力タイミングを説明する図である。
【図5】本発明の第2の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図6】本発明の第3の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図7】本発明の第4の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図8】本発明の第5の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。

Claims (7)

  1. 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、
    前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、
    前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、
    前記基準画像の特性に応じて、前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択手段と、
    前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成手段とを有し、
    前記第1の奥行き情報計測手段が、前記第2の奥行き情報計測手段よりも処理速度が速く、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測装置。
  2. 前記選択手段が前記基準画像及び/又は前記周辺画像から得られる条件に応じて前記選択を行なうことを特徴とする請求項記載の奥行き情報計測装置。
  3. 前記選択手段が、前記基準画像及び/又は前記周辺画像から、前記所定領域毎の動きを検出する動き検出手段を有し、
    検出した前記動きが所定量以上の前記所定領域については前記第1の奥行き情報を、それ以外の領域については前記第2の奥行き情報を選択することを特徴とする請求項又は請求項に記載の奥行き情報計測装置。
  4. 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、
    前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、
    前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、
    前記基準画像の特性に応じて、前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択手段と、
    前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成手段とを有し、
    前記第1の奥行き情報計測手段が、前記第2の奥行き情報計測手段よりも処理速度が速く、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であるとともに、
    前記第1の奥行き情報計測手段が、前記第1の奥行き情報の信頼度を検出する信頼度検出手段をし、
    前記選択手段が、検出した前記信頼度が所定量以上の前記所定領域については前記第1の奥行き情報を、それ以外の領域については前記第2の奥行き情報を選択することを特徴とする行き情報計測装置。
  5. 前記第1の奥行き情報、第2の奥行き情報及び前記合成手段の出力する奥行き情報が、視差情報、視差画像、距離情報、距離画像のいずれかであることを特徴とする請求項乃至請求項のいずれか1項に記載の奥行き情報計測装置。
  6. 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測方法であって、
    前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測ステップと、
    前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測ステップと、
    前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択ステップと、
    前記基準画像の特性に応じて、前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成ステップとを有し、
    前記第1の奥行き情報計測ステップが、前記第2の奥行き情報計測ステップでの計測処理よりも処理速度が速い方法により前記第1の奥行き情報を計測し、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測方法。
  7. コンピュータ装置に請求項記載の奥行き情報計測方法を実現させるためのプログラムを格納したコンピュータ装置読み取り可能な記録媒体。
JP34669999A 1999-12-06 1999-12-06 奥行き画像計測装置及び方法、並びに複合現実感提示システム Expired - Fee Related JP3728160B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP34669999A JP3728160B2 (ja) 1999-12-06 1999-12-06 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US09/648,295 US7295697B1 (en) 1999-12-06 2000-08-28 Depth information measurement apparatus and mixed reality presentation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34669999A JP3728160B2 (ja) 1999-12-06 1999-12-06 奥行き画像計測装置及び方法、並びに複合現実感提示システム

Publications (2)

Publication Number Publication Date
JP2001169308A JP2001169308A (ja) 2001-06-22
JP3728160B2 true JP3728160B2 (ja) 2005-12-21

Family

ID=18385229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34669999A Expired - Fee Related JP3728160B2 (ja) 1999-12-06 1999-12-06 奥行き画像計測装置及び方法、並びに複合現実感提示システム

Country Status (2)

Country Link
US (1) US7295697B1 (ja)
JP (1) JP3728160B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580155B2 (en) 2015-10-29 2020-03-03 Ricoh Company, Ltd. Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
US7324687B2 (en) * 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
JP2006313445A (ja) * 2005-05-09 2006-11-16 Sony Corp 画像処理方法、画像処理装置およびプログラム
KR101269302B1 (ko) * 2006-12-26 2013-05-29 삼성전자주식회사 스테레오 영상에서 중간시점영상 합성 방법
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
JP2009168536A (ja) * 2008-01-15 2009-07-30 Fujifilm Corp 3次元形状測定装置および方法、3次元形状再生装置および方法並びにプログラム
DE102008020579B4 (de) * 2008-04-24 2014-07-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur automatischen Objektlageerkennung und Bewegung einer Vorrichtung relativ zu einem Objekt
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101588877B1 (ko) 2008-05-20 2016-01-26 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8213683B2 (en) * 2008-08-26 2012-07-03 National Taiwan University Driving support system with plural dimension processing units
JP5409107B2 (ja) * 2009-05-13 2014-02-05 任天堂株式会社 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US20110175918A1 (en) * 2010-01-21 2011-07-21 Cheng-Yun Karen Liu Character animation control interface using motion capure
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
KR20120089921A (ko) * 2010-12-23 2012-08-16 한국전자통신연구원 다이나믹 프로그래밍 방식을 이용하는 스테레오 매칭 시스템 및 그 방법
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
CN103765864B (zh) 2011-05-11 2017-07-04 派力肯影像公司 用于传送和接收阵列照相机图像数据的***和方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
KR101863626B1 (ko) 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
JP5840114B2 (ja) * 2011-11-30 2016-01-06 三菱電機株式会社 仮想画像を生成する方法
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
WO2013166215A1 (en) * 2012-05-01 2013-11-07 Pelican Imaging Corporation CAMERA MODULES PATTERNED WITH pi FILTER GROUPS
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US20130329985A1 (en) * 2012-06-07 2013-12-12 Microsoft Corporation Generating a three-dimensional image
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CA2881131A1 (en) 2012-08-21 2014-02-27 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
JP6214236B2 (ja) 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
JP6154781B2 (ja) * 2014-05-22 2017-06-28 日本電信電話株式会社 画像処理方法及び画像処理システム
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的***和方法
JP6519138B2 (ja) * 2014-09-30 2019-05-29 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
US20160165207A1 (en) * 2014-12-03 2016-06-09 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JP6646361B2 (ja) 2015-04-27 2020-02-14 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
CN104822060B (zh) * 2015-05-05 2017-07-25 联想(北京)有限公司 信息处理方法、信息处理装置及电子设备
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10609355B2 (en) * 2017-10-27 2020-03-31 Motorola Mobility Llc Dynamically adjusting sampling of a real-time depth map
EP3821267A4 (en) 2019-09-17 2022-04-13 Boston Polarimetrics, Inc. SURFACE MODELING SYSTEMS AND METHODS USING POLARIZATION MARKERS
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation Llc SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
EP4085424A4 (en) 2020-01-30 2024-03-27 Intrinsic Innovation Llc SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2998791B2 (ja) * 1996-10-31 2000-01-11 日本電気株式会社 三次元構造推定装置
US6219461B1 (en) * 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US6268923B1 (en) * 1999-10-07 2001-07-31 Integral Vision, Inc. Optical method and system for measuring three-dimensional surface topography of an object having a surface contour
JP2002191058A (ja) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd 3次元画像取得装置および3次元画像取得方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580155B2 (en) 2015-10-29 2020-03-03 Ricoh Company, Ltd. Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium

Also Published As

Publication number Publication date
US7295697B1 (en) 2007-11-13
JP2001169308A (ja) 2001-06-22

Similar Documents

Publication Publication Date Title
JP3728160B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP3619063B2 (ja) 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP3338618B2 (ja) 実空間画像と仮想空間画像の表示方法及び表示装置
US6326994B1 (en) Matched field-of-view stereographic imaging apparatus
US6233004B1 (en) Image processing method and apparatus
US6628820B2 (en) Image forming method and apparatus
TWI520576B (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
JP2005295004A (ja) 立体画像処理方法および立体画像処理装置
CN108885342A (zh) 用于低延迟渲染的宽基线立体
JPH11102438A (ja) 距離画像生成装置及び画像表示装置
US20100302234A1 (en) Method of establishing dof data of 3d image and system thereof
US6809771B1 (en) Data input apparatus having multiple lens unit
CN110969706B (zh) 增强现实设备及其图像处理方法、***以及存储介质
CA3131980A1 (en) Processing of depth maps for images
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
JPH07129792A (ja) 画像処理方法および画像処理装置
JP2849313B2 (ja) 画像記録再生装置
JP2001256482A (ja) 視差画像生成装置および視差画像生成方法
JP2002032744A (ja) 3次元モデリング及び3次元画像作成のための装置及び方法
US20200162716A1 (en) Image generating apparatus and image generating method
JPH09200803A (ja) 画像処理装置及び画像処理方法
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JP2002159022A (ja) 視差画像生成装置および視差画像生成方法
JPH09261537A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050930

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121007

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131007

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees