JP5715735B2 - 3次元測定方法、装置、及びシステム、並びに画像処理装置 - Google Patents

3次元測定方法、装置、及びシステム、並びに画像処理装置 Download PDF

Info

Publication number
JP5715735B2
JP5715735B2 JP2014522513A JP2014522513A JP5715735B2 JP 5715735 B2 JP5715735 B2 JP 5715735B2 JP 2014522513 A JP2014522513 A JP 2014522513A JP 2014522513 A JP2014522513 A JP 2014522513A JP 5715735 B2 JP5715735 B2 JP 5715735B2
Authority
JP
Japan
Prior art keywords
imaging
unit
imaging unit
image
epipolar line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014522513A
Other languages
English (en)
Other versions
JPWO2014002725A1 (ja
Inventor
智紀 増田
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014522513A priority Critical patent/JP5715735B2/ja
Application granted granted Critical
Publication of JP5715735B2 publication Critical patent/JP5715735B2/ja
Publication of JPWO2014002725A1 publication Critical patent/JPWO2014002725A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影した画像から被写体の3次元データを求めるための3次元測定方法、装置、及びシステム、並びに画像処理装置に関する。
2地点から被写体を撮影して得た2つの画像に基づいて、被写体の3次元データ(例えば、寸法)を算出する3次元測定装置が知られている。3次元測定装置は、例えば、左右に所定間隔(以下、基線長という)をあけて配置された2つのカメラと、これらの2つのカメラで得た視差のある画像から3次元データを算出する処理装置等で構成される。
3次元測定に必要となる2つの画像は、同じ被写体が写されていて、かつ互いに視差のある画像であればよいので、例えば、2個の撮影レンズを有するステレオカメラで得た画像を用いることも可能である。しかし、3次元測定装置による3次元データの測定精度は、被写体のスケールと基線長の長さの関係に依存するので、ステレオカメラの基線長に対して測定する被写体のスケールが大きい場合には、一応の3次元データを得ることができるとしても誤差が大きく、信頼できる値が得られないことがある。このため、建物等のスケールが比較的大きい被写体の3次元データを高精度に測定する場合には、基線長を長くしておく必要がある。例えば、特許文献1の3次元測定装置は、自動車に2台のカメラを取り付けることにより、全体として巨大なステレオカメラを形成している。
また、3次元測定を高精度に行うためには、基線長を正確に知っておく必要がある。通常のステレオカメラでは製造時点で基線長が所定長さになるように予め高精度に位置合わせされている。しかし、特許文献1のように2台のカメラを用いて巨大なステレオカメラを形成する場合に、基線長を正確に所定値に合わせることや、正確に基線長を測定しておくことは容易ではない。このため、特許文献1は、基線長を予め正確に測定しておくためのキャリブレーションの方法を開示している。また、特許文献2にも、正確に基線長を測定しておくためのキャリブレーション方法が記載されている。
さらに、近年では、基線長が短いステレオカメラで2つの撮影位置から被写体を撮影し、各撮影位置で得た画像を用いて高精度に3次元データを測定可能な3次元測定装置も知られている。但し、特許文献3の3次元測定装置は、2つの撮影位置間の距離を知るために、形状や寸法等が既知の基準被写体を、3次元データを測定する被写体とともに撮影する。移動前後のステレオカメラの全体を巨大な1つのステレオカメラと捉えれば、2つの撮影位置間の距離は、この巨大なステレオカメラの基線長に相当する。このため、特許文献3の3次元測定装置も、基線長が既知であることを前提にしていることは、特許文献1,2の3次元測定装置と同様である。
特開2007−263669号公報 特開2005−241323号公報 特開2011−232330号公報
2つのカメラを使用して基線長(カメラ間距離)が長い巨大なステレオカメラを形成して3次元測定をする場合には、特許文献1,2に開示されているように、基線長を予め高精度に求めておかなければならないが、被写体を上手く撮影範囲におさめるために各カメラの再配置を変更すれば、当然ながら、再び煩雑なキャリブレーションを行わなければならない。例えば、特許文献1のように、2つのカメラを自動車に取り付けると、2つのカメラで被写体をうまく捉えるためには自動車の向きを変えなければならないが、道幅が狭い道路から撮影をしなければならい場合や、車両が進入禁止の場所で撮影しなければならない場合等では、カメラの配置を変えざるを得ない。
基線長が長い巨大なステレオカメラを自動車に取り付けずに運搬することも考えられるが、巨大であるために現実的ではない。また、2つのカメラを個別に運び、キャリブレーションを行わずに、基線長が所定値になるように再配置することはほぼ不可能である。このように、基線長が長い巨大なステレオカメラを用いる場合には、キャリブレーションをやり直さなければならないシチュエーションが多々あり、不便である。
また、通常サイズの基線長が短いステレオカメラを用いて3次元測定をする場合に、特許文献3のように基準被写体を持ち運び、適切な位置に配置して被写体を撮影することは可能ではあるが、不便である。例えば、被写体の3次元測定に邪魔にならないように基準被写体の配置を工夫しなければならない上、高い位置にある被写体の寸法等が知りたい場合等、基準被写体を被写体とともに撮影範囲にうまく配置できない場合には3次元測定ができないこともある。撮影時の状況に依らず、いつでも巨大なステレオカメラの基線長を高精度に算出可能にするための基準被写体の形状や材質等の選定も容易ではない。
このように、従来の装置では、キャリブレーションが必要なために操作が面倒であり、またキャリブレーションを省略したり、あるいは基線長を正確に測定しなかった場合には、高精度の3次元測定を行うことができない。
本発明は、操作が容易で、かつ高精度の3次元測定が可能な3次元測定方法、装置及びシステムを提供することを目的とする。
本発明の3次元測定装置は、第1撮像部、第2撮像部、対応点検出部、回転行列算出部、並進行列算出部、エピポーラ線算出部、評価部、3次元データ算出部を備える。第2撮像部は、第1撮像部に対して所定の基線長をおいて配置され、第1撮像部が撮像する被写体の少なくとも一部を含む範囲を撮像する。対応点検出部は、第1撮影位置において第1撮像部及び第2撮像部によって被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する特徴点検出部と、第1撮影位置とは異なる第2撮影位置において第1撮像部及び第2撮像部によって被写体を撮像して得た2枚の画像の少なくともいずれか一方について、特徴点に対応する対応点を検出する。回転行列算出部は、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の回転角及び回転方向を表す回転行列を算出する。並進行列算出部は、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の並進移動方向を表す並進行列を算出する。エピポーラ線算出部は、回転行列算出部において特徴点及び対応点に基づいて算出される第1回転行列と、並進行列算出部において特徴点及び対応点に基づいて算出される第1並進行列と、特徴点を検出した画像と対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる第1撮影位置及び第2撮影位置の各撮像部の相対的位置関係に基づいて、第1撮影位置の撮像部から所定の特徴点への視線方向を第2撮影位置で得た画像に投影したエピポーラ線を算出する。評価部は、第1仮想並進距離を変えながら算出された複数のエピポーラ線がそれぞれ特徴点に対応する対応点を通っているか否かを評価する。3次元データ算出部は、所定の特徴点を通るエピポーラ線の算出のために仮定した第1仮想並進距離を用いて被写体の3次元データを算出する。
エピポーラ線算出部は、エピポーラ線を算出する画像を撮像した第2撮影位置の撮像部の特徴点を検出した画像を撮像した第1撮影位置の撮像部に対する回転角及び回転方向を表す第2回転行列と、並進方向を表す第2並進行列と、第1仮想並進距離の仮定を含んだ並進距離を表す第2仮想並進距離に基づいて、エピポーラ線を算出することが好ましい。
評価部は、複数のエピポーラ線に沿って特徴点との一致度を算出し、一致度に基づいて特徴点に対応する対応点を通っているか否かを評価することが好ましい。
3次元データ算出部は、一致度が最も高い点を含むエピポーラ線の算出のために仮定した仮想並進距離を用いて被写体の3次元データを算出することが好ましい。
対応点検出部は、エピポーラ線を算出する画像において、エピポーラ線が通るべき所定の特徴点に対応する対応点を検出し、評価部は、複数のエピポーラ線と、エピポーラ線が通るべき特徴点に対応する対応点との距離に基づいてエピポーラ線が対応点を通っているか否かを評価することが好ましい。
評価部複数のエピポーラ線が所定の特徴点に対応する対応点を通っていないと評価した場合に、回転行列算出部及び並進行列算出部は、条件を変更して第1回転行列及び第1並進行列を再算出することが好ましい。
対応点検出部は対応点を再検出し、回転行列算出部及び並進行列算出部は、再検出された対応点に基づいて第1回転行列及び第1並進行列を再算出することが好ましい。
対応点検出部は、対応点を再検出する場合、対応点を検出するために用いる特徴点を含む画像の大きさの変更、拡大縮小率の変更、回転角度の変更、または対応点を検出する特徴点の組み合わせの変更のいずれかを含む条件変更をすることが好ましい。
また、特徴点検出部は、特徴点を再検出し、回転行列算出部及び並進行列算出部は、再検出された特徴点に基づいて第1回転行列及び第1並進行列を再算出しても良い。
第1回転行列が第1撮影位置と第2撮影位置とが回転していないことを表すものであった場合に、3次元データ算出部は、エピポーラ線を用いない別の方法で3次元データを算出することが好ましい。
具体的には、3次元データ算出部は、第1仮想並進距離が表す撮像部間距離とは異なる第1,第2撮影位置の撮像部間距離を表し、第1仮想並進距離の仮定によって定まる第3仮想並進距離を用いて算出した3次元データと、第1仮想並進距離を用いて算出した3次元データとを比較し、第1仮想並進距離を用いて算出した3次元データと第3仮想並進距離を用いて算出した3次元データの差を所定閾値以下にする第1仮想並進距離及び3次元データを求めることが好ましい。
3次元データ算出部は、第1撮影位置及び第2撮影位置で得た4枚の画像のうち任意の組み合わせの複数の画像を用いて算出した第1回転行列及び第1並進行列と、複数の画像とは異なる組み合わせの複数の画像を用いて算出した第3回転行列及び第3並進行列を用い、第1回転行列及び第3回転行列によって方向が定まり、基線長の長さを有する基線長ベクトルの基端及び先端が、第1並進行列と第3並進行列が表す方向の上にそれぞれ位置する基線長ベクトルの位置を探索し、基端及び先端が第1並進行列と第3並進行列が表す方向の上にそれぞれ位置する場合の基端及び先端の位置に基づいて3次元データを算出しても良い。
第1撮影位置と第2撮影位置の位置情報を検出する撮影位置検出部を備え、エピポーラ線算出部は、撮影位置検出部で検出した位置情報から算出される第1撮影位置と第2撮影位置の距離に基づいて、第1仮想並進距離の初期値、または第1仮想並進距離を変更する範囲を決定することが好ましい。
基線長の長さを|BL|、第1撮影位置で得た画像と第2撮影位置で得た画像の視差をε、第1撮影位置で得た2つの画像の視差をγとする場合に、エピポーラ線算出部は、|BL|×ε/γに基づいて、第1仮想並進距離の初期値、または第1仮想並進距離を変更する範囲を決定しても良い。
3次元データは、被写体上の2点間の長さ、被写体上の2点間の角度、被写体の3次元モデルデータのいずれかであることが好ましい。
本発明の画像処理装置は、記憶部、特徴点検出部、対応点検出部、回転行列算出部、並進行列算出部、エピポーラ線算出部、評価部、3次元データ算出部を備える。記憶部は、被写体を撮像する第1撮像部と、第1撮像部に対して所定の基線長をおいて配置され、第1撮像部が撮像する被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラによって、第1撮影位置と第2撮影位置でそれぞれ撮影した画像を記憶する。特徴点検出部は、第1撮影位置において第1撮像部及び第2撮像部によって被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する。対応点検出部は、第1撮影位置とは異なる第2撮影位置において第1撮像部及び第2撮像部によって被写体を撮像して得た2枚の画像の少なくともいずれか一方について、特徴点に対応する対応点を検出する。回転行列算出部は、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の回転角及び回転方向を表す回転行列を算出する。並進行列算出部は、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の並進移動方向を表す並進行列を算出する。エピポーラ線算出部は、回転行列算出部において特徴点及び対応点に基づいて算出される第1回転行列と、並進行列算出部において特徴点及び対応点に基づいて算出される第1並進行列と、特徴点を検出した画像と対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる第1撮影位置及び第2撮影位置の各撮像部の相対的位置関係に基づいて、第1撮影位置の撮像部から所定の特徴点への視線方向を第2撮影位置で得た画像に投影したエピポーラ線を算出する。評価部は、第1仮想並進距離を変えながら算出された複数のエピポーラ線がそれぞれ特徴点に対応する対応点を通っているか否かを評価する。3次元データ算出部は、所定の特徴点を通るエピポーラ線の算出のために仮定した第1仮想並進距離を用いて被写体の3次元データを算出する。
本発明の3次元測定システムは、被写体を撮像する第1撮像部と、第1撮像部に対して所定の基線長をおいて配置され、第1撮像部が撮像する被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラと、上述の画像処理装置を備える。
3次元測定システムでは、ステレオカメラが車載カメラであることが好ましい。
本発明の3次元測定方法は、特徴点検出ステップ、対応点検出ステップ、回転行列算出ステップ、並進行列算出ステップ、エピポーラ線算出ステップ、評価ステップ、3次元データ算出ステップを備える。特徴点検出ステップでは、被写体を撮像する第1撮像部と、第1撮像部に対して所定の基線長をおいて配置され、第1撮像部が撮像する被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラによって第1撮影位置で被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する。対応点検出ステップでは、第1撮影位置とは異なる第2撮影位置において第1撮像部及び第2撮像部によって被写体を撮像して得た2枚の画像の少なくともいずれか一方について、特徴点に対応する対応点を検出する。回転行列算出ステップでは、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の回転角及び回転方向を表す回転行列を算出する。並進行列算出ステップでは、第1撮影位置における第1撮像部または第2撮像部を基準とした第2撮影位置における第1撮像部または第2撮像部の並進移動方向を表す並進行列を算出する。エピポーラ線算出ステップでは、回転行列算出部において特徴点及び対応点に基づいて算出される第1回転行列と、並進行列算出部において特徴点及び対応点に基づいて算出される第1並進行列と、特徴点を検出した画像と対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる第1撮影位置及び第2撮影位置の各撮像部の相対的位置関係に基づいて、第1撮影位置の撮像部から所定の特徴点への視線方向を第2撮影位置で得た画像に投影したエピポーラ線を算出する。評価ステップでは、第1仮想並進距離を変えながら算出された複数のエピポーラ線がそれぞれ特徴点に対応する対応点を通っているか否かを評価する。3次元データ算出ステップでは、所定の特徴点を通るエピポーラ線の算出のために仮定した第1仮想並進距離を用いて被写体の3次元データを算出する。
本発明によれば、基線長が定まった2つの撮像部を用いて2つの撮影位置でそれぞれ撮影して得られた画像から、これらを撮影した各撮像部間の距離(巨大なステレオカメラの基線長に相当)を算出するようにしたので、キャリブレーションを行わず、また、基準被写体を用いずに、単に3次元データを測定したい被写体を撮影して得た画像だけで、高精度な3次元測定を行うことができる。
3次元測定装置の説明図である。 測定部のブロック図である。 回転行列,並進行列,及び並進距離を示す説明図である。 並進距離の任意性を示す説明図である。 3次元測定の手順を示すフローチャートである。 特徴点の概要を示す説明図である。 対応点検出の概要を示す説明図である。 エピポーラ線を示す説明図である。 エピポーラ線を用いて第2撮影位置Bを特定する原理を示す説明図である。 3次元データをディスプレイに表示する様子を示す説明図である。 第2実施形態の3次元測定の手順を示すフローチャートである。 対応点とエピポーラ線の誤差を示す説明図である。 第3実施形態の3次元測定の手順を示すフローチャートである。 第3実施形態における変形例の3次元測定の手順を示すフローチャートである。 3次元測定装置が第1,第2撮影位置で回転していない場合のエピポーラ線を示す説明図である。 第4実施形態の3次元測定手順を示すフローチャートである。 ステップS42,S43の具体例を示すフローチャートである。 回転行列r及び並進行列tを示す説明図である。 別の並進距離算出方法を示すフローチャートである。 別の並進距離算出方法の原理を示す説明図である。 方向とT方向とが交差している例を示す説明図である。 GPSを搭載した3次元測定装置の説明図である。 第5実施形態の3次元測定の手順を示すフローチャートである。 3次元測定システムを示すブロック図である。 複数のステレオカメラを備えた3次元測定システムを示すブロック図である。 ステレオカメラとして車載カメラを用いる例を示す説明図である。
[第1実施形態]
図1に示すように、3次元測定装置10は、第1撮像部11、第2撮像部12、測定部15、ディスプレイ16等を備える。すなわち、3次元測定装置10は、いわゆるステレオカメラに測定部15を搭載し、撮影した画像から被写体の3次元データを算出できるようにしたものである。また、3次元測定装置10は、簡単に持ち運べる程度(従来の単なるステレオカメラ程度)にコンパクトに形成されている。
第1撮像部11と第2撮像部12は、それぞれ3次元測定装置10の左右に配置され、撮影光軸L,Lは平行である。基線長BLの長さは3次元測定装置10の製造時に精密に定められており、第1,第2撮像部11,12による撮影画像を用いた3次元測定をする場合には、基線長BLは既知量である。なお、基線長BLは、第1撮像部11と第2撮像部12の配置間隔であり、より具体的には、撮影光軸L,Lの間隔である。撮影光軸L,Lを非平行にする場合は、例えば各撮像部11,12の主点の間隔が基線長BLである。
また、第1撮像部11と第2撮像部12の撮影範囲は少なくとも一部が重複しており、第1撮像部11と第2撮像部12は重複する撮影範囲において同じ被写体を同時に撮影して、左右に視差のある1対の画像を出力する。なお、本明細書において、被写体とは3次元データを測定する対象を表すものとする。このため、以下では、第1撮像部11と第2撮像部12で各々得られる画像には、ともに3次元データを測定する被写体が写っているものとするが、重複する撮影範囲内に他の構造物(建物等)を捉え、これを基準にして、第1撮像部11(または第2撮像部12)で得た画像にだけ写った被写体の3次元データを算出することもできる。
第1撮像部11は、撮像レンズ11aやイメージセンサ11b等を備える。撮像レンズ11aは、被写体の像をイメージセンサ11bに結像させる。図示を省略するが、撮像レンズ11aには、絞りや可動レンズ、及びこれらを動作させるためのカムやギア等を含んでおり、AFや変倍も可能である。イメージセンサ11bは、例えばCMOSやCCD等であり、撮像レンズ11aによって撮像面に結像された被写体の像を画素毎に光電変換することにより、被写体の画像を測定部15に出力する。
第2撮像部12は、撮像レンズ12aやイメージセンサ12b等を備える。撮像レンズ12aやイメージセンサ12bは、第1撮像部11の撮像レンズ11aやイメージセンサ11bと同じものである。但し、第1撮像部11と第2撮像部12の各部は厳密に同一の構成である必要はなく、それぞれ異なっていても良い。第2撮像部12は、撮像して得た画像を測定部15に出力することも第1撮像部11と同様である。
なお、第1撮像部11及び第2撮像部12の各部の動作は、図示しないCPU等により所定のプログラムにしたがって制御される。また、3次元測定装置10には、図示しない画像処理回路やメモリ、A/D変換回路等を備えており、第1撮像部11及び第2撮像部12が出力する画像は、A/D変換やホワイトバランス補正やガンマ補正等の各種画像処理が施された後に測定部15に入力される。
測定部15は、少なくとも2つの異なる撮影位置において、第1撮像部11及び第2撮像部12で撮影して得た4種の画像に基づいて、被写体の3次元データを算出する。測定部15が算出する3次元データとは、例えば、2点間距離(長さ、高さ、幅等)、曲線の長さ、曲率、面積、体積、位置座標等の実空間における寸法等や、被写体をワイヤフレームやポリゴンで表した仮想空間上の3次元モデルデータである。測定部15は、設定に応じてこれらのうち1つまたは複数を3次元データとして算出する。また、測定部15は、設定に応じて、算出した3次元データをディスプレイ16に表示する。例えば、測定部15は、撮影した画像に実空間における被写体の寸法等を重畳してディスプレイ16に表示させる。また、測定部15は、撮影した画像と算出した3次元データを関連付けて記憶装置(図示しないメモリや着脱自在なメディアカード等)に記憶する。ディスプレイ16への表示は任意であり、算出した3次元データを他の装置(コンピュータ等)で使用可能なように記憶しておく場合にはディスプレイ16に3次元データを表示しなくても良い。
なお、測定部15による3次元データの算出には、少なくとも2以上の異なる撮影位置で被写体を撮影した画像が必要である。このため、以下では、第1撮影位置Aと第2撮影位置Bの2箇所で被写体の撮影をし、4種類の画像PAL,PAR,PBL,PBRを得るものとする。第1の添字は撮影位置を表し、第2の添字は撮像部(第1撮像部11によるものがL、第2撮像部12によるものがR)を表す。例えば、画像PALは第1撮影位置Aにおいて第1撮像部11で得た画像であり、画像PARは第1撮影位置Aにおいて第2撮像部12で得た画像である。同様に、画像PBLは第2撮影位置Bにおいて第1撮像部11で得た画像であり、画像PBRは第2撮影位置Bにおいて第2撮像部12で得た画像である。測定部15では、これら4種の画像PAL,PAR,PBL,PBR-のうち少なくとも3つの画像を使用して被写体の3次元データを算出する。
図2に示すように、測定部15は、特徴点検出部21、対応点検出部22、回転行列算出部23、並進行列算出部24、並進距離算出部25、3次元データ算出部28を備える。
特徴点検出部21は、入力された画像の特徴点を複数検出し、座標等の特徴点の情報を対応点検出部22や回転行列算出部23、並進行列算出部24に入力する。特徴点は、例えば、被写体の角(コーナー)、線分の端点、交差点、分岐点等である。これらのどれを検出するか等、特徴点検出部21が検出する特徴点の具体的な種類は任意である。また、特徴点検出部21が行う特徴点検出処理のアルゴリズムは任意であり、例えば、コーナーを特徴点として検出するには、例えば、MoravecやHarrisのアルゴリズムを用いることができる。
なお、3次元データの算出には少なくとも8点の特徴点が必要なので、8点以上の特徴点が検出されるように、特徴点の種類が選定される。また、検出した特徴点が8点に満たない場合、特徴点検出部21は、検出する特徴点の種類または特徴点を検出するためのアルゴリズムを変更して、必ず8点以上の特徴点を検出する。もちろん、特徴点の種類や検出アルゴリズムを変更しても特徴点を8点検出できない場合には、エラーを通知し、使用する画像の変更(あるいは撮影のやり直し)を促す。
具体的な被写体の形状等にもよるが、多くの場合、特徴点検出部21は8点以上の多数の特徴点を検出する。このため、特徴点検出部21は、検出した多数の特徴点から、使用する特徴点を8点〜十数点程度を選出する。多数の特徴点が検出された場合に、特徴点検出部21が選出する特徴点の個数は8点以上であれば任意である。検出したすべての特徴点を使用しても良いが、後に行う対応点の検出等で長大な時間を要することになるので、精度が確保できる範囲内で上述のように少数の特徴点を選出して用いることが好ましい。
対応点検出部22は、特徴点検出部21から特徴点の情報を受けると、特徴点を検出した画像とは異なる画像から、各特徴点に対応する対応点をそれぞれ検出する。対応点検出部22が行う対応点検出処理のアルゴリズムは任意であり、例えば、ブロックマッチング法やKLT追跡法等を用いることができる。ブロックマッチング法により、対応点を検出する場合、特徴点を検出した画像から、特徴点を含む所定サイズの部分画像を切り出し、この部分画像を拡大(縮小)したり、回転させたりしながら、対応点を検出する画像と比較し、一致度(類似度とも言う)の高い箇所を対応点として検出する。対応点検出部22が検出した対応点の座標等の対応点の情報は、回転行列算出部23と並進行列算出部24に入力される。なお、本実施形態では、画像PALから特徴点を検出し、画像PBLから対応点を検出する例を説明する。
回転行列算出部23は、特徴点を検出した画像及び検出された特徴点の情報と、対応点を検出した画像及び検出した対応点の情報とに基づき、特徴点を検出した画像を撮影した撮像部の位置を基準として、対応点を検出した画像を撮影した撮像部の回転方向及び回転量を表す回転行列を算出する。
例えば、図3に示すように、回転行列算出部23は、画像PALの特徴点と画像PBLの対応点に基づいて、第1撮影位置Aにおける第1撮像部11を基準とした第2撮影位置Bにおける第1撮像部11の回転方向及び回転量を表す回転行列Rを算出する。
回転行列Rは、例えば、水平面内での回転角θと鉛直方向からの回転角φの2つのパラメータを用いて表される。もちろん、実空間上に互いに直交するX軸、Y軸、Z軸を定め、回転行列Rをこれらの各軸の周りの回転角α,β,γを用いて表すこともできる。θ及びφで表した回転行列Rと、α〜γで表した回転行列Rは、表記の仕方は異なるが実質的に同じものである。
また、測定部15は、回転行列Rと並進行列T(後述)が算出された後、第1撮影位置Aの第1撮像部11と第2撮影位置Bの第1撮像部11の距離dを仮定する(以下、仮想並進距離dという。)仮想並進距離dは任意値である。この仮想並進距離dを用いれば、回転行列R及び並進行列Tによって第1撮影位置Aと第2撮影位置Bの各撮像部11,12の相対的な位置関係が一意に定まる。そして、仮想並進距離dと、回転行列R及び並進行列Tを用いることにより、回転行列算出部23は、第1撮影位置Aにおける第1撮像部11を基準とした第2撮影位置Bにおける第2撮像部12の回転方法及び回転角度を表す回転行列rを算出する。
図3では平面的に図示しているため、回転行列R,rが同じ回転を表しているようにも見えるが、3次元測定装置10が鉛直方向にも回転している場合には回転行列R,rは異なるものであり、回転行列rは回転行列Rとは異なる回転角θ,φで表される。水平方向にだけ回転している場合には回転行列R,rは等しい。こうして回転行列算出部23が算出した回転行列R,rは、並進距離算出部25に入力される。
なお、特徴点を検出した画像及び検出された特徴点の情報と、対応点を検出した画像及び検出した対応点の情報から回転行列を算出する具体的な方法は、例えば、特開平9−237341号公報に記載されているものを用いることができる。
並進行列算出部24は、特徴点を検出した画像及び検出された特徴点の情報と、対応点を検出した画像及び検出した対応点の情報とに基づき、特徴点を検出した画像を撮影した撮像部の位置を基準として、対応点を検出した画像を撮影した撮像部の並進移動の方向を表す並進行列を算出する。
具体的には、並進行列算出部24は、画像PALの特徴点と画像PBLの対応点に基づいて、第1撮影位置Aにおける第1撮像部11を基準とした第2撮影位置Bにおける第1撮像部11の並進移動方向を表す並進行列Tを算出する(図3参照)。但し、並進行列Tは規格化されたものだけが算出可能であるために、並進距離の情報は含まれない。
また、前述ように、測定部15は、回転行列Rと並進行列Tが算出された後、第1撮影位置Aの第1撮像部11と第2撮影位置Bの第1撮像部11の距離を仮想並進距離dと仮定することにより、第1撮影位置Aと第2撮影位置Bの各撮像部11,12の相対的な位置関係を定めるので、並進行列算出部24は、仮想並進距離dと、回転行列R及び並進行列Tを用いることにより、第1撮影位置Aにおける第1撮像部11を基準とした第2撮影位置Bにおける第2撮像部12の並進移動の方向を表す並進行列tを算出する。
なお、並進行列tは、第1撮像部11と第2撮像部12の位置関係を表すものであるため、厳密には第1撮像部11や第2撮像部12の移動を表していないが、本明細書では、第1撮影位置Aの撮像部(第1撮像部11または第2撮像部12)と第2撮像部Bの撮像部と位置関係を並進移動と称す。また、第1撮影位置Aと第2撮影位置Bの各撮像部間の距離を並進距離と称す。並進行列tが規格化されており、並進距離の情報が含まれていないことは並進行列Tと同様である。
こうして並進行列算出部24が算出した並進行列T,tは、並進距離算出部25に入力される。
特徴点を検出した画像及び検出された特徴点の情報と、対応点を検出した画像及び検出した対応点の情報から並進行列を算出する具体的な方法は、回転行列の算出方法と同様に、例えば、特開平9−237341号公報に記載されているものを用いることができる。また、本明細書では説明のために回転行列算出部23と並進行列算出部24を別個にしているが、回転行列と並進行列はほぼ同時に対になって算出される。このため、回転行列算出部23と並進行列算出部24は、全体として回転行列及び並進行列を算出する一体の回路等である。
上述のように、回転行列は回転方向と回転量を表しているのに対し、並進行列は並進移動の方向だけを表しているので、一組の回転行列と並進行列(RとT)だけでは、第1撮影位置Aの撮像部に対する第2撮影位置Bの撮像部が特定できない。具体的には、図4に示すように、並進行列Tによって第1撮像部11の並進移動方向が定まり、回転行列Rによって並進移動方向に対する第1撮像部11の回転方向及び回転角度を定まるが、並進距離が未定であるために、第2撮影位置Bの位置には任意性がある。このため、3次元測定装置10は、次に説明する並進距離算出部25によって、回転行列R及び並進行列Tだけでなく、さらに仮想並進距離dを用いて算出した仮の回転行列r及び並進行列tを利用することにより、正確な並進距離(例えば、第1撮影位置Aの第1撮像部11と第2撮影位置Bの第1撮像部11の仮定ではない正確な並進距離D)を算出する。
並進距離算出部25は、エピポーラ線算出部26と評価部27を備える。
エピポーラ線算出部26は、仮想並進距離dと回転行列R及び並進行列Tによって一意に定まる第1撮影位置Aと第2撮影位置Bの位置関係から、仮想並進距離dを算出する。仮想並進距離dは、第1撮影位置Aの第1撮像部11と第2撮影位置Bの第2撮像部12間の距離である(図3参照)。仮想並進距離dは、仮想並進距離dに基づいて算出された仮定を含む値であるから、仮想並進距離dと同様に仮想並進距離と称する。
そして、エピポーラ線算出部26は、仮想並進距離d、回転行列r及び並進行列tを用いることにより、第2撮影位置Bで得た画像において、エピポーラ線を算出する。エピポーラ線は、第1撮影位置Aの撮像部の視線方向を第2撮影位置で得た画像上に投影した直線である。また、正確なエピポーラ線の算出には、第1撮影位置Aと第2撮影位置Bの各撮像部11,12間の相対的な位置関係が定まっていることが必要である。このため、エピポーラ線算出部26が算出するエピポーラ線は、並進距離が仮想並進距離d(元をたどれば仮想並進距離d)に対応した仮のエピポーラ線(以下、単にエピポーラ線という)である。
より具体的には、本実施形態の場合、エピポーラ線算出部26は、仮想並進距離dの仮定のもとに、画像PALから検出した特徴点に対応する被写体上の点を通る視線方向を、第2撮影位置Bの第2撮像部12で得た画像PBRに投影したエピポーラ線を算出する。こうしてエピポーラ線算出部26が算出したエピポーラ線は、仮想並進距離d,dが誤っていれば、画像PBR上の対応点を通らない。一方、仮想並進距離d,dが真の並進距離に等しい場合には、エピポーラ線は真のエピポーラ線であるから、画像PBR上の対応点を通る。
なお、エピポーラ線は、複数の特徴点のそれぞれについて算出することができるが、エピポーラ線算出部26は、少なくとも1つの特徴点についてエピポーラ線を算出する。本実施形態では、エピポーラ線算出部26は、任意の1つの特徴点についてエピポーラ線を算出するが、もちろん複数の特徴点の各々についてエピポーラ線を算出しても良い。複数の特徴点についてそれぞれエピポーラ線を算出する場合には、以下に説明する評価部27による評価等を算出した各々エピポーラ線について行われる。
また、3次元測定装置10は、回転行列r及び並進行列tの算出、仮想並進距離dの算出、エピポーラ線の算出を、仮想並進距離dの値を変更しながら複数回行う。このため、同じ特徴点について、仮想並進距離d及びdの値が異なる複数種類のエピポーラ線が算出される。
評価部27は、仮想並進距離dの値が異なり、同じ特徴点を通るべき複数種類のエピポーラ線が対応点を通っているか否かを評価する。そして、これらの中から特徴点に対応する点を通る真のエピポーラ線を選出することにより、真の並進距離を表す仮想並進距離を求める。評価部27はこの評価を例えば次のように行う。まず、評価部27は、特徴点が抽出された画像PALからエピポーラ線が通るはずの特徴点を含む部分画像を切り出し、エピポーラ線を算出した画像PBR上においてエピポーラ線に沿って部分画像との一致度を算出する。このエピポーラ線に沿った一致度の算出は、エピポーラ線算出部26で算出された全てのエピポーラ線についてそれぞれ行う。
仮想並進距離dが誤っている場合には、これを用いて算出されたエピポーラ線は、対応点(エピポーラ線が通るはずの特徴点に対応する点)を通らないので一致度は低い。一方、仮想並進距離dが正しい場合には、これを用いて算出されたエピポーラ線は、対応点を通るので、他のエピポーラ線に比べて対応点の箇所で一致度が高くなる。このため、評価部27は、エピポーラ線算出部26で算出された全てのエピポーラ線に沿ってそれぞれ一致度を評価すると、最も一致度が高いエピポーラ線を選出する。そして、選出したエピポーラ線を算出するために用いた仮想並進距離dを、第1撮影位置Aの第1撮像部11と第2撮影位置Bの第1撮像部11との間の真の並進距離Dとする。こうして評価部27が求めた真の並進距離Dは、3次元データ算出部28に入力される。
なお、真の並進距離Dが求まれば、回転行列R及び並進行列Tと並進距離Dにより、第1撮影位置Aの各撮像部11,12と第2撮影位置Bの各撮像部11,12の正確な相対的位置関係が定まる。このため、評価部27が選出したエピポーラ線に対応する仮想並進距離d(真の並進距離D)を用いて算出された回転行列r及び並進行列tと仮想並進距離dは、それぞれ真の回転行列R及び真の並進行列Tと真の並進距離Dである。
3次元データ算出部28は、下記数1の式に基づいて、画像PAL上の座標(u,v)を実空間上の座標(X,Y,Z)に対応付ける。「w」は画像PALと画像PBLの視差、「f」は画像PALを撮影した時の焦点距離、「p」はイメージセンサ11bの画素ピッチである。視差は特徴点と対応点の画素座標の差で表される。例えば、第1撮影位置Aと第2撮影位置Bで水平方向にだけ3次元測定装置10が回転していた場合には、特徴点のu座標と対応点のu座標の差(w=u−u)である。なお、並進距離D,視差「w」,焦点距離「f」,画素ピッチ「p」を適切なものに置き換えることにより、数1を用いて画像PBLや画像PBR上の座標を実空間上の座標に変換することができる。
3次元データ算出部28は、上述のように、画像PAL上の座標から算出された実空間上の座標を用いて、被写体の3次元データを算出する。また、特徴点間の長さ等実空間上の寸法等を算出した場合、3次元データ算出部28は算出した寸法等を画像PALに重畳する合成処理をし、ディスプレイ16に表示させる。また、3次元データ算出部28で3次元モデルデータを算出した場合は、3次元モデルデータをディスプレイ16に表示させる。
なお、測定部15の各部21〜28は、具体的には、メモリや各種演算回路と、これらの回路等の動作を統括的に制御するCPU及び制御用プログラムで構成される。各部21〜28を形成する回路等は、各部21〜28で一部または全部が共用されているものがあっても良い。
上述のように構成される3次元測定装置10の作用を説明する。図5に示すように、3次元測定装置10を用いて第1撮影位置Aと第2撮影位置Bから3次元データを測定する被写体を撮影し、4枚の画像PAL,PAR,PBL,PBRを取得する(撮影ステップS10)。このとき、第1撮像部11と第2撮像部12の重複する撮影範囲内で、できるだけ近い位置に被写体があるようにすることが好ましい。被写体距離が遠いほど、後に算出する3次元データの分解能が低下し、特に、画像の奥行方向の分解能の低下が著しいからである。具体的には、撮影する被写体は1〜3m以内にあることが好ましい。被写体距離がこの程度の範囲内であれば、奥行き方向においても、被写体距離に対して1%程度の分解能が得られる。
4枚の画像PAL,PAR,PBL,PBRが得られると、まず、画像PALから特徴点が検出される(特徴点検出ステップS11)。具体的には、図6に示すように、画像PALに被写体H,Hがあるとすると、特徴点検出部21はこれらの被写体H,Hのコーナー等を、それぞれ特徴点F〜F14として検出する。また、特徴点F〜F14は全部で14点あるので、3次元データの算出に使用する8点の特徴点が選出される。例えば、特徴点F,F,F,F,F,F11,F13,F14が選出されたとする。
こうして特徴点が検出及び選出されると、対応点検出部22は画像PBL及び画像PBRから対応点を検出する(対応点検出ステップS12)。具体的には、図7に示すように、対応点検出部22は特徴点を検出した画像PALから、特徴点Fを含む画像PALの部分画像31を切り出し、部分画像31を適宜拡大させたり、回転させたりしながら、画像PBLの部分と比較する。そして、一致度が最も高い部分を対応点Cとして検出する。同様にして、他の選出された特徴点F,F,F,F,F11,F13,F14の対応点C,C,C,C,C11,C13,C14をそれぞれ検出する。
なお、撮影位置及び撮影の向きによる視差があるために、画像PALと画像PBLでは、各画像内の被写体H,Hの位置や向きが異なっているので、選出した特徴点に対応する対応点が画像PBLで検出できないことがある。例えば、特徴点Fや特徴点F(図6参照)は、画像PBLには写っていないので、これらの対応点を画像PBLで検出することができない。また、一致度が最も高くても、特徴点に全く関係のない部分が対応点として検出されてしまう。このように、対応点が検出できない場合、あるいは、最も高い一致度が規定値に満たない場合には、特徴点が選出し直され、新たに選出された特徴点について再び対応点が検出される。
対応点が検出されると、画像PALの特徴点と画像PBLの対応点の各画像内座標に基づいて、回転行列Rと並進行列Tが算出される(ステップS13)。このため、ステップS13は、第1の回転行列算出テップでもあり、第1の並進行列算出ステップでもある。
回転行列R及び並進行列Tが算出されると、測定部15は仮想並進距離dを任意に定める。そして、回転行列算出部23及び並進行列算出部24は、仮想並進距離dを用いて、回転行列r及び並進行列tを算出する(ステップS14)。また、エピポーラ線算出部26は、仮想並進距離dと回転行列R及び並進行列Tに基づいて、仮想並進距離dを算出する(同ステップS14)。したがって、このステップS14は、第2の回転行列算出ステップであり、第2の並進行列算出ステップである。そして、第2並進距離算出ステップでもある。
なお、ステップS14は、仮想並進距離dの値を変えながら複数回行われる。このため、値が異なる仮想並進行列dに基づいて、回転行列r及び並進行列tと仮想並進距離dが複数組み算出される。
こうして仮想並進距離dを用いて回転行列r及び並進行列tと仮想並進距離dが算出されると、エピポーラ線算出部26は、仮想並進距離dと、回転行列r及び並進行列tを用いて画像PBR上のエピポーラ線を算出する(エピポーラ線算出ステップS15)。
図8に示すように、第1撮影位置Aの第1撮像部11と被写体H,Hの特徴点を結ぶ直線(エピポーラ線)は複数の特徴点についてそれぞれ引くことができる。図8では、特徴点F,F10,F13を通るエピポーラ線E,E10,E13を示しているが、その他の特徴点についても同様のエピポーラ線を引くことができる。本実施形態では、これらの特徴点のうちの1つである特徴点F10を通るエピポーラ線E10をエピポーラ線算出部26が算出する場合を説明する。また、画像PBR上のエピポーラ線とは、図8に示すように空間的に引くことができるエピポーラ線を画像PBRに投影した直線である。
また、エピポーラ線E10は、仮想並進距離dの仮定が正しければ特徴点F10に対応する対応点C10を通るはずである。しかし、仮想並進距離d1はあくまでも並進距離算出部25が任意に定めた仮定値である。このため、エピポーラ線E10が仮想並進距離dをd1a,d1b,d1c,d1dの4種類の仮想並進距離に基づいて算出されるとし、各仮想並進距離d1a,d1b,d1c,d1dに対応する各エピポーラ線E10をそれぞれE10[d1a],E10[d1b],E10[d1c],E10[d1d]で区別して表す場合、図9の上部に示すように、仮想並進距離dの値によって各エピポーラ線E10[d1a]〜E10[d1d]の画像PBR上での傾き、始点、終点が異なる。
なお、本実施形態では、仮想並進距離dを4種類に変えながらエピポーラ線を算出しているが、実際にはより多くの仮想並進距離に基づいてエピポーラ線が算出される。また、エピポーラ線算出部26がエピポーラ線を算出する画像PBRは、第2撮影位置Bで撮影された画像であり、回転行列R及び並進行列Tの算出のために対応点を検出した画像PBLではない方の画像である。設定により、対応点を画像PBRから検出した場合には、画像PBL上のエピポーラ線が算出される。
こうして画像PBR上のエピポーラ線E10[d1a]〜E10[d1d]が算出されると、評価部27は、前述の対応点検出と同様に特徴点F10を含む部分画像を画像PALから切り出して各エピポーラ線E10[d1a]〜E10[d1d]に沿って画像PBRの部分と比較することにより、一致度を算出する(一致度算出ステップS16)。この部分画像と画像PBRとの比較及び一致度の算出は、例えば、前述の対応点検出と同様に行う。
評価部27が算出する一致度は、例えば、図9の下部に示すように、特徴点F10の対応点C10を通らない場合には、起伏はあるものの概ね小さい範囲におさまる。一方、対応点C10を通る場合、対応点C10の近傍で一致度が大きくなり、顕著なピークが現れる。図9では、エピポーラ線E10[d1a],E10[d1c],E10[d1d]は対応点C10を通らないので一致度はほぼ常に低い。一方、エピポーラ線E10[d1b]は対応点C10を通るので、他のエピポーラ線に比べて対応点C10の近傍における一致度が高くなる。このため、評価部27は、各エピポーラ線E10[d1a]〜E10[d1d]に沿って一致度を算出すると、最も一致度が高い点(ピーク)を含むエピポーラ線E10[d1b]が対応点C10を通るエピポーラ線と判断し、選出する。そして、評価部27は対応点C10を通るエピポーラ線E10[d1b]を算出のために仮定された仮想並進距離d1bを真の並進距離Dとする。
なお、図9では便宜的に対応点C10を示したが、画像PBRにおいて対応点C10を検出しておく必要はない。上述のように、一致度に基づいて真のエピポーラ線E10[d1b]を選出することは、対応点C10を通るエピポーラ線を選出することとほぼ等価であるから、真のエピポーラ線E10[d1b]を選出すれば、このエピポーラ線E10[d1b]に沿って算出した一致度のピークの座標が対応点C10である。
並進距離Dが求まると、3次元データ算出部28は、並進距離Dと、画像PALを撮影した時の焦点距離「f」、視差「w」、イメージセンサ11bの画素ピッチ「p」を用い、前述の数1の式にしたがって画像PAL内の座標を実空間座標に対応付けることにより、被写体H,Hの3次元データを算出する(3次元データ算出ステップS17)。そして、3次元データ算出部28は算出した3次元データをディスプレイ16に表示する(表示ステップS18)。例えば、図10に示すように、3次元データとして特徴点間の距離を算出した場合には、画像PALに特徴点間の距離の表示を重畳して、ディスプレイ16に表示する。
上述のように、3次元測定装置10は、基線長BLが既知の第1撮像部11及び第2撮像部12を備え、これらによって2箇所の撮影位置から被写体を撮影した画像PAL,PBL,PBRを用いることにより、3次元測定装置10の移動前後の位置関係(特に並進距離D)及び3次元データを算出する。このため、3次元測定装置10は、特許文献1,2のように巨大なステレオカメラを形成するために事前に高精度なキャリブレーションを行う必要はなく、特許文献3のように基準被写体を同時に撮影する必要もない。すなわち、3次元測定装置10は自由に持ち運びながら被写体を撮影するだけで、簡単にかつ高精度に被写体の3次元データを算出することができる。
また、3次元測定装置10は、3次元データの算出のために、画像PALと画像PBL、画像PALと画像PBRをそれぞれペアにして用い、回転行列や並進行列を算出している。これは、第1撮影位置Aにおける第1撮像部11と第2撮影位置Bにおける第1撮像部11のペアや、第1撮影位置Aにおける第1撮像部11と第2撮影位置Bにおける第2撮像部12のペアが、実質的に巨大なステレオカメラを形成しているのと等しい。そして、これらのペアの基線長(並進距離D,D)は基線長BLに比べて長い。このため、3次元測定装置10は高精度に3次元データを算出することができる。
なお、第1実施形態では、各エピポーラ線に沿って算出した一致度を相互に比較して、最大になる点(最大のピーク)を含むエピポーラ線を真のエピポーラ線として選出するが、一致度のグラフの面積が最大になるエピポーラ線を真のエピポーラ線として選出しても良いし、一致度の中央値が最大になるエピポーラ線を真のエピポーラ線として選出しても良い。また、一致度の平均値が最大になるエピポーラ線を真のエピポーラ線として選出しても良い。本明細書において、一致度が最大であるとは、面積や中央値、平均値、またはピークの高さが最大になることを言う。
[第2実施形態]
第1実施形態では、画像PBR上のエピポーラ線に沿って特徴点を含む部分画像との一致度を求めるが、次に説明するように、対応点を予め求めておき、算出したエピポーラ線と対応点の誤差を評価することにより、真のエピポーラ線を選出しても良い。
この場合、まず、第1及び第2の撮影位置A,Bで被写体を撮影し、画像PAL,PAR,PBL,PBRを取得し(S20)、画像PALから特徴点を検出し(S21)、画像PBLから対応点を検出することは第1実施形態のステップS10〜S12と同様である。その後、本実施形態では、さらに画像PBRからも対応点を検出する(第2の対応点検出ステップS23)。画像PBRから検出した対応点は、後述するエピポーラ線の誤差の見積りに使用する。次いで、回転行列R及び並進行列Tを算出し(S24)、仮想並進距離dを仮定して回転行列r及び並進行列tと仮想並進距離dを算出し(S25)、画像PBR上のエピポーラ線を算出すること(S26)は、第1実施形態のステップS13〜S15と同様である。
こうして画像PBR上のエピポーラ線が算出されると、第1実施形態では一致度を算出して真のエピポーラ線を選出したが、本実施形態では、ステップS23で算出した画像PBRの対応点に対する各エピポーラ線の誤差を評価することにより、真のエピポーラ線を選出し、選出したエピポーラ線の算出のために仮定した仮想並進距離dを真の並進距離Dとする(S27)。
具体的には、図12に示すように、4種の仮想並進距離d1a,d1b,d1c,d1dに対応する特徴点F10のエピポーラ線E10[d1a]〜E10[d1d]が算出されたとすると、評価部27は、エピポーラ線E10[d1a]〜E10[d1d]と、ステップS23で算出された特徴点F10に対応する対応点C10との距離σ〜σをそれぞれ算出する。
特徴点F10についてのエピポーラ線E10[d1a]〜E10[d1d]は、仮想並進距離d1a〜d1dの仮定が正しければ対応点C10を通るはずのものであるから、対応点C10とエピポーラ線E10[d1a]〜E10[d1d]の距離σ〜σは、仮想並進距離d〜dと真の並進距離Dからの誤差に対応する値である。図12の場合、σ<σ≒σ<σであり、最小の距離σはほぼ零であるから、対応するエピポーラ線E10[d1b]が真のエピポーラ線である。このため、評価部27は、対応点C10からの距離が最小のエピポーラ線E10[d1b]を真のエピポーラ線として選出し、これを算出するため仮定した仮想並進距離d1bを真の並進距離Dとする。
こうして真の並進距離Dが求まった後は、第1実施形態のステップS17〜S18と同様に、並進距離Dを用いて3次元データが算出され(S28)、表示される(S29)。
このように、誤差σが最小のエピポーラ線を真のエピポーラ線として選出するようにすれば、第1実施形態のようにエピポーラ線に沿って一致度を算出して比較するよりも、高速に真のエピポーラ線を選出することができる場合がある。特に、誤差σの評価に使用する少数の特徴点(例えば特徴点F101つ)を選出しておき、選出した特徴点に対応する対応点(例えば対応点C10)だけを画像PBRから検出すれば、第1実施形態のように対応点検出と同等の演算を各エピポーラ線に沿って複数回行なって一致度を算出するよりも、対応点検出及び真のエピポーラ線の選出に要する時間を短縮できる。
[第3実施形態]
なお、第1実施形態では評価部27で算出する一致度が最大になるエピポーラ線を真のエピポーラ線として選出するが、評価部27で算出する一致度が最大になるエピポーラ線が真のエピポーラ線でないことがある。また、第2実施形態では、誤差σが最小のエピポーラ線が真のエピポーラ線でないことがある。こうした不具合が生じるのは、例えば対応点の検出精度が悪く、誤った対応点が検出されてしまった場合や、使用する特徴点の組み合わせが悪く、回転行列Rや並進行列T、仮想並進距離dの誤差が大きい場合等に起こり得る。このため、より確実に3次元データの算出を精度良く行えるように、上述のような不具合がないかを検証し、3次元データの算出精度が悪化すると判断される場合には、対応点検出等をやり直すことが好ましい。
例えば、第1実施形態のように一致度に基づいて真のエピポーラ線を算出する場合、図13に示すように、真のエピポーラ線を選出した後(S16)、真のエピポーラ線の一致度の最大値が所定閾値以上であるか否かを確認することにより、選出したエピポーラ線が真のエピポーラ線を表しているか否かを検証する(検証ステップS31)。選出したエピポーラ線の一致度の最大値が所定閾値以上の場合、選出したエピポーラ線の算出のために仮定した仮想並進距離dを真の並進距離Dとして用いて3次元データを算出し(S17)、表示する(S18)。
一方、選出したエピポーラ線の一致度の最大値が所定閾値よりも小さい場合には、前述のように、検出した対応点が特徴点に対応しないものである可能性があるので、条件を変更して対応点の検出をやり直す(対応点再検出ステップS32)。そして、再検出した対応点を用いて回転行列R,rや並進行列T,tの算出、及び仮想並進距離dの算出(S13,14)、エピポーラ線の算出(S15)、一致度の算出(S16)をやり直す。
なお、対応点を検出し直す場合に変更する条件とは、例えば、使用する特徴点の組み合わせを変更すること、部分画像31の大きさを変えること、部分画像31の拡大率や縮小率(拡大縮小率)、回転角度を変えること、処理を速くするために部分画像31の拡大や回転をせずに対応点を検出していた場合には部分画像31の拡大や回転も行うようにすること、対応点検出のアルゴリズムを変更すること等のいずれか、またはこれらの組み合わせである。
また、図13の例では、一致度の最大値(ピークの高さ)を所定閾値と比較しているが、面積や中央値、平均値等によって真のエピポーラ線を選出する場合には、これらの値を各々に定める所定の閾値と比較すれば良い。
さらに、第2実施形態の例において上述と同様の検証を行うには、図14に示すように、エピポーラ線を選出した後(S27)、選出したエピポーラ線の対応点に対する誤差σを所定閾値以下であるか否かを確認することにより、選出したエピポーラ線が真のエピポーラ線を表しているか否かを検証する(検証ステップS33)。選出したエピポーラ線の誤差σが所定閾値以下の場合、選出したエピポーラ線の算出のために仮定した仮想並進距離dを用いて3次元データを算出し(S17)、表示する(S18)。
一方、選出したエピポーラ線の誤差σが所定閾値よりも大きい場合には、検出した対応点が特徴点に対応しないものである可能性があるので、条件を変更して対応点の検出をやり直す(対応点再検出ステップS34)。そして、再検出した対応点を用いて回転行列R,rや並進行列T,tの算出、及び仮想並進距離dの算出(S13,14)、エピポーラ線の算出(S15)、一致度の算出(S16)をやり直す。ステップS34で変更する条件は、前述と同様である。
このように、条件を変えて対応点を再検出し、対応点の検出精度を上げれば、誤差が大きい3次元データを算出してしまうことを防止できる。
なお、第3実施形態では、対応点を検出し直すが、特徴点の検出からやり直しても良い。特徴点の算出をやり直す場合には、先に検出した特徴点から選出する特徴点の組み合わせを選出し直しても良いし、特徴点を検出するアルゴリズムを変更して、新たな特徴点を検出しても良い。第3実施形態のように、対応点の再検出を試みた後、対応点の再検出だけでは一致度が所定閾値以上にならなかった場合や、誤差σが所定閾値いかにならなかった場合に、特徴点の再検出を行うようにしても良い。逆に、特徴点の再検出を先に試み、特徴点の再検出だけでは誤差σを小さく抑えられなかった場合に、対応点の再検出を試みるようにしても良い。
[第4実施形態]
なお、第1〜第3実施形態では、仮想並進距離dを適宜変更することにより、画像PBR上に複数の異なるエピポーラ線を求めることができることを前提としているが、例えば、第1撮影位置Aと第2撮影位置Bとで3次元測定装置10が鉛直方向(φ方向)に全く回転していなかった場合、仮想並進距離dを変更しても、実質的に各エピポーラ線が全く同じものになる。具体的には、図15に示すように、仮想並進距離d1a〜d1dの違いによらず、全てのエピポーラ線E10[d1a]〜E10[d1d]が水平方向の直線であり、実質的に同じものである。このため、第1〜第3実施形態のように一致度や誤差σによる評価では、どの仮想並進距離d1a〜d1dが真の並進距離Dを表しているかの判別ができない。3次元測定装置10が全く回転せず、平行移動だけをした場合も同様である。
このような不具合を解消するためには、図16に示すように、回転行列Rを算出した後(S13)、まず、算出した回転行列Rが3次元測定装置10の回転を表しているか否かを確認する(回転確認ステップS41)。そして、第1撮影位置Aと第2撮影位置Bにおいて、3次元測定装置10が適切な回転をしていることが確認された場合には、第1〜第3実施形態の方法で3次元データを算出する。
一方、第1撮影位置Aと第2撮影位置Bにおいて、適切な回転をしていなかいことが確認された場合には、第1〜第3実施形態とは異なる別の方法で並進距離Dを算出し(S42)、これを用いて3次元データを算出すれば良い(S43)。
ステップS42,S43は、例えば次のように行う。図17に示すように、まず、仮想並進距離dを仮定し、回転行列r、並進行列t、及び仮想並進距離dを算出する(S44)。ここで算出する回転行列r、並進行列t、及び仮想並進距離dは、第1実施形態のステップS14と同じものである。但し、第1実施形態等ではこれらを用いてエピポーラ線を算出したが、本例の場合は仮想並進距離dの値を変化させても実質的に同じエピポーラ線しか算出することができないので、エピポーラ線を算出する代わりに、仮想並進距離dを用いて3次元データを算出する(S45)。具体的には前述の数1の式において、Dの代わりに仮想並進距離dを用い、視差「w」には画像PALと画像PBLの視差を用いることによって、例えば、所定の特徴点の実空間座標を算出する。
その後さらに、ステップS44と同じ値の仮想並進距離dを仮定して、回転行列r、並進行列t、及び仮想並進距離dを算出する(S46)。図18に示すように、仮想並進距離dは、第1撮影位置Aにおける第2撮像部12を基準とした第2撮影位置Bにおける第2撮像部12の並進距離である。また、回転行列rは第1,第2撮影位置A,Bの各第2撮像部12間の回転方向及び回転角を表すものであり、並進行列tは並進方向を表す。
そして、仮想並進距離dを用いて3次元データを算出する(S47)。ステップS47の3次元データの算出は、数1の式において、Dの代わりに仮想並進距離dを用い、視差「w」には画像PARと画像PBRの視差を用いることによって、画像PAR(または画像PBR)において、ステップS45と同じ点の実空間座標を算出する。例えば、ステップS45で特徴点F10の実空間座標を算出した場合には、ステップS47ではその対応点C10の実空間座標を算出する。対応点の検出は、3次元データを算出する場合に行なっても良いし、予め行なっておいても良い。
こうして算出した仮想並進距離dに基づく3次元データと、仮想並進距離dに基づく3次元データは、いずれも同じ値の仮想並進距離dから求められるものであるから、仮想並進距離dの仮定が正しければほぼ完全に一致するはずのものである。例えば、特徴点F10と対応点C10は実空間上では同じ点の座標なので、仮想並進距離dの仮定が正しければ、同じ値になる。一方、仮想並進距離dに基づく3次元データと仮想並進距離dに基づく3次元データは、もともと仮想並進距離dが同じ値であってもそれぞれ算出時に使用する画像に違いがあるため差が生じる。仮想並進距離dと真の並進距離Dのずれが大きいほど、この差は大きくなる。
したがって、並進距離算出部25は、仮想並進距離dに基づく3次元データと仮想並進距離dに基づく3次元データとの差を算出して所定閾値と比較し(S48)、差が所定閾値以下であれば、仮想並進距離dを真の並進距離Dとし、これを用いて3次元データを算出する(S43)。
一方、仮想並進距離dに基づく3次元データと仮想並進距離dに基づく3次元データとの差が所定閾値よりも大きい場合には、仮想並進距離dの値を変更して(S49)、仮想並進距離d,d及び3次元データの等の算出をやり直す。
上述のように、仮想並進距離dを仮定した後、使用する画像のペアを変えた2種類の方法で3次元データを算出し、これらを比較すれば、3次元測定装置10が回転していないような場合でも並進距離Dを算出することができる。
なお、上述の例では、仮想並進距離dに基づく3次元データと仮想並進距離dに基づく3次元データとの差が所定閾値以下の場合に、仮想並進距離d(真の並進距離D)を用いて改めて3次元データを算出するが、改めて3次元データを算出せずに、仮想並進距離dに基づく3次元データや仮想並進距離dに基づく3次元データを表示等に使用しても良い。
また、仮想並進距離dを変更しても、実質的に各エピポーラ線が全く同じものになる場合、図16のステップS42,S43を、次に説明するさらなる別の方法で行なっても良い。
図19に示すように、まず、画像PALで検出した特徴点(図16のS11)の対応点を画像PBRから検出し(S51)、画像PALの特徴点と画像PBRの対応点に基づいて、回転行列R及び並進行列Tを算出する(S52)。回転行列R及び並進行列Tは、図3の回転行列r及び並進行列tに対応するものであるが、仮定を含まず画像PALの特徴点と画像PBRの対応点から直接算出されるので、第1撮影位置Aの第1撮像部11に対する第2撮影位置Bの第2撮像部12の正確な回転角度、回転方向、並進方向を表すものである。但し、並進距離Dが不明なことは前述と同様である。
次に、並進距離算出部52は、回転行列R,R及び並進行列T,Tを用いて、第2撮影位置Bに合致する基線長ベクトルの位置を算出する(S53)。
図20に示すように、基線長ベクトル32は、基線長BLの長さと、回転行列R,Rで定まる向きを有し、第2撮影位置Bにおける3次元測定装置10の第1撮像部11と第2撮像部12をそれぞれ基点32a及び先端32bとするベクトルである。
並進距離算出部25は、第1撮影位置Aの第1撮像部11を基準として並進行列Tが示す直線(以下、T方向という)上の任意の点に基線長ベクトル32の基点32aを置き、第1撮影位置Aの第1撮像部11を基準として並進行列Tが示す直線(以下、T方向という)と先端32bの距離を算出する。そして、T方向と先端32bの距離が最も小さくなる基線長ベクトル32の基点32a及び先端32bの座標を求める。
方向及びT方向は、それぞれ第2撮影位置Bの第1撮像部11と第2撮像部12がある方向を表しており、T方向とT方向の間隔は、第1撮影位置Aから離れるにしたがって広くなる。しかし、基線長BLの長さは不変であるから、基線長ベクトル32の基端32aをT方向上の任意の位置に置いて第2撮影位置Bにおける第1撮像部11の位置を仮定した場合に、この位置が真の第2撮影位置Bであれば、第2撮影位置Bにおける第2撮像部12の位置を示す基線長ベクトル32の先端32bはT方向上にあるはずである。また、矢印b1及び矢印b3で示すように、基線長ベクトル32の基端32aを第1撮影位置Aに対して近くまたは遠くに置きすぎれば、先端32bはT方向から離れる。このため、基端32aの位置をT方向上で変化させながら、先端32bとT方向の距離を算出すれば、矢印b2で示すように、先端32bがT方向に最も近くなった(理想的にはT方向に合致した)位置を第2撮影位置Bであると判別できる。
第2撮影位置Bの位置が確定すれば、基線長ベクトル32の基端32aは、第2撮影位置Bにおける第1撮像部11の位置であり、先端32bは第2撮影位置Bにおける第2撮像部12の位置である。このため、並進距離算出部25は、第1撮影位置Aの第1撮像部11から基端32aまでの長さを算出することにより、並進距離Dを算出する(S54)。また、先端32bまでの長さを算出することにより、並進距離Dを算出する。
こうして並進距離D(及び並進距離D)が求まると、3次元データ算出部28は、並進距離Dを用いて3次元データを算出し(S54)、表示する(S43)。
このように、回転行列R,R及び並進行列T,Tを用いて、第2撮影位置Bに合致する基線長ベクトルの位置を算出すれば、3次元測定装置10が回転していないような場合でも並進距離Dを正確に算出することができる。
なお、上述の例では、画像PALと画像PBL、画像PALと画像PBRを用いているが、画像PALと画像PBL、画像PARと画像PBRを用いて良い。この場合、図21に示すように、T方向と、画像PARと画像PBRを用いて算出するt方向が交差するが、基線長ベクトル32を用いて第2撮影位置Bを決定する方法は上述の例と同じである。
なお、第4実施形態では、基線長ベクトル32の基端32aをT方向上に置き、先端32bとT方向の距離を算出することによって第2撮影位置Bを特定したが、先端32aをT方向上に置き、基端32aとT方向の距離を算出することによっても第2撮影位置Bを特定することができる。また、基線長ベクトル32の基端32aと先端32bを逆に定義しても良い。
[第5実施形態]
第1〜第4実施形態では、仮想並進距離dが任意の値であるが、並進距離Dを短時間で算出するためには、仮想並進距離dは真の並進距離Dに近い値に仮定することが好ましい。
仮想並進距離dは真の並進距離Dに近い値に仮定するためには、例えば、図22に示すように、3次元測定装置10にGPS41(撮影位置検出部)を設けておけば良い。そして、GPS41で計測される撮影時の位置情報を画像PAL,PAR,PBL,PBRに関連付けて記憶する。例えば、画像PAL及び画像PARのEXIFデータとして第1撮影位置Aの位置情報を、画像PBL及び画像PBRのEXIFデータとして第2撮影位置Bを記憶する。
そして、図23に示すように、回転行列R及び並進行列Tの算出後、エピポーラ線を算出するために仮想並進距離dを仮定する場合に、画像PAL,PAR,PBL,PBRに関連付けて記憶された位置情報を取得し(S61)、取得した位置情報に基づいて仮定する仮想並進距離dの値を決定する(S62)。具体的には、例えば、画像PALの位置情報と画像PBLの位置情報の差の近傍で、仮想並進距離dの初期値や仮想並進距離dを変化させる範囲を設定する。
GPS41で測定できるのはあくまでも3次元測定装置10の全体としての大まかな位置であり、3次元データの算出に必要な各撮影位置A,Bにおける撮像部11,12の精密な位置情報は得られないが、上述のように仮想並進距離dの初期値や変化させる範囲を決めるために使用することにより、真の並進距離Dの算出をより速く行うことができる。
なお、第5実施形態では、仮想並進距離dの初期値や仮想並進距離dを変化させる範囲を決定するために使用する位置情報をGPS41により測定するが、第1,第2撮影位置A,Bの大まかな位置情報を得ることができれば、位置情報の取得方法は任意である。例えば、撮影をしたユーザの入力により初期値や変化範囲を指定できるようにしても良い。
また、第5実施形態ではGPS41を用いたが、GPS41によらず、基線長の長さを|BL|、画像PALの任意の特徴点の画素アドレスと画像PBLの対応点の画素アドレスとの差をε、画像PALの特徴点(先のものと同じもの)と画像PARの対応点の画素アドレスの差をγとして、|BL|×ε/γを仮想並進距離dの初期値にしても良い。εは画像PALと画像PBLの視差であり、γは画像PALと画像PARの視差である。
所定の特徴点の奥行きは(基線長/視差)×(焦点距離/画素ピッチ)で表される。また、同じ特徴点であれば奥行きが等しいはずであるから、(|BL|/γ)×(焦点距離/画素ピッチ)と、(並進距離/ε)×(焦点距離/画素ピッチ)は等しい。このため、焦点距離や画素ピッチが等しいとすれば、並進距離は概ね|BL|×ε/γで表される。このため、上述のように仮想並進距離dを|BL|×ε/γとすれば、予め真の並進距離Dに近い値になるので、真の並進距離Dを短時間で算出できる可能性が高くなる。仮想並進距離dを変化させる範囲を、|BL|×ε/γを含む所定範囲にしても良い。
なお、第5実施形態では、第1実施形態の方法をベースにしているが、第2〜第4実施形態の方法で3次元データを算出する場合も同様に位置情報に基づいて仮想並進距離dの初期値や変化範囲を決定することが好ましい。
なお、第1〜第5実施形態では、複数の仮想並進距離dに対応する回転行列r及び並進行列tを予め求め、これらにそれぞれ対応するエピポーラ線を算出するが、任意の1つの仮想並進距離dを用いてエピポーラ線を求めた後、仮想並進距離d1を変更して新たにエピポーラ線を算出する手順を繰り返し行なうことにより、複数の仮想並進距離dに対応するエピポーラ線をそれぞれ算出しても良い。
なお、第1〜第5実施形態では、3次元測定装置10に第1撮像部11と第2撮像部12を備え、さらに測定部15も内蔵しているが、これらは分離していても良い。すなわち、図24に示すように、第1撮像部11と第2撮像部12を備えるステレオカメラ51と、測定部15を備える画像処理装置52によって3次元測定システム53を構成しても良い。この場合、ステレオカメラ51は、基線長BLが既知の2つの撮像部(第1撮像部11と第2撮像部12)を備えていなければならないことを除けば、その他の構成は任意である。また、画像処理装置52は、例えば、CPUや各種演算回路等で測定部15を構成したコンピュータであり、測定部15の他には、例えば、ステレオカメラ51から画像PAL,PAR,PBL,PBRを受け取るためのインターフェイスや、これらの画像を少なくとも一時的に記憶するメモリ54、測定部15で算出した3次元データを表示するディスプレイ55等を備える。
また、上述のようにステレオカメラと画像処理装置を分離して3次元測定システムにする場合には、図25に示すように、2台のステレオカメラ51a,51bと、画像処理装置52とで3次元測定システム56を構成しても良い。そして、第1撮影位置Aにおいては一方のステレオカメラ51aを用いて被写体を撮影し、第2撮影位置Bにおいては他方のステレオカメラ51bを用いて被写体を撮影しても良い。画像処理装置52では、このように2つの撮影位置A,Bにおいてそれぞれ別々のステレオカメラ51a,51bを用いて撮影した画像を用いても3次元データを算出することができる。ステレオカメラ51a,51bは同機種であることが好ましいが、基線長BLが等しい(または基線長BLを他方に合わせることができる)ならば、異なる機種を用いることもできる。また、1つの3次元測定システムに、3台以上のステレオカメラを備えるようにしても良い。この場合、3以上の撮影位置で撮影した画像のうち、2つの撮影位置で撮影した画像を選択的に用いて3次元データを算出することができる。
さらに、上述のように3次元測定装置10をステレオカメラ51と画像処理装置52に分離して設けた3次元測定システム10では、図26に示すように、ステレオカメラ51を車載カメラにすることもできる。この場合、自動車57で被写体H,Hの周辺を走りながら撮影をし、その後、撮りためた画像を画像処理装置52に取り込んで、被写体H,Hの3次元データを算出することができる。このように、ステレオカメラ51を車載カメラにすれば、移動速度の利点を活かしつつ、容易かつ精密に被写体の3次元データを得ることができる。但し、ステレオカメラ51を車載カメラにする場合でも、特許文献1のような巨大なステレオカメラにする必要はなく、基線長BLが既知のコンパクトなステレオカメラ51を用いることができ、かつ、配置や向きを精密に測定したりする必要もない。ステレオカメラ51は単に被写体H,Hを撮影可能なように車載すれば良い。このため、自動車57の向き等によって、第1撮像部11と第2撮像部12の重複する撮影範囲にうまく被写体がおさまらない場合には、適宜ステレオカメラ51の位置や向きを調節すれば良い。このため、自動車57の大きさや道路の向き、ステレオカメラの向きの調節のし難さ等によるデメリットはない。当然、測定部15を含む3次元測定装置10自体を車載しても良い。
なお、第1〜第5実施形態では、3次元測定装置10の基線長BLが不変であるが、基線長を可変にしても良い。但し、3次元データの算出に使用する全ての画像は、同じ基線長で撮影されなければならない。また、少なくとも3次元データを算出する場合に、変化させた基線長BLは既知でなければならない。また、3次元データの測定精度を劣化させないためには、変化させた基線長BLは、3次元データの算出に必要な程度に精密に測定されている必要がある。
なお、第1〜第5実施形態では、第1撮像部11と第2撮像部12の各撮影光軸L,Lが平行であるが、第1撮像部11と第2撮像部12を相対的に傾けて配置し、各撮影光軸L,Lを非平行にしても良い。この場合、3次元データを算出する計算が煩雑になるが、基本的な原理は、第1〜第5実施形態と同様である。
なお、上述の各実施形態では、第1撮像部11と第2撮像部12は同時に撮影を行うが、第1撮像部11と第2撮像部12の撮影タイミングは厳密に同時である必要はない。撮影位置や3次元測定装置10の傾き等が変化しないとみなせる範囲内でほぼ同時に撮影をすることができれば、例えば第1撮像部11と第2撮像部12で順に撮影するようにしても良い。
10 3次元測定装置
11 第1撮像部
12 第2撮像部
15 測定部
21 特徴点検出部
22 対応点検出部
23 回転行列算出部
24 並進行列算出部
25 並進距離算出部
26 エピポーラ線算出部
27 評価部
28 3次元データ算出部
31 部分画像
32 基線長ベクトル
51 ステレオカメラ
52 画像処理装置

Claims (19)

  1. 被写体を撮像する第1撮像部と、
    前記第1撮像部に対して所定の基線長をおいて配置され、前記第1撮像部が撮像する前記被写体の少なくとも一部を含む範囲を撮像する第2撮像部と、
    第1撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する特徴点検出部と、
    前記第1撮影位置とは異なる第2撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像の少なくともいずれか一方について、前記特徴点に対応する対応点を検出する対応点検出部と、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の回転角及び回転方向を表す回転行列を算出する回転行列算出部と、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の並進移動方向を表す並進行列を算出する並進行列算出部と、
    前記回転行列算出部において前記特徴点及び前記対応点に基づいて算出される第1回転行列と、前記並進行列算出部において前記特徴点及び前記対応点に基づいて算出される第1並進行列と、前記特徴点を検出した画像と前記対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる前記第1撮影位置及び前記第2撮影位置の各撮像部の相対的位置関係に基づいて、前記第1撮影位置の撮像部から所定の前記特徴点への視線方向を前記第2撮影位置で得た画像に投影したエピポーラ線を算出するエピポーラ線算出部と、
    前記第1仮想並進距離を変えながら算出された複数の前記エピポーラ線がそれぞれ前記特徴点に対応する対応点を通っているか否かを評価する評価部と、
    前記所定の特徴点を通る前記エピポーラ線の算出のために仮定した前記第1仮想並進距離を用いて前記被写体の3次元データを算出する3次元データ算出部と、
    を備える3次元測定装置。
  2. 前記エピポーラ線算出部は、前記エピポーラ線を算出する画像を撮像した前記第2撮影位置の撮像部の前記特徴点を検出した画像を撮像した前記第1撮影位置の撮像部に対する回転角及び回転方向を表す第2回転行列と、並進方向を表す第2並進行列と、第1仮想並進距離の仮定を含んだ並進距離を表す第2仮想並進距離に基づいて、前記エピポーラ線を算出する請求項1に記載の3次元測定装置。
  3. 前記評価部は、複数の前記エピポーラ線に沿って前記特徴点との一致度を算出し、前記一致度に基づいて前記特徴点に対応する対応点を通っているか否かを評価する請求項1に記載の3次元測定装置。
  4. 前記3次元データ算出部は、前記一致度が最も高い点を含む前記エピポーラ線の算出のために仮定した前記仮想並進距離を用いて前記被写体の3次元データを算出する請求項3に記載の3次元測定装置。
  5. 前記対応点検出部は、前記エピポーラ線を算出する画像において、エピポーラ線が通るべき前記所定の特徴点に対応する対応点を検出し、
    前記評価部は、複数の前記エピポーラ線と、前記エピポーラ線が通るべき前記特徴点に対応する前記対応点との距離に基づいて前記エピポーラ線が前記対応点を通っているか否かを評価する請求項1に記載の3次元測定装置。
  6. 前記評価部複数の前記エピポーラ線が前記所定の特徴点に対応する対応点を通っていないと評価した場合に、前記回転行列算出部及び前記並進行列算出部は、条件を変更して前記第1回転行列及び前記第1並進行列を再算出する請求項1に記載の3次元測定装置。
  7. 前記対応点検出部は前記対応点を再検出し、前記回転行列算出部及び前記並進行列算出部は、再検出された前記対応点に基づいて前記第1回転行列及び前記第1並進行列を再算出する請求項6に記載の3次元測定装置。
  8. 前記対応点検出部は、前記対応点を再検出する場合、前記対応点を検出するために用いる前記特徴点を含む画像の大きさの変更、拡大縮小率の変更、回転角度の変更、または前記対応点を検出する前記特徴点の組み合わせの変更のいずれかを含む条件変更をする請求項7に記載の3次元測定装置。
  9. 前記特徴点検出部は、前記特徴点を再検出し、前記回転行列算出部及び前記並進行列算出部は、再検出された前記特徴点に基づいて前記第1回転行列及び前記第1並進行列を再算出する請求項6に記載の3次元測定装置。
  10. 前記第1回転行列が前記第1撮影位置と前記第2撮影位置とが回転していないことを表すものであった場合に、前記3次元データ算出部は、前記エピポーラ線を用いない別の方法で前記3次元データを算出する請求項1に記載の3次元測定装置。
  11. 前記3次元データ算出部は、
    前記第1仮想並進距離が表す撮像部間距離とは異なる前記第1,第2撮影位置の撮像部間距離を表し、前記第1仮想並進距離の仮定によって定まる第3仮想並進距離を用いて算出した前記3次元データと、前記第1仮想並進距離を用いて算出した前記3次元データとを比較し、
    前記第1仮想並進距離を用いて算出した前記3次元データと前記第3仮想並進距離を用いて算出した前記3次元データの差を所定閾値以下にする前記第1仮想並進距離及び前記3次元データを求める請求項10に記載の3次元測定装置。
  12. 前記3次元データ算出部は、
    前記第1撮影位置及び前記第2撮影位置で得た4枚の画像のうち任意の組み合わせの複数の画像を用いて算出した前記第1回転行列及び前記第1並進行列と、前記複数の画像とは異なる組み合わせの複数の画像を用いて算出した第3回転行列及び第3並進行列を用い、
    前記第1回転行列及び前記第3回転行列によって方向が定まり、前記基線長の長さを有する基線長ベクトルの基端及び先端が、前記第1並進行列と前記第3並進行列が表す方向の上にそれぞれ位置する前記基線長ベクトルの位置を探索し、
    前記基端及び前記先端が前記第1並進行列と前記第3並進行列が表す方向の上にそれぞれ位置する場合の前記基端及び前記先端の位置に基づいて前記3次元データを算出する請求項10に記載の3次元測定装置。
  13. 前記第1撮影位置と前記第2撮影位置の位置情報を検出する撮影位置検出部を備え、
    前記エピポーラ線算出部は、前記撮影位置検出部で検出した位置情報から算出される前記第1撮影位置と前記第2撮影位置の距離に基づいて、前記第1仮想並進距離の初期値、または前記第1仮想並進距離を変更する範囲を決定する請求項1に記載の3次元測定装置。
  14. 前記基線長の長さを|BL|、前記第1撮影位置で得た画像と前記第2撮影位置で得た画像の視差をε、前記第1撮影位置で得た2つの画像の視差をγとする場合に、前記エピポーラ線算出部は、|BL|×ε/γに基づいて、前記第1仮想並進距離の初期値、または前記第1仮想並進距離を変更する範囲を決定する請求項1に記載の3次元測定装置。
  15. 前記3次元データは、前記被写体上の2点間の長さ、前記被写体上の2点間の角度、前記被写体の3次元モデルデータのいずれかである請求項1に記載の3次元測定装置。
  16. 被写体を撮像する第1撮像部と、前記第1撮像部に対して所定の基線長をおいて配置され、前記第1撮像部が撮像する前記被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラによって、第1撮影位置と第2撮影位置でそれぞれ撮影した画像を記憶する記憶部と、
    第1撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する特徴点検出部と、
    前記第1撮影位置とは異なる第2撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像の少なくともいずれか一方について、前記特徴点に対応する対応点を検出する対応点検出部と、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の回転角及び回転方向を表す回転行列を算出する回転行列算出部と、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の並進移動方向を表す並進行列を算出する並進行列算出部と、
    前記回転行列算出部において前記特徴点及び前記対応点に基づいて算出される第1回転行列と、前記並進行列算出部において前記特徴点及び前記対応点に基づいて算出される第1並進行列と、前記特徴点を検出した画像と前記対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる前記第1撮影位置及び前記第2撮影位置の各撮像部の相対的位置関係に基づいて、前記第1撮影位置の撮像部から所定の前記特徴点への視線方向を前記第2撮影位置で得た画像に投影したエピポーラ線を算出するエピポーラ線算出部と、
    前記第1仮想並進距離を変えながら算出された複数の前記エピポーラ線がそれぞれ前記特徴点に対応する対応点を通っているか否かを評価する評価部と、
    前記所定の特徴点を通る前記エピポーラ線の算出のために仮定した前記第1仮想並進距離を用いて前記被写体の3次元データを算出する3次元データ算出部と、
    を備える画像処理装置。
  17. A.被写体を撮像する第1撮像部と、前記第1撮像部に対して所定の基線長をおいて配置され、前記第1撮像部が撮像する前記被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラと、
    B.前記1つまたは2つのステレオカメラによって、第1撮影位置と第2撮影位置でそれぞれ撮影した画像を記憶する記憶部と、第1撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する特徴点検出部と、前記第1撮影位置とは異なる第2撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像の少なくともいずれか一方について、前記特徴点に対応する対応点を検出する対応点検出部と、前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の回転角及び回転方向を表す回転行列を算出する回転行列算出部と、前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の並進移動方向を表す並進行列を算出する並進行列算出部と、前記回転行列算出部において前記特徴点及び前記対応点に基づいて算出される第1回転行列と、前記並進行列算出部において前記特徴点及び前記対応点に基づいて算出される第1並進行列と、前記特徴点を検出した画像と前記対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる前記第1撮影位置及び前記第2撮影位置の各撮像部の相対的位置関係に基づいて、前記第1撮影位置の撮像部から所定の前記特徴点への視線方向を前記第2撮影位置で得た画像に投影したエピポーラ線を算出するエピポーラ線算出部と、前記第1仮想並進距離を変えながら算出された複数の前記エピポーラ線がそれぞれ前記特徴点に対応する対応点を通っているか否かを評価する評価部と、前記所定の特徴点を通る前記エピポーラ線の算出のために仮定した前記第1仮想並進距離を用いて前記被写体の3次元データを算出する3次元データ算出部とを有する画像処理装置と、
    を備える3次元測定システム。
  18. 前記ステレオカメラが車載カメラである請求項17に記載の3次元測定システム。
  19. 被写体を撮像する第1撮像部と、前記第1撮像部に対して所定の基線長をおいて配置され、前記第1撮像部が撮像する前記被写体の少なくとも一部を含む範囲を撮像する第2撮像部とを有する1つまたは2つのステレオカメラによって第1撮影位置で前記被写体を撮像して得た2枚の画像のうち少なくともいずれか一方の画像から複数の特徴点を検出する特徴点検出ステップと、
    前記第1撮影位置とは異なる第2撮影位置において前記第1撮像部及び前記第2撮像部によって前記被写体を撮像して得た2枚の画像の少なくともいずれか一方について、前記特徴点に対応する対応点を検出する対応点検出ステップと、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の回転角及び回転方向を表す回転行列を算出する回転行列算出ステップと、
    前記第1撮影位置における前記第1撮像部または前記第2撮像部を基準とした前記第2撮影位置における前記第1撮像部または前記第2撮像部の並進移動方向を表す並進行列を算出する並進行列算出ステップと、
    前記回転行列算出部において前記特徴点及び前記対応点に基づいて算出される第1回転行列と、前記並進行列算出部において前記特徴点及び前記対応点に基づいて算出される第1並進行列と、前記特徴点を検出した画像と前記対応点を検出した画像を撮像した各撮像部間の距離を任意に仮定した第1仮想並進距離とによって定まる前記第1撮影位置及び前記第2撮影位置の各撮像部の相対的位置関係に基づいて、前記第1撮影位置の撮像部から所定の前記特徴点への視線方向を前記第2撮影位置で得た画像に投影したエピポーラ線を算出するエピポーラ線算出ステップと、
    前記第1仮想並進距離を変えながら算出された複数の前記エピポーラ線がそれぞれ前記特徴点に対応する対応点を通っているか否かを評価する評価ステップと、
    前記所定の特徴点を通る前記エピポーラ線の算出のために仮定した前記第1仮想並進距離を用いて前記被写体の3次元データを算出する3次元データ算出ステップと、
    を備える3次元測定方法。
JP2014522513A 2012-06-29 2013-06-06 3次元測定方法、装置、及びシステム、並びに画像処理装置 Expired - Fee Related JP5715735B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014522513A JP5715735B2 (ja) 2012-06-29 2013-06-06 3次元測定方法、装置、及びシステム、並びに画像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012146469 2012-06-29
JP2012146469 2012-06-29
PCT/JP2013/065670 WO2014002725A1 (ja) 2012-06-29 2013-06-06 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP2014522513A JP5715735B2 (ja) 2012-06-29 2013-06-06 3次元測定方法、装置、及びシステム、並びに画像処理装置

Publications (2)

Publication Number Publication Date
JP5715735B2 true JP5715735B2 (ja) 2015-05-13
JPWO2014002725A1 JPWO2014002725A1 (ja) 2016-05-30

Family

ID=49782891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522513A Expired - Fee Related JP5715735B2 (ja) 2012-06-29 2013-06-06 3次元測定方法、装置、及びシステム、並びに画像処理装置

Country Status (4)

Country Link
US (1) US9369695B2 (ja)
JP (1) JP5715735B2 (ja)
CN (1) CN104395692B (ja)
WO (1) WO2014002725A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI520098B (zh) 2014-01-28 2016-02-01 聚晶半導體股份有限公司 影像擷取裝置及其影像形變偵測方法
CN104811688B (zh) * 2014-01-28 2017-09-01 聚晶半导体股份有限公司 图像获取装置及其图像形变检测方法
JP2016070762A (ja) * 2014-09-29 2016-05-09 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
WO2017072975A1 (ja) * 2015-10-30 2017-05-04 オリンパス株式会社 撮像システム
US11143504B2 (en) * 2015-11-16 2021-10-12 Sony Semiconductor Solutions Corporation Image capture device and image capture system
CN108801218B (zh) * 2016-05-06 2021-07-02 北京信息科技大学 大尺寸动态摄影测量***的高精度定向及定向精度评价方法
JP2018051728A (ja) * 2016-09-30 2018-04-05 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
KR101986433B1 (ko) * 2017-11-28 2019-06-05 재단법인 다차원 스마트 아이티 융합시스템 연구단 시점 변환을 이용하는 영상 스티칭 방법 및 시스템
CN108088383B (zh) * 2017-12-05 2019-06-25 武汉理工大学 一种应用于起重机械的摄影测量算法
TWI757658B (zh) * 2018-11-14 2022-03-11 宏達國際電子股份有限公司 影像處理系統及影像處理方法
JP7188798B2 (ja) * 2018-11-29 2022-12-13 Necソリューションイノベータ株式会社 座標算出装置、座標算出方法、及びプログラム
CN109559354B (zh) * 2018-11-30 2024-02-23 北京金风科创风电设备有限公司 测量塔架净空的方法以及装置
CN111432117B (zh) * 2020-03-23 2021-08-10 北京迈格威科技有限公司 图像矫正方法、装置和电子***
CN114608450B (zh) * 2022-03-10 2023-09-26 西安应用光学研究所 机载光电***对远距离海面目标三维尺寸测算方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195445A (ja) * 1992-12-24 1994-07-15 Canon Inc 複数画像の対応点抽出方法
WO2006090735A1 (ja) * 2005-02-23 2006-08-31 Aisin Seiki Kabushiki Kaisha エピポーラ幾何を用いた物体認識装置及び物体認識方法
JP2009517683A (ja) * 2005-11-30 2009-04-30 テレコム・イタリア・エッセ・ピー・アー ステレオビジョンにおいて散乱視差場を求める方法
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2012122911A (ja) * 2010-12-10 2012-06-28 Fujitsu Ltd 位置特定装置、位置特定方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680474A (en) * 1992-10-27 1997-10-21 Canon Kabushiki Kaisha Corresponding point extraction method for a plurality of images
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image
JP4227037B2 (ja) 2004-02-25 2009-02-18 株式会社国際電気通信基礎技術研究所 撮像システム及び校正方法
JP4687518B2 (ja) * 2005-03-15 2011-05-25 オムロン株式会社 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP4814669B2 (ja) 2006-03-28 2011-11-16 株式会社デンソーアイティーラボラトリ 3次元座標取得装置
JP4782899B2 (ja) * 2009-07-22 2011-09-28 パナソニック株式会社 視差検出装置、測距装置及び視差検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195445A (ja) * 1992-12-24 1994-07-15 Canon Inc 複数画像の対応点抽出方法
WO2006090735A1 (ja) * 2005-02-23 2006-08-31 Aisin Seiki Kabushiki Kaisha エピポーラ幾何を用いた物体認識装置及び物体認識方法
JP2009517683A (ja) * 2005-11-30 2009-04-30 テレコム・イタリア・エッセ・ピー・アー ステレオビジョンにおいて散乱視差場を求める方法
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2012122911A (ja) * 2010-12-10 2012-06-28 Fujitsu Ltd 位置特定装置、位置特定方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2014002725A1 (ja) 2016-05-30
CN104395692A (zh) 2015-03-04
CN104395692B (zh) 2016-08-24
US20150103148A1 (en) 2015-04-16
WO2014002725A1 (ja) 2014-01-03
US9369695B2 (en) 2016-06-14

Similar Documents

Publication Publication Date Title
JP5715735B2 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP5745178B2 (ja) 3次元測定方法、装置及びシステム、並びに画像処理装置
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
WO2014181725A1 (ja) 画像計測装置
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
JP2009529824A (ja) 3次元映像獲得用cmosステレオカメラ
JP5293131B2 (ja) 車両用複眼距離測定装置及び複眼距離測定方法
JP2004340840A (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
US20020029127A1 (en) Method and apparatus for measuring 3-D information
US10776937B2 (en) Image processing apparatus and image processing method for setting measuring point to calculate three-dimensional coordinates of subject image with high reliability
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP5311465B2 (ja) ステレオマッチング処理システム、ステレオマッチング処理方法、及びプログラム
US11295478B2 (en) Stereo camera calibration method and image processing device for stereo camera
JP3842988B2 (ja) 両眼立体視によって物体の3次元情報を計測する画像処理装置およびその方法又は計測のプログラムを記録した記録媒体
JP6040782B2 (ja) 画像処理装置及びプログラム
JP6409769B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2007033087A (ja) キャリブレーション装置及び方法
US20090087013A1 (en) Ray mapping
JP2008224323A (ja) ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム
JP2003006618A (ja) 3次元モデルの生成方法および装置並びにコンピュータプログラム
JP2006317418A (ja) 画像計測装置、画像計測方法、計測処理プログラム及び記録媒体
JP2014002489A (ja) 位置推定装置、方法、及びプログラム
JP4993686B2 (ja) 対応点探索方法および3次元位置計測方法
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6091092B2 (ja) 画像処理装置、及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150204

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150313

R150 Certificate of patent or registration of utility model

Ref document number: 5715735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees