JP6694234B2 - 距離測定装置 - Google Patents

距離測定装置 Download PDF

Info

Publication number
JP6694234B2
JP6694234B2 JP2015011446A JP2015011446A JP6694234B2 JP 6694234 B2 JP6694234 B2 JP 6694234B2 JP 2015011446 A JP2015011446 A JP 2015011446A JP 2015011446 A JP2015011446 A JP 2015011446A JP 6694234 B2 JP6694234 B2 JP 6694234B2
Authority
JP
Japan
Prior art keywords
distance
subject
point
reliability
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015011446A
Other languages
English (en)
Other versions
JP2016136112A (ja
JP2016136112A5 (ja
Inventor
幹生 瀬戸
幹生 瀬戸
徳井 圭
圭 徳井
潤一郎 三島
潤一郎 三島
芳光 杉浦
芳光 杉浦
剛 一木
剛 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
East Japan Railway Co
Original Assignee
Sharp Corp
East Japan Railway Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, East Japan Railway Co filed Critical Sharp Corp
Priority to JP2015011446A priority Critical patent/JP6694234B2/ja
Publication of JP2016136112A publication Critical patent/JP2016136112A/ja
Publication of JP2016136112A5 publication Critical patent/JP2016136112A5/ja
Application granted granted Critical
Publication of JP6694234B2 publication Critical patent/JP6694234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)

Description

本発明は、複数の画像を利用することにより、距離を出力することのできる距離測定装置に関する。
任意の被写体を複数の視点から撮影することのできる複数視点撮像装置は、立体映像の生成や自由視点映像の生成、また、それらを実現するために必要な奥行き画像(デプスマップ)の生成などに利用される。
このようなシステムにおいては、三角測量の原理に基づき、撮像装置のパラメータや各々撮像された画像の視差情報(ディスパリティ、デプスと表現されることもある)を用いることで、撮像装置から被写体までの距離や被写体間の距離を算出することもできる。撮像装置のパラメータと撮像装置から被写体までの距離の関係は、[数1]によってあらわすことができる。
ここで、dは視差、bは撮像装置間の基線長、fは撮像装置の焦点距離、Zは撮像装置から被写体までの距離である。[数1]は、撮像装置の光軸が平行に配置された場合の距離算出式に相当するが、撮像装置の光軸が角度を持って配置された場合には、カメラキャリブレーション等によりカメラパラメータを算出し、画像の平行化を施すことによって、同様に適用することができる。
さらに、画角やレンズ歪などの撮像装置のパラメータに基づき、3次元的な位置情報を算出することができる。光軸と投影点の角度や焦点距離f、距離Zを用いて、XY座標値も算出することができる。3次元的な位置情報を得ることができれば、撮影空間内の任意の2点の距離を算出することができる。
以上のような視差は、画像間のステレオマッチング処理などにより求めることができる。ステレオマッチングとは、任意に定める一方の画像を基準画像、もう一方を評価画像とし、基準画像の注目領域(例えば、5×5などに設定)の部分画像をテンプレートとし、評価画像の対応点(対応領域)を評価関数(例えば、SAD:Sum of Absolute Difference)に基づき探索する方法であり、注目領域と対応領域との間の距離が視差に相当する。
本ステレオマッチングにおいては、前記部分画像内に特徴的な部分を含まない場合(例えば、同じ明るさで同じ色の平面の場合など)には、複数の領域でマッチングしてしまい、真の位置と必ずしもマッチングの尤度が最大化されない。すなわち、正しい視差が求まらないことがある。
一方、エッジのように特徴的な部分を含む部分画像の場合には、オクルージョンが発生している場合や繰り返し模様になっている場合を除き、比較的精度の高い視差情報を得ることができる。
画像のエッジ部分を利用した測距システムとして、特許文献1が開示されている。
特許文献1では、複数視点の撮像装置から入力された2つの画像を元画像とし、そのうち一方の画像の画像サイズを変更したリサイズ画像を用意し、リサイズ画像中からエッジ(特徴端点)を抽出する。抽出されたエッジに対応した変形前の画像(元画像)の対応領域を任意サイズのマッチングパターンとし、もう一方の画像とステレオマッチングすることで視差および距離を算出するような構成としている。
以上の構成によって、斜めエッジを検出するためのエッジ検出カーネルを角度ごとに用意することなく、縦横エッジ検出カーネルを利用して、斜めエッジ部分の視差検出力を向上させることができる。
特開2003−98424号公報
特許文献1に記載の発明においては、エッジを利用して測距することが可能である。しかしながら、特許文献1に対する課題として、動きボケの影響が考えられる。
(1)動きボケ自体の影響
被写体が動いている場合、エッジ付近には動きボケ(モーションブラー)が生じている。特に、被写体が高速で動いている場合には、画像上の複数ピクセルにわたり動きボケの影響が生じ、エッジ(特徴領域)として抽出できないため、測距ができなくなる。エッジ検出カーネルの設定によっては、エッジとして抽出できる可能性があるが、エッジとして抽出できた場合においても、ボケが生じなかった場合のエッジの真の位置であることは保証されない。そのため、測距結果の信頼度は低下すると考えられる。
(2)撮像装置と被写体の運動方向による影響
動きボケ量は、撮像装置の光軸と被写体の移動方向が直交する場合に最大となり、撮像装置の光軸と被写体の移動方向が平行である場合に最小となる。そのため、動きボケの影響を少なくするためには、撮像装置の光軸と被写体の移動方向が平行となる位置に撮像装置が設置されることが望ましい。すなわち、被写体が被写体正面方向に移動していると仮定すると、撮像装置を被写体の正面に置くことが望ましい。しかしながら、被写体の側面も撮影範囲としたいとき、必ずしも正面には置けない。
本発明は、上記の課題を鑑みてなされたものであり、本発明の目的とするところは、より信頼度の高い測距結果を得ることのできる距離測定装置を提供することである。
前記課題を解決するために、本発明の距離測定装置は、
複数の方向から撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成されている。
したがって、より信頼度の高い測距結果を得ることができる。
あるいは、本発明の距離測定装置は、
経時的に撮影した複数の画像を取得する撮像部と、
前記画像における被写体上の点を検出する被写体点検出部と、
前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成されている。
したがって、より信頼度の高い測距結果を得ることができる。
好ましくは、
第1撮影時において複数の画像を元に視差計測で注目点の3次元位置の信頼度を算出し、第2撮影時において前記第1撮影時とは別の複数の画像を元に視差計測で比較点の3次元位置の信頼度を算出し、これらの信頼度の比較結果に基づいて、前記被写体上の点の座標値を確定し、距離を出力するように構成することが可能である。
このように構成することによって、より信頼度の高い測距結果を得ることができる。
また、好ましくは、
前記距離は、前記距離測定装置と前記被写体上の点との間の距離、前記被写体上の点と当該被写体上の他の点との間の距離、又は前記被写体上の点と前記画像における他の被写体上の点との間の距離であるように構成することが可能である。
このように構成することによって、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を出力することができる。
また、好ましくは、
前記被写体上の点の前記信頼度を、当該信頼度の大小が分かるように表示するように構成することが可能である
このように構成することによって、ユーザは信頼度の大小が分かることとなる
本発明によれば、より信頼度の高い測距結果を得ることができる。
第1の実施の形態における距離測定装置の一構成例を示す図である。 図1に示す距離測定装置が備える画像処理部の一構成例を示す図である。 エッジ検出フィルタの一例を示す図である。 ステレオマッチングの一例を示す図である。 被写体の3次元位置の算出法の一例を示す図である。 撮像装置座標系Cから被写体座標系Lへの座標変換法の一例を示す図である。 3次元位置確定部における動作の一例を示すフローチャートである。 比較点の選択法の一例を示す図である。 第2の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。 動きボケ推定部における動作の一例を示す図である。 動きボケ推定部における動作の一例を示す図である。 動きボケ推定部における動作の一例を示す図である。 動きボケ推定部における動作の一例を示す図である。 第3の実施の形態における距離測定装置が備える画像処理部の一構成例を示す図である。 表示部に表示された、ユーザが測定したい特徴点を指定するための画像の一例を示す図である。 表示部に表示された、確定された特徴点情報の一例を示す図である。 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。 車輛のパンタグラフのすり板部分の厚みの測定法の一例を示す図である。
以下、本発明に係わる実施の形態について、図面を参照して説明する。
<第1の実施の形態>:基本構成
本実施の形態においては、本発明における基本的な構成について説明する。
具体的には、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を補正することで、距離(被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法について説明する。
まず、本発明における全体の構成について説明する。
図1は、本実施の形態における距離測定装置の一構成例である。距離測定装置100は、本実施例における距離測定装置であり、被写体を撮像するための撮像部101と、撮像した撮影画像を処理するための画像処理部102と、撮影画像そのものや画像処理結果を出力表示するための表示部103と、撮影画像そのものや画像処理結果、画像処理に利用する種々のデータを保存する保存部104と、ユーザからの入力や外部装置へのデータ送信のための外部入出力部105と、距離測定装置100全体の制御を行うための制御部106と、各々のユニット間でのデータのやり取りを行うためのデータバス107と、から構成される。
撮像部101は、撮影空間を距離測定装置100に取り込むための光学部品およびCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を複数具備するように構成され、光電変換によって得られた夫々の撮影画像データをデータバス107に出力する。複数の光学部品および撮像素子は一つの筐体内に配設されてもよいが、撮影位置が異なる複数の撮像装置として構成される。すなわち、撮像部101は、光学部品と撮像素子とを備える撮像装置を複数有しており、これらの撮像装置は、互いに視差を有する撮影画像が撮像できるような位置に配置されている。
撮影された情報は、生データのままデータバス107に出力されてもよいし、画像処理部102において処理しやすいように事前に画像処理(輝度画像化、ノイズ除去など)が施された画像データとしてデータバス107に出力されてもよく、また、その両方が出力されるような構成としてもよい。さらに、撮影時の絞り値や焦点距離などのカメラパラメータを、撮像部101から保存部104に送るように構成することもできる。
本発明における撮像部101は、動被写体に対し複数回撮影を行い、それぞれの撮影画像データを各部に送信する。本実施の形態においては、撮像部101が2台の撮像装置を備える場合を例に説明する。
画像処理部102は、FPGA(Field Programmable Gate Array)などによって構成され、撮像部101もしくは撮影画像データが保存された保存部104から撮影画像データを取得し、各種画像処理を行った結果をデータバス107に出力する。画像処理部102における詳細な説明については後述する。
表示部103は、LCD(Liquid Crystal Display)や有機ELディスプレイ(OELD:Organic ElectroLuminescence
Display)などによって構成され、画像処理部102から出力される画像処理結果や、保存部104に保存された画像などを表示する。なお、表示部103は、外部入出力部105を介して、距離測定装置100の外部に設置される構成としてもよい。
保存部104は、例えば、RAM(Ramdom Access Memory)などの主記憶装置およびハードディスクなどの補助記憶装置からなる。主記憶装置は、撮影画像データや画像処理結果を一時的に保持するために利用される。補助記憶装置には、撮影画像データ、画像処理結果、カメラキャリブレーションに利用するためのデータなど、ストレージとして長期的に保存するためのデータが格納される。
外部入出力部105は、USB(Universal Serial Bus)やHDMI(登録商標)(High Definition Multimedia Interface)などの入出力ポートを有し、外部からの撮影トリガの受信、撮影画像データや画像処理結果の送信などを行う。
撮影トリガは、例えば、被写体の通過を検出する通過センサから入力される。通過センサは、例えば、当該通過センサと距離測定装置100との位置関係に応じて、当該通過センサの計測範囲を被写体が通過したことを検出すると直ちに撮影トリガを送信するように構成することも可能であるし、当該通過センサの計測範囲を被写体が通過したことを検出してから所定時間経過後に撮影トリガを送信するように構成することも可能である。
制御部106は、CPU(Central Processing Unit)などによって構成され、撮像部101における撮像処理や画像処理部102における画像処理などの種々の命令・制御を行う。
データバス107は、各々のユニット間でのデータのやり取りを行うためのバスである。
以上の構成は、本実施の形態における全体の構成である。
続いて、本発明における画像処理部102の詳細な構成例および動作例について説明する。
本発明においては、同一の動被写体を複数回撮影し、予備撮影の計測結果を利用して、所望撮影における距離(3次元位置)の計測結果を補正することを特徴としている。予備撮影および所望撮影とは、例えば、2回撮影する条件の場合、1回目の撮影が予備撮影、2回目の撮影が所望撮影となる。なお、1回目および2回目の撮影結果を保存部104に保存することにより、予備撮影および所望撮影を入れ替えることもできるし、3回以上撮影して所望撮影以外の複数の撮影を予備撮影とすることで、所望撮影時の補正をするように構成することもできる。
以下、2回撮影する場合であって、1回目の撮影を予備撮影、2回目の撮影を所望撮影とした場合を例に説明する。
本実施の形態における画像処理部102は、図2に示すように、撮像部101もしくは保存部104から受け取った撮影画像データから特徴点を検出する特徴点検出部201と、特徴点検出部201において検出された特徴点における視差を算出する視差算出部202と、視差算出部202において算出された視差と保存部104に保存される焦点距離や撮像装置間の基線長などの撮像部101の撮像パラメータ(カメラパラメータ)情報とに基づき、各特徴点に対する3次元位置および当該3次元位置における計測誤差(分解能)情報を算出する3次元位置情報算出部203と、特徴点検出部201、視差算出部202、および3次元位置情報算出部203からの処理情報をもとに、各特徴点に対する信頼度を算出する信頼度算出部204と、各特徴点に対する3次元位置情報および信頼度を一時的に保持する特徴点情報保持部205と、予備撮影時および所望撮影時における各々の特徴点情報(3次元位置情報および信頼度)を特徴点情報保持部205から受け取り、所望撮影時における各特徴点に対する3次元位置情報を補正する3次元位置確定部206と、から構成することができる。
特徴点検出部201は、データバス107からステレオ画像データ(2台の撮像装置のうちの一方により撮像された撮影画像データおよび他方により撮像された撮影画像データ)を受け取り、撮影画像データの特徴点を検出する。ここで、特徴点とは、例えばエッジ情報であり、図3に示すようなSobelフィルタ(3×3)に対する反応強度がある閾値以上であった場合に、特徴点領域であると判定する。なお、エッジ検出手法は、Sobelフィルタに限定されず、PrewittフィルタやLaplacianフィルタ、Cannyフィルタ、SIFT(Scale−Invariant Feature Transform)と呼ばれる各種特徴点データのいずれかもしくは複数を使う構成にすることができる。
特徴点検出部201は、検出された特徴点の画像座標における位置情報および/もしくは特徴点画像データ、必要に応じて撮影画像データを視差算出部202に送信する。また、各特徴点座標における特徴点強度(反応強度)を信頼度算出部204に送る。
視差算出部202は、特徴点検出部201からの特徴点の画像座標における位置情報および/もしくは特徴点画像データを受け取り、ステレオマッチングを行う。
ここで、ステレオマッチングの一例について、図4を用いて説明する。本実施の形態における撮像装置が左右に並んで配設されている場合、まず、左画像(左側の撮像装置により撮像された撮影画像)の特徴点位置を基準に、探索窓の範囲の画像をテンプレートとして切り取る。ここで、探索窓の範囲は、例えば11×11とする。次に、左画像の特徴点位置に対応する右画像(右側の撮像装置により撮像された撮影画像)位置の探索窓範囲と、前記テンプレートとのマッチング評価値を求める。マッチング評価値は、例えば、[数2]に示すように、SAD(Sum of Absolute Difference)値として求められる。ここで、L(x,y)は画像座標(x,y)における左画像の探索窓、R(x,y)は画像座標(x,y)における右画像の探索窓の各画素の階調値を表している。
マッチング評価値は、あらかじめ設定された探索範囲に対して、注目位置をずらしながら、それぞれの位置に対して算出される。SADにより算出する場合、マッチング評価値が最小となる位置がマッチング位置となり、右画像におけるマッチング位置と左画像における元の注目点(特徴点)位置との差が視差となる。
なお、マッチング評価値を算出する方法は、ステレオマッチングで用いられる種々の評価関数によって算出する方法でよく、SSD(Sum of Suquare Difference)などで算出するようにしてもよい。
視差算出部202は、各画素位置(各特徴点位置)に対する視差算出結果を、3次元位置情報算出部203に送る。また、各画素位置(各特徴点位置)に対するマッチング評価値を、信頼度算出部204に送る。
3次元位置情報算出部203は、視差算出部202からの視差情報(視差算出結果)と、保存部104からの各種撮像パラメータ(カメラパラメータ)をもとに、[数1]によって距離Zを算出する。ここで、視差算出部202によって算出される視差は、画像座標系における視差であり、ピクセル値である。一方、[数1]における視差は、センサ座標系における視差(“mm”などのSI単位)である。そのため、保存部104からの画素ピッチ量P(mm/pixel)をパラメータとして、画像座標系からセンサ座標系に変換を行うことで、距離Zを算出することができる。なお、距離Zは、光軸をZ軸と平行とした場合のZの座標値に相当する。また、図5に示すように、距離Zおよび画像上の座標位置(x,y)から、被写体の3次元的な位置(X,Y,Z)を算出することができる。
また、視差算出部202における視差計測精度(視差算出精度)に基づき、当該の特徴点位置における計測誤差を算出する。例えば、視差算出部202における視差計測精度Npがピクセルを1単位とする場合、[式3]によって算出できる。
ここで、Eは計測誤差、Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離である。計測誤差Eは、距離Zに比例することがわかる。故に、撮像装置から被写体までの距離Zが遠くなるほど、計測誤差Eは大きな値となる。
3次元位置情報算出部203は、以上によって得られた被写体までの距離(3次元位置)情報および計測誤差情報を信頼度算出部204に送信する。
信頼度算出部204は、特徴点検出部201からの特徴点強度と、視差算出部202からのマッチング評価値と、3次元位置情報算出部203からの3次元位置情報および計測誤差情報と、をそれぞれ受け取り、信頼度を算出する。具体的には、信頼度算出部204は、例えば、特徴点強度に対する信頼度I_R、マッチング評価値に対する信頼度M_R、計測誤差情報に対する信頼度E_Rをそれぞれ算出し、これらの組み合わせによって総合的な信頼度S_Rを算出するように構成することができる。それぞれの信頼度の算出式について、[数4]〜[数7]に一例を示す。
[数4]は、特徴点信頼度I_Rの算出式の一例である。I_Bは特徴点強度、ISは特徴点検出フィルタの係数和である。例えば、撮影画像データに基づく画像が8ビット画像であり、Sobelフィルタ(3×3)によって特徴点を検出した場合、特徴点強度I_Bは最大で1020(=255+255×2+255)であり、フィルタ係数和ISは4(=1+2+1)である。したがって、特徴点信頼度I_Rは0〜255の値となり、255の時、特徴点信頼度が最大となる。
[数5]は、マッチング信頼度M_Rの算出式の一例である。M_Bはマッチング評価値、Nは探索窓サイズである。前記例の通り、視差算出部202においてN=11のSADによって視差を算出した場合、マッチング評価値M_Bは、0〜30855の値となる。マッチング評価値M_Bを探索窓の総画素数であるN(=121)で除することにより、平均化マッチング評価値([数5]の右辺の第2項)は、0〜255の値となる。平均化マッチング評価値は、0に近いほどマッチングの評価が高いことを示す。特徴点信頼度I_Rと同様に255が最大値となるように、255から平均化マッチング評価値を減じた値をマッチング信頼度M_Rとして設定する。
[数6]は、計測誤差信頼度E_Rの算出式の一例である。Eは特徴点位置の計測誤差、E_minは計測範囲に指定した範囲のうち最小となる計測誤差、E_maxは計測範囲に指定した範囲のうち最大となる計測誤差である。例えば、仕様として計測できる範囲がZ=2000mm〜5000mmと設定され、焦点距離fが75mm、画素ピッチ量Pが0.0005mm/pixel、視差計測精度Npが1pixelの場合を考える。[数3]より、最小計測誤差E_min、最大計測誤差E_maxはそれぞれ0.133、0.333となる。計測誤差信頼度E_Rは、計測誤差Eが最小計測誤差E_minと等しいとき255の値となり、最大計測誤差E_maxと等しいとき0の値となる。
[数7]は、統合信頼度S_Rの算出式の一例である。CI、CM、CEはそれぞれ任意の加重平均係数となる。すなわち、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rの加重平均値となる。重み付けの値を外部入出力部105からユーザに入力させるようにし、その値を保存部104に保持するようにしておいてもよいし、各信頼度のうち、最小の信頼度を統合信頼度S_Rとして選択するような構成とすることもできる。なお、[数7]によって統合信頼度S_Rを算出する場合の重み付けは、CEの重みがCIおよびCMの重みよりも大きくなるように設定することが好適である。これは、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど上がる傾向がある。そのため「CI+CM」と「CE」のバランスをとるように設定することが望ましい。例えば、CI+CM=CE=0.5となるように設定する。
CI+CM=CE=0.5となるように設定すると、統合信頼度S_R(X,Y,Z)は0〜255の値となり、255に近づくほど、信頼度が高いことを示す。エッジの強度が高く、マッチング強度が高く、かつ特徴点位置の計測誤差が小さい位置ほど信頼度が高くなることになる。
信頼度算出部204は、特徴点の座標情報X,Y,Zと、以上によって算出された各座標に対する統合信頼度S_R(X,Y,Z)の値と、を特徴点情報保持部205に送る。
特徴点情報保持部205は、信頼度算出部204からの特徴点の座標情報X,Y,Zと統合信頼度S_R(X,Y,Z)とを一時的に保持し、次の撮影時に利用する。また、その都度の撮影に対する信頼度データとして、信頼度算出部204からの情報を保存部104に送り、データを逐次保存するように構成できる。
3次元位置確定部206は、予備撮影時には、特に処理をする必要はない。
以上のようにして、予備撮影時の画像処理が行われる。予備撮影時の画像処理結果(3次元位置測定の結果、信頼度、処理画像など)については、保存部104に保存されるが、表示部103において逐次表示したり、外部入出力部105を経由して外部装置に送信したりすることができる。
続いて、所望撮影時の画像処理について説明する。所望撮影時の画像処理に際して、画像処理部102が備える特徴点検出部201と視差算出部202と3次元位置情報算出部203と信頼度算出部204と特徴点情報保持部205とは、予備撮影時の画像処理と同様の処理を行うことで、所望撮影における各特徴点の座標情報X’,Y’,Z’と、各座標に対する統合信頼度S_R(X’,Y’,Z’)を得る。
3次元位置確定部206は、特徴点情報保持部205から、予備撮影における特徴点の座標情報X,Y,Zと、その統合信頼度S_R(X,Y,Z)と、所望撮影における特徴点の座標情報X’,Y’,Z’と、その統合信頼度S_R(X’,Y’,Z’)と、を受け取り、3次元位置情報を確定する。
予備撮影における特徴点の座標情報X,Y,Zと、所望撮影における特徴点の座標情報X’,Y’,Z’は、撮像装置座標系Cにおける座標データであり、このままでは特徴点同士を比較することができない。そこで、図6に示すように、[数8]〜[数11]を用いて、被写体座標系Lへの座標変換を行う。
ここで、XL1、YL1、ZL1は、予備撮影における被写体座標系Lでの座標値、XL2、YL2、ZL2は、所望撮影における被写体座標系Lでの座標値、r11、r12、r13、r21、r22、r23、r31、r32、r33は、予備撮影における被写体座標系Lへの回転行列係数、r11’、r12’、r13’、r21’、r22’、r23’、r31’、r32’、r33’は、所望撮影における被写体座標系Lへの回転行列係数、tx、ty、tzは、予備撮影における被写体座標系Lへの並進ベクトル係数、tx’、ty’、tz’は、所望撮影における被写体座標系Lへの並進ベクトル係数である。[数9]および[数11]におけるRTおよびRTは、撮像装置座標系Cから被写体座標系Lへの変換行列であり、[数12]および[数13]に示すように、その逆行列を用いることで、被写体座標系Lから撮像装置座標系Cへの逆変換を行うことができる。したがって、被写体座標系Lにおける座標値から、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報を得ることができるため、被写体座標系Lにおける座標値を確定することによって、撮像装置座標系Cにおける被写体特徴点までの3次元位置情報も確定されることとなる。
以上の変換によって得られた被写体座標系Lにおける夫々の座標値およびその統合信頼度S_Rを用いて、所望撮影における座標値を確定する。続いて、確定方法について説明する。
図7は、3次元位置確定部206における動作の一例を示すフローチャートである。
ステップS701においては、被写体座標系における特徴点(注目点)を選択する。注目点は、例えば、特徴点を信頼度の高い順に並べた注目点リストを作成しておき、信頼度の高い特徴点から注目点として指定する。このとき、注目点リストにリストアップする特徴点は、所望撮影時の特徴点のみであってもよいが、予備撮影時の特徴点も併せてリストアップしておくことで、所望撮影時には検出できなかった信頼度の高い特徴点を得ることができるため好適である。また、閾値を設定し、信頼度の低い特徴点(閾値未満の特徴点)はリストアップしないことで、一定の信頼度を持つ情報のみをユーザに提示するように構成することもできる。
ステップS702においては、予備撮影時の特徴点および所望撮影時の特徴点の中から、比較点を選択する。具体的には、ステップS701において選択された特徴点(注目点)から任意の3次元距離範囲内にある特徴点を比較対象(比較点)として選択する。例えば、図8(a)に示すように、特徴点P(注目点P)における任意の3次元距離範囲R内に含まれる特徴点Qを比較対象として選択する。図8(b)に示すように、3次元距離範囲R内に特徴点が存在しない場合は、“比較対象(比較点)なし”とする。図8(c)に示すように、3次元距離範囲R内に複数の特徴点が存在する場合は、複数の特徴点全て(図8(c)に示す例の場合、特徴点Q1と特徴点Q2との両方)を比較対象として選択する。ここで、3次元距離範囲Rは、例えば、距離測定装置100の測定精度範囲もしくは許容誤差に基づき設定する。例えば、測定精度が0.1mmであった場合、3次元距離範囲Rを0.1mmにすると、測定精度単位で、信頼度の高い特徴点座標データを得ることができるため、好適である。
ステップS703においては、ステップS701において選択された特徴点(注目点)と、ステップS702において選択された特徴点(比較点)と、の夫々の信頼度を比較する。
ステップS704においては、ステップS703における比較結果に基づき、特徴点(注目点)の座標値を確定する。
例えば、図8(a)のように、1つの比較対象(特徴点Q)が見つかった場合、特徴点Pにおける統合信頼度S_Rと特徴点Qにおける統合信頼度S_Rを比較し、信頼度の高い特徴点を、確定後特徴点P’とする。もしくは、[数14]、[数15]に示すように夫々の信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。
ここで、Xp’,Yp’,Zp’は確定後特徴点P’の座標値、Xp,Yp,Zpは特徴点Pの座標値、Xq,Yq,Zqは特徴点Qの座標値、S_RP’は確定後特徴点P’に対する確定後信頼度(確定後統合信頼度)である。
また、例えば、図8(b)のように、“比較対象なし”の場合、P’=Pとし、特に確定を行わない。
また、例えば、図8(c)のように、複数の比較対象(特徴点Q1およびQ2)が見つかった場合は、図8(a)と同様にして、特徴点P、特徴点Q1、特徴点Q2のうち最も信頼度の高い特徴点を確定後特徴点P’としてもよいし、信頼度を重みとして確定後特徴点P’とその信頼度を求めるようにしてもよい。
次いで、3次元位置確定部206は、求めた確定後特徴点P’の座標値とその信頼度S_RP’とを保存部104に送り、比較対象として選択された特徴点を注目点リストから削除する。
そして、3次元位置確定部206は、全ての注目点についてステップS701〜ステップS704の処理を行い、特徴点座標を確定する。
以上のように、被写体座標系Lにおける特徴点座標を保持することにより、距離測定装置100は、特徴点間の距離(被写体上の2点間の距離や、被写体間の距離など)を算出することができる。ここで、被写体上(被写体表面上)の2点間の距離とは、被写体の厚みや幅などである。また、距離測定装置100は、前述の通り[数13]に基づき撮像装置座標系Cへの座標変換を行うことによって、撮像装置からの距離に変換して、保存部104に送るように構成することで、撮像装置から被写体までの距離を算出することができる。
なお、以上の説明においては、被写体が動いていることを想定して説明したが、被写体は静止した状態で距離測定装置100が動いた場合においても、相対的には移動が生じているため適応可能である。
また、以上の説明においては、2回撮影する場合について説明したが、予備撮影を複数回行うこともできるし、現在フレームにおける画像を所望撮影で得られた撮影画像、それよりも以前のフレームにおける画像を予備撮影で得られた撮影画像とみなして処理することにより、動画像において逐次距離測定するように構成することもできることは容易に想定することができる。
以上の構成によって、撮影空間中を動いている被写体を複数回撮影し、複数回の撮影で得られた撮影画像それぞれの特徴点座標およびその信頼度を求め、当該特徴点座標および信頼度に基づいて所望の撮影タイミングにおける撮影画像の特徴点座標を確定することで、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。
以上説明した第1の実施の形態の距離測定装置100によれば、経時的に複数の撮影画像を取得する撮像部101と、複数の撮影画像における被写体上の点を検出する被写体点検出部(特徴点検出部201)と、被写体上の点の3次元位置を算出する3次元位置算出部(3次元位置情報算出部203)と、を備えた距離測定装置であって、算出された3次元位置の信頼度(統合信頼度S_R)を算出する信頼度算出部204と、算出された3次元位置を確定する3次元位置確定部206と、を更に備え、3次元位置確定部206は、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。そして、距離測定装置100は、3次元位置確定部206によって確定された3次元位置に基づいて距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出するように構成されている。
したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。
ここで、経時的に取得される「複数の撮影画像」とは、予備撮影で得られた撮影画像および所望撮影で得られた撮影画像である。
なお、撮像部101が1回の撮影で取得する撮影画像は、左画像および右画像に限ることはなく、互いに視差を有する撮影画像であればよい。
また、第1の実施の形態の距離測定装置100によれば、比較点は複数点であり、かつ、少なくとも1点は、注目点の存在する撮影画像とは異なる画像から検出されたものであるように構成することが可能である。
このように構成することによって、より信頼度の高い測距結果を得ることができる。
また、第1の実施の形態の距離測定装置100によれば、信頼度(統合信頼度S_R)は、被写体までの距離による理論誤差に基づく信頼度であるように構成することができる。
具体的には、前述したように、特徴点信頼度I_Rおよびマッチング信頼度M_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)下がる傾向があり、逆に計測誤差信頼度E_Rは被写体が前方に来るほど(すなわち、距離が近づくほど)上がる傾向がある。そして、統合信頼度S_Rは、特徴点信頼度I_R、マッチング信頼度M_R、および計測誤差信頼度E_Rに基づき算出されるので、被写体までの距離による理論誤差に基づく信頼度とすることができる。
このように構成することによって、被写体までの距離による理論誤差を考慮して確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。
また、以上説明した第1の実施の形態における距離測定方法によれば、経時的に複数の撮影画像を取得する撮像部101によって被写体を撮影する撮影工程と、撮影画像における被写体上の点を検出する検出工程と、被写体上の点の3次元位置を算出する3次元位置算出工程と、算出された3次元位置の信頼度を算出する信頼度算出工程と、算出された3次元位置を確定する確定工程と、確定した3次元位置に基づいて、被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離を算出する算出工程と、を有し、確定工程では、複数の撮影画像における被写体上の任意の注目点の3次元位置を、注目点から任意の範囲内に存在する、複数の撮影画像における被写体上の任意の比較点の3次元位置およびその信頼度に基づき、確定するように構成されている。
したがって、確定した3次元位置に基づいて、距離(撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離)を算出することができるので、より信頼度の高い測距結果を得ることができる。
<第2の実施の形態>:動きボケの推定
本実施の形態においては、動きボケを考慮した特徴点検出フィルタの設定方法に関して説明する。具体的には、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更し、特徴点を適切に検出する方法について説明する。
本実施の形態における画像処理部102は、図9に示すように、第1の実施の形態における構成(図2)に加え、複数回の撮影結果から動きボケを推定する動きボケ推定部901をさらに具備するように構成される。
動きボケ推定部901における動作の一例について、図10〜図12を用いて説明する。
ステップS1001において、動きボケ推定部901は、複数回の撮影によって得られた夫々の特徴点位置から所望撮影時の速度を予測する。
ここで、具体的な一例として、1度の予備撮影の測定結果と所望撮影の暫定の測定結果とに基づき、速度を予測する方法について説明する。図11に示すように、任意の予備撮影3次元座標(X1,Y1,Z1)を選択し、その予備撮影3次元座標に対応する画像座標(u1,v1)を探索開始位置とし、例えば一般的な動きベクトル検出の手段と同様にして、所望撮影で得られた撮影画像における対応座標(画像座標(u2,v2))を探索する。画像座標(u2,v2)に対応する3次元座標(所望撮影3次元座標(X2,Y2,Z2))と予備撮影3次元座標(X1,Y1,Z1)のユークリッド距離および予備撮影と所望撮影との撮影時間間隔に基づいて、速度ベクトルを算出することができる。なお、3次元座標から画像座標への変換は、[数1]、[数12]、[数13]、および[数16]を利用することで変換できる。
ここで、(u,v)は画像座標、(X,Y,Z)は3次元座標、fは焦点距離、xo,yoは画像素子の中心座標から画像座標(0,0)に対応する画像素子座標のオフセット、pw,phは画像素子1画素の幅および高さである。
ステップS1002において、動きボケ推定部901は、ステップS1001において得られた速度ベクトル情報に基づき、動きボケベクトルを推定する。動きボケ推定部901は、保存部104から撮像装置のシャッター速度情報を受け取り、図12に示すように、所望撮影3次元座標(X2,Y2,Z2)がシャッター速度間に移動した後の3次元座標(X3,Y3,Z3)を算出する。3次元座標(X2,Y2,Z2)および(X3,Y3,Z3)を、それぞれに対応する画像座標(u2,v2)および(u3,v3)に座標変換し、画像座標(u2,v2)および(u3,v3)の距離から動きボケベクトルを推定する。
ステップS1003において、動きボケ推定部901は、ステップS1002において得られた動きボケの情報に基づき、フィルタサイズの変更情報を生成し、特徴点検出部201に送る。例えば、動きボケのサイズ(2点間距離)が3画素であったとき、また、元の特徴点座標(所望撮影3次元座標(X2,Y2,Z2))は動きボケ範囲の中心であったと仮定すれば、動きボケの総量は6画素程度になっていることが考えられる。そこで、動きボケ範囲+周囲1画素として、フィルタサイズの変更情報として8×8画素の情報を生成し、特徴点検出部201に送信する。
以上の方法は、特に動きボケベクトルの方向成分が、Z軸方向(撮像装置の光軸方向)に大きい場合に好適である。一方、動きボケベクトルの方向成分が、主にX軸方向に大きい場合、フィルタをX軸方向に変形(例えば、3×8)し、動きボケベクトルの方向成分が、主にY軸方向に大きい場合、フィルタをY軸方向に変形(例えば、8×3)するようにするとよい。例えば、X軸方向に大きく動きボケが発生していた場合、Y軸方向への特徴点の影響は少ないと想定することができる。したがって、このように、フィルタのサイズ変形(拡大)方向を制限することによって、計算量を削減することができる。
以上においては、任意の3次元座標として1点を指定し、画像上のマッチング点から所望タイミングにおける例について説明したが、例えば、被写体の複数の特徴点の重心位置の移動量から速度を予測するようにしてもよい。しかしながら、動きボケを含む特徴点情報となるため、必ずしも精度の高い特徴点位置を検出できていない可能性があり、動きボケ方向が推定できているとは限らない。そこで、動きボケベクトルの大きさを無視し、動きボケベクトルの方向に応じて、任意のステップサイズ(例えば、1画素拡大)で、フィルタサイズの拡大や変形を行うように構成すると、判定処理のみで対応できるため、処理を単純化することができる。
特徴点検出部201は、フィルタサイズの変更情報を受け取り、再度、所望撮影で得られた撮影画像に対する特徴点を検出することで、より信頼度の高い特徴点情報を得ることができるようになる。
以上の説明においては、予備撮影と所望撮影の測定結果から、所望撮影の特徴点を再検出する構成であるが、例えば図13に示すように、予備撮影として2回撮影(予備撮影A、予備撮影B)しておき、予備撮影Bにおける速度ベクトルを算出し、当該の速度ベクトルと所望撮影までの撮影時間間隔に基づき、所望撮影時の3次元位置およびシャッター後の3次元位置を予測することで、動きボケを推定し、所望撮影時のフィルタサイズ・形状を予め設定しておくようにすることで、予備撮影Bの位置と等速度もしくは等加速度運動と仮定できる場合に、動きボケベクトルをより正確に推定することができる構成となる。
以上の構成によって、複数回の撮影で得られた撮影画像から、被写体速度を予測することで、所望撮影における動きボケを推定し、動きボケに応じて特徴点検出フィルタのサイズや形状を変更することで、特徴点をより適切に検出して、撮像装置から被写体までの距離、被写体上の2点間の距離、もしくは被写体間の距離と、その信頼度と、を測定することのできる距離測定装置および距離測定方法を提供することができる。
以上説明した第2の実施の形態の距離測定装置100によれば、複数の撮影画像(予備撮影で得られた撮影画像および所望撮影で得られた撮影画像)の各々に対応して算出された複数の3次元位置から撮像部101に対する被写体の移動方向を予測することで動きボケを推定する動きボケ推定部901を備え、動きボケ推定部901の推定結果に基づいて、注目点(特徴点)を検出する際に用いる注目点検出窓(特徴点検出フィルタ)のサイズおよび形状のうち、少なくとも一方を変更するように構成されている。
したがって、動きボケの影響を考慮して注目点を検出することができるので、注目点をより適切に検出することができ、より信頼度の高い測距結果を得ることができる。
<第3の実施の形態>:ユーザによる指定
本実施の形態においては、ユーザが測定したい特徴点を指定するための表示手段および入力手段を有し、ユーザが指定した特徴点群のうち、各特徴点もしくはそれらの特徴点によってなされる直線、曲線、もしくは曲面(平面を含む)と、その誤差範囲と、に含まれる特徴点の計測結果のみを確定するように構成することで、計算量を削減する方法について説明する。また、信頼度の高い特徴点を強調表示(例えば、信頼度の高さに応じたサイズの丸印で囲む)することによって、ユーザに特徴点を指定しやすくさせるための表示方法について説明する。
本実施の形態における画像処理部102は、図14に示すように、第1の実施の形態における構成(図2)に加え、ユーザが特徴点を指定するための画像を生成する表示画像生成部1401と、ユーザの指定特徴点に基づき補正する特徴点群を選出する確定特徴点選出部1402と、をさらに具備するように構成される。
なお、第2の実施の形態における構成(図9)に加え、表示画像生成部1401と、確定特徴点選出部1402と、をさらに具備するように構成することも可能である。
表示画像生成部1401は、ユーザが測定したい特徴点を指定するための画像を生成し、表示部103に送る。これにより、表示部103には、例えば図15に示すような画像が表示される。ここで、1501は撮影画像領域であり、1502が特徴点指定設定領域である。撮影画像領域1501には、撮影画像と、一定の信頼度以上となっている特徴点を囲む円と、が表示されている。ここでは、ユーザによって指定された特徴点を囲む円1504を実線で表し、一方、指定されていない特徴点を囲む円1503を破線で表している。また、円の大きさが大きいほど、信頼度の高い特徴点であることを示している。表示される特徴点の信頼度の閾値は、例えば、特徴点指定設定領域1502に表示されるGUI(例えば、スライドバー1505)によってユーザが指定することができる。さらに、ユーザは補間方法選択部1506によって補間方法を指定する。
そして、ユーザが計測ボタン1507を選択すると、ユーザに指定された特徴点およびそれらの特徴点によってなされる曲面等に接する特徴点の3次元位置の確定が行われる。
確定特徴点選出部1402は、撮影画像領域1501において指定された特徴点と補間方法選択部1506によって指定された補間方法に基づき、直線推定、曲線推定、もしくは曲面(平面を含む)推定を行う。例えば図15に示す例の場合、指定された特徴点は3点(立方体の上面の4つの角のうちの3つ)であり、指定された補間方法は「平面」であるため、平面推定を行う。平面は、3点のうちの1つを原点とした場合になされる2つのベクトルの外積を算出することによって推定することができる。
続いて、確定特徴点選出部1402は、特徴点情報保持部205に保持された特徴点情報を参照して、推定した直線、曲線、もしくは曲面(平面を含む)に接する特徴点群を選出する。例えば平面推定を行った場合は、この平面に接する特徴点群を選出する。このとき、この平面から法線方向に一定の距離以内にある特徴点候補を選出する。この一定の距離とは、例えば、システムに要求される距離推定誤差範囲とし、例えば0.1mm以内に設定する。もしくは、距離が遠くなるほど、視差1ピクセルあたりの距離の推定誤差が大きくなるため、距離が遠くなるほど、範囲を広げるように構成すると好適である。
そして、このようにして選出された特徴点のみが3次元位置確定部206において確定され、その結果が特徴点情報保持部205に保持される。確定された特徴点情報は、例えば図16に示すように表示部103に表示される。図16における1601は、3次元位置が算出された平面を示している。ここで、この平面上であってユーザが測定したい特徴点を指定することによって、画像上にその3次元位置情報が表示されるようにする。また、この平面上にある領域(点)であって、特徴点ではない位置(点)が、ユーザによって指定された場合は、例えば、最も近い特徴点の情報を表示するようにしても良いし、例えば、指定位置の平面4方向の近傍特徴点それぞれの情報を用いて内挿した結果を表示するようにすることもできる。
以上の構成によって、ユーザに特徴点を指定しやすくさせるための表示方法を提供することができる。
以上説明した第3の実施の形態の距離測定装置100によれば、注目点(特徴点)をユーザが指定可能であるように構成されている。
したがって、ユーザが興味のある注目点が分かるため、その注目点の3次元位置のみを確定すればよく、計算量を削減することができる。
なお、ユーザによる特徴点の指定の仕方は適宜選択可能であり、例えば、ユーザが外部入出力部105に接続された操作部(マウス等)を操作して特徴点を指定できるように構成することも可能であるし、表示部103をタッチパネル式の表示部にしてもよい。
<第4の実施の形態>
以上の実施の形態(第1〜第3の実施の形態)によって説明した距離測定装置100は、例えば、車輛のパンタグラフのすり板部分の厚み測定に利用することができる。
具体的には、撮影範囲へのパンタグラフの侵入を検出した通過センサからの撮影トリガに応じて撮影した画像(無論、この画像にはパンタグラフが写っている)を使う。
もしくは、撮像装置で経時的に複数の画像を撮影しておき、この複数の画像のうちパンタグラフが写っている画像を使う。このとき、例えば、特徴的な部分のパターンマッチングで検出するようにしても良いし、例えば図17に示すように、架線領域をあらかじめ撮影しておくことで背景差分等を利用することで、架線領域の変異からパンタグラフが写っている画像を判断するように構成することができる。
基準は、固定部分を使う。直線検出し、すり板状の直線領域を使う。平面を定義し、その平面から、それぞれのすり板エッジ部分までの厚さをはかる。具体的には、まず、図18(a)に示すように、すり板長手方向への直線的なエッジを抽出する。次いで、図18(b)に示すように、基準となる面を定義する。その後、図18(c)に示すように、各位置までの距離(厚み)を算出する。
図19に示すように、予備撮影における厚さプロファイルと、所望撮影における厚さプロファイルと、をすり板長手方向にマッチング(例えば、相互相関係数等を求めることで、対応位置を算出)をして、位置を合わせて、そこから、比較を行うようにする。
上記の各実施の形態において、添付図面に図示されている構成等については、あくまで一例であり、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
100 距離測定装置
101 撮像部
201 特徴点検出部(被写体点検出部)
203 3次元位置情報算出部(3次元位置算出部)
204 信頼度算出部
206 3次元位置確定部
901 動きボケ推定部

Claims (5)

  1. 複数の方向から撮影した複数の画像を取得する撮像部と、
    前記画像における被写体上の点を検出する被写体点検出部と、
    前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
    前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
    前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする距離測定装置。
  2. 経時的に撮影した複数の画像を取得する撮像部と、
    前記画像における被写体上の点を検出する被写体点検出部と、
    前記被写体上の点の3次元位置を前記複数の画像の視差計測により算出する3次元位置算出部と、を備え、
    前記被写体上の点の3次元位置における計測誤差E=P・Np・Z/f(Pは画素ピッチ量、Npは視差計測精度、fは焦点距離、Zは被写体までの距離)に基づいて信頼度を算出し、
    前記3次元位置と、前記信頼度に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする距離測定装置。
  3. 第1撮影時において複数の画像を元に視差計測で注目点の3次元位置の信頼度を算出し、第2撮影時において前記第1撮影時とは別の複数の画像を元に視差計測で比較点の3次元位置の信頼度を算出し、これらの信頼度の比較結果に基づいて、前記被写体上の点の座標値を確定し、距離を出力することを特徴とする請求項2に記載の距離測定装置。
  4. 前記距離は、前記距離測定装置と前記被写体上の点との間の距離、前記被写体上の点と当該被写体上の他の点との間の距離、又は前記被写体上の点と前記画像における他の被写体上の点との間の距離であることを特徴とする請求項1から請求項3のいずれか一項に記載の距離測定装置。
  5. 前記被写体上の点の前記信頼度を、当該信頼度の大小が分かるように表示することを特徴とする請求項1から請求項4のいずれか一項に記載の距離測定装置。
JP2015011446A 2015-01-23 2015-01-23 距離測定装置 Active JP6694234B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (ja) 2015-01-23 2015-01-23 距離測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015011446A JP6694234B2 (ja) 2015-01-23 2015-01-23 距離測定装置

Publications (3)

Publication Number Publication Date
JP2016136112A JP2016136112A (ja) 2016-07-28
JP2016136112A5 JP2016136112A5 (ja) 2018-03-08
JP6694234B2 true JP6694234B2 (ja) 2020-05-13

Family

ID=56512518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015011446A Active JP6694234B2 (ja) 2015-01-23 2015-01-23 距離測定装置

Country Status (1)

Country Link
JP (1) JP6694234B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7227454B2 (ja) * 2018-07-18 2023-02-22 ミツミ電機株式会社 測距カメラ
US11361466B2 (en) 2018-11-30 2022-06-14 Casio Computer Co., Ltd. Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system
JP7049983B2 (ja) * 2018-12-26 2022-04-07 株式会社日立製作所 物体認識装置および物体認識方法
CN112449176B (zh) * 2019-09-03 2023-05-26 浙江舜宇智能光学技术有限公司 升降式摄像装置的测试方法及其测试***
US11227402B2 (en) * 2020-05-29 2022-01-18 Icatch Technology, Inc. Velocity measuring device
DE112020007687T5 (de) * 2020-12-11 2023-09-07 Mitsubishi Electric Corporation Zuverlässigkeitsgrad-ermittlungseinrichtung, position-ermittlungseinrichtung und zuverlässigkeitsgrad-ermittlungsverfahren

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2923069B2 (ja) * 1991-03-15 1999-07-26 日本電信電話株式会社 視点位置決定方法
JP4444440B2 (ja) * 2000-03-30 2010-03-31 株式会社トプコン ステレオ画像の測定装置
JP5747797B2 (ja) * 2011-11-29 2015-07-15 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5925109B2 (ja) * 2012-11-12 2016-05-25 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP6227898B2 (ja) * 2013-05-29 2017-11-08 株式会社Subaru 画像処理装置

Also Published As

Publication number Publication date
JP2016136112A (ja) 2016-07-28

Similar Documents

Publication Publication Date Title
JP6694234B2 (ja) 距離測定装置
JP4809291B2 (ja) 計測装置及びプログラム
KR100938195B1 (ko) 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법
JP2007263669A (ja) 3次元座標取得装置
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP2014092461A (ja) 画像処理装置および方法、画像処理システム、並びにプログラム
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
JP6694281B2 (ja) ステレオカメラおよび撮像システム
CN107077719B (zh) 数码照片中基于深度图的透视校正
TWI571099B (zh) 深度估測裝置及方法
CN104641395B (zh) 图像处理设备及图像处理方法
JP2016217944A (ja) 計測装置、および計測方法
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
JP6622575B2 (ja) 制御装置、制御方法、およびプログラム
US9538161B2 (en) System and method for stereoscopic photography
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
WO2015159791A1 (ja) 測距装置および測距方法
US10726528B2 (en) Image processing apparatus and image processing method for image picked up by two cameras
JP6734994B2 (ja) ステレオ計測装置及びシステム
JP2016072924A (ja) 画像処理装置及び画像処理方法
CN110827230A (zh) 一种利用tof提升rgb图像质量的方法和装置
JP2013190938A (ja) ステレオ画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200417

R150 Certificate of patent or registration of utility model

Ref document number: 6694234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250