JP2005157779A - 測距装置 - Google Patents

測距装置 Download PDF

Info

Publication number
JP2005157779A
JP2005157779A JP2003395942A JP2003395942A JP2005157779A JP 2005157779 A JP2005157779 A JP 2005157779A JP 2003395942 A JP2003395942 A JP 2003395942A JP 2003395942 A JP2003395942 A JP 2003395942A JP 2005157779 A JP2005157779 A JP 2005157779A
Authority
JP
Japan
Prior art keywords
image
distance
moving
unit
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003395942A
Other languages
English (en)
Other versions
JP3882083B2 (ja
Inventor
Kazuhiko Yamamoto
山本  和彦
Kunito Kato
邦人 加藤
Ayami Iwata
彩見 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gifu University NUC
Original Assignee
Gifu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu University NUC filed Critical Gifu University NUC
Priority to JP2003395942A priority Critical patent/JP3882083B2/ja
Priority to US10/788,780 priority patent/US7286688B2/en
Publication of JP2005157779A publication Critical patent/JP2005157779A/ja
Application granted granted Critical
Publication of JP3882083B2 publication Critical patent/JP3882083B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

【課題】物体の検出効率を向上させることができ、物体までの距離を精度良く求めることができる測距装置を提供すること。
【解決手段】測距装置Sは、移動体10に搭載され、移動体10が移動する移動面を含む直接画像及び移動面を排除し対象物体を含む反射画像を取得する画像入力部11と、画像入力部11により取得される直接画像から得られるオプティカルフローに基づいて移動体10の移動量を算出する移動量算出部12と、反射画像から得られるオプティカルフロー及び移動量算出部12により算出された移動量に基づいて対象物体までの距離を算出する距離算出部13とを備えている。
【選択図】 図1

Description

本発明は測距装置に係り、詳しくはロボット等の移動体に搭載され、障害物等の物体を検出し、その物体までの距離を測定する測距装置に関するものである。
従来、電波、超音波、光などの波動を物体に放射して、この波動が戻ってくるまでの伝播時間を測定して物体までの距離を算出する方法が知られている。しかし、物体に波動を放射して距離を測定する方法は、物体が波動を吸収してしまう場合には使用できないという問題があった。
そこで、近年、CCDカメラ等により撮影した画像に基づいて物体までの距離を算出する方法が提案されている(例えば、特許文献1参照)。特許文献1に記載された物体検出装置は、CCDカメラ等の撮像手段によって時間的に連続する2枚以上の画像を取得し、これら画像のオプティカルフローに基づいて物体の存在する領域と物体の存在しない領域とを分離している。すなわち、物体検出装置は、撮影した画像から物体の存在する領域を切り出している。そして、物体検出装置は、求められた物体の存在する領域に対して所定の処理(例えば、パターンマッチング)を実行して物体がその領域に存在するか否かを判断することで物体を検出している。この種の物体検出装置によれば、波動を吸収し易い等の物体の性質に影響されることなく物体を検出することができる。また、物体を検出した後、三角測量の原理等を用いて物体までの距離を求める測距装置が提案されている。
特開2003−196664号公報
しかし、従来の物体検出装置は、例えば物体に影がある場合には該影を物体の一部として認識してしまうため、撮像手段によって得られた画像から物体の存在する領域を精度よく分離できないことがある。そして、これに伴い物体までの距離を精度よく算出できないといった問題があった。また、従来の物体検出装置にあっては、得られた画像から物体の存在する領域と物体の存在しない領域とを分離する必要があり、物体の検出効率が非常に悪いものとなっていた。
本発明は、こうした実情に鑑みてなされたものであって、その目的は、物体の検出効率を向上させることができ、物体までの距離を精度よく求めることができる測距装置を提供することにある。
上記課題を解決するため、請求項1に記載の発明は、移動体に搭載され、該移動体が移動する移動面を含む第1の画像及び前記移動面を排除した対象物体を含む第2の画像を取得する画像取得手段と、前記画像取得手段により取得される前記第1の画像から得られるオプティカルフローに基づいて前記移動体の移動量を算出する移動量算出手段と、前記第2の画像から得られるオプティカルフロー及び前記移動量算出手段により算出された移動量に基づいて対象物体までの距離を算出する距離算出手段とを備えたことを要旨とする。
この発明によれば、画像取得手段により移動面を含む第1の画像及び移動面を排除した対象物体を含む第2の画像を取得し、移動量算出手段及び距離算出手段により対象物体までの距離を算出する。すなわち、第2の画像からは移動面が排除されているため、距離算出手段が対象物体までの距離を算出するに際して、画像取得手段により得られた画像から対象物体の存在する領域を分離する必要がない。よって、物体の検出効率を向上させることができる。また、第2の画像は対象物体の影を含まないため、得られた画像から対象物体を精度よく検出することができる。従って、対象物体までの距離を精度よく求めることができる。
請求項2に記載の発明は、前記画像取得手段は、反射面を備える反射手段と該反射手段の反射面に対向するように配置される撮像手段とを備え、前記反射面が前記移動面となす角度をθ1、前記撮像手段の光軸が前記移動面となす角度をθ2とした場合、θ2=θ1×2の関係を有することを要旨とする。
この発明によれば、撮像手段の光軸及び反射手段の反射面がθ2=θ1×2の関係で配置されることで、その反射面で反射される画像を上記第2の画像として得ることができる。すなわち、1つの撮像手段によって移動面を含む第1の画像及び移動面が排除された第2の画像を得ることができ、測距装置の構成を簡単にすることができる。
請求項3に記載の発明は、前記角度θ1が45度であるとともに、前記角度θ2が90度であることを要旨とする。
この発明によれば、撮像手段により得られる上記第1の画像が移動面を正視した画像となる。このため、移動量算出手段により求められるオプティカルフローが単に移動面上の変化として表され、移動量を容易に算出することができる。
請求項4に記載の発明は、前記移動量算出手段は、前記第1の画像の少なくとも2つのオプティカルフローの始点及び終点の座標に基づいてハフ変換を行うことにより前記移動体の移動量を求めることを要旨とする。
この発明によれば、移動量算出手段は、ハフ変換という既存の方法を用いて移動量を求める。一般に、時間的に異なる複数の第1の画像からは、複数のオプティカルフローが得られ、これらオプティカルフローの中には移動量と相関のないものが存在する場合がある。そこで、これらオプティカルフローの始点と終点の座標に対してハフ変換を行うことにより、移動量と相関のないオプティカルフローの影響を受けずに移動体の移動量を推定することが可能となる。よって、オプティカルフローから移動体の移動量を推定するための新たなアルゴリズム等を開発することなく、移動体の移動量を求めることができる。従って、測距装置の開発費を抑制することができる。
本発明によれば、物体の検出効率を向上させることができ、物体までの距離を精度よく求めることができる測距装置を提供できる。
以下、本発明を具体化した一実施形態を図面に従って説明する。
図1に示すように、本実施形態における測距装置Sは、移動体10に搭載されており、画像取得手段としての画像入力部11、移動量算出手段としての移動量算出部12及び距離算出手段としての距離算出部13を備えている。
図2に示すように、画像入力部11は、撮像手段としてのカメラ(例えばCCDカメラやCMOSカメラ)14及び反射手段としての平板状の鏡15により構成されている。
カメラ14は、撮像した画像を電気信号に変換し、画像データとして移動量算出部12及び距離算出部13に出力する。また、カメラ14は、鏡15の上方において移動体10に固定され、カメラ14の撮像レンズが有する光軸L1が移動面Mに対して所定の角度θ2をなすように配置されている。なお、本実施形態では、角度θ2=90°となるようにカメラ14が配置されている。また、同図に示す二点鎖線は、カメラ14の撮像範囲を示す。
鏡15は、その反射面15aが図2において上方を向き、且つ反射面15aが移動面Mに対して所定の角度θ1をなすように配置されている。この反射面15aにおける移動面Mとの境界上には、カメラ14の光軸L1が位置しており、その結果、反射面15aにおける移動面Mとの境界から対象物体Bまでは移動面Mを這うように光軸L2が位置する。なお、鏡15は、移動体10が移動する移動面Mに対して若干の隙間が空くように固定されている。また、本実施形態では、角度θ1=45°となるように鏡15が配置されている。すなわち、鏡15の反射面15aが移動面Mとなす角度θ1と、カメラ14の光軸L1が移動面Mとなす角度θ2とには、角度θ2=角度θ1×2なる関係がある。
このような構成のもとでカメラ14が撮像した画像例を図3に示す。画像16は、移動面Mのみが撮像された(移動面Mを正視した)第1の画像としての直接画像16a及び移動面Mが排除され対象物体Bが撮像された第2の画像としての反射画像16bの2つの画像から構成されている。本実施形態では、反射面15aにおける移動面Mとの境界を基準に、画像16の上半分を反射画像16bが、画像16の下半分を直接画像16aが占めている。
画像入力部11は、カメラ14を介して所定時間毎に画像16を取得する。画像入力部11は、カメラ14により得られた画像16を移動量算出部12及び距離算出部13に出力する。詳しくは、画像入力部11は、画像データの下半分の画像データ、即ち直接画像16aの画像データ(以下、直接画像データという)を移動量算出部12のテンプレート作成部17及びオプティカルフロー検出部19に出力する。一方、画像入力部11は、画像データのうち上半分の画像データ、即ち反射画像16bの画像データ(以下、反射画像データという)を距離算出部13のテンプレート作成部21及びオプティカルフロー検出部23に出力する。
移動量算出部12は、テンプレート作成部17、データ保存部18、オプティカルフロー検出部19及び移動量演算部20により構成されている。
テンプレート作成部17は、取得した時間t1における直接画像データに基づきその直接画像を所定の領域毎に分割して複数のテンプレートT(n)を作成する。ここで、nは直接画像16aにおけるテンプレートの総数とする。なお、本実施形態におけるテンプレートT(n)は、対応する所定領域内の輝度パターンを示すものである。そして、テンプレート作成部17は、作成したテンプレートT(n)のデータをデータ保存部18に出力する。
データ保存部18は、図示しないメモリを備えている。データ保存部18は、テンプレート作成部17から入力されたテンプレートT(n)をメモリに記録する。このため、データ保存部18には、所定時間毎に直接画像16aにおける複数のテンプレートT(n)が記録される。
オプティカルフロー検出部19は、上記時間t1から所定時間経過後の時間t2における直接画像16aの画像データが画像入力部11から入力されると、その1つ前の時間t1におけるテンプレートT(n)をデータ保存部18から読み出す。そして、その読み出したテンプレートT(n)と時間t2における直接画像16aの画像データとを比較(テンプレートマッチング)してオプティカルフローを求める。
以下、直接画像16aにおいて、オプティカルフローを求める場合について説明する。
まず、オプティカルフロー検出部19は、テンプレートT(n)の代表点(例えば、テンプレートT(n)の中心点)の座標をオプティカルフローの始点の座標(Xi,Yi)(ただし、1≦i≦n)として記録する。
次に、オプティカルフロー検出部19は、テンプレートT(n)を時間t2における直接画像16aの所定領域内で移動させて、輝度パターンが類似または一致する領域を検出する。そして、テンプレートT(n)の輝度パターンと類似または一致する領域(マッチ領域)を検出した場合、オプティカルフロー検出部19は、そのマッチ領域における代表点(例えば、マッチ領域の中心点)をオプティカルフローの終点の座標(Xi’,Yi’)として記録する。なお、オプティカルフロー検出部19は、全てのテンプレートT(n)に対して上記始点及び終点の座標を算出する。そして、オプティカルフロー検出部19は、上記態様により求めた各オプティカルフローの始点及び終点の座標を移動量演算部20に出力する。
移動量演算部20は、入力された各オプティカルフローの始点の座標(Xi,Yi)及び終点の座標(Xi’,Yi’)を用いてハフ(Hough)変換を行うことで移動体10の移動量を算出する。
具体的には、図4に示すように、移動面MをX−Y平面と仮定し、X−Y平面に垂直なZ軸回りの回転量をdθ、移動面Mからカメラ14までの距離を距離hとすると、X軸方向の移動量dx、Y軸方向の移動量dyは下記(式1)、(式2)として導出される。なお、同図ではdθを時間t1における上記光軸L2に対しての時間t2における光軸L2の回転量として示す。また、同図に示す二点鎖線は、カメラ14の撮像範囲を示す。このため、移動量演算部20は、上記テンプレートマッチングで求められた各オプティカルフローの始点の座標(Xi,Yi)、終点の座標(Xi’,Yi’)を(式1)及び(式2)に代入し、その代入した状態の(式1)、(式2)それぞれのdθに0〜360°の値を代入することで、各オプティカルフローに対応した複数のハフ曲線を求める。そして、移動量演算部20は、これらハフ曲線が最も交差する点におけるdx、dy、dθをアフィン変換パラメータ(dx、dy、dθ)、すなわち移動体10の移動量として算出する。そして、移動量演算部20は、その算出した移動量(dx,dy,dθ)を三角測量演算部24に出力する。
Figure 2005157779
Figure 2005157779
なお、上記(式1)及び(式2)におけるf11、f13.f22,f23はカメラ14の内部パラメータであり、例えばCCDカメラの場合、光学設計により求まるCCDの搭載位置と製造過程により決まるCCDの搭載位置との乖離量を示す。すなわち、製造時に、設計上の位置よりもスライドした位置にCCDが搭載されると、これら内部パラメータが変化する。
距離算出部13は、テンプレート作成部21、データ保存部22、オプティカルフロー検出部23及び三角測量演算部24により構成されている。
テンプレート作成部21は、画像入力部11から入力された時間t1における反射画像データに基づき上記移動量算出部12におけるテンプレート作成部17と同様にしてテンプレートT(m)を作成する。ここで、mは反射画像16bにおけるテンプレートの総数とする。そして、作成したテンプレートT(m)をデータ保存部22に出力する。データ保存部22は、テンプレート作成部21から入力されたそのテンプレートT(m)を図示しないメモリに記録する。
オプティカルフロー検出部23は、時間t2における反射画像16bの画像データが入力されると、その1つ前の時間t1におけるテンプレートT(m)をデータ保存部22から読み出す。そして、その読み出したテンプレートT(m)と時間t2における反射画像16bの画像データとを比較(テンプレートマッチング)し、上述したオプティカルフロー検出部19と同様にしてオプティカルフローを求める。そして、オプティカルフロー検出部23は、求めた各オプティカルフローの始点の座標(Uk,Vk)(ただし、1≦k≦m)及び終点の座標(Uk’,Vk’)を三角測量演算部24に出力する。
三角測量演算部24は、オプティカルフロー検出部23から入力された各オプティカルフローの始点及び終点の座標と、上記移動量演算部20から入力された移動量(dx,dy,dθ)とに基づき三角測量の原理を用いて対象物体Bまでの距離Dを算出する。
具体的には、三角測量演算部24は、オプティカルフロー検出部23から入力されたオプティカルフローの始点の座標(Uk,Vk)及び終点の座標(Uk’,Vk’)と、移動量演算部20から入力された移動量(dx、dy、dθ)とから以下に示す数式に従って距離Dを算出する。
Figure 2005157779
Figure 2005157779
なお、本実施形態において三角測量演算部24は、|Uk−Uk’|≧|Vk−Vk’|の場合には(式3)により距離Dを求め、|Uk−Uk’|<|Vk−Vk’|の場合には(式4)により距離Dを求めている。そして、三角測量演算部24は、算出した距離Dのデータを移動体10に設けられたモータ駆動部に出力する。
モータ駆動部は、例えば、タイヤ(キャタピラ等でもよい)を駆動するモータ及びそのドライバ回路で構成されている。そして、このモータ駆動部は、移動体10と対象物体Bとが接触しないよう入力された距離Dのデータを用いてモータを制御する。
なお、本実施形態における移動体10として、例えば自律型の掃除ロボットを適用することにより、ごみ等の障害物を検知しながらごみ等を収集することが可能となる。
上述したように、本実施形態によれば、以下の効果を得ることができる。
(1)画像入力部11により移動面Mの直接画像16a及び移動面Mを排除した対象物体Bの反射画像16bを取得し、移動量算出部12及び距離算出部13により対象物体Bまでの距離Dを算出する。反射画像16bからは移動面Mが排除されているため、距離算出部13が対象物体Bまでの距離を算出するに際して、画像入力部11により得られた画像から対象物体Bの存在する領域を分離する必要がない。よって、対象物体Bの検出効率を向上させることができる。また、反射画像16bは対象物体Bの影を含まないため、得られた画像から対象物体Bを精度よく検出することができる。従って、対象物体Bまでの距離を精度よく求めることができる。
(2)鏡15の反射面15aが移動面Mとなす角度θ1と、カメラ14の光軸L1が移動面Mとなす角度θ2とには、角度θ2=角度θ1×2なる関係、すなわち、角度θ2が角度θ1の2倍となるように配置されている。このため、鏡15の反射面15aで反射される画像を移動面Mが排除された対象物体Bを含む反射画像16bとして得ることができる。すなわち、1つのカメラ14によって移動面Mの直接画像16a及び移動面Mが排除された反射画像16bを得ることができ、測距装置の構成を簡単にすることができる。
(3)鏡15の反射面15aが移動面Mと45度の角度をなすように、カメラ14の光軸L1が移動面Mと90度の角度をなすようにそれぞれ配置した。このため、カメラ14により移動面Mを正視した画像を直接画像16aとして得ることができ、直接画像16aのオプティカルフローが単に移動面上の変化として表される。従って、直接画像16aのオプティカルフローに基づいて移動体10の移動量を容易に求めることができる。
(4)移動量演算部20は、入力された各オプティカルフローの始点の座標及び終点の座標を用いてハフ変換という既存の方法により移動量を求める。一般に、時間的に異なる複数の直接画像16aからは、複数のオプティカルフローが得られ、これらオプティカルフローの中には移動量と相関のないものが存在する場合がある。そこで、これらオプティカルフローの始点と終点の座標に対してハフ変換を行うことにより、移動量と相関のないオプティカルフローの影響を受けずに移動体10の移動量を推定することが可能となる。よって、オプティカルフローから移動体10の移動量を推定するための新たなアルゴリズム等を開発することなく、移動体10の移動量を求めることができる。従って、測距装置の開発費を抑制することができる。
尚、本発明の実施形態は、以下のように変更してもよい。
・上記実施形態では、カメラ14は、角度θ2=90°となるように配置され、鏡15は、角度θ1=45°となるように配置されていた。しかし、角度θ2=角度θ1×2なる関係が保たれるならば、角度θ1及び角度θ2の値は上記実施形態における45°や90°に限定されない。例えば、角度θ1=30°、角度θ2=60°に設定されてもよい。また、角度θ2は90°以上の値に設定されてもよい。例えば、角度θ1=60°、角度θ2=120°に設定されてもよい。これらの場合も、移動面Mを排除した反射画像16bを取得することができる。
・上記実施形態では、画像入力部11は反射手段としての鏡15を備え、この鏡15を移動面Mに対して角度θ1で傾斜させることで直接画像16a及び反射画像16bを一つの画像16として取得していた。しかし、直接画像16a及び反射画像16bを取得するための画像入力部11の構成は上記実施形態の構成に限られない。例えば、図5に示すように、鏡15,25を用いて画像入力部11を構成してもよい。この場合、鏡15の上方に鏡25を反射面25aが下面で、且つ鏡15と平行になるように配置し、その側方にカメラ14を配置する。これにより、上記実施形態と同様に直接画像16a及び反射画像16bの取得が可能となるとともに、カメラ14の配置態様を変えたことにより測距装置Sの小型化を図ることも可能となる。また、反射手段として鏡15に代えて光軸を屈折させるプリズム等の他の反射手段を用いてもよい。
・上記実施形態において、移動量算出部12は、各オプティカルフローを検出した後、ハフ変換を行うことによって移動量(dx、dy、dθ)を求めていたが、移動量を算出する方法はハフ変換に限定されない。例えば、移動量を算出するにあたってクラスタリング法を用いることもできる。このクラスタリング法では、オプティカルフロー検出部19によるテンプレートマッチングにより求められた2つのオプティカルフローの始点及び終点の座標に基づき下記(式5)のようにして回転量dθを算出する。ここでは、この2つのオプティカルフローの始点及び終点の座標を(Xi,Yi)→(Xi’,Yi’)、(Xj,Yj)→(Xj’,Yj’)として説明する。なお、1≦i≦n,1≦j≦nであり、この2つのオプティカルフローの座標は任意に選択可能である。そして、算出した回転量dθ及びオプティカルフローの始点及び終点の座標(Xi,Yi)→(Xi’,Yi’)、(Xj,Yj)→(Xj’,Yj’)を上記(式1),(式2)に代入することでそれぞれのオプティカルフローにおけるdx、dyの値を得る。そして、算出した2つの(dx、dy、dθ)をdx−dy−dθ空間に点としてプロットする。この操作をオプティカルフローから得られる2つの組み合わせ全てに対して行うと、dx−dy−dθ空間には多数の点集合が生成される。そして、この中からある一定数以上かつ最大点数を包含する任意サイズの方形を抽出してその重心を求め、これをアフィン変換パラメータ(dx,dy,dθ)、すなわち移動量として算出する。
Figure 2005157779
・上記実施形態において、鏡15の反射面15aは平面であった。しかし、鏡15の反射面15aは、目的によっては横方向または縦方向に湾曲する鏡面でもよい。
次に、上記各実施形態から把握できる技術的思想を以下に記載する。
(1)前記第1の画像が入力される領域と前記第2の画像が入力される領域とは同じ大きさであることを特徴とする請求項1〜4のいずれか一項に記載の測距装置。
本実施形態における測距装置の電気的な構成を示すブロック図。 同じく、測距装置における画像入力部の構成を示した模式図。 同じく、測距装置における画像入力部により取得される画像を説明する図。 同じく、測距装置において、距離Dの算出を説明する図。 他の実施形態における測距装置における画像入力部の構成を示した模式図。
符号の説明
10…移動体、11…画像取得手段としての画像入力部、12…移動量算出手段としての移動量算出部、13…距離算出手段としての距離算出部、14…撮像手段としてのカメラ、15…反射手段としての鏡、15a…反射面、S…測距装置、B…対象物体、M…移動面、L1,L2…光軸。

Claims (4)

  1. 移動体に搭載され、該移動体が移動する移動面を含む第1の画像及び前記移動面を排除した対象物体を含む第2の画像を取得する画像取得手段と、
    前記画像取得手段により取得される前記第1の画像から得られるオプティカルフローに基づいて前記移動体の移動量を算出する移動量算出手段と、
    前記第2の画像から得られるオプティカルフロー及び前記移動量算出手段により算出された移動量に基づいて対象物体までの距離を算出する距離算出手段とを備えたことを特徴とする測距装置。
  2. 前記画像取得手段は、反射面を備える反射手段と該反射手段の反射面に対向するように配置される撮像手段とを備え、
    前記反射面が前記移動面となす角度をθ1、前記撮像手段の光軸が前記移動面となす角度をθ2とした場合、θ2=θ1×2の関係を有することを特徴とする請求項1に記載の測距装置。
  3. 前記角度θ1が45度であるとともに、前記角度θ2が90度であることを特徴とする請求項2に記載の測距装置。
  4. 前記移動量算出手段は、前記第1の画像の少なくとも2つのオプティカルフローの始点及び終点の座標を用いてハフ変換を行うことにより前記移動体の移動量を求めることを特徴とする請求項1〜3のいずれか1項に記載の測距装置。
JP2003395942A 2003-11-26 2003-11-26 測距装置 Expired - Lifetime JP3882083B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003395942A JP3882083B2 (ja) 2003-11-26 2003-11-26 測距装置
US10/788,780 US7286688B2 (en) 2003-11-26 2004-02-27 Object detection apparatus, distance measuring apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003395942A JP3882083B2 (ja) 2003-11-26 2003-11-26 測距装置

Publications (2)

Publication Number Publication Date
JP2005157779A true JP2005157779A (ja) 2005-06-16
JP3882083B2 JP3882083B2 (ja) 2007-02-14

Family

ID=34587619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003395942A Expired - Lifetime JP3882083B2 (ja) 2003-11-26 2003-11-26 測距装置

Country Status (2)

Country Link
US (1) US7286688B2 (ja)
JP (1) JP3882083B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014167444A (ja) * 2013-02-28 2014-09-11 Pioneer Electronic Corp 情報処理装置及び情報処理方法並びに情報処理用プログラム
US9053554B2 (en) 2009-04-23 2015-06-09 Toyota Jidosha Kabushiki Kaisha Object detection device using an image captured with an imaging unit carried on a movable body

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844396B2 (en) * 2005-09-13 2010-11-30 Deere & Company Method and system for modular data processing for a vehicle control system
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
US8203605B1 (en) 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US9094606B2 (en) 2011-07-04 2015-07-28 Waikatolink Limited Motion compensation in range imaging
US9230501B1 (en) 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
RU2523699C2 (ru) * 2012-08-30 2014-07-20 Олег Игоревич Шнурков Способ определения расстояния от наблюдателя до работающего на излучение источника радиоволн
US10132626B2 (en) * 2013-09-18 2018-11-20 Infineon Technologies Ag Adaptive distance estimation
DE102014213175A1 (de) * 2014-07-07 2016-01-07 Conti Temic Microelectronic Gmbh Vorrichtung zur entfernungsmessung, fahrzeug und verfahren
CN104165617B (zh) * 2014-07-28 2016-03-30 浙江大学 一种同轴心距等光流折反射相机测距***及其测距方法
CN104180819B (zh) * 2014-07-28 2017-01-25 浙江大学 一种同轴心距等光流折反射相机测距***的参数标定方法
JP6656045B2 (ja) 2016-03-29 2020-03-04 信越化学工業株式会社 担持白金触媒を含有する樹脂組成物、及びそれを用いた熱硬化性オルガノポリシロキサン組成物ならびにその硬化方法
US11062149B2 (en) * 2018-03-02 2021-07-13 Honda Motor Co., Ltd. System and method for recording images reflected from a visor
CN109489621A (zh) * 2018-10-25 2019-03-19 航天时代飞鸿技术有限公司 一种基于图像及地速的无人机气压高度标定方法和***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181024A (ja) * 1993-12-24 1995-07-18 Canon Inc 3次元形状計測方法および装置
JPH09153138A (ja) * 1995-12-01 1997-06-10 Fujitsu Ltd カメラ制御装置
JPH10267955A (ja) * 1997-03-26 1998-10-09 Sony Corp 画像処理装置および画像処理方法
JP2001116527A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 立体物検出方法及び装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2001307104A (ja) * 2000-04-26 2001-11-02 Nippon Hoso Kyokai <Nhk> 動画像のオブジェクト抽出装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3279838A (en) * 1965-01-11 1966-10-18 Utility Products Co Locking securement for sheet metal housing cover
FR2581103B1 (fr) * 1985-04-29 1987-05-29 Pont A Mousson Regard de chaussee a tampon verrouille et etanche
US4723866A (en) * 1985-06-19 1988-02-09 Mcgard, Inc. Manhole cover locking bolt construction
DE3530128A1 (de) * 1985-08-23 1987-02-26 Richard Dannhaeuser Schachtabdeckung
CH677379A5 (ja) * 1987-11-26 1991-05-15 Von Roll Ag
CH675265A5 (ja) * 1987-12-07 1990-09-14 Von Roll Ag
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US4964755A (en) * 1989-04-18 1990-10-23 Lew-Mor, Inc. Manhole cover lock apparatus
US5082392A (en) * 1991-03-27 1992-01-21 Tony Marchese Manhole cover lock with spring biased locking bars
US5754677A (en) * 1994-10-25 1998-05-19 Fuji Machine Mfg. Co., Ltd. Image processing apparatus
US5916168A (en) * 1997-05-29 1999-06-29 Advanced Technology Laboratories, Inc. Three dimensional M-mode ultrasonic diagnostic imaging system
JP3885999B2 (ja) 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181024A (ja) * 1993-12-24 1995-07-18 Canon Inc 3次元形状計測方法および装置
JPH09153138A (ja) * 1995-12-01 1997-06-10 Fujitsu Ltd カメラ制御装置
JPH10267955A (ja) * 1997-03-26 1998-10-09 Sony Corp 画像処理装置および画像処理方法
JP2001116527A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 立体物検出方法及び装置
JP2001266160A (ja) * 2000-03-22 2001-09-28 Toyota Motor Corp 周辺認識方法および周辺認識装置
JP2001307104A (ja) * 2000-04-26 2001-11-02 Nippon Hoso Kyokai <Nhk> 動画像のオブジェクト抽出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岩田彩見、加藤邦人、山本和彦: "Horizon View Cameraの特性を生かした物体領域分割", 電子情報通信学会技術研究報告, vol. 103, no. 295, JPN4006013343, 1 September 2003 (2003-09-01), JP, pages 37 - 42, ISSN: 0000758704 *
岩田彩見、加藤邦人、山本和彦: "Horizon View Cameraの特性を生かした物体領域分割", 電子情報通信学会技術研究報告, vol. 103, no. 295, JPNX006049886, 1 September 2003 (2003-09-01), JP, pages 37 - 42, ISSN: 0000784886 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9053554B2 (en) 2009-04-23 2015-06-09 Toyota Jidosha Kabushiki Kaisha Object detection device using an image captured with an imaging unit carried on a movable body
JP2014167444A (ja) * 2013-02-28 2014-09-11 Pioneer Electronic Corp 情報処理装置及び情報処理方法並びに情報処理用プログラム

Also Published As

Publication number Publication date
US7286688B2 (en) 2007-10-23
JP3882083B2 (ja) 2007-02-14
US20050111697A1 (en) 2005-05-26

Similar Documents

Publication Publication Date Title
JP3882083B2 (ja) 測距装置
TWI710798B (zh) 被搭載於移動體處之雷射掃描系統、被搭載於移動體處之雷射掃描器之雷射掃描方法及雷射掃描程式
US8929608B2 (en) Device and method for recognizing three-dimensional position and orientation of article
EP2571257B1 (en) Projector device and operation detecting method
US6956469B2 (en) Method and apparatus for pedestrian detection
JP3985615B2 (ja) 前方車両追跡システムおよび前方車両追跡方法
JP4352034B2 (ja) 物***置検出装置、地図作成装置、自律移動装置、物***置検出方法および物***置検出プログラム
WO2020199563A1 (zh) 深度信息检测方法、装置及***
SE526717C2 (sv) Mobil robot med lägesigenkännande hinderdetekterande anordningar
WO2019012770A1 (ja) 撮像装置及びモニタリング装置
JP5071945B2 (ja) 移動装置及び方法
JP2007309921A (ja) 構造光を用いた物体検出方法及びこれを用いたロボット
JP5834933B2 (ja) 車両位置算出装置
WO2019174484A1 (zh) 一种充电座识别方法及移动机器人
CN112254675B (zh) 一种包含运动物体的空间占用率采集判断设备及方法
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
JP2009229226A (ja) 物体検出装置及び物体検出方法
JP2007093412A (ja) 3次元形状測定装置
KR101674298B1 (ko) 카메라 렌즈 초점거리 정보를 이용한 거리계산 방법
JP2003281552A (ja) 画像処理装置及びその方法
Hsu et al. Distance and angle measurement of objects on an oblique plane based on pixel number variation of CCD images
JP2007233440A (ja) 車載用画像処理装置
JP3969984B2 (ja) 移動物体の認識方法
JP5891802B2 (ja) 車両位置算出装置
KR100673087B1 (ko) 로봇용 사물인식시스템

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3882083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350