JP5214062B1 - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JP5214062B1
JP5214062B1 JP2012529036A JP2012529036A JP5214062B1 JP 5214062 B1 JP5214062 B1 JP 5214062B1 JP 2012529036 A JP2012529036 A JP 2012529036A JP 2012529036 A JP2012529036 A JP 2012529036A JP 5214062 B1 JP5214062 B1 JP 5214062B1
Authority
JP
Japan
Prior art keywords
area
segment
distance
segment area
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012529036A
Other languages
English (en)
Other versions
JPWO2012147495A1 (ja
Inventor
山口  淳
信雄 岩月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012529036A priority Critical patent/JP5214062B1/ja
Application granted granted Critical
Publication of JP5214062B1 publication Critical patent/JP5214062B1/ja
Publication of JPWO2012147495A1 publication Critical patent/JPWO2012147495A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Input (AREA)

Abstract

距離検出の精度を高めると共に、距離検出のための処理量を軽減することができる情報取得装置および物体検出装置を提供する。情報取得装置は、所定のドットパターンで投射されたレーザ光を投射し、CMOSイメージセンサにより反射光を受光する。基準パターン領域に基づいて、受光面に設定された複数のセグメント領域に含まれる探索用のドットパターンが設定される。実測時には、受光面上のドットパターンから、各セグメント領域に含まれる探索用のドットパターンと一致する領域が探索される。このとき、基準パターン領域の中央部の上下方向に延びた領域において、各セグメント領域のサイズが大きくなるよう設定される。これにより、目標領域の中央の上下方向に対して距離検出の精度が高められ、その他の領域に対しては処理量が低く抑えられる。

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置、および、当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の光検出器により受光(撮像)される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が光検出器によって受光される。そして、ドットの光検出器上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、所定距離だけ離れた位置に基準面を配したときに光検出器により受光されるドットパターンと、実測時に光検出器により受光されるドットパターンとが比較されて、距離の検出が行われる。たとえば、基準面に対するドットパターンに所定のサイズの複数の領域が設定される。物体検出装置は、各領域に含まれるドットが実測時に受光したドットパターン上のどの位置に移動したかに基づいて、領域毎に、対象物体までの距離を検出する。
この場合、ドットパターンに設定される領域のサイズが大きい程、距離検出の精度が高められる。しかしながら、領域のサイズが大きくなると、各領域内のドットと実測時のドットパターンとの間の比較・照合のための処理量が増えるという問題が生じる。
本発明は、この点に鑑みてなされたものであり、距離検出の精度を高めると共に、距離検出のための処理量を軽減することができる情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置において、前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、基準面により反射され前記受光光学系により撮像された基準ドットパターンにセグメント領域を設定し、距離測定時に目標領域を撮像して取得された撮像ドットパターンと前記各セグメント領域内のドットとを照合することにより、前記目標領域に存在する物体までの距離を取得する距離取得部とを備え、前記距離取得部は、実測時に各測定位置について距離の変化度合を取得し、前記距離の変化度合が閾値以上の測定位置に対応する前記セグメント領域のサイズを、前記距離の変化度合が前記閾値未満の測定位置に対応する前記セグメント領域のサイズよりも、大きくなるよう設定することを特徴とする。
本発明の第2の態様は、物体検出装置に関する。この態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、距離検出の精度を高めると共に、距離検出のための処理量を軽減することができる情報取得装置および物体検出装置を提供することができる。
本発明の特徴は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
実施の形態に係る物体検出装置の概略構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る投射光学系と受光光学系の設置状態を示す斜視図である。 実施の形態に係る投射光学系と受光光学系の構成を模式的に示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態を模式的に示す図およびCMOSイメージセンサにおけるレーザ光の受光状態を模式的に示す図である。 実施の形態に係る基準テンプレートの生成方法を説明する図である。 実施の形態に係る基準テンプレートのセグメント領域が実測時においてどの位置に変位したかを検出する手法を説明する図である。 全てのセグメント領域を同じサイズに設定する場合の距離検出の精度についての検証の結果を示す図である。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域のサイズを示す模式図およびセグメント領域の設定を説明する図である。 実施の形態に係るセグメント領域に対するドットパターンの設定処理および実測時における距離検出の処理を示すフローチャートである。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域のサイズの変更例を示す模式図および検出距離情報を模式的に示す図である。 実施の形態の変更例に係るセグメント領域の再設定の処理を示すフローチャートである。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域のサイズの変更例を示す模式図である。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域のサイズの変更例を示す模式図である。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。なお、情報取得装置1と情報処理装置2とからなる装置が、本発明の物体検出装置に相当する。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系11と受光光学系12とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。
投射光学系11は、所定のドットパターンのレーザ光を、目標領域に照射する。受光光学系12は、目標領域から反射されたレーザ光を受光する。投射光学系11と受光光学系12の構成は、追って、図3、4を参照して説明する。
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、投射光学系11内のレーザ光源111(後述)を制御するためのレーザ制御部21aと、3次元距離情報を生成するための3次元距離演算部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源111(後述)を駆動する。撮像信号処理回路23は、受光光学系12内のCMOSイメージセンサ123(後述)を制御して、CMOSイメージセンサ123で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。
CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、3次元距離演算部21bによる処理によって算出する。入出力回路24は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3は、投射光学系11と受光光学系12の設置状態を示す斜視図である。
投射光学系11と受光光学系12は、熱伝導性の高いベースプレート300上に設置される。投射光学系11を構成する光学部材は、シャーシ11aに設置され、このシャーシ11aがベースプレート300上に設置される。これにより、投射光学系11がベースプレート300上に設置される。
受光光学系12は、ベースプレート300上の2つの台座300aの上面と、2つの台座300aの間のベースプレート300の上面に設置される。2つの台座300aの間のベースプレート300の上面には、後述するCMOSイメージセンサ123が設置され、台座300aの上面には保持板12aが設置され、この保持板12aに、後述するフィルタ121および撮像レンズ122を保持するレンズホルダ12bが設置される。
投射光学系11と受光光学系12は、投射光学系11の投射中心と受光光学系12の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置されている。ベースプレート300の裏面に、情報取得装置1の回路部(図2参照)を保持する回路基板200(図4参照)が設置される。
ベースプレート300の中央下部には、レーザ光源111の配線をベースプレート300の背部に取り出すための孔300bが形成されている。また、ベースプレート300の受光光学系12の設置位置の下部には、CMOSイメージセンサ123のコネクタ12cをベースプレート300の背部に露出させるための開口300cが形成されている。
図4は、本実施の形態に係る投射光学系11と受光光学系12の構成を模式的に示す図である。
投射光学系11は、レーザ光源111と、コリメータレンズ112と、立ち上げミラー113と、回折光学素子(DOE:Diffractive Optical Element)114を備えている。また、受光光学系12は、フィルタ121と、撮像レンズ122と、CMOSイメージセンサ123とを備えている。
レーザ光源111は、波長830nm程度の狭波長帯域のレーザ光を出力する。レーザ光源111は、レーザ光の光軸がX軸に平行となるように設置される。コリメータレンズ112は、レーザ光源111から出射されたレーザ光を略平行光に変換する。コリメータレンズ112は、自身の光軸がレーザ光源111から出射されたレーザ光の光軸に整合するように設置される。立ち上げミラー113は、コリメータレンズ112側から入射されたレーザ光を反射する。レーザ光の光軸は、立ち上げミラー113によって90°折り曲げられてZ軸に平行となる。
DOE114は、入射面に回折パターンを有する。回折パターンは、たとえば、ステップ型のホログラムにより構成される。この回折パターンによる回折作用により、立ち上げミラー113により反射されDOE114に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、目標領域において所定のドットパターンとなるように設計されている。
なお、レーザ光源111とコリメータレンズ112との間には、レーザ光の輪郭を円形にするためのアパーチャ(図示せず)が配される。なお、このアパーチャは、レーザ光源111の出射開口によって構成されても良い。
目標領域から反射されたレーザ光は、フィルタ121を透過して撮像レンズ122に入射する。
フィルタ121は、レーザ光源111の出射波長(830nm程度)を含む波長帯域の光を透過し、その他の波長帯域をカットする。撮像レンズ122は、フィルタ121を介して入射された光をCMOSイメージセンサ123上に集光する。撮像レンズ122は複数のレンズから構成され、所定のレンズとレンズとの間にアパーチャとスペーサが介挿されている。かかるアパーチャは、撮像レンズ122のFナンバーに合うように、外部からの光に絞りを掛ける。
CMOSイメージセンサ123は、撮像レンズ122にて集光された光を受光して、画素毎に、受光光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ123は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
フィルタ121は、受光面がZ軸に垂直になるように配置される。撮像レンズ122は、光軸がZ軸に平行となるように設置される。CMOSイメージセンサ123は、受光面がZ軸に垂直になるように設置される。また、フィルタ121の中心とCMOSイメージセンサ123の受光領域の中心が撮像レンズ122の光軸上に並ぶように、フィルタ121、撮像レンズ122およびCMOSイメージセンサ123が配置される。
投射光学系11と受光光学系12は、図3を参照して説明したように、ベースプレート300に設置されている。ベースプレート300の下面には、さらに、回路基板200が設置され、この回路基板200から、レーザ光源111およびCMOSイメージセンサ123に配線(フレキシブル基板)201、202が接続されている。回路基板200には、図2に示すCPU21やレーザ駆動回路22等の情報取得装置1の回路部が実装されている。
図5(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図であり、図5(b)は、CMOSイメージセンサ123におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)が存在するときの受光状態が示されている。
同図(a)に示すように、投射光学系11からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に向けて照射される。同図(a)には、DP光の投射領域が実線の枠によって示されている。DP光の光束中には、回折光学素子による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、回折光学素子の回折作用によるドットパターンに従って点在している。目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、同図(b)のように、CMOSイメージセンサ123上に分布する。
ここで、図6(a)、(b)を参照して、距離検出に用いられる基準パターンについて説明する。
図6(a)を参照して、基準パターンの生成時には、投射光学系11から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。レーザ光源111の温度は、所定の温度(基準温度)に維持される。この状態で、投射光学系11からDP光が所定時間Teだけ出射される。出射されたDP光は、反射平面RSによって反射され、受光光学系12のCMOSイメージセンサ123に入射する。これにより、CMOSイメージセンサ123から、画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)が、図2のメモリ25上に展開される。
こうしてメモリ25上に展開された画素値に基づいて、図6(b)に示すように、CMOSイメージセンサ123上におけるDP光の照射領域を規定する基準パターン領域が設定される。
次に、図6(b)、(c)を参照して、基準パターン領域に設定されるセグメント領域(比較例)について説明する。
比較例では、上述したように設定された基準パターン領域に対して、複数のセグメント領域が設定される。各セグメント領域は、他の全てのセグメント領域と同じサイズであり、上下左右に隣り合う2つのセグメント領域は、図6(c)に示す如く、互いに1画素ずれた状態で重なり合うよう設定される。このとき、各セグメント領域には、固有のパターンでドットが点在するため、セグメント領域の画素値のパターンは、セグメント領域毎に異なっている。こうして、各セグメント領域に対して、当該セグメント領域に含まれる各画素の画素値が割り当てられる。
こうして、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値(基準パターン)と、セグメント領域のサイズ(縦横の幅)に関する情報と、各セグメント領域の基準パターン領域上の位置に関する情報が、基準テンプレートとなる。なお、基準パターン領域に含まれる全画素の画素値(基準パターン)は、基準パターン領域に含まれるDP光のドットパターンに相応するものになる。また、基準パターン領域に含まれる全画素の画素値(基準パターン)のマッピング領域に、セグメント領域のサイズに関する情報と、各セグメント領域の基準パターン領域上の位置に関する情報とで規定されるセグメント領域を設定することにより、各セグメント領域に含まれる画素の画素値が取得される。
なお、この場合の基準テンプレートは、さらに、各セグメント領域に含まれる画素の画素値を、予めセグメント領域毎に保持していても良い。
構成された基準テンプレートは、図2のメモリ25に、消去不可能な状態で保持される。こうしてメモリ25に保持された基準テンプレートは、投射光学系11から検出対象物体の各部までの距離を算出する際にCPU21により参照される。
たとえば、図6(a)に示すように、距離Lsよりも近い位置に物体がある場合、基準パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系11と受光光学系12はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図6(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系11からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系11からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
かかる距離算出では、基準テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する必要がある。この検出は、実測時にCMOSイメージセンサ123上に照射されたDP光のドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。
図7は、図6(b)、(c)に示すセグメント領域(比較例)を用いて、かかる検出の手法を説明する図である。同図(a)は、CMOSイメージセンサ123上における基準パターン領域とセグメント領域の設定状態を示す図、同図(b)は、実測時におけるセグメント領域の探索方法を示す図、同図(c)は、実測されたDP光のドットパターンと、基準テンプレートのセグメント領域に含まれるドットパターンとの照合方法を示す図である。
たとえば、同図(a)のセグメント領域S1の実測時における変位位置を探索する場合、同図(b)に示すように、セグメント領域S1が、範囲P1〜P2において、X軸方向に1画素ずつ送られ、各送り位置において、セグメント領域S1のドットパターンと、実測されたDP光のドットパターンのマッチング度合いが求められる。この場合、セグメント領域S1は、基準パターン領域の最上段のセグメント領域群を通るラインL1上のみをX軸方向に送られる。これは、上記のように、通常、各セグメント領域は、実測時において、基準テンプレートにより設定された位置からX軸方向にのみ変位するためである。すなわち、セグメント領域S1は、最上段のラインL1上にあると考えられるためである。このように、X軸方向にのみ探索を行うことで、探索のための処理負担が軽減される。
なお、実測時には、検出対象物体の位置によっては、セグメント領域が基準パターン領域の範囲からX軸方向にはみ出すことが起こり得る。このため、範囲P1〜P2は、基準パターン領域のX軸方向の幅よりも広く設定される。
上記マッチング度合いの検出時には、ラインL1上に、セグメント領域S1と同じサイズの領域(比較領域)が設定され、この比較領域とセグメント領域S1との間の類似度が求められる。すなわち、セグメント領域S1の各画素の画素値と、比較領域の対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図7(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、値Rsadが求められる。すなわち、値Rsadは、次式により算出される。
値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
探索時には、比較領域が、ラインL1上を1画素ずつずらされつつ順次設定される。そして、ラインL1上の全ての比較領域について、値Rsadが求められる。求めた値Rsadの中から、閾値より小さいものが抽出される。閾値より小さい値Rsadが無ければ、セグメント領域S1の探索はエラーとされる。そして、抽出されたRsadの中で最も値が小さいものに対応する比較領域が、セグメント領域S1の移動領域であると判定される。ラインL1上のセグメント領域S1以外のセグメント領域も、上記と同様の探索が行われる。また、他のライン上のセグメント領域も、上記と同様、そのライン上に比較領域が設定されて、探索が行われる。
こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
ここで、本件出願の発明者は、上記のように全てのセグメント領域を同じサイズに設定する場合に、設定するセグメント領域のサイズを変化させて距離検出の精度についての検証を行った。
図8(a)は、本検証で用いた目標領域に位置付けられたマネキンの手を示す図である。図8(a)には、便宜上、台と棒の領域が白の破線で示されている。図8(b)〜(d)は、セグメント領域のサイズを、それぞれ、15×15画素、11×11画素、7×7画素に変化させたときの距離の測定結果である。図8(b)〜(d)において、測定された距離が遠いほど白に近づき、距離の測定がエラーとなったセグメント領域の位置、すなわち、セグメント領域の探索がエラーとなった位置は、黒となっている。
図8(b)〜(d)に示す如く、セグメント領域のサイズが小さくなるに従って、距離の測定がエラーとなったセグメント領域の位置が増えている。図8(b)〜(d)において、距離を適正に検出することができなかった領域が全体に占める割合(エラー率)は、それぞれ、8%、12%、24%となっている。すなわち、セグメント領域のサイズが15×15画素または11×11画素に設定されると、エラー率が低く抑えられ、マネキンの指の形状も略適正に検出される。他方、セグメント領域のサイズが7×7画素に設定されると、エラー率が上昇し、マネキンの指の形状を適正に検出することが困難となる。
このように、セグメント領域のサイズが大きくなると、目標領域における対象物体の距離検出の精度が変化する。たとえば、セグメント領域の面積が2倍になると、セグメント領域に含まれるドット数も略2倍になる。これにより、セグメント領域に含まれるドットパターンのユニーク性が高められ、セグメント領域の変位位置が適正に探索され易くなる。よって、距離検出の精度を高めたい場合には、セグメント領域のサイズを大きく設定することが望ましい。
しかしながら、セグメント領域のサイズが大きくなると、各セグメント領域の変位位置の探索時に値Rsadの計算量が増え、CPU21の処理量が増大する。たとえば、セグメント領域の面積が2倍になると、値Rsadの計算量が2倍になってしまう。
そこで、本実施の形態では、距離検出の精度を高めながら計算量を軽減するよう、所定の位置におけるセグメント領域のサイズを大きく設定する。
図9(a)は、本実施の形態において、基準パターン領域に対して設定されるセグメント領域のサイズを示す模式図である。
図示の如く、基準パターン領域の中央部の上下方向に延びた領域において、セグメント領域のサイズが大きくなるよう設定され、基準パターン領域の他の領域において、セグメント領域のサイズが小さくなるよう設定される。こうすると、目標領域の中央の上下方向に対して距離検出の精度が高められ、その他の領域に対しては処理量が少なく抑えられる。
このように、セグメント領域のサイズが設定されると、物体検出装置が用いられる場面として、たとえば目標領域の中央に立っている人を検出することが多い場合に、目標領域の中央に立っている人を適正に検出することが可能となる。また、目標領域の左右の端では、検出精度がやや低くなるものの、セグメント領域のサイズが小さく設定されるため、CPU21の処理量が少なく抑えられる。
従って、セグメント領域のサイズを大きくする領域が、距離検出の精度を高めたい領域に応じて設定されると、または、セグメント領域のサイズを小さくする領域が、距離検出の精度が要求されない領域に応じて設定されると、本発明の効果が顕著に発揮され得る。なお、セグメント領域のサイズは、これらの効果を発揮できるように設定されれば良い。たとえば、図9(a)において、中央の上下方向に延びた領域のセグメント領域のサイズが15×15画素に設定され、それ以外の領域のセグメント領域のサイズが7×7画素に設定される。
また、距離検出の精度を高めたい領域が目標領域の中央部である場合、たとえば、図9(b)に示すように、基準パターンの中央の円形状領域において、セグメント領域のサイズが大きくなるよう設定される。この場合、図示の如く、基準パターン領域の中央部からの距離に応じて、段階的にセグメント領域のサイズを変更するようにしても良い。
なお、本実施の形態では、基準パターン領域上における各セグメント領域の位置は、各セグメント領域の中心の位置をもって規定される。各セグメント領域の中心は、基準パターン領域に含まれる何れかの一つの画素の位置に一致する。上下または左右に隣り合うセグメント領域は、その中心位置が上下または左右に1画素だけ互いにずれている。
セグメント領域のサイズが異なる領域の境界においては、たとえば、図9(c)に示すように、隣り合うセグメント領域の中心位置(図中、×で示されている)が、この境界を超えると、セグメント領域のサイズが変わる。図9(c)の例では、境界が上下方向に延びている。図示のように、たとえば、3×3画素のサイズを有するセグメント領域Saと、5×5画素のサイズを有するセグメント領域Sbが隣り合う場合、セグメント領域の中心が左右方向に境界を超えると、セグメント領域のサイズが、3×3画素から5×5画素へと変わる。図9(d)のように、境界が左右に延びる場合、セグメント領域の中心が上下方向に境界を超えると、セグメント領域のサイズが変わる。図9(d)の例では、セグメント領域Smのサイズは3×3画素であり、セグメント領域Snのサイズは5×5画素である。
なお、図9(b)の例において、セグメント領域のサイズが異なる領域の境界は、画素レベルでは、円弧ではなく、上下方向と左右方向の線分を繋いだ階段状になっている。この場合も、図9(c)、(d)の場合と同様、セグメント領域の中心が、上下方向または左右方向に境界を超えると、セグメント領域のサイズが変わる。
本実施の形態では、セグメント領域の位置(セグメント領域の中心の位置)とサイズを規定する情報が、セグメント領域毎に設定され、基準テンプレートに保持されている。このうち、サイズを規定する情報は、上記のように、境界を挟んで隣り合うセグメント領域において、セグメント領域のサイズが変わるように、規定されている。
図10(a)は、セグメント領域に対するドットパターンの設定処理を示すフローチャートである。かかる処理は、情報取得装置1の起動時または距離検出が開始されたときに行われる。なお、基準パターン領域には、N個のセグメント領域が割り当てられ、これらセグメント領域には1〜Nまでの通し番号が付けられているものとする。上記のように、各セグメント領域には、基準パターン領域上の位置(セグメント領域の中心の位置)とサイズが規定されている。
情報取得装置1のCPU21は、まず、メモリ25に保持されている基準テンプレートから、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値を読み出す(S11)。続いて、CPU21は、変数kに1をセットする(S12)。
次に、CPU21は、メモリ25に保持されている基準テンプレートから、k番目のセグメント領域Skのサイズ(縦横の幅)に関する情報と、セグメント領域Skの位置に関する情報を取得する(S13)。続いて、CPU21は、基準パターン領域に含まれる全画素の画素値と、S13で取得したセグメント領域Skの情報から、探索に用いるドットパターンDkを設定する(S14)。具体的には、CPU21は、基準パターン領域にセグメント領域Skを設定し、基準パターンの全画素の画素値のうち、セグメント領域Skに含まれるドットパターンの画素値を取得し、これを探索用のドットパターンDkとする。
次に、CPU21は、kの値がNに等しいかを判定する(S15)。全てのセグメント領域について探索に用いるドットパターンが設定されて、kの値がNになると(S15:YES)、処理が終了する。他方、kの値がNに到達していないと(S15:NO)、CPU21は、kの値を1増やして(S16)、処理をS13に戻す。こうして、探索に用いるN個のドットパターンが順次設定される。
図10(b)は、実測時における距離検出の処理を示すフローチャートである。かかる処理は、図10(a)の処理により設定された探索用のドットパターンを用いて行われ、図10(a)の処理と並行して行われる。
情報取得装置1のCPU21は、まず、変数cに1をセットする(S21)。次に、CPU21は、実測時に受光したCMOSイメージセンサ123上のドットパターンから、図10(a)のS14で設定したc番目の探索用のドットパターンDcと一致する領域を探索する(S22)。かかる探索は、セグメント領域Scに対応する位置に対して左右方向に所定の幅を有する領域に対して行われる。探索用のドットパターンDcと一致する領域があれば、CPU21は、一致した領域がセグメント領域Scの位置から左右どちらの方向にどれだけの距離を移動したかを検出し、検出した移動方向と移動距離を用いて、三角測量法に基づきセグメント領域Scに位置する物体の距離を算出する(S23)。
次に、CPU21は、cの値がNに等しいかを判定する(S24)。全てのセグメント領域について距離の算出が行われ、cの値がNになると(S24:YES)、処理が終了する。他方、cの値がNに到達していないと(S24:NO)、CPU21は、cの値を1増やして(S25)、処理をS22に戻す。こうして、セグメント領域に対応する検出対象物体までの距離が求められる。
以上、本実施の形態によれば、図9(a)、(b)に示すように、距離検出の精度を高めたい領域において、セグメント領域のサイズが大きく設定され、その他の領域において、セグメント領域のサイズが小さく設定される。これにより、対象物体の距離検出の精度が高められると共に、CPU21の処理量が少なく抑えられる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
たとえば、上記実施の形態では、光検出器として、CMOSイメージセンサ123を用いたが、これに替えて、CCDイメージセンサを用いることもできる。
また、上記実施の形態では、レーザ光源111とコリメータレンズ112をX軸方向に並べ、立ち上げミラー113でレーザ光の光軸をZ軸方向に折り曲げるようにしたが、レーザ光をZ軸方向に出射するようレーザ光源111を配置し、レーザ光源111と、コリメータレンズ112と、DOE114をZ軸方向に並べて配置するようにしても良い。この場合、立ち上げミラー113を省略できるが、投射光学系11の寸法がZ軸方向に大きくなる。
また、上記実施の形態では、図9(a)、(b)に示すように、予め基準パターン領域に対して、セグメント領域のサイズが設定されたが、これに限らず、目標領域における対象物体の検出距離に基づいて、適宜、セグメント領域のサイズを設定するようにしても良い。
図11(a)は、検出距離の変化が大きい領域に対してセグメント領域のサイズが大きく設定される場合の、セグメント領域のサイズを示す模式図である。図示の如く、基準パターン領域の左側付近において、距離検出の結果、対象物体の移動量が大きい(検出距離の変化が大きい)と判断された場合、この領域のセグメント領域のサイズが大きく設定される。
なお、基準テンプレートには、セグメント領域のサイズ(縦横の幅)として、大きいサイズと小さいサイズの2つのサイズが保持されている。測定開始時には、全てのセグメント領域が、小さいサイズに設定される。その後、対象物体の移動量が大きい部分が検出されると、この部分に対応するセグメント領域のサイズが、大きいサイズに変更される。この部分の移動量が小さくなると、この部分に対応するセグメント領域のサイズが小さいサイズに戻される。
図11(b)は、対象物体の移動量を判定する際に用いられる検出距離情報を模式的に示す図である。検出距離情報は、メモリ25に記憶される。
メモリ25には、検出距離情報として、1/60秒ごとにCMOSイメージセンサ123によって撮像される画像(フレーム)ごとに、図10(b)の処理によって取得される距離が60回分記憶される。すなわち、セグメント領域Scについて、1秒間に距離Fc(1)〜Fc(60)が記憶される。また、検出距離情報には、前回のフレーム60の距離Fc(0)が含められる。なお、装置が起動された直後は、前回のフレーム60の距離の値は、たとえば0に設定される。
フレーム1〜60までの距離が取得されると、前回のフレーム60の距離と、フレーム1〜60の距離に基づいて、変化量の平均値が取得される。すなわち、セグメント領域Scについて、まず、変化量の和が、{Fc(1)−Fc(0)}+{Fc(2)−Fc(1)}+{Fc(3)−Fc(2)}+… +{F(60)−F(59)}により求められる。かかる変化量の和を60で除算することにより、変化量の平均値Vcが取得される。こうして得られた各セグメント領域の変化量の平均値のうち、所定値以上となるセグメント領域が、検出距離に変化が大きい領域であると判定される。
図12は、この場合のセグメント領域の再設定の処理を示すフローチャートである。ここでは、図11(b)の場合と同様、距離の測定が1/60秒ごとに行われる。
情報取得装置1のCPU21は、まず、変数fに1をセットする(S31)。続いて、CPU21は、図10(b)に示す処理に従って、各セグメント領域に対応する対象物体までの距離を算出する(S32)。CPU21は、S32で得られた各セグメント領域に対応する対象物体までの距離を、fの値に合わせてメモリ25内の検出距離情報に記憶する(S33)。たとえば、fの値が1であるとき、図11(b)に示す検出距離情報にF1(1)〜FN(1)が記憶される。距離が得られなかった(エラーとなった)セグメント領域に対しては、1回前(fの値が一つ小さい)に当該セグメント領域について記憶された距離が記憶される。
次に、CPU21は、fの値が60に等しいかを判定する(S34)。fの値が60に到達していないと(S34:NO)、CPU21は、fの値を1増やして(S35)、処理をS32に戻す。他方、繰り返し距離の算出が行われ、fの値が60になると(S34:YES)、処理がS36に進められる。
S34でYESと判定されると、CPU21は、図11(b)を参照して説明したように、各セグメント領域の変化量の平均値V1〜VNを算出する(S36)。続いて、CPU21は、変化量の平均値V1〜VNのうち、所定値以上となったセグメント領域のサイズが大きくなるよう設定し、所定値未満となったセグメント領域のサイズが小さくなるよう設定する(S37)。かかる設定は、基準テンプレートに保持されたセグメント領域の2つのサイズ(縦横の幅)の何れかを適用することにより行われる。たとえば、変化量の平均値が所定値以上となったセグメント領域のサイズが15×15画素に設定され、変化量の平均値が所定量未満となったセグメント領域のサイズが7×7画素に設定される。
このように、セグメント領域の再設定の処理(S31〜S37)が繰り返し行われることにより、移動量が大きい対象物体に対する距離検出の精度が高められ、且つ、CPU21の処理量が少なく抑えられる。
なお、図12の処理では、セグメント領域のサイズを2段階に切り替えたが、セグメント領域のサイズを、変化量の平均値の大きさに応じて3段階以上に切り替えても良い。また、変化量の平均値の他、所定期間の変化量の合計値等、変化量を示す他の値を用いても良い。
また、図11(c)に示すように、距離検出の結果から目標領域に人がいると判定される場合に、この領域に対応するセグメント領域のサイズが大きく設定され、他の領域に対応するセグメント領域のサイズが小さく設定されても良い。
また、上記実施の形態および変更例では、セグメント領域のサイズが段階的に変化するように設定されたが、これに限らず、リニアに変化するように設定されても良い。
たとえば、図9(a)に替えて、図13(a)に示すように、基準パターン領域の左右方向の中央部においてセグメント領域のサイズが最も大きくなるように設定し、基準パターン領域の左右の端部に向かうに従ってセグメント領域のサイズが小さくなるように設定しても良い。また、図9(b)に替えて、図13(b)に示すように、基準パターン領域の中心においてセグメント領域のサイズが最も大きくなるように設定し、同心円状に中心から離れるに従ってセグメント領域のサイズが小さくなるように設定しても良い。
また、図11(a)に替えて、図13(c)に示すように、変化量の平均値の大小に合わせて、セグメント領域のサイズがリニアに設定されるようにしても良い。また、図11(c)に替えて、図13(d)に示すように、目標領域に人がいると判定される場合に、この領域の近傍範囲において、中心から端部に向かうに従ってセグメント領域のサイズが小さく設定されるようにしても良い。
また、上記実施の形態では、目標領域の左右方向の中央部に対して距離検出の精度を高めたい場合に、図9(a)に示すように、基準パターン領域の中央部の上下方向に延びた領域において、セグメント領域のサイズが大きくなるよう設定された。しかしながら、これに限らず、目標領域の上下方向の中央部または対角方向に延びる領域に対して距離検出の精度を高めたい場合には、図14(a)または(b)に示すように、基準パターン領域の上下方向の中央部または対角方向に延びる領域において、セグメント領域のサイズが大きくなるよう設定されても良い。
また、目標領域の中央部に対して距離検出の精度を高めたい場合に、図9(b)の例では、基準パターン領域の中央の円形状領域において、セグメント領域のサイズが大きくなるよう設定された。しかしながら、これに限らず、目標領域の中央部に位置付けられる対象物体が所定の形状を有することが多い場合、かかる対象物体の形状に応じてセグメント領域のサイズの大きい領域が設定されても良い。たとえば、対象物体の形状が上下方向に長い楕円形状である場合、セグメント領域のサイズが、図14(c)に示すように、楕円形状に中心から離れるに従って段階的に小さくなるよう設定されても良い。また、対象物体の形状が上下方向に延びた方形状である場合、セグメント領域のサイズが、図14(d)に示すように、上下方向に延びた方形状に中心から離れるに従って段階的に小さくなるよう設定されても良い。
また、上記実施の形態では、図6(c)に示すように、各セグメント領域は互いに1画素ずれた状態で重なり合うよう設定されたが、これに限らず、たとえば、複数画素ずれた状態で重なり合うよう設定されても良い。また、各セグメント領域は、左右方向と上下方向のうち一方の方向のみ重なり合うよう設定されても良く、隣り合うセグメント領域が全く重なり合わないよう設定されても良い。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 情報取得装置
11 投射光学系
12 受光光学系
21 CPU(距離取得部)
21b 3次元距離演算部(距離取得部)
23 撮像信号処理回路(距離取得部)
111 レーザ光源
112 コリメータレンズ
114 DOE(回折光学素子)
121 フィルタ
122 撮像レンズ(集光レンズ)
123 CMOSイメージセンサ(撮像素子)

Claims (3)

  1. 光を用いて目標領域の情報を取得する情報取得装置において、
    前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
    前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、
    基準面により反射され前記受光光学系により撮像された基準ドットパターンにセグメント領域を設定し、距離測定時に目標領域を撮像して取得された撮像ドットパターンと前記各セグメント領域内のドットとを照合することにより、前記目標領域に存在する物体までの距離を取得する距離取得部とを備え、
    前記距離取得部は、実測時に各測定位置について距離の変化度合を取得し、前記距離の変化度合が閾値以上の測定位置に対応する前記セグメント領域のサイズを、前記距離の変化度合が前記閾値未満の測定位置に対応する前記セグメント領域のサイズよりも、大きくなるよう設定する、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記投射光学系は、
    レーザ光源と、
    前記レーザ光源から出射されたレーザ光が入射するコリメータレンズと、
    前記コリメータレンズを透過した前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備え、
    前記受光光学系は、
    撮像素子と、
    目標領域からの前記レーザ光を前記撮像素子に集光する集光レンズと、
    前記レーザ光の波長帯域の光を抽出して前記撮像素子に導くためのフィルタと、を備える、
    ことを特徴とする情報取得装置。
  3. 請求項1またはに記載の情報取得装置を有する物体検出装置。
JP2012529036A 2011-04-28 2012-04-06 情報取得装置および物体検出装置 Expired - Fee Related JP5214062B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012529036A JP5214062B1 (ja) 2011-04-28 2012-04-06 情報取得装置および物体検出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011101666 2011-04-28
JP2011101666 2011-04-28
JP2012529036A JP5214062B1 (ja) 2011-04-28 2012-04-06 情報取得装置および物体検出装置
PCT/JP2012/059449 WO2012147495A1 (ja) 2011-04-28 2012-04-06 情報取得装置および物体検出装置

Publications (2)

Publication Number Publication Date
JP5214062B1 true JP5214062B1 (ja) 2013-06-19
JPWO2012147495A1 JPWO2012147495A1 (ja) 2014-07-28

Family

ID=47072019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012529036A Expired - Fee Related JP5214062B1 (ja) 2011-04-28 2012-04-06 情報取得装置および物体検出装置

Country Status (4)

Country Link
US (1) US20130002860A1 (ja)
JP (1) JP5214062B1 (ja)
CN (1) CN102859320A (ja)
WO (1) WO2012147495A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294758B2 (en) 2013-04-18 2016-03-22 Microsoft Technology Licensing, Llc Determining depth data for a captured image
KR101386248B1 (ko) * 2013-09-09 2014-04-17 재단법인 실감교류인체감응솔루션연구단 공간 제스처 인식 장치 및 방법
JP2016075653A (ja) * 2014-10-09 2016-05-12 シャープ株式会社 画像認識処理装置及びプログラム
JP6547366B2 (ja) * 2015-03-27 2019-07-24 セイコーエプソン株式会社 インタラクティブプロジェクター
WO2018030319A1 (ja) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 測距システム、および、移動体システム
CN106251810B (zh) * 2016-08-19 2019-09-27 深圳市华星光电技术有限公司 Amoled显示屏驱动方法、驱动电路及显示装置
CN108226939B (zh) * 2016-12-22 2022-03-08 异奇科技股份有限公司 通过绕射光学元件产生激光图案的路径侦测***及其方法
US10789727B2 (en) * 2017-05-18 2020-09-29 Panasonic Intellectual Property Corporation Of America Information processing apparatus and non-transitory recording medium storing thereon a computer program
US11155226B2 (en) * 2018-08-17 2021-10-26 Veoneer Us, Inc. Vehicle cabin monitoring system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JP2001184497A (ja) * 1999-10-14 2001-07-06 Komatsu Ltd ステレオ画像処理装置及び記録媒体
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
JP2007218922A (ja) * 2007-03-27 2007-08-30 Topcon Corp 画像測定装置
WO2008041518A1 (fr) * 2006-10-02 2008-04-10 Konica Minolta Holdings, Inc. Dispositif de traitement d'images, procédé de commande pour un dispositif de traitement d'images et programme de commande pour un dispositif de traitement d'images
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009092551A (ja) * 2007-10-10 2009-04-30 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
JP2011022072A (ja) * 2009-07-17 2011-02-03 Nikon Corp 位置検出装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0615968B2 (ja) * 1986-08-11 1994-03-02 伍良 松本 立体形状測定装置
US4967093A (en) * 1988-06-22 1990-10-30 Hamamatsu Photonics Kabushiki Kaisha Deformation measuring method and device using cross-correlation function between speckle patterns with reference data renewal
US4948258A (en) * 1988-06-27 1990-08-14 Harbor Branch Oceanographic Institute, Inc. Structured illumination surface profiling and ranging systems and methods
US5075562A (en) * 1990-09-20 1991-12-24 Eastman Kodak Company Method and apparatus for absolute Moire distance measurements using a grating printed on or attached to a surface
JP3357210B2 (ja) * 1995-02-03 2002-12-16 株式会社日立国際電気 自動焦点検出方法
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
US6125197A (en) * 1998-06-30 2000-09-26 Intel Corporation Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
FR2830079B1 (fr) * 2001-09-26 2004-04-30 Holo 3 Procede et dispositif de mesure d'au moins une grandeur geometrique d'une surface optiquement reflechissante
AU2003245628A1 (en) * 2002-06-19 2004-01-06 Canesta, Inc. System and method for determining 3-d coordinates of a surface using a coded array
JP4352808B2 (ja) * 2002-09-18 2009-10-28 セイコーエプソン株式会社 プレビュー装置、電子機器および画像形成装置
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
WO2007043036A1 (en) * 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
JP2007187956A (ja) * 2006-01-16 2007-07-26 Matsushita Electric Ind Co Ltd 画像出力装置、出力画像制御方法および出力画像制御プログラム
JP5174684B2 (ja) * 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
CN101801672B (zh) * 2007-08-14 2013-07-03 株式会社理光 图像处理装置、图像形成装置和图像处理方法
US8649025B2 (en) * 2010-03-27 2014-02-11 Micrometric Vision Technologies Methods and apparatus for real-time digitization of three-dimensional scenes
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JP2001184497A (ja) * 1999-10-14 2001-07-06 Komatsu Ltd ステレオ画像処理装置及び記録媒体
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
WO2008041518A1 (fr) * 2006-10-02 2008-04-10 Konica Minolta Holdings, Inc. Dispositif de traitement d'images, procédé de commande pour un dispositif de traitement d'images et programme de commande pour un dispositif de traitement d'images
JP2007218922A (ja) * 2007-03-27 2007-08-30 Topcon Corp 画像測定装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009092551A (ja) * 2007-10-10 2009-04-30 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
JP2011022072A (ja) * 2009-07-17 2011-02-03 Nikon Corp 位置検出装置

Also Published As

Publication number Publication date
WO2012147495A1 (ja) 2012-11-01
JPWO2012147495A1 (ja) 2014-07-28
US20130002860A1 (en) 2013-01-03
CN102859320A (zh) 2013-01-02

Similar Documents

Publication Publication Date Title
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5138116B2 (ja) 情報取得装置および物体検出装置
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
US20130050710A1 (en) Object detecting device and information acquiring device
WO2014108976A1 (ja) 物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
JP2014044113A (ja) 情報取得装置および物体検出装置
JP5138115B2 (ja) 情報取得装置及びその情報取得装置を有する物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
WO2012026180A1 (ja) 情報取得装置および物体検出装置
JP2013246009A (ja) 物体検出装置
JP2014021017A (ja) 情報取得装置および物体検出装置
JP2014085257A (ja) 情報取得装置および物体検出装置
JP2014194341A (ja) 物体検出装置および情報取得装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
JP2013234956A (ja) 情報取得装置および物体検出装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
JP2014085282A (ja) 情報取得装置および物体検出装置
JP2014035304A (ja) 情報取得装置および物体検出装置
JP5138120B2 (ja) 物体検出装置および情報取得装置
JP2013234957A (ja) 情報取得装置および物体検出装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees