JP5145585B2 - 物標検出装置 - Google Patents

物標検出装置 Download PDF

Info

Publication number
JP5145585B2
JP5145585B2 JP2007152291A JP2007152291A JP5145585B2 JP 5145585 B2 JP5145585 B2 JP 5145585B2 JP 2007152291 A JP2007152291 A JP 2007152291A JP 2007152291 A JP2007152291 A JP 2007152291A JP 5145585 B2 JP5145585 B2 JP 5145585B2
Authority
JP
Japan
Prior art keywords
target
parallax
acquisition means
image
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007152291A
Other languages
English (en)
Other versions
JP2008304344A (ja
Inventor
振程 胡
圭一 内村
哲元 陸
Original Assignee
国立大学法人 熊本大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 熊本大学 filed Critical 国立大学法人 熊本大学
Priority to JP2007152291A priority Critical patent/JP5145585B2/ja
Publication of JP2008304344A publication Critical patent/JP2008304344A/ja
Application granted granted Critical
Publication of JP5145585B2 publication Critical patent/JP5145585B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、レーザレーダと、ステレオカメラまたは光飛行時間型距離センサとを利用して物標を検出する物標検出装置に関する。
自動車社会の交通事故、交通渋滞、燃料消費、排気ガスなどの問題を解決するために、自動車に高度な知能を持たせ、ドライバーによる自動車の運転を支援し自動化することにより、安全で、円滑で、環境に調和した自動車交通が実現できる可能性がある。このような自動車の知能化、安全化システムが活発に研究開発されている。
歩行者検出は、自動車の予防安全(アクティブセーフティー)における重要な基盤技術である。歩行者を事前に検出できれば、自動車と歩行者とが衝突する前に自動車の速度を下げたり、歩行者を保護する装置を動作させたり、歩行者の傷害の度合いを軽減することが可能となる。また、自動車の周囲に歩行者がいるような道路環境では、歩行者事故の危険が伴う自動追従機能を停止させ、ドライバー主体の運転に切り替えることも可能となる。
従来では、レーダや超音波などの車載センサを用いた障害物の検出、車間距離保持などのシステムが研究開発され、また画像センサを使用した白線認識や先行車両検出などの技術が実用化しつつある。しかし、レーダセンサは対象物(歩行者、自転車、看板、停止車両等)を区分できず、走行環境認識技術に乏しいという問題がある。さらに、検出領域が狭いので、隣接車線からの追い越し車両やカーブ路の先行車両などに対しての計測は困難である。一方、画像センサは検出対象が車両であるのか、歩行者であるのか、それが自車線上に存在するのかなどの対象認識機能において優れているが、相対距離、相対速度の検出精度が低い。
このような単一センサの欠点を補うため、従来ではセンサフュージョンによる障害物認識に関して様々な研究が行われてきた。センサ類別としては、ミリ波レーダ、レーザレーダ、超音波センサ、単眼視カメラセンサ、ステレオカメラセンサなどが挙げられる。
例えば、特許文献1の技術は、ミリ波レーダとステレオカメラによる画像取得手段を備えている。この技術では、まず、ミリ波レーダから出力されるパワーに基づいて画像認識エリアを特定する。次に、その特定された画像認識エリアのみに限定して物体検出のためのエッジ検出、視差計算等の画像処理を実行し、画像処理時間を短縮しようとするものである。
また、特許文献2の技術は、車両周囲の物体の存在を検出するレーダの出力に基づいて車両走行における障害物を検出し、それらを撮影するステレオカメラによりレーダで検出した障害物の判断基準値を変更する判断基準値変更手段を備えている。これにより、障害物の存在可能性に基づいて、判断基準値を変更し適切な障害物認識を可能としている。
また、特許文献3の技術では、カメラとレーダから取得できる可能な限りの多くの情報を用いることで、誤認識を排除し、より高精度なセンサフュージョンを行っている。まず、ステレオ画像とミリ波レーダでの情報により、各センサでのフュージョン立体物を設定する。また、互いのセンサで取得した立体物の同一確率を演算し、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物を決定する。次に、フュージョン立体確認部では、画像立体物単体のフュージョン立体物、ミリ波立体物単体のフュージョン立体物、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物の全ての立体物に判定を行い、画像情報を基に予め定めておいた横方向の応答性遅れによるゴースト判定、壁反射によるマルチパスによるゴースト判定、および、先行車からの反射波によるゴースト判定の条件を満たすミリ波立体物単体のフュージョン立体物を虚像であると判断する。この虚像との判定結果は設定時間維持され、このようにして虚像と判断された立体物は、その後の制御対象からは除かれる。
また、特許文献4の技術では、ステレオセンサを用いて、世界座標系における対象物表面上の点の3次元座標を算出する。Z軸方向への投影点の個数の加算を行って、均等間隔格子占有マップにおいて点の個数の特徴量を求める。また、特徴量を用いて人物が存在するかどうかを判定する。
また、特許文献5の技術では、上記の分解能問題に対して、物体表面上の測定点を所定の水平平面または鉛直平面にそれぞれ投影し、水平平面または鉛直平面内のそれぞれに予め定義されたセンサの測定分解能より粗いグリッドセル内の測定点の数を累積することによって、3次元ヒストグラムの2値化によってクラスタリング処理を施し、障害物マップを生成する。
また、特許文献6の技術では、障害物の特性と検出装置の特性を考慮した障害物の判定を行い、対象物の正確な判定を可能としている。対向車、先行車のように比較的速度の高い物体はレーダの認識結果を用いることで、雨天や霧等で視界が悪い状態でも遠方からこれらを判別することができる。また、静止物(低速移動物を含む。)についてはレーダと画像認識双方で認識した物体のみを障害物と判定することで、システムからみた不要検出を防止する。歩行者については、レーダで検出することが難しいことから、画像認識結果を用いて判定することで検出が行えるようにする。歩行者、特に人体、着衣等はミリ波に対する反射特性が望ましいとはいえないので、ミリ波レーダで安定して検出することが難しい。一方、画像認識手段では安定して検出することが可能である。そのため、ミリ波による捕捉を行えず、画像認識のみで認識を行えたものを、単独画像物標として確保する。さらに、その物標自体に対して移動速度と大きさによる判定を行う。例えば、走行速度10km/h未満で、高さが50〜250cm、幅50cm以下などの設定を満たす場合は歩行者と判定する。また、ミリ波、画像両者で検出された物体に関しては、障害物とすることで、誤検出を抑制する。この技術では、ミリ波レーダと画像のどちらか片方で検出した場合に対しては、それらセンサの特性を用いて対象物識別を行うことで、ミリ波と画像のそれぞれの長所、短所を生かしたセンサフュージョンを行うことができる。
特開2001−296357号公報 特開2005−345251号公報 特開2006−047057号公報 特開2006−236025号公報 特開2001−242934号公報 特開2005−202878号公報
しかし、特許文献1の技術では、歩行者のようなミリ波レーダ信号が反射しにくい対象物への検出と認識が困難となる。また、特許文献2の技術は、路上における障害物の存在のみを認識するものであり、歩道や路側帯に存在する歩行者等を対象としていない。特許文献3の技術では、各センサの検出精度を考慮せず単純な組み合わせを行うため、遠方にある障害物の検出が困難である。また、レーダセンサの分解能より、互いに近接する障害物同士の分離ができない。特許文献4の技術では、三角測量の原理によってステレオ視の分解能は距離に反比例するので、遠距離にある対象物の占有マップへの投影精度が低下し発散してしまう。特許文献5の技術では、特許文献4の技術と同様、遠距離にある対象物の投影が発散し、対象物同士の領域が占有マップ上につながってしまい、容易に分割できない。特許文献6の技術では、単独画像物標として、高い精度で認識するには、赤外線画像、ステレオ視等の使用し、より多くの情報が必要となり、コストの増加や、演算時間の増加が問題となる。
本発明はかかる問題点に鑑みてなされたものであり、その第1の目的は、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することの可能な物標検出装置を提供することにある。また、第2の目的は、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することの可能な物標検出装置を提供することにある。
本発明の第1の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方のステレオ画像を取得するステレオカメラと、レーザレーダで取得したレーダ情報およびステレオカメラで取得したステレオ画像を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(A1)〜(A7)の各手段を有している。
(A1)レーダ情報と、ステレオ画像と、レーダ情報から導出された第1視差と、ステレオ画像から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補のステレオ画像上の位置および幅ならびに高さを導出すると共に、ステレオカメラにおける3次元座標系の3次元座標とをステレオ画像の画素ごとに導出する位置等取得手段
(A2)位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像をステレオ画像から切り出すと共に、切り出した2次元画像から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを修正する位置等修正手段
(A3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(A4)種類判別手段および物標追跡手段で種類が判別された各物標候補のステレオ画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(A5)新たに取得したステレオ画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得したステレオ画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを修正すると共に、特定物標のステレオカメラにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を新たに取得したステレオ画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得したステレオ画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(A6)物標リストにおいて、物標追跡手段で導出された特定物標のステレオ画像上の位置および幅と、高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(A7)新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
本発明の第1の物標検出装置では、物標を検出するために、ステレオカメラの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第1部分画像を用いて、位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さが修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補が背景画像に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、各物標候補の経時変化を追跡する際に、物標候補の位置および幅と、高さと、前記ステレオカメラにおける3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。また、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で切り出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。これにより、新たに取得したステレオ画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。
本発明の第2の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、レーザレーダで取得したレーダ情報および光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(B1)〜(B7)の各手段を有している。
(B1)レーダ情報と、単一画像と、レーダ情報から導出された第1視差と、単一画像および被写体までの距離から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補の単一画像上の位置および幅ならびに高さを導出すると共に、光飛行時間型距離センサにおける3次元座標系の3次元座標とを単一画像の画素ごとに導出する位置等取得手段
(B2)位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像を単一画像から切り出すと共に、切り出した2次元画像およびこれに対応する被写体までの距離から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像およびこれに対応する被写体までの距離から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを修正する位置等修正手段
(B3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(B4)種類判別手段および物標追跡手段で種類が判別された各物標候補の単一画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(B5)新たに取得した単一画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得した単一画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得した単一画像上の位置および幅ならびに高さを修正すると共に、特定物標の光飛行時間型距離センサにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得した単一画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を前記新たに取得した単一画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得した単一画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(B6)物標リストにおいて、物標追跡手段で導出された特定物標の単一画像上の位置および幅と、高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(B7)新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
本発明の第2の物標検出装置では、物標を検出するために、光飛行時間型距離センサの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第1部分画像を用いて、位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さが修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補が背景画像に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、各物標候補の経時変化を追跡する際に、物標候補の位置および幅と、高さと、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。また、相関性が高いと評価された場合には、新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。これにより、新たに取得した単一画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得した単一画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。
本発明の第3の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方のステレオ画像を取得するステレオカメラと、レーザレーダで取得したレーダ情報およびステレオカメラで取得したステレオ画像を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(C1)〜(C9)の各手段を有している。
(C1)ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得する第1位置情報取得手段
(C2)ステレオ画像における各画素を、ステレオ画像から導出された第2視差およびステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差およびステレオ画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、ステレオ画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(C3)直線L1と直線L2との交差点のx座標Vを導出し、このx座標Vと、ステレオカメラの焦点距離fとを用いてステレオカメラの俯角αを導出する俯角情報取得手段
(C4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(C5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、ステレオ画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(C6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(C7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差とステレオカメラにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(C8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(C9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補のステレオ画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅をステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
本発明の第3の物標検出装置では、物標を検出するために、ステレオカメラの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第2視差をx軸とし、ステレオ画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理することにより得られた直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差がゼロに補正される。これにより、路面視差が削除されるので、物標候補が背景画像である路面に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、直線L1と直線L2との交差点のx座標Vと、ステレオカメラの焦点距離fとを用いて導出されたステレオカメラの俯角αを利用してレーダ情報が補正される。これにより、レーダ情報を、第1視差や、ステレオカメラにおける3次元座標系の3次元座標に変換する際に誤差が生じることをなくすることができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、占用度情報取得手段で得られた各物標候補の存否が判定される。ここで、xy平面における奥行き情報は視差で表されているので、遠方において誤差の発散が生じることがない。
本発明の第4の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、レーザレーダで取得したレーダ情報および光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(D1)〜(D9)の各手段を有している。
(D1)光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得する第1位置情報取得手段
(D2)単一画像における各画素を、単一画像および被写体までの距離から導出された第2視差および単一画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および単一画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、単一画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(D3)直線L1と直線L2との交差点のx座標Vを導出し、このx座標Vと、光飛行時間型距離センサの焦点距離fとを用いて光飛行時間型距離センサの俯角αを導出する俯角情報取得手段
(D4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(D5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、単一画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(D6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(D7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(D8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(D9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の単一画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
本発明の第4の物標検出装置では、物標を検出するために、光飛行時間型距離センサの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第2視差をx軸とし、単一画像の縦座標をy軸としセルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化することにより得られた直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差がゼロに補正される。これにより、路面視差が削除されるので、物標候補が背景画像である路面に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、直線L1と直線L2との交差点のx座標Vと、光飛行時間型距離センサの焦点距離fとを用いて導出された光飛行時間型距離センサの俯角αを利用してレーダ情報が補正される。これにより、レーダ情報を、第1視差や、光飛行時間型距離センサにおける3次元座標系の3次元座標に変換する際に誤差が生じることをなくすることができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否が判定される。ここで、xy平面における奥行き情報は視差で表されているので、遠方において誤差の発散が生じることがない。
本発明の第1の物標検出装置によれば、物標を検出するために、ステレオカメラの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差において特定物標を削除するようにしたので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士がステレオ画面上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。従って、本発明では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。
本発明の第2の物標検出装置によれば、物標を検出するために、光飛行時間型距離センサの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、相関性が高いと評価された場合には、新たに取得した単一画像および被写体までの距離から導出された第2視差において特定物標を削除するようにしたので、特定物標を、新たに取得した単一画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士が単一画像上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。従って、本発明では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。
本発明の第3の物標検出装置によれば、物標を検出するために、ステレオカメラの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否を判定するようにしたので、遠方において誤差の発散が生じることがない。従って、本発明では、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することができる。
本発明の第4の物標検出装置によれば、物標を検出するために、光飛行時間型距離センサの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否を判定するようにしたので、遠方において誤差の発散が生じることがない。従って、本発明では、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することができる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係るセンサフュージョン(物標検出装置)の概略構成を表したものである。このセンサフュージョンは、自動車やバイクなどの前方走行車や、歩行者、障害物などの物標を検出するシステムであり、例えば、自動車Cに搭載されるものである。
このセンサフュージョンは、レーザレーダ1、ステレオカメラ2、制御部3、記憶部4を備えている。
制御部3は、例えば、DSP(Digital Signal Processor)などにより構成され、ダレーザレーダ1およびステレオカメラ2によって得られた情報を処理して自動車Cの前方の物標の位置や種類などを所定の演算により特定するようになっている。記憶部4は、例えば、RAM(Random Access Memory)およびHD(hard disk)からなり、記憶部4には、センサフュージョンを校正するためのプログラムや、物標を検出するためのプログラムなどが格納されており、制御部3で得られた演算結果(例えば後述の物標リストなど)などが随時格納される。
レーザレーダ1は、例えば自動車Cのバンパの中央部分などに取り付けられており、自動車Cの前方にレーザ光を放射すると共に、自動車Cの前方に放射したレーザ光の反射光を検出し、さらに、検出した反射光から自動車Cの前方に存在する物標の方位θ、距離dおよび相対速度vなどを計測するようになっている。
なお、一般に、レーザレーダは、ミリ波レーダに比べて高い検知能力を有しており、歩行者等の電波を反射しにくい物標についても測定可能である。また、視野角、分解能、追従性についても、一般に、レーザレーダの方がミリ波レーダよりも優れている。また、コストについても、一般に、レーザレーダの方がミリ波レーダよりも安価である。そこで、本実施の形態では、歩行者の検知と、コストとを重視してレーザレーダ1を用いる。
ステレオカメラ2は、右カメラ21および左カメラ22を備えている。右カメラ21および左カメラ22は、例えば、電荷結合素子(CCD)からなり、例えば自動車Cのフロントガラスの内壁であって、互いに所定の間隔を隔てると共に、路面から同じ高さのところに取り付けられている。これにより、このステレオカメラ2は、自動車Cの前方を互いに異なる視点から撮影して、右カメラ21で撮影された2次元画像と左カメラ22で撮影された2次元画像とからなるステレオ画像を取得するようになっている。なお、右カメラ21および左カメラ22の光軸が互いに平行となっており、かつ各々の画像面が同一平面上にあることが好ましい。
次に、本実施の形態のセンサフュージョンにおける物標の検出方法について説明する。
図2は、記憶部4に格納されている、物標を検出するためのプログラムによって実行される各機能ブロックを表したものであり、図3は、図2に表された各機能のうち位置等取得手段10に含まれる各機能ブロックを表したものである。
まず、図2、図3に表した各機能ブロックについて説明する前に、(1)ステレオカメラ2およびレーザレーダ1の3次元座標系と、(2)占有フュージョンマップ(OFM:Occupancy Grid Map)と、(3)U−Disparity平面およびV−Disparity平面とについて説明する。
(ステレオカメラ2およびレーザレーダ1の3次元座標系)
例えば、自動車Cの前方の物標T上の微小領域が右カメラ21の画面上の2次元座標(Xr,Yr)に投影されると共に、左カメラ22の画面上の2次元座標(Xl,Yl)に投影されたとする。このとき、これらの2次元座標(Xr,Yr),(Xl,Yl)を、ステレオカメラ2の3次元座標系の3次元座標(X,Y,Z)に変換する際には次の式(1)〜(4)を用いる。
X=((Xl+Xr)/2)×(L/dc)…(1)
Y=Yl×L/dc…(2)
Z=f×L/dc…(3)
dc=Xl−Xr…(4)
ここで、dc(=Xl−Xr)が左右画像間のずれであり、両眼視差(または単に視差)という。Lはステレオカメラ2の基線長、すなわち、右カメラ21および左カメラ22のそれぞれの中心位置間の距離である。fはステレオカメラ2の焦点距離である。これらLおよびfは既知の値であるので、上の式(1)〜(4)により、左右画像上の投影座標から、上記微小領域の3次元座標(X,Y,Z)を求めることが出来る。また、ステレオカメラ2の3次元座標系の原点は、右カメラ21および左カメラ22のそれぞれの中心位置間の中点となっている。なお、式(3)から、奥行きZcについては視差がわかれば計算により求めることができる。このように,ステレオ画像の視差dcから奥行きZcを求め、物標の3次元空間における位置を検出する方法をステレオ視という。
また、自動車Cの前方の物標T上の微小領域がレーザレーダ1によって捕らえられたとする。このとき、レーザレーダ1が受信したレーダ情報(θ,dc,v)をレーダ座標系の3次元座標(Xm,Ym,Zm)へ変換する際には以下の式(5)〜(7)を用いる。
Xm=dc×sinθ…(5)
Ym=dc×cosθ×sinξ…(6)
Zm=dc×cosθ…(7)
ここで、ξはレーザレーダ1の俯角である。なお、レーザレーダ1の3次元座標系の原点は、レーザレーダ1の中心位置となっている。
上記したように、レーザレーダ1およびステレオカメラ2のそれぞれの3次元座標系の原点は、これらレーザレーダ1およびステレオカメラ2の設置する場所の違いに起因して多少ずれている。しかし、そのずれを補正する変換行列Nを用いることにより、レーダ座標系の3次元座標(Xm,Ym,Zm)をステレオカメラ2の3次元座標系の3次元座標(X,Y,Z)へ変換することができる。このとき用いる式を以下に示す。
λ×[X,Y,Z]=N[Xm,Ym,Zm]…(8)
ここで、λは斎次カメラ座標系用係数である。また、変換行列Nは、レーザレーダ1およびステレオカメラ2に対してキャリブレーションを行うことにより算出することができる。
(占有フュージョンマップ(OFM))
OFMは、一般的には、物標表面の各点の3次元座標に基づいて測定点を水平平面に投影し、座標軸を等間隔で区切ることにより水平平面内内に形成される格子状に配置されたセル内に投影される測定点の数を累積することによって得られるものであり、このOFMに対してクラスタリング処理を行うことにより物標を抽出することができる。
もっとも、従来、OFMを取得する際には、水平平面を投影用フュージョンマップとして用いていたため、セルに投影し加算する際に、ステレオ視の遠近誤差の相違に起因して遠方で発散したり、ステレオカメラ単独で物標の位置を計測した場合には遠方の障害物領域を特定しにくくなり、また、物標同士の領域がつながり易く物標同士を分割しにくいという問題があった。そこで、本実施の形態では、OFMを取得する際に、U−Disparity平面を投影用フュージョンマップとして用いる。
(U−Disparity平面およびV−Disparity平面)
このX−Disparity平面とは、横軸xをステレオカメラ2の3次元座標系の横座標とし、縦軸yを視差とするxy平面のことである(図5(A),(B)、図6(A),(B)参照)。座標軸を等間隔で区切ることによりこのxy平面内に形成される格子状に配置されたセルは、実世界では縦軸y方向において不均等なサイズを持っている。そのため、自動車Cに近づくほど、解像度が大きくなり、実サイズが小さくなる。
上記X−Disparity平面の他に、V−Disparity平面というxy平面もある。このV−Disparity平面とは、横軸xを視差とし、縦軸yをステレオカメラ2の3次元座標系の縦座標とするxy平面のことである(図4(A),(B)参照)。
これらU−Disparity平面およびV−Disparity平面上にステレオ画像から導出された視差画像を投影することにより、3次元分布を直線で表現できるため、3次元分布の解析が簡単になる。
次に、図2を参照して、物標の検出方法について説明する。
まず、制御部3は、レーザレーダ1からレーダ情報A0を取得すると共に、ステレオカメラ2からステレオ画像B0を取得したのち、レーダ情報A0から第1視差C0を導出すると共に、ステレオ画像B0から第2視差D0を導出する。
次に、位置等取得手段10において、レーダ情報A0と、ステレオ画像B0と、第1視差C0と、第2視差D0または後述の視差修正手段80で修正された後の第2視差E0とから各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を導出すると共に、ステレオカメラ2における3次元座標系の3次元座標J0とをステレオ画像B0の画素ごとに導出する。
次に、位置等修正手段20において、位置等取得手段10で導出された各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を利用して各物標候補領域の2次元画像K0をステレオ画像B0から切り出すと共に、切り出した2次元画像K0から導出される視差を第2視差D0から切り出す。
次に、切り出した2次元画像B0のうち、第2視差D0のうち当該切り出した2次元画像B0から導出された視差と第1視差A0のうち当該切り出した2次元画像B0に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像N0を用いて、位置等取得手段10で導出された各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を修正して、新たな位置F1および幅G1ならびに高さH1を取得する。
次に、種類判別手段30において、位置等修正手段20で切り出された2次元画像K0または第1部分画像N0を用いて各物標候補Tの種類P0を判別する。
例えば、物標候補Tが歩行者であるか否かを判定する初期判定として、例えばモデルマッチングを行う。例えば、典型的な歩行者の輪郭およびその対称輪郭のセットを複数種類用意し、さらに各セットの遠近中の輪郭のセットも用意し、これらを用いてエッジベースのモデルマッチングを行うことで初期判定を行う。その結果、マッチング率が高かった物標候補Tについては、物標追跡手段60にまわし、マッチング率があまり高くなかった物標候補Tについては、次の詳細判定にまわし、マッチング率が低かった物標候補Tについては、削除する。なお、初期判定において、第1部分画像N0を用いた場合には、背景による影響をなくすることができるので、その分だけマッチング率を向上させることができる。
詳細判定では、例えば、2次元画像K0または第1部分画像N0の各ピクセルのエッジの大きさと方向を用いて識別を行う。具体的には、それぞれのエッジにおける歩行者である確率と非歩行者である確率を用いて、画像全体での歩行者である確率と非歩行者である確率を算出し、その比率により歩行者の識別を行うことが可能である。
次に、物標リスト登録手段40において、種類判別手段30で種類が判別された各物標候補Tのステレオ画像B0上の位置F1および幅G1と、高さH1と、種類P0と、物標候補領域の2次元画像K0と、ステレオカメラ2における3次元座標系の3次元座標M0とを物標リスト50に登録する。
次に、物標追跡手段60において、新たに取得したステレオ画像B1内に存在していると予想される各物標候補Tの予想位置を含む領域の2次元画像を、物標リスト50に記録されている各物標候補Tのステレオ画像B0上の位置F2および幅G2と、高さH2と、種類P2と、ステレオカメラ2における3次元座標系の3次元座標M2とに基づいて、新たに取得したステレオ画像B1から切り出し、切り出した2次元画像に含まれていると予想される各物標候補Tと、物標リスト50に記録されている各物標候補Tとの相関性を所定の方法により評価する。
ここで、上記予想位置を、例えば、過去に取得された複数のステレオ画像における各物標候補Tの位置から得られる速度ベクトルを用いて導出することが可能である。また、相関性については、例えば、物標リスト50に含まれる各物標候補Tの2次元画像を正規化してグレースケールモデルに変換し、このグレースケールモデルと、物標追跡手段60から導出される各物標候補Tの予想位置を中心とする所定のサイズの2次元画像との相関スコアを求め、この相関スコアの大きさに応じて評価することが可能である。
そして、評価の結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補T(特定物標T1)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて、特定物標T1の位置F2および幅G2ならびに高さH2を、新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3に修正する。さらに、特定物標T1のステレオカメラ2における3次元座標系の3次元座標M3を取得し、修正により得られた特定物標T1の新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3を利用して、特定物標T1の物標候補領域の2次元画像K3を、新たに取得したステレオ画像B1から切り出す。
また、評価の結果、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補T(準特定物標T2)の新たに取得したステレオ画像B1上の位置F4および幅G4ならびに高さH4と、物標候補領域の2次元画像K4と、ステレオカメラ2における3次元座標系の3次元座標M4とを、前記特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標T2の物標候補領域の2次元画像K4を用いて準特定物標T2の種類P4を判別する。
次に、物標リスト登録手段40において、上記物標追跡手段60で種類が判別された各物標候補T(順特定物標T2)のステレオ画像B1上の位置F4および幅G4と、高さH4と、種類P4と、物標候補領域の2次元画像K4と、ステレオカメラ2における3次元座標系の3次元座標M4とを物標リスト50に登録する。
なお、物標リスト50に含まれる物標のうち物標追跡手段60において相関性が高い対応領域が見つからない物標が所定の条件を満たしたときには、当該物標を物標リスト50から削除することが好ましい。
次に、物標リスト更新手段70は、物標リスト50において、物標追跡手段60で導出された特定物標T1のステレオ画像B1上の位置F3および幅G3と、高さH3と、物標候補領域の2次元画像K3と、ステレオカメラ2における3次元座標系の3次元座標M3とを更新する。
次に、視差修正手段80において、新たに取得したステレオ画像B1から導出された第2視差D1のうち、物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する。
このとき、新たに取得したステレオ画像B1から導出された第2視差D1のうち、物標追跡手段60で切り出された準特定物標T2の物標候補領域の2次元画像K4から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち物標追跡手段60で切り出された準特定物標T2の物標候補領域の2次元画像K4に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更してもよい。
次に、図3を参照して、図2の位置等取得手段10の詳細について説明する。
まず、第1位置情報取得手段110において、ステレオカメラ2における3次元座標系の3次元座標m0をステレオ画像B0の画素ごとに取得する。
次に、直線取得手段111において、ステレオ画像B0における各画素を、ステレオ画像B0から導出された第2視差D0または後述の視差修正手段80で修正された後の第2視差E0およびステレオ画像B0の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差D0,E0およびステレオ画像B0の縦座標が含まれるセルに振り分ける。
続いて、第2視差をx軸とし、ステレオ画像B0の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布(図4(A)参照)においてz軸の値を2値化処理し、xy平面において第2視差D0,E0がゼロとなる直線L2(y軸)と交差する路面領域に相当する斜めの直線L1を検出する。
次に、俯角情報取得手段112において、直線L1と直線L2(y軸)との交差点のx座標Vを導出し(図4(B)参照)、このx座標Vと、ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出する。
次に、視差情報削除手段113において、直線L1上の各点の第2視差D0,E0およびx座標ならびに直線L1近傍の各点の視差D0,E0およびx座標を有する各画素の第2視差をゼロに補正する。
次に、占用度情報取得手段114において、視差情報削除手段113により補正された後の第2視差Q0および第1位置情報取得手段110で得られた3次元座標の横座標m1を用いて、ステレオ画像B0における各画素を、第2視差Q0および3次元座標の横座標m1が所定の間隔で区切られた複数のセルのうち各画素の第2視差Q0および3次元座標の横座標m1が含まれるセルに振り分ける。続いて、3次元座標の横座標m1をx軸とし、第2視差Q0をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布R0において、各セルに含まれる画素の3次元座標の縦座標m1の最大値S0および平均値S1を各セルごとに算出する。
次に、第1物標取得手段115において、占用度情報取得手段114で導出された3次元分布R0において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、上記固まりに含まれるセルの最高値S0および平均値S1とを用いて、検出対象物ごとに決められた所定ルールで上記固まりを物標候補Tとして抽出し、そのxy平面上の中心位置U0および幅U1を取得する(図5(A),(B)参照)。
ここで、第1物標取得手段115において、例えば、上記所定の閾値の初期値として経験値を使用し、各物標候補Tの認識後に得られた占用度の大きさに応じた値を随時使用することが可能である。
次に、第2位置情報取得手段116において、レーザレーダ1によって得られたレーダ情報A0を俯角αを利用して補正したのち、補正後のレーダ情報A1から第1視差C0とステレオカメラ2における3次元座標系の3次元座標V0とを取得する。
次に、第2物標取得手段117において、第2位置情報取得手段116で得られた3次元座標V0の横座標をx軸とし、第2位置情報取得手段116で得られた第1視差C0をy軸としたときに、所定のルールで各物標候補Tのxy平面上の中心位置U2および幅U3を取得する(図6(A),(B)参照)。
次に、第3物標導出手段118において、第1物標取得手段115で得られた各物標候補Tのxy平面上の中心位置U0および幅U1と、第2物標取得手段117で得られた各物標候補Tのxy平面上の中心位置U2および幅U3とを対比して、第1物標取得手段115で得られた各物標候補Tの存否を判定する。その結果、存在すると判定した各物標候補Tのステレオ画像B0上の位置F0および幅G0を、第1物標取得手段115で得られたxy平面上の中心位置U0および幅U1と、第2物標取得手段117で得られたxy平面上の中心位置U2および幅U3とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅をステレオ画像B0上の位置および幅に変換することにより取得する。さらに、存在すると判定した各物標候補Tの高さH0を、第1位置情報取得手段110で得られた3次元座標の縦座標m2から取得する。
なお、第3物標導出手段118において、レーザレーダ1およびステレオカメラ2の、第1物標取得手段110のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決めることが可能である。
また、第3物標導出手段118において、レーダゴーストを検出するようにしてもよい。具体的には、第2物標取得手段116で取得された各物標候補Tのうち存在すると判定した物標候補Tを除いた残留物標候補のステレオ画像B0上の位置および幅と、あらかじめ規定された高さH0とを利用して、ステレオ画像B0から残留物標候補の2次元画像を切り出す。続いて、切り出した2次元画像のうち、第2視差D0のうち当該切り出した2次元画像から導出された視差と第1視差C0のうち当該切り出した2次元画像に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定する。そして、存在すると判定した残留物標候補のステレオ画像B0上の位置F0および幅G0を、第2物標取得手段117で得られたxy平面上の中心位置U2および幅U3をステレオ画像B0上の位置および幅に変換することにより取得する。
本実施の形態のセンサフュージョンでは、物標を検出するために、ステレオカメラ2の他にレーザレーダ1が用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となるので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、上記した第1部分画像を用いて、特定物標T1の位置F2および幅G2ならびに高さH2が、新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3に修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補Tが背景画像に紛れてしまい、物標候補Tの位置等に誤差が生じることをなくすることができる。
また、本実施の形態では、各物標候補Tの経時変化を追跡する際に、物標候補Tの位置および幅と、高さと、ステレオカメラ2における3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。
また、本実施の形態では、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で切り出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。例えば、図7(A)から図7(B)のように変更される。これにより、新たに取得したステレオ画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士がステレオ画面上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。
従って、本実施の形態では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。
[変形例]
上記実施の形態では、ステレオカメラ2を用いていたが、その代わりに、例えば、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサを用いることも可能である。ただし、この場合には、上記実施の形態において、「ステレオ画像」を「単一画像」に読み替えることが必要となる。また、上記実施の形態において「ステレオ画像から切り出した2次元画像から導出される視差」は、単一画像から切り出した2次元画像およびこれに対応する被写体までの距離から導出することが可能である。
[実施例]
上記実施の形態およびその変形例に係るセンサフュージョンによる物標検出の有効性を検証するために、シミュレーション環境(障害物の少ない駐車場)での歩行者検知を行った。対象歩行者は、表1に示したような動作を行った。また、センサを車載した車両を停止した状態での撮影、低速走行状態での撮影の違いを含めた計10シーンを対象とした。また、表2に示したように、実道路環境に存在する様々な歩行者を対象として実験を行った。市街地を走行しながら撮影したシーンから、信号、細道、歩道上等の歩行者の計10シーンを選出し、評価シーンとした。
Figure 0005145585
Figure 0005145585
シミュレーション環境での実験結果を表3、表4に示した。シミュレーション環境では、周辺の偽障害物が少ないため、高い検出率および認識率を得ることができた。
Figure 0005145585
Figure 0005145585
また、実道路環境での実験結果を表5、表6に示した。路上実験のROI平均検出率は85.19%で、認識率は72.09%となった。原画像、視差画像の精度が低下した場合に、シミュレーション環境の場合よりも認識率が低下する。日光、影の関係から輝度値が上下どちらかに大きく変動している場合は、画像自体が悪化してしまうので、ステレオカメラにおける対象物のテクスチャー消失により視差が計測されない場合や、ノイズを多く含んだ視差画像になる場合がある。これらのシーンでは視差画像の精度低下が、直接、認識率低下へつながっている。この問題を解決するためには、カメラ撮影による画像取得後,視差計算の前処理として輝度値の自動計測とその結果による自動補正を行う必要がある。もしくは、それらの演算による負荷を避けるために、自動輝度調整機能を備えるカメラを使用するという解決手段も考えられる。
Figure 0005145585
Figure 0005145585
また,レーダの横方向の動作に対する応答性遅れも路上環境における認識率低下の要因の1つである。レーダの検出点が歩行者などの対象物からずれることにより,ROIの領域を正確に取ることができず、歩行者の認識を行えない場合がある。検出点のずれは、検出点が実際よりも遅れることで発生するので、レーダの検出点の軌跡を調べることにより実際の位置の予測を行い、視差画像を用いてレーダの距離に相当する粒子の位置を見つけることによりROI領域の補正が行えると考えられる。
図8は、シミュレーション実験における処理速度の分布図を示し、図9は、実道路環境における処理速度の分布図を示した。これらの図の横軸の単位は10ミリ秒である。シミュレーション実験では平均175ミリ秒/フレームの処理速度に達成したが、対象物候補の数が少ないので、OFM構築、ROI検出個数および識別用ROI数が少ないためと思われる。一方、実道路環境では障害物候補が多いので、ROI検出やターゲットマッチングなどに時間がかかり、1フレームの平均処理時間が265ミリ秒となった。
以上、実施の形態および実施例を挙げて本発明を説明したが、本発明は、これらに限定されるものではなく、種々の変形が可能である。
本発明の一実施の形態に係るセンサフュージョンの概略構成図である。 図1のセンサフュージョンにおける物標の検出方法について説明するための機能ブロック図である。 図2の位置等取得手段内の機能ブロック図である。 V−Disparity平面について説明するための概念図である。 ステレオカメラ座標系におけるU−Disparity平面について説明するための概念図である。 レーザレーダ座標系におけるU−Disparity平面について説明するための概念図である。 第2視差から物標候補を削除する様子を模式的に表した模式図である。 シミュレーション実験における処理速度の分布図である。 実道路環境における処理速度の分布図である。
符号の説明
1…レーザレーダ、2…ステレオカメラ、21…右カメラ、22…左カメラ、3…制御部、4…記憶部。

Claims (6)

  1. 車両前方のレーダ情報を取得するレーザレーダと、
    車両前方のステレオ画像を取得するステレオカメラと、
    前記レーザレーダで取得したレーダ情報および前記ステレオカメラで取得したステレオ画像を処理する制御部と
    を備え、
    前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
    前記第1位置情報取得手段は、前記ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得し、
    前記直線取得手段は、前記ステレオ画像における各画素を、前記ステレオ画像から導出された第2視差および前記ステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記ステレオ画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記ステレオ画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
    前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出し、
    前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
    前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記ステレオ画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値をセルごとに算出し、
    前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
    前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を、前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記ステレオカメラにおける3次元座標系の3次元座標とを取得し、
    前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
    前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記ステレオ画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
    ことを特徴とする物標検出装置。
  2. 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
    ことを特徴とする請求項1に記載の物標検出装置。
  3. 前記第3物標導出手段は、前記レーザレーダおよび前記ステレオカメラの、前記第1物
    標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
    ことを特徴とする請求項1に記載の物標検出装置。
  4. 車両前方のレーダ情報を取得するレーザレーダと、
    車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、
    前記レーザレーダで取得したレーダ情報および前記光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部と
    を備え、
    前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
    前記第1位置情報取得手段は、前記光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得し、
    前記直線取得手段は、前記単一画像における各画素を、前記単一画像および被写体までの距離から導出された第2視差および前記単一画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記単一画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記単一画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
    前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記光飛行時間型距離センサの焦点距離fとを用いて前記光飛行時間型距離センサの俯角αを導出し、
    前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
    前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記単一画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値をセルごとに算出し、
    前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
    前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を、前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得し、
    前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
    前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記単一画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
    ことを特徴とする物標検出装置。
  5. 前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
    ことを特徴とする請求項に記載の物標検出装置。
  6. 前記第3物標導出手段は、前記レーザレーダおよび前記光飛行時間型距離センサの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
    ことを特徴とする請求項に記載の物標検出装置。
JP2007152291A 2007-06-08 2007-06-08 物標検出装置 Expired - Fee Related JP5145585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007152291A JP5145585B2 (ja) 2007-06-08 2007-06-08 物標検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007152291A JP5145585B2 (ja) 2007-06-08 2007-06-08 物標検出装置

Publications (2)

Publication Number Publication Date
JP2008304344A JP2008304344A (ja) 2008-12-18
JP5145585B2 true JP5145585B2 (ja) 2013-02-20

Family

ID=40233198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007152291A Expired - Fee Related JP5145585B2 (ja) 2007-06-08 2007-06-08 物標検出装置

Country Status (1)

Country Link
JP (1) JP5145585B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10942529B2 (en) * 2016-11-24 2021-03-09 Tencent Technology (Shenzhen) Company Limited Aircraft information acquisition method, apparatus and device

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5439949B2 (ja) * 2009-05-22 2014-03-12 コニカミノルタ株式会社 ステレオ測定システムおよび動画再生システム
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
JP2011166316A (ja) * 2010-02-05 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> 撮像方法、撮像表示装置、及び遠隔対面コミュニケーション装置
JP5545022B2 (ja) * 2010-05-14 2014-07-09 トヨタ自動車株式会社 障害物認識装置
JP5632762B2 (ja) * 2011-01-25 2014-11-26 パナソニック株式会社 測位情報形成装置、検出装置、及び測位情報形成方法
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
KR101641491B1 (ko) * 2014-01-02 2016-07-29 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP6287231B2 (ja) * 2014-01-14 2018-03-07 株式会社リコー 測距装置及びロボットピッキングシステム
DE102014111126A1 (de) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
US10908257B2 (en) 2015-09-30 2021-02-02 Sony Corporation Signal processing apparatus, signal processing method, and program
WO2017057042A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 信号処理装置、信号処理方法、プログラム、および、物体検出システム
KR101875517B1 (ko) * 2016-12-16 2018-07-09 (주)넥스트칩 영상 처리 방법 및 장치
CN109636837B (zh) * 2018-12-21 2023-04-28 浙江大学 一种单目相机与毫米波雷达外参标定准确性的评价方法
JP2020160914A (ja) * 2019-03-27 2020-10-01 株式会社豊田自動織機 物体検出装置
KR102332509B1 (ko) * 2020-05-22 2021-11-29 현대모비스 주식회사 후방 교차 충돌 경고 방법 및 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669205B2 (ja) * 1999-05-17 2005-07-06 日産自動車株式会社 障害物認識装置
JP3853571B2 (ja) * 2000-06-06 2006-12-06 三菱電機株式会社 追尾処理装置
JP4032843B2 (ja) * 2002-06-25 2008-01-16 富士重工業株式会社 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP4539388B2 (ja) * 2005-03-16 2010-09-08 パナソニック電工株式会社 障害物検出装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
JP4918676B2 (ja) * 2006-02-16 2012-04-18 国立大学法人 熊本大学 校正装置および校正方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10942529B2 (en) * 2016-11-24 2021-03-09 Tencent Technology (Shenzhen) Company Limited Aircraft information acquisition method, apparatus and device

Also Published As

Publication number Publication date
JP2008304344A (ja) 2008-12-18

Similar Documents

Publication Publication Date Title
JP5145585B2 (ja) 物標検出装置
US10690770B2 (en) Navigation based on radar-cued visual imaging
JP6550881B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6662388B2 (ja) 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
EP2639781A1 (en) Vehicle with improved traffic-object position detection
JP6340850B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
CN108535727B (zh) 跟踪主车辆附近的多个对象的方法
JPH05265547A (ja) 車輌用車外監視装置
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP5743020B2 (ja) 立体物検出装置
WO2014017601A1 (ja) 立体物検出装置および立体物検出方法
Nuevo et al. Estimating surrounding vehicles' pose using computer vision
JP2012146146A (ja) 移動物体検出装置
KR20210062672A (ko) 차량의 주변 환경에 있는 물체와 관련된 정보를 결정하기 위한 방법 및 처리 유닛
Ponsa et al. On-board image-based vehicle detection and tracking
Tsai et al. Accurate and fast obstacle detection method for automotive applications based on stereo vision
JP6340849B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム
Kim et al. An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing
US11861914B2 (en) Object recognition method and object recognition device
JP2023184572A (ja) 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体
JP4703963B2 (ja) 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP7165630B2 (ja) 認識システム、車両制御システム、認識方法、およびプログラム
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20120730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees