JP5720380B2 - 物体検出方法、物体検出装置および物体検出プログラム - Google Patents

物体検出方法、物体検出装置および物体検出プログラム Download PDF

Info

Publication number
JP5720380B2
JP5720380B2 JP2011081786A JP2011081786A JP5720380B2 JP 5720380 B2 JP5720380 B2 JP 5720380B2 JP 2011081786 A JP2011081786 A JP 2011081786A JP 2011081786 A JP2011081786 A JP 2011081786A JP 5720380 B2 JP5720380 B2 JP 5720380B2
Authority
JP
Japan
Prior art keywords
image
acquired
detection
road
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011081786A
Other languages
English (en)
Other versions
JP2012216125A (ja
Inventor
伸一 宮本
伸一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011081786A priority Critical patent/JP5720380B2/ja
Publication of JP2012216125A publication Critical patent/JP2012216125A/ja
Application granted granted Critical
Publication of JP5720380B2 publication Critical patent/JP5720380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出方法、物体検出装置および物体検出プログラムに関し、特に、道路上のダンボールや衣類といった落下物の存在を、検出波長の異なる複数のカメラを用いて撮影した画像の画像処理結果を統合することにより、高精度で検出することを可能とする物体検出方法、物体検出装置および物体検出プログラムに関する。
近年の自動車開発のキーワードとして、「安全・安心」がある。日本社会の高齢化に伴い、ドライバの高齢者人口が今後も増大していくのは避けられないが、判断力・注意力・体力の衰えた高齢者ドライバに対して、安全でかつ安心することができる運転をサポートすることは、自動車業界にとって強く望まれていることである。ここで、自動車にとっての安全・安心とは、交通事故の発生を回避するか、あるいは、交通事故が発生した場合にその損害を最小限に食い止めることと考えることができる。
自動車の高性能化や道路交通法の改正等により、交通事故死者数は平成9年の9,640人から平成18年の6,352人へと着実に減少を続けているものの、負傷者数はほぼ横ばいであり、自動車の安全性に関してはさらなる向上が求められている。
自動車と人・モノとの衝突を回避するために必要な自動車周辺状況認識技術として、例えば、ミリ波レーダを用いた前方車両衝突回避システムや遠赤外線画像をカーナビゲーション画面に表示することによる夜間道路画像明瞭化システム、前方カメラを用いて白線を認識することによる車線逸脱警報システムなどが実用化されている。
これらのシステムは1台の車両で処理が完結する技術であるが、より高度な状況認識を実現するアプローチとして、車車連携技術、路車連携技術がある。車車連携技術においては、道路上を走行する各車両が互いに無線通信を行い、自車両の周辺状況を他車両に対して提供することによって、自車両のみでは把握することが困難な周辺状況の取得が可能となる。車車連携技術が実現することにより、例えば、死角から他車両が飛び出してくることによる出会い頭の衝突事故の回避が期待される。
また、路車連携技術においては、道路脇に設置したセンサを用いて、個々の車両の走行状態をモニタリングし、これらの走行情報を各車両に配信することが可能となる。路車連携技術が実現することにより、例えば、渋滞末尾の検出と通知とを実現することが期待される。また、路車連携技術において用いられるセンサの一つとしてカメラを用いることも想定されているが、カメラによって取得した道路画像から、個々の車両を検出し、その走行経路を追跡することによって、交差点内での右折車と直進車との衝突防止警告システムの構築も可能となる。
車両の安全走行の上で大きな障害となるものの一つに、道路上の落下物がある。特に、高速道路の場合、ダンボールやビニールシートといった落下物は、急ハンドルや急ブレーキの原因となり得るものであり、カメラを用いて撮影した画像の画像処理によって、これらの落下物の存在をドライバに早期に通知することが、非常に重要である。
これらの落下物の検出に求められる要件として大きなものに、昼夜、天候を問わずに、検出することができることが挙げられる。特に、照明光のない場所における夜間時の検出や、雨、雪等が降ったような環境下における検出等において、検出精度に著しい劣化のないことが、実運用上において非常に重要である。照明のない状況下で画像処理を行う方法としては、赤外カメラを使うことが考えられる。ただし、赤外カメラは熱分布を計測するものであり、道路表面と落下物との間に温度差がない場合には、赤外画像上には落下物が映らないことになる。
したがって、可視カメラと赤外カメラとを用いて同一箇所を撮影することによって、より広範囲の環境変動に対して画像処理を行うことが有効となる。特許文献1の特開2010-20557号公報「画像処理装置および画像処理方法」に記載の技術は、夜間において赤外カメラと可視カメラとを用いて道路画像処理を行うものであり、検出対象は横断歩道等の道路上もしくはその近傍に存在する人物である。
道路上の物体としては、人物以外に車両も対象であり、エンジンやマフラーといった熱源を有する車両については、赤外カメラ画像において高輝度値を有する物体として観測され、また、可視カメラ画像においてもヘッドライトやテールランプといった発光体により、高輝度値を有する物体として観測される。一方、人物は、体温を有する熱源であるため、赤外カメラ画像上で高輝度値を有しているが、発光体を有していないので、可視カメラ画像上では高輝度値を有する物体として観測されることはない。
前記特許技術1においては、このような赤外カメラ画像および可視カメラ画像における車両と人物との観測結果の違いを利用して、夜間における人物検出を実現している。
また、特許文献2の特開2004-312402号公報「道路監視システム、道路監視装置」に記載の技術は、赤外カメラ画像処理の結果と可視カメラ画像処理の結果とを、状況に応じて、論理和もしくは論理積を行うことによって統合するものである。すなわち、該特許文献2においては、昼夜の別、降雨の別といった周辺環境を判定する周辺環境判定モジュールを用いて、該周辺環境判定モジュールの出力に基づいて、赤外カメラ/可視カメラの画像処理結果に対して論理積(AND)か論理和(OR)かのいずれかの論理処理を行うことによって、環境変動に対しても検出精度が頑健な画像を出力することを可能としている。
一方、道路上の落下物を検出するに当たっては、道路上に存在する物体の中から、移動体に分類されるものを除外した結果を、落下物の候補と見なすことが考えられる。特許文献3の特開2002-260166号公報「情報配信装置および情報配信システム」に記載の技術は、車両が存在しない道路画像(背景画像と称する)と入力画像との差分から物体を検出し、現時刻の入力画像と過去時刻の入力画像との差分から移動体を検出するものである。
特開2010−20557号公報(第8−12頁) 特開2004−312402号公報(第4−6頁) 特開2002−260166号公報(第3−6頁)
前記特許文献1に記載の技術は、夜間における人物検出を対象としたものであるため、昼間のように、車両がヘッドライトやテールランプを点灯させない状況下においては、赤外カメラ画像と可視カメラ画像との間で車両と人物との観測結果の相違は発生しなく、人物のみを検出することはできない。したがって、落下物についても、通常の場合は、発光体ではないという観点から、検出対象物を人物から落下物に置き換えて、前記特許文献1に記載の技術を適用しようとしても、昼夜の別には依存しない落下物の検出を可能とすることはできない。
また、前記特許文献2に記載の技術については、検出精度の環境変動に対する頑健性が周辺環境判定モジュールの精度に大きく依存する。例えば、該周辺環境判定モジュールに使用するセンサとしてカメラを用いた場合、特に、降雨か否かの判定は困難である。
何故ならば、赤外カメラ画像の場合、降雨時には、物体の表面温度が一様になるために画像のコントラストが低下するが、これは、真夏や真冬のように、外気温が特に高い、もしくは、特に低い環境下においても再現されるものであり、区別がつき難い。また、可視カメラを用いたとしても、雨滴のサイズ如何により画像中に観測されない場合も存在するし、路面の画素値に基づいて路面が濡れているか否かを判定しようとしても、画面全体が影になった場合との区別がつき難い。また、周辺環境判定モジュールにカメラとは別のセンサ(例えば降雨計)を利用するようにしても、雨量の閾値をどのように設定するかといった問題がある。
また、前記特許文献3に記載の技術は、検出方法の観点から見て、道路上の静止物を検出する技術に限られていて、渋滞等が原因で道路上において停車している車両や、なんらかの理由で駐車している車両と落下物とを区別することができない。
(本発明の目的)
本発明は、かかる事情に鑑みてなされたものであり、昼夜の時間帯や天候などの環境変動に如何に関わらず、道路上の落下物を高精度で検出することを可能とする物体検出方法、物体検出装置および物体検出プログラムを提供することを、その目的としている。
前述の課題を解決するため、本発明による物体検出方法、物体検出装置および物体検出プログラムは、主に、次のような特徴的な構成を採用している。
(1)本発明による物体検出方法は、カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出方法であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出ステップと、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出ステップと、前記第1物体存在判定ステップ、前記第1移動体検出ステップ、前記第1立体情報算出ステップ、前記第2物体存在判定ステップ、前記第2移動体検出ステップ、前記第2立体情報算出ステップそれぞれにおける処理結果を統合する特徴量統合ステップと、前記特徴量統合ステップにおける処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定ステップと、を少なくとも含んでいることを特徴とする。
(2)本発明による物体検出装置は、カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出装置であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出手段と、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出手段と、前記第1物体存在判定手段、前記第1移動体検出手段、前記第1立体情報算出手段、前記第2物体存在判定手段、前記第2移動体検出手段、前記第2立体情報算出手段それぞれにおける処理結果を統合する特徴量統合手段と、前記特徴量統合手段における処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定手段と、を少なくとも含んで構成されていることを特徴とする。
(3)本発明による物体検出プログラムは、少なくとも前記(1)に記載の物体検出方法を、コンピュータによって実行可能なプログラムとして実施していることを特徴とする。
本発明の物体検出方法、物体検出装置および物体検出プログラムによれば、以下のような効果を奏することができる。
道路を撮影した画像に基づいて、道路上の物体に関する存在判定、移動体検出および立体情報算出を行うことにより、道路上で静止している落下物とそれ以外の走行中や停車中の車両等の物体との区別を行うことが可能になるとともに、検出波長の異なるカメラを複数台用いることによって、昼夜の時間帯や天候などの環境変動に如何に関わらず、より広範囲なシーンにおいて、落下物や移動体等の物体の検出をより確実に行うことが可能になる。
また、複数台のカメラによって取得した取得画像の特徴量を統合して、静止物体と移動物体とを判定する際に、落下物のサンプルを用いてあらかじめ学習済みの識別機を用いることも容易であり、雨量に対する閾値を設けて該閾値に応じて物体検出情報の統合方法を切り替えるといった複雑な方法を採用することなく、複数台のカメラの画像処理結果を統合することができるという重要な効果も得られる。
本発明による物体検出装置の第1の実施の形態の構成例を示すブロック構成図である。 図1の物体検出装置の第1物体存在判定手段および第2物体存在判定手段において物体の存在の有無を判定する取得画像上の領域を説明するための説明図である。 図1の物体検出装置の第1物体存在判定手段および第2物体存在判定手段の動作の一例を説明するための説明図である。 図1の物体検出装置の第1移動体検出手段および第2移動体検出手段の動作の一例を説明するための説明図である。 図1の物体検出装置の第1移動体検出手段および第2移動体検出手段の動作の図4とは異なる例を説明するための説明図である。 図1の物体検出装置の全体の処理の流れの一例を示すフローチャートである。 図6のフローチャートのステップA2,A3の処理における詳細な流れを例示するためのフローチャートである。 本発明による物体検出装置の第2の実施の形態の構成例を示すブロック構成図である。 図8の物体検出装置の第1画像処理パラメータ調整手段および第2画像処理パラメータ調整手段の動作の一例を説明するための説明図である。
以下、本発明による物体検出方法、物体検出装置および物体検出プログラムの好適な実施の形態について添付図を参照して説明する。なお、以下の説明においては、本発明による物体検出方法および物体検出装置について説明するが、かかる物体検出方法をコンピュータにより実行可能な物体検出プログラムとして実施するようにしても良いし、あるいは、物体検出プログラムをコンピュータにより読み取り可能な記録媒体に記録するようにしても良いことは言うまでもない。
(本発明の特徴)
本発明の実施の形態の説明に先立って、本発明の特徴についてその概要をまず説明する。本発明は、従来技術の課題を解決するために、検出波長の異なる複数台例えば2台のカメラから画像を取得し、取得した各カメラ画像中の物体の存在判定、移動体検出、および、立体情報算出を、それぞれのカメラ画像に対して行い、得られたそれぞれの物体情報の特徴量を統合して、さらに、場合によっては、特徴量計算による次元圧縮を行った上で、あらかじめ機械学習済みの識別機に入力することによって、道路上の落下物を高精度で検出することを可能とすることを、主要な特徴としている。
より具体的には、本発明による物体検出装置においては、第1検出波長Aのカメラを用いて道路画像を取得する第1画像取得手段と、第1検出波長Aのカメラ画像から道路上の物体の有無を判定する第1物体存在判定手段と、第1検出波長Aのカメラ画像から道路上の物体の運動状態を計測する第1移動体検出手段と、第1検出波長Aのカメラ画像から道路上の物体の立体形状を計測する第1立体情報算出手段と、第2検出波長Bのカメラを用いて道路画像を取得する第2画像取得手段と、第2検出波長Bのカメラ画像から道路上の物体の有無を判定する第2物体存在判定手段と、第2検出波長Bのカメラ画像から道路上の物体の運動状態を計測する第2移動体検出手段と、第2検出波長Bのカメラ画像から道路上の物体の立体形状を計測する第2立体情報算出手段と、2台のカメラそれぞれのカメラ画像に対応する第1・第2物体存在判定手段、第1・第2移動体検出手段、第1・第2立体情報算出手段の処理結果を統合する特徴量統合手段と、特徴量統合手段による統合結果から得られる特徴量を用いて落下物の判定を行う落下物判定手段とを、少なくとも備えて構成されている。
(第1の実施の形態)
(第1の実施の形態の構成例)
次に、本発明による物体検出装置の第1の実施の形態の構成例について、まず、図1を用いて詳細に説明する。図1は、本発明による物体検出装置の第1の実施の形態の構成例を示すブロック構成図であり、検出波長が異なる複数台のカメラとして2台のカメラ(第1カメラ、第2カメラ)を用いている場合のブロック構成を例示している。
図1に示すように、本発明の第1の実施の形態における物体検出装置は、第1画像取得手段1、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4、第2画像取得手段5、第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8、特徴量統合手段9、および、落下物判定手段10を少なくとも含んで構成されている。
第1画像取得手段1は、第1検出波長Aとしてあらかじめ定めた或る検出波長の第1カメラによって撮影した道路の画像を取得する。第1物体存在判定手段2は、第1画像取得手段1で得られた取得画像から道路上の物体の存在を判定する。第1移動体検出手段3は、第1画像取得手段1で得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する。第1立体情報算出手段4は、第1画像取得手段1で得られた取得画像から道路上の物体の立体情報を算出する。
第2画像取得手段5は、第1カメラの第1検出波長Aとは異なる第2検出波長Bとしてあらかじめ定めた検出波長の第2カメラによって撮影した道路の画像を取得する。第2物体存在判定手段6は、第2画像取得手段5で得られた取得画像から道路上の物体の存在を判定する。第2移動体検出手段7は、第2画像取得手段5で得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する。第2立体情報算出手段8は、第2画像取得手段5で得られた取得画像から道路上の物体の立体情報を算出する。
特徴量統合手段9は、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4、第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8の処理結果を統合して、総合的な特徴量を算出する。落下物判定手段10は、特徴量統合手段9の統合結果から得られる特徴量を用いて落下物の判定を行う。
(第1の実施の形態の動作例)
次に、図1に示した物体検出装置の全体の動作について、その一例を説明する。図1の第1画像取得手段1においては、第1検出波長Aの第1カメラを用いて道路画像を取得して、メモリに保存する。第1物体存在判定手段2においては、メモリにあらかじめ記憶されていた背景画像の微分と現時刻において第1画像取得手段1によって取得されたカメラ画像の微分との差分を求めることにより、道路上の物体の存在を判定する。
第1物体存在判定手段2の動作の一例について、図3を用いて詳細に説明する。図3は、図1の物体検出装置の第1物体存在判定手段2および第2物体存在判定手段6の動作の一例を説明するための説明図であり、道路上の物体の存在の有無を判定する物体存在判定方法の一例を示している。
図3において、図3(a)は、あらかじめ記憶されていた背景画像であり、道路上に車両や人物や落下物等が存在していない状況を第1カメラまたは第2カメラによって撮影して、第1画像取得手段1または第2画像取得手段5によって取得し、メモリにあらかじめ記憶している。第1物体存在判定手段2または第2物体存在判定手段6において、図3(a)の背景画像について、図3(a−1)に示した背景画像の原画像の各画素間の微分を求める微分画像化処理を行うと、図3(a−2)に示したように、輪郭のみが強調された画像が背景画像の微分画像として生成される。
一方、図3において、図3(b)は、第1画像取得手段1または第2画像取得手段5によって現時刻において取得された取得画像であり、第1物体存在判定手段2または第2物体存在判定手段6において、背景画像の場合と同様に、図3(b−1)に示した取得画像の原画像の各画素間の微分を求める微分画像化処理を行うと、図3(b−2)に示したような取得画像の微分画像が生成される。図3(b−1)の取得画像には、図3(a−1)の背景画像とは異なり、道路上に出現した車輌100も撮影されているので、図3(b−2)の取得画像の微分画像に示すように、図3(a−2)とは異なり、車輌の輪郭100aを含む微分画像が生成される。
しかる後、第1物体存在判定手段2または第2物体存在判定手段6において、図3(a−2)のような背景画像の微分画像と、図3(b-2)のような現時刻の取得画像の微分画像との間の差分を求めることによって、図3(c)に示すように、道路上に出現した車輌の輪郭100aを含む差分画像が得られる。つまり、図3(c)の差分画像においては、図3(b-1)の現時刻の取得画像の物体のうち、図3(a−1)の背景画像の原画像に存在していた物体は、差分処理によってすべて削除される。したがって、図3(a−1)の背景画像の原画像には存在していなかった物体のみについて、その輪郭が強調された画像が得られることになり、背景画像には存在していなかった物体として車輌の輪郭100aが示す物体を検出することができる。
第1物体存在判定手段2および第2物体存在判定手段6においては、図2に示すように、取得画像全体を、横・縦を分割数M・Nによって、画素数(m×n)の小領域からなる(M×N)個の領域に分割して、分割した領域単位で物体の存在を判定するようにしている。図2は、図1の物体検出装置の第1物体存在判定手段2および第2物体存在判定手段6において物体の存在の有無を判定する取得画像上の領域を説明するための説明図である。
第1検出波長Aの第1カメラを用いて取得した道路画像における物体の存在を検出する第1物体存在判定手段2は、図3(a−2)、図3(b−2)に示すような各微分画像を対象にして、分割した(M×N)個の領域のうち、落下物等の物体の検出を行うための注目領域(i,j)それぞれについて、背景画像の微分画像と現時刻の取得画像の微分画像との間で差分を(m×n)個の画素毎に算出することにより、物体の存在の有無を示す情報を生成して、次の式(1)に示すように、(m×n)次元のベクトルとして保存する。
Figure 0005720380
次に、第1移動体検出手段3においては、第1検出波長Aの第1カメラで撮影した道路画像について、メモリに記憶されていた過去時刻におけるカメラ画像の微分画像と現時刻において取得されたカメラ画像の微分画像との差分を取ることによって、現時刻の取得画像内に存在する移動体の検出を行う。移動体検出手段3の動作について、その一例を、図4、図5の説明図を用いて説明する。
図4は、図1の物体検出装置の第1移動体検出手段3および第2移動体検出手段7の動作の一例を説明するための説明図であり、移動物体を検出した場合について説明している。また、図5は、図1の物体検出装置の第1移動体検出手段3および第2移動体検出手段7の動作の図4とは異なる例を説明するための説明図であり、移動物体ではなく、静止物体を検出した場合について説明している。ここで、現時刻をT、過去時刻を1つ前の撮影タイミングの(T−1)であったものとする。
図4において、図4(a)に示す過去時刻t=(T−1)において取得した道路画像の微分画像には、車輌の輪郭100aが存在しているが、図4(b)に示す現時刻t=Tにおいて取得した道路画像の微分画像には、図4(a)とは異なる位置に車輌の輪郭100bが存在している。
つまり、走行している車輌100を撮影している場合であり、図4(c)に示すように、第1移動体検出手段3および第2移動体検出手段7において、図4(a)のような過去時刻t=(T−1)における取得画像の微分画像と、図4(b)のような現時刻t=Tにおける取得画像の微分画像との間の差分を求めると、図4(c)の差分画像に示すように、道路上を走行している車両の存在領域に有意な大きさの走行差分画像100cが得られる。かくのごとく、図4(c)の差分画像においては、走行差分画像100cが存在しているので、現時刻t=Tにおいて取得した取得画像に存在する移動体を検出することになる。
一方、図5においては、図5(a)に示す過去時刻t=(T−1)において取得した道路画像の微分画像には、図4(a)の場合と同様に、車輌の輪郭100aが存在しているが、図5(b)に示す現時刻t=Tにおいて取得した道路画像の微分画像においても、図5(a)と同一の位置に車輌の輪郭100aが存在している。つまり、静止している車輌100を撮影している場合であり、図5(c)に示すように、第1移動体検出手段3および第2移動体検出手段7において、図5(a)のような過去時刻t=(T−1)における取得画像の微分画像と、図5(b)のような現時刻t=Tにおける取得画像の微分画像との間の差分を求めると、差分画像を全く得ることができないので、移動体の存在は検出されなかったことになる。
第1検出波長Aの第1カメラを用いて取得した道路画像における移動体の存在を検出する第1移動体検出手段3は、図4(a)、図4(b)や図5(a)、図5(b)に示すような各微分画像を対象にして、分割した(M×N)個の領域のうち、移動体の検出を行うための注目領域(i,j)それぞれについて、現時刻の取得画像の微分画像とメモリに保存しておいた過去時刻の取得画像の微分画像との間で差分を(m×n)個の画素毎に算出することにより、移動体の存在の有無を示す情報を生成して、次の式(2)に示すように、(m×n)次元のベクトルとして保存する。
Figure 0005720380
次に、第1立体情報算出手段4および第2立体情報算出手段8においては、単眼ステレオ法もしくは複眼ステレオ法を用いて、第1画像取得手段1および第2画像取得手段5それぞれによって取得した取得画像を対象にして、分割した(M×N)個の領域のうち、物体の立体情報の検出を行うための注目領域(i,j)それぞれについて、道路上の物体の立体情報を画素毎に算出して、次の式(3)に示すように、(3×m×n)次元のベクトルとして保存する。
Figure 0005720380
ここで、式(3)において、ベクトルc(i=1,2,…,m×n)は、画素iにおける3次元の立体情報であり、次の式(4)によって与えられる。
Figure 0005720380
なお、第1立体情報算出手段4および第2立体情報算出手段8において、複眼ステレオ法を用いて、物体の立体情報を求める場合には、第1画像取得手段1および第2画像取得手段5は、それぞれの検出波長が同じ2台のカメラによって画像を取得する必要がある。
次に、第2画像取得手段5においては、第2検出波長Bの第2カメラを用いて道路画像を取得して、メモリに保存する。第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8においては、それぞれ、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4の場合と同様の処理を、第2画像取得手段5によって取得された取得画像を対象にして行う。なお、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4においては、前述したように、第1画像取得手段1によって取得された取得画像を対象にして処理を行っている。
第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8において処理した結果は、それぞれ、次の式(5)、式(6)、式(7)に示すように、前述した式(1)、式(2)、式(3)と同様の式からなる(m×n)次元のベクトル、(m×n)次元のベクトル、(3×m×n)次元のベクトルとして保存される。
Figure 0005720380
Figure 0005720380
Figure 0005720380
次に、特徴量統合手段9においては、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4における処理結果である式(1)〜式(3)の各ベクトルが示す第1特徴ベクトルと、第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8における処理結果である式(5)〜式(7)の各ベクトルが示す第2特徴ベクトルとを統合した第3特徴ベクトルとして、次の式(8)をまず生成する。
Figure 0005720380
ここで、式(8)が示す第3特徴ベクトルは、前記第1特徴ベクトルの末尾に前記第2特徴ベクトルを連結して生成する場合を示しており、D=10×m×n次元のベクトルになるが、式(8)が示す第3特徴ベクトルに対して、L×D行列P(L<D)を用いて、次の式(9)のような特徴行列変換の処理を行うことによって、第4特徴ベクトルとして、次元圧縮したL次元ベクトルS′を生成する。
Figure 0005720380
さらに、L次元ベクトルS′の第k成分S′に対して、あらかじめ設定した定数A,Bを用いて、次の式(10)のように、第k成分が計算される正規化ベクトルS″を最終的な第4特徴ベクトルとして算出する。
Figure 0005720380
次に、落下物判定手段10においては、特徴量統合手段9において算出した最終的な第4特徴ベクトルの正規化ベクトルS″を入力として、落下物のサンプルを用いてあらかじめ機械学習を行った識別器を用いて、検出した物体が落下物であるか否かの識別を行い、該識別器の識別結果に基づいて落下物の判定を行う。例えば、線形識別器の場合には、識別器のパラメータである重みベクトルを
Figure 0005720380
とし、バイアスをbとすると、次の式(11)にしたがって、関数gの値を計算する。
Figure 0005720380
Figure 0005720380
関数gの値の計算結果が正の場合には、取得した画像について落下物の存在の有無を調べる領域として対象にしていた注目領域(i,j)において、落下物が存在するものと判定する。
なお、前述した本第1の実施の形態における特徴量統合手段9において、特徴行列変換に用いる式(9)の射影行列Pは、事前に準備した落下物の画像サンプルを用いて、式(8)が示す第3特徴ベクトルに対して主成分分析を行い、固有値が大きい上位L個(L:正整数)に対応した固有ベクトルを並べることによって得られる行列を用いても良い。
また、前述した本第1の実施の形態における特徴量統合手段9において、最終的な第4特徴ベクトルとなる式(10)の正規化関数S″として、次の式(12)で与えられるような線形関数を用いても良い。
Figure 0005720380
ただし、C,C:定数
また、式(1)〜式(3)の各ベクトルが示す第1特徴ベクトルの各成分と式(5)〜式(7)の各ベクトルが示す第2特徴ベクトルの各成分との積を第3特徴ベクトルとして求め、求めた第3特徴ベクトルの各成分を入力として最終的な第4特徴ベクトルを算出するようにしても良い。
また、前述した本第1の実施の形態における落下物判定手段10において、識別器として、多項式カーネルやガウシアン型カーネルを用いたSVM(Support Vector Machine)のような、非線形識別器を用いても良い。
次に、図6〜図7のフローチャートを参照して、第1の実施の形態の全体の動作例についてさらに詳細に説明する。図6は、図1の物体検出装置の全体の処理の流れの一例を示すフローチャートであり、図7は、図6のフローチャートのステップA2,A3の処理における詳細な流れを例示するためのフローチャートである。
図6のフローチャートにおいて、ステップA1,A9は、落下物の判定を行う対象とする注目領域を設定するステップであり、ステップA2が、第1カメラによって撮影して第1画像取得手段1によって取得した取得画像に対して第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4によって処理を行うステップであり、ステップA3が、第2カメラによって撮影して第2画像取得手段5によって取得した取得画像に対して第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8によって処理を行うステップである。
また、ステップA4〜A6が、特徴量統合手段9によって処理を行うステップであり、ステップA7〜A8が、落下物判定手段10によって処理を行うステップである。
まず、図6のフローチャートにおいて、図2に示した取得画像全体のM×N個の領域のうち、落下物の存在の有無についてまだ判定を行っていない未実施領域の一つを、落下物判定処理を行う注目領域(i,j)として設定する(ステップA1)。
次いで、第1カメラによって撮影され、第1画像取得手段1によって取得されたデジタル取得画像について、設定した注目領域(i,j)に関する第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4の処理を行い、前述した式(1)、(2)、(3)のベクトルを計算して第1特徴ベクトルとして保存する(ステップA2)。同様に、第2カメラによって撮影され、第2画像取得手段5によって取得されたデジタル取得画像について、設定した注目領域(i,j)に関する第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8の処理を行い、前述した式(5)、(6)、(7)のベクトルを計算して第2特徴ベクトルとして保存する(ステップA2)。
しかる後、特徴量統合手段9において、ステップA2、ステップA3において計算された式(1)、(2)、(3)のベクトルおよび式(5)、(6)、(7)のベクトルを用いて、前述した式(8)によって定義される統合ベクトルを算出して第3特徴ベクトルとして保存する(ステップA4)。さらに、特徴量統合手段9において、ステップA4において算出された統合ベクトルに対して、前述した式(9)の演算を行うことによって、次元圧縮ベクトルを算出して第4特徴ベクトルとして保存する(ステップA5)。さらに、特徴量統合手段9において、ステップA5において算出された次元圧縮ベクトルに対して、前述した式(10)の演算を行うことによって、正規化ベクトルを算出して最終的な第4特徴ベクトルとして保存する(ステップA6)。
次いで、落下物判定手段10において、ステップA6において算出された正規化ベクトルを入力として、前述した式(11)の関数gの値を計算し、関数gの値が正か否かを判定する(ステップA7)。関数gの値が正であった場合は(ステップA7のYes)、ステップA8に進み、注目領域(i,j)を落下物が存在する領域と判定して、その旨を登録した後(ステップA8)、ステップA9に進む。一方、関数gの値が正ではなかった場合は(ステップA7のNo)、注目領域(i,j)には落下物は存在していないものと判定して、ステップA9に進む。
ステップA9においては、注目領域(i,j)を落下物判定処理実施済みの領域に設定した後、図2に示した取得画像全体のM×N個の全領域について落下物判定処理を実施したか否かを判定し(ステップA9)、まだ未実施の領域が残っている場合は(ステップA9のNo)、ステップA1に復帰して、次の注目領域(i,j)を抽出して、落下物判定処理を繰り返す。一方、全領域について落下物判定処理を実施した場合は(ステップA9のYes)、図2のフローチャートの処理を終了する。
次に、図6のフローチャートのステップA2,A3の処理の詳細な流れについて、図7のフローチャートを用いて説明する。図7のフローチャートにおいて、ステップB1〜B3が、第1物体存在判定手段2、第2物体存在判定手段6によって処理を行うステップであり、ステップB4〜B5が、第1移動体検出手段3、第2移動体検出手段7によって処理を行うステップであり、ステップB6〜B7が、第1立体情報算出手段4、第2立体情報算出手段8によって処理を行うステップであり、ステップB8が、現時刻において取得した取得画像の処理が終了したので、過去時刻の取得画像として過去画像バッファに登録するステップである。
なお、以下の説明においては、第1カメラによって撮影されて、第1画像取得手段1によって取得された取得画像に関する処理を行うステップA2について説明するが、第2カメラによって撮影されて、第2画像取得手段5によって取得された取得画像に関する処理を行うステップA3についても、対象とする取得画像が異なるだけであって、全く同様の処理を行っている。
第1カメラによって撮影され、第1画像取得手段1によって取得されたデジタル取得画像を対象にして、(M×N)個に分割した画素数(m×n)の領域のうち、今回の処理対象領域として注目する注目領域(i,j)を入力画像として、第1物体存在判定手段2に入力すると、第1物体存在判定手段2において、該入力画像の各画素間の微分を求める微分画像化処理を行うことによって、輪郭のみが強調された入力画像の微分画像を生成する(ステップB1)。
さらに、第1物体存在判定手段2において、車両や人物や落下物等が存在していない状況をあらかじめ撮影してメモリに保存している背景画像を取り出して、該入力画像と同一領域における各画素間の微分を求める微分画像化処理を行うことによって、輪郭のみが強調された背景画像の微分画像を生成する(ステップB2)。
しかる後、第1物体存在判定手段2において、ステップB1,B2それぞれにおいて生成した入力画像の微分画像と背景画像の微分画像との間の差分を求めて、求めた差分を用いて、前述した式(1)のベクトルを算出してメモリに保存する(ステップB3)。
次いで、第1移動体検出手段3において、現時刻の入力画像と同一の場所を過去時刻において撮影することにより取得してメモリに保存していた過去画像を取り出して、現時刻の入力画像と同一領域における各画素間の微分を求める微分画像化処理を行うことによって、輪郭のみが強調された過去画像の微分画像を生成する(ステップB4)。
しかる後、第1移動体検出手段3において、ステップB2,B4それぞれにおいて生成した現時刻の入力画像の微分画像と過去時刻の過去画像の微分画像との間の差分を求めて、求めた差分を用いて、前述した式(2)のベクトルを算出してメモリに保存する(ステップB5)。
次いで、第1立体情報算出手段4において、単眼ステレオ法または複眼ステレオ法のステレオ画像法に基づいて、入力画像の画素毎の分析を行うことによって、入力画像から物体の立体情報を生成する(ステップB6)。
しかる後、第1立体情報算出手段4において、ステップB6において生成した物体の立体情報を用いて、前述した式(3)のベクトルを算出してメモリに保存する(ステップB7)。
以上の処理を行うことによって、今回の入力画像の注目領域(i,j)に関する処理は終了するので、最後に、今回の入力画像として処理していた注目領域(i,j)を、過去時刻における入力画像として過去画像バッファに設定登録する(ステップB8)。
(第2の実施の形態)
(第2の実施の形態の構成例)
次に、本発明による物体検出装置の第2の実施の形態の構成例について、図8を用いて詳細に説明する。図8は、本発明による物体検出装置の第2の実施の形態の構成例を示すブロック構成図であり、図1の場合と同様、検出波長が異なる複数台のカメラとして2台のカメラ(第1カメラ、第2カメラ)を用いている場合のブロック構成を例示している。
図8に示すように、本発明の第2の実施の形態における物体検出装置は、第1画像取得手段1、第1物体存在判定手段2、第1移動体検出手段3、第1立体情報算出手段4、第2画像取得手段5、第2物体存在判定手段6、第2移動体検出手段7、第2立体情報算出手段8、特徴量統合手段9、落下物判定手段10、第1画像処理パラメータ調整手段11、および、第2画像処理パラメータ調整手段12を少なくとも含んで構成されている。
図8に示す物体検出装置は、図1の物体検出装置に比して、第1画像処理パラメータ調整手段11および第2画像処理パラメータ調整手段12の2つの手段をさらに備えて構成されているが、その他の手段については、図1の物体検出装置と全く同様であるので、ここでの重複する説明は省略する。
第1画像処理パラメータ調整手段11は、第1検出波長Aとしてあらかじめ定めた或る検出波長の第1カメラによって撮影して、第1画像取得手段1によって取得された取得画像が不鮮明であった場合に、該取得画像に関する画像処理用の画像処理パラメータを調整する。第2画像処理パラメータ調整手段12は、第1カメラの第1検出波長Aとは異なる第2検出波長Bとしてあらかじめ定めた或る検出波長の第2カメラによって撮影して、第2画像取得手段5によって取得された取得画像が不鮮明であった場合に、該取得画像に関する画像処理用の画像処理パラメータを調整する。
(第2の実施の形態の動作例)
次に、図8に示した物体検出装置の全体の動作の一例について、図9を用いて説明する。なお、図8に示した物体検出装置は、前述したように、第1画像処理パラメータ調整手段11および第2画像処理パラメータ調整手段12以外の各手段については、第1の実施の形態における図1の物体検出装置と全く同一の動作を行うので、ここでの説明を省略し、第1画像処理パラメータ調整手段11および第2画像処理パラメータ調整手段12についてのみ説明する。図9は、図8の物体検出装置の第1画像処理パラメータ調整手段11および第2画像処理パラメータ調整手段12の動作の一例を説明するための説明図である。
図9においては、図9(a)に示すように、第1カメラとして可視カメラを用いて、照明がない夜間撮影時等に道路を撮影して第1画像取得手段1において取得した可視カメラ画像であり、該可視カメラ画像は、不鮮明な画像となっていて、かかる画像のみでは、落下物判定手段10において、道路上に落ちている落下物200を明確に判別することができない場合を示している。一方、図9(b)に示すように、第2カメラとして赤外カメラを用いて、道路を撮影して第2画像取得手段5において取得した赤外カメラ画像は、可視カメラ画像に比し比較的鮮明であり、道路上に落ちている落下物200を判別することが可能な画像が得られている状況にある場合を示している。
つまり、かくのごとき状況下にある場合に、図8の物体検出装置が、特徴量統合手段9において、図9(a)の可視カメラ画像と図9(b)の赤外カメラ画像との双方の取得画像の特徴量を統合することによって、落下物判定手段10において、図9(c)に示すように、道路上に落ちている落下物200を判別することができた場合について、第1画像処理パラメータ調整手段11および第2画像処理パラメータ調整手段12の動作の一例を、図9(d)に示している。
図8の物体検出装置においては、第1画像取得手段1および第2画像取得手段5において取得された取得画像に関する処理結果として、図9(c)に示すように、落下物判定手段10における落下物判定情報として、道路上に落下物200が落ちている旨の情報が得られたとしても、落下物の判定精度があらかじめ定めた閾値に達しているか否かを確認する動作を行っている。
落下物判定手段10が、落下物の判定精度が前記閾値に達していないと判定した場合には、落下物判定手段10から、第1画像処理パラメータ調整手段11、第2画像処理パラメータ調整手段12のうち、落下物200の存在を判別することが困難であった不鮮明な取得画像側の画像処理パラメータ調整手段(本実施形態の場合は、可視カメラを用いて第1画像取得手段1において取得した可視カメラ画像側の第1画像処理パラメータ調整手段11)に対して、画像調整用の指示が転送される。該画像調整用の指示には、落下物200が存在している領域(M×N分割された画素数(m×n)の領域)を調整領域として指定する情報も含まれている。
該画像調整用の指示を受け取った画像処理パラメータ調整手段例えば第1画像処理パラメータ調整手段11においては、図9(d)に示すように、第1画像取得手段1において次フレームに取得した可視カメラ画像に対して、受け取った前記画像調整用の指示に含まれている調整領域20(落下物200が存在している領域)についてのみ、画像処理用の画像処理パラメータを調整した部分正規化処理を行うことによって、画像正規化のダイナミックレンジの調整を行う。この結果、落下物判定手段10においては、落下物の判定精度が向上し、落下物200の存在をより明確に判定することが可能になる。
(実施の形態の効果の説明)
以上に詳細に説明したように、本発明の実施の形態においては、以下のような効果を得ることができる。
道路を撮影した画像に基づいて、道路上の物体に関する存在判定、移動体検出および立体情報算出を行うことにより、道路上で静止している落下物とそれ以外の走行中や停車中の車両等の物体との区別を行うことが可能になるとともに、検出波長の異なるカメラを複数台用いることによって、昼夜の時間帯や天候などの環境変動に如何に関わらず、より広範囲なシーンにおいて、落下物や移動体等の物体の検出をより確実に行うことが可能になる。
また、複数台のカメラによって取得した取得画像の特徴量を統合して、静止物体と移動物体とを判定する際に、落下物のサンプルを用いてあらかじめ学習済みの識別機を用いることも容易であり、雨量に対する閾値を設けて該閾値に応じて物体検出情報の統合方法を切り替えるといった複雑な方法を採用することなく、複数台のカメラの画像処理結果を統合することができるという重要な効果も得られる。
(付記)
以上に、本発明に係る実施の形態について、詳細に説明したことからも明らかなように、前述の各実施の形態の一部または全部は、以下の各付記のようにも記載することができるが、本発明はかかる場合に限るものではないことは言うまでもない。
(付記1)カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出方法であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出ステップと、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出ステップと、前記第1物体存在判定ステップ、前記第1移動体検出ステップ、前記第1立体情報算出ステップ、前記第2物体存在判定ステップ、前記第2移動体検出ステップ、前記第2立体情報算出ステップそれぞれにおける処理結果を統合する特徴量統合ステップと、前記特徴量統合ステップにおける処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定ステップと、を少なくとも含んでいることを特徴とする物体検出方法。
(付記2)前記第1画像取得ステップによって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第1画像処理パラメータ調整手段と、前記第2画像取得ステップによって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第2画像処理パラメータ調整手段と、をさらに含んでいることを特徴とする付記1に記載の物体検出方法。
(付記3)前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像のそれぞれに関して、前記落下物判定ステップにおける落下物の判定結果として落下物が存在すると推定された画像領域に対して、前記第1画像処理パラメータ調整ステップおよび前記第2画像処理パラメータ調整ステップのそれぞれによって、画像処理用の画像処理パラメータを調整することを特徴とする付記2に記載の物体検出方法。
(付記4)前記第1物体存在判定ステップおよび前記第2物体存在判定ステップのそれぞれにおいて、物体が存在していない状態であらかじめ取得した背景画像の画素間の微分処理を行うことにより生成される背景画像の微分画像と、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像の画素間の微分処理を行うことにより生成される取得画像の微分画像と、の差分を用いて、物体の存在を判定することを特徴とする付記1ないし3のいずれかに記載の物体検出方法。
(付記5)前記第1移動体検出ステップおよび前記第2移動体検出ステップのそれぞれにおいて、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた現時刻の取得画像の微分画像と、それぞれによって得られた過去時刻の取得画像の微分画像と、の差分を用いて、移動物体を検出することを特徴とする付記1ないし4のいずれかに記載の物体検出方法。
(付記6)前記第1立体情報算出ステップおよび前記第2立体情報算出ステップのそれぞれにおいて、単眼ステレオ法または複眼ステレオ法を用いて、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像における物体の立体情報を算出することを特徴とする付記1ないし5のいずれかに記載の物体検出方法。
(付記7)前記特徴量統合ステップにおいて、前記第1物体存在判定ステップにおいて得られた物体存在判定結果、前記第1移動体検出ステップにおいて得られた移動物体検出結果、前記第1立体情報算出ステップにおいて得られた立体情報算出結果のそれぞれをベクトルによって表現した第1特徴ベクトルと、前記第2物体存在判定ステップにおいて得られた物体存在判定結果、前記第2移動体検出ステップにおいて得られた移動物体検出結果、前記第2立体情報算出ステップにおいて得られた立体情報算出結果のそれぞれをベクトルによって表現した第2特徴ベクトルと、の各成分を統合して第3特徴ベクトルを生成し、生成した前記第3特徴ベクトルに基づいて、落下物の判定に用いる特徴量として、第4特徴ベクトルを生成することを特徴とする付記1ないし6のいずれかに記載の物体検出方法。
(付記8)前記第1特徴ベクトルの末尾に前記第2特徴ベクトルを連結することにより前記第3特徴ベクトルを生成し、生成した前記第3特徴ベクトルに対して特徴行列変換を行うことによって、前記第4特徴ベクトルを生成することを特徴とする付記7に記載の物体検出方法。
(付記9)前記第3特徴ベクトルに対する特徴行列変換に用いる行列として、事前に準備した落下物の画像サンプルを用いた場合に得られる前記第3特徴ベクトルに対して主成分分析をあらかじめ行い、固有値が大きい上位L個(L:正整数)に対応した固有ベクトルを並べることによって得られる行列を用いることを特徴とする付記8に記載の物体検出方法。
(付記10)前記落下物判定ステップにおいて、前記特徴量統合ステップにおいて得られた前記第4特徴ベクトルを入力として、落下物のサンプルを用いてあらかじめ機械学習を行った識別器を用いて、落下物か否かの識別を行い、該識別器の識別結果に基づいて落下物の判定を行うことを特徴とする付記7ないし9のいずれかに記載の物体検出方法。
(付記11)カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出装置であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出手段と、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出手段と、前記第1物体存在判定手段、前記第1移動体検出手段、前記第1立体情報算出手段、前記第2物体存在判定手段、前記第2移動体検出手段、前記第2立体情報算出手段それぞれにおける処理結果を統合する特徴量統合手段と、前記特徴量統合手段における処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定手段と、を少なくとも含んで構成されていることを特徴とする物体検出装置。
(付記12)前記第1画像取得手段によって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第1画像処理パラメータ調整手段と、前記第2画像取得手段によって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第2画像処理パラメータ調整手段と、をさらに含んで構成されていることを特徴とする付記11に記載の物体検出装置。
(付記13)前記第1画像取得手段および前記第2画像取得手段のそれぞれによって得られた取得画像のそれぞれに関して、前記落下物判定手段における落下物の判定結果として落下物が存在すると推定された画像領域に対して、前記第1画像処理パラメータ調整手段および前記第2画像処理パラメータ調整手段のそれぞれによって、画像処理用の画像処理パラメータを調整することを特徴とする付記12に記載の物体検出装置。
(付記14)前記第1物体存在判定手段および前記第2物体存在判定手段のそれぞれにおいて、物体が存在していない状態であらかじめ取得した背景画像の画素間の微分処理を行うことにより生成される背景画像の微分画像と、前記第1画像取得手段および前記第2画像取得手段のそれぞれによって得られた取得画像の画素間の微分処理を行うことにより生成される取得画像の微分画像と、の差分を用いて、物体の存在を判定することを特徴とする付記11ないし13のいずれかに記載の物体検出装置。
(付記15)前記第1移動体検出手段および前記第2移動体検出手段のそれぞれにおいて、前記第1画像取得手段および前記第2画像取得手段のそれぞれによって得られた現時刻の取得画像の微分画像と、それぞれによって得られた過去時刻の取得画像の微分画像と、の差分を用いて、移動物体を検出することを特徴とする付記11ないし14のいずれかに記載の物体検出装置。
(付記16)前記第1立体情報算出手段および前記第2立体情報算出手段のそれぞれにおいて、単眼ステレオ法または複眼ステレオ法を用いて、前記第1画像取得手段および前記第2画像取得手段のそれぞれによって得られた取得画像における物体の立体情報を算出することを特徴とする付記1ないし15のいずれかに記載の物体検出装置。
(付記17)前記特徴量統合手段において、前記第1物体存在判定手段において得られた物体存在判定結果、前記第1移動体検出手段において得られた移動物体検出結果、前記第1立体情報算出手段において得られた立体情報算出結果のそれぞれをベクトルによって表現した第1特徴ベクトルと、前記第2物体存在判定手段において得られた物体存在判定結果、前記第2移動体検出手段において得られた移動物体検出結果、前記第2立体情報算出手段において得られた立体情報算出結果のそれぞれをベクトルによって表現した第2特徴ベクトルと、の各成分を統合して第3特徴ベクトルを生成し、生成した前記第3特徴ベクトルに基づいて、落下物の判定に用いる特徴量として、第4特徴ベクトルを生成することを特徴とする付記11ないし16のいずれかに記載の物体検出装置。
(付記18)前記第1特徴ベクトルの末尾に前記第2特徴ベクトルを連結することにより前記第3特徴ベクトルを生成し、生成した前記第3特徴ベクトルに対して特徴行列変換を行うことによって、前記第4特徴ベクトルを生成することを特徴とする付記17に記載の物体検出装置。
(付記19)前記第3特徴ベクトルに対する特徴行列変換に用いる行列として、事前に準備した落下物の画像サンプルを用いた場合に得られる前記第3特徴ベクトルに対して主成分分析をあらかじめ行い、固有値が大きい上位L個(L:正整数)に対応した固有ベクトルを並べることによって得られる行列を用いることを特徴とする付記18に記載の物体検出装置。
(付記20)前記落下物判定手段において、前記特徴量統合手段において得られた前記第4特徴ベクトルを入力として、落下物のサンプルを用いてあらかじめ機械学習を行った識別器を用いて、落下物か否かの識別を行い、該識別器の識別結果に基づいて落下物の判定を行うことを特徴とする付記17ないし19のいずれかに記載の物体検出装置。
(付記21)
付記1ないし10のいずれかに記載の物体検出方法を、コンピュータによって実行可能なプログラムとして実施していることを特徴とする物体検出プログラム。
以上、本発明の好適な実施形態の構成を説明した。しかし、かかる実施形態は、本発明の単なる例示に過ぎず、何ら本発明を限定するものではないことに留意されたい。本発明の要旨を逸脱することなく、特定用途に応じて種々の変形変更が可能であることが、当業者には容易に理解できよう。
1 第1画像取得手段
2 第1物体存在判定手段
3 第1移動体検出手段
4 第1立体情報算出手段
5 第2画像取得手段
6 第2物体存在判定手段
7 第2移動体検出手段
8 第2立体情報算出手段
9 特徴量統合手段
10 落下物判定手段
11 第1画像処理パラメータ調整手段
12 第2画像処理パラメータ調整手段
20 調整領域
100 車輌
100a 車輌の輪郭
100b 車輌の輪郭
100c 走行差分画像
200 落下物

Claims (8)

  1. カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出方法であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得ステップと、前記第1画像取得ステップによって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第1画像処理パラメータ調整ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出ステップと、前記第1画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出ステップと、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得ステップと、前記第2画像取得ステップによって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第2画像処理パラメータ調整ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出ステップと、前記第2画像取得ステップによって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出ステップと、前記第1物体存在判定ステップ、前記第1移動体検出ステップ、前記第1立体情報算出ステップ、前記第2物体存在判定ステップ、前記第2移動体検出ステップ、前記第2立体情報算出ステップそれぞれにおける処理結果を統合する特徴量統合ステップと、前記特徴量統合ステップにおける処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定ステップと、を少なくとも含んでいることを特徴とする物体検出方法。
  2. 前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像のそれぞれに関して、前記落下物判定ステップにおける落下物の判定結果として落下物が存在すると推定された画像領域に対して、前記第1画像処理パラメータ調整ステップおよび前記第2画像処理パラメータ調整ステップのそれぞれによって、画像処理用の画像処理パラメータを調整することを特徴とする請求項に記載の物体検出方法。
  3. 前記第1物体存在判定ステップおよび前記第2物体存在判定ステップのそれぞれにおいて、物体が存在していない状態であらかじめ取得した背景画像の画素間の微分処理を行うことにより生成される背景画像の微分画像と、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像の画素間の微分処理を行うことにより生成される取得画像の微分画像と、の差分を用いて、物体の存在を判定することを特徴とする請求項1または請求項2記載の物体検出方法。
  4. 前記第1移動体検出ステップおよび前記第2移動体検出ステップのそれぞれにおいて、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた現時刻の取得画像の微分画像と、それぞれによって得られた過去時刻の取得画像の微分画像と、の差分を用いて、移動物体を検出することを特徴とする請求項1ないしのいずれかに記載の物体検出方法。
  5. 前記第1立体情報算出ステップおよび前記第2立体情報算出ステップのそれぞれにおいて、単眼ステレオ法または複眼ステレオ法を用いて、前記第1画像取得ステップおよび前記第2画像取得ステップのそれぞれによって得られた取得画像における物体の立体情報を算出することを特徴とする請求項1ないしのいずれかに記載の物体検出方法。
  6. カメラによって撮影した画像に基づいて、存在する物体を検出する物体検出装置であって、第1の検出波長としてあらかじめ定めた検出波長の第1カメラにより撮影した画像を取得する第1画像取得手段と、前記第1画像取得手段によって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第1画像処理パラメータ調整手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第1物体存在判定手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第1移動体検出手段と、前記第1画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第1立体情報算出手段と、前記第1の検出波長とは異なる第2の検出波長としてあらかじめ定めた検出波長の第2カメラにより撮影した画像を取得する第2画像取得手段と、前記第2画像取得手段によって得られた取得画像に対する画像処理用の画像処理パラメータを調整する第2画像処理パラメータ調整手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の存在を判定する第2物体存在判定手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の移動状態を検出し、静止物体と移動物体とを判別する第2移動体検出手段と、前記第2画像取得手段によって得られた取得画像から道路上の物体の立体情報を算出する第2立体情報算出手段と、前記第1物体存在判定手段、前記第1移動体検出手段、前記第1立体情報算出手段、前記第2物体存在判定手段、前記第2移動体検出手段、前記第2立体情報算出手段それぞれにおける処理結果を統合する特徴量統合手段と、前記特徴量統合手段における処理結果として得られる特徴量を用いて、落下物の判定を行う落下物判定手段と、を少なくとも含んで構成されていることを特徴とする物体検出装置。
  7. 前記第1画像取得手段および前記第2画像取得手段のそれぞれによって得られた取得画像のそれぞれに関して、前記落下物判定手段における落下物の判定結果として落下物が存在すると推定された画像領域に対して、前記第1画像処理パラメータ調整手段および前記第2画像処理パラメータ調整手段のそれぞれによって、画像処理用の画像処理パラメータを調整することを特徴とする請求項に記載の物体検出装置。
  8. 請求項1ないしのいずれかに記載の物体検出方法を、コンピュータによって実行するための物体検出プログラム。
JP2011081786A 2011-04-01 2011-04-01 物体検出方法、物体検出装置および物体検出プログラム Active JP5720380B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011081786A JP5720380B2 (ja) 2011-04-01 2011-04-01 物体検出方法、物体検出装置および物体検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011081786A JP5720380B2 (ja) 2011-04-01 2011-04-01 物体検出方法、物体検出装置および物体検出プログラム

Publications (2)

Publication Number Publication Date
JP2012216125A JP2012216125A (ja) 2012-11-08
JP5720380B2 true JP5720380B2 (ja) 2015-05-20

Family

ID=47268824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011081786A Active JP5720380B2 (ja) 2011-04-01 2011-04-01 物体検出方法、物体検出装置および物体検出プログラム

Country Status (1)

Country Link
JP (1) JP5720380B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11209517B2 (en) 2017-03-17 2021-12-28 Nec Corporation Mobile body detection device, mobile body detection method, and mobile body detection program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468162B2 (ja) 2015-10-19 2019-02-13 株式会社デンソー 障害物報知装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
JP2004312402A (ja) * 2003-04-08 2004-11-04 Hitachi Ltd 道路監視システム,道路監視装置
JP2005350010A (ja) * 2004-06-14 2005-12-22 Fuji Heavy Ind Ltd ステレオ式車外監視装置
JP3995671B2 (ja) * 2004-08-20 2007-10-24 松下電器産業株式会社 画像処理装置
JP2007207177A (ja) * 2006-02-06 2007-08-16 Toshiba Corp パターン認識装置、方法およびプログラム
JP2009301494A (ja) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd 画像処理装置及び画像処理方法
JP5166335B2 (ja) * 2009-03-25 2013-03-21 株式会社東芝 特徴を抽出する装置、方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11209517B2 (en) 2017-03-17 2021-12-28 Nec Corporation Mobile body detection device, mobile body detection method, and mobile body detection program
US11740315B2 (en) 2017-03-17 2023-08-29 Nec Corporation Mobile body detection device, mobile body detection method, and mobile body detection program

Also Published As

Publication number Publication date
JP2012216125A (ja) 2012-11-08

Similar Documents

Publication Publication Date Title
JP4708124B2 (ja) 画像処理装置
US10007854B2 (en) Computer vision based driver assistance devices, systems, methods and associated computer executable code
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
US9384401B2 (en) Method for fog detection
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
CN110651313A (zh) 控制装置和控制方法
JP4775391B2 (ja) 障害物検出装置
US8379924B2 (en) Real time environment model generation system
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
US10442438B2 (en) Method and apparatus for detecting and assessing road reflections
Raphael et al. Development of a camera-based forward collision alert system
EP2523174A1 (en) Vision based night-time rear collision warning system, controller, and method of operating the same
JP2009037622A (ja) 画像を評価するための方法および装置
US9305221B2 (en) Method and apparatus for identifying a possible collision object
JP4521642B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
JP2018022220A (ja) 挙動データ解析システム及び挙動データ解析装置及び挙動データ解析方法
JP2013057992A (ja) 車間距離算出装置およびそれを用いた車両制御システム
US8160300B2 (en) Pedestrian detecting apparatus
JP4116643B2 (ja) 車両周囲の少なくとも1つの物体を分類する装置
JP2011076214A (ja) 障害物検出装置
JP5720380B2 (ja) 物体検出方法、物体検出装置および物体検出プログラム
EP3380368B1 (en) Object detection system and method thereof
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
Hovorushchenko et al. Road Accident Prevention System
JP7276276B2 (ja) 危険運転検出装置、危険運転検出システム、及び危険運転検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R150 Certificate of patent or registration of utility model

Ref document number: 5720380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150