JP5004903B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP5004903B2
JP5004903B2 JP2008215457A JP2008215457A JP5004903B2 JP 5004903 B2 JP5004903 B2 JP 5004903B2 JP 2008215457 A JP2008215457 A JP 2008215457A JP 2008215457 A JP2008215457 A JP 2008215457A JP 5004903 B2 JP5004903 B2 JP 5004903B2
Authority
JP
Japan
Prior art keywords
extracted
element region
region
area
region group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008215457A
Other languages
English (en)
Other versions
JP2010049635A5 (ja
JP2010049635A (ja
Inventor
雅和 坂
正人 渡辺
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008215457A priority Critical patent/JP5004903B2/ja
Publication of JP2010049635A publication Critical patent/JP2010049635A/ja
Publication of JP2010049635A5 publication Critical patent/JP2010049635A5/ja
Application granted granted Critical
Publication of JP5004903B2 publication Critical patent/JP5004903B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。
撮像装置により撮像された赤外線画像から対象物である歩行者の頭部に相当する領域を抽出し、当該頭部領域に基づいて歩行者の胴体に相当する領域を抽出することにより対象物が歩行者であることを認識し、この歩行者の存在を車両の運転者に知らせる技術が知られている(特許文献1参照)。
特開平11−328364号公報
しかし、自車両の周辺には歩行者(人間)のみならず、鹿等の四足動物も存在する場合がある。この場合、対象物が人間であるか否かを判定する手法が採用されても、対象物が四足動物であるか否かを判定することは困難である。このため、車両の運転者に四足動物の存在を知らせること、さらには、運転者が対象物との接触を回避するように車両を運転することが困難となる。
そこで、本発明は、対象物が四足動物であるか否かを高精度で認識することができる車両周辺監視装置を提供することを目的とする。
第1発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの2対の要素領域からなる第1の要素領域群、および、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の前記要素領域とその横に並ぶ1つの前記要素領域とからなる第2の要素領域群が異なる時刻において抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えることを特徴とする。
第1発明の車両周辺監視装置によれば、撮像画像(撮像手段により撮像された画像のほか、当該画像に加工処理が施されることにより得られた画像も含まれる。)から抽出された対象物が存在する領域としての対象物領域から、第1および第2の要素領域群が異なる時刻において抽出されたことを要件として、当該対象物が四足動物に該当すると判定される。なお、「四足動物」はすべての四足動物を意味するのではなく、本発明の手法により分類されうる特定の四足動物を意味している。第1の要素領域群は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。第2の要素領域群は、前脚および後脚のうち一方が開き、他方がほぼ揃っている「第2の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第1の姿勢」と「第2の姿勢」とが異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。
第2発明の車両周辺監視装置は、第1発明の車両周辺監視装置において、前記対象物分類手段が、前記第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ下方に向かうにつれて間隔が広がるように配置されている横並びの前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。
第2発明の車両周辺監視装置によれば、対象物領域から第2の要素領域群および第3の要素領域群が異なる時刻に抽出されたことをさらなる要件として、対象物が四足動物に該当すると判定される。第3の要素領域群は、第2の姿勢と比較して、前脚および後脚のうち開いている一対の脚と、ほぼ揃っている一対の脚との配置が左右(四足動物にとっては前後)逆になっている「第3の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第2の姿勢」および「第3の姿勢」が異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。
第3発明の車両周辺監視装置は、第2発明の車両周辺監視装置において、前記対象物分類手段が、前記第1の要素領域群が抽出されてから第1の所定時間以内に前記第2の要素領域群が抽出されることと、前記第2の要素領域群が抽出されてから前記第1の所定時間より長い第2の所定時間以内に前記第3の要素領域群が抽出されることとをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。
第3発明の車両周辺監視装置によれば、第1の要素領域群が抽出されてから第1の所定時間以内に第2の要素領域群が抽出されることと、第2の要素領域群が抽出されてから第1の所定時間よりも長い第2の所定時間以内に第3の要素領域群が抽出されることとを要件として、対象物が四足動物に該当すると判定される。歩行または走行している四足動物が横から観察された場合、四足動物の姿勢が第1の姿勢から第2の姿勢に遷移するのに要する時間よりも、四足動物の姿勢が第2の姿勢から第3の姿勢に遷移するのに要する時間のほうが長くなる可能性が高い。したがって、前記のように第2の所定時間が第1の所定時間よりも長く設定されることにより、第2の要素領域群が抽出されてから、第3の要素領域群が抽出されえないほど早い段階で対象物が四足動物に該当しないと誤認される事態が回避されうる。すなわち、前記のような判定手法により対象物が四足動物であるか否かが高精度で認識されうる。
第4発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域と、前記1対の要素領域の横に並ぶ1つの前記要素領域とからなる第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを有することを特徴とする。
第4発明の車両周辺監視装置によれば、第2発明と同様の理由から、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。
第5発明の車両周辺監視装置は、第4発明の車両周辺監視装置において、前記対象物分類手段が、前記第2の要素領域群が抽出されてから前記第3の要素領域群が抽出される間に、前記第2対象物領域から下方に向かうにつれて間隔が広がるように配置されている横並びの2対の前記要素領域からなる第1の要素領域群が抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする。
第5発明の車両周辺監視装置によれば、第2の要素領域群が抽出されてから第3の要素領域群が抽出される間に、第1の要素領域群が抽出されることをさらなる要件として、対象物が四足動物に該当すると判定される第1の要素領域群は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第2の姿勢」「第1の姿勢」および「第3の姿勢」が異なる時刻で順に確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。
本発明の車両周辺監視装置の実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3、自車両10の走行速度(車速)を検出する車速センサ4、および自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6、および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するための表示装置7が接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像手段に相当する。対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の通報要件を満す場合にスピーカ6や表示装置7により運転者に通報を発する処理を実行する。なお、画像処理ユニット1は対象物抽出手段および対象物分類手段としての機能を備えている。
図2に示されているように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、自車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。
また、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。
次に、前記構成の車両周辺監視装置の基本的な機能について図3のフローチャートを用いて説明する。図3のフローチャートの基本的な処理内容は、たとえば本出願人による特開2001−6096号公報の図3および特開2007−310705号公報の図3に記載されている処理内容と同様である。
具体的にはまず、赤外線カメラ2R、2Lの赤外線画像信号が画像処理ユニット1に入力される(図3/STEP11)。次いで、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号をA/D変換する(図3/STEP12)。そして、画像処理ユニット1は、A/D変換された赤外線画像からグレースケール画像を取得する(図3/STEP13)。その後、画像処理ユニット1は、基準画像(右画像)を2値化する(図3/STEP14)。次いで、画像処理ユニット1は2値化画像から対象物が存在する領域を対象物領域Sとして抽出する。具体的には、2値化画像の高輝度領域を構成する画素群をランレングスデータに変換する(図3/STEP15)。次いで、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付される(図3/STEP16)。そして、ライン群のそれぞれが対象物として抽出される(図3/STEP17)。これにより、たとえば図6(a)〜(c)に示されているように矩形状の二重枠によって対象物の全部を囲むように画定された領域が対象物領域Sとして抽出される。なお、対象物(高輝度領域)の全部ではなく、対象物の一部、特に、対象物が四足動物である場合にはその脚が存在する可能性が高い対象物の下部を包含するように対象物領域Sが設定されてもよい。これにより、たとえば図6(a)〜(c)に示されている二重線で囲まれた領域の下部に位置する、一点鎖線で囲まれた領域が対象物領域Sとして抽出されてもよい。
その後、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比を算出する(図3/STEP18)。次いで、画像処理ユニット1は、対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の対象物の同一性を判定する(図3/STEP19)。そして、画像処理ユニット1は、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)を読み込む(図3/STEP20)。
一方、画像処理ユニット1は、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像として抽出する(図3/STEP31)。次いで、左画像中から探索画像に対応する画像(対応画像)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(図3/STEP32)。そして、対象物の自車両10からの距離(自車両10の前後方向における距離)を算出する(図3/STEP33)。
次いで、画像処理ユニット1は、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(図3/STEP21)。そして、画像処理ユニット1は、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを前記STEP20で求めた回頭角の時系列データに応じて補正する(図3/STEP22)。その後、画像処理ユニット1は、対象物の自車両10に対する相対移動ベクトルを推定する(図3/STEP23)。次いで、STEP23において、相対移動ベクトルが求められたら、検出した対象物との接触の可能性を判定し、その可能性が高いときに通報を発する通報判定処理を実行する(図3/STEP24)。そして、対象物が通報判定要件を満たすと判定した場合(図3/STEP24‥YES)、通報判定要件を満たす対象物に関する実際の通報を行うべきか否かの判定を行う通報出力判定処理を実行する(図3/STEP25)。その後、画像処理ユニット1は、通報を行うべきと判定した場合(図3/STEP25‥YES)、運転者に対して自車両10との接触可能性が高い状況である旨の通報をする(図3/STEP26)。具体的には、スピーカ6を介して音声を出力することにより当該状況が通報される。また、HUD7aにおいて対象物を強調表示することによっても当該状況が通報される。以上が本実施形態の周辺監視装置の全体的作動である。なお、画像処理ユニット1によりSTEP11〜18の処理を実行する構成が、本発明の第1の対象物領域抽出手段に相当する。
次に、図3に示したフローチャートのSTEP24における通報判定処理について図4のフローチャートを用いて説明する。図4のフローチャートの基本的な処理内容は、例えば本出願人による特開2001−6096号の図4および特開2007−310705号の図4に記載されている処理内容と同様である。
具体的にはまず、画像処理ユニット1は、接触判定処理を行う(図4/STEP41)。接触判定処理は、自車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合に、接触の可能性があるものとして判定する。次いで、余裕時間T以内に自車両と対象物とが接触する可能性がある場合(図4/STEP41‥YES)、画像形成ユニット1は、対象物が接近判定領域内に存在するか否かを判定する(図4/STEP42)。そして、対象物が接近判定領域内に存在しない場合(図4/STEP42‥NO)、画像形成ユニット1は、対象物が接近判定領域内に侵入して自車両10と接触する可能性があるか否かを判定する(図4/STEP43)。具体的には、対象物が侵入判定領域に存在し、かつ、STEP23で求めた対象物の移動ベクトルが接近判定領域に向かっているときに、接触する可能性が高いと判定する。
一方、対象物が接近判定領域内に存在している場合(図4/STEP42‥YES)、または対象物が接近判定領域内に侵入して自車両10と接触する可能性がある場合(図4/STEP43‥YES)、画像処理ユニット1は、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(図4/STEP44)。人工構造物判定処理は、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定する。次いで、対象物は人工構造物ではないと判定された場合(図4/STEP44‥NO)、対象物が歩行者に該当するか否かが判定される(図4/STEP45)。具体的には、グレースケール画像上で対象物の画像領域の形状や大きさ、輝度分散等の特徴から、対象物が歩行者に該当するか否かが判定される。そして、対象物が歩行者に該当すると判定された場合(図4/STEP45‥YES)、検出した対象物を通報または注意喚起の対象として決定する(図4/STEP46)。
また、対象物が人工構造物であると判定された場合(図4/STEP44‥YES)または対象物が歩行者ではないと判定された場合(図4/STEP45‥NO)、この対象物が四足動物に該当するか否かが判定される(図4/STEP47)。対象物が四足動物に該当すると判定された場合(図4/STEP47‥YES)、画像処理ユニット1は、検出した対象物を通報の対象として決定する(図4/STEP46)。その一方、対象物が四足動物に該当しないと判定された場合(図4/STEP47‥NO)、画像処理ユニット1は、検出した対象物を通報の対象から除外される(図4/STEP48)。
次に、本発明の車両周辺監視装置の主要な機能である動物判定処理について図5のフローチャートを用いて説明する。対象物抽出手段(図3/STEP11〜18参照)により抽出された対象物領域Sから、要素領域群が抽出されるか否かが判定される。具体的にはメモリにあらかじめ保存または格納されているテンプレートと、対象物領域Sにおける高輝度画像領域の一部または全部との相関値が基準値を超えているか否かに応じて、当該高輝度画像領域の一部または全部が第1〜第3要素領域群のうちいずれか1つに該当するか否かが判定される。テンプレートとしては、第1の要素領域群E1を抽出するための第1種のテンプレートT1と、第2の要素領域群E2を抽出するための第2種のテンプレートT2と、第3の要素領域群E3を抽出するための第3種のテンプレートT3とが準備されている。なお、対象物領域Sから抽出された高輝度領域が細線化処理された上で得られた細線化画像の形状および配置態様に基づき、各要素領域群E1〜E3が抽出されてもよい。
第1の対象物領域群E1は図6(a)に示されているように下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域(上下方向または上下方向に対して傾斜している方向にのびる形状を有している。以下同じ。)E1aおよびE1bと、その横に並んでいる、下方に向かうにつれて間隔が広がるように配置されている横並びのもう1対の要素領域E1cおよびE1dとからなる。第2の要素領域群E2は図6(b)に示されているように1つの要素領域E2aと、その横に並ぶ下方に向かうにつれて間隔が広がるように配置されている1対の要素領域E2bおよびE2cとからなる。第3の要素領域群E3は図6(c)に示されているように下方に向かうにつれて間隔が広がるように配置された1対の要素領域E3aおよびE3bと、その横に並ぶ1つの要素領域E3cとからなる。なお、図6(b)に示されている要素領域群が第3の要素領域群E3として定められ、図6(c)に示されている要素領域群が第2の要素領域群E2として定められてもよい。
第1種のテンプレートT1は図7(a)に示されているように下方に向かうにつれて間隔が広がるように配置されている横並びの1対の基準要素(上下方向または上下方向に対して傾斜している方向にのびる形状を有している。以下同じ。)T1aおよびT1bと、その横に並んでいる、下方に向かうにつれて間隔が広がるように配置されている横並びのもう1対の基準要素T1cおよびT1dとからなる。第2種のテンプレートT2は図7(b)に示されているように1つの基準要素T2aと、その横に並ぶ下方に向かうにつれて間隔が広がるように配置されている1対の基準要素T2bおよびT2cとからなる。第3種のテンプレートT3は図7(c)に示されているように下方に向かうにつれて間隔が広がるように配置されている1対の基準要素T3aおよびT3bと、その横に並ぶ1つの基準要素T3cとからなる。なお、図7(b)に示されているテンプレートが第3種のテンプレートT3として定められ、図7(c)に示されているテンプレートが第2種のテンプレートT2として定められてもよい。各種テンプレートとして、基準要素の形状、サイズおよび配置(間隔など)のうち一部または全部が異なる複数パターンのテンプレートが準備されていてもよい。テンプレートは赤外線カメラ2R、2Lにより撮像された、横向きの犬、鹿、馬等の特定種類の四足動物の画像に基づいて作成されてもよい。
まず、対象物領域Sから第1要素領域群E1が抽出されたか否かが判定される(図5/STEP102)。第1要素領域群E1が抽出されたと判定された場合(図5/STEP102‥YES)、対象物領域Sから第2要素領域群E2が抽出されたか否かが判定される(図5/STEP104)。なお、STEP102において第2の要素領域群E2が抽出されたか否かが判定された上で、STEP104において第1の要素領域群E1が抽出されたか否かが判定されてもよい。第2の要素領域群E2が抽出されていないと判定された場合(図5/STEP104‥NO)、第1の要素領域群E1が抽出されたと判定されてから第1の所定時間が経過したか否かが判定される(図5/STEP110)。第1の所定時間は四足動物の標準的な歩行周期の約0.25倍等、四足動物の標準的な歩行周期を基準として設定されている。当該判定結果が否定的である場合(図5/STEP110‥NO)、対象物領域Sから第2要素領域群E2が抽出されたか否かが再び判定される(図5/STEP104)。
第2の要素領域群E2が抽出されたと判定された場合(図5/STEP104‥YES)、対象物領域Sから第3の要素領域群E3が抽出されたか否かが判定される(図5/STEP106)。第3の要素領域群E3が抽出されていないと判定された場合(図5/STEP106‥NO)、第2の要素領域群E2が抽出されたと判定されてから第2の所定時間が経過したか否かが判定される(図5/STEP112)。第2の所定時間は第1の所定時間の約2倍に設定される等、第1の所定時間より長く設定されている。なお、STEP102において第2の要素領域群E2が抽出されたか否かが判定され、STEP104において第1の要素領域群E1が抽出されたか否かが判定される場合、第2の所定時間は第1の所定時間と同様に四足動物の標準的な歩行周期に基づいて設定される。当該判定結果が否定的である場合(図5/STEP112‥NO)、対象物領域Sから第3の要素領域群E3が抽出されたか否かが再び判定される(図5/STEP106)。
第3の要素領域群E3が抽出されたと判定された場合(図5/STEP106‥YES)、対象物が四足動物に該当すると判定される(図5/STEP114)。なお、第1の要素領域群E1が抽出されたと判定されてから、第2の要素領域群E2が抽出されないまま第1の所定時間が経過した場合(図5/STEP104‥NO、STEP110‥YES)、対象物が四足動物に該当しないと判定される(図5/STEP116)。また、第2の要素領域群E2が抽出されたと判定されてから、第3の要素領域群E3が抽出されないまま第2の所定時間が経過した場合(図5/STEP106‥NO、STEP112‥YES)、対象物が四足動物に該当しないと判定される(図5/STEP116)。
画像処理ユニット1において、動物判定処理(STEP100〜116、STEP200〜208)の処理を実行する構成(CPUおよび関連するRAM,ROM等)が、本発明の対象物分類手段に相当する。
前記機能を発揮する車両周辺監視装置によれば、対象物が存在する領域として抽出された対象物領域Sから、第1の要素領域群E1および第2の要素領域群E2が異なる時刻において抽出されたことと、さらには、第2の要素領域群E2および第3の要素領域群E3が異なる時刻において抽出されたこととを要件として、当該対象物が四足動物に該当すると判定される(図5/STEP102,104,106,114参照)。第1の要素領域群E1は、前脚および後脚が開いている「第1の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(a)参照)。第2の要素領域群E2は、前脚および後脚のうち一方が開き、他方がほぼ揃っている「第2の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(b)参照)。第3の要素領域群E3は、第2の姿勢と比較して、前脚および後脚のうち開いている一対の脚と、ほぼ揃っている一対の脚との配置が左右(四足動物にとっては前後)逆になっている「第3の姿勢」を示している横向きの四足動物の4本の脚に該当する蓋然性が高い(図6(c)参照)。さらに、歩行または走行している四足動物が横から観察された場合、この四足動物の姿勢として「第1の姿勢」「第2の姿勢」および「第3の姿勢」が異なる時刻で確認される可能性が高い。これらの点に鑑みて、前記のような判定手法により撮像画像から抽出された高輝度領域により表わされる対象物が四足動物であるか否かが高精度で認識されうる。
また、第1の要素領域群E1が抽出されてから第1の所定時間以内に第2の要素領域群E2が抽出されることと、第2の要素領域群E2が抽出されてから第1の所定時間よりも長い第2の所定時間以内に第3の要素領域群E3が抽出されることとをさらなる要件として、対象物が四足動物に該当すると判定される(図5/STEP110,112,114参照)。歩行または走行している四足動物が横から観察された場合、四足動物の姿勢が第1の姿勢から第2の姿勢に遷移するのに要する時間よりも、四足動物の姿勢が第2の姿勢から第3の姿勢に遷移するのに要する時間のほうが長くなる可能性が高い。したがって、前記のように第2の所定時間が第1の所定時間よりも長く設定されることにより、第2の要素領域群が抽出されてから、第3の要素領域群が抽出されえないほど早い段階で対象物が四足動物に該当しないと誤認される事態が回避されうる。すなわち、前記のような判定手法により対象物が四足動物であるか否かが高精度で認識されうる。
なお、第1の要素領域群E1および第2の要素領域群E2が異なる時刻において(先後を問わず)抽出されたことを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP102,104,114参照)。この際、必要に応じて当該異なる時刻の間隔が第1の所定時間以内であることをさらなる要件として当該対象物が四足動物に該当すると判定されてもよい(図5/STEP110参照)。第2の要素領域群E2および第3の要素領域群E3が異なる時刻において(先後を問わず)抽出されたことのみを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP104,106,114参照)。この際、必要に応じて当該異なる時刻の間隔が第2の所定時間以内であることをさらなる要件として当該対象物が四足動物に該当すると判定されてもよい(図5/STEP112参照)。第2の要素領域群E2、第1の要素領域群E1および第3の要素領域群E3が順に抽出されたことのみを要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP102,104,106,114参照)。この際、第2の要素領域群E2が抽出されてから第1の要素領域群E1が抽出されるまでの時間と、第1の要素領域群E1が抽出されてから第3の要素領域群E3が抽出されるまでの時間とがともに第1の所定時間以内であることをさらなる要件として、対象物が四足動物に該当すると判定されてもよい(図5/STEP110参照)。
なお、次のようにして対象物領域Sが抽出されてもよい。まず、赤外線カメラ2R、2Lにより撮像されA/D変換された赤外線画像から取得されるグレースケール画像(図3/STEP13参照)が2値化処理されることにより得られた2値化画像(図3/STEP14参照)から抽出された高輝度領域(対象物)を包含する領域が第1対象物領域S1として抽出される(図8/STEP202)。これにより、図9(a)に示されているように、対象物の高輝度領域(対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる、第1閾値より大きい第2閾値以上の輝度の第2高輝度領域)を囲む、斜線が付された矩形状の領域が第1対象物領域S1として抽出される。第1対象物領域S1の横幅Wを縦幅Hで割った値である縦横比W/Hが1以上であることが、対象物が四足動物に該当すると判定されるための追加要件とされていてもよい。第1対象物領域S1は、横向きの四足動物の胴部に相当する可能性がある。
続いて、第1の対象物領域S1を基準として基準領域Aが抽出される(図8/STEP204)。これにより、図9(b)に示されているような破線で囲まれている領域が基準領域Aとして抽出される。基準領域Aの上端位置は第1対象物領域S1の上端位置と一致している。基準領域Aの高さは、第1対象物領域S1の高さHの3倍の高さに設定されている。基準領域Aの左端位置は第1対象物領域S1の左端位置よりも所定のマージンMARGIN_Wだけ左側にあり、基準領域Aの右端位置は第1対象物領域S1の右端位置よりも所定のマージンMARGIN_W(余裕)だけ右側にある。なお、基準領域Aの上端位置は第1の対象物領域S1の上端位置より下方に位置していてもよい。
さらに、基準領域Aから第2対象物領域S2が対象物領域Sとして抽出される(図8/STEP206)。具体的には、基準領域Aにおいて縦方向および横方向のそれぞれを走査方向としてエッジ画素が抽出される。エッジ画素は2値化画像における輝度が「0」から「1」になる箇所である。基準領域Aにおいて最も上で水平方向またはほぼ水平方向(縦2〜3画素分のずれ)に並ぶ所定個数以上の一連の縦エッジ画素群の位置が図9(c)に示されているように脚部上端位置として抽出される。また、基準領域Aにおいて最も下で水平方向またはほぼ水平方向(縦2〜3画素分のずれが許容されている。)に並ぶ所定個数以上の一連の縦エッジ画素群の位置が図9(c)に示されているように脚部下端位置として抽出される。さらに、基準領域Aにおいて最も左または右で鉛直方向またはほぼ鉛直方向(横2〜3画素分のずれが許容されている。)に並ぶ所定個数以上の一連の横エッジ画素群の位置が図9(c)に示されているように脚部左右端位置が抽出される。そして、図9(c)に示されているように第1対象物領域S1の下方において、脚部下端位置および脚部上端位置を示す一対の水平線と、脚部左右端位置を示す一対の垂直線とにより囲まれた領域が第2対象物領域S2として抽出される。なお、第1対象物領域S1の下方にメモリに格納されている所定形状の第2対象物領域S2が抽出されてもよい。
その後、前記実施形態と同様に、第2対象物領域S2として抽出された対象物領域Sから要素領域群が抽出されたか否かが判定されることにより、対象物が四足動物に該当するか否かが判定されうる(図5/STEP102〜114、図6、図7参照)。この場合も、前記実施形態と同様に、歩行または走行中の横向きの四足物の姿勢変化態様に鑑みて、対象物が四足動物であるか否かが高精度で認識されうる。
本発明の車両周辺監視装置の一実施形態の全体構成を示す図 車両周辺監視装置が搭載されている車両の斜視図 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャート 車両周辺監視装置を構成する画像処理ユニットの機能を示すフローチャート 本実施形態における対象物種別判定処理を示すフローチャート 要素領域群に関する説明図 テンプレートに関する説明図 本実施形態における脚部領域抽出処理を示すフローチャート 画像処理ユニットの処理を説明するための図
符号の説明
1…画像処理ユニット(対象物抽出手段、対象物判定手段)、2R,2L…赤外線カメラ(撮像手段)

Claims (5)

  1. 車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
    前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、
    前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの2対の要素領域からなる第1の要素領域群、および、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の前記要素領域とその横に並ぶ1つの前記要素領域とからなる第2の要素領域群が異なる時刻において抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを備えることを特徴とする車両周辺監視装置。
  2. 請求項1記載の車両周辺監視装置において、
    前記対象物分類手段が、前記第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ下方に向かうにつれて間隔が広がるように配置されている横並びの前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
  3. 請求項2記載の車両周辺監視装置において、
    前記対象物分類手段が、前記第1の要素領域群が抽出されてから第1の所定時間以内に前記第2の要素領域群が抽出されることと、前記第2の要素領域群が抽出されてから前記第1の所定時間より長い第2の所定時間以内に前記第3の要素領域群が抽出されることとをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
  4. 車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
    前記撮像画像から、対象物を表わす第1閾値以上の輝度の第1高輝度領域に含まれる前記第1閾値より大きい第2閾値以上の輝度の第2高輝度領域により構成される第1対象物領域を抽出し、前記第1対象物領域下方の前記対象物の一部が存在する領域である第2対象物領域を対象物領域として抽出する対象物領域抽出手段と、
    前記対象物領域抽出手段により抽出された前記第1対象物領域の縦幅に対する横幅の比率が1以上であることと、前記対象物領域抽出手段により抽出された前記対象物領域から、上下方向または上下方向に対して傾斜している方向にのび、かつ、下方に向かうにつれて間隔が広がるように配置されている横並びの1対の要素領域と、前記1対の要素領域の横に並ぶ1つの前記要素領域とからなる第2の要素領域群と、前記第2の要素領域群と比較して左右逆に並ぶ前記1対の要素領域および前記1つの要素領域からなる第3の要素領域群とが異なる時刻に抽出されることとを要件として、前記対象物が四足動物に該当すると判定する対象物分類手段とを有することを特徴とする車両周辺監視装置。
  5. 請求項4記載の車両周辺監視装置において、
    前記対象物分類手段が、前記第2の要素領域群が抽出されてから前記第3の要素領域群が抽出される間に、前記第2対象物領域から下方に向かうにつれて間隔が広がるように配置されている横並びの2対の前記要素領域からなる第1の要素領域群が抽出されることをさらなる要件として、前記対象物が前記四足動物に該当すると判定することを特徴とする車両周辺監視装置。
JP2008215457A 2008-08-25 2008-08-25 車両周辺監視装置 Expired - Fee Related JP5004903B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008215457A JP5004903B2 (ja) 2008-08-25 2008-08-25 車両周辺監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008215457A JP5004903B2 (ja) 2008-08-25 2008-08-25 車両周辺監視装置

Publications (3)

Publication Number Publication Date
JP2010049635A JP2010049635A (ja) 2010-03-04
JP2010049635A5 JP2010049635A5 (ja) 2010-08-19
JP5004903B2 true JP5004903B2 (ja) 2012-08-22

Family

ID=42066640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008215457A Expired - Fee Related JP5004903B2 (ja) 2008-08-25 2008-08-25 車両周辺監視装置

Country Status (1)

Country Link
JP (1) JP5004903B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235990B2 (en) 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
JP5502149B2 (ja) * 2012-06-29 2014-05-28 本田技研工業株式会社 車両周辺監視装置
JP5907849B2 (ja) * 2012-10-02 2016-04-26 本田技研工業株式会社 車両周辺監視装置
JP5885640B2 (ja) * 2012-11-05 2016-03-15 本田技研工業株式会社 車両周辺監視装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295798A (ja) * 2003-03-28 2004-10-21 Japan Best Rescue System Kk 警備システム
JP4173901B2 (ja) * 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP2008021035A (ja) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd 画像認識装置、画像認識方法および車両制御装置

Also Published As

Publication number Publication date
JP2010049635A (ja) 2010-03-04

Similar Documents

Publication Publication Date Title
JP4173901B2 (ja) 車両周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
JP5198346B2 (ja) 車両周辺監視装置
JP4171501B2 (ja) 車両の周辺監視装置
WO2010050090A1 (ja) 車両周辺監視装置
US8189868B2 (en) Vehicle periphery monitoring device
JP5480925B2 (ja) 車両周辺監視装置
JP4271720B1 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP4644273B2 (ja) 車両周辺監視装置
JP5004903B2 (ja) 車両周辺監視装置
JP5259647B2 (ja) 車両の周辺監視装置
JP5172482B2 (ja) 車両周辺監視装置
JP5004919B2 (ja) 車両周辺監視装置
JP5004882B2 (ja) 車両周辺監視装置
JP5642785B2 (ja) 車両の周辺監視装置
JP4615061B2 (ja) 車両周辺監視装置
JP5026398B2 (ja) 車両周辺監視装置
JP4972073B2 (ja) 環境認識装置
JP5907849B2 (ja) 車両周辺監視装置
JP2009193241A (ja) 車両周辺監視装置、車両、車両周辺監視プログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees