JP2007310706A - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP2007310706A
JP2007310706A JP2006140117A JP2006140117A JP2007310706A JP 2007310706 A JP2007310706 A JP 2007310706A JP 2006140117 A JP2006140117 A JP 2006140117A JP 2006140117 A JP2006140117 A JP 2006140117A JP 2007310706 A JP2007310706 A JP 2007310706A
Authority
JP
Japan
Prior art keywords
area
image
vehicle
periphery monitoring
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006140117A
Other languages
English (en)
Other versions
JP4173902B2 (ja
Inventor
Fuminori Taniguchi
文則 谷口
Hiroyuki Koike
弘之 小池
Masakazu Saka
雅和 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006140117A priority Critical patent/JP4173902B2/ja
Priority to US11/799,987 priority patent/US7982748B2/en
Priority to DE102007022940A priority patent/DE102007022940A1/de
Publication of JP2007310706A publication Critical patent/JP2007310706A/ja
Application granted granted Critical
Publication of JP4173902B2 publication Critical patent/JP4173902B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】対象物の種別を判定することができる車両周辺監視装置、特に、対象物の中から人以外の動物を判定することができる車両周辺監視装置を提供する。
【解決手段】車両に搭載された撮像手段2R,2Lによって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物の画像領域を抽出する(STEP1〜6)対象物抽出手段と、前記対象物抽出手段により抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する(STEP31〜36)対象物種別判定手段とを備える。
【選択図】図5

Description

本発明は、自車両の走行に影響を与える対象物を認識する車両周辺監視装置に関する。
従来、この種の車両周辺監視装置としては、赤外線カメラにより捉えられた車両周辺の撮像画像から、自車両との接触の可能性がある歩行者の対象物を抽出し、その情報を自車両の運転者に視覚的に提供する表示処理装置が提案されている(例えば特許文献1参照)。この装置は、赤外線撮像画像を2値化処理して高輝度領域を探し、該領域の赤外線画像領域内の重心位置、面積比、実面積などの頭部判定条件から、該領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域を決定した後、歩行者の身体を包含する領域を設定し、これらの領域を他の領域と区分して表示する。これにより、赤外線撮像画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで視覚補助を行う。
しかしながら、車両周辺に存在し、車両と接触する可能性のある対象物は歩行者に限られるものではなく、例えば、鹿などの大型動物が道路上に存在して、車両と接触する場合も考えられる。この場合、大型動物は、その赤外線画像領域内の重心位置、面積比、実面積などから、上述の判定条件では歩行者と判定されることはないため、車両との接触の可能性があるにもかかわらず、注意喚起の対象としてその情報が車両の運転者に報知されることはないという不都合があった。
特開平11−328364号公報
本発明は、以上の不都合な点に鑑み、対象物の種別を判定することができる車両周辺監視装置、特に、対象物の中から人以外の動物を判定することができる車両周辺監視装置を提供することをその課題としている。
上記課題を解決するために、本発明の車両周辺監視装置は、車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記撮像画像から対象物の画像領域を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定手段とを備えることを特徴とする。
一般的に、動物の種類によっては、該動物を正面又は背面から撮像すると、動物の頭部に相当する逆三角形の第1の対象物領域と、該第1の対象物領域の下に胴部に相当する第2の対象物領域とを有する画像領域が得られる。そこで、本発明の車両周辺監視装置は、前記対象物の画像領域が、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むことを条件として、該対象物の種別を判定する。これにより、該対象物の種別が、逆三角形の画像領域を有する動物であるか否かを判定することができる。
また、本発明の車両周辺監視装置において、前記対象物種別判定手段は、前記対象物抽出手段によって抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むときに、該対象物の種別は人以外の動物であると判定することを特徴とする。
かかる本発明の車両周辺監視装置によれば、前記対象物種別判定手段は、前記対象物の画像領域が、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むことを条件として、該対象物が人以外の動物であるか否かを判定する。これにより、逆三角形の形状を有さない看板や標識等と区別して、該対象物が人以外の動物であるか否かを判定することができる。
さらに、本発明の車両周辺監視装置において、前記第1の対象物領域は、さらに所定の大きさを有することを特徴とする。
一般的に、頭部に相当する第1の対象物領域の大きさは、動物の種類によって異なる。そのため、前記対象物種別判定手段は、所定の大きさを有する逆三角形の第1の対象物領域を有することを条件として、対象物の種別を判定する。これにより、対象物の種別をより正確に判定することができる。
また、本発明の車両周辺監視装置において、前記対象物種別判定手段は、前記逆三角形状の最も下方に位置する頂角に対向する辺の長さ又は前記逆三角形状の水平方向の幅の最大値を第1領域幅とし、前記第2の対象物領域の水平方向の幅の最大値を第2領域幅として、該第1領域幅と第2領域幅との関係に基づいて、前記対象物の種別を判定することを特徴とする。
一般的に、動物の頭部の幅に相当する第1領域幅と、胴部の幅に相当する第2領域幅との関係は、動物の種類によって異なる。そこで、本発明の対象物種別判定手段は、第1領域幅と第2領域幅との関係に基づいて対象物の種別を判定する。これにより、該対象物の種別が、第1領域幅と第2領域幅との関係が所定の関係となる動物であるか否かを判定することができる。
さらに、本発明の車両周辺監視装置において、前記対象物種別判定手段は、前記第2領域幅が、前記第1領域幅の1/2より大きい場合に、前記対象物の種別は人以外の動物であると判定することを特徴とする。
一般的に、人以外の動物であれば、頭部を支える胴部の幅は、少なくとも頭部の幅の1/2より大きいと考えられる。そこで、本発明の車両周辺監視装置によれば、前記第2領域幅が、前記第1領域幅の1/2より大きい場合に、前記対象物は人以外の動物であると判定することができる。
また、本発明の車両周辺監視装置において、前記撮像画像に含まれる画像領域に対応する実空間上の位置の前記車両からの距離を算出する距離算出手段を備え、前記対象物種別判定手段は、前記第2の対象物領域に対応する実空間上の位置が、前記第1の対象物領域に対応する実空間上の位置から所定の距離以内に位置することを条件として、該対象物の種別を判定することを特徴とする。
一般的に、人以外の動物を正面から見た場合には、胴部に相当する第2の対象物領域は頭部に相当する第1の対象物領域のほぼ真下に位置するため、第1の対象物領域と第2の対象部領域の実空間上の距離はほぼ等しくなる。一方、背面から見た場合には、第2の対象物領域は第1の対象物領域の真下ではなく手前側に位置するため、第1の対象物領域と第2の対象物領域の実空間上の距離はある程度差が生じる。そこで、本発明の車両周辺監視装置は、前記第2の対象物領域の実空間上の位置が、前記第1の対象物領域の実空間上の位置から所定の距離以内に位置するか否かを条件として、前記対象物の種別を判定する。これにより、正面、背面のいずれから見た場合であっても、第1の対象物領域と第2の対象物領域とが同一の動物の一部であると判断して、対象物の種別を精度良く判定することができる。
上記課題を解決するための本発明の車両は、前記車両周辺監視装置が搭載されたことを特徴とする。
かかる本発明の車両によれば、前記車両周辺監視装置によって、前記対象物の画像領域が、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むことを条件として、該対象物の種別を判定する。これにより、該対象物の種別が、逆三角形の画像領域を有する動物であるか否かを判定することができる。
上記課題を解決するための本発明の車両周辺監視用プログラムは、車両に搭載された撮像手段による撮像画像のデータにアクセスする手段を有する車載コンピュータに、車両の周辺に存在する物体を監視する機能を実現させるためのプログラムであって、該コンピュータを、前記撮像画像から対象物の画像領域を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定手段として機能させることを特徴とする。
かかる本発明の車両周辺監視用プログラムを前記コンピュータ上で実行させて、前記対象物抽出手段により前記撮像画像から対象物を抽出し、前記対象物種別判定手段により、前記対象物抽出手段により抽出された対象物の画像領域が、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むことを条件として、該対象物の種別を判定する。これにより、該対象物の種別が、逆三角形の画像領域を有する動物であるか否かを判定することができる。
上記課題を解決するための本発明の車両周辺監視方法は、車両に搭載された撮像手段による撮像画像のデータにアクセスする手段を有する車載コンピュータにより、車両の周辺に存在する物体を監視する車両周辺監視方法であって、前記コンピュータが、前記撮像画像から対象物の画像領域を抽出する対象物抽出ステップと、前記コンピュータが、前記対象物抽出ステップにより抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定ステップとを有することを特徴とする。
かかる本発明の車両周辺監視方法によれば、前記コンピュータが対象物抽出ステップで前記撮像画像から対象物を抽出し、対象物種別判定ステップで、前記対象物抽出ステップにより抽出された対象物の画像領域が、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むことを条件として、該対象物の種別を判定する。これにより、該対象物の種別が、逆三角形の画像領域を有する動物であるか否かを判定することができる。
本発明の一実施形態を以下に図1〜図7を参照して説明する。
まず、図1および図2を参照して、本実施形態の車両の周辺監視装置のシステム構成を説明する。図1は該周辺監視装置の全体構成を示すブロック図、図2は該周辺監視装置を搭載した車両(自車両)の外観を示す斜視図である。なお、図2では、周辺監視装置の一部の構成要素の図示を省略している。
図1および図2を参照して、本実施形態の周辺監視装置は、画像処理ユニット1を備える。この画像処理ユニット1には、自車両10の前方の画像を撮像する撮像手段としての2つの赤外線カメラ2R,2Lが接続されると共に、自車両10の走行状態を検出するセンサとして、自車両10のヨーレートを検出するヨーレートセンサ3と、自車両10の走行速度(車速)を検出する車速センサ4と、自車両10のブレーキ操作の有無を検出するブレーキセンサ5とが接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な注意喚起情報を出力するためのスピーカ6と、赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な注意喚起情報を表示するための表示装置7とが接続されている。なお、赤外線カメラ2R,2Lが本発明における撮像手段に相当する。
画像処理ユニット1は、詳細な図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM等を有する)、画像メモリなどを含む電子回路により構成され、赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化されて、マイクロコンピュータに入力される。そして、マイクロコンピュータは、入力されたデータを基に、人(歩行者、自転車に乗っている者)などの対象物を検出し、検出した対象物が所定の注意喚起要件を満す場合にスピーカ6や表示装置7により運転者に注意喚起を発する処理を実行する。
なお、画像処理ユニット1は、本発明における対象物抽出手段、対象物種別判定手段および距離算出手段としての機能を備えている。そして、前記マイクロコンピュータに、本発明の車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の対象物抽出手段および対象物種別判定手段として機能する。さらに、前記マイクロコンピュータを、対象物抽出手段および対象物種別判定手段として機能させることにより、本発明の車両周辺監視方法における対象物抽出ステップおよび対象物種別判定ステップが実行される。
なお、画像処理ユニット1は、本発明における対象物抽出手段および対象物種別判定手段としての機能を備えている。そして、前記マイクロコンピュータに、本発明の車両周辺監視用プログラムを実行させることにより、該コンピュータは、本発明の対象物抽出手段および対象物種別判定手段として機能する。さらに、前記マイクロコンピュータを、対象物抽出手段および対象物種別判定手段として機能させることにより、本発明の車両周辺監視方法における対象物抽出ステップおよび対象物種別判定ステップが実行される。
図2に示すように、赤外線カメラ2R,2Lは、自車両10の前方を撮像するために、自車両10の前部(図ではフロントグリルの部分)に取り付けられている。この場合、赤外線カメラ2R,2Lは、それぞれ、自車両10の車幅方向の中心よりも右寄りの位置、左寄りの位置に配置されている。それら位置は、自車両10の車幅方向の中心に対して左右対称である。そして、赤外線カメラ2R,2Lは、それらの光軸が互いに平行に自車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。
また、本実施形態では、表示装置7として、自車両10のフロントウィンドウに画像情報を表示するヘッド・アップ・ディスプレイ7a(以下、HUD7aという)を備えている。なお、表示装置7として、HUD7aの代わりに、もしくは、HUD7aと共に、自車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、あるいは、車載ナビゲーション装置に備えられたディスプレイを用いてもよい。
次に、本実施形態の周辺監視装置の全体的動作を図3のフローチャートを参照して説明する。なお、図3のフローチャートの処理のうちの多くの処理は、例えば本出願人による特開2001−6096号の図3に記載されている処理と同じであるので、その同じ処理については、本明細書での詳細な説明は省略する。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lにより赤外線撮像画像を取得する(STEP1)。赤外線撮像画像は、赤外線カメラ2R,2Lのそれぞれの出力信号である赤外線画像をA/D変換して得られるグレースケール画像であり、画像メモリに格納される。なお、以降、赤外線カメラ2Rから得られた画像を右画像、赤外線カメラ2Lから得られた画像を左画像といい、特に、右画像を基準画像という。また、基準画像は、本実施形態では右画像であるが、左画像としてもよい。
次いで、画像処理ユニット1は、前記基準画像(右画像)を2値化する(STEP2)。この2値化処理は、基準画像の各画素の輝度値を所定の輝度閾値と比較し、基準画像のうちの、該所定の輝度閾値よりも高い輝度値を有する領域(比較的明るい領域)を「1」(白)とし、該輝度閾値よりも低い輝度値を有する領域(比較的暗い領域)を「0」(黒)とする処理である。以降、この2値化処理により得られる画像(白黒画像)を2値化画像という。そして、この2値化画像のうちの、「1」とされる領域を高輝度領域という。なお、この2値化画像は、グレースケール画像(右画像および左画像)とは別に画像メモリに記憶される。
次いで、画像処理ユニット1は、前記2値化画像に対してSTEP3〜5の処理を実行し、該2値化画像から対象物(より正確には対象物に対応する画像領域)を抽出する。すなわち、前記2値化画像の高輝度領域を構成する画素群を、基準画像の縦方向(y方向)に1画素分の幅を有して横方向(x方向)延在するラインに分類し、その各ラインを、その位置(基準画像上での2次元位置)の座標と長さ(画素数)とからなるランレングスデータに変換する(STEP3)。そして、このランレングスデータにより表されるラインのうちの、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)を付し(STEP4)、そのライン群のそれぞれを対象物として抽出する(STEP5)。
なお、STEP3〜5の処理により抽出される対象物には、人(歩行者)だけでなく、他車両などの人工構造物なども含まれる。また、同一の物体の複数の局所領域が対象物として抽出される場合もある。
次いで、画像処理ユニット1は、上記の如く抽出した各対象物の重心の位置(基準画像上での位置)と面積と外接四角形の縦横比とを求める(STEP6)。面積は、ランレングスデータの長さを同一対象物について積算することにより算出し、重心の座標は、面積をx方向に2等分する線のx座標及びy方向に2等分する線のy座標として算出し、縦横比は、ランレングスデータ化したラインの外接四角形の縦横比として算出する。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
次いで、画像処理ユニット1は、前記STEP5で抽出した対象物の時刻間追跡、すなわち、画像処理ユニット1の演算処理周期毎の同一対象物の認識を行なう(STEP7)。この処理では、ある演算処理周期の時刻(離散系時刻)kにおけるSTEP5の処理により対象物Aが抽出され、次の演算処理周期の時刻k+1におけるSTEP5の処理により対象物Bが抽出されたとしたとき、それらの対象物A,Bの同一性が判定される。この同一性の判定は、例えば、それらの対象物A,Bの2値化画像上での形状やサイズ、基準画像(グレースケール画像)上での輝度分布の相関性などに基づいて行なえばよい。そして、それらの対象物A,Bが同一であると判定された場合に、時刻k+1で抽出した対象物Bのラベル(STEP4で付したラベル)が対象物Aのラベルと同じラベルに変更される。
次いで、画像処理ユニット1は、前記車速センサ4およびヨーレートセンサ5の出力(車速の検出値およびヨーレートの検出値)を読み込む(STEP8)。なお、このSTEP8では、読込んだヨーレートの検出値を積分することにより、自車両10の回頭角(方位角)の算出も行なわれる。
一方、画像処理ユニット1は、STEP7,8の処理と並行して、STEP10の処理を実行する。このSTEP10〜12の処理は、STEP5で抽出した各対象物の自車両10からの距離を求める処理である。その処理を概略的に説明すると、まず、前記基準画像のうち、各対象物に対応する領域(例えば該対象物の外接四角形の領域)を探索画像R1として抽出する(STEP10)。
次いで、左画像中で、右画像の探索画像R1に含まれる対象物と同じ対象物を探索するための領域である探索領域R2が左画像に設定され、その探索領域R2内で、探索画像R1との相関性が最も高い領域が、探索画像R1に対応する画像(探索画像R1と同等の画像)である対応画像R3として抽出される(STEP11)。この場合、左画像の探索領域R2のうち、右画像の探索画像R1の輝度分布に最も一致する輝度分布を有する領域が対応画像R3として抽出される。なお、STEP11の処理は、2値化画像ではなく、グレースケール画像を使用して行なわれる。
次いで、右画像における前記探索画像R1の重心の横方向位置(x方向位置)と、左画像における前記対応画像R3の重心の横方向位置(x方向位置)との差分の画素数を視差Δdとして算出し、その視差Δdを用いて、対象物の自車両10からの距離z(自車両10の前後方向における距離)が算出される(STEP12)。距離zは、次式(1)により算出される。

z=(f×D)/(Δd×p) ……(1)

なお、fは赤外線カメラ2R,2Lの焦点距離、Dは赤外線カメラ2R,2Lの基線長(光軸の間隔)、pは画素ピッチ(1画素分の長さ)である。
以上がSTEP10〜12の処理の概要である。なお、STEP10〜12の処理は、STEP5で抽出された各対象物に対して実行される。
STEP8およびSTEP12の処理の終了後、画像処理ユニット1は、次に、各対象物の実空間上での位置(自車両10に対する相対位置)である実空間位置を算出する(STEP13)。ここで、実空間位置は、図2に示すように、赤外線カメラ2R,2Lの取り付け位置の中点を原点として設定された実空間座標系(XYZ座標系)での位置(X,Y,Z)である。実空間座標系のX方向およびY方向は、それぞれ自車両10の車幅方向、上下方向であり、これらのX方向およびY方向は、前記右画像および左画像のx方向(横方向)、y方向(縦方向)と同方向である。また、実空間座標系のZ方向は、自車両10の前後方向である。そして、対象物の実空間位置(X,Y,Z)は次式(2)、(3)、(4)により算出される。

X=x×z×p/f ……(2)
Y=y×z×p/f ……(3)
Z=z ……(4)

なお、x、yは基準画像上での対象物のx座標、y座標である。
次いで、画像処理ユニット1は、自車両10の回頭角の変化の影響を補償して、対象物の実空間位置の精度を高めるために、対象物の実空間位置(X,Y,Z)のうちのX方向の位置Xを上記式(2)により求めた値から、前記STEP8で求めた回頭角の時系列データに応じて補正する(STEP14)。これにより、最終的に対象物の実空間位置が求められる。以降の説明では、「対象物の実空間位置」は、この補正を施した対象物の実空間位置を意味する。
次に、画像処理ユニット1は、対象物の自車両10に対する移動ベクトルを求める(STEP15)。具体的には、同一対象物についての実空間位置の、所定期間(現在時刻から所定時間前までの期間)における時系列データを近似する直線を求め、所定時間前の時刻での該直線上の対象物の位置(点)から、現在時刻における該直線上の対象物の位置(点)に向かうベクトルを対象物の移動ベクトルとして求める。この移動ベクトルは、対象物の自車両10に対する相対速度ベクトルに比例する。
次いで、STEP15において、相対移動ベクトルが求められたら、検出した対象物との接触の可能性を判定する注意喚起判定処理を行う(STEP16)。なお、注意喚起判定処理については、詳細を後述する。
そして、画像処理ユニット1は、STEP16の注意喚起判定処理において、いずれの対象物も注意喚起発生要件を満たさない(注意喚起発生要件に該当する対象物が存在しない)と判断した場合(STEP16の判定結果がNOとなる場合)には、前記STEP1からの処理を再開する。また、STEP16で、いずれかの対象物が注意喚起発生要件を満たすと判断した場合(STEP16の判定結果がYESとなる場合)には、STEP17に進んで、注意喚起発生要件を満たす対象物に関する実際の注意喚起を行なうべきか否かの判定を行なう注意喚起出力判定処理を実行する(STEP17)。この注意喚起出力判定処理では、前記ブレーキセンサ5の出力から、運転者による自車両10のブレーキ操作がなされていることが確認され、且つ、自車両10の減速加速度(車速の減少方向の加速度を正とする)が所定の閾値(>0)よりも大きいときには、注意喚起を行なわないと判定される。また、運転者によるブレーキ操作が行なわれていない場合、あるいは、ブレーキ操作が行なわれていても、自車両10の減速加速度が所定の閾値以下である場合には、注意喚起を行なうべきと判定される。
そして、画像処理ユニット1は、注意喚起を行なうべきと判定した場合(STEP17の判定結果がYESとなる場合)には、注意喚起を出力する(STEP18)。具体的には、前記スピーカ6を介して音声による注意喚起を発するとともに、画像表示装置7の基準画像の中に前記注意喚起発生要件を満たす対象物の画像を強調的に表示する。これにより、該対象物に対する運転者の注意が喚起される。なお、運転者に対する注意喚起は、スピーカ6および表示装置7のいずれか一方だけで行なうようにしてもよい。
また、STEP17で注意喚起を行なわないと判断したとき(全ての対象物について注意喚起を行なわないと判断したとき)には、STEP17の判定結果がNOとなり、この場合には、そのままSTEP1からの処理が再開される。
以上が本実施形態の周辺監視装置の全体的作動である。なお、画像処理ユニット1によりSTEP1〜6の処理を実行する構成が、本発明の対象物抽出手段に相当し、STEP12の処理を実行する構成が、本発明の距離算出手段に相当する。また、STEP1〜6の処理は、本発明の車両周辺監視方法における対象物抽出ステップに相当する。
次に、図4に示すフローチャートを参照して、図3に示したフローチャートのSTEP16における注意喚起判定処理についてさらに詳しく説明する。なお、図4のフローチャートの処理のうちの多くの処理は、例えば本出願人による特開2001−6096号の図4に記載されている処理と同じであるので、その同じ処理については、本明細書での詳細な説明は省略する。
図4は、本実施の形態の注意喚起判定処理動作を示すフローチャートであり、注意喚起判定処理は、以下に示す接触判定処理、接近判定領域内か否かの判定処理、進入接触判定処理、歩行者判定処理、人工構造物判定処理、および本発明に関連する対象物種別判定処理により、自車両10と検出した対象物との接触の可能性を判定する処理である。
まず、画像処理ユニット1は、接触判定処理を行う(STEP21)。接触判定処理は、対象物が所定時間の間に自車両10に接近した距離から、自車両10とのZ方向の相対速度Vsを求め、両者が相対速度Vsを維持して移動すると仮定して、余裕時間T(例えば2〜5秒)以内に両者が接触する可能性があるか否かを判定する処理である。具体的には、自車両10と対象物との距離が、相対速度Vsと余裕時間Tとを乗じた値以下の場合に、接触の可能性があるものとして判定する。
次に、STEP21において、余裕時間T以内に自車両10と対象物とが接触する可能性がある場合(STEP21の判定結果がYESとなる場合)、STEP22に進んで、さらに判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(STEP22)。接近判定領域内か否かの判定処理は、赤外線カメラ2R、2Lで監視可能な領域内で、自車両10の車幅の両側に余裕(例えば50〜100cm程度とする)を加えた幅を有する範囲に対応する領域、すなわち対象物がそのまま存在し続ければ自車両10との接触の可能性がきわめて高い接近判定領域内に存在するか否かを判定する処理である。
さらに、STEP22において、対象物が接近判定領域内に存在しない場合(STEP22の判定結果がNOとなる場合)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と接触する可能性があるか否かを判定する進入接触判定処理を行う(STEP23)。進入接触判定処理は、カメラの撮像領域内のうち、上述の接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域に進入すると共に自車両10と接触するか否かを判定する処理である。具体的には、接近判定領域に存在している対象物の移動ベクトル(STEP15参照)が自車両10に向かっているときに、接触する可能性が高いと判定する。
一方、STEP22において、対象物が接近判定領域内に存在している場合(STEP22の判定結果がYESとなる場合)、画像処理ユニット1は対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(STEP24)。人工構造物判定処理は、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する処理である。人工構造物判定処理は、対象物の画像領域に、例えば下記(a)〜(d)に示す条件のように、歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、注意喚起の対象から除外する処理である。
(a)対象物の画像に直線エッジを示す部分が含まれる場合。
(b)対象物の画像の角が直角である場合。
(c)対象物の画像に同じ形状のものが複数含まれている場合。
(d)対象物の画像が予め登録された人工構造物の形状と一致する場合。
次に、STEP24において、対象物は人工構造物ではないと判定された場合(STEP24の判定結果がNOとなる場合)、さらに判定の信頼性を上げるために、対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(STEP25)。歩行者判定処理は、グレースケール画像上で対象物の画像領域の形状や大きさ、輝度分散等の特徴から、対象物が歩行者か否かを判定する処理である。
さらに、上述のSTEP23において、対象物が接近判定領域内へ進入して自車両10と接触する可能性がある場合(STEP23の判定結果がYESとなる場合)、およびSTEP25において、対象物が歩行者の可能性がある場合(STEP25の判定結果がYESとなる場合)、画像処理ユニット1は、検出した対象物を注意喚起対象として決定し(STEP26)、図3に示すSTEP17の判定結果がYESの場合としてSTEP17へ進み、注意喚起出力判定処理(STEP17)を行う。
一方、上述のSTEP25において、対象物が歩行者でないと判定された場合(STEP25の判定結果がNOとなる場合)には、詳細については後述するが、本発明に関連する対象物種別判定処理を行う(STEP27)。対象物種別判定処理では、対象物の中に人以外の動物が含まれていないか判定される。そして、対象物種別判定処理の結果、対象物が人以外の動物であると判定された場合(STEP27の判定結果がYESとなる場合)には、画像処理ユニット1は、検出した対象物を注意喚起対象として決定し(STEP26)、図3に示すSTEP17の判定結果がYESの場合としてSTEP17へ進み、注意喚起出力判定処理(STEP17)を行う。
一方、上述のSTEP21において、余裕時間T以内に自車両10と対象物とが接触する可能性がない場合(STEP21の判定結果がNOとなる場合)、あるいはSTEP23において、対象物が接近判定領域内へ進入して自車両10と接触する可能性がない場合(STEP23の判定結果がNOとなる場合)、あるいはSTEP24において、対象物は人工構造物であると判定された場合(STEP24の判定結果がYESとなる場合)、あるいはSTEP27において、対象物は人以外の動物ではないと判定された場合(STEP27の判定結果がNOとなる場合)のいずれかであった場合は、画像処理ユニット1は、検出した対象物は注意喚起対象ではないと判定し(STEP28)、図3に示すSTEP16の判定結果がNOの場合としてSTEP1へ戻り、歩行者等の対象物検出・注意喚起動作を繰り返す。
以上が、図3に示したフローチャートのSTEP16における注意喚起判定処理についての説明である。
次に、図5〜7を参照して、本発明に関連する前記STEP27の対象物種別判定処理について、図5に示すフローチャートを参照して説明する。
まず、画像処理ユニット1は、前記STEP25において対象物は歩行者ではないと判定された各対象物の2値化処理画像(STEP2参照)から、周知の形状マッチングの手法を用いて、対象物と自車両10との距離に応じた所定の大きさを有する逆三角形状を第1の対象物領域として検出する(STEP31)。ここで、所定の大きさを有する逆三角形状は、鹿、牛、馬、ラクダなどの大型動物の頭部に対応する形状であって、所定の大きさは、該逆三角形状の大きさを対象物と自車両10との距離に応じて設定したものである。そのため、対象物の画像領域に逆三角形状を含む場合であっても、大型動物の頭部に相当する逆三角形状を有さない道路標識や所定の大きさを有さない看板などが第1の対象物領域として検出されることはない。
例えば、前記赤外線撮像画像として図6(a)に示す鹿の画像が取得された場合、該赤外線撮像画像の2値化処理画像は、図6(b)に示す外形形状となる。そして、2値化処理画像における対象物の外形形状から、形状マッチングの手法を用いて、図7に示すように、動物の頭部に相当する逆三角形状が第1の対象物領域P1として検出される。
次に、STEP31において、第1の対象物領域が検出された場合(STEP31の判断結果がYESの場合)には、STEP32に進んで、前記2値化処理画像上で、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置することを条件として、該条件を満たす複数の第2の対象物領域候補を抽出する。そして、該複数の第2の対象物領域候補のうちで、実空間上の位置が該第1の対象物領域の実空間上の位置から所定距離以内に位置する第2の対象物領域候補を、胴部に相当する第2の対象物領域として検出する(STEP32)。ここで、所定範囲とは、一般的に、鹿、牛、馬、ラクダなどの大型動物の頭部に対して胴部が存在し得る画像上の範囲を想定して設定される。また、対象物である動物を正面から見た場合には、胴部は頭部のほぼ真下に位置するが、背面から見た場合には、胴部は頭部の真下ではなく手前側(自車両10側)に位置する。そのため、所定距離とは、実空間上において頭部の位置から胴部の最も離れた位置までの距離に相当する距離を想定して設定される。
例えば、上述の図7に示す場合には、第1の対象物領域P1の下方に位置し、且つ第1の対象物領域P1から所定範囲内に位置する画像領域P2が第2の対象物領域候補として検出され、画像領域P2の実空間上の位置が第1の対象物領域P1の実空間上の位置から所定距離以内であるときに、画像領域P2が第2の対象物領域として検出される。
次いで、STEP32において、第2の対象物領域が検出された場合(STEP32の判断結果がYESの場合)には、STEP33に進んで、前記2値化処理画像上で、対象物の第1の対象物領域の水平方向の幅である第1領域幅と、第2の対象物領域の水平方向の幅が最大となる箇所の幅である第2領域幅とを算出する(STEP33)。
例えば、上述の図7に示す場合には、前記2値化処理画像上における第1の対象物領域P1の水平方向(図中のx軸方向)の幅である第1領域幅AWと、第2の対象物領域P2の水平方向の幅が最大となる第2領域幅BWが算出される。なお、ここでは、第1領域幅を、第1の対象物領域P1の水平方向の幅AWとして算出しているが、画像上の座標を用いて、逆三角形状の最も下方に位置する頂角に対向する辺の長さ(図中のQ1とR1との間の長さ)を求め、該長さを第1領域幅としてもよい。また、第2領域幅として、第2の対象物領域P2の水平方向の幅が最大となる箇所の幅BWを用いているが、水平方向における第2の対象物領域P2の両側端縁Q2,R2間の長さBW´を用いてもよい。
続けて、STEP33において、前記第1領域幅と前記第2領域幅とが算出されると、STEP34に進んで、第2領域幅が第1領域幅の1/2以下となるか否かを判定する(STEP34)。
例えば、上述の図7に示す場合には、前記2値化処理画像上における第1領域幅AWと第2領域幅BWに対して、BW/AWの値が1/2以下か否かが判定される。ここで、BW/AWの値が1/2以下であることを判定条件としたのは、頭部を支える胴部の幅は、少なくとも頭部の幅の1/2より大きいと考えられる。すなわち、胴部の幅である第2領域幅BWがその頭部の幅である第1領域幅AWの1/2以下の場合には、頭部を支える動物の胴部としてはあり得ない関係となるためである。これにより、一般的に、BW/AWの値が1/2以下となる道路標識等の人工構造物は、人以外の動物ではないと判定される。
そして、STEP34において、第2領域幅が第1領域幅の1/2より大きい場合(STEP34の判断結果がNOの場合)には、画像処理ユニット1は、対象物を人以外の動物であると判定し(STEP35)、対象物種別判定処理を終了する。
一方、上述のSTEP31において、前記2値化処理画像から第1の対象物領域が検出されない場合(STEP31の判断結果がNOとなる場合)、あるいはSTEP32において、第1の対象物領域の下方位置から第2の対象物領域が検出されない場合(STEP32の判断結果がNOとなる場合)、あるいはSTEP34において、第2領域幅が第1領域幅の1/2以下となる場合(STEP34の判断結果がYESとなる場合)、画像処理ユニット1は、対象物は人以外の動物でないと判定し(STEP36)、対象物種別判定処理を終了する。
以上が、本発明の対象物種別判定処理の詳細である。なお、画像処理ユニット1によりSTEP31〜36の処理を実行する構成が、本発明の対象物種別判定手段に相当する。また、STEP31〜36の処理は、本発明の車両周辺監視方法おける対象物種別判定ステップに相当する。
なお、本実施形態においては、STEP27の対象物種別判定処理は、2値化処理画像を用いて、
(1)頭部に相当する所定の大きさの逆三角形状の第1の対象物領域を有すること(STEP31)
(2)胴部に相当する第2の対象物領域を有すること(STEP32)
(3)第2領域幅が第1領域幅の1/2以下でないこと(STEP34)
という条件で対象物が人以外の動物であるか否かを判定しているが、上記条件(1)〜(3)の一部を実行することにより判定を行なってもよい。例えば、上記条件(1),(2)のみで判定を行なってもよい。また、上記条件(1)を「逆三角形状の第1の対象物領域を有すること」(「所定の大きさ」であることを条件としない)に変更して、判定を行ってもよい。
また、本実施形態において、STEP27の対象物種別判定処理は、対象物の種別が人以外の動物であるかを判定しているが、他の種別であるかを判定するようにしてもよい。例えば、対象物の画像領域の大きさに応じて、対象物の種別が大型動物であるか、小型動物であるかを区別して判定してもよい。また、対象物の画像領域から検出する形状をさらに特定することにより、対象物の種別が、大型動物の中の鹿であるか、牛であるか、馬であるか等を区別して判定してもよい。
さらに、本実施形態において、STEP27の対象物種別判定処理では、2値化画像を用いて、STEP31〜37の処理を実行しているが、これに限られるものではなく、例えば、2値化画像の代わりに前記基準画像を用いて、該基準画像の輝度分散値を用いてSTEP31〜37の処理を実行するように構成してもよい。
また、本実施形態において、STEP27の対象物種別判定処理では、2値化画像における対象物の外形形状から、周知の形状マッチングの手法を用いて、対象物と自車両10との距離に応じた所定の大きさを有する逆三角形状を第1の対象物領域として検出しているが(STEP31)、これに限定されるものではない。例えば、対象物の2値化処理画像のランレングスの変化が減少から増加に転じる領域で対象物の2値化画像を分割する。そして、分割された後の領域のうちで、ランレングスが下方に行くに従って減少する、所定の大きさを有する領域を逆三角形状として検出するようにしてもよい。
さらに、本実施形態においては、画像処理ユニット1の処理結果に基づいて、所定の注意喚起を行うように構成されているが、該処理結果に基づいて車両挙動を制御するように構成してもよい。
さらに、前記実施形態では、2台の赤外線カメラ2R,2Lを備えたが、対象物との距離をレーダーなどにより検出するようにした場合には、1台の赤外線カメラ2Rもしくは2Lを自車両10に搭載するようにしてもよい。
本発明の車両の周辺監視装置の一実施形態の全体構成を示す図。 図1の周辺監視装置を備えた車両の斜視図。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 図1の周辺監視装置に備えた画像処理ユニットの処理を示すフローチャート。 本実施形態における対象物種別判定処理を示すフローチャート。 本実施形態における撮像画像を例示的に示す図。 画像処理ユニットの処理を説明するための図。
符号の説明
1…画像処理ユニット(対象物抽出手段、対象物種別判定手段)、2R,2L…赤外線カメラ(撮像手段)、STEP1〜6…対象物抽出手段による処理、STEP12…距離算出手段による処理、STEP31〜36…対象物種別判定手段による処理。

Claims (9)

  1. 車両に搭載された撮像手段によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
    前記撮像画像から対象物の画像領域を抽出する対象物抽出手段と、
    前記対象物抽出手段により抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定手段と
    を備えることを特徴とする車両周辺監視装置。
  2. 前記対象物種別判定手段は、前記対象物抽出手段によって抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とを含むときに、該対象物の種別は人以外の動物であると判定することを特徴とする車両周辺監視装置。
  3. 前記第1の対象物領域は、さらに所定の大きさを有することを特徴とする請求項1又は2記載の車両周辺監視装置。
  4. 前記対象物種別判定手段は、前記逆三角形状の最も下方に位置する頂角に対向する辺の長さ又は前記逆三角形状の水平方向の幅の最大値を第1領域幅とし、前記第2の対象物領域の水平方向の幅の最大値を第2領域幅として、該第1領域幅と第2領域幅との関係に基づいて、前記対象物の種別を判定することを特徴とする請求項1から請求項3のうちいずれか1項記載の車両周辺監視装置。
  5. 前記対象物種別判定手段は、前記第2領域幅が、前記第1領域幅の1/2より大きい場合に、前記対象物の種別は人以外の動物であると判定することを特徴とする請求項4記載の車両周辺監視装置。
  6. 前記撮像画像に含まれる画像領域に対応する実空間上の位置の前記車両からの距離を算出する距離算出手段を備え、
    前記対象物種別判定手段は、前記第2の対象物領域に対応する実空間上の位置が、前記第1の対象物領域に対応する実空間上の位置から所定の距離以内に位置することを条件として、該対象物の種別を判定することを特徴とする請求項1から請求項5のうちいずれか1項記載の車両周辺監視装置。
  7. 請求項1から請求項6のうちいずれか1項記載の車両周辺監視装置が搭載されたことを特徴とする車両。
  8. 車両に搭載された撮像手段による撮像画像のデータにアクセスする手段を有する車載コンピュータに、車両の周辺に存在する物体を監視する機能を実現させるためのプログラムであって、該コンピュータを、
    前記撮像画像から対象物の画像領域を抽出する対象物抽出手段と、
    前記対象物抽出手段により抽出された対象物の画像領域に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定手段と
    して機能させることを特徴とする車両周辺監視用プログラム。
  9. 車両に搭載された撮像手段による撮像画像のデータにアクセスする手段を有する車載コンピュータにより、車両の周辺に存在する物体を監視する車両周辺監視方法であって、
    前記コンピュータが、前記撮像画像から対象物の画像領域を抽出する対象物抽出ステップと、
    前記コンピュータが、前記対象物抽出ステップにより抽出された対象物の画像部分に、逆三角形状の第1の対象物領域と、該第1の対象物領域の下方であって該第1の対象物領域から所定範囲内に位置する第2の対象物領域とが含まれるか否かに応じて、対象物の種別を判定する対象物種別判定ステップと
    を有することを特徴とする車両周辺監視方法。
JP2006140117A 2006-05-19 2006-05-19 車両周辺監視装置 Expired - Fee Related JP4173902B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006140117A JP4173902B2 (ja) 2006-05-19 2006-05-19 車両周辺監視装置
US11/799,987 US7982748B2 (en) 2006-05-19 2007-05-03 Vehicle surroundings monitoring apparatus
DE102007022940A DE102007022940A1 (de) 2006-05-19 2007-05-16 Fahrzeugumgebungs-Überwachungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006140117A JP4173902B2 (ja) 2006-05-19 2006-05-19 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2007310706A true JP2007310706A (ja) 2007-11-29
JP4173902B2 JP4173902B2 (ja) 2008-10-29

Family

ID=38608318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006140117A Expired - Fee Related JP4173902B2 (ja) 2006-05-19 2006-05-19 車両周辺監視装置

Country Status (3)

Country Link
US (1) US7982748B2 (ja)
JP (1) JP4173902B2 (ja)
DE (1) DE102007022940A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026601A (ja) * 2008-07-15 2010-02-04 Honda Motor Co Ltd 車両周辺監視装置
WO2011108218A1 (ja) 2010-03-01 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
WO2012004938A1 (ja) 2010-07-09 2012-01-12 本田技研工業株式会社 車両の周辺監視装置
WO2012066751A1 (ja) 2010-11-16 2012-05-24 本田技研工業株式会社 車両の周辺監視装置
JP2013184483A (ja) * 2012-03-06 2013-09-19 Honda Motor Co Ltd 配光制御装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4655079B2 (ja) * 2007-11-06 2011-03-23 ソニー株式会社 液晶表示装置、液晶表示モジュールおよび液晶表示装置の駆動方法
DE102008036219A1 (de) 2008-08-02 2010-02-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
JP5503728B2 (ja) * 2010-03-01 2014-05-28 本田技研工業株式会社 車両の周辺監視装置
US9235990B2 (en) * 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
CN104160434A (zh) * 2012-03-12 2014-11-19 本田技研工业株式会社 车辆周围监视装置
US9665938B2 (en) * 2013-12-27 2017-05-30 Kyocera Document Solutions, Inc. Image processing apparatus and specific figure detecting method
DE102014204168A1 (de) * 2014-03-06 2015-09-10 Zf Friedrichshafen Ag Verhindern von Ausweichunfällen bei Wildwechsel
DE102014207399A1 (de) * 2014-04-17 2015-10-22 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zur Bewältigung von Unfallrisikosituationen mit Lebewesen
JP6965803B2 (ja) * 2018-03-20 2021-11-10 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム
JP7063076B2 (ja) 2018-04-20 2022-05-09 株式会社Jvcケンウッド 認識装置、認識方法及び認識プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135123B2 (ja) 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP2002312769A (ja) 2001-04-16 2002-10-25 Matsushita Electric Ind Co Ltd 監視装置及びそのパラメータ設定方法
DE10148071A1 (de) 2001-09-28 2003-04-17 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP2004295798A (ja) 2003-03-28 2004-10-21 Japan Best Rescue System Kk 警備システム
JP4425642B2 (ja) * 2004-01-08 2010-03-03 富士重工業株式会社 歩行者抽出装置
US7447334B1 (en) * 2005-03-30 2008-11-04 Hrl Laboratories, Llc Motion recognition system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026601A (ja) * 2008-07-15 2010-02-04 Honda Motor Co Ltd 車両周辺監視装置
JP4644273B2 (ja) * 2008-07-15 2011-03-02 本田技研工業株式会社 車両周辺監視装置
WO2011108218A1 (ja) 2010-03-01 2011-09-09 本田技研工業株式会社 車両の周辺監視装置
EP2544162A1 (en) * 2010-03-01 2013-01-09 Honda Motor Co., Ltd. Surrounding area monitoring device for vehicle
EP2544162A4 (en) * 2010-03-01 2014-01-22 Honda Motor Co Ltd DEVICE FOR MONITORING THE ENVIRONMENTAL AREA OF A VEHICLE
US9321399B2 (en) 2010-03-01 2016-04-26 Honda Motor Co., Ltd. Surrounding area monitoring device for vehicle
WO2012004938A1 (ja) 2010-07-09 2012-01-12 本田技研工業株式会社 車両の周辺監視装置
WO2012066751A1 (ja) 2010-11-16 2012-05-24 本田技研工業株式会社 車両の周辺監視装置
US9160986B2 (en) 2010-11-16 2015-10-13 Honda Motor Co., Ltd. Device for monitoring surroundings of a vehicle
JP2013184483A (ja) * 2012-03-06 2013-09-19 Honda Motor Co Ltd 配光制御装置

Also Published As

Publication number Publication date
JP4173902B2 (ja) 2008-10-29
DE102007022940A1 (de) 2007-11-22
US20070269079A1 (en) 2007-11-22
US7982748B2 (en) 2011-07-19

Similar Documents

Publication Publication Date Title
JP4173901B2 (ja) 車両周辺監視装置
JP4173902B2 (ja) 車両周辺監視装置
JP4456086B2 (ja) 車両周辺監視装置
JP4171501B2 (ja) 車両の周辺監視装置
US8766816B2 (en) System for monitoring the area around a vehicle
JP4410292B1 (ja) 車両の周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
US9165197B2 (en) Vehicle surroundings monitoring apparatus
US8189868B2 (en) Vehicle periphery monitoring device
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
JP4644273B2 (ja) 車両周辺監視装置
JP4813304B2 (ja) 車両周辺監視装置
JP5004903B2 (ja) 車両周辺監視装置
JP4823753B2 (ja) 車両の周辺監視装置
JP4943403B2 (ja) 車両の周辺監視装置
JP4629638B2 (ja) 車両の周辺監視装置
JP5026398B2 (ja) 車両周辺監視装置
JP2007168547A (ja) 障害物衝突判定システム、障害物衝突判定方法及びコンピュータプログラム
JP2007336091A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080812

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140822

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees