JP2007329762A - 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 - Google Patents

物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 Download PDF

Info

Publication number
JP2007329762A
JP2007329762A JP2006160147A JP2006160147A JP2007329762A JP 2007329762 A JP2007329762 A JP 2007329762A JP 2006160147 A JP2006160147 A JP 2006160147A JP 2006160147 A JP2006160147 A JP 2006160147A JP 2007329762 A JP2007329762 A JP 2007329762A
Authority
JP
Japan
Prior art keywords
pedestrian
reference pattern
object candidate
area
candidate area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006160147A
Other languages
English (en)
Inventor
Katsumi Sakata
克己 阪田
Minoru Fujioka
稔 藤岡
Koji Yamashita
浩嗣 山下
Yoshikazu Hashimoto
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Fujitsu Ltd
Original Assignee
Denso Ten Ltd
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Fujitsu Ltd filed Critical Denso Ten Ltd
Priority to JP2006160147A priority Critical patent/JP2007329762A/ja
Publication of JP2007329762A publication Critical patent/JP2007329762A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車載カメラの画像から高精度に物体が存在する可能性がある領域を検出すること。
【解決手段】基準パターンデータベース15が、周辺の環境別に複数の基準パターンを記憶し、シーン判定部12がナビゲーション装置30、カメラ31、照度センサ32、タイマ33、ライトスイッチ34、ワイパースイッチ35、雨滴センサ36、外部通信装置37、VICS受信装置38の出力を用いて自車両周辺の環境を判定する。基準パターン選択部14は、シーン判定部12の判定結果を用いて環境に対応する基準パターンを選択する。
【選択図】 図1

Description

この発明は、車載カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置、物体候補領域検出方法、かかる物体候補領域検出を用いた歩行者認識装置、歩行者認識結果を用いた車両制御装置に関する。
従来、カメラが撮影した画像に対する画像認識によって、歩行者などを検出する技術が考案されている。例えば、特許文献1は、特定の場所に固定した定点カメラが撮影した画像から、歩行者や車両を認識する技術を開示している。
また、かかる画像認識の具体的な手法としては、予め背景パターンを学習し、入力画像と背景パターンとの差異を顕著性として算出する顕著性算出手法(顕著性アルゴリズム)が適用可能である。
特開2002−190012号公報 特開2001−236508号公報
ところで近年、車両にカメラなどを搭載し、車載カメラからの映像によって歩行者などを認識することで運転を支援し、事故を防止する技術の実現が重要な課題となっている。
しかしながら車載カメラなど移動体から撮影した画像では、その移動によって背景画像が常に変化する。そのため、上述した顕著性算出手法を使用しても、背景パターンの設定のために学習する必要のある事象が大きくなり、検出精度が低下するという問題点があった。
本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、車載カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置、物体候補領域検出方法、および、高精度に歩行者を認識する歩行者認識装置を提供することを目的とする。
上述した課題を解決し、目的を達成するため、請求項1の発明に係る物体候補領域検出装置は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、自車両周辺の環境ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶手段と、自車両周辺の環境を判定する環境判定手段と、前記環境判定手段の判定結果に基づいて、前記複数の基準パターンのうち、自車両周辺の環境に応じた基準パターンを選択する基準パターン選択手段と、現在カメラが撮影した入力画像の被判定領域と、前記選択された基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、を備えたことを特徴とする。
この請求項1の発明によれば物体候補領域検出装置は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、複数の基準パターンから周辺環境に基づいて選択した基準パターンとの比較によって物体候補領域を検出する。
また、請求項2の発明に係る物体候補領域検出装置は、請求項1に記載の発明において、前記環境判定手段は、自車両周辺の景色、交通状態、特定の道路、工事状況、事故発生状況、周囲の明るさ、天候、時間情報、走行中の道路の車線数、自車両の走行車線のうち少なくともいずれか一つを判定することを特徴とする。
この請求項2の発明によれば物体候補領域検出装置は、自車両周辺の景色、交通状態、特定の道路、工事状況、事故発生状況、周囲の明るさ、天候、時間情報、走行中の道路の車線数、自車両の走行車線などから物体候補領域の検出に使用する基準パターンを選択する。
また、請求項3の発明に係る物体候補領域検出装置は、請求項1または2に記載の発明において、前記環境判定手段は、自車両の位置情報、周辺の地図情報、外部との通信、雨滴センサの出力、ワイパースイッチの操作状態、ライトスイッチの操作状態、画像認識のうち、少なくとも何れか一つを用いて前記自車両周辺の環境を判定することを特徴とする。
この請求項3の発明によれば物体候補領域検出装置は、自車両の位置情報、周辺の地図情報、外部との通信、雨滴センサの出力、ワイパースイッチの操作状態、ライトスイッチの操作状態、画像認識などによって自車両の環境を判定し、環境に適した基準パターンを用いて物体候補領域を検出する。
また、請求項4の発明に係る物体候補領域検出装置は、請求項1,2または3に記載の発明において、前記環境判定結果に基づいて前記検出手段による検出感度を変更する検出感度設定手段をさらに備えたことを特徴とする。
この請求項4の発明によれば物体候補領域検出装置は、周辺環境に基づいて物体候補領域の検出に使用する基準パターンと、検出感度を変更する。
また、請求項5の発明に係る物体候補領域検出装置は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、背景の種類ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶手段と、現在カメラが撮影した入力画像の被判定領域と、前記複数の基準パターンのそれぞれとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、を備えたことを特徴とする。
この請求項5の発明によれば物体候補領域検出装置は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、背景の種類ごとに異なる複数の基準パターンのそれぞれとの比較によって物体候補領域を検出する。
また、請求項6の発明に係る物体候補領域検出装置は、請求項5に記載の発明において、前記検出手段は、前記複数の基準パターンのいずれに対しても差異がある領域を前記物体候補領域として検出することを特徴とする。
この請求項6の発明によれば物体候補領域検出装置は、被判定領域と、背景の種類ごとに異なる複数の基準パターンとを比較し、複数の基準パターンのいずれに対しても差異がある領域を物体候補領域として検出する。
また、請求項7の発明に係る物体候補領域検出装置は、請求項5または6に記載の発明において、前記背景の種類は、路面、空、建物、田畑、樹木のうち少なくともいずれか一つを含むことを特徴とする。
この請求項7の発明によれば物体候補領域検出装置は、路面、空、建物、田畑、樹木などに対応する基準パターンを用いて物体候補領域の検出を行なう。
また、請求項8の発明に係る物体候補領域検出方法は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、自車両周辺の環境ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶工程と、自車両周辺の環境を判定する環境判定工程と、前記環境判定工程の判定結果に基づいて、前記複数の基準パターンのうち、自車両周辺の環境に応じた基準パターンを選択する基準パターン選択工程と、現在カメラが撮影した入力画像の被判定領域と、前記選択された基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出工程と、を含んだことを特徴とする。
この請求項8の発明によれば物体候補領域検出方法は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、複数の基準パターンから周辺環境に基づいて選択した基準パターンとの比較によって物体候補領域を検出する。
また、請求項9の発明に係る歩行者認識装置は、車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、自車両周辺の環境ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、前記入力画像から切り出した被判定領域と、自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、を備えたことを特徴とする。
この請求項9の発明によれば歩行者認識装置は、被判定領域と自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、歩行者候補領域に対するパターンマッチングやニューロ判定によって当該歩行者候補領域が歩行者であるか否かを判別する。
また、請求項10の発明に係る車両制御装置は、自車両周辺の環境ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、前記入力画像から切り出した被判定領域と、自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、を備えたことを特徴とする。
この請求項10の発明によれば車両制御装置は、被判定領域と自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、当該歩行者候補領域が歩行者である場合には、その存在を運転者に報知する報知制御や車両の動作制御を実行する。
請求項1の発明によれば物体候補領域検出装置は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、複数の基準パターンから周辺環境に基づいて選択した基準パターンとの比較によって物体候補領域を検出するので、環境の変化を利用してカメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項2の発明によれば物体候補領域検出装置は、自車両周辺の景色、交通状態、特定の道路、工事状況、事故発生状況、周囲の明るさ、天候、時間情報、走行中の道路の車線数、自車両の走行車線などから物体候補領域の検出に使用する基準パターンを選択するので、各種環境に対応してカメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項3の発明によれば物体候補領域検出装置は、自車両の位置情報、周辺の地図情報、外部との通信、雨滴センサの出力、ワイパースイッチの操作状態、ライトスイッチの操作状態、画像認識などによって自車両の環境を判定し、環境に適した基準パターンを用いて物体候補領域を検出するので、各種車載機器を利用してカメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項4の発明によれば物体候補領域検出装置は、周辺環境に基づいて物体候補領域の検出に使用する基準パターンと、検出感度を変更するので、環境に適応し、物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項5の発明によれば物体候補領域検出装置は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、背景の種類ごとに異なる複数の基準パターンのそれぞれとの比較によって物体候補領域を検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する、簡易な構成の物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項6の発明によれば物体候補領域検出装置は、被判定領域と、背景の種類ごとに異なる複数の基準パターンとを比較し、複数の基準パターンのいずれに対しても差異がある領域を物体候補領域として検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項7の発明によれば物体候補領域検出装置は、路面、空、建物、田畑、樹木などに対応する基準パターンを用いて物体候補領域の検出を行なうので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。
また、請求項8の発明によれば物体候補領域検出方法は、カメラが撮影した入力画像の全体もしくは当該入力画像から切り出した被判定領域と、複数の基準パターンから周辺環境に基づいて選択した基準パターンとの比較によって物体候補領域を検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出方法を得ることができるという効果を奏する。
また、請求項9の発明によれば歩行者認識装置は、被判定領域と自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、歩行者候補領域に対するパターンマッチングやニューロ判定によって当該歩行者候補領域が歩行者であるか否かを判別するので、車載カメラの画像から高精度に歩行者を認識する歩行者認識装置を得ることができるという効果を奏する。
また、請求項10の発明によれば車両制御装置は、被判定領域と自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、当該歩行者候補領域が歩行者である場合には、その存在を運転者に報知する報知制御や車両の動作制御を実行するので、歩行者を高精度に認識してその安全を確保する車両制御装置を得ることができるという効果を奏する。
以下に添付図面を参照して、この発明に係る物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置の好適な実施例について詳細に説明する。
図1は、本発明の実施例1である車載用の画像認識装置10の概要構成を示す概要構成図である。車両は以下の構成を有している。同図に示すように、画像認識装置10は、ナビゲーション装置30、カメラ31、照度センサ32、タイマ33、ライトスイッチ34、ワイパースイッチ35、雨滴センサ36、外部通信装置37、VICS(Vehicle Information and Communication System)受信装置38、プリクラッシュECU40と接続している。
ナビゲーション装置30は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、記憶する地図データ30aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置30は、画像認識装置10に対して自車両の位置情報や周辺の地図情報、道路に関する情報などを提供する。
カメラ31は、自車両周辺を撮影し、撮影結果を画像認識装置10に入力する。照度センサ32は、自車両周辺の明るさ(照度)を測定するセンサであり、タイマ33は時間情報すなわち時刻や日付を管理する装置である。
ライトスイッチ34は、運転者によって操作され、各種車載灯具(ヘッドランプ、スモールランプなど)の灯火状態を変更するスイッチであり、灯火状態を画像認識措置10に通知する。同様に、ワイパースイッチ34は、運転者によって操作され、ワイパーの動作を制御するスイッチであり、その動作状態を画像認識装置10に通知する。
さらに、雨滴センサ36は、雨などの水滴を検知するセンサであり、外部通信装置37は車両外部との通信を行なう通信装置、VICS受信装置38は、事故や渋滞などの情報を受信する受信機である。
プリクラッシュECU40は、画像認識部10が自車両の衝突を予測した場合に、ディスプレイ43やスピーカ44による乗員への通知や、ブレーキ41、エンジン制御装置(EFI)42による車両の動作制御を実行する電子制御装置であり、車両制御装置として機能する。
画像認識装置10は、その内部に前処理部11、シーン判定部12、検出感度設定部13、基準パターン選択部14、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20を有する。ここで、シーン判定部12、検出感度設定部13、基準パターン選択部14、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20は、例えば単一のマイコン10a(CPU、ROM、RAMの組み合わせからなる演算処理ユニット)などによって実現することが好適である。
前処理部11は、カメラ31が撮影した画像に対してフィルタリングやエッジ検出、輪郭抽出などの処理を施した後、車両認識部16、白線認識部17および歩行者候補領域検出部19に出力する。
車両認識部16は、前処理部11が出力した画像に対してパターンマッチングなどを施して車両を認識し、認識結果を衝突判定部20に出力する。また、白線認識部18も同様に、前処理部11が出力した画像に対してパターンマッチングなどを施して白線を認識し、認識結果を衝突判定部20に出力する。
一方、歩行者候補領域検出部19は、顕著性アルゴリズムを用いて、前処理部11が出力した画像から歩行者が存在する可能性のある領域を検出し、検出結果を歩行者認識部18に出力する。その後、歩行者認識部18が歩行者候補領域に対してパターンマッチングやニューラルネットワークによるニューロ判定処理を施して歩行者を認識し、衝突判定部20に出力する。そして、歩行者を認識した場合には歩行者までの距離を画像処理などで算出し、歩行者情報としてその距離も衝突判定部20に出力する。
衝突判定部20は、車両認識部16、白線認識部17、歩行者認識部18による認識結果およびナビゲーション装置30が出力する位置情報を用いて、歩行者や他車両と自車両との衝突を予測し、予測結果をプリクラッシュECU40に出力する。一方、プリクラッシュECU40は予測結果(歩行者が前方に存在し、距離が数mに近づいているなど)に基づき、衝突の可能性があれば運転者にディスプレイ43やスピーカ44などにより報知制御を行なうと共に、衝突の危険度によっては車両の走行制御(ブレーキ制御、アクセル制御など)を行なう。
ここで、車両や白線など形状のバリエーションの少ないものを認識する場合には、前処理部11が出力した画像に対して直接パターンマッチングを行なうが、歩行者のように形状の変化が激しい物体を認識する場合には、顕著性アルゴリズムによって予め候補領域を検出することによって検出精度の向上と処理負荷の軽減を図る。
顕著性アルゴリズムによる候補領域の検出について図2を参照して説明する。同図に示すように、顕著性アルゴリズムは、まず学習プロセスによって基準パターンを作成し、歩行者候補領域検出プロセスでは入力画像と基準パターンとの比較によって顕著性を算出する。
学習プロセスでは、本装置を使用する前に予め複数の学習用の画像を入力し、学習用画像から学習領域を切り出す。この学習領域は、画像内における歩行者のサイズに合わせ、例えば20×20ピクセルのサイズで切り出す。学習用の画像は、歩行者などターゲットを含まない道路などの背景画像である。
この切り出した学習領域をN次元(Nは画素数であり、20×20ピクセルであれば400次元)のベクトルとして扱い、全ての学習領域についてN次元の主成分分析を行なって、特徴ベクトル(N次元ベクトルの主成分)を算出する。この特徴ベクトルの算出を全ての学習画像に対して実行し、共通するベクトル成分を基準パターンとする。
歩行者候補領域検出プロセスでは、カメラが撮影した入力画像から学習領域のサイズと同一サイズの被判定領域を切り出す。そして、この切り出した被判定領域をN次元ベクトルとし、基準パターンで展開する(内積をとる)。
この展開によって、被判定領域のうち基準パターンと類似のベクトル成分が得られるので、展開して得られたベクトルと被判定領域のベクトルとの残差を顕著性(基準パターンからの乖離度を示す値)として算出し、顕著性の高い領域のみを歩行者候補領域として残した結果画像を出力する。
ところが、入力する学習用画像によっては、適切な基準パターンが得られず、候補領域の検出精度が低下することがある。学習用画像として多様な画像を使用すると、各学習用画像が異なる主成分を有するために、そこから得られる基準パターンは多くの方向を有することとなり、歩行者との残差を得ることが困難になる。すなわち、歩行者の特徴が背景に埋もれてしまい、顕著性なしと判断される。
また、顕著性が少ないところまで閾値を下げ、少しでも顕著性があれば歩行者候補として検出するようにすると、歩行者以外でも顕著性有りとして検出してしまい、逆に検出精度が低くなる。例えば、図3に示すように、入力画像から樹木と建物以外の物体を検知すべく、樹木と建物を学習用画像として入力すると、樹木の特徴と建物の特徴が混合した基準パターンが作成される。
その結果、樹木の画像を判定した場合も建物の画像を判定した場合も、基準パターンと異なる、すなわち「顕著性あり」と判定される可能性がある。
このように、学習プロセスにおいて入力する事象が大きい(学習用画像間の共通性が低く、多岐にわたる)場合には、適切な基準パターンが得られず、顕著性の検出精度が低くなり、歩行者の検出漏れが発生したり、多数の領域が「顕著性のある歩行者候補領域」として出力されることなる。その結果、歩行者認識部18での処理負荷上昇と認識精度低下が引き起こされる。
そこで、画像認識装置10は、自車両周辺の物理的な環境に対応して基準パターンを使い分けることで、歩行者候補領域の検出精度を向上している。今までは例えば雨、晴、昼、夜に関係なく全て学習していたので、実際に人が居ても学習画像に埋もれる可能性があるが、本件では特定の環境の学習画像のみを使用するので環境変化による認識精度低下を防止することができる。
具体的には、基準パターンデータベース15が、周辺の環境別に複数の基準パターンを記憶し、シーン判定部12がナビゲーション装置30、カメラ31、照度センサ32、タイマ33、ライトスイッチ34、ワイパースイッチ35、雨滴センサ36、外部通信装置37、VICS受信装置38の出力を用いて自車両周辺の環境を判定する。
そして基準パターン選択部14は、シーン判定部12の判定結果を用いて環境に対応する基準パターンを選択する処理を行なう。また、検出感度設定部13は、シーン判定部12の判定結果に応じて歩行者候補領域検出部19が使用する検出閾値を設定する処理を行なう。
シーン判定部12によるシーンの判定の具体例について図4を参照して説明する。同図では、シーン判定部12は、周辺の景色、交通状態、特定の場所であるか否か、工事・事故・イベントなどが発生しているか否か、周囲の明るさ、天候、季節、車線数・走行車線をそれぞれ判定する。
周辺の景色は、例えば市街地、郊外、山道などであり、ナビゲーション装置30からの位置情報や地図情報によって判定することができる。また、例えば画像処理によって、画像内の緑色の成分が所定量以上の場合には山道を走行中である、などのように判定しても良い。
また、交通状態は、例えば渋滞の有無などであり、VICS受信装置38によるVICS放送の受信や、外部通信装置37による外部のサーバとの通信によって判定することができる。
また、特定の場所とは、例えばトンネルや橋、高速道路など、特有の景色となる場所であり、ナビゲーション装置30からの位置情報や地図情報によって判定することができる。
工事・事故・イベントなどについても、周辺の景色が独特の変化をきたす。例えば、工事中の看板や、事故車両、イベントに関係する物体や人物などが画像内に映る。これらの有無についても、VICS受信装置38によるVICS放送の受信や、外部通信装置37による外部のサーバとの通信によって判定することができる。
周囲の明るさは、例えば昼と夜と区別、さらに昼であれば日射量、夜であれば街灯などの照明の量であり、照度センサ32の出力や、タイマ33が出力する時刻情報、ライトスイッチ34が出力する灯火状態に基づいて判定することができる。
天候は、例えば晴天,曇天,降雨、降雪、積雪などであり、VICS受信装置38によるVICS放送の受信や、外部通信装置37による外部のサーバとの通信、また降雨や降雪であれば雨滴センサ36やワイパースイッチ35の出力によって判定することができる。
また、季節についてはタイマ33から時間情報を取得することによって判定することができ、車線数や自車両の走行車線は、白線認識部17による認識結果を用いて判定することができる。
つづいて、画像認識装置10による歩行者候補領域検出について、走行中の場所に基づく周辺景色の変化を例に説明を行なう。図5は、走行中の場所に基づく周辺景色の変化に対応する歩行者候補領域検出を説明する説明図である。
同図では、まず学習プロセスにおいて学習用画像をシーンごとに「市街走行中の背景画像」、「山道走行中の背景画像」、「高速道路走行中の背景画像」に分類している。そして、「市街走行中の背景画像」から「市街用基準パターン」、「山道走行中の背景画像」から「山道用基準パターン」、「高速道路走行中の背景画像」から「高速道路用基準パターン」のように、シーン毎に基準パターンを作成している。
これらは、車両走行実験などにより予めシーン(環境)毎にカメラの画像を解析しておき、記憶させているものである。そして、歩行者候補領域検出プロセスにおいて使用する基準パターンを、その時点で走行中の場所に応じて選択するようにしている。
つぎに、マイコン10aによる歩行者認識の処理動作について図6に示すフローチャートを参照して説明する。なお、この処理フローは、IGオンによりマイコン10aに電源が供給されてスタートし、画像処理装置10が画像認識を実行中である場合に、画像フレームの処理ごと(例えば数msecごと)に繰り返し実行される処理である。また、マイコン10aは白線認識や車両認識も行うが、本処理フローでは説明を省略している。
同図では、まず、シーン判定部12がナビゲーション装置30から位置情報を取得する(ステップS101)。そして、取得した位置情報によって、自車両が高速道路を走行中であると判定した場合(ステップS102,Yes)、基準パターン選択部14は、「高速道路用基準パターン」を選択する(ステップS105)。
一方、自車両が高速道路を走行中ではなく(ステップS102,No)、山道を走行中であると判定した場合(ステップS103,Yes)、基準パターン選択部14は、「山道用基準パターン」を選択する(ステップS106)。そして、山道を走行中ではない場合(ステップS103,No)には、基準パターン選択部14は、「市街用基準パターン」を選択する(ステップS104)。
基準パターンの選択(ステップS104,S105,S106)の後、歩行者候補領域選択部19は、選択された基準パターンと切り出された被判定領域とを比較し(ステップS107)、顕著性があるか否かを判定する(ステップS108)。
その結果、顕著性が無ければ(ステップS108,No)そのまま処理を終了し、顕著性があるならば(ステップS108,Yes)、歩行者認識部18がパターンマッチングやニューロ判定処理によって歩行者であるか否かを判定し(ステップS109)、歩行者であるならば(ステップS109,Yes)歩行者情報と歩行者までの距離を衝突判定部20に出力して(ステップS110)、処理を終了する。
なお、ここでは説明を簡明にするため、位置情報のみによって「市街」「山道」「高速道路」の何れかの基準パターンを選択する場合を例に説明を行なったが、既に述べたような各種のシーンとその組み合わせによって、最適な基準パターンを選択することが望ましい。
この場合、例えば図7に示すように複数のシーンの組み合わせ(同図では明るさと、天候と、周辺の景色)に対してそれぞれ個別の基準パターンを作成しても良いし、シーン間に優先順位を設定して使用する基準パターンを選択するようにしてもよい。
つぎに、プリクラッシュECU40の処理動作について図8のフローチャートを参照して説明する。なお、この処理フローは、IGオンなどにより電源が供給されてスタートし、繰り返し実行される処理である。
まず、プリクラッシュECU40は、画像認識装置10から画像認識の結果を示すデータを受信する(ステップS201)。そして、歩行者などと衝突の危険性が高い場合には(ステップS202,Yes)、スピーカ44によるブザーなどの警告音出力やディスプレイ43による表示出力によって運転者に報知し(ステップS203)、ブレーキ41やEFI42による車両制御を実行して(ステップS204)、処理を終了する。
上述してきたように、本実施例1にかかる画像認識装置1は、シーン(環境)ごとに基準パターンを作成し、自車両周辺の環境によって使い分けることで、顕著性アルゴリズムによる歩行者候補領域の検出精度を向上している。
なお、シーンに合わせて基準パターンを選択する他、検出感度設定部13がシーンに合わせて閾値を設定し、歩行者候補領域の検出感度を変更する。そのため、たとえば市街地、特に学校近辺など歩行者との交通事故が多発する場所では検出感度を上げ、高速道路など歩行者が居る可能性の小さい場所では検出感度を下げて処理負荷を軽減するなど、危険度に応じた歩行者候補領域の検出を行なうことができる。
上述した実施例1では、環境に対応した複数の基準パターンを使い分ける構成について説明を行なったが、本実施例2では、画像内の背景の種類ごとに作成した複数の基準パターンを使用する構成について説明する。
図9は、本発明の実施例2である車載用の画像認識装置50の概要構成を示す概要構成図である。同図に示すように、画像認識装置50は、ナビゲーション装置30、カメラ31、プリクラッシュECU40と接続し、その内部に前処理部11、基準パターンデータベース51、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部52および衝突判定部20を有する。
基準パターンデータベース51は、図10に示すように画像内の背景の種類ごと、例えば「空」、「建物」、「樹木」、「田畑」、「路面」などに対応した複数の基準パターンを記憶している。
歩行者候補領域検出部52は、その内部に基準パターンの数に対応した複数の顕著性算出部とAND処理部52aを有する。そして、前処理部11が出力した画像に対し、全ての基準パターンで顕著性算出を行ない、各算出結果をANDして出力する。
すなわち、入力画像から切り出した被判定領域に対し、ある基準パターンでの顕著性算出結果が「顕著性無し」であれば、他の基準パターンでの算出結果が「顕著性有り」であったとしても、その被判定領域は歩行者候補領域にはならない。
そして、全ての基準パターンでの算出結果が「顕著性有り」であった場合(図10の例では、被判定領域が「空」「建物」「樹木」「田畑」「路面」のいずれでもない場合)に、その被判定領域を歩行者候補領域として、歩行者認識部19に出力する。
その他の構成および動作については、実施例1に示した画像認識装置10と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。
上述してきたように、本実施例2にかかる画像認識装置10は、画像内の背景の種類ごとに作成した複数の基準パターンを使用し、各基準パターンでの算出結果のアンドを取ることで、簡易な構成で顕著性アルゴリズムによる歩行者候補領域の検出精度を向上している。
なお、本発明は、実施例1および実施例2に示した構成に限定されること無く、任意構成によって実施することができるものである。たとえば、実施例1に示した構成と、実施例2に示した構成とを組み合わせ、各シーンに対して背景の種類ごとの複数の基準パターンを設けて、自車両周辺のシーンに対応した複数の基準パターンの全てを用いて顕著性算出を行なう構成によって本発明を実施しても良い。また、本実施例では顕著性算出を適用したが、これに限らず背景画像を基準パターンとして記憶し、現在画像との差分により、候補画を抽出する背景差分法を適用しても良い。
以上のように、本発明にかかる物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置は、車両における画像認識に有用であり、特に歩行者候補領域の検出精度向上に適している。
本発明の実施例1にかかる画像認識装置の概要構成を示す概要構成図である。 顕著性アルゴリズムによる候補領域の検出について説明する説明図である。 候補領域の検出精度低下について説明する説明図である。 シーン判定の具体例を説明する説明図である。 走行中の場所に基づく周辺景色の変化に対応する歩行者候補領域検出を説明する説明図である。 歩行者認識の処理動作について説明するフローチャートである。 複数のシーンの組み合わせ例について説明する説明図である。 図1に示したプリクラッシュECUの処理動作について説明するフローチャートである。 本発明の実施例2にかかる画像認識装置の概要構成を示す概要構成図である。 背景の種類に対応した基準パターンについて説明する説明図である。
符号の説明
10,50 画像認識装置
10a,50a マイコン
11 前処理部
12 シーン判定部
13 検出感度設定部
14 基準パターン選択部
15,51 基準パターンデータベース
16 車両認識部
17 白線認識部
18 歩行者認識部
19,52 歩行者候補領域検出部
20 衝突判定部
30 ナビゲーション装置
30a 地図データ
31 カメラ
32 照度センサ
33 タイマ
34 ライトスイッチ
35 ワイパースイッチ
36 雨滴センサ
37 外部通信装置
38 VICS受信装置

Claims (10)

  1. カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、
    自車両周辺の環境ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶手段と、
    自車両周辺の環境を判定する環境判定手段と、
    前記環境判定手段の判定結果に基づいて、前記複数の基準パターンのうち、自車両周辺の環境に応じた基準パターンを選択する基準パターン選択手段と、
    現在カメラが撮影した入力画像の被判定領域と、前記選択された基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、
    を備えたことを特徴とする物体候補領域検出装置。
  2. 前記環境判定手段は、自車両周辺の景色、交通状態、特定の道路、工事状況、事故発生状況、周囲の明るさ、天候、時間情報、走行中の道路の車線数、自車両の走行車線のうち少なくともいずれか一つを判定することを特徴とする請求項1に記載の物体候補領域検出装置。
  3. 前記環境判定手段は、自車両の位置情報、周辺の地図情報、外部との通信、雨滴センサの出力、ワイパースイッチの操作状態、ライトスイッチの操作状態、画像認識のうち、少なくとも何れか一つを用いて前記自車両周辺の環境を判定することを特徴とする請求項1または2に記載の物体候補領域検出装置。
  4. 前記環境判定結果に基づいて前記検出手段による検出感度を変更する検出感度設定手段をさらに備えたことを特徴とする請求項1,2または3に記載の物体候補領域検出装置。
  5. カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、
    背景の種類ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶手段と、
    現在カメラが撮影した入力画像の被判定領域と、前記複数の基準パターンのそれぞれとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、
    を備えたことを特徴とする物体候補領域検出装置。
  6. 前記検出手段は、前記複数の基準パターンのいずれに対しても差異がある領域を前記物体候補領域として検出することを特徴とする請求項5に記載の物体候補領域検出装置。
  7. 前記背景の種類は、路面、空、建物、田畑、樹木のうち少なくともいずれか一つを含むことを特徴とする請求項5または6に記載の物体候補領域検出装置。
  8. カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、
    自車両周辺の環境ごとに異なる複数の画像の基準パターンを予め記憶する基準パターン記憶工程と、
    自車両周辺の環境を判定する環境判定工程と、
    前記環境判定工程の判定結果に基づいて、前記複数の基準パターンのうち、自車両周辺の環境に応じた基準パターンを選択する基準パターン選択工程と、
    現在カメラが撮影した入力画像の被判定領域と、前記選択された基準パターンとの比較によって、前記被判定領域のうち、前記物体候補領域を検出する検出工程と、
    を含んだことを特徴とする物体候補領域検出方法。
  9. 車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、
    自車両周辺の環境ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、
    前記入力画像から切り出した被判定領域と、自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
    当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
    を備えたことを特徴とする歩行者認識装置。
  10. 自車両周辺の環境ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、
    前記入力画像から切り出した被判定領域と、自車両周辺の環境に応じて選択された基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
    当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
    前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、
    を備えたことを特徴とする車両制御装置。
JP2006160147A 2006-06-08 2006-06-08 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 Pending JP2007329762A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006160147A JP2007329762A (ja) 2006-06-08 2006-06-08 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006160147A JP2007329762A (ja) 2006-06-08 2006-06-08 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置

Publications (1)

Publication Number Publication Date
JP2007329762A true JP2007329762A (ja) 2007-12-20

Family

ID=38929925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006160147A Pending JP2007329762A (ja) 2006-06-08 2006-06-08 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置

Country Status (1)

Country Link
JP (1) JP2007329762A (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066815A (ja) * 2008-09-08 2010-03-25 Denso Corp 人物検出装置、人物検出プログラム、作動制御装置、および衝突緩和装置
JP2011059810A (ja) * 2009-09-07 2011-03-24 Nippon Soken Inc 画像認識システム
KR101050687B1 (ko) 2008-06-04 2011-07-20 주식회사 만도 사후확률을 이용한 보행자 인식 장치 및 방법과 그를이용한 보행자 보호 장치
JP2013172224A (ja) * 2012-02-20 2013-09-02 Hitachi Consumer Electronics Co Ltd 映像処理装置および映像表示装置
JP2013186655A (ja) * 2012-03-07 2013-09-19 Toyota Central R&D Labs Inc 道路標示検出装置及びプログラム
WO2014207991A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム
WO2015141559A1 (ja) * 2014-03-18 2015-09-24 富士通株式会社 路面劣化検出方法、情報処理装置及びプログラム
JP2015535204A (ja) * 2012-09-20 2015-12-10 グーグル インコーポレイテッド 道路天候条件検出
CN106062844A (zh) * 2014-03-18 2016-10-26 富士通株式会社 路面状态的测定方法、路面的恶化位置确定方法、信息处理装置以及程序
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
US9626868B2 (en) 2009-07-10 2017-04-18 Toyota Jidosha Kabushiki Kaisha Object detection device
WO2017159334A1 (ja) * 2016-03-14 2017-09-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、およびビークル
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
KR101875517B1 (ko) * 2016-12-16 2018-07-09 (주)넥스트칩 영상 처리 방법 및 장치
CN110100248A (zh) * 2016-12-21 2019-08-06 罗伯特·博世有限公司 用于分析处理图像并且给车辆的驾驶辅助***提供分析处理的方法和设备
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
JP2020047267A (ja) * 2018-09-14 2020-03-26 本田技研工業株式会社 シーン分類
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium
JP2020190931A (ja) * 2019-05-22 2020-11-26 株式会社Jvcケンウッド 人物判定用の学習済みモデルセットの生成装置、生成方法、生成プログラム、人物領域判定装置、判定方法、および判定プログラム
CN112241004A (zh) * 2019-07-17 2021-01-19 丰田自动车株式会社 物体识别装置
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
US11113555B2 (en) 2017-03-23 2021-09-07 Nec Corporation Object detection apparatus, traffic monitoring system, method of controlling an object detection apparatus and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (ja) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The 画像特徴量判定装置及び画像特徴量判定方法及び辞書パターン作成方法
JP2002083301A (ja) * 2000-09-06 2002-03-22 Mitsubishi Electric Corp 交通監視装置
JP2002157676A (ja) * 2000-11-21 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit 可視画像式路面状況把握装置における路面状況判定方法
JP2002366959A (ja) * 2001-06-08 2002-12-20 Mitsubishi Electric Corp 画像処理装置および画像処理方法
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2004318618A (ja) * 2003-04-17 2004-11-11 Nissan Motor Co Ltd 車線認識装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (ja) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The 画像特徴量判定装置及び画像特徴量判定方法及び辞書パターン作成方法
JP2002083301A (ja) * 2000-09-06 2002-03-22 Mitsubishi Electric Corp 交通監視装置
JP2002157676A (ja) * 2000-11-21 2002-05-31 Natl Inst For Land & Infrastructure Management Mlit 可視画像式路面状況把握装置における路面状況判定方法
JP2002366959A (ja) * 2001-06-08 2002-12-20 Mitsubishi Electric Corp 画像処理装置および画像処理方法
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2004318618A (ja) * 2003-04-17 2004-11-11 Nissan Motor Co Ltd 車線認識装置

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101050687B1 (ko) 2008-06-04 2011-07-20 주식회사 만도 사후확률을 이용한 보행자 인식 장치 및 방법과 그를이용한 보행자 보호 장치
JP4683096B2 (ja) * 2008-09-08 2011-05-11 株式会社デンソー 人物検出装置、人物検出プログラム、作動制御装置、および衝突緩和装置
JP2010066815A (ja) * 2008-09-08 2010-03-25 Denso Corp 人物検出装置、人物検出プログラム、作動制御装置、および衝突緩和装置
US9626868B2 (en) 2009-07-10 2017-04-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2011059810A (ja) * 2009-09-07 2011-03-24 Nippon Soken Inc 画像認識システム
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
JP2013172224A (ja) * 2012-02-20 2013-09-02 Hitachi Consumer Electronics Co Ltd 映像処理装置および映像表示装置
JP2013186655A (ja) * 2012-03-07 2013-09-19 Toyota Central R&D Labs Inc 道路標示検出装置及びプログラム
JP2015535204A (ja) * 2012-09-20 2015-12-10 グーグル インコーポレイテッド 道路天候条件検出
JP6008045B2 (ja) * 2013-06-28 2016-10-19 日本電気株式会社 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム
US10223620B2 (en) 2013-06-28 2019-03-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11836586B2 (en) 2013-06-28 2023-12-05 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US11132587B2 (en) 2013-06-28 2021-09-28 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US9875431B2 (en) 2013-06-28 2018-01-23 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
WO2014207991A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム
US10776674B2 (en) 2013-06-28 2020-09-15 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
US10515294B2 (en) 2013-06-28 2019-12-24 Nec Corporation Training data generating device, method, and program, and crowd state recognition device, method, and program
CN106062844A (zh) * 2014-03-18 2016-10-26 富士通株式会社 路面状态的测定方法、路面的恶化位置确定方法、信息处理装置以及程序
CN106062843A (zh) * 2014-03-18 2016-10-26 富士通株式会社 路面劣化检测方法、信息处理装置以及程序
JP2015178702A (ja) * 2014-03-18 2015-10-08 富士通株式会社 路面劣化検出方法、情報処理装置及びプログラム
WO2015141559A1 (ja) * 2014-03-18 2015-09-24 富士通株式会社 路面劣化検出方法、情報処理装置及びプログラム
US10011960B2 (en) 2014-03-18 2018-07-03 Fujitsu Limited Method of detecting road surface degradation, information process apparatus, and non-transitory computer-readable recording medium
US10796569B2 (en) 2016-01-26 2020-10-06 Mitsubishi Electric Corporation Vehicle determination apparatus, vehicle determination method, and computer readable medium
US11030904B2 (en) 2016-03-14 2021-06-08 Sony Corporation Information processing apparatus, information processing method, and vehicle
WO2017159334A1 (ja) * 2016-03-14 2017-09-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、およびビークル
CN108713221A (zh) * 2016-03-14 2018-10-26 索尼公司 信息处理装置、信息处理方法、程序和车辆
CN108713221B (zh) * 2016-03-14 2022-03-11 索尼公司 信息处理装置、信息处理方法、程序和车辆
EP3432292A4 (en) * 2016-03-14 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, AND VEHICLE
JP2017167587A (ja) * 2016-03-14 2017-09-21 ソニー株式会社 情報処理装置、情報処理方法、プログラム、およびビークル
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
KR101875517B1 (ko) * 2016-12-16 2018-07-09 (주)넥스트칩 영상 처리 방법 및 장치
JP2020513638A (ja) * 2016-12-21 2020-05-14 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 画像を評価し、評価を車両のドライブアシストシステムに対し提供するための方法および装置
US11113549B2 (en) 2016-12-21 2021-09-07 Robert Bosch Gmbh Method and device for analyzing an image and providing the analysis for a driving assistance system of a vehicle
CN110100248A (zh) * 2016-12-21 2019-08-06 罗伯特·博世有限公司 用于分析处理图像并且给车辆的驾驶辅助***提供分析处理的方法和设备
US11113555B2 (en) 2017-03-23 2021-09-07 Nec Corporation Object detection apparatus, traffic monitoring system, method of controlling an object detection apparatus and program
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
US11195030B2 (en) 2018-09-14 2021-12-07 Honda Motor Co., Ltd. Scene classification
JP2020047267A (ja) * 2018-09-14 2020-03-26 本田技研工業株式会社 シーン分類
JP2020190931A (ja) * 2019-05-22 2020-11-26 株式会社Jvcケンウッド 人物判定用の学習済みモデルセットの生成装置、生成方法、生成プログラム、人物領域判定装置、判定方法、および判定プログラム
JP7167850B2 (ja) 2019-05-22 2022-11-09 株式会社Jvcケンウッド 人物判定用の学習済みモデルセットの生成装置、生成方法、生成プログラム、人物領域判定装置、判定方法、および判定プログラム
CN112241004A (zh) * 2019-07-17 2021-01-19 丰田自动车株式会社 物体识别装置
CN112241004B (zh) * 2019-07-17 2024-05-10 丰田自动车株式会社 物体识别装置

Similar Documents

Publication Publication Date Title
JP2007329762A (ja) 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置
US10304337B2 (en) Drive support apparatus
JP2007328630A (ja) 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置
US8543254B1 (en) Vehicular imaging system and method for determining roadway width
CN104050620B (zh) 对象检测设备
JP4255906B2 (ja) 運転支援装置
JP6971020B2 (ja) 異常検出装置および異常検出方法
EP1179803A2 (en) Method and apparatus for object recognition
KR102295992B1 (ko) 자동차 내의 운전자 보조 시스템을 지원하기 위한 방법 및 장치
JP6540482B2 (ja) 情報処理システム、情報処理装置及び出力制御方法
JP2009122859A (ja) 物体検出装置
CN113247014B (zh) 一种自动驾驶***的置信度标识方法及***
JP5522475B2 (ja) ナビゲーション装置
US20180154905A1 (en) Sightline estimation system and sightline estimation method
CN112001235A (zh) 车辆通行信息的生成方法、装置和计算机设备
CN116171464A (zh) 信号灯识别装置、信号灯识别方法、车辆控制装置
JP2011025895A (ja) 駐車支援装置
JP2008143387A (ja) 周辺監視装置および周辺監視方法
JP2017009553A (ja) 車両位置判定装置及び車両位置判定方法
WO2020066303A1 (ja) 道路標識認識装置
JP5338371B2 (ja) 車両用警報装置
JP6500607B2 (ja) 自車位置判定装置及び自車位置判定方法
JP2009122854A (ja) 注意喚起システム及びプログラム
US20220082407A1 (en) Map system, map generating program, storage medium, on-vehicle apparatus, and server
JP6500606B2 (ja) 自車位置判定装置及び自車位置判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111018