JP2006160032A - 運転状態判定装置及び運転状態判定方法 - Google Patents

運転状態判定装置及び運転状態判定方法 Download PDF

Info

Publication number
JP2006160032A
JP2006160032A JP2004352940A JP2004352940A JP2006160032A JP 2006160032 A JP2006160032 A JP 2006160032A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2004352940 A JP2004352940 A JP 2004352940A JP 2006160032 A JP2006160032 A JP 2006160032A
Authority
JP
Japan
Prior art keywords
vehicle
driving state
state
driving
various information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004352940A
Other languages
English (en)
Inventor
Masaaki Uechi
正昭 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004352940A priority Critical patent/JP2006160032A/ja
Publication of JP2006160032A publication Critical patent/JP2006160032A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

【課題】 車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法の提供を目的とする。
【解決手段】 車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することにより上記課題を解決する。
【選択図】 図1

Description

本発明は、運転状態判定装置及び運転状態判定方法に関し、特に自動車等の車両の運転状態を判定する運転状態判定装置及び運転状態判定方法に関する。
現在、米国等を中心に法的な搭載の義務化が検討されているドライビングレコーダを実現する上で、車線変更、右左折、及び駐車操作等の車両の運転状態を自動的に判定する技術の開発が強く要求されている。また、運転支援システムやエージョント等のサービスを提供する上でも、運転状態がタイムリーに、かつ、正確に判定されることで、より高度で快適なアプリケーションを提供することが可能となる。
特開2000−233699号公報 特開2004−53267号公報
しかしながら、既に開示されている技術のほとんどは、運転状態の判定そのものを目的としているものではなく、あるサービスの提供等を目的として特定の又は一部の運転状態を検出するといったものにとどまる。
例えば、特許文献1に記載されている技術は、車両の進行方向における物体の検出を目的として、右左折等の一部の運転状態を検出するものである。
一方、特許文献2には、ブレーキ、アクセル、操舵角、シフト操作、及びウィンカーの各操作データから、「減速」、「停止」、「転回」、「進路変更」、「回避」、「後退」、「右左折」、及び「合流」等の複数の運転状態を判定する旨が記載されている。しかし、特許文献2による開示内容では、例えば、「旋回」、「車線変更」、「右左折」、「合流」を正確に区別して判定することは困難であるという問題がある。すなわち、「車線変更」と「右左折」とについては、ウィンカー操作、操舵角、ブレーキ操作、アクセル操作、及びシフト操作の全てが同じ条件でも、両者が発生し得るからである。また、例えば、ウィンカー操作をしないで「右左折」を行うような場合にも、「右左折」と「旋回」との区別が困難である。
本発明は、上記の点に鑑みてなされたものであって、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法の提供を目的とする。
そこで上記課題を解決するため、本発明は、請求項1に記載されるように、車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする。
このような運転状態判定装置では、車両の各部の状態だけで無く、外部環境に関する情報をも入力情報とするニューラルネットワークを用いて運転状態を判定するため、車両の運転状態を適切に判定することができる。
また、上記課題を解決するため、本発明は、上記運転状態判定装置における運転状態判定方法としてもよい。
本発明によれば、車両の運転状態を適切に判定することのできる運転状態判定装置及び運転状態判定方法を提供することができる。
以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における運転状態判定システムの構成例を示す図である。図1において、運転支援システム1は、自動車等の車両に搭載され、車両の運転状態を自動的に判定することにより、その運転状態に応じたサービスをドライバーに提供するシステムであり、環境情報認識ECU11、車両情報認識ECU12、判定処理ECU13、運転状態記録ECU14、及び運転支援ECU15等の各種ECUと、それぞれのECUに接続された各種センサ等と、運転記録DB(データベース)16と等より構成される。ここで、ECU(Electronic Control Unit)は、マイクロコンピュータによって構成されており、例えば、制御プログラムを格納するROM、演算結果等を格納する読書き可能なRAM、タイマ、カウンタ、入力インターフェイス、及び出力インターフェイス等を有する装置を意味する。
環境情報認識ECU11は、車間用レンジセンサ111、車線画像認識センサ112、信号画像認識センサ113、標識画像認識センサ114、一時停止線画像認識センサ115、歩行者画像認識センサ116、車両周辺センサ117、交通環境情報取得用通信装置118、及びカーナビゲーションシステム119等からの入力情報に基づき、車両の外部環境に関する各種情報、特に、当該車両の走行を何らかの形で制限する情報(以下「環境情報」という。)を認識するECUである。
車間用レンジセンサ111は、前方の車両との車間距離を検出するセンサである。車線画像認識センサ112は、カメラより入力される車線画像に基づいて車線との距離を検出するセンサである。信号画像認識センサ113は、カメラより入力される前方の信号の画像に基づいて、当該信号の色を検出するセンサである。標識画像認識センサ114は、カメラより入力される前方の交通標識の画像に基づいて、当該交通標識の意味を特定するセンサである。一時停止線画像認識センサ115は、カメラより入力される一時停止線の画像に基づいて、当該一時停止線までの距離を検出するセンサである。歩行者画像認識センサ116は、カメラより入力される前方の歩行者の画像に基づいて、歩行者の存在を検出するセンサである。車両周辺センサ117は、車両周辺の障害物等を検出するセンサである。交通環境情報取得用通信装置118は、事故や渋滞等の交通環境情報を通信により取得する装置である。カーナビゲーションシステム119は、いわゆるカーナビゲーションシステムであり、車両の現在位置や現在草稿している道路形態(直線、交差点、T字路等)を地図データ等より判定するシステムである。
車両情報認識ECU12は、車速センサ121、舵角センサ122、アクセル開度センサ123、ブレーキ踏込み度センサ124、及びウィンカー操作センサ125等からの入力情報に基づき、車両の各部の状態を示す各種の情報(以下「車両情報」という。)を認識するECUである。
車速センサ121は、車速を検出するセンサである。舵角センサ122は、舵角を検出するセンサである。アクセル開度センサ123は、アクセルの踏み込み度を検出するセンサである。ブレーキ踏込み度センサ124は、ブレーキの踏込み度を検出するセンサである。ウィンカー操作センサ125は、ウィンカーの操作を検出するセンサである。
判定処理ECU13は、環境情報認識ECU11によって認識された環境情報と、車両情報認識ECU12によって認識された車両情報とに基づいて、車両の運転状態を判定するECUである。
運転状態記録ECU14は、判定処理ECU13によって判定された運転状態を運転記録DB16に記録すると共に、判定処理ECU13による判定結果が誤っていた場合に(実際の運転状態と異なっていた場合に)、判定処理ECU13における判定ロジックを修正するECUである。
運転支援ECU15は、判定処理ECU13によって判定された運転状態に応じた運転支援サービスを、例えば、ディスプレイ151、スピーカ152、又はアクチュエータ153等を介して提供するECUである。
本実施の形態において、判定処理ECU13による運転状態の判定処理は、階層的に細分化された運転状態の定義に基づいてロジック化されている。図2は、本発明の実施の形態における運転状態の定義例を示す図である。
図2に示される表201において、運転状態はL1(レベル1)からL3までの3階層に細分化されている。最も大きな分類であるL1としては、「前進」、「後進」、及び「停止」が定義されている。また、L1を細分化したL2においては、「前進」について「直進」及び「曲がる」が、「後進」について「真っ直ぐ後進」及び「バック旋回」が、「停止」について「一時停止」、「停車(アイドリング状態)」及び「駐車」がそれぞれ定義されている。更に、L2を細分化したL3として、「直進」について「加速」、「等速」及び「減速」が、「曲がる」について「旋回(カーブ)」、「右左折」及び「車線変更」が定義されている。
また、表201においては、L2又はL3のそれぞれの運転状態を判定するにあたり重みの高い入力情報が定義されている。例えば、加速(L3)を判定するためには、車速、アクセル、ブレーキ、及び操舵角に関する情報が重要である旨が定義されている。かかる定義に基づいて判定処理ECU13に組み込まれた運転状態の判定ロジックは、例えば、図3のようになる。図3は、判定処理ECUによる運転状態の判定処理を説明するためのフローチャートである。
図3のステップS101において、車両情報認識ECU12からの車両情報に基づいて、IG(イグニッション)がOFFであるか否かを判定する。イグニッションがOFFであると判定した場合は(S101でYes)、運転状態は「駐車」状態であると判定する(S102)。イグニッションがOFFでないと判定した場合は(S101でNo)、ステップS103に進み、車両情報に基づいて、車速は0(km/h)であるか否かを判定する。車速が0であると判定した場合は(S103でYes)、ステップS104に進み、車両情報に基づいて、所定時間(ここでは、α分とする。)以上停車しているか否かを判定する。α分以上停車していると判定した場合は(S104でYes)、運転状態は「停車」状態であると判定し(S105)、そうでない場合は(S104でNo)、運転状態は「一時停止」状態であると判定する(S106)。
一方、ステップS103において車速は0でないと判定した場合は(S103でNo)、ステップS107に進み、車両情報に基づいて、シフトポジションはR(Rear)であるか否かを判定する。シフトポジションはRであると判定した場合は(S107でYes)、運転状態は「後進」状態であると判定する(S108)。シフトポジジョンはRでないと判定し場合は、ステップS109に進み、車両情報に基づいて、操舵角は0(度)付近であるか否かを判定する。
操舵角は0付近であると判定した場合は(S109でYes)、運転状態は「直進」状態であると判定し(S110)、更に、「直進」に属する下層の運転状態まで特定すべくステップS111からS115の処理を行う。すなわち、加速度が0(km/s)付近であると判定した場合は(S111でYes)、「等速」状態であると判定する(S112)。また、加速度は0付近でないと判定した場合は(S111でNo)、加速度はプラス(+)であるか否かを判定し(S113)、プラスである場合は、運転状態は「加速」状態と判定し(S114)、そうでない場合は、運転状態は「減速」状態であると判定する(S115)。
一方、ステップS109において操舵角は0付近でないと判定した場合は(S109でNo)、ステップS116に進み、車両情報に基づいて、ウィンカーは作動しているか否かを判定する。ウィンカーは作動していると判定した場合は(S116でYes)、ステップS117に進み、車両情報に基づいて、操舵角は大きいか否かを判定する。後述するように、操舵角の大きさによって「右左折」であるか、又は「車線変更」であるかが判定される。したがって、ここでの操舵角が大きいか否かの基準は、右左折と車線変更とを区別できる程度に、経験値等に基づいて定めればよい。
かかる基準に基づいて、操舵角は大きいと判定した場合は(S117でYes)、ステップS118に進み、運転状態は「右左折」であると判定し、更に、ウィンカーの状態に基づいて「右折」であるか「左折」であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右折」と判定し(S120)、そうでない場合は「左折」と判定する(S121)。
ステップS117において操舵角は大きくないと判定した場合は(S117でNo)、ステップS112に進み、運転状態は「車線変更」であると判定し、更に、ウィンカーの状態に基づいて右車線への変更であるか、あるいは左車線への変更であるかを判定する。すなわち、ウィンカーが右を指示している場合は「右車線へ」の車線変更であると判定し(S124)、そうでない場合は「左車線へ」の車線変更であると判定する(S125)。
一方、ステップS116においてウィンカーは作動していないと判定した場合は(S116でNo)、運転状態は「車線変更」、「右左折」又は「旋回」のいずれかであると判定し(S127)、更に、操舵角に基づいて左右の別を判定する(S127)。すなわち、操舵角が右方向である場合は(S127でYes)、「右旋回」、「右折」又は「右車線へ」の車線変更であると判定し(S128)、そうでない場合は(S127でNo)、「左旋回」、「左折」又は「左車線へ」の車線変更であると判定する(S129)。
このように、図3においては、主に、車両情報に基づく条件分岐(IF−THENルール)によって、各種の運転状態が判定される。
ところで、図3の処理による運転状態の判定結果には、ステップS128及びS129において曖昧さが残っている。すなわち、「旋回」、「右左折」又は「車線変更」の区別が特定されていない。これらの区別には、微妙な判断が必要であり、また、ドライバーの癖等の影響を受けやすいといったことがその要因の一つとして挙げられる。そこで、本実施の形態における判定処理ECU13は、ニューラルネットワークを用いてこれらの運転状態の判定を行う。
図4は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図4のニューラルネットワーク131は、図2において「車線変更」に対する重みの高い入力情報として定義されている、操舵角、車速、ウィンカー、シフトポジション、カーナビゲーションシステム119の地図データ、及び車線画像認識センサ113による車線認識結果等を入力情報として、又は重み付けの高い入力情報として用いる。一般に、ニューラルネットワークにおける各ニューロンにおいては、入力値の和が閾値を超えると発火(出力)が行われるが、ニューラルネットワーク131の入力層のニューロン(図中において一番左側の列のニューロン)においては、例えば、判定直前までの過去の一定時間内(例えば、30秒〜1分)の遷移を表すグラフの波形情報が入力情報とされる。そして、その波形情報と予め閾値として定めされている波形情報との類似度(例えば、%)が高い場合は発火が行われる。例えば、入力情報としての「車速」については、判定直前までの車速の遷移を表すグラフの波形情報が相当する。そして、車速の波形情報が、予め閾値として定められている車速の波形情報と比較され、類似度が所定値以上である場合は、当該ニューロンから1が出力され、そうでない場合は0が出力されるというわけである。
波形情報の類似度の判断は、既に公知の各種の手法、例えば、残差マッチング、正規化相関法、位相限定相関、幾何マッチング、ベクトル相関、又は一般化ハフ変換等を用いて行えばよい。但し、車速等の時系列図系に関しては、車速レベルのばらつきが大きいため、リサイズの影響を受け難い幾何マッチング等が望ましい。また、シフトチェンジ等の時系列図系に関しては、シンプルな残差マッチング等が望ましい。
なお、入力層と中間層との各接続、及び中間層と出力層との各接続には予め重み付けがなされており、中間層においては、入力層からの入力にその重み付けがなされた値の総和に基づいて出力が行われるのは、一般的なニューラルネットワークと同様である。
判定処理ECU13は、ニューラルネットワーク131を用いて、「右旋回」、「右折」、及び「右車線へ」の車線変更等のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
ところで、図2においてL1〜L3として定義された運転状態についても、更に細分化することができる。しかしながら、細分化が進めば進むほど、それぞれの運転状態の差異は微妙なものとなり、また、ドライバーの癖等の影響を受けやすくなる。そこで、本実施の形態における判定処理ECU13は、ステップS128やS129の場合だけでなく、更に細分化等された運転状態についてもニューラルネットワークを用いて判定する。以下、代表的な例について説明する。
図5は、一時停止の下層の運転状態の定義例を示す図である。図5の表202においては、表201(図2)においてL2として定義されている「一時停止」が、その原因に基づいて、更に分類され、分類されたそれぞれの運転状態はL4として定義されている。すなわち、「信号による」ものであるのか、「一時停止標識による」ものであるのか、「前方車(他車)による」ものであるのか、「人・障害物による」ものであるのか、又は「その他による」ものであるのか等に分類されている。一時停止に係るL4の判定については、例えば、図6に示されるようなニューラルネットワークを用いて行われる。
図6は、一時停止の状態を判定するためのニューラルネットワークの例を示す図である。図6のニューラルネットワーク132は、表202において重みの高い入力情報として定義されている、車速、シフトポジション、車速=0の時間、信号画像認識センサ113による信号認識の結果、標識画像認識センサ114による標識認識の結果、車間用レンジセンサ111による他車認識の結果、及び歩行者画像認識センサ116及び車両周辺センサ117等による歩行者及び障害物等の認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク132を用いて、「信号による」、「一時停止標識による」、「前方車(他車)による」、「人・障害物による」、及び「その他による」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
また、図7は、駐車操作の下層の運転状態の定義例を示す図である。図7の表203においては、表201(図2)においてL2として定義されている「直進」、「曲がる」、「真っ直ぐ後進」、「バック旋回」、「一時停止」、「停車(アイドリング状態)」の下層(「直進」及び「曲がる」については、そのL3である、「加速」、「等速」、「減速」、「旋回(カーブ)」、「右左折」、「車線変更」の下層)として、L4に「駐車操作」という運転状態が共通に定義され、その「駐車操作」の下層(L5)として、「バック入れ」、「縦列」、及び「前入れ」が定義されている。「駐車操作」に係るL5の判定については、例えば、図8に示されるようなニューラルネットワークを用いて行われる。
図8は、駐車操作の状態を判定するためのニューラルネットワークの例を示す図である。図8のニューラルネットワーク133は、表203において重みの高い入力情報として定義されている、L2(「直進」及び「曲がる」についてはL3)の運転状態の遷移の状況、シフトポジション、車両周辺センサ117からの車両周辺情報、及びカーナビゲーションシステム119からのナビ情報(例えば、駐車場の位置情報)等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク133を用いて、「バック入れ」、「縦列」、及び「前入れ」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
なお、L2等の運転状態の遷移の状況とは、例えば、判定直前までの所定時間(例えば、30秒〜1分)において、各運転状態が発生したタイミングを示す情報(例えば、波形情報)等が相当する。
更に、図9は、車線変更の下層の運転状態の定義例を示す図である。図9の表204においては、表201(図2)においてL3として定義されている「車線変更」の下層(L4)として、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」が定義されている。「車線変更」に係るL4の判定については、例えば、図10に示されるようなニューラルネットワークを用いて行われる。
図10は、車線変更の状態を判定するためのニューラルネットワークの例を示す図である。図10のニューラルネットワーク134は、表204において重みの高い入力情報として定義されている、操舵角、車速、ウィンカーの状態、シフトポジション、ナビ情報、及び車線画像認識センサ112からの車線認識結果等が入力情報として、又は重み付けの高い入力情報として用いる。判定処理ECU13は、ニューラルネットワーク134を用いて、「追い越し車線へ」、「合流」、「走行車線へ」、及び「縦列駐車」のそれぞれの発生確率を算出し、最も発生確率の高い運転状態を判定結果として採用する。
判定処理ECU13によって判定された運転状態に応じて、運転支援ECU15は、各種のサービスを提供することができる。例えば、「駐車操作」と判定された際に、ディスプレイ151に車両周辺映像を映したりしてもよい。また、運転に影響のない「一時停止」と判定された際に、マッサージシートを稼動させたり、メールの着信をアナウンスしたりしてもよい。更に、「車線変更」と判定された場合に、車線変更先における後方の車両との距離に応じて警報を鳴らしてもよい。
各種のニューラルネットワークを用いて行われた判定結果は、運転状態記録ECU14にも出力され、運転状態記録ECU14によって運転記録DB16に記録される。運転状態記録ECU14は、また、判定結果と実際の運転状態との差違を検出し、その差違に基づいて、ニューラルネットワークの各層(入力層、中間層及び出力層)間の接続の重み付けの修正を行う(ニューラルネットワークの学習)。実際の運転状態は、例えば、ナビ情報における走行軌跡によって特定することができる。すなわち、判定処理ECU13によって右折と判定されたが、ナビ情報における走行軌跡では車線変更であったと確認された場合は、当該ナビ情報を教師信号として、関連するニューラルネットワークの学習を行う。
なお、学習のロジックについては、既に確立されている公知の手法(例えば、バックプロパゲーション法(BP法)等)を用いて行えばよい。
上述したように、本実施の形態における運転状態判定システム1によれば、車速や操舵角、又はアクセル開度等の車両自体の情報(車両情報)だけでなく、車外の外部環境の情報(環境情報)についても様々な情報を入力情報として用いると共に、階層的に細分化された運転状態の定義に基づく判定ロジックによって運転状態を判定するため、細かいレベルまで特定された判定結果を自動的に出力することができる。また、ニューラルネットワークを用いて運転状態を判定するため、微妙な判断が必要とされる運転状態についても妥当性の高い判定結果を得ることが可能となる。また、学習機能によって、判定結果のミスを判定ロジック(ニューラルネットワークの重み付け)にフィードバックすることができるため、ドライバーの癖等に対応した判定が可能となる。
なお、本実施の形態においては、L3までについてはフローチャート、すなわち条件分岐(IF−THENルール)によって判定し、それ以下についてニューラルネットワークによって判定する例について説明したが、ニューラルネットワークを用いないで、最下層のレベルまで条件分岐によって判定を行ってもよい。但し、この場合は、ドライバーの癖を反映した判定結果を得るのは困難となる。
一方、条件分岐を用いないで、上位のレベル(L1)からニューラルネットワークによって判定を行ってもよい。但し、ニューラルネットワークを用いた演算は、一般に高い負荷が要求され、処理速度も遅くなりがちである。したがって、本実施の形態のように、あるレベルまでは条件分岐によって判定し、それ以下については、ニューラルネットワークを用いて判定するといった方式が、処理の高速性と判断の柔軟性との調和という観点から望ましい。
但し、必ずしも本実施の形態のようにL3とL4との間を条件分岐とニューラルネットワークとの境界にする必要はない。どのレベルを条件分岐とニューラルネットワークとの境界とするかは、システムに要求される特性に応じて定めればよい。すなわち、条件分岐によって判定する範囲が広ければ広いほど、判定処理の高速化と画一化を図ることができる一方、ニューラルネットワークによって判定する範囲が広ければ広いほど、ドライバーの癖等に応じた柔軟性及び多様性のある判定結果が得られる可能性が高まる。
なお、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
本発明の実施の形態における運転状態判定システムの構成例を示す図である。 本発明の実施の形態における運転状態の定義例を示す図である。 判定処理ECUによる運転状態の判定処理を説明するためのフローチャートである。 車線変更の状態を判定するためのニューラルネットワークの例を示す図である。 一時停止の下層の運転状態の定義例を示す図である。 一時停止の状態を判定するためのニューラルネットワークの例を示す図である。 駐車操作の下層の運転状態の定義例を示す図である。 駐車操作の状態を判定するためのニューラルネットワークの例を示す図である。 車線変更の下層の運転状態の定義例を示す図である。 車線変更の状態を判定するためのニューラルネットワークの例を示す図である。
符号の説明
1 運転状態判定システム
11 環境情報認識ECU
12 車両情報認識ECU
13 判定処理ECU
14 運転状態記録ECU
15 運転支援ECU
16 運転記録DB
111 車間用レンジセンサ
112 車線画像認識センサ
113 信号画像認識センサ
114 標識画像認識センサ
115 一時停止線画像認識センサ
116 歩行者画像認識センサ
117 車両周辺センサ
118 交通環境情報取得用通信装置
119 カーナビゲーションシステム
121 車速センサ
122 舵角センサ
123 アクセル開度センサ
124 ブレーキ踏み込みセンサ
125 ウィンカー操作センサ
151 ディスプレイ
152 スピーカ
153 アクチュエータ

Claims (5)

  1. 車両に搭載され、当該車両の運転状態を判定する運転状態判定装置であって、
    当該車両の各部の状態を示す各種の情報を検出する車両状態検出手段と、
    当該車両の外部環境に関する各種の情報を検出する外部環境検出手段と、
    前記車両各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手段とを有することを特徴とする運転状態判定装置。
  2. 実際の運転状態を教師信号として前記ニューラルネットワークの学習を行わせる学習手段を更に有することを特徴とする請求項1記載の運転状態判定装置。
  3. 前記実際の運転状態は、当該車両に搭載されるカーナビゲーションシステムによる当該車両の走行軌跡を示す情報に基づいて判定させることを特徴とする請求項1又は2記載の運転状態判定装置。
  4. 前記各運転状態は、予め階層的に細分化されて定義されており、
    前記運転状態判定手段は、少なくとも前記車両の各部の状態を示す各種の情報に基づく条件分岐によって、所定の階層までの運転状態を判定することを特徴とする請求項1乃至3いずれか一項記載の運転状態判定装置。
  5. 車両の運転状態を判定する運転状態判定方法であって、
    当該車両の各部の状態を示す各種の情報を検出する車両状態検出手順と、
    当該車両の外部環境に関する各種の情報を検出する外部環境検出手順と、
    前記車両の各部の状態を示す各種の情報と、前記外部環境に関する各種の情報とを入力情報として各運転状態の発生確率を算出するニューラルネットワークを用いて、当該車両の運転状態を判定する運転状態判定手順とを有することを特徴とする運転状態判定方法。
JP2004352940A 2004-12-06 2004-12-06 運転状態判定装置及び運転状態判定方法 Pending JP2006160032A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004352940A JP2006160032A (ja) 2004-12-06 2004-12-06 運転状態判定装置及び運転状態判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004352940A JP2006160032A (ja) 2004-12-06 2004-12-06 運転状態判定装置及び運転状態判定方法

Publications (1)

Publication Number Publication Date
JP2006160032A true JP2006160032A (ja) 2006-06-22

Family

ID=36662521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004352940A Pending JP2006160032A (ja) 2004-12-06 2004-12-06 運転状態判定装置及び運転状態判定方法

Country Status (1)

Country Link
JP (1) JP2006160032A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195220A (ja) * 2007-02-13 2008-08-28 Denso Corp 車線変更支援装置及びプログラム
JP2009012571A (ja) * 2007-07-03 2009-01-22 Toyota Motor Corp コーナー学習システム
JP2012159955A (ja) * 2011-01-31 2012-08-23 Yazaki Corp 画像記録制御方法および画像認識装置ならびに車載画像記録装置
CN103235563A (zh) * 2013-03-18 2013-08-07 东南大学 一种工业现场设备能效评估方法
JP2015207171A (ja) * 2014-04-21 2015-11-19 トヨタ自動車株式会社 運転支援装置
CN107176098A (zh) * 2017-07-10 2017-09-19 辽宁工业大学 一种内轮差盲区自动监测预警装置及控制方法
WO2018135605A1 (ja) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体
WO2018135509A1 (ja) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラムおよびそれを記録した記録媒体
JP2019131141A (ja) * 2018-02-02 2019-08-08 Kddi株式会社 車載制御装置
WO2020188942A1 (ja) * 2019-03-15 2020-09-24 本田技研工業株式会社 車両用コミュニケーション装置及びプログラム
JP2021039464A (ja) * 2019-09-02 2021-03-11 株式会社デンソーテン 走行状況記録装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195220A (ja) * 2007-02-13 2008-08-28 Denso Corp 車線変更支援装置及びプログラム
JP2009012571A (ja) * 2007-07-03 2009-01-22 Toyota Motor Corp コーナー学習システム
JP2012159955A (ja) * 2011-01-31 2012-08-23 Yazaki Corp 画像記録制御方法および画像認識装置ならびに車載画像記録装置
CN103235563A (zh) * 2013-03-18 2013-08-07 东南大学 一种工业现场设备能效评估方法
CN103235563B (zh) * 2013-03-18 2014-12-17 东南大学 一种工业现场设备能效评估方法
JP2015207171A (ja) * 2014-04-21 2015-11-19 トヨタ自動車株式会社 運転支援装置
WO2018135509A1 (ja) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラムおよびそれを記録した記録媒体
WO2018135605A1 (ja) * 2017-01-23 2018-07-26 パナソニックIpマネジメント株式会社 イベント予測システム、イベント予測方法、プログラム、及び移動体
CN107176098A (zh) * 2017-07-10 2017-09-19 辽宁工业大学 一种内轮差盲区自动监测预警装置及控制方法
CN107176098B (zh) * 2017-07-10 2023-07-07 辽宁工业大学 一种内轮差盲区自动监测预警装置及控制方法
JP2019131141A (ja) * 2018-02-02 2019-08-08 Kddi株式会社 車載制御装置
WO2020188942A1 (ja) * 2019-03-15 2020-09-24 本田技研工業株式会社 車両用コミュニケーション装置及びプログラム
JPWO2020188942A1 (ja) * 2019-03-15 2020-09-24
CN113632152A (zh) * 2019-03-15 2021-11-09 本田技研工业株式会社 车辆通信装置和程序
US11760371B2 (en) 2019-03-15 2023-09-19 Honda Motor Co., Ltd Vehicle communication device and non-transitory computer-readable recording medium storing program
JP7379463B2 (ja) 2019-03-15 2023-11-14 本田技研工業株式会社 車両用コミュニケーション装置及びプログラム
JP2021039464A (ja) * 2019-09-02 2021-03-11 株式会社デンソーテン 走行状況記録装置

Similar Documents

Publication Publication Date Title
JP6575818B2 (ja) 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援システム、プログラム
CN111137284B (zh) 一种基于驾驶分心状态的预警方法及预警装置
US20220187834A1 (en) Generating trajectories for autonomous vehicles
US20220169214A1 (en) Emergency braking for autonomous vehicles
JP2019144975A (ja) 車両制御装置
CN113291308A (zh) 一种考虑驾驶行为特性的车辆自学习换道决策***及方法
EP3647136B1 (en) Vehicle traveling assistance method and vehicle traveling assistance device
JP4182131B2 (ja) 覚醒度判定装置及び覚醒度判定方法
US11661061B2 (en) Method and device for assisting a driver in a vehicle
US11587461B2 (en) Context-sensitive adjustment of off-road glance time
US10583841B2 (en) Driving support method, data processor using the same, and driving support system using the same
US11091174B2 (en) Vehicle control device
JP2021026720A (ja) 運転支援装置、車両の制御方法、およびプログラム
US20230143515A1 (en) Driving assistance apparatus
WO2019155778A1 (ja) 衝突回避支援装置、プログラム、衝突回避支援方法
JP2006160032A (ja) 運転状態判定装置及び運転状態判定方法
CN113272197B (zh) 用于改进用于横向车辆运动的辅助***的装置和方法
CN115273461A (zh) 车辆的路口行驶方法、装置、车辆及存储介质
US20130246421A1 (en) Information processing device for vehicle and database
JP2010182148A (ja) 走行状態記録装置
JP2001034897A (ja) 運転支援システム
JP2008105511A (ja) 運転支援装置
JP6617602B2 (ja) 漫然運転検出システム及び漫然運転検出方法
US11403948B2 (en) Warning device of vehicle and warning method thereof
CN114348014A (zh) 车道偏离预警方法、装置、车辆和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091027