JP5959401B2 - 運転支援システム - Google Patents

運転支援システム Download PDF

Info

Publication number
JP5959401B2
JP5959401B2 JP2012230429A JP2012230429A JP5959401B2 JP 5959401 B2 JP5959401 B2 JP 5959401B2 JP 2012230429 A JP2012230429 A JP 2012230429A JP 2012230429 A JP2012230429 A JP 2012230429A JP 5959401 B2 JP5959401 B2 JP 5959401B2
Authority
JP
Japan
Prior art keywords
visual
driving
situation
driver
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012230429A
Other languages
English (en)
Other versions
JP2014081856A (ja
Inventor
淳 金田
淳 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012230429A priority Critical patent/JP5959401B2/ja
Publication of JP2014081856A publication Critical patent/JP2014081856A/ja
Application granted granted Critical
Publication of JP5959401B2 publication Critical patent/JP5959401B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、自動車の運転を支援する技術に関するものである。
自動車の運転を支援する技術としては、各地点毎に過去に当該地点を走行した各自動車の運転者の視認行動(たとえば、信号機や横断歩道やサイドミラーの確認行動)を収集して統計データを作成すると共に、各地点の統計データに基づいて、当該地点に接近した自動車の運転者に、当該地点を過去に走行した各自動車の運転者が一般的に行った視認行動と同じ視認行動を行うように案内する技術が知られている(たとえば、特許文献1)。
特開2008-158791号公報
上述した自動車の運転者に対して当該自動車が接近した地点を過去に走行した各自動車の運転者が一般的に行った視認行動と同じ視認行動を行うように案内する技術によれば、充分に個々の運転者に適合した運転支援を行うことができない。
すなわち、たとえば、上述した技術によって案内を受けた運転者の視認行動の特性が、案内された視認行動を案内を受けるまでもなく当然行うものであった場合には、当該案内は当該運転者にとって不要な案内となるため、上述した技術による運転支援は煩雑で過剰なものとなる。
一方で、個々の運転者の視認行動の特性は運転者毎に異なり、また、同じ運転者であっても、その視認行動の特性は各時点における状況に応じて異なったものとなるため、個々の運転者の視認行動の特性は、予め一義的に特定することができない。
そこで、本発明は、個々の運転者の各時点における視認行動の特性を精度良く算定することを課題とする。また、併せて、算定した個々の運転者の視認行動の特性に基づいて、より個々の運転者に適合した運転支援を行うことを課題とする。
前記課題達成のために、本発明は、自動車に搭載される運転支援システムに、前記自動車の走行状況を検出する走行状況検出手段と、運転者の視認行動を検出する視認行動検出手段と、前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記走行状況毎に、当該走行状況が発生している期間中の運転者の視認行動の特性を学習する学習手段と、運転者の視認行動の特性に応じた運転支援を行う運転支援手段と備え、前記運転支援手段において、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と一致する走行状況に対して前記学習手段が学習した視認行動の特性を用いて前記運転支援を行うようにしたものである。
ここで、このような運転支援システムは、当該運転支援システムにさらに、前記自動車周囲の自然環境状況を検出する自然環境状況検出手段を設けると共に、前記学習手段において、前記自然環境状況検出手段が算定した自然環境状況と前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記自然環境状況と前記走行状況との各組毎に、当該組の前記自然環境状況と前記走行状況が発生している期間中の運転者の視認行動の特性を学習し、前記運転支援手段において、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と自然環境状況との組に一致する、前記走行状況と前記自然環境状況との組に対して前記学習手段が学習した視認行動の特性を用いて前記運転支援を行うように構成してもよい。
また、以上の運転支援システムは、前記運転支援手段において、前記運転支援に用いる前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を行うよう促す運転支援を行うものとしてもよい。また、この場合には、前記視認行動を、視認した物体の種別を表す視認物種別と、当該物体を視認した方向を表す視認方向とによって規定し、前記運転支援手段において、前記運転支援に用いる前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を規定する視認方向と視認物種別を注意対象視認方向と注意対象視認物種別として、注意対象視認方向の注意対象視認物種別の物体に対する注意を喚起するようにしてもよい。
また、この場合には、前記運転支援手段において、現時点に所定期間以内に近い将来の前記自動車の走行状況の変化の発生を予測し、当該走行状況の変化の発生が予測されたならば、当該変化の発生が予測される時点の走行状況を当該発生を予測した変化後の走行状況とし、現時点において前記自然環境状況検出手段が検出している自然環境状況を当該変化の発生が予測される時点の自然環境状況として、当該変化の発生が予測される時点における前記自動車の走行状況と自然環境状況との組に一致する、前記走行状況と前記自然環境状況との組に対して前記学習手段が学習した視認行動の特性を当該変化の発生が予測される時点の運転者の視認行動の特性として求めると共に、求めた当該変化の発生が予測される時点の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を行うよう促すようにしてもよい。
なお、以上の各運転支援システムにおいて、前記走行状況は、少なくとも、前記自動車の右折、左折の走行状態の状況を含むものとし、前記自然環境状況は、少なくとも、前記自動車周囲の晴天、雨天の天気状態の状況を含むものとすることが好ましい。
これらのような運転支援システムによれば、自動車の走行状況や、当該走行状況と自動車周囲の自然環境状況との組み合わせ毎に、運転者の視認行動の特性を学習し、各時点における運転者の視認行動の特性として、当該時点における自動車の走行状況や、当該時点における当該走行状況と自然環境状況との組み合わせに対して学習した特性を用いる。よって、個々の運転者毎に前記運転支援の対象とする時点における視認行動の特性を、自動車の走行状況や自動車周囲の自然環境状況に応じた運転者の視認行動の特性の変化を反映した形態で、精度良く算出し、算出した運転者の視認行動の特性に基づいて、より運転者に適合した運転支援を行うことができるようになる。
以上のように、本発明によれば、個々の運転者の各時点における視認行動の特性を精度良く算定することができる。また、算定した個々の運転者の視認行動の特性に基づいて、より個々の運転者に適合した運転支援を行うことができる。
本発明の実施形態に係る運転支援システムの構成を示すブロック図である。 本発明の実施形態に係るユーザ特性データベースの記憶内容を示す図である。 本発明の実施形態に係るユーザ特性学習処理を示すフローチャートである。 本発明の実施形態に係る先行注意処理を示すフローチャートである。 本発明の実施形態に係る警告処理を示すフローチャートである。
以下、本発明の実施形態について説明する。
図1aに、本実施形態に係る運転支援システムの構成を示す。
運転支援システムは自動車に搭載されるシステムであり、図示するように、車内カメラ101、周辺カメラ102、視線方向算出部103、画像認識処理部104、車両状態検出センサ105、環境状況検出センサ106、ナビゲーション部107、警告処理部108、ユーザ特性データベース109、ユーザ特性学習部110、表示装置111、音声出力装置112とを備えている。
ここで、周辺カメラ102は図1bに示すように、自動車の前方、右方、左方、後方を各々撮影するカメラである。
また、車内カメラ101は、図1cに示すように、車内に設置され、運転者の、少なくとも両眼を含む部分を撮影する。なお、車内カメラ101は、運転者が、前方、右方、左方、後方のいずれの方向を向いているときにも、運転者の、少なくとも両眼を含む部分を撮影できるように、車内の異なる位置に複数配置するようにしてもよい。
また、車両状態検出センサ105は、自動車の、前進/後進/停止、舵角などの各種状態を検出するセンサである。
また、環境状況検出センサ106は、晴天/雨天/雪空や、車外の照度などの現在の自動車周辺の自然環境の状況を検出するセンサである。
また、視線方向算出部103は、車内カメラ101が撮影した運転者の画像より、運転者の視線方向を算定する。
また、画像認識処理部104は、周辺カメラ102によって撮影された各画像に対して画像認識処理を施して、各画像中に撮影された物体の位置と種類を識別する。
また、ナビゲーション部107は、地図データを備えており、自動車の現在位置の算出や、設定された目的地までのルートの算出や、地図データが表す地図上に現在位置やルートを表した案内画像の表示装置111への表示などを行う。
次に、本実施形態において、ユーザ特性DBには、図2aに示すように学習特性データと標準特性データとが格納される。
学習特性データは、図2bに示すように、条件表と、環境状況と車両状況との各組み合わせに対応して設けられた個別特性テーブルとを含む。
ここで、環境状況は自動車周囲の自然環境を表すものであり、本実施形態では、環境状況として、晴れ(明るい)、晴れ(薄暗い)、晴れ(暗い)、雨(明るい)、雨(薄暗い)、雨(暗い)、雪(明るい)、雪(薄暗い)、雪(暗い)等を用いる。なお、曇りは、晴れ(薄暗い)に該当するものとし、夜は晴れ/雨/雪(暗い)に該当するものとする。また、車両状況は自動車の走行状況を表すものであり、本実施形態では、車両状況として、直進、右折、左折、右車線変更、左車線変更、バック走行、踏切前走行、信号機前停止、料金所走行等を用いる。
そして、条件表は、以上の環境状況と車両状況との全ての組み合わせに対して、当該組み合わせに対応する個別特性テーブルの位置を示すテーブルポインタTPを登録した表である。
また、各個別特性テーブルは、視認方向と視認対象の各組み合わせによって規定される視認行動の各々に対応するエントリを有し、各エントリには、当該個別特性テーブルが対応する環境状況に自動車の周辺環境があり、当該個別特性テーブルが対応する車両状況に自動車の走行状況がある期間中、運転者が当該エントリに対応する視認方向にある当該エントリに対応する視認対象を視認した回数(X回)と、当該エントリの回数(X回)の当該期間中の全視認回数(個別特性テーブルの各エントリのX回の総和)に対する比率(Y%)が登録される。
ここで、本実施形態では、視認方向として前方、右方、左方、後方を用いる。また、視認対象としては、道路、車両、信号機、標識/案内看板、建物、歩行者、遠方、表示装置、サイドミラー、バックミラーを用いる。
ただし、視認対象としてサイドミラー、バックミラーを設けずに、運転者がサイドミラー、バックミラーを視認したときには、視認方向が後方であり、視認対象がサイドミラー、バックミラーを介して運転者が視認したサイドミラー、バックミラーに写り込んだ物体であるとするようにしてもよい。
また、視認対象としてサイドミラー、バックミラーを設ける場合には、視認方向はサイドミラー、バックミラーを介して運転者が視認した方向であるとするようにしてもよい。
ここで、このような学習特性データの条件表のテーブルポインタTPは予め固定的に登録されるが、個別特性テーブルの各回数(X回)、比率(Y%)は、ユーザ特性学習部110によって後述するユーザ特性学習処理により随時更新される。
次に、標準特性データは、図2bに示した学習特性データと同様の構成を備えており、条件表と、環境状況と車両状況との各組み合わせに対応して設けられた個別特性テーブルとを含む。ただし、標準特性データの各個別特性テーブルには、回数(X回)は登録されずに、比率(Y%)のみが登録されている。
また、このような標準特性データの条件表のテーブルポインタTP、各個別特性テーブルの比率(Y%)は予め固定的に登録される。
ここで、標準特性データの各個別特性テーブルに登録される比率(Y%)は、当該個別特性テーブルが対応する環境状況に自動車の周辺環境があり、当該個別特性テーブルが対応する車両状況に自動車の走行状況がある期間中に、模範的な運転者が各視認方向の各視認対象を視認する回数の当該期間中の全視認回数に対する比率(Y%)を表すものである。
なお、このような、模範的な運転者が各視認方向の各視認対象を視認する回数の当該期間中の全視認回数に対する比率(Y%)は、模範的な運転者に自動車を運転させて実測した値を用いるようにしてもよいし、模範的な運転者のモデルを設定し、当該モデルに従って求めた値を設定するようにしてもよい。
以下、このような運転支援システムの構成において、ユーザ特性学習部110が行うユーザ特性学習処理について説明する。
図3にユーザ特性学習処理の手順を示す。
図示するように、このユーザ特性学習処理では、まず、環境状況検出センサ106の検出値を参照して現在の環境状況を取得する(ステップ302)。次に、車両状態検出センサ105の検出値やナビゲーション部107が算出している現在位置地点の地図データが表す道路の状況(たとえば、現在位置地点が、交差点内/複数車線道路上/踏切手前/料金所内であるかなど)応じて現在の車両状況を取得する(ステップ304)。
また、学習特性データの条件表を参照して、取得した現在の環境状況と現在の車両状況の組に対応する個別特性テーブルを学習対象テーブルとして特定する(ステップ306)。
そして、現在の環境状況と現在の車両状況を取得しながら(ステップ310、312)、運転者の注視の発生と(ステップ308)、現在の環境状況と現在の車両状況のいずれかの変化の発生(ステップ314)を監視する。
ここで、運転者の注視の発生は、たとえば、視線方向算出部103が算出した運転者の視線方向が所定時間(たとえば、2秒)変化しなかったときに、注視が発生したものとすることにより判定する。
そして、運転者の注視が発生したならば(ステップ308)、視認方向と視認対象を算出する(ステップ316)。ここでは、画像認識処理部104が位置と種類を算出した物体のうち、視線方向算出部103が算出した運転者の視線方向に位置する物体の種類を視認対象として算出する。また、視線方向算出部103が算出した運転者の視線方向を視認方向として算出する。
そして、学習対象テーブルの、ステップ316で算出した視認方向と視認対象の組に対応するエントリに登録されている回数(X回)を1増加することにより更新する(ステップ318)。また、学習対象テーブルの各エントリの比率(Y%)を、ステップ318の更新に伴い更新する(ステップ320)。
一方、現在の環境状況と現在の車両状況のいずれかの変化が発生(ステップ314)した場合には、ステップ306からの処理に戻る。
以上、ユーザ特性学習処理について説明した。
次に、警告処理部108が行う先行注意処理について説明する。
図4に、先行注意処理の手順を示す。
図示するように、この処理では、現在の環境状況を取得する(ステップ402)。
そして、自動車の次回の車両状況の変化の発生時点と、当該変化後の車両状況とを予測する(ステップ404)。
ここで、自動車の次回の車両状況の変化の発生時点と、当該変化後の車両状況との予測は、ナビゲーション部107が算出している現在位置前方の地図データが表す道路状況や、ナビゲーション部107が算出しているルートに従って行う。
すなわち、たとえば、ルートに従って右折すべき交差点が前方の所定距離内に存在すれば、次回の車両状況の変化として車両状況「右折」への変化が予測されると共に、車両状態検出センサ105が検出している自動車の速度と当該交差点までの距離とより求まる当該交差線への到達予測時刻が当該変化の発生時点として予測される。また、たとえば、料金所が前方の所定距離内に存在すれば、次回の車両状況の変化として車両状況「料金所走行」への変化が予測されると共に、車両状態検出センサ105が検出している自動車の速度と当該料金所までの距離とより求まる当該料金所への到達予測時刻が当該変化の発生時点として予測される。
次に、ステップ404で予測した次回の車両状況の変化の発生時点までの時間がn秒(たとえば、7秒)となったならば(ステップ406)、次回の車両状況の変化の発生時点を運転支援の対象とする時点として運転支援を行う。
すなわち、まず、学習特性データの条件表を参照して、取得した現在の環境状況と予測した次回の変化後の車両状況の組に対応する学習特性データの個別特性テーブルを現用テーブルとして特定する(ステップ408)。
また、標準特性データの条件表を参照して、取得した現在の環境状況と予測した次回の変化後の車両状況の組に対応する標準特性データの個別特性テーブルを参照テーブルとして特定する(ステップ410)。
そして、現用テーブルのエントリのうち、登録されている視認比率Y%が、当該エントリと対応する視認方向と視認対象が同じ参照テーブルエントリに登録されている視認比率Y%より所定レベル以上小さい(たとえば、25%以上小さい)エントリに対応する視認方向、視認対象を注意視認方向、注意視認対象とする(ステップ412)。
そして、注意視認方向、注意視認対象への注意を喚起するメッセージを音声出力装置112より音声出力する(ステップ414)。
すなわち、たとえば、注意視認方向が右方で注意視認対象が歩行者であれば、「右方の歩行者を確認してください」といった音声メッセージを出力する。また、たとえば、注意視認方向が右方で注意視認対象がサイドミラーであれば、「サイドミラーで右方を確認してください」といった音声メッセージを出力する。
ここで、環境状況は、近距離離れた2地点間や、短時間離れた2時点間では一致していることが期待できるので、現在の環境状況は、予測した次回の車両状況の変化直後の時点における自動車の環境状況と見なすことができる。よって、以上のように求めた現用テーブルは、予測した次回の車両状況の変化直後の時点、すなわち、メッセージ出力による運転支援の対象となる時点における、環境状況と車両状況とに対応したものとなり、当該現用テーブルは、メッセージ出力による運転支援の対象となる時点における、運転者の視認行動の特性を精度良く表すものとなる。
したがって、このような現用テーブルを用いてメッセージ出力による運転支援を行うことにより、車両状況や環境状況の変化に応じた運転者の視認行動の特性の変化を反映した形態で運転者の視認行動の特性を精度良く求めて、当該視認行動の特性に応じた運転支援を行えることとなり、結果、より運転者に適合した運転支援を行えることとなる。
さて、このようにして音声メッセージを出力したならば(ステップ414)、予測した次回の変化後の車両状況の発生と(ステップ416)、所定時間m秒(たとえば、15秒)の経過(ステップ418)の発生を監視し、いずれかが発生したならばステップ402からの処理に戻る。
次に、警告処理部108が行う警告処理について説明する。
図5に、警告処理の手順を示す。
図示するように、この警告処理では、画像認識処理部104が算出した周辺の物体の位置を取得し(ステップ502)、周辺物体のうち、運転者が現在視認すべき物体が存在するかどうかを調べる(ステップ504)。そして、存在しない場合には、ステップ502の処理に戻る。
ここで、運転者が現在視認すべき物体は、当該物体と自動車との相対位置関係や、車両状態検出センサ105の検出した当該自動車の速度などから見て、自動車との衝突の可能性が存在する物体などとする。
一方、運転者が現在視認すべき物体が存在する場合には、視線方向算出部103が算出した運転者の視線方向を取得し(ステップ506)、当該視線方向より当該物体の位置方向を運転者が見ているかどうかを判定する(ステップ508)。
そして、当該物体の位置方向を運転者が見ていればステップ502からの処理に戻り、見てなければ、当該物体に注意を向けるよう促す警報を音声出力装置112より出力(ステップ510)、ステップ502からの処理に戻る。
以上、本発明の実施形態について説明した。
ところで、以上の実施形態では、図4に示した先行注意処理によって学習特性データを用いた運転支援を行う場合について示したが、学習特性データを用いた運転支援は、図4に示した先行注意処理以外にも種々行うようにすることができる。
ただし、いずれの場合も、運転支援の対象とする時点における前記自動車の車両状況と環境状況の組に対応する学習特性データの個別特性テーブルを現用テーブルとして、当該現用テーブルが表す運転者の視認行動の特性に応じた運転支援を行うようにする。
また、以上の実施形態における学習特性データ及び標準特性データの個別特性テーブルの車両、信号機、標識/案内看板、建物、歩行者等の各々に対応する各エントリについては、当該エントリに登録する比率(Y%)を、当該エントリに対応する視認方向に、当該エントリに対応する視認対象が存在した回数に対する、運転者が当該エントリに対応する視認方向にある当該エントリに対応する視認対象を視認した割合としてもよい。そして、この場合には、個別特性テーブルの各エントリに、当該エントリに対応する視認方向に、当該エントリに対応する視認対象が存在した回数(Z回)も登録するようにし、図3のユーザ特性学習処理のステップ320を、画像認識処理部104が視認対象を認識した視認方向に対応する、学習対象テーブルの各エントリの回数(Z回)を1増加し、学習対象テーブルの各エントリの比率(Y%)を、各エントリに登録されているX、Zに基づいて100X/Yにより更新するものとする。
また、以上の実施形態における学習特性データは、運転支援以外の用途、たとえば、運転者の運転解析などの他の用途にも用いるようにしてよい。
101…車内カメラ、102…周辺カメラ、103…視線方向算出部、104…画像認識処理部、105…車両状態検出センサ、106…環境状況検出センサ、107…ナビゲーション部、108…警告処理部、109…ユーザ特性データベース、110…ユーザ特性学習部、111…表示装置、112…音声出力装置。

Claims (6)

  1. 自動車に搭載される運転支援システムであって、
    前記自動車の走行状況を検出する走行状況検出手段と、
    運転者の視認行動を検出する視認行動検出手段と、
    前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記走行状況毎に、当該走行状況が発生している期間中の運転者の視認行動の特性を学習する学習手段と、
    運転者の視認行動の特性に応じた運転支援を行う運転支援手段とを有し、
    前記運転支援手段は、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と一致する走行状況に対して前記学習手段が学習した視認行動の特性を選定し、当該選定した前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を行うよう促す運転支援を行うことを特徴とする運転支援システム。
  2. 請求項1記載の運転支援システムであって、
    前記自動車周囲の自然環境状況を検出する自然環境状況検出手段を有し、
    前記学習手段は、前記自然環境状況検出手段が算定した自然環境状況と前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記自然環境状況と前記走行状況との各組毎に、当該組の前記自然環境状況と前記走行状況が発生している期間中の運転者の視認行動の特性を学習し、
    前記運転支援手段は、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と自然環境状況との組に一致する、前記走行状況と前記自然環境状況との組に対して前記学習手段が学習した視認行動の特性を選定し、当該選定した前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を行うよう促す運転支援を行うことを特徴とする運転支援システム。
  3. 自動車に搭載される運転支援システムであって、
    前記自動車の走行状況を検出する走行状況検出手段と、
    運転者の視認行動を検出する視認行動検出手段と、
    前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記走行状況毎に、当該走行状況が発生している期間中の運転者の視認行動の特性を学習する学習手段と、
    運転者の視認行動の特性に応じた運転支援を行う運転支援手段とを有し、
    前記視認行動は、視認した物体の種別を表す視認物種別と、当該物体を視認した方向を表す視認方向とによって規定されるものであり、
    前記運転支援手段は、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と一致する走行状況に対して前記学習手段が学習した視認行動の特性を選定し、当該選定した前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を規定する視認方向と視認物種別とを注意対象視認方向と注意対象視認物種別として、注意対象視認方向の注意対象視認物種別の物体に対する注意を喚起する運転支援を行うことを特徴とする運転支援システム。
  4. 請求項3記載の運転支援システムであって、
    前記自動車周囲の自然環境状況を検出する自然環境状況検出手段を有し、
    前記学習手段は、前記自然環境状況検出手段が算定した自然環境状況と前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記自然環境状況と前記走行状況との各組毎に、当該組の前記自然環境状況と前記走行状況が発生している期間中の運転者の視認行動の特性を学習し、
    前記運転支援手段は、各時点における前記運転者の視認行動の特性として、当該時点における前記自動車の走行状況と自然環境状況との組に一致する、前記走行状況と前記自然環境状況との組に対して前記学習手段が学習した視認行動の特性を選定し、当該選定した前記運転者の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を規定する視認方向と視認物種別とを注意対象視認方向と注意対象視認物種別として、注意対象視認方向の注意対象視認物種別の物体に対する注意を喚起する運転支援を行うことを特徴とする運転支援システム。
  5. 自動車に搭載される運転支援システムであって、
    前記自動車周囲の自然環境状況を検出する自然環境状況検出手段と、
    前記自動車の走行状況を検出する走行状況検出手段と、
    運転者の視認行動を検出する視認行動検出手段と、
    前記自然環境状況検出手段が算定した自然環境状況と前記走行状況検出手段が検出した走行状況と前記視認行動検出手段が検出した視認行動とに基づいて、前記自然環境状況と前記走行状況との各組毎に、当該組の前記自然環境状況と前記走行状況が発生している期間中の運転者の視認行動の特性を学習する学習手段と、
    運転者の視認行動の特性に応じた運転支援を行う運転支援手段とを有し、
    前記運転支援手段は、現時点に所定期間以内に近い将来の前記自動車の走行状況の変化の発生を予測し、当該走行状況の変化の発生が予測されたならば、当該変化の発生が予測される時点の走行状況を当該発生を予測した変化後の走行状況とし、現時点において前記自然環境状況検出手段が検出している自然環境状況を当該変化の発生が予測される時点の自然環境状況として、当該変化の発生が予測される時点における前記自動車の走行状況と自然環境状況との組に一致する、前記走行状況と前記自然環境状況との組に対して前記学習手段が学習した視認行動の特性を当該変化の発生が予測される時点の運転者の視認行動の特性として求めると共に、求めた当該変化の発生が予測される時点の視認行動の特性が表す実行の程度が、予め定めた標準の視認行動の特性が表す実行の程度より低い視認行動を行うよう促すことを特徴とする運転支援システム。
  6. 請求項2、4または5記載の運転支援システムであって、
    前記走行状況は、少なくとも、前記自動車の右折、左折の走行状態の状況を含み、
    前記自然環境状況は、少なくとも、前記自動車周囲の晴天、雨天の天気状態の状況を含むことを特徴とする運転支援システム。
JP2012230429A 2012-10-18 2012-10-18 運転支援システム Expired - Fee Related JP5959401B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012230429A JP5959401B2 (ja) 2012-10-18 2012-10-18 運転支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012230429A JP5959401B2 (ja) 2012-10-18 2012-10-18 運転支援システム

Publications (2)

Publication Number Publication Date
JP2014081856A JP2014081856A (ja) 2014-05-08
JP5959401B2 true JP5959401B2 (ja) 2016-08-02

Family

ID=50785976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012230429A Expired - Fee Related JP5959401B2 (ja) 2012-10-18 2012-10-18 運転支援システム

Country Status (1)

Country Link
JP (1) JP5959401B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10807605B2 (en) 2018-12-19 2020-10-20 Waymo Llc Systems and methods for detecting and dynamically mitigating driver fatigue
KR20220097682A (ko) * 2020-12-30 2022-07-08 인하대학교 산학협력단 인공지능 기반의 차량과 객체 간의 충돌 위험도 검출 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003327009A (ja) * 2002-05-14 2003-11-19 Toyota Central Res & Dev Lab Inc 注意喚起装置
JP4961311B2 (ja) * 2007-09-19 2012-06-27 アイシン精機株式会社 運転支援装置及び運転支援方法
JP2010085203A (ja) * 2008-09-30 2010-04-15 Pioneer Electronic Corp ナビゲーション装置及び案内誘導方法

Also Published As

Publication number Publication date
JP2014081856A (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
CN110349405B (zh) 利用联网汽车的实时交通监视
US10336190B2 (en) Road sign information display system and method in vehicle
CN101652802B (zh) 安全驾驶支持装置
US11634150B2 (en) Display device
JP6451844B2 (ja) 車両位置判定装置及び車両位置判定方法
US20170138752A1 (en) Method and System for Providing Personalized Navigation Services and Crowd-Sourced Location-Based Data
EP3216667A1 (en) Control system for vehicle
JP4984244B2 (ja) 交差点安全運転支援装置
CN107533803B (zh) 遮挡控制装置
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
US10896338B2 (en) Control system
CN109427213B (zh) 用于车辆的防碰撞装置、方法及非暂时性存储介质
CN112789205B (zh) 针对自动驾驶车辆检测队列并对队列进行响应
US11644324B2 (en) Dangerous place identification device, map data, dangerous place identification method, and program
WO2022057721A1 (en) Method for operating vehicle hazardous parking warning system
JP2017009553A (ja) 車両位置判定装置及び車両位置判定方法
JP5959401B2 (ja) 運転支援システム
CN113401056A (zh) 显示控制装置、显示控制方法以及计算机可读取存储介质
JP7073313B2 (ja) 車両制御装置
KR20190042120A (ko) 스마트 보이스 내비게이션
US11897482B2 (en) Autonomous vehicle control for changing grip completion status in real-time to prevent unnecessary warning issuance
US20240157935A1 (en) Detection of distracted drivers
CN117341695A (zh) 辅助驾驶引导方法、增强现实设备及可读存储介质
KR20230067799A (ko) 환경 조건에 따라 적어도 하나 이상의 가상 차선을 표시하는 장치의 제어 방법 및 장치
JP2022129400A (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160621

R150 Certificate of patent or registration of utility model

Ref document number: 5959401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees