JP4277081B2 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP4277081B2
JP4277081B2 JP2004077083A JP2004077083A JP4277081B2 JP 4277081 B2 JP4277081 B2 JP 4277081B2 JP 2004077083 A JP2004077083 A JP 2004077083A JP 2004077083 A JP2004077083 A JP 2004077083A JP 4277081 B2 JP4277081 B2 JP 4277081B2
Authority
JP
Japan
Prior art keywords
probability distribution
line
sight
gaze
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004077083A
Other languages
English (en)
Other versions
JP2005267108A (ja
Inventor
隆文 伊藤
浩 上杉
理 片山
隆司 大森
健太郎 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004077083A priority Critical patent/JP4277081B2/ja
Priority to US11/073,566 priority patent/US7519459B2/en
Publication of JP2005267108A publication Critical patent/JP2005267108A/ja
Application granted granted Critical
Publication of JP4277081B2 publication Critical patent/JP4277081B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/101Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using cameras with adjustable capturing direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/408Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components using a data bus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Hospice & Palliative Care (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biophysics (AREA)
  • Educational Technology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転者の運転操作を支援する運転支援装置に関する。
近年、様々な運転支援装置が開発され利用されつつある。例えば、特許文献1に記載の運転支援装置は、運転者の視線等から運転行動の危険度を演算するものである。
特許文献1に記載の具体的な運転支援装置の一つは、運転行動危険度演算部が、操舵角センサで検出された操舵角に基づいて自車の進行方向を判断する。そしてさらに、視線フィルタで分類された運転者の視線行動を用い、現在から所定時間前までにおいて、どの程度の頻度で自車の進行方向を見たかを考慮して運転行動危険度を演算する。例えば、進行方向を所定の閾値時間以上見たり進行方向を所定の閾値回数以上見たときは、運転行動危険度は低くなる。一方、進行方向を所定の閾値時間以上見ていなかったり進行方向を所定の閾値回数以上見ていなかったときは、運転行動危険度は高くなる。
また、特許文献1に記載の他の具体的な運転支援装置の一つは、運転行動危険度演算部が、車外撮像画像から得られた運転者が認識すべき対象物に対し、運転者の視線があるか否かを判断し、様々なパラーメータを加えて運転行動危険度を演算する。例えば、自転車が自車両に向かって進んでいる場合において、運転者の視線がその自転車にあれば運転行動危険度は低くなり、運転者の視線がその自転車になければ運転行動危険度は高くなる。
特開2003−99899号公報
ところで、上述した前者の運転支援装置は、運転者が車両の進行方向を見ていたか否かについて今現在の視線状態だけでなく過去の視行動も考慮して運転行動危険度を判定しているが、上述した後者の運転支援装置は、対象物に対して過去の視行動を考慮せずに運転行動危険度を判定している。一般的に、人の視覚的記憶は一定時間維持されるため、運転行動危険度を判定する瞬間にその対象物を見ていなくとも、直前にその対象物を見て認識しているのであれば危険ではない場合も多い。逆に、運転支援装置の指示に従ってその対象物を見続けることによる二次的な危険を生じるおそれもある。
本発明は、このような問題を解決するためになされたものであり、運転者が視認すべき対象物を見る必要があるか否かを、現在の運転者の視行動だけでなく過去の視行動も用いて判断し、適切な運転支援を行う運転支援装置を提供することを目的とする。
上記課題を解決するためになされた請求項1に記載の運転支援装置は、視線分布検知手段と、理想視線確率分布算出手段と、危険判定手段と、出力手段とを備える。視線分布検知手段は、運転者の視線分布を検知し、理想視線確率分布算出手段は、自車両及び自車両の周囲の情報と、過去の運転者の視線分布とから運転者の理想視線確率分布を算出する。そして、危険判定手段は、視線分布検知手段が検知した視線分布と、理想視線確率分布算出手段が算出した理想視線確率分布とを比較し、両分布の間に一定以上の差が生じた場合に危険であると判定し、出力手段が危険判定手段の判定結果を出力する。なお、ここで言う視線分布というのは、ある一定間隔毎に運転者の視線の位置を求め、一定時間内の視線位置を全てプロットしたものを意味する。また、理想視線確率分布というのは、安全運転を行うために必要な運転者の理想的な視線の位置についての確率分布である。
このように、運転者の実際の視線分布と運転者の理想視線確率分布とを算出して比較するようになっていれば、次のような効果が得られる。例えば、道路に落下物がある場合その落下物を避けるため運転者がその落下物を見て認識する必要があるが、それにもかかわらず運転者がその落下物を見ない場合、危険であるとして運転者にその旨を報知することができる。他にも、進行方向の先に急カーブがあるにもかかわらずその急カーブの箇所を運転者が見ない場合、危険であるとして運転者にその旨を報知することができる。また、理想視線確率分布算出手段は過去の運転者の視線分布を考慮して運転者の理想視線確率分布を算出するため、判定手段は、運転者が落下物や急カーブの箇所を一度視認すれば、その後一定時間はその落下物や急カーブの箇所を見続けなくても危険であると判定しない。したがって、運転者が運転支援装置の指示に従って特定の対象物を見続けることによる二次的な危険を生じるおそれを低減することができる。
また、理想視線確率分布算出手段は撮影手段と、視野画像蓄積手段と、第1の視線確率分布算出手段と、第2の視線確率分算出手段と、加算手段とを備えるようになっているとよい。具体的には、撮影手段が車両の前方の画像情報を得、視野画像蓄積手段が、視線分布検知手段が検知した視線分布の情報を用い、撮影手段によって得られた画像情報の中から運転者の視野に相当する画像情報を蓄積する。また、第1の視線確率分布算出手段が、視野画像蓄積手段が蓄積した画像情報から道路形状を求め、その道路をトレースするためのステアリング操作に必要な運転者の視線確率分布を算出し、第2の視線確率分算出手段が、視野画像蓄積手段が蓄積した画像情報の視覚的特徴量から、運転者が自然と見てしまうと予想される視線確率分布を算出する。そして、加算手段が、第1の視線確率分布算出手段及び第2の視線確率分布算出手段の各出力を加算し理想視線確率分布を出力する。
なお、求める道路形状というのは道路の幅、道路の曲がり具合等であり、これらは、道路の端に引かれた白線や、中央分離帯や、中央線等から求める。そして、この求めた道路の幅や曲がり具合から、ステアリング操作を行うために道路のどの部分に視線を移動させれば良いかを示す視線確率分布を算出する。道路の曲がり具合と視線移動との関係については、例えば小池等がモデルを提案しており、この提案されたモデルを適用することにより、ステアリング操作に必要な視線確率分布を求めることが可能となる(小池、銅谷:マルチステップ状態予測を用いた強化学習によるドライバモデル、電子通信学会論文誌D-II
、Vol.84-D-II、No.2,pp.370-379,2001)。
ところで、視野画像蓄積手段は特に、請求項に記載のようになっているとよい。つまり、視線の場所毎に、画像情報が更新されてから経過した時間を保持するようになっているとよい。そして、第1の視線確率分布算出手段が、視野画像蓄積手段の保持する時間を用い、視野画像蓄積手段の画像情報が古い視線の場所ほど大きな値が得られるよう視線確率分布を算出するようになっているとよい。
このようになっていると、運転者の視覚記憶の薄れを考慮した理想視線確率分布を算出することができる。そもそも、長い時間、視線を移動させなかった場所ほど実際の前方の様子と異なっている可能性が高いため、このようになっていれば、実際の前方の様子と異なっている可能性が高い場所に対して、運転者に高い視線移動の要求を発することができる。
また、第1の視線確率分布算出手段は、視野画像蓄積手段の蓄積した画像情報を用いるようになっていてもよいが、請求項に記載のように、撮影手段によって得られた車両の前方の画像情報全てを用い、ステアリング操作に必要な運転者の視線確率分布を算出するようになっていてもよい。
このようになっていると、より正確に運転者の行うべきステアリング操作に必要な視線確率分布を算出することができる。
また、第1の視線確率分布算出手段は、撮影手段から得られる画像情報だけでは車両周辺の環境等により、正確な道路形状を算出することが難しい場合も考えられる。このため、請求項に記載のように、第1の視線確率分布算出手段は、さらに地図情報を取得することができ、当該地図情報も利用して運転者の行うべきステアリング操作に必要な視線確率分布を算出するようになっていてもよい。この地図情報の取得元としては、例えばナビゲーション装置が考えられる。また、地図情報の具体的な内容として、道路の幅や、曲がり具合や、車線数や、中央分離帯の有無等である。
このようになっていれば、より正確な道路の幅等を得ることができ、その結果、より正確な視線確率分布を算出することができる。
また、第2の視線確率分布算出手段が視線確率分布を算出する際に用いる視覚的特徴量というのは、請求項に記載のように、画像情報から得られる輝度、彩度、エッジの強さ又はオプティカルフロー、の少なくとも一つであるとよい。つまり、第2の視線確率分布算出手段は、対象物の視覚的特徴(例えば明るさ)から運転者が自然と見てしまう位置の確率分布を求めるようになっているとよい。具体的な視線確率分布の算出方法としては、S.Park等が考えた、視覚的特徴としてエッジ、輝度、色差などを取り上げ、計算によって視覚入力に基づく視線移動を推定することにより視線確率分布を求める方法が考えられる(S.Park,S.Ban,J Shin,Minho Lee : Implementation of Visual Attention System Using Bottom-up Saliency Map Model, Artificial Neural Networks and Neural Information Processing - ICANN/ICONIP 2003,p,678-685,2003/11/20)。
ところで、危険判定手段及び出力手段については、請求項に記載のように、危険判定手段は、前記判定を所定の領域毎に行い、視線分布と理想視線確率分布との間に一定以上の差が生じた領域を不注意領域として算出し、出力手段は、危険判定手段が算出した不注意領域を識別するための情報を出力するようになっているとよい。
このようになっていれば、運転者は出力された情報に基づいて不注意領域に視線を移せば、危険状態を回避することができる。
なお、出力手段の具体的な構成としては、請求項に記載のように、マーカーを表示可能なウィンドウシールドディスプレイを備えるように構成し、運転者の視点を基準としてマーカーの先に危険判定手段が算出した不注意領域に対応する場所があるようにマーカーを表示するようになっているとよい。マーカーの具体例としては、例えば当該不注意領域を囲うものや、当該不注意領域を透過可能に塗りつぶしたものや、当該不注意領域の位置を示す矢印等が考えられる。
このようになっていれば、運転者がそのマーカーを見さえすれば、運転者の視線が見るべき視線の位置に合致するため、運転者は直感的に見るべき対象物を認識することができる。
また、さらに、請求項に記載のように、出力手段は、マーカーを表示するに際し、危険判定手段が算出した、視線分布と理想視線確率分布との間の差に応じてマーカーの視覚的特徴を変えてウィンドウシールドディスプレイにマーカーを表示するようになっているとよい。ここで言う「視覚的特徴」というのは、輝度、彩度、形状、動き(例えば点滅)等を意味する。
このようになっていれば、そのマーカーの先にある対象物の重要度を運転者は瞬時に知ることができる。また、マーカーが複数あるような場合、最も見るべき対象物を運転者は瞬時に知ることができる。
出力手段の他の構成としては、請求項に記載のように、出力手段は、スピーカーを備え、運転者に対して不注意領域の存在方向から警告音が聞こえるようにスピーカーに警告音を出力させるようになっているとよい。
人は無意識に音のする方向を向く習性があるため、このようになっていても運転者に見るべき視線の位置を認識させることができる。
また、さらに、請求項10に記載のように、出力手段は、警告音を出力するに際し、危険判定手段が算出した、視線分布と理想視線確率分布との間の差に応じて警告音の聴覚的特徴を変えてスピーカーに警告音を出力させるようになっているとよい。ここで言う「聴覚的特徴」というのは、音程、音量、長さ、これらの複合的な変化等を意味する。
このようになっていれば、運転者はその警告音がした先にある対象物の重要度を聴覚だけで把握することができる。
また、警告音の代わりに、請求項11に記載のように、出力手段は、スピーカーを備え、不注意領域の場所を運転者に認識させるための音声をスピーカーに出力させるようになっていてもよい。具体的な音声案内としては例えば、「前方左方の信号機を確認して下さい」といったものや、「前方の右カーブの外側を確認して下さい」といったものが考えられる。
このようになっていても運転者は視線を移すべき対象物を認識することができる。
以下、本発明が適用された実施例について図面を用いて説明する。尚、本発明の実施の形態は、下記の実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
図1は、本実施例の運転支援装置11の概略構成を示すブロック図である。運転支援装置11は、運転者用カメラ13と前方カメラ15とウィンドウシールドディスプレイ17とスピーカー19と操作部21と制御部23とから構成される。
運転者用カメラ13は、運転者の視線を検出するために運転者の顔部を撮影するカメラであり、暗闇でも撮影可能なよう、例えば赤外光を投射してその反射光を撮影するものであるとよい。
前方カメラ15は、車両の前端(例えばバンパー部)又は車室内の前方(例えばバックミラー裏)に設置されたカメラであり、車両の進行方向のうち運転者の視野に相当する範囲を撮影するカメラである。
ウィンドウシールドディスプレイ17は、車両のフロントウィンドウに各種情報を表示するためのものであり、フロントウィンドウに対して光を投射することにより運転者に情報を伝達させるタイプのものや、フロントウィンドウに内蔵又は貼り付けられた発光体が発光することにより運転者に情報を伝達させるタイプのものがある。
スピーカー19は、各種の案内音声や、警告音等を出力するものである。
操作部21は、運転者からの各種指示を入力するためのものであり、メカニカルなキースイッチや、図示しない液晶ディスプレイの表示面と一体に構成されたタッチパネ等である。
制御部23は、CPU、ROM、RAM及びそれらを結ぶバス等から構成され、運転者用カメラ13,前方カメラ15,操作部21からの信号を入力して各種処理を実行し、その実行結果に応じてウィンドウシールドディスプレイ17,スピーカー19を制御するものである。
次に、制御部23について図2の機能ブロック図を用い、より詳細に説明する。図2に示すように、制御部23は主に、理想視線確率分布算出手段31と視線分布検知手段41と危険判定手段43と出力制御部45とを備える。
視線分布検知手段41は、運転者用カメラ13からの映像信号を入力して運転者の視線の分布を検知し、その検知結果を危険判定手段43と理想視線確率分布算出手段31とに出力する。
理想視線確率分布算出手段31は、前方カメラ15と視線分布検知手段41とからの信号を入力し、理想視線確率分布を算出して危険判定手段43に出力する。
危険判定手段43は、視線分布検知手段41と理想視線確率分布算出手段31とからの信号を入力し、危険判定を行ってその判定結果を出力制御部45に出力する。
出力制御部45は、危険判定手段43からの信号を入力し、ウィンドウシールドディスプレイ17及びスピーカー19を制御するための信号を算出して送信し、ウィンドウシールドディスプレイ17及びスピーカー19の動作を制御する。
次に、視線分布検知手段41、理想視線確率分布算出手段31、危険判定手段43、出力制御部45について、それぞれをさらに詳細に説明する。
1.視線分布検知手段41、
視線分布検知手段41は、運転者用カメラ13から入力された画像に対し、パターンマッチング等の処理を行い運転者の目の位置を割り出す。そして、割り出した目の領域画像から楕円近似を利用した虹彩中心を検出し、その虹彩中心に基づいて視線ベクトルを求める。また、視線ベクトルを求める他の方法としては、瞳孔の中心座標から視線ベクトルを求める方法を用いてもよい。このようにして求めた視線ベクトルから、例えば過去2秒間の視線分布を求め、理想視線確率分布算出手段31と危険判定手段43とに出力する。
2.理想視線確率分布算出手段31
理想視線確率分布算出手段31は、大きく分け、視野画像蓄積手段33と、第1の視線確率分布算出手段35と、第2の視線確率分算出手段37と、加算部39とから構成される。
(1)視野画像蓄積手段33
視野画像蓄積手段33では、まず、視野中心画像抽出部33aが、前方カメラ15から入力した撮影画像の中から、視線分布検知手段41の検知した同一時刻の運転者の視線分布の情報を用いて、視線位置を中心とする視野に相当する画像(視野画像)を抽出する。この視野画像Imgは、視線位置(視野中心)をXeye(t)、視線位置からの距離をr、視野の半径をRとしたとき、数1に示す式であらわされる。
続いて、エッジ抽出部33bが、視野中心画像抽出部33aの抽出した視野画像Imgからエッジ部分を抽出し、その画像の解像度をrに反比例させる処理(つまり、視野中心から周辺部に向かうほど画像の解像度を落とす処理)を行い、エッジ画像Edgeを生成する。このエッジ画像Edgeは、数2に示す式で表される。
続いて、エッジ抽出部33bは、エッジ画像Edgeをエッジバッファ33dに蓄積させる。なお、このエッジバッファ33dは、前方カメラ15が入力する撮影画像と同じ大きさの領域の画像を蓄積することができるバッファであり、視線位置を画像内の位置に対応させて上書きが行われる。また、エッジバッファ33dには時間減衰があり、一定時間、入力がない位置の情報は消滅する。時定数をτとし、この関係を式に表すと、数3に示す式となる。
また、エッジバッファ33dには時刻インデックスが付属し、各位置の情報が入力された時間を保持している。ここで、図3に視野画像Imgとエッジバッファ33dの領域との関係を示す。上述した通り、このエッジバッファ33dの大きさは、前方カメラ15が入力する撮影画像と同じ大きさの領域の画像を蓄積することができる大きさであり、この領域に対して部分画像である視野画像Imgをエッジバッファ33dは順次上書きして蓄積する。
一方、輝度抽出部33cは、視野中心画像抽出部33aの抽出した視野画像Imgから輝度の高い部分を抽出し、その画像の解像度をrに反比例させる処理(つまり、視野中心から周辺部に向かうほど画像の解像度を落とす処理)を行い、輝度画像Intを生成する。この輝度画像Intは、数4に示す式で表される。
続いて、輝度抽出部33cは、輝度画像Intを輝度バッファ33eに蓄積させる。なお、この輝度バッファ33eは、前方カメラ15が入力する撮影画像と同じ大きさの領域の画像を蓄積することができるバッファであり、視線位置を画像内の位置に対応させて上書きが行われる。また、輝度バッファ33eには時間減衰があり、一定時間、入力がない位置の情報は消滅する。時定数をτとし、この関係を式に表すと、数5に示す式となる。
また、輝度バッファ33eには時刻インデックスが付属し、各位置の情報が入力された時間を保持している。
(2)第1の視線確率分布算出手段35
第1の視線確率分布算出手段35は、ステアリング操作のための視線移動の要求度合いを示す視線確率分布(トップダウン視線確率分布)を算出する。本願発明者等は、上述した小池等が提案した強化学習に基づく自動車運転モデルを採用し、この自動車運転モデルを運転者のステアリング操作モデルとした。このモデルには、現在位置、1秒後の位置、2秒後の位置、3秒後の位置を予測してステアリング操作量を出力するモジュール(予測モジュール)があり、それぞれの位置での道路の両端から車両までの距離を入力とし、車両を安定して操作するために必要なステアリングの操作量を計算して出力する。そして、強化学習モジュールが、道路の状況に応じて何れかの予測モジュールの出力を最終的なステアリング操作量として採用するかを決定する。本実施例では、1秒後の予測モジュール(ステアリングモジュール(Near)35a)と3秒後の位置の予測モジュール(ステアリングモジュール(Far)35b)を用い、それぞれの予測モジュールが入力として必要とする視覚入力に対する情報要求(トップダウン視線要求)をそれぞれのモジュールが出力し、その出力された位置に対する視線の移動要求を確率分布として算出する。
第1の視線確率分布算出手段35では、まず各々のステアリングモジュールが、注視要求位置をそれぞれ出力する。そして、トップダウン視線確率分布算出部35cが、出力されたそれぞれの注視要求と、上述したエッジバッファ33d及び輝度バッファ33eの時刻インデックスを足し合わせたもの(時刻インデックス)とを用い、数6に示すようにトップダウン注視要求を算出する。
このように各点の注視要求と、対応する位置の時刻インデックスとの積により、各バッファの更新時刻が古い位置ほど大きい注視要求が算出される。そして、さらにトップダウン視線確率分布算出部35cは、このように算出された注視要求に対して、全視覚範囲で正規化を行い、トップダウン視線確率分布を算出して出力する(数7参照)。
ここで、トップダウン視線確率分布の一例を紹介する。図4(a)は、ワイヤーフレームによって道路が表された撮影イメージ図であり、図4(b)は、その撮影イメージから求めたトップダウン視線確率分布を示す図である。図4(a)の横線は、それぞれ1秒後、2秒後、3秒後の車両の予測位置を示し(2秒後の予測位置は本実施例では算出しない)、その横線の両端の丸は視線要求の大きさを示す。図4(b)は、明度によって視線要求の確率が示され、白い部分ほど視線要求が強い。
(3)第2の視線確率分算出手段37
第2の視線確率分算出手段37は、視覚入力の特徴に基づく人の受動的な視線移動の強さを示す視線確率分布(ボトムアップ視線確率分布)を算出する。一般的に、網膜、外側膝状体などの初期視覚系の受容細胞では、受容野中心部の狭い領域に対しては高い解像度の感度を持つのに対し、受容野周辺部の入力に対しては抑制性の反応を示すことが知られている。このような仕組みは、空間的な微分処理を実現し、視野内画像の部分的な不連続性や目立った部分を検出するのに適している。本実施例では、この初期視覚系の構造に基づくモデルをサレンシーマップ(Visual Saliency Map)の生成に用い、視覚入力の特徴に基づく人の受動的な視線移動の強さを示す視線確率分布を算出した。
具体的にはフィルタ部37aが、例えばガウスフィルタ(Gaussian filter)を用いてエッジバッファ33dの画像を4段階にぼかし、サレンシーマップ生成部37bが、ぼかされた画像を擬似的な周辺画像として、それぞれ前段階の画像との差分を計算した画像を加算、正規化することにより、サレンシーマップ(Saliency Map)を生成する。
次に、ボトムアップ視線確率分布算出部37cが、生成されたサレンシーマップを用い、全視覚範囲で正規化することにより、ボトムアップ視線確率分布を算出する(数8参照)。
なお、一度視線が向けられた領域に対しては、同じ位置に視線が固定されるのを防止するため、視線確率分布を減衰させ、他の領域に視線が移動するようにするとよい(数9参照)。
ここで、ボトムアップ視線確率分布の一例を紹介する。図5(a)は、ワイヤーフレームで表される撮影イメージ図であり、図5(b)は、その撮影イメージ図から求めたボトムアップ視線確率分布を示す図である。図5(a)の左方には標識があり、右方にはビルが存在する。図5(b)は、明度によって視線確率が示され、白い部分ほど視線確率が高いことを意味する。
(4)加算部39
第1の視線確率分布算出手段35によって算出されたトップダウン視線確率分布と、第2の視線確率分算出手段37によって算出されたボトムアップ視線確率分布とを足し合わせて、理想視線確率分布を算出する(数10参照)。
3.危険判定手段43
危険判定手段43は、前方カメラ15の撮影画像と同じ大きさの領域を、n行Xm列のメッシュ状の領域に分け(図6に示すイメージ図を参照:本イメージ図では7行X6列に分けられている。)、ある一定時間内の、各領域内の視線分布Pmd(n,m)を視線分布検知手段41から出力された視線分布に基づいて求める。また、理想視線確率分布Pmi(n,m)についても、理想視線確率分布算出手段31から出力された理想視線確率分布に基づいて求める。そして、これらの分布の差diff(n,m)を領域毎に算出する(数11参照)。
次に、求めた分布の差diff(n,m)を用いて数12に示す判定式により、各領域の危険度dng(n,m)を求め、出力制御部に出力する。
この判定式は、分布の差diff(n,m)のn及びmを変化させ、分布の差diff(n,m)が所定の値よりも大きい場合、危険度dng(n,m)に分布の差diff(n,m)を代入し、分布の差diff(n,m)が所定の値よりも小さい場合、危険度dng(n,m)に0を代入するものである。
4.出力制御部45
出力制御部45は、危険判定手段43から入力した危険度dng(n,m)に基づき、ウィンドウシールドディスプレイ17及びスピーカー19を制御するための信号を送信する。ウィンドウシールドディスプレイ17の具体的な動作は、例えば図7(a)に示す車内の前部を表すイメージ図のように、フロントウィンドウに重ねて危険度dng(n,m)の高い領域を縁取った四角状のマーカー101を表示させる。なお、この際、運転者の視点位置が基準となり、フロントウィンドウを通してマーカー101に囲まれた外界の先が、運転者が見るべき対象物があるようにしてマーカー101を表示させる。また、マーカー101は、危険度dng(n,m)の値に応じて色を変えて表示させる。実際には運転者は図7(b)に示すイメージ図のように外界を見ることができる。
また、スピーカー19の具体的な動作は、上述した運転者が見るべき対象物の方向から警告音が聞こえるように警告音を発生させる。なお、その際に、最も高い危険度dng(n,m)に応じて警告音の音量や音程や音質等を変えて警告音を発生させるようになっている。
ここまでで本実施例の運転支援装置11について説明したが、運転支援装置11は、運転者の実際の視線分布と運転者の理想視線確率分布とを算出して比較するようになっている。このため、例えば、進行方向の先に急カーブがあるにもかかわらずその急カーブの箇所を運転者が見ない場合、危険であるとして運転者にその旨を報知することができる。また、第1の視線確率分布算出手段35と第2の視線確率分算出手段37は、現時点だけの画像情報ではなく、視野画像蓄積手段33が蓄積した画像情報を利用して運転者の理想視線確率分布を算出するため、運転者が例えば急カーブの箇所を一度視認すれば、その後一定時間はその急カーブを見続けなくても危険である旨を報知しない。したがって、運転者が特定の対象物を見続けることによる二次的な危険を生じるおそれを低減することができる。
以下、他の実施例について述べる。
(イ)上記実施例では第1の視線確率分布算出手段35は、視野画像蓄積手段33の蓄積した画像情報に基づき、ステアリング操作のための視線移動の要求度合いを示す視線確率分布(トップダウン視線確率分布)を算出するようになっていたが、第2の視線確率分算出手段37が算出する、視覚入力の特徴に基づく人の受動的な視線移動の強さを示す視線確率分布(ボトムアップ視線確率分布)との整合が取れるのであれば、前方カメラ15が撮影した画像をそのまま用いてトップダウン視線確率分布を算出するようになっていてもよい。
このようになっていれば、上記効果を維持しながら、より精度の良いトップダウン視線確率分布を算出することができる。
(ロ)上記実施例では視野画像蓄積手段33は、エッジ抽出部33bが視野中心画像抽出部33aの抽出した視野画像からエッジ部分を抽出し、輝度抽出部33cが視野中心画像抽出部33aの抽出した視野画像から輝度の高い部分を抽出するようになっていたが、他にも彩度やオプティカルフローに基づいて特徴を抽出する抽出部を設けてもよい。そして、抽出された情報をそれぞれ専用のバッファに蓄積し、第1の視線確率分布算出手段35や第2の視線確率分算出手段37がその情報を利用するようになっているとよい。
(ハ)上記実施例では第1の視線確率分布算出手段35は、視野画像蓄積手段33が蓄積した画像情報に基づいてトップダウン視線確率分布を算出するようになっていたが、さらに、運転支援装置11にナビゲーション装置を接続させ、そのナビゲーション装置から道路形状に関する情報等を取得してトップダウン視線確率分布を算出するようになっていてもよい。
このようになっていれば、より正確な道路の曲がり具合等を得ることができ、その結果、より正確なトップダウン視線確率分布を算出することができる。
(ニ)上記実施例では出力制御部45は、スピーカー19を制御して警告音を発生させるようになっていたが、音声によって運転者が見るべき対象物の方向や対象物そのものを報知するようになっていてもよい。具体的には例えば、「前方左方の信号機を確認して下さい」といったものや、「前方の右カーブの外側を確認して下さい」といったものが考えられる。このようになっていても運転者は見るべき対象物を認識することができる。
運転支援装置の概略構成を示すブロック図である。 制御部の機能を示すブロック図である。 視野画像とエッジバッファの領域との関係を示す説明図である。 (a)はワイヤーフレームによって道路が表された撮影イメージ図であり、(b)は撮影イメージから求めたトップダウン視線確率分布を示す図である。 (a)は、ワイヤーフレームで表される撮影イメージ図であり、(b)は、その撮影イメージ図から求めたボトムアップ視線確率分布を示す図である。 n行Xm列に領域分割したイメージ図である。 (a)は車内の前部を表すイメージ図であり、(b)は運転者から見える景色のイメージ図である。
符号の説明
11…運転支援装置、13…運転者用カメラ、15…前方カメラ、17…ウィンドウシールドディスプレイ、19…スピーカー、21…操作部、23…制御部、31…理想視線確率分布算出手段、33…視野画像蓄積手段、33a…視野中心画像抽出部、33b…エッジ抽出部、33c…輝度抽出部、33d…エッジバッファ、33e…輝度バッファ、35…第1の視線確率分布算出手段、35a…ステアリングモジュール(Near)、35b…ステアリングモジュール(Far)、35c…トップダウン視線確率分布算出部、37…第2の視線確率分算出手段、37a…フィルタ部、37b…サレンシーマップ生成部、37c…ボトムアップ視線確率分布算出部、39…加算部、41…視線分布検知手段、43…危険判定手段、45…出力制御部。

Claims (11)

  1. 車両に搭載されて用いられる運転支援装置であって、
    運転者の視線分布を検知する視線分布検知手段と、
    自車両及び自車両の周囲の情報と、過去の運転者の視線分布とから運転者の理想視線確率分布を算出する理想視線確率分布算出手段と、
    前記視線分布検知手段が検知した前記視線分布と、前記理想視線確率分布算出手段が算出した理想視線確率分布とを比較し、両分布の間に一定以上の差が生じた場合に危険であると判定する危険判定手段と、
    前記危険判定手段の判定結果を出力する出力手段と、
    を備え
    前記理想視線確率分布算出手段は、
    前記車両の前方の画像情報を得る撮影手段と、
    前記視線分布検知手段が検知した視線分布の情報を用い、前記撮影手段によって得られた前記画像情報の中から運転者の視野に相当する画像情報を蓄積する視野画像蓄積手段と、
    前記視野画像蓄積手段が蓄積した前記画像情報から道路形状を求め、その道路をトレースするためのステアリング操作に必要な運転者の視線確率分布を算出する第1の視線確率分布算出手段と、
    前記視野画像蓄積手段が蓄積した前記画像情報の視覚的特徴量から、運転者が自然と見てしまうと予想される視線確率分布を算出する第2の視線確率分布算出手段と、
    前記第1の視線確率分布算出手段及び前記第2の視線確率分布算出手段の各出力を加算し理想視線確率分布を出力する加算手段と、
    を備えていることを特徴とする運転支援装置。
  2. 前記視野画像蓄積手段は、視線の場所毎に、画像情報が更新されてから経過した時間を保持し、
    前記第1の視線確率分布算出手段は、前記視野画像蓄積手段の保持する前記時間を用い、前記視野画像蓄積手段の前記画像情報が古い視線の場所ほど大きな値が得られるよう前記視線確率分布を算出することを特徴とする請求項に記載の運転支援装置
  3. 前記第1の視線確率分布算出手段は、前記視野画像蓄積手段の蓄積した前記画像情報の代わりに、撮影手段によって得られた前記車両の前方の画像情報全てを用い、前記ステアリング操作に必要な運転者の視線確率分布を算出することを特徴とする請求項に記載の運転支援装置。
  4. 前記第1の視線確率分布算出手段は、さらに地図情報を取得することができ、当該地図情報も利用して運転者の行うべきステアリング操作に必要な視線確率分布を算出することを特徴とする請求項〜請求項の何れかに記載の運転支援装置。
  5. 前記第2の視線確率分布算出手段が前記視線確率分布を算出する際に用いる前記視覚的特徴量というのは、前記画像情報から得られる輝度、彩度、エッジの強さ又はオプティカルフローの少なくとも一つであることを特徴とする請求項〜請求項の何れかに記載の運転支援装置。
  6. 前記危険判定手段は、前記判定を所定の領域毎に行い、前記視線分布と前記理想視線確率分布との間に一定以上の差が生じた領域を不注意領域として算出し、
    前記出力手段は、前記危険判定手段が算出した前記不注意領域を識別するための情報を出力することを特徴とする請求項1〜請求項の何れかに記載の運転支援装置。
  7. 前記出力手段は、マーカーを表示可能なウィンドウシールドディスプレイを備え、運転者の視点を基準として前記マーカーの先に前記危険判定手段が算出した前記不注意領域に対応する場所があるように前記マーカーを表示することを特徴とする請求項に記載の運転支援装置。
  8. 前記出力手段は、前記マーカーを表示するに際し、前記危険判定手段が算出した、前記視線分布と前記理想視線確率分布との間の差に応じて前記マーカーの視覚的特徴を変えて前記ウィンドウシールドディスプレイに前記マーカーを表示することを特徴とする請求項に記載の運転支援装置。
  9. 前記出力手段は、スピーカーを備え、運転者に対して前記不注意領域の存在方向から警告音が聞こえるように前記スピーカーに警告音を出力させることを特徴とする請求項〜請求項の何れかに記載の運転支援装置。
  10. 前記出力手段は、前記警告音を出力するに際し、前記危険判定手段が算出した、前記視線分布と前記理想視線確率分布との間の差に応じて前記警告音の聴覚的特徴を変えて前記スピーカーに前記警告音を出力させることを特徴とする請求項に記載の運転支援装置。
  11. 前記出力手段は、スピーカーを備え、前記不注意領域の場所を運転者に認識させるための音声を前記スピーカーに出力させることを特徴とする請求項〜請求項の何れかに記載の運転支援装置。
JP2004077083A 2004-03-17 2004-03-17 運転支援装置 Expired - Fee Related JP4277081B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004077083A JP4277081B2 (ja) 2004-03-17 2004-03-17 運転支援装置
US11/073,566 US7519459B2 (en) 2004-03-17 2005-03-08 Driving assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004077083A JP4277081B2 (ja) 2004-03-17 2004-03-17 運転支援装置

Publications (2)

Publication Number Publication Date
JP2005267108A JP2005267108A (ja) 2005-09-29
JP4277081B2 true JP4277081B2 (ja) 2009-06-10

Family

ID=34987405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004077083A Expired - Fee Related JP4277081B2 (ja) 2004-03-17 2004-03-17 運転支援装置

Country Status (2)

Country Link
US (1) US7519459B2 (ja)
JP (1) JP4277081B2 (ja)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600760B2 (ja) * 2005-06-27 2010-12-15 アイシン精機株式会社 障害物検出装置
JP4783430B2 (ja) * 2006-09-28 2011-09-28 パイオニア株式会社 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
JP2008262388A (ja) * 2007-04-12 2008-10-30 Toyota Central R&D Labs Inc 安全確認アドバイス装置
JP4750758B2 (ja) * 2007-06-20 2011-08-17 日本電信電話株式会社 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体
JP5034922B2 (ja) * 2007-12-19 2012-09-26 株式会社豊田中央研究所 車両照明装置
JP4735676B2 (ja) * 2008-08-06 2011-07-27 株式会社デンソー 走行支援装置
DE102009050368A1 (de) 2008-10-24 2010-05-27 Magna Electronics Europe Gmbh & Co.Kg Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
US8452528B2 (en) 2009-05-12 2013-05-28 Toyota Jidosha Kabushiki Kaisha Visual recognition area estimation device and driving support device
RU2514924C2 (ru) * 2009-12-18 2014-05-10 Хонда Мотор Ко., Лтд. Прогнозирующий человеко-машинный интерфейс с использованием технологии обнаружения взгляда, индикаторов "мертвых" зон и водительского опыта
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
JP4978722B2 (ja) * 2010-08-23 2012-07-18 株式会社デンソー 速度制御装置
JP4978721B2 (ja) * 2010-08-23 2012-07-18 株式会社デンソー 運転支援装置
EP2511121B1 (en) * 2011-04-13 2018-10-24 Robert Bosch GmbH Device and method for generating an indication signal to the driver of a vehicle
US9043042B2 (en) * 2011-07-19 2015-05-26 GM Global Technology Operations LLC Method to map gaze position to information display in vehicle
JP5966640B2 (ja) * 2012-06-08 2016-08-10 株式会社豊田中央研究所 漫然運転検出装置及びプログラム
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
JP5754470B2 (ja) * 2012-12-20 2015-07-29 株式会社デンソー 路面形状推定装置
US10232797B2 (en) * 2013-04-29 2019-03-19 Magna Electronics Inc. Rear vision system for vehicle with dual purpose signal lines
US20150235538A1 (en) * 2014-02-14 2015-08-20 GM Global Technology Operations LLC Methods and systems for processing attention data from a vehicle
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US20150339589A1 (en) * 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
WO2016005972A1 (en) * 2014-07-08 2016-01-14 Bichacho Matan Behavior dependent insurance
US9262924B2 (en) 2014-07-09 2016-02-16 Toyota Motor Engineering & Manufacturing North America, Inc. Adapting a warning output based on a driver's view
EP3001272B1 (en) * 2014-09-26 2017-04-12 Volvo Car Corporation Method of trajectory planning for yielding manoeuvres
US9747812B2 (en) 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
KR101657900B1 (ko) * 2015-06-03 2016-09-19 성균관대학교산학협력단 운전 중 위험 정보를 결정하는 방법 및 운전 중 위험 정보를 전달하는 방법
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
JP6563798B2 (ja) 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
US10115025B2 (en) * 2016-06-13 2018-10-30 Ford Global Technologies, Llc Detecting visibility of a vehicle to driver of other vehicles
KR101816415B1 (ko) 2016-06-21 2018-02-21 현대자동차주식회사 시선 추적을 이용한 운전자 집중도 감시 장치 및 방법
CN107662559A (zh) * 2016-07-28 2018-02-06 奥迪股份公司 警告控制装置及方法
KR101896790B1 (ko) 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
JP6772775B2 (ja) * 2016-11-18 2020-10-21 トヨタ自動車株式会社 運転支援装置および運転支援方法
US20180225554A1 (en) * 2017-02-06 2018-08-09 Honda Motor Co., Ltd. Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture
JP6787243B2 (ja) * 2017-04-28 2020-11-18 トヨタ自動車株式会社 画像送信プログラム、画像送信方法、車載器、車両、及び画像処理システム
JP6565967B2 (ja) * 2017-05-12 2019-08-28 トヨタ自動車株式会社 路上障害物検出装置,方法,およびプログラム
JP6481969B2 (ja) * 2017-05-29 2019-03-13 マツダ株式会社 運転者状態推定装置
US10473788B2 (en) 2017-12-13 2019-11-12 Luminar Technologies, Inc. Adjusting area of focus of vehicle sensors by controlling spatial distributions of scan lines
JP6834997B2 (ja) 2018-01-25 2021-02-24 日本電気株式会社 運転状況監視装置、運転状況監視システム、運転状況監視方法、プログラム
JP7263734B2 (ja) * 2018-10-29 2023-04-25 株式会社アイシン 視認対象判定装置
JP7222216B2 (ja) * 2018-10-29 2023-02-15 株式会社アイシン 運転支援装置
JP7119984B2 (ja) * 2018-12-21 2022-08-17 トヨタ自動車株式会社 運転支援装置、車両、情報提供装置、運転支援システム、及び運転支援方法
JP7215191B2 (ja) * 2019-01-24 2023-01-31 株式会社Jvcケンウッド 運転支援制御装置、運転支援制御方法、およびプログラム
EP3970060A1 (en) * 2019-06-10 2022-03-23 Huawei Technologies Co., Ltd. Driver attention detection using heat maps
KR20190078553A (ko) * 2019-06-14 2019-07-04 엘지전자 주식회사 차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스
JP2021006967A (ja) 2019-06-28 2021-01-21 ソニーセミコンダクタソリューションズ株式会社 情報処理装置と情報処理方法および運転支援システム
JP7465738B2 (ja) * 2020-07-17 2024-04-11 京セラ株式会社 電子機器、情報処理装置、覚醒度算出方法および覚醒度算出プログラム
US11474598B2 (en) * 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0761257A (ja) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd 車両用表示装置
JP3257310B2 (ja) * 1994-12-22 2002-02-18 トヨタ自動車株式会社 漫然運転検出装置
JPH097100A (ja) * 1995-06-19 1997-01-10 Honda Motor Co Ltd 運転者注視点予測装置及びこれを用いた車両用運転支援システム
JP3865856B2 (ja) * 1997-03-03 2007-01-10 本田技研工業株式会社 車両用運転支援装置
JP2000030199A (ja) * 1998-07-14 2000-01-28 Toyota Motor Corp 車両運転支援装置
JP4342708B2 (ja) * 2000-09-06 2009-10-14 本田技研工業株式会社 ドライバの視線領域の適合性を判定する車載情報処理装置
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
JP5179686B2 (ja) 2001-09-25 2013-04-10 株式会社豊田中央研究所 運転行動危険度演算装置
EP2305106A1 (en) * 2002-02-19 2011-04-06 Volvo Technology Corporation Method for monitoring and managing driver attention loads
JP2004178367A (ja) * 2002-11-28 2004-06-24 Toyota Central Res & Dev Lab Inc 注意配分制御装置

Also Published As

Publication number Publication date
US7519459B2 (en) 2009-04-14
US20050209749A1 (en) 2005-09-22
JP2005267108A (ja) 2005-09-29

Similar Documents

Publication Publication Date Title
JP4277081B2 (ja) 運転支援装置
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
JP5406328B2 (ja) 車両用表示装置、その制御方法及びプログラム
JP4872245B2 (ja) 歩行者認識装置
JP6666892B2 (ja) 運転支援装置及び運転支援方法
JP4702348B2 (ja) 車載画像表示装置
JPWO2008029802A1 (ja) 走行情報提供装置
US10002300B2 (en) Apparatus and method for monitoring driver's concentrativeness using eye tracing
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
CN108621940A (zh) 车辆的显示***及车辆的显示***的控制方法
TWI522257B (zh) 車用安全系統及其運作方法
JP2016091192A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2005063105A (ja) 脇見判定装置
JP2000351339A (ja) 運転装置の制御装置
JP5192007B2 (ja) 車両の周辺監視装置
JP4701961B2 (ja) 歩行者検知装置
JP2005284975A (ja) 走行安全装置
JP2019114104A (ja) 見落し検知装置、見落し検知方法、およびプログラム
JP2007133644A (ja) 歩行者認識装置
JP7043795B2 (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
JP4345526B2 (ja) 物体監視装置
JP6415968B2 (ja) 通信装置、警告装置、表示装置、制御方法、プログラム、及び記憶媒体
JP4800078B2 (ja) 車両周辺監視システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080828

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees