JP6343808B2 - 視野算出装置および視野算出方法 - Google Patents

視野算出装置および視野算出方法 Download PDF

Info

Publication number
JP6343808B2
JP6343808B2 JP2015530677A JP2015530677A JP6343808B2 JP 6343808 B2 JP6343808 B2 JP 6343808B2 JP 2015530677 A JP2015530677 A JP 2015530677A JP 2015530677 A JP2015530677 A JP 2015530677A JP 6343808 B2 JP6343808 B2 JP 6343808B2
Authority
JP
Japan
Prior art keywords
visual field
saccade
user
field range
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015530677A
Other languages
English (en)
Other versions
JPWO2015019542A1 (ja
Inventor
望月 誠
誠 望月
江村 恒一
恒一 江村
哲朗 松瀬
哲朗 松瀬
伊藤 快
快 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2015019542A1 publication Critical patent/JPWO2015019542A1/ja
Application granted granted Critical
Publication of JP6343808B2 publication Critical patent/JP6343808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、視野算出装置および視野算出方法に関する。
従来、車両を運転するユーザの視野範囲(「視野領域」ともいう)を算出する方法として、例えば特許文献1に開示されている方法がある。特許文献1に記載の方法では、車外の移動体を検出する手段を用いて車外の移動物体(例えば人物)を検出し、かつ、ユーザの視線方向を検出する手段を用いてユーザの視線方向を計測する。そして、移動物体および視線方向に基づいてユーザが車外の移動物体を注視していると判定した場合、注視点の位置に基づいて視野範囲を算出する。
特開2011−206072号公報
しかしながら、特許文献1の方法では、ユーザの視線方向を検出する手段に加えて、車外の移動体を検出する手段(例えば、カメラなどのデバイス)を備える必要があり、構成が複雑になる。
そこで、本開示の一態様は、より構成が簡易な、視野範囲を算出できる視野算出装置を提供する。
本開示の一態様に係る視野算出装置は、検出されたユーザの注視方向に基づいて前記ユーザの視野範囲を算出する視野算出装置であって、第1のタイミングで検出された第1の注視方向と、第2のタイミングで検出された第2の注視方向とに基づいて、サッケードを検出するサッケード検出部と、前記第1のタイミングと前記第2のタイミングとの時間差と、前記第1の注視方向と、前記第2の注視方向とに基づいて、前記サッケードの速度を算出するサッケード速度算出部と、前記サッケードの速度が第1の閾値を超えるサッケードを抽出し、抽出したサッケードの変位ベクトルを算出し、前記変位ベクトルの始点および終点を含む領域を前記ユーザの視野範囲として算出する視野範囲算出部と、を備える。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示に係る視野算出装置によれば、より簡易な構成により視野範囲を算出できる。
外因性サッケードと内因性サッケードの特性を示すグラフ 本開示の実施の形態1に係る運転支援システムおよび視野算出装置の構成例を示すブロック図 本開示の実施の形態1に係る視野算出動作の一例を示すフローチャート 本開示の実施の形態1に係るサッケード検出処理の一例を示す概念図 本開示の実施の形態1に係るサッケード速度閾値の一例を示す図 本開示の実施の形態1に係る視野算出装置で算出された視野の一例を示す概念図 本開示の実施の形態1に係る見落し判定動作の一例を示すフローチャート 本開示の実施の形態1に係る見落し判定動作の結果の一例を示す概念図 本開示の実施の形態1の変形例に係る運転支援システムおよび視野算出装置の構成例を示すブロック図 本開示の実施の形態1の変形例に係る視野パタンの一例を示す概念図 本開示の実施の形態1の変形例に係る視野算出動作の一例を示すフローチャート 本開示の実施の形態1の変形例に係る視野算出動作の一例を示す概念図 本開示の実施の形態2に係る運転支援システムおよび視野算出装置の構成例を示すブロック図 本開示の実施の形態2に係る視野算出動作の一例を示すフローチャート 本開示の実施の形態2に係る視野範囲の変化の一例を示す図 本開示の実施の形態3に係る運転支援システムおよび視野算出装置の構成例を示すブロック図 本開示の実施の形態3に係る視野算出動作の一例を示すフローチャート 本開示の実施の形態3に係るサッケード検出処理および顔変位量算出処理の一例を示す概念図 本開示の実施の形態3に係る情報提示制御動作の一例を示すフローチャート 本開示の実施の形態3に係るAR表示の一例を示す概念図
(視標の提示を用いた視野範囲の算出)
まず、一般的な視野範囲の算出の例を示す。視標の提示を用いる方法が、例えば非特許文献1(TR S 0004 2010 視標検出視野の加齢変化に関するデータ集 日本規格協会発行 2010年4月1日公表)に開示されている。非特許文献1に記載されている方法(以下、非特許文献1の方法ともいう)は、ユーザの前方に設置したスクリーンに視標を提示し、その視標に対するユーザの反応を計測することにより、視野範囲を算出する。
以下、具体的に解説する。非特許文献1の方法では、ユーザ前方のスクリーン上のユーザ正面の点を原点として、原点から上・下・左・右と、右上・左上・左下・右下の8方向に対して、離心角度10〜60度の位置に200msec間視標を提示する。そして、非特許文献1の方法は、ユーザがスクリーン中央を固視した状態で各視標を視認できたか否かの判断結果に基づいて、視野範囲を算出する。ここでいう視野範囲とは、「物体の存在を検出することのできる視野」として定義されている。具体的には、視野範囲は、ユーザが正面を見た状態において視線の周辺に物体が出現した場合に、ユーザがその物体の存在に気づくことのできる範囲である。視野範囲は、非特許文献1では「検出視野」として定義されている。
一般に、視野範囲は、ユーザの年齢または状態(例えば、心理状態、覚醒状態)、前景の複雑さ、ユーザの動作などの様々な要因に起因して変化する。非特許文献1の方法は、実験環境下における若年者と高齢者の視野範囲の基本データの整備を目的に行われているため、車両の運転中等の、状況に応じて視野範囲が変化する場面における視野範囲の算出を想定していない。すなわち、スクリーンおよび視標などの構成を必須とする非特許文献1の方法を、運転中における視野範囲の算出に用いることは困難である。
(視野範囲の算出に用いる原理)
後述する本開示の各実施の形態において視野範囲の算出(以下、適宜「視野算出」ともいう)に用いる原理について説明する。
通常、自動車の運転をはじめとする何らかの行動をユーザがとる場合、周辺の環境を取得するために眼球運動が発生する。自動車の運転の場合、運転者は運転に必要な情報のおよそ90%を視覚情報から得ていると言われており、運転者は注視する対象物を順次切り替えながら運転する。このように、注視する対象物を切り替えるときに発生する眼球運動を、サッケード(以下、適宜「SC」という)という。サッケードの変位量は0.5度〜50度、サッケードの速度は100〜500度/秒である。よって、サッケードは、非常に高速な眼球運動である。
SCは、その発生要因の違いから、外因性SCと内因性SCに分類される。外因性SCは、外部誘発SCとも言われ、視野内に突然現れた視覚刺激を原因として、ほぼ反射的に生じるSCである。一方、内因性SCは、内部誘発SCとも言われ、その発生起源がユーザ内部にあり、意識的に生じるものである。また、内因性SCは、視野範囲とは無関係と考えられる。
外因性SCと内因性SCの特性については、様々な研究が行われている。その結果、非特許文献2(滑動性眼球運動中に発生するサッカードの動特性解析 電子情報通信学会論文誌Vol.J78-D-II No.5 pp.845−854、視覚誘発サッケードと内部誘発サッケードにおける覚醒水準依存性)において、外因性SCは内因性SCと比較して最高速度が大きいこと、また、SCの変位量に応じて外因性SCと内因性SCの最高速度の分布が異なることなどが、明らかになっている。
図1は、外因性SCと内因性SCの特性を示すグラフである。図1において、縦軸はSC速度(度/秒)、横軸はSC変位量(度)を示し、外因性SCを“+”、内因性SCを“−”で示している。また、図1において、外因性SCの分布の近似曲線を実線、内因性SCの分布の近似曲線を破線で示している。この図1から明らかなように、SC変位量に応じてSC速度に閾値を設けることで、外因性SCと内因性SCを分離することが可能であると考えられる。
後述する本開示の各実施の形態は、上記原理を用い、視野範囲とは無関係な内因性SCを除外し、視野内の視覚刺激に対する反応である外因性SCのみを抽出することで、ユーザの視野範囲を高精度に算出できる。
以下、本開示の実施の形態1〜4について、図面を参照して説明する。
(実施の形態1)
本開示の実施の形態1について説明する。
図2は、本実施の形態に係る視野算出装置130を含む運転支援システム100の構成例を示すブロック図である。図2において、運転支援システム100は、情報取得部110、注視方向検出部120、視野算出装置130、視野範囲記録部140、見落し判定部150、表示部160を有する。
運転支援システム100は、自動車等の車両に搭載され、その車両の周辺の障害物に対するユーザの見落しを検出して、聴覚的な手段および視覚的な手段のうち少なくとも一方を用いてユーザに注意喚起、警告等を行うシステムである。これにより、ユーザが車両周辺の障害物を見落すことを防止し、安全な運転を支援できる。なお、実施の形態1〜4でいう「ユーザ」は、運転支援システム100が搭載された車両の運転者を意味する。
情報取得部110は、障害物情報を取得する。障害物情報とは、車両の周辺における障害物の有無、その障害物の位置、その障害物の車両との相対速度などを含む情報である。障害物情報は、車両に設置されたカメラ、ミリ波レーダなどの車載センサ、道路側に設置されたセンサ、無線通信などを用いて取得される。また、他の車両で取得された障害物情報は、車車間通信を手段として取得されてもよい。
注視方向検出部120は、ユーザの注視方向(以下、適宜「注視方向」という)を検出する。例えば、注視方向検出部120は、ユーザの眼球を撮影するカメラを用いて取得した画像から、角膜反射法などを用いて眼球運動を算出する。角膜反射法とは、近赤外線光源(点光源)が近赤外線を眼球に照射し、その眼球をカメラで撮影し、撮影した映像を用いて瞳孔の位置および角膜表面における光源の角膜反射像の位置を検出する方法である。算出された瞳孔と角膜反射像との位置関係に基づいて、注視方向検出部120は、ユーザの注視方向を検出する。注視方向とは、ユーザの視線が向いている方向を示す。注視方向は例えば、車両の正面方向を基準として、水平方向の角度と垂直方向の角度(単位:degree)で表現される。なお、注視方向検出部120は、例えば、運転席のステアリングコラム付近に設置された装置でもよいし、ユーザが装着するヘッドマウント式の計測器でもよい。
視野算出装置130は、注視方向検出部120で検出されたユーザの注視方向に基づいて、ユーザの視野範囲を算出する。視野算出装置130は、サッケード検出部131、サッケード速度算出部132、視野範囲算出部133を有する。
サッケード検出部131は、注視方向検出部102で検出されたユーザの注視方向を時系列に取得し、それに基づいてサッケードの有無を検出する。
サッケード速度算出部132は、サッケード検出部131で検出されたサッケードに対して、サッケード変位量(SC変位量)とサッケードの継続時間とに基づいて、サッケード速度(SC速度)を算出する。
視野範囲算出部133は、サッケード速度算出部132で算出されたサッケード速度が、所定の閾値以上であるサッケードのみを用いて、ユーザの視野範囲を算出する。この算出の詳細については後述する。ここでの閾値は、図1を用いて述べたように、外因性SCと内因性SCとを分離可能な値である。
視野範囲記録部140は、視野算出装置130で算出されたユーザの視野範囲を記録する。
見落し判定部150は、情報取得部110で取得された障害物情報と、注視方向検出部120で算出されたユーザの注視方向と、視野範囲記録部140に記録されたユーザの視野範囲とに基づいて、ユーザが障害物を見落としているか否かを判定する。
表示部160は、見落し判定部150で判定された障害物の見落としを示す情報をユーザに提示する。例えば、表示部160は、障害物を示すアイコンなどをカーナビゲーション装置などの表示装置に表示してもよいし、この表示とともに注意喚起音または警報を出力してもよい。
次に、運転支援システム100の動作例として、視野算出動作および見落し判定動作について、それぞれ順に説明する。
<視野算出動作>
まず、図3のフローチャートを用いて、視野算出動作の一例について説明する。この視野算出動作は、視野算出装置130にて実行される。また、視野算出動作は、例として、10分、30分、60分といった所定の時間間隔T1で、後述する見落とし判定動作とは独立して実行されるものとする。
ステップS1において、サッケード検出部131は、注視方向検出部120から注視方向情報を取得し、その情報が示すユーザの注視方向を所定時間分の注視方向として記録する。注視方向情報とは、注視方向検出部120で検出されたユーザの注視方向を示す情報である。
ステップS2において、サッケード検出部131は、視野算出動作の開始時点(図4のTP1)から所定時間遡った時点までの間(以下、「サッケード検出区間」という。図4のT3)に取得した注視方向情報を用いて、サッケード検出区間T3におけるサッケードの検出を行う。ここで、サッケードが検出された場合(ステップS2:YES)、フローはステップS3へ進む。一方、サッケードが検出されなかった場合(ステップS2:NO)、フローがステップS7へ進む。
ここで、図4を用いて、ステップS2のサッケードの検出処理について説明する。図4において、縦軸はユーザの注視方向(単位:degree)、横軸は時刻(t)を示しており、サッケード検出区間T3におけるユーザの注視方向の時間的な変化を模式的に示している。図4の縦軸に示すユーザの注視方向は、例として水平方向成分(左、右)の角度である。よって、以下では、水平方向成分に基づいたサッケードの検出について説明する。なお、説明は省略するが、下記と同様の方法を用いて、垂直方向成分(上、下)に基づくサッケード検出も行われる。
サッケードは、その速度が100〜500°/秒の非常に高速な眼球運動である。サッケード検出部131は、単位時間当たりの注視方向の移動量に基づいてサッケードの検出を行う。
まず、サッケード検出部131は、時刻Tにおける注視方向の水平角度と、時刻T+1における注視方向の水平角度との差分をD(T)として、各時点のD(T)を算出する。図4において、tはTの一例であり、t+1はT+1の一例であり、D(t)はD(T)の一例である。
次に、サッケード検出部131は、D(T)が閾値D_th(第1の閾値の一例)を上回った時点をサッケード開始時点Tsとして検出する。このサッケード開始時点Tsは、図4において、黒丸で示す。また、図4において、tはTsの一例である。
次に、サッケード検出部131は、閾値D_thを下回った時点をサッケード終了時点Teとして検出する。このサッケード終了時点Teは、図4において、二重丸で示す。また、図4において、t+2はTeの一例である。
そして、サッケード検出部131は、時点Ts〜Teをサッケード区間STとして、また、D(Ts)+D(Ts+1)+・・・+D(Te−1)をサッケード変位量SDとして検出する。図4において、t〜t+1はSTの一例であり、D(t)+D(t+1)はSDの一例である。
このようにして、サッケード検出部131は、サッケード検出区間T3において、サッケードSC(1)〜サッケードSC(N:Nは正の整数。以下同じ)と、それらのサッケードに対応する、サッケード区間ST(1)〜ST(N)およびサッケード変位量SD(1)〜SD(N)とを検出する。なお、図4において、サッケードSC(2)〜SC(N)については、サッケード区間STおよびサッケード変位量SDの図示を省略している。
ステップS3において、サッケード速度算出部132は、検出されたサッケード区間ST(i)とサッケード変位量SD(i)とに基づいて、サッケード速度SV(i)を算出する。例えば、サッケード速度算出部132は、SD(i)/ST(i)を計算し、SV(i)を算出する。
ステップS4において、視野範囲算出部133は、検出されたサッケードのうち、サッケード速度が所定の閾値以上のサッケードを抽出する。ここでの閾値は、上述した通り、外因性SCと内因性SCを分離可能な値である。従って、抽出されたサッケードは外因性SCである。外因性SCと内因性SCとを精度良く分離するためには、図1に示す外因性SCと内因性SCの特性から分かるように、SC変位量の増加に伴ってより大きな閾値を用いることが望ましい。例えば、図5に示すように、サッケード変位量SDに応じて閾値を変更してもよい。
ステップS5において、視野範囲算出部133は、抽出した外因性SCに対して、サッケード開始時点における座標を始点とし、サッケード終了時点における座標を終点とするベクトル(以下、「外因性SCベクトル」という)を算出する。そして、視野範囲算出部133は、複数の外因性SCベクトルにより算出される領域を、視野範囲として算出する。上述したサッケード開始時点における座標およびサッケード終了時点における座標はともに、ユーザの注視方向(水平方向成分の角度と垂直方向成分の角度)に基づいて求められる座標である。
ステップS5で算出される視野範囲の例を図6に示す。図6Aは、複数の外因性SCベクトル全部の始点を一致させるとともに、複数の外因性SCベクトル全部の終点を結合することにより定義される領域(図6Aにおける多角形の輪郭線)を視野範囲として算出したものである。一方、図6Bは、複数の外因性SCベクトル全部が含まれるように、複数の外因性SCベクトル全部の始点を一致させ、かつ、複数の外因性SCベクトルのうち、所定の値よりも大きな外因性SCベクトルのみを用いて、外因性SCベクトルの終点座標を基に楕円形状として近似された視野範囲を示している。外因性SCベクトルの終端座標から楕円形状を近似する方法としては、最小二乗法などの一般的な方法を用いればよい。
ステップS6において、視野範囲記録部140は、上述のように算出された視野範囲を記録する。この視野範囲は、例えば、後述する見落とし判定に用いられる。
ステップS7において、視野範囲算出部133は視野範囲の算出を行わない。よって、視野範囲記録部140において視野範囲の記録も行われない。この場合、後述する見落とし判定では、視野範囲記録部140に記録済みの視野範囲が用いられることになる。
<見落し判定動作>
次に、図7のフローチャートを用いて、見落とし判定動作の一例について説明する。この見落とし判定動作は、見落とし判定部150にて実行される。また、見落し判定動作は、10msec、20msec、30msecといった所定の時間間隔T2で、上述した視野算出動作とは独立して実行されるものとする。
ステップS10において、情報取得部110は、障害物情報を取得する。障害物情報とは、上述したとおり、車両の周辺における障害物の有無、その障害物の位置、その障害物の車両との相対速度などを含む情報である。情報取得部110は、取得した障害物情報を、見落とし判定部150へ出力する。
ステップS11において、注視方向検出部120は、ユーザの注視方向を検出する。注視方向とは、上述したとおり、ユーザの視線が向いている方向を示し、例えば、車両の正面方向を原点方向として、水平方向の角度と垂直方向の角度で表現される。注視方向検出部120は、検出した注視方向を示す注視方向情報を、見落とし判定部150へ出力する。なお、原点方向は車両の正面方向に限定されず、任意の方向でもよい。
ステップS12において、見落とし判定部150は、視野範囲記録部140から、視野範囲を取得する。
ステップS13において、見落し判定部150は、障害物情報、注視方向情報、および視野範囲に基づいて、ユーザが障害物を見落としているか否かを判定する見落とし判定を行う。なお、この見落とし判定において、注視方向情報を用いてもよい。
ここで、図8を用いて、ステップS13の見落とし判定処理について説明する。図8は、運転中の車両前方に歩行者(障害物の一例)が検出された場合における見落し判定を説明する概念図である。図8Aでは、車両のフロントウィンドウ10において、注視点30を中心とした視野範囲20内に、障害物(歩行者)の中心座標40が含まれている。この場合、見落とし判定部150は、ユーザが障害物を見落していない(見落とし無し)と判定する。一方、図8Bでは、注視点30を中心とした視野範囲20内に、障害物(歩行者)の中心座標40が含まれていない。この場合、見落とし判定部150は、ユーザが障害物を見落としている(見落し有り)と判定する。見落とし判定部150は、見落とし有りの場合、その旨を示す見落とし発生情報を、表示部160へ出力する。
なお、図8A、Bでは、便宜上、視野範囲20、注視点30、障害物の中心座標40がフロントウィンドウ10の範囲内に含まれていることを示したが、実際には、視野範囲20、注視点30、障害物の中心座標40がフロントウィンドウ10上に表示されるわけではない。すなわち、ユーザは、視野範囲20、注視点30、障害物の中心座標40を視認することはない。
ステップS14において、表示部160は、見落しの発生情報に基づいて、ユーザに対して見落としを知らせるための情報(例えば、障害物を示すアイコン等)を提示する。なお、この情報提示は、情報の表示とともに注意喚起音または警報を出力してもよい。
以上説明したように、本実施の形態の視野算出装置130は、ユーザの注視方向に基づいてサッケードを検出し、それに基づいて視野範囲を算出することを特徴とする。この特徴により、視野算出装置130は、視標を提示する構成を使用することなく、また、車外の移動体を検出する手段(例えば、カメラ)で取得される情報も使用することなく、視野範囲を算出できる。よって、本実施の形態の視野算出装置130は、より簡易な構成で視野範囲を算出できる。
また、例えば上記特許文献1の方法では、ユーザが自由意志により視野範囲外の移動体を注視する場合またはユーザが安全確認のために視野範囲外の移動体を注視する場合、視野範囲の算出が不正確になるという課題がある。これに対し、本実施の形態の視野算出装置130は、検出したサッケードのうち、自由意志、安全確認による内因性SCを除外し、外因性SCのみに基づいて視野範囲を算出することを特徴とする。この特徴により、視野算出装置130は、より精度良く視野範囲を算出できる。
また、例えば、特許文献2(特開2005−95572号公報)に示されているとおり、ユーザの注視点と瞬目行為の有無に基づいてユーザの視野の算出を行う技術も知られている。しかしながら、瞬目行為の頻度はユーザの覚醒状態または個人差によって大きく異なるため、ユーザの覚醒状態が低下している場合または瞬目行為が少ないユーザにおいては、視野範囲の算出が困難になるという課題がある。これに対し、本実施の形態の視野算出装置130は、ユーザの注視方向に基づいてサッケードを検出し、それに基づいて視野範囲を算出することで、瞬目行為の頻度が少なくとも、視野範囲を算出できる。
また、本実施形態の運転支援システム100は、精度良く算出された視野範囲に基づいて、ユーザの見落しを検出するので、ユーザの障害物の見落しを精度良く防止できる。
なお、本実施の形態において、注視方向検出部120は、ユーザの顔、眼球を撮影するカメラを用いて説明したが、EOG(Electrooculogram)法を用いて注視方向を算出してもよい。EOG法とは、眼球の左右または上下に配置した電極の電位変化から眼球運動を計測する方法である。EOG法は、眼球の角膜が網膜に対して正に帯電する性質を利用する。この性質を利用して、眼球の左右または上下の電極における電位変化から、眼球運動を計測することができる。EOG法を用いる場合、注視方向検出部120は、ヘッドマウント式で眼球運動を計測してもよいし、または、車のシート(主にヘッドレスト)に埋め込まれた電極が、着座した運転者の頭部付近と接するようにすることで、眼球運動を計測してもよい。
また、本実施の形態では、視野算出装置130が算出した視野範囲を用いて、ユーザが障害物を見落としている場合に情報提示を行うとして説明したが、情報提示の代わりに、または、情報提示とともに、見落とされた障害物に車両のヘッドライトを照射するように制御してもよい。これにより、ユーザは、見落した障害物にすぐに気づくことができる。上記ヘッドライトの照射の代わりに、または、ヘッドライトの照射とともに、アクセルおよびハンドルを制御することで、見落とした障害物と車両との衝突を回避するようにしてもよい。
また、サッケード検出部131は、水平方向におけるサッケード変位量ΔX、垂直方向におけるサッケード変位量ΔYに基づいて、2次元平面上でのサッケード変位量SD_XYを以下の式(1)に従って算出し、所定の閾値を超えるSD_XYを外因性SCとして抽出してもよい。
Figure 0006343808
また、本実施の形態では、ユーザの注視方向は、車両の正面方向を原点方向として、水平方向または垂直方向の角度(単位:degree)として表現するものとして説明したが、これに限定されない。例えば、ユーザの注視方向は、車両の正面方向に存在する原点に対して垂直に存在する所定の平面と、各注視方向との交点を注視点として定義し、水平方向、垂直方向の注視点座標(単位:cmまたはm)として表現してもよい。
また、本実施の形態では、楕円形状で近似する例としたが、視野範囲算出部144が予め視野モデル(例えば、円形、楕円形など)を保持しており、例えば、少なくとも一本の外因性SCベクトルと視野モデルとに基づいて、視野範囲を推定してもよい。なお、視野算出装置130が、視野範囲算出部144とは別に、視野モデルを格納・保持する「視野モデル保持部」を有してもよい。この例について以下に説明する。
図9は、本実施の形態の変形例に係る視野算出装置130を含む運転支援システム100の構成例を示すブロック図である。図9に示す構成は、図2に示す構成と比べて、視野算出装置130が視野モデル保持部134を有する点が異なる。図9において、図2と同一の構成については同一の符号を付している。以下では、図2に示す構成との差分についてのみ説明する。
視野モデル保持部134は、基準点が定義された所定形状の視野モデルを少なくとも1つ記憶している。視野モデルとは、ユーザの視野範囲を示す雛形のデータである。視野モデルの例を図10に示す。図10は、例として、3種類の視野モデル50、51、52を示している。視野モデル50は、基準点を中心とした円である。視野モデル51は、基準点を中心とし、長軸と短軸の比率が所定の値に設定された楕円である。また、視野モデル52は、基準点が定義された任意の形状である。
<視野算出動作>
次に、図11のフローチャートを用いて、視野算出動作の一例について説明する。この視野算出動作は、視野算出装置130にて実行される。また、視野算出動作は、例として、10分、30分、60分といった所定の時間間隔T1で、上述した見落とし判定動作とは独立して実行されるものとする。図11に示すフローは、図3に示すフローと比べて、ステップS21、S22を有する点が異なる。図11において、図3と同一の処理については同一の符号を付している。以下では、図3に示すフローとの差分についてのみ説明する。
ステップS21において、視野範囲算出部133は、視野モデル保持部134に保持されている視野モデルを取得する。
ステップS22において、視野範囲算出部133は、抽出した外因性SCの変位ベクトルと、取得した視野モデルとに基づいて、視野範囲の算出を行う。例えば、視野範囲算出部133は、少なくとも1つの外因性SCの変位ベクトルの始点を視野モデルの基準点に合わせ、かつ、その変位ベクトルの終点に合わせて視野モデルの輪郭を拡大または縮小することで、視野範囲を算出する。
ここで、ステップS22の視野範囲の算出の各例について、図12を参照して説明する。図12Aにおいて、視野範囲算出部133は、外因性SCの変位ベクトル60の終点に合わせて視野モデル50の輪郭を拡大している。これにより、視野範囲70が算出される。また、図12Bにおいて、視野範囲算出部133は、外因性SCの変位ベクトル61の終点に合わせて視野モデル51の輪郭を拡大している。これにより、視野範囲71が算出される。また、図12Cにおいて、視野範囲算出部133は、外因性SCの変位ベクトル62の終点に合わせて視野モデル52の輪郭を拡大している。これにより、視野範囲72が算出される。
このようにして算出された視野範囲は、視野範囲記録部140に記録され、例えば、上述した見落とし判定に用いられる。
以上説明した本実施の形態の変形例の視野算出装置130は、図2に示す構成と同様の作用効果を得ることができる。さらに、本実施の形態の変形例の視野算出装置130は、少なくとも1つの外因性SCの変位ベクトルを検出できた場合、予め定められた視野モデルを用いて、ユーザの視野範囲を算出することにより、サッケード検出区間T3で検出されるサッケードの数が少ない場合でも、視野範囲を正確に算出することができる。また、少ないサッケードから視野範囲を算出することができるため、視野算出装置130は、視野範囲の更新間隔である所定の時間間隔T1(例えば、10分、30分、60分等)を短縮することが可能となる。その結果、視野算出装置130は、運転中の走行環境の複雑さ、または、走行速度などの影響により視野範囲が変動した場合にも、時間遅れなく、ユーザの視野範囲の変化を検出することが可能となる。
(実施の形態2)
本開示の実施の形態2について説明する。
図13は、本実施の形態に係る視野算出装置130を含む運転支援システム100の構成例を示すブロック図である。図13に示す構成は、実施の形態1の構成(図2)と比べて、視野算出装置130が視野算出時間設定部135を有する点が異なる。図13において、図2と同一の構成については同一の符号を付している。以下では、実施の形態1の構成との差分についてのみ説明する。
視野算出時間設定部135は、視野範囲が変化したと想定される時点を推定することにより、視野算出に用いるための時間として、サッケード検出区間T3を設定する。
<視野算出動作>
次に、図14のフローチャートを用いて、視野算出動作の一例について説明する。この視野算出動作は、視野算出装置130にて実行される。また、視野算出動作は、例として、10分、30分、60分といった所定の時間間隔T1で、上述した見落とし判定動作とは独立して実行されるものとする。図14に示すフローは、実施の形態1のフロー(図3)と比べて、ステップS31、S32を有する点が異なる。図14において、図3と同一の処理については同一の符号を付している。以下では、実施の形態1のフローとの差分についてのみ説明する。
ステップS31において、視野算出装置130が視野算出動作を開始すると、視野範囲算出時間設定部135は、視野算出動作の開始時点以前において視野範囲が変化したと想定される時点(以下、「視野範囲変化時点」という)を推定する。この視野範囲変化時点の推定には、車両の速度の変化を示す情報、カーナビゲーションシステム用の情報(例えば、道路種別を示す情報、道路周辺の建物を示す情報)、および、ユーザの覚醒度、または、注意散漫状態を示す情報が用いられる。なお、この推定の詳細は、図5を用いて後述する。
ステップS32において、視野範囲算出時間設定部135は、視野範囲変化時点から視野算出動作の開始時点までの区間(時間)を、新たなサッケード検出区間T3として設定する(S32)。
一般に、運転中におけるユーザの視野範囲は、走行環境の複雑さ(車両周辺に存在する、注意を払うべき対象物の数)、車両の走行速度、ユーザの覚醒状態、注意散漫状態などにより、動的に変化することが知られている。具体的には、走行環境が複雑になる(車両周辺に存在する対象物の数が多くなる)ほど、ユーザの視野範囲は狭まり、走行速度が速くなるほど、ユーザの視野範囲が広がることが知られている。また、運転に眠気が発生し、ユーザの覚醒状態が低下する場合、また、考え事、同乗者との会話等のドライバ・ディストラクションの発生により注意散漫状態となる場合、視野範囲が狭まる傾向がある。
図15は、車両の走行速度と視野範囲との関係に着目し、一般道路走行(低〜中速で走行)から、高速道路走行(高速で走行)に移行した際の視野範囲の変化を模式的に表したものである。図15を参照して上記ステップS31、S32を説明する。視野範囲算出時間設定部135は、視野算出動作開始時点TP1より前において、視野範囲が大きくなった時点(一般道路から高速道路へ入った時点)を、視野範囲変化時点TP0として推定する(ステップS31)。そして、視野範囲算出時間設定部135は、視野範囲変化時点TP0から視野範囲算出動作開始時点TP1までを、新たなサッケード検出区間T3として設定する(ステップS32)。
以上説明した本実施の形態の視野算出装置130は、実施の形態1と同様の作用効果を得ることができる。さらに、本実施の形態の視野算出装置130は、予めサッケード検出区間T3が設定されていたとしても、視野範囲変化時点が検出された場合には、その時点を起点として新たなサッケード検出区間T3に変更するので、より正確にユーザの視野範囲を算出することが可能となる。
(実施の形態3)
本開示の実施の形態3について説明する。
図16は、本実施の形態に係る視野算出装置130を含む運転支援システム100の構成例を示すブロック図である。図16に示す構成は、実施の形態1の構成(図2)と比べて、視野算出装置130が顔方向検出部136を有する点、および、運転支援システム100が車両情報取得部170、ナビゲーション情報取得部180を有する点が異なる。図16において、図2と同一の構成については同一の符号を付している。以下では、実施の形態1の構成との差分についてのみ説明する。
運転支援システム100は、障害物情報の他に、車両情報およびナビゲーション情報(ともに後述)を、ユーザに分かりやすくかつ煩わしく無いように、ヘッドアップディスプレイ上において前景に重畳して表示(以下、「AR(Augmented Reality)表示」という)するシステムである。よって、本実施の形態では、運転支援システム100は、ユーザに各種情報を提示する情報提示システムといえる。
運転支援システム100は、情報取得部110、注視方向検出部120、視野算出装置130、視野範囲記録部140、車両情報取得部170、ナビゲーション情報取得部180、AR情報表示制御部151、ヘッドアップディスプレイ161を有する。さらに、視野算出装置130は、サッケード検出部131、サッケード速度算出部132、視野範囲算出部133に加えて、顔方向検出部136を有する。
車両情報取得部170は、車両情報を取得する。車両情報とは、例えば、車両の速度、シフトレバー情報、燃料情報といった車両に関連する情報を含む。
ナビゲーション情報取得部180は、ナビゲーション情報を取得する。ナビゲーション情報とは、例えば、車両の位置、道路の名称、道路の種別、道路周辺の建物(施設、店舗等)の名称などを示す情報である。
AR情報提示制御部151は、情報取得部110からの障害物情報、車両情報取得部170からの車両情報、ナビゲーション情報取得部180からのナビゲーション情報の表示方法を、視野範囲記録部140に記録されたユーザの視野範囲に応じて制御する。
ヘッドアップディスプレイ161は、AR情報提示制御部151により制御された表示方法に従って、障害物情報、車両情報およびナビゲーション情報を前景に重畳してAR表示する。このヘッドアップディスプレイ161は、例えば、車両のフロントウィンドウの全部または一部のエリアである。なお、ヘッドアップディスプレイ161は、フロントウィンドウとは独立したヘッドアップディスプレイでもよいし、または、ユーザが装着する眼鏡型のヘッドマウンドディスプレイでもよい。
顔方向検出部136は、例えば、運転席のステアリングコラム付近に設置される装置であり、ユーザの顔および眼球の画像からユーザの顔向きを検出する。例えば、顔方向検出部136は、まず、パターンマッチングによりユーザの顔の領域およびユーザの目の領域を検出する。その後、顔方向検出部136は、ユーザの顔の領域に対するユーザの目の領域の位置に基づいてユーザの垂直方向および水平方向の顔の向きの角度を算出し、この角度を示す顔向き情報を生成する。なお、顔方向検出部136としては、ユーザが装着するヘッドマウント式の計測器を用いてもよい。ヘッドマウント式の計測器の場合、計測器に内蔵されたジャイロセンサを用いて、ユーザの垂直方向および水平方向の顔の向きの角度を算出することができる。
次に、運転支援システム100の動作例として、有効視野算出動作および情報提示制御動作について、それぞれ順に説明する。有効視野算出動作とは、サッケード発生時のユーザの顔向きと注視方向の関係から、有効視野範囲を算出する動作である。有効視野範囲とは、ユーザが運転中に顔を動かさずに視線移動のみで情報を受容可能な範囲をいう。また、情報提示制御動作とは、優先度の高い情報(例えば、障害物情報)を有効視野範囲内にAR表示し、優先度の低い情報(例えば、車両情報およびナビゲーション情報)を有効視野範囲外に表示する動作である。
<有効視野算出動作>
まず、図17のフローチャートを用いて、有効視野算出動作の一例について説明する。この有効視野算出動作は、視野算出装置130にて実行される。また、有効視野算出動作は、例として、10分、30分、60分といった所定の時間間隔T1で、後述する情報提示制御動作とは独立して実行されるものとする。図17に示すフローは、実施の形態1のフロー(図3)と比べて、ステップS41、S42、S43を有する点が異なる。図17において、図3と同一の処理については同一の符号を付している。以下では、実施の形態1のフローとの差分についてのみ説明する。
ステップS41において、視野算出装置130が有効視野算出動作を開始すると、顔方向検出部136は、所定のサッケード検出区間T3におけるユーザの顔の向きの角度(垂直方向の角度および水平方向の角度)を検出し、顔向き情報を生成する。上述したとおり、顔向き方向情報とは、垂直方向および水平方向におけるユーザの顔の向きの角度を示す情報である。顔方向検出部136は、生成した顔向き情報を視野範囲算出部133へ出力する。
ステップS42において、視野範囲算出部133は、検出されたサッケード毎に、サッケード発生時の顔向き変位量を算出する。
ここで、ステップS42の顔向き変位量の算出の例について、図18を参照して説明する。図18Aは、サッケード検出区間T3におけるユーザの注視方向の変化を時系列に示した図であり、図4と同じ図である。一方、図18Bは、サッケード検出区間T3におけるユーザの顔の方向の変化を時系列に示した図である。図18Aのt、t+1、t+2、t+3は、それぞれ、図18Bのt、t+1、t+2、t+3と対応している。図18Bに示すように、視野範囲算出部133は、各サッケードSC(1)〜SC(N)おいて、ユーザの注視方向から検出されたSC開始点(黒丸で示す時点)とSC終了点(二重丸で示す時点)における顔向き方向の差分を、顔向き変位量SD(i)_face(単位:degree)として算出する。
ステップS43において、視野範囲算出部133は、抽出した外因性SCのうち、顔向き変位量SD(i)_faceが閾値SD_face_Th(第2の閾値の一例)以下の外因性SCのみを、有効視野内のサッケードとして抽出する。閾値SD_face_Thは、例えば、水平方向に±3度、垂直方向に±2度などのように、水平方向、垂直方向ごとに予め定められている。
ステップS5において、視野範囲算出部133は、有効視野内のサッケードのみを用いて、有効視野範囲の算出を行う。その後、有効視野範囲は、視野範囲記録部140に記録される。なお、ここで算出された有効視野範囲の具体例は、図20を用いて後述する。
<情報提示制御動作>
続いて、図19のフローチャートを用いて、情報提示制御動作の一例について説明する。この情報提示制御動作は、視野算出装置130にて実行される。また、情報提示制御動作は、例として、10msec、20msec、30msecといった所定の時間間隔T2で、上述した有効視野算出動作とは独立して実行されるものとする。
ステップS51において、情報取得部110は、障害物情報を取得する。障害物情報とは、上述したとおり、車両の周辺における障害物の有無、その障害物の位置、その障害物の車両との相対速度などを含む情報である。また、本実施の形態では、障害物情報は、障害物に関するユーザへの警告の表示を含む。情報取得部110は、取得した障害物情報を、AR情報提示制御部151へ出力する。
ステップS52において、車両情報取得部170は、車両情報を取得する。車両情報とは、上述したとおり、例えば、車両の速度、シフトレバー情報、燃料情報などを含む情報である。車両情報取得部170は、取得した車両情報を、AR情報提示制御部151へ出力する。
ステップS53において、ナビゲーション情報取得部180は、ナビゲーション情報を取得する。ナビゲーション情報とは、上述したとおり、例えば、車両の位置、道路の名称、道路の種別、道路周辺の建物(施設、店舗等)の名称などを含む情報である。
ステップS54において、AR情報表示制御部151は、視野範囲記録部140に記録されている有効視野範囲を読み込む。
ステップS55において、AR情報提示制御部151は、読み込んだ有効視野範囲内に、優先度の高い障害物情報をAR表示し、かつ、有効視野範囲外に、優先度の低い車両情報およびナビゲーション情報を表示するように、ヘッドアップディスプレイ161の表示を制御する。障害物情報、車両情報、ナビゲーション情報の優先度は、予め定められているとする。
ステップS56において、ヘッドアップディスプレイ161は、AR情報提示制御部151の制御に基づいて情報提示を行う。
ここで、ステップS56のヘッドアップディスプレイ161における表示例について説明する。図20は、ヘッドアップディスプレイ161における情報提示の例を示す図である。
図20において、車両80および車線81は、実画像である。車両80は、前方を走行中の他の車両であり、障害物情報が示す障害物の一例である。また、図20において、ユーザの正面付近の基準点30を中心として、有効視野範囲21が存在する。この有効視野範囲21は、ユーザに視認されない。この有効視野範囲21内において、「車間距離注意」という警告の文字90(障害物情報の一例)がAR表示される。一方、進行方向を案内する矢印(ナビゲーション情報の一例)91、残り燃料量の表示92、車両の速度の表示93(ともに車両情報の一例)は、有効視野範囲21外の任意の位置(例えば、ヘッドアップディスプレイ161の下方)に表示される。
なお、図20において、基準点30は、例として、ユーザの正面付近の固定点としているが、注視方向検出部120により検出されるユーザの注視方向を基準点としてもよい。
以上説明した本実施の形態の視野算出装置130は、ユーザの注視方向に基づいてサッケードを検出し、それに基づいて、ユーザが運転中に顔を動かさずに視線移動のみで情報を受容可能な有効視野範囲を算出する。したがって、視野算出装置130は、視標を提示する構成を使用することなく、また、車外の移動体を検出する手段(例えば、カメラ)で取得される情報も使用することなく、有効視野範囲を算出できる。よって、視野算出装置130は、より簡易な構成で有効視野範囲を算出できる。また、瞬目行為の頻度が少なくとも、有効視野範囲を算出できる。
また、本実施の形態の視野算出装置130は、外因性SCのみに基づいて有効視野範囲を算出することにより、より精度良く有効視野範囲を算出できる。
また、以上説明した本実施の形態の運転支援システム100は、有効視野範囲に優先度の高い情報を表示し、有効視野範囲外に優先度の低い情報を表示する。これにより、運転中のユーザは、顔を動かさずに視線の移動だけで、優先度の高い情報を視認することができるとともに、優先度の低い情報の表示に煩わしさを感じることがない。また、運転支援システム100は、運転中にユーザの有効視野範囲が変化した場合においても、その変化に合わせて、AR表示の表示位置を変更することで、常時、わかりやすく、煩わしくない情報提示を行うことができる。
なお、本実施の形態では、情報提示制御動作に有効視野範囲のみを用いているが、実施形態1〜3において算出されるユーザの視野範囲を有効視野範囲と併せて用いることにより、優先度の低い情報を、有効視野範囲外かつ視野範囲内に表示するようにしてもよい。
本開示は、ユーザの視野範囲を算出する技術(例えば、装置、システム、方法、プログラムなど)に有用である。なお、本開示は、運転中のユーザに限らず、ユーザが装着可能なデバイス等を用いることで、運転中以外の状況におけるユーザの視野範囲を算出する技術にも応用が可能である。
100 運転支援システム
110 情報取得部
120 注視方向検出部
130 視野算出装置
131 サッケード検出部
132 サッケード速度算出部
133 視野範囲算出部
134 視野モデル保持部
135 視野算出時間設定部
136 顔方向検出部
140 視野範囲記録部
150 見落し判定部
151 AR情報提示制御部
160 表示部
161 ヘッドアップディスプレイ
170 車両情報取得部
180 ナビゲーション情報取得部

Claims (8)

  1. 検出されたユーザの注視方向に基づいて前記ユーザの視野範囲を算出する視野算出装置であって、
    第1のタイミングで検出された第1の注視方向と、第2のタイミングで検出された第2の注視方向とに基づいて、サッケードを検出するサッケード検出部と、
    前記第1のタイミングと前記第2のタイミングとの時間差と、前記第1の注視方向と、前記第2の注視方向とに基づいて、前記サッケードの速度を算出するサッケード速度算出部と、
    前記サッケードの速度が第1の閾値を超えるサッケードを抽出し、抽出したサッケードの変位ベクトルを算出し、前記変位ベクトルの始点および終点を含む領域を前記ユーザの視野範囲として算出する視野範囲算出部と、
    を備える視野算出装置。
  2. 前記第1の閾値は、
    前記サッケードの変位ベクトルの大きさであるサッケード変位量に応じた値であり、前記サッケード変位量が大きいほど大きい、
    請求項1記載の視野算出装置。
  3. 予め定められた所定形状の視野モデルを保持するモデル保持部をさらに備え、
    前記視野範囲算出部は、
    前記変位ベクトルの始点および終点に基づいて前記視野モデルを拡大または縮小することで、前記ユーザの視野範囲を算出する、
    請求項1記載の視野算出装置。
  4. 前記視野モデルは、
    円、長軸と短軸の比率が所定の値に設定された楕円、基準点が定義された任意の形状のうち、少なくとも1つを含む、
    請求項3記載の視野算出装置。
  5. サッケードの検出が行われる時間であるサッケード検出区間を設定する視野算出時間設定部をさらに備え、
    前記視野算出時間設定部は、
    前記ユーザの視野範囲の算出を開始した第1の時点より前において前記ユーザの視野範囲が変化したと想定される第2の時点を推定し、
    前記第2の時点から前記第1の時点までの時間を前記サッケード検出区間として設定する、
    請求項1記載の視野算出装置。
  6. 前記ユーザの顔の方向を検出する顔方向検出部をさらに備え、
    前記視野範囲算出部は、
    前記サッケード毎に、当該サッケードの開始時点と終了時点における前記ユーザの顔の方向の差分を、顔向き変位量として算出し、
    前記第1の閾値に基づいて抽出したサッケードのうち、前記顔向き変位量が第2の閾値以下に対応するサッケードのみを、有効視野内のサッケードとして抽出し、
    前記有効視野内のサッケードのみの変位ベクトルを算出し、当該変位ベクトルに基づいて、前記ユーザが顔を動かさずに視線移動のみで情報を受容可能な範囲である有効視野範囲を算出する、
    請求項1記載の視野算出装置。
  7. 前記有効視野範囲は、所定の情報がAR(Augmented Reality)表示される範囲として用いられる、
    請求項6記載の視野算出装置。
  8. ユーザの注視方向を検出する検出部を含む視野算出システムにおいて、前記ユーザの視野範囲を算出する視野算出方法であって、
    前記検出部が第1のタイミングで検出した第1の注視方向と、前記検出部が第2のタイミングで検出した第2の注視方向とに基づいて、サッケードを検出し、
    前記第1のタイミングと前記第2のタイミングとの時間差と、前記第1の注視方向と、前記第2の注視方向とに基づいて、前記サッケードの速度を算出し、
    前記サッケードの速度が第1の閾値を超えるサッケードを抽出し、前記抽出されたサッケードの変位ベクトルを算出し、前記変位ベクトルの始点および終点を含む領域を前記ユーザの視野範囲として算出する、
    視野算出方法。
JP2015530677A 2013-08-08 2014-07-02 視野算出装置および視野算出方法 Active JP6343808B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013164963 2013-08-08
JP2013164963 2013-08-08
PCT/JP2014/003532 WO2015019542A1 (ja) 2013-08-08 2014-07-02 視野算出装置および視野算出方法

Publications (2)

Publication Number Publication Date
JPWO2015019542A1 JPWO2015019542A1 (ja) 2017-03-02
JP6343808B2 true JP6343808B2 (ja) 2018-06-20

Family

ID=52460905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015530677A Active JP6343808B2 (ja) 2013-08-08 2014-07-02 視野算出装置および視野算出方法

Country Status (4)

Country Link
US (1) US10117577B2 (ja)
EP (1) EP3031388B1 (ja)
JP (1) JP6343808B2 (ja)
WO (1) WO2015019542A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988219B (zh) * 2015-03-17 2020-11-10 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US9718405B1 (en) * 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
JP2017018191A (ja) * 2015-07-08 2017-01-26 株式会社クリュートメディカルシステムズ 標準眼モジュール装置および視野計評価方法
DE102015213769A1 (de) * 2015-07-22 2017-01-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Prädizieren einer Blickrichtung eines Fahrzeuginsassen
EP3353630B1 (en) * 2015-09-24 2021-05-26 Tobii AB Eye-tracking enabled wearable devices
JP6456516B2 (ja) * 2015-10-30 2019-01-23 三菱電機株式会社 運転支援装置
JP2017151606A (ja) * 2016-02-23 2017-08-31 株式会社デンソー 脇見見落とし注意システム及びコンピュータプログラム
JP6344417B2 (ja) * 2016-03-18 2018-06-20 トヨタ自動車株式会社 車両用表示装置
EP3449337B1 (en) 2016-04-29 2023-01-04 Tobii AB Eye-tracking enabled wearable devices
JP6625930B2 (ja) * 2016-05-16 2019-12-25 株式会社東芝 眼電位検出電極付き制帽、眼電位検出電極付きヘッドウエア、および眼電位検出を利用したアラート方法
JP6713434B2 (ja) * 2016-05-30 2020-06-24 日本電信電話株式会社 注目範囲推定装置、学習装置、それらの方法およびプログラム
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
JP6915502B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバ状態検出装置
KR102259462B1 (ko) * 2018-03-05 2021-06-03 고려대학교 산학협력단 안구추적을 통한 시야장애 평가 장치, 이를 이용한 시야장애 평가 방법 및 컴퓨터 판독 가능한 저장 매체
JP7107725B2 (ja) * 2018-04-10 2022-07-27 浜松ホトニクス株式会社 眼球運動特徴量算出システム、眼球運動特徴量算出方法及び眼球運動特徴量算出プログラム
WO2019239459A1 (ja) * 2018-06-11 2019-12-19 三菱電機株式会社 運転支援装置、運転支援システムおよび運転支援方法
JP6557843B1 (ja) * 2018-12-05 2019-08-14 パナソニックIpマネジメント株式会社 車両の制御装置、制御システム、及び制御プログラム
TWI676823B (zh) * 2018-12-26 2019-11-11 中強光電股份有限公司 抬頭顯示裝置
JP7145792B2 (ja) * 2019-03-08 2022-10-03 株式会社デンソーアイティーラボラトリ 見落し検知装置、見落し検知方法、およびプログラム
US10976816B2 (en) * 2019-06-25 2021-04-13 Microsoft Technology Licensing, Llc Using eye tracking to hide virtual reality scene changes in plain sight
CN110728652B (zh) * 2019-09-04 2021-09-14 中国地质大学(武汉) 面向二维规则矢量空间数据的可视域分析方法及装置
EP3920083A1 (en) * 2020-06-05 2021-12-08 Aptiv Technologies Limited Pointing to non-mapped objects outside a vehicle
US20240054733A1 (en) * 2022-08-12 2024-02-15 State Farm Mutual Automobile Insurance Company Systems and methods for enhanced outdoor displays via augmented reality

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2705758B2 (ja) * 1995-07-27 1998-01-28 工業技術院長 眼球運動計数型有効視野計測装置
US5880812A (en) 1997-03-13 1999-03-09 Ramot-University Authority For Applied Research And Industrial Development, Ltd. Method and apparatus for evaluating and mapping visual field
JP2005095572A (ja) 2003-08-21 2005-04-14 Nissan Motor Co Ltd 有効視野計測装置
JP4892742B2 (ja) * 2005-03-31 2012-03-07 国立大学法人 東京大学 視野計及び視野計測方法
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
JP2011206072A (ja) * 2010-03-26 2011-10-20 Toyota Infotechnology Center Co Ltd 有効視野測定システムおよび有効視野測定方法
US10463248B2 (en) * 2011-03-02 2019-11-05 Brien Holden Vision Institute Limited Systems, methods, and devices for measuring eye movement and pupil response

Also Published As

Publication number Publication date
WO2015019542A1 (ja) 2015-02-12
EP3031388A4 (en) 2016-08-03
US10117577B2 (en) 2018-11-06
EP3031388B1 (en) 2020-01-15
EP3031388A1 (en) 2016-06-15
US20160120403A1 (en) 2016-05-05
JPWO2015019542A1 (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
JP6343808B2 (ja) 視野算出装置および視野算出方法
EP2893867B1 (en) Detecting visual inattention based on eye convergence
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
JP6591085B2 (ja) 乗り物酔い推定装置、乗り物酔い防止装置および乗り物酔い推定方法
JP4733242B2 (ja) 運転注意量判別装置、方法、および、コンピュータプログラム
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6565408B2 (ja) 車両制御装置及び車両制御方法
EP3588372A1 (en) Controlling an autonomous vehicle based on passenger behavior
EP2911117B1 (en) Controlling display of information for alerting a driver
KR20200113202A (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
JP2018156172A (ja) 車両の表示システム及び車両の表示システムの制御方法
EP3875299A1 (en) Attention-based notifications
JP4647387B2 (ja) 車両の運転支援装置
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
US20150158494A1 (en) Method and apparatus for determining carelessness of driver
JP2016066231A (ja) 衝突防止装置、衝突防止方法、衝突防止プログラムおよび記録媒体
JP5644414B2 (ja) 覚醒度判定装置、覚醒度判定方法及びプログラム
JP2007125184A (ja) 眼球停留関連電位解析装置及び解析方法
JP2018013811A (ja) ドライバ状態判定装置、及びドライバ状態判定プログラム
JP2020086907A (ja) 漫然運転判定装置
JP7342637B2 (ja) 車両制御装置および運転者状態判定方法
JP7342636B2 (ja) 車両制御装置および運転者状態判定方法
JP2006043429A (ja) 視認負荷判断装置
JP2021130390A (ja) 運転者状態推定装置
JP2011086125A (ja) 視認検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R151 Written notification of patent or utility model registration

Ref document number: 6343808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151