JP6036065B2 - 注視位置検出装置及び注視位置検出方法 - Google Patents

注視位置検出装置及び注視位置検出方法 Download PDF

Info

Publication number
JP6036065B2
JP6036065B2 JP2012202501A JP2012202501A JP6036065B2 JP 6036065 B2 JP6036065 B2 JP 6036065B2 JP 2012202501 A JP2012202501 A JP 2012202501A JP 2012202501 A JP2012202501 A JP 2012202501A JP 6036065 B2 JP6036065 B2 JP 6036065B2
Authority
JP
Japan
Prior art keywords
vehicle
line
image
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012202501A
Other languages
English (en)
Other versions
JP2014054486A (ja
Inventor
康洋 青木
康洋 青木
水谷 政美
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012202501A priority Critical patent/JP6036065B2/ja
Priority to US13/942,986 priority patent/US9245171B2/en
Publication of JP2014054486A publication Critical patent/JP2014054486A/ja
Application granted granted Critical
Publication of JP6036065B2 publication Critical patent/JP6036065B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、例えば、車両の乗員が注視する位置を検出する注視位置検出装置及び注視位置検出方法に関する。
近年、ドライバによる車両の運転を支援するために、ドライバが注視した位置を検出し、車両の周囲を撮影した画像上でその注視位置に対応する点を特定する技術が提案されている(例えば、特許文献1〜3を参照)。
例えば、特許文献1に記載された運転支援装置は、ドライバの顔を撮影した画像に基づいてドライバの右眼の視線角度及び左眼の視線角度を検出する。そしてこの運転支援装置は、右眼と左眼の中点から右眼の視線角度を表すベクトルと左眼の視線角度を表すベクトルとの交点までを結ぶベクトルを視線ベクトルとして検出する。
また、特許文献2に記載された視線方向計測装置は、被験者に装着したアイカメラ及び3次元磁気センサからの出力信号に基づいて被験者の視線方向を検出する。そしてこの視線方向計測装置は、被験者がフロントガラスを通して遠方を見る動作を行っている場合には、視点位置が無限遠点にあるものとして、被験者の前方の風景を撮影するTVカメラにより生成される映像上に、その視点位置をマッピングする。
さらに、特許文献3に記載された安全走行支援装置は、2個のカメラで車両前方をそれぞれ撮影することにより得られた二つの映像から運転者が注意を払うべき対象物を検出し、三角測量の原理によって、自車とその対象物との相対的な位置関係を求める。またこの安全走行支援装置は、例えば、瞳孔角膜反射法によって運転者の視線方向を検出する。そしてこの安全走行支援装置は、対象物と運転者の間に二次元空間を設定し、運転者の眼の位置と対象物とを結んだ線がその二次元空間と交わる位置に対象物を写像し、かつ、運転者の視線方向をその二次元空間に写像する。そうすることで、この安全走行支援装置は、その二次元空間上で対象物と視線方向の関係を比較できる。
特開2009−43003号公報 特開平6−189906号公報 国際公開第2007/069489号公報
車両の周囲を撮影するカメラとドライバは、互いに離れているので、そのカメラの視野とドライバの視野との間には視差が存在する。そのため、ドライバが注視する位置に対応する画像上の点を正確に特定するには、ドライバからその注視位置までの距離が求められることが好ましい。
このことに関して、特許文献1に記載の技術では、左眼の視線角度と右眼の視線角度の差が小さいため、何れかの眼の視線角度の検出結果に誤差が含まれると、検出された注視位置までの距離が、本来の注視位置までの距離から大きくずれてしまうおそれがあった。
また、特許文献2に記載の技術では、注視位置が無限遠に設定されるものの、実際には、ドライバは車両近辺にある物体を注視することもある。そのため、特許文献2に記載の技術では、ドライバの注視位置に対応する画像上の位置とは異なる位置に視点位置が設定されるおそれがあった。
さらに、特許文献3に記載の技術は、ドライバから注視位置までの距離を求める代わりに、自車から対象物までの距離を求めている。しかしこの技術は、自車から対象物までの距離を求めるために、2台のカメラを用いるので、装置構成が複雑化し、その結果として装置のコストも高くなる。
そこで本明細書は、車両周囲が写った画像上でのドライバの注視位置の精度を向上可能な注視位置検出装置を提供することを目的とする。
一つの実施形態によれば、注視位置検出装置が提供される。この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影し、その景色が写った画像を生成する撮像部と、車両の乗員の視線の方向を検出する視線検出部と、車両の周囲の少なくとも一部に、車両の進行方向と平行でかつ車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ車両から離れた位置に仮想的な面を設定する投影面設定部と、その仮想的な面と乗員の視線との交点を求める交点算出部と、画像上に交点を投影することにより得られた画像上の点を乗員の注視位置として検出する投影部とを有する。
本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
本明細書に開示された注視位置検出装置は、車両周囲が写った画像上でのドライバの注視位置の精度を向上できる。
一つの実施形態による注視位置検出装置が実装された運転支援装置の概略構成図である。 車両内における運転支援装置の配置の一例を示す図である。 制御部の機能ブロック図である。 視線投影面の一例を示す図である。 ドライバの視線と視線投影面との交点と、車外画像上の注視位置との関係の一例を示す図である。 注視位置検出処理を含む運転支援処理の動作フローチャートである。
以下、図を参照しつつ、一つの実施形態による、注視位置検出装置について説明する。
この注視位置検出装置は、車両の周囲の少なくとも一部の景色を撮影する車外撮像部から、ドライバが注視する物体が存在する可能性のある距離だけ離れた位置に、仮想的に車両の進行方向に平行な面を設定し、その面とドライバの視線との交点を求める。そしてこの注視位置検出装置は、車外撮像部からその交点までの距離に応じて、その車外撮像部により生成された画像上にその交点を投影することで、車両の周囲の少なくとも一部の景色が写った画像上でのユーザの注視位置を特定する。
本実施形態では、注視位置検出装置は、運転支援装置に実装されるものとする。しかし注視位置検出装置は、ドライバの注視位置からドライバが興味を持っているものを解析する装置などにも利用可能である。また注視位置検出装置は、ドライバの注視位置を検出する代わりに、車室内にいる他の乗員の注視位置を検出してもよい。
図1は、注視位置検出装置が実装された一つの実施形態による運転支援装置の概略構成図である。図2は、車両内における運転支援装置の配置の一例を示す図である。運転支援装置1は、光源2と、車内撮像部3と、車外撮像部4と、記憶部5と、制御部6とを有する。運転支援装置1は、さらに、車外撮像部4により生成された画像を表示するためのディスプレイ(図示せず)を有してもよい。例えば、運転支援装置1が有する各構成要素は、一つの筺体内に収容されていてもよい。この場合、運転支援装置1は、車両10のダッシュボードの上に、車外撮像部4が車両10の周囲の少なくとも一部の景色を撮影可能であり、かつ、車内撮像部3がドライバ11の顔を撮影可能なように配置される。
あるいは、運転支援装置1の一部の構成要素が他の構成要素とは別個に配置されてもよい。例えば、光源2は、インスツルメントパネルまたは車室内前方の天井付近にドライバ11へ向けて光を発するように取り付けられてもよい。また車内撮像部3も、例えば、ドライバの方を向けてインスツルメントパネルまたは車室内前方の天井付近に取り付けられてもよい。さらに、車外撮像部4は、車両10の周囲の少なくとも一部の景色、例えば、車両10の前方の景色を撮影可能なように取り付けられる。そして光源2、車内撮像部3及び車外撮像部4は、信号線を介して、記憶部5及び制御部6が収容され、インスツルメントパネルの裏側またはダッシュボードの上に配置された筐体と接続されてもよい。
光源2は、ユーザの顔、特に眼及びその周囲を照明する。そのため、光源2は、例えば、少なくとも一つの赤外発光ダイオードと、制御部6からの制御信号に応じて、赤外発光ダイオードに図示しない電源からの電力を供給する駆動回路とを有する。そして光源2は、制御部6から光源を点灯させる制御信号を受信すると照明光を発する。
なお、運転支援装置1が有する光源2の数は、1個に限られず、複数個であってもよい。
車内撮像部3は、ドライバの視線方向を検出するために利用される、ドライバの顔が写った画像を生成する。そのために、車内撮像部3は、光源2の光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上にドライバの顔の像を結像する撮像光学系を有する。車内撮像部3は、虹彩による反射像及び光源2以外の光源からの光の角膜反射像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。また車内撮像部3は、画像上で、ユーザの角膜に光源2の像が写るように、例えば、光源2と近接して配置される。
また、画像が光源2のプルキンエ像を識別できる程度の解像度を有するように、車内撮像部3のイメージセンサの画素数は、例えば、100万、200万、あるいは400万とすることができる。またイメージセンサにより生成される画像はカラー画像である。あるいは、イメージセンサにより生成される画像は、固体撮像素子が受光した光の強度が強いほど各画素の輝度が高くなるグレー画像であってもよい。
車内撮像部3は、注視位置検出処理が実行されている間、制御部6から通知された所定の露出条件に従って、所定の撮影レート(例えば、10〜30フレーム/秒)でドライバの顔を撮影することにより、ドライバの顔が写った画像を生成する。車内撮像部3は、画像を生成する度に、その画像を制御部6へ出力する。なお、以下では、便宜上、車内撮像部3により生成された画像を車内画像と呼ぶ。
車外撮像部4は、車両10の周囲の少なくとも一部の景色を撮影可能なように設置され、所定の撮影レート(例えば、10〜30フレーム/秒)で周期的にその景色が写った画像を生成する。そのために、車外撮像部4は、2次元アレイ状に並べられた固体撮像素子のイメージセンサと、そのイメージセンサ上に車両の前方の景色の像を結像する結像光学系とを有する。本実施形態では、車外撮像部4の光軸が、車両10の進行方向と平行となり、車外撮像部4が車両10の前方の景色を撮影できるように、車外撮像部4は設置される。なお、車外撮像部4は、車両10の右側方または左側方を撮影するように設置されてもよい。また、車外撮像部4が生成する画像はカラー画像であってもよく、あるいは、グレー画像であってもよい。車外撮像部4は、画像を生成する度に、その画像を制御部6へ渡す。なお、以下では、便宜上、車外撮像部4により生成された画像を車外画像と呼ぶ。
記憶部5は、例えば、読み書き可能な不揮発性または揮発性の半導体メモリ及び読み出し専用の不揮発性の半導体メモリを有する。そして記憶部5は、制御部6上で実行される、注視位置検出処理のプログラムを記憶する。また記憶部5は、車外画像上でのドライバの注視位置を検出するために利用される各種のデータを記憶する。
制御部6は、一つまたは複数のプロセッサ及びその周辺回路を有し、運転支援装置1の各部と信号線を通じて接続されている。そして制御部6は、運転支援装置1の各部へ信号線を通じて制御信号を送信することで運転支援装置1の各部を制御する。
図3は、制御部6の機能ブロック図である。制御部6は、視線検出部11と、視線投影面設定部12と、交点算出部13と、投影部14と、注視対象検出部15と、注意判定部16とを有する。このうち、視線検出部11、視線投影面設定部12、交点算出部13及び投影部14が注視位置検出装置に含まれる。
制御部6が有するこれらの各部は、制御部6が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールである。
また制御部6が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として制御部6が有するプロセッサとは別個に、運転支援装置1に実装されてもよい。
視線検出部11は、制御部6が車内撮像部3から車内画像を受け取る度に、その車内画像に基づいてドライバの視線方向を検出する。本実施形態では、視線検出部11は、車内画像上でドライバの角膜により反射された光源2のプルキンエ像及びドライバの瞳孔重心を検出し、プルキンエ像と瞳孔重心間の位置関係に応じてドライバの視線方向を検出する。
そこで例えば、視線検出部11は、車内画像上でドライバの顔が写っている領域を検出する。
本実施形態では、撮影時において、ドライバの顔は光源2からの赤外光で照明されており、赤外光に対する肌の反射率は比較的高い(例えば、肌の反射率は近赤外の波長域で数10%)ので、車内画像上で顔の肌の部分が写っている画素の輝度は高い。一方、車内画像上で髪の毛またはユーザの背後の領域は赤外光に対する反射率が低いかまたは光源2から遠いため、髪の毛またはユーザの背後の領域が写っている画素の輝度は、相対的に低くなる。
そこで視線検出部11は、車内画像の各画素の値がRGB表色系により表されているカラー画像である場合、各画素の値をYUV表色系により表される値に変換する。そして視線検出部11は、各画素の輝度成分(Y成分)の値が所定の閾値以上の画素を、顔が写っている可能性がある顔領域候補画素として抽出する。なお、車内画像の各画素の値が輝度を表すグレー画像である場合、視線検出部11は、各画素の値を所定の閾値と比較する。所定の閾値は、例えば、画像上の輝度成分の最大値に0.8を乗じた値に設定される。
また、車内画像上でドライバの顔が占める領域の大きさはある程度推定される。
そこで視線検出部11は、顔領域候補画素に対してラベリング処理を行って、互いに隣接している顔領域候補画素の集合を顔候補領域とする。そして視線検出部11は、顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれているか否か判定する。顔候補領域の大きさがユーザの顔の大きさに相当する基準範囲に含まれていれば、視線検出部11はその顔候補領域をドライバの顔が写っている顔領域と判定する。
なお、視線検出部11は、画像上に写っている顔の領域を検出する他の様々な方法の何れかに従って顔領域を検出してもよい。例えば、視線検出部11は、顔候補領域と一般的な顔の形状に相当するテンプレートとの間でテンプレートマッチングを行って、顔候補領域とテンプレートとの一致度を算出し、その一致度が所定値以上である場合に、顔候補領域を顔領域と判定してもよい。
次に、視線検出部11は、顔領域内で眼に相当する領域を検出する。眼に相当する画素の輝度は、眼の周囲に相当する画素の輝度と大きく異なる。そこで視線検出部11は、顔領域内の各画素に対して、例えば、Sobelフィルタを用いて垂直方向の近傍画素間差分演算を行って垂直方向に輝度が変化するエッジ画素を検出する。そして視線検出部11は、例えば、エッジ画素が略水平方向に眼の大きさに相当する所定数以上連結された2本のエッジ線で囲まれた領域を眼の領域とする。
あるいは、視線検出部11は、画像上の眼の像を表すテンプレートと、顔領域とのテンプレートマッチングにより、顔領域内でテンプレートに最も一致する領域を検出し、その検出した領域を眼の領域としてもよい。
眼の領域が検出されると、視線検出部11は、眼の領域内で瞳孔領域を検出する。本実施形態では、視線検出部11は、瞳孔に相当するテンプレートと眼の領域との間でテンプレートマッチングを行い、眼の領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして視線検出部11は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域に瞳孔が写っていると判定する。
また視線検出部11は、画像上で瞳孔領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。
さらに、視線検出部11は、眼の領域内で光源2のプルキンエ像を検出する。
光源2のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高い。また、光源2のプルキンエ像が写っている領域の形状は、光源2の発光面の形状と略一致する。そこで視線検出部11は、眼の領域内で、光源2の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして視線検出部11は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い領域を検出する。そして視線検出部11は、その検出された領域内の内側のリングで囲まれた領域を光源2のプルキンエ像とする。なお、差分閾値は、例えば、眼の領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼の領域内での輝度値の最高値の80%とすることができる。
なお、視線検出部11は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、光源のプルキンエ像が写っている領域を検出してもよい。
視線検出部11は、プルキンエ像に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の座標として算出する。
角膜の表面は略球形であるため、ドライバの視線方向によらず、光源2のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、ドライバの視線方向に応じて移動する。そのため、視線検出部11は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、ドライバの視線方向を検出できる。
本実施形態では、視線検出部11は、光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部11は、瞳孔重心の相対的な位置とユーザの視線方向との関係を表す視線方向参照テーブルを参照することにより、ドライバの視線方向を決定する。なお、視線方向参照テーブルは、例えば、既知の複数の方向のそれぞれごとに、ドライバがその方向を見たときの瞳孔重心とプルキンエ像の重心の位置を検出することによって予め作成され、記憶部5に記憶される。
なお、視線検出部11は、プルキンエ像を用いない方法によりドライバの視線方向を検出してもよい。例えば、視線検出部11は、車内画像上でのドライバの顔の特徴的な部位の位置を基準とした、瞳孔重心の相対的な位置に基づいてドライバの視線方向を検出してもよい。
例えば、視線検出部11は、鼻尖点または目頭といった、眼との相対的な位置関係の変動が小さい特徴的な部位の画像上での座標を求める。そのために、視線検出部11は、例えば、顔領域とそれら特徴的な部位の一般的な形状に相当するテンプレートとの間で相対的な位置を変えつつテンプレートマッチングを行って、顔領域とテンプレートとの一致度を算出する。そして視線検出部11は、顔領域内の特定位置で一致度が所定値以上である場合に、その特定位置にテンプレートに相当する部位が写っていると判定する。
視線検出部11は、その特徴的な部位の座標から、ドライバが特定の方向を向いている状態でドライバの顔が撮影された基準画像から求められ、かつ記憶部5に記憶されているその特徴的な部位の基準位置の座標を引くことにより位置補正量を求める。そして視線検出部11は、瞳孔重心の座標値にその位置補正量を減じて、位置補正量に相当する、車内画像上の瞳孔重心の位置と基準画像上の瞳孔重心の位置の差を打ち消すことで、補正後の瞳孔重心の座標を求める。
視線検出部11は、記憶部5に記憶されている瞳孔−視線方向参照テーブルを参照することにより、補正後の瞳孔重心位置に対応するドライバの視線方向を決定する。
ドライバの視線方向は、世界座標系での単位ベクトルとして表すことができる。そこで視線検出部11は、ドライバの視線方向を表す単位ベクトル及び車内画像上の眼の位置を交点算出部13へ通知する。
視線投影面設定部12は、ドライバの視線を投影するための仮想的な面である視線投影面を、車両10の周囲の少なくとも一部に設定する。本実施形態では、視線投影面設定部12は、視線投影面を、車両10の進行方向と平行でかつ車両10から注視対象物が存在する可能性がある位置までの距離だけ車両10から離れた位置に設定する。なお、本実施形態では、世界座標系での視線投影面の取扱を容易にするために、車両10から視線投影面までの距離を、車両10に搭載された車外撮像部4から視線投影面までの距離で表す。しかし、車両10から視線投影面までの距離は、車両10の側面または車両10の進行方向に平行な、車両10の中心線から視線投影面までの距離で表されてもよい。
図4は、視線投影面の一例を示す図である。図4に示されるように、視線投影面400は、車両10の左側、右側及び上側を囲むように設定される。この例では、右側の視線投影面400a及び左側の視線投影面400bは、それぞれ、路面に対して鉛直な方向に沿って設定される。一方、上方の視線投影面400cは、路面と平行に設定される。ドライバは、運転中、衝突などの危険を事前に回避するために、対向車線を走行する他の車両、あるいは側道を歩行する歩行者または自転車を注視することがある。そこで、視線投影面設定部12は、車外撮像部4から車両10の右側に設定される視線投影面までの距離を、例えば、車外撮像部4から対向車線までの距離、あるいは、車外撮像部4から車両10が走行中の道路の右端までの距離に設定する。この距離は、予め設定され、記憶部5に記憶されていてもよい。
あるいは、視線投影面設定部12が、車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出することにより、車外撮像部4からそのセンターラインまたは道路の右端までの距離を推定してもよい。車外画像上で道路上に引かれたセンターラインまたは道路の右端を検出する場合には、視線投影面設定部12は、例えば、車外画像上の道路が写る領域内でエッジ検出処理を実行することにより、その領域内のエッジ画素を検出する。そして視線投影面設定部12は、例えば、エッジ画素に対してハフ変換を実行することで、車両10の右側に相当する領域で車両10の進行方向に沿って伸びる直線を、センターラインまたは道路の右端として検出すればよい。また視線投影面設定部12は、センターラインまたは道路の端を検出する他の様々な手法の何れかに従って、センターラインまたは道路の右端を検出してもよい。
車外撮像部4の光軸方向、及び車外撮像部4の画角は予め既知である。そのため、車外撮像部4から、車外画像上の任意の画素に写っている物体へ向かう方向が分かる。また、路面から車外撮像部4までの高さも既知である。そのため、視線投影面設定部12は、車外画像上で路面が写っている画素を特定することにより、車外撮像部4からその画素に写っている路面までの距離も求めることができる。そこで視線投影面設定部12は、センターラインまたは道路の右端が写っている何れかの画素に基づいて、車外撮像部4からセンターラインまたは道路の右端までの距離を求めることができる。
なお、車外撮像部4から車両10の右側に設定される視線投影面までの距離をDとすれば、車両10の右側に設定される視線投影面sは、次式で表される。
Figure 0006036065
ただし、(x,y,z)は、車外撮像部4の前側主点を原点とする世界座標系における座標を表す。このうち、zは、車両10の進行方向、すなわち、車外撮像部4の光軸に平行な方向の座標を表す。またxは、路面と平行で、かつ車両10の進行方向に直交する方向の座標を表す。そしてyは、路面鉛直方向の座標を表す。なお、xは、原点から右へ向かう方向が正であり、yは、原点から上方へ向かう方向が正であり、zは、原点から車両10の前方へ向かう方向が正である。
また、視線投影面設定部12は、車外撮像部4から車両10の左側に設定される視線投影面までの距離を、例えば、車外撮像部4から車両10が走行中の道路の左端までの距離に設定する。この場合も、車外撮像部4から車両10が走行中の道路の左端までの距離は、予め記憶部5に記憶されていてもよい。あるいは、視線投影面設定部12が、車外画像上で道路の左端を検出することにより、その距離を決定してもよい。なお、車両10の左側に設定される視線投影面s'は、車外撮像部4から車両10の左側に設定される視線投影面までの距離をDとすれば、(1)式において、Dの代わりに(-D)とすることで求められる。
さらに、視線投影面設定部12は、車外撮像部4から車両10の上側に設定される視線投影面までの距離を、例えば、車外撮像部4から道路標識または信号機までの高さ(例えば、4m)に相当する値に設定する。
なお、視線投影面設定部12は、車両10の右側及び左側にのみ、視線設定面を設定し、車両10の上方には視線投影面を設定しなくてもよい。これは、車両10の上方から車両10に近づく物体は、一般的には存在しないためである。また、視線投影面設定部12は、車両10の周囲に、車両10の進行方向に平行な軸を中心とする円筒面状に視線投影面を設定してもよい。
視線投影面設定部12は、視線投影面を表す式を交点算出部13へ通知する。
交点算出部13は、視線投影面とドライバの視線との交点を算出する。ドライバの視線は、ドライバの視線方向を表す単位ベクトルをv(x,y,z)とし、車外撮像部4の前側主点を原点とする世界座標系におけるドライバの眼の位置をg(x,y,z)とすれば、直線(g+kv)で表される。ただしkは正の値を持つ実数である。そのため、交点算出部13は、次式に従って視線投影面とドライバの視線との交点を算出できる。なお、次式において、v、gは、同次座標表現で表されており、それぞれ、v(x,y,z,0)、g(x,y,z,1)である。
Figure 0006036065
なお、ドライバの眼の位置は、例えば、車内撮像部3により生成された車内画像から検出された眼の位置に基づいて決定される。車内画像上の任意の画素と、車内撮像部3からその画素に写っている被写体への方向は1対1に対応する。そのため、車内画像上の眼の重心に相当する画素を特定することにより、車内撮像部3からのドライバの眼へ向かう方向が特定される。そして車内撮像部3の光軸方向、画角及び設置位置は既知であるので、世界座標系における、車内撮像部3からのドライバの眼へ向かう直線を求めることができる。さらに、車内撮像部3とシートの位置関係により、車内撮像部3からドライバまでの距離も予め推定される。そのため、その直線に沿って、車内撮像部3からドライバの眼までの推定距離だけ車内撮像部3から離れた位置にドライバの眼があると推定される。
なお、ドライバの眼の位置は、予め測定され、記憶部5に記憶されてもよい。
また、実空間上でのドライバの眼の位置が分かっているときにドライバの頭部を撮影して得られた車内画像上での眼の位置が、眼の基準位置として予め記憶部5に記憶されてもよい。そして交点算出部13は、注視位置検出処理の実行中に得られた車内画像上の眼の位置と、眼の基準位置との差を求め、その差に応じて、基準位置に対応するドライバの眼の位置を補正することで、ドライバの眼の位置を求めてもよい。
さらに交点算出部13は、ドライバの眼の位置を検出する様々な他の技術の何れかを用いて、ドライバの眼の位置を検出してもよい。
交点算出部13は、ドライバの視線と視線投影面との交点の座標を投影部14へ通知する。
投影部14は、ドライバの視線と視線投影面の交点を車外画像上へ投影する。上記のように、車外撮像部4の設置位置、光軸方向、画角、及び1画素のサイズといった車外撮像部4に関するパラメータは既知である。そのため、車外撮像部4の撮像光学系の歪曲収差が無視できるほど小さい場合、投影部14は、世界座標系上の任意の点を車外画像上に投影する射影行列Fを、これらのパラメータに基づいて決定できる。あるいは、射影行列Fの各要素の値を決定するために、車外撮像部4から所定の距離だけ離れた位置に既知のパターンが示されたチャートを配置して、そのチャートを車外撮像部4で撮影することにより得られる画像が利用されてもよい。この場合、そのチャートが写った画像から、チャート上の複数の特徴点が抽出される。そして、各特徴点に対応するチャート上の点を射影行列Fを用いて車外画像上に投影したときの座標と特徴点との距離の二乗和が最小となるように、射影行列Fの各要素の値が算出される。この射影行列Fは、例えば、運転支援装置1が車両10に設置されたとき、あるいは、定期的に実行されるキャリブレーション処理において算出され、記憶部5に記憶されればよい。
投影部14は、その射影行列Fを用いて次式により、ドライバの視線と視線投影面の交点q(x,y,z)に対応する車外画像上の注視位置p(u,w)を算出する。ただし、uは、車外画像上での水平方向の座標であり、wは、車外画像上での垂直方向の座標である。
Figure 0006036065
なお、(3)式では、交点q及び対応する車外画像上の注視位置pを同次座標表現で表している。すなわち、(3)式で得られた注視位置pの一番上の要素を1/zした値が、車外画像上での実際の水平方向の座標uとなり、(3)式で得られた注視位置pの上から2番目の要素を1/zした値が、車外画像上での実際の垂直方向の座標wとなる。
図5は、ドライバの視線と視線投影面との交点と、車外画像上の注視位置との関係の一例を示す図である。車外撮像部4から視線投影面502までの距離Dが、その視線投影面502の近傍にドライバ500の注視対象物501が位置するように設定されていると、ドライバ500の視線503と視線投影面502との交点qは、その注視対象物501の近くに位置する。そのため、ドライバ500と車外撮像部4とが離れて配置されていても、車外撮像部4と交点qとを結ぶ線511が車外撮像部4の光軸OAとなす角と、車外撮像部4と注視対象物501とを結ぶ線512がその光軸OAとなす角との差は小さい。そのため、交点qに対応する、車外撮像部4の撮像面504上の位置pと、注視対象物501に対応する、車外撮像部4の撮像面504上の位置p'はほぼ一致する。そのため、ドライバから注視対象物までの距離を測定しなくても、制御部6は、車外画像上の注視位置を実際にドライバが注視した対象物の車外画像上の位置に近づけることができる。
なお、車外撮像部4の撮像光学系が魚眼レンズである場合のように、その撮像光学系の歪曲収差が無視できないほど大きいことがある。このような場合には、例えば、車外撮像部4の光軸からの角度と歪曲収差による車外画像上の位置のずれを補正する補正量との対応関係を表す補正テーブルが予め記憶部5に記憶される。このような補正テーブルは、車外撮像部4を用いて予め既知のパターンが示されたチャートを撮影して得られる画像を解析することによって作成できる。あるいは、車外撮像部4の撮像光学系の歪曲収差曲線が分かっている場合には、その歪曲収差曲線に基づいて補正テーブルは作成されてもよい。
投影部14は、車外撮像部4の前側主点から交点へ向かう線と車外撮像部4の光軸とのなす角を算出し、補正テーブルを参照してその角度に応じた補正量を求める。また投影部14は、光軸に相当する車外画像上の画素から(3)式で算出した交点qの車外画像上の投影点pへ向かう車外画像上の直線を求める。そして投影部14は、その直線に沿って、光軸に相当する画素から(3)式で算出したその投影点pまでの距離をその補正量だけ減じた位置を注視位置pの座標とすればよい。
投影部14は、車外画像上の注視位置pの座標を注意判定部16へ通知する。
注視対象検出部15は、車外画像上でドライバが注視すべき対象物を検出する。例えば、注視対象検出部15は、車外画像を複数の部分画像に分割し、部分画像ごとに注視すべき対象物を表す特徴量を抽出する。そして注視対象検出部15は、部分画像ごとの特徴量を、注視すべき対象物か否かを識別する識別器に入力することによって、その部分画像に注視すべき対象物が写っているか否か判定する。なお、識別器は、例えば、adaBoost識別器あるいはサポートベクトルマシンとすることができる。また特徴量は、例えば、Haar-like特徴量とすることができる。
なお、注視対象検出部15は、様々なトラッキング手法の何れかを用いて、時間的に連続する複数の車外画像にわたって注意すべき対象物を追跡してもよい。そして注視対象検出部15は、その対象物の車外画像上の位置が車外画像の中心に近づいている場合、すなわち、その対象物が車両10に接近していると推定される場合にのみ、その対象物を注意すべき対象物としてもよい。
注視対象検出部15は、注視すべき対象物が写っている領域を表す情報を注意判定部16へ通知する。
注意判定部16は、車外画像上の注視点の座標が、何れかの注視すべき対象物の領域に含まれるか否かを判定する。そして注意判定部16は、注視点の座標が、何れかの注視すべき対象物が写っている領域に含まれる場合、ドライバはその注視すべき対象物を見たと判定する。
注意判定部16は、直近の所定期間にわたって、その所定期間中に生成された車外画像に注意すべき対象物が写っている場合、ドライバがその対象物を見ているか否か判定する。なお、所定期間は、例えば、0.1秒〜1秒程度に設定される。その所定期間にわたってドライバがその対象物を見ていない場合、注意判定部16は、ドライバに注意を喚起するよう、例えば、スピーカ(図示せず)に警告音を発させる。あるいは、注意判定部16は、車内に配置されたディスプレイ(図示せず)に、最新の車外画像及びその車外画像上で検出された注意すべき対象物を示すマーク(例えば、その対象物を囲む特定の色の枠線)を表示させてもよい。
図6は、制御部6により制御される注視位置検出処理を含む運転支援処理の動作フローチャートである。制御部6は、車外画像を受け取る度に、この動作フローチャートに従って運転支援処理を実行する。
視線検出部11は、車内撮像部3から受け取った最新の車内画像に基づいて、ドライバの視線方向を検出する(ステップS101)。そして視線検出部11は、その視線方向を表す方向ベクトルを交点算出部13へ通知する。
視線投影面設定部12は、車両10の周囲に、車両10の進行方向と平行、かつ、車外撮像部4から注意すべき対象物が位置する可能性がある距離だけ離れた位置に視線投影面を設定する(ステップS102)。そして視線投影面設定部12は、視線投影面を交点算出部13へ通知する。
交点算出部13は、ドライバの視線と視線投影面との交点を算出する(ステップS103)。なおこの交点の座標は世界座標系で表される。そして交点算出部13は、交点の座標を投影部14へ通知する。
投影部14は、ドライバの視線と視線投影面との交点を車外画像上へ投影して注視位置を特定する(ステップS104)。そして投影部14は、車外画像上の注視位置の座標を注意判定部16へ通知する。
また、注視対象検出部15は、車外画像上でドライバが注視すべき対象物が写っている領域を検出する(ステップS105)。そして注視対象検出部15は、注視すべき対象物が写っている領域の位置及び範囲を注意判定部16へ通知する。
注意判定部16は、車外画像上でのドライバの注視位置が、何れかの注意すべき対象物が写っている領域の何れかに含まれるか否か判定する(ステップS106)。注視位置が注意すべき対象物が写っている領域の何れにも含まれない場合(ステップS106−No)、注意判定部16は、ドライバはその車外画像の生成時において、注意すべき対象物を見ていないと判定する。そして注意判定部16は、ドライバが注意すべき対象物を見ていない期間が、所定期間にわたって継続しているか否か判定する(ステップS107)。ドライバが注意すべき対象物を見ていない期間が所定期間にわたって継続している場合(ステップS107−Yes)、注意判定部16は、注意すべき対象物が車両10の周囲に存在することをドライバに警告する(ステップS108)。その後、制御部6は、運転支援処理を終了する。
一方、ステップS107にて、ドライバの注視位置が、何れかの注意すべき対象物が写っている領域に含まれる場合(ステップS106−Yes)、注意判定部16は、ドライバはその注意すべき対象物を見たと判定する。この場合、ドライバに警告せずに注意すべき対象物を見ていない継続期間の長さを0にリセットした上で、制御部6は、運転支援処理を終了する。またステップS108にて、ドライバが注意すべき対象物を見ていない継続時間が所定期間に達していない場合も(ステップS107−No)、制御部6は、ドライバに警告せずに運転支援処理を終了する。
以上に説明してきたように、この注視位置検出装置が実装された運転支援装置は、ドライバの視線と、注意すべき対象物が存在する可能性のある位置に設定された視線投影面との交点を求め、その交点を車外画像上へ投影する。視線投影面の性質上、運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を、車外撮像部からこの交点までの距離によって近似できる。そのため、この運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくても、車外画像上での注視位置の精度を向上できる。またこの運転支援装置は、車外撮像部からドライバが実際に注視している物体までの距離を測定しなくてよいので、運転支援装置の構成を簡単化できる。
なお、本発明は上記の実施形態に限定されるものではない。例えば、注視位置検出装置は、運転中にドライバが注視した物を解析する注視物体解析装置に実装されてもよい。注視物体解析装置も、図1に示された運転支援装置の構成と同様の構成を有することができる。この場合、例えば、視線投影面は、車外撮像部4から、解析対象とする物体が位置する可能性のある位置までの距離に応じて設定される。例えば、ドライバが注視した広告看板を特定したい場合には、視線投影面は、車外撮像部4から広告看板の推定位置までの距離だけ車外撮像部4から離れた位置に、車両10の進行方向と平行に設定されればよい。
またこの例では、注視物体解析装置は、例えば、全地球測位システム(Global Positioning System, GPS)のGPS衛星からの測位情報に基づいて、車両10の現在位置を検出する位置検出部(図示せず)をさらに有してもよい。さらに、注視物体解析装置の記憶部は、車両10が走行中のエリア内にある、広告看板の位置及び広告内容を表すマップ情報を記憶していてもよい。
この例では、制御部6の注視対象検出部15は、例えば、車両10の現在位置に基づいて、その現在位置の近傍にある広告看板に対応するテンプレートを記憶部5から読み込む。そして注視対象検出部15は、車外画像とそのテンプレートとのテンプレートマッチングにより、車外画像上でそのテンプレートと最も一致する領域に、そのテンプレートに対応する広告看板が写っていると判定する。
また制御部6の注意判定部16は、車外画像上で広告看板が写っていると判定された領域内にドライバの注視位置が含まれる場合、ドライバはその広告看板を見たと判定する。そして注意判定部16は、直近の所定の期間にわたって、その期間内に取得された各車外画像においてドライバがその広告看板を見たと判定した場合、注視した広告看板の広告内容を記憶部5から読み出す。そして注意判定部16は、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲(例えば、2km×2kmの範囲)内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。例えば、ドライバが注視した広告看板の広告内容がレストランの広告であれば、注意判定部16は、レストランを検出する。そして注意判定部16は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。
さらに他の変形例によれば、注視物体解析装置は、車外に設置された移動体通信システムの基地局と無線通信するための通信部(図示せず)を有し、その基地局を介して、車外の所定の場所、例えば、データセンターに設置されたサーバと通信可能であってもよい。この場合、注視物体解析装置は、車両10の現在位置、ドライバが注視した広告看板の位置及び広告内容を表す情報を含む信号を、通信部及び基地局を介して、サーバへ送信する。サーバは、マップ情報を参照して、車両10の現在位置の周囲の所定の範囲内で、ドライバが注視した広告看板の広告内容と関連する店を検出する。そしてサーバは、検出した店の名称及び位置を示す情報を、車両10に設置された注視物体解析装置へ返信する。
注視物体解析装置の制御部6は、車内に設置された表示部(図示せず)に車両10の現在位置の周囲のマップとともに、検出した店の名称及び位置を示す情報を表示させる。
さらに他の変形例によれば、制御部6は、車両10の走行中の一定期間中に生成されたそれぞれの車外画像に対して注視位置を示すマークを付し、そのマークを付した車外画像を記憶部5に記憶させてもよい。
これにより、注視物体解析装置は、その一定期間の車外画像上の注視位置を追跡することで、ドライバの視線の動きを解析することが可能となる。
また、上記の実施形態及び変形例による制御部の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。なお、記録媒体には、搬送波は含まれない。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
車両の乗員の視線の方向を検出し、
前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
前記仮想的な面と前記乗員の視線との交点を求め、
前記車両の周囲の少なくとも一部の景色が写った画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
1 運転支援装置(注視位置検出装置)
2 光源
3 車内撮像部
4 車外撮像部
5 記憶部
6 制御部
11 視線検出部
12 視線投影面設定部
13 交点算出部
14 投影部
15 注視対象検出部
16 注意判定部

Claims (3)

  1. 車両の周囲の少なくとも一部の景色を撮影し、当該景色が写った画像を生成する撮像部と、
    前記車両の乗員の視線の方向を検出する視線検出部と、
    前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定する投影面設定部と、
    前記仮想的な面と前記乗員の視線との交点を求める交点算出部と、
    前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する投影部と
    を有する注視位置検出装置。
  2. 前記投影面設定部は、前記画像上で前記車両が走行する道路のセンターラインまたは該道路の端部を検出し、該道路のセンターラインまたは該道路の端部の位置に前記仮想的な面を設定する、請求項1に記載の注視位置検出装置。
  3. 車両の周囲の少なくとも一部の景色が写った画像を取得し、
    前記車両の乗員の視線の方向を検出し、
    前記車両の周囲の少なくとも一部に、前記車両の進行方向と平行でかつ前記車両から乗員が注視する物体が存在する可能性がある位置までの距離だけ前記車両から離れた位置に仮想的な面を設定し、
    前記仮想的な面と前記乗員の視線との交点を求め、
    前記画像上に前記交点を投影することにより得られた前記画像上の点を前記乗員の注視位置として検出する
    ことを含む注視位置検出方法。
JP2012202501A 2012-09-14 2012-09-14 注視位置検出装置及び注視位置検出方法 Expired - Fee Related JP6036065B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012202501A JP6036065B2 (ja) 2012-09-14 2012-09-14 注視位置検出装置及び注視位置検出方法
US13/942,986 US9245171B2 (en) 2012-09-14 2013-07-16 Gaze point detection device and gaze point detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012202501A JP6036065B2 (ja) 2012-09-14 2012-09-14 注視位置検出装置及び注視位置検出方法

Publications (2)

Publication Number Publication Date
JP2014054486A JP2014054486A (ja) 2014-03-27
JP6036065B2 true JP6036065B2 (ja) 2016-11-30

Family

ID=50274066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012202501A Expired - Fee Related JP6036065B2 (ja) 2012-09-14 2012-09-14 注視位置検出装置及び注視位置検出方法

Country Status (2)

Country Link
US (1) US9245171B2 (ja)
JP (1) JP6036065B2 (ja)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150054951A1 (en) * 2013-08-22 2015-02-26 Empire Technology Development, Llc Influence of line of sight for driver safety
JP6364627B2 (ja) * 2013-11-01 2018-08-01 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
JP6322986B2 (ja) * 2013-12-09 2018-05-16 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US20150228119A1 (en) * 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US20150221341A1 (en) * 2014-01-31 2015-08-06 Audi Ag System and method for enhanced time-lapse video generation using panoramic imagery
US20150241963A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
GB2536474B (en) * 2015-03-18 2019-09-04 Jaguar Land Rover Ltd Situational awareness monitoring method and apparatus
JPWO2016157951A1 (ja) * 2015-03-31 2018-01-25 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2017004117A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 視線検出装置および視線検出方法
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
JP2019518287A (ja) 2016-06-13 2019-06-27 ジーボ インコーポレーテッドXevo Inc. バーチャスサイクルを使用して自動車駐車スペース管理する方法及びシステム
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
EP3566201A4 (en) * 2016-12-22 2020-11-25 Xevo Inc. PROCESS AND SYSTEM FOR PROVIDING SERVICES OF ANALYSIS OF ARTIFICIAL INTELLIGENCE (AIA) FOR PERFORMANCE PREDICTION
WO2019028798A1 (zh) * 2017-08-10 2019-02-14 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
TWI653170B (zh) * 2017-11-01 2019-03-11 宏碁股份有限公司 駕駛提示方法與系統
KR20190050633A (ko) * 2017-11-03 2019-05-13 주식회사 만도 운전자 상태 기반 차량 제어 시스템 및 방법
CN107808397B (zh) * 2017-11-10 2020-04-24 京东方科技集团股份有限公司 瞳孔定位装置、瞳孔定位方法和视线追踪设备
CN109823344B (zh) * 2017-11-22 2021-10-22 宏碁股份有限公司 驾驶提示方法与***
CN110758237A (zh) * 2018-07-27 2020-02-07 深圳富泰宏精密工业有限公司 电子装置及行车安全提醒方法
JP7155750B2 (ja) * 2018-08-23 2022-10-19 トヨタ自動車株式会社 情報システムおよびプログラム
US20220165073A1 (en) * 2019-02-22 2022-05-26 Panasonic Intellectual Property Management Co., Ltd. State detection device and state detection method
US10933803B2 (en) * 2019-03-31 2021-03-02 Gm Cruise Holdings Llc Autonomous vehicle visual based communication
WO2021201161A1 (ja) * 2020-04-02 2021-10-07 京セラ株式会社 検出装置および画像表示モジュール
CN113815623B (zh) * 2020-06-11 2023-08-08 广州汽车集团股份有限公司 一种视觉追踪人眼注视点的方法、车辆预警方法及装置
WO2022091864A1 (ja) * 2020-10-30 2022-05-05 京セラ株式会社 検出装置および画像表示システム
US11623654B2 (en) * 2021-05-05 2023-04-11 Nissan North America, Inc. Systems and methods of assisting vehicle navigation
US11827150B2 (en) * 2021-09-21 2023-11-28 International Business Machines Corporation Computer-implemented object visibility improvement by interposing an image in a viewer's line-of-sight
US11704698B1 (en) 2022-03-29 2023-07-18 Woven By Toyota, Inc. Vehicle advertising system and method of using

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189906A (ja) 1992-12-26 1994-07-12 Nissan Motor Co Ltd 視線方向計測装置
JP3941926B2 (ja) 2002-03-12 2007-07-11 松下電器産業株式会社 車両周辺監視装置
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
JP4345526B2 (ja) 2004-03-08 2009-10-14 株式会社デンソー 物体監視装置
JP4270010B2 (ja) * 2004-04-05 2009-05-27 株式会社デンソー 物体危険判定装置
WO2007069489A1 (ja) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. 安全走行支援装置
JP2008280026A (ja) * 2007-04-11 2008-11-20 Denso Corp 運転支援装置
JP4935571B2 (ja) 2007-08-08 2012-05-23 株式会社デンソー 運転支援装置
JP5278461B2 (ja) * 2011-02-03 2013-09-04 株式会社デンソー 視線検出装置および視線検出方法

Also Published As

Publication number Publication date
US20140078282A1 (en) 2014-03-20
JP2014054486A (ja) 2014-03-27
US9245171B2 (en) 2016-01-26

Similar Documents

Publication Publication Date Title
JP6036065B2 (ja) 注視位置検出装置及び注視位置検出方法
JP4612635B2 (ja) 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出
CN110703904B (zh) 一种基于视线跟踪的增强虚拟现实投影方法及***
US20150161762A1 (en) Information processing apparatus, information processing method, and program
JP4173902B2 (ja) 車両周辺監視装置
JP2017091284A (ja) 車両用画像処理装置および車両用画像処理システム
US10634918B2 (en) Internal edge verification
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
JP2006338594A (ja) 歩行者認識装置
US11024040B2 (en) Dynamic object tracking
JP2018154153A (ja) 車両の表示システム及び車両の表示システムの制御方法
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2007323578A (ja) 車両周辺監視装置
JP2014154898A (ja) 物体検知装置
TW201601955A (zh) 車用安全系統及其運作方法
JP6669182B2 (ja) 乗員監視装置
JP2012115505A (ja) 視線検出装置及び視線検出方法
US11903647B2 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
JP2013257244A (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
JP2008183933A (ja) 赤外線暗視装置
JP2006027481A (ja) 物体警告装置及び物体警告方法
KR20210150881A (ko) 전자 장치 및 그 동작 방법
KR101935853B1 (ko) 라이다 및 레이더를 이용한 나이트 비전 시스템
JP3994954B2 (ja) 物体検出装置及び物体検出方法
KR20190071781A (ko) 열에너지 정보를 표시하는 나이트 비젼 시스템 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R150 Certificate of patent or registration of utility model

Ref document number: 6036065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees