JP2015211741A - 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 - Google Patents
視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 Download PDFInfo
- Publication number
- JP2015211741A JP2015211741A JP2014095122A JP2014095122A JP2015211741A JP 2015211741 A JP2015211741 A JP 2015211741A JP 2014095122 A JP2014095122 A JP 2014095122A JP 2014095122 A JP2014095122 A JP 2014095122A JP 2015211741 A JP2015211741 A JP 2015211741A
- Authority
- JP
- Japan
- Prior art keywords
- time
- line
- image
- sight
- gazing point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】ユーザの視線の状態を精度よく判定する視線状態判定装置を提供する。
【解決手段】注視点画像領域推定部24が、時刻Aと時刻Bのそれぞれにおいてドライバが注視する注視点の情報(注視点及び注視点画像領域)を取得する。そして、探索窓算出部26は、時刻Aの注視点と時刻Bの注視点を含む所定範囲(探索窓)を特定し、追従判定部28は、時刻Aの画像の探索窓内の範囲と、時刻Bの画像の探索窓内の範囲とにおいて共通する対象が撮像されているか否かに基づいてドライバの視線が視認対象に追従しているか否かを判定する。
【選択図】図3
【解決手段】注視点画像領域推定部24が、時刻Aと時刻Bのそれぞれにおいてドライバが注視する注視点の情報(注視点及び注視点画像領域)を取得する。そして、探索窓算出部26は、時刻Aの注視点と時刻Bの注視点を含む所定範囲(探索窓)を特定し、追従判定部28は、時刻Aの画像の探索窓内の範囲と、時刻Bの画像の探索窓内の範囲とにおいて共通する対象が撮像されているか否かに基づいてドライバの視線が視認対象に追従しているか否かを判定する。
【選択図】図3
Description
本発明は、視線状態判定装置、視線状態判定プログラム及び視線状態判定方法
に関する。
に関する。
従来、視線状態を解析する技術として、視線検出装置にて測定した視線方向と、該視線方向を撮影している車載映像を用いて、ユーザが何を見ているかを特定する方法が知られている(例えば、特許文献1,2等参照)。
例えば、特許文献1では、自車走行時の視認対象及びその追従視を判定するために、視線方向を含む領域を撮影している車載カメラ映像を、視線検出装置で測定した視線方向を中心とする視野画像へと変換する。そして、視野画像内の視線方向近傍の文字を認識し、現在の位置から絞り込んだ屋外物体情報から該文字を保持する屋外物体を特定する。
また、特許文献2には、車載カメラの車載映像と視線検出装置にて測定した視線方向とを用いて視認対象及び追従視を判定するために、車載映像内の視線方向に該当する領域のオプティカルフローと、視線方向の変化を比較する。
しかしながら、上記特許文献1,2等の技術では、必ずしも同一の物体を追従視しているか否かを判断することができない可能性がある。例えば、特許文献1では、視認対象に文字等の特徴がない場合には、ユーザが視認する対象を判定するのが困難である。また、特許文献2では、映像を撮影するカメラ位置とユーザの視線位置が異なり、映像上の物体の動きと物体に追従する視線の動きが合致しなくなるような場合に対応することができない。
1つの側面では、本発明は、ユーザの視線の状態を精度よく判定することができる視線状態判定装置、視線状態判定プログラム及び視線状態判定方法を提供することを目的とする。
一つの態様では、視線状態判定装置は、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備えている。
一つの態様では、視線状態判定プログラムは、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、処理をコンピュータに実行させる視線状態判定プログラムである。
一つの態様では、視線状態判定方法は、第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、処理をコンピュータが実行する視線状態判定方法である。
ユーザの視線の状態を精度よく判定することができる。
以下、車載システムの一実施形態について、図1〜図19に基づいて詳細に説明する。図1には、一実施形態にかかる車載システム100の構成が概略的に示されている。図1の車載システム100は、移動体(例えば車)に搭載され、ユーザ(以下、ドライバと呼ぶ)の視線の状態を判定するシステムである。車載システム100は、図1に示すように、複数のカメラ10と、視線検出装置12と、車載センサ群14と、視線状態判定装置としての情報処理装置20と、を備える。
カメラ10は、車に搭載された周辺環境を撮影するカメラである。カメラの設置位置および画角による死角を削減し、ドライバの視認領域をカバーするよう、車内には複数のカメラが設置されていることが好ましいが、1つの広角カメラのみが設置されていてもよい。なお、本実施形態では、車にカメラ10が複数搭載されているものとする。なお、各カメラ10が車のどの位置に設置され、どの方向を撮像するかの情報は、後述するカメラ情報DB40(図3参照)にあらかじめ記憶されているものとする。
視線検出装置12は、既知の方式でドライバの視線方向を取得する。たとえば、視線検出装置12は、ドライバの顔を撮像できる車載カメラと、ドライバの眼に向けて発光するLEDライト等を用いてドライバの瞳孔反射からドライバの視線方向を推定するセンサとを有する。なお、視線検出装置12としては、視線方向を直接取得するのではなく、撮影したドライバの顔や頭の向きから視線方向を推定することとしてもよい。なお、視線方向は、左右の眼の視線方向それぞれを取得してもよいし、左右の眼の視線方向から1つの視線方向を特定してもよい。後者の場合、視線方向として、左右の眼それぞれの視線方向を用いた任意の方向、たとえば各視線方向の平均値を特定してもよい。また、基本的に左右の眼の視線方向を取得することとし、外光や振動、メガネの影響などから片眼の視線方向しか取得できない場合に片眼の視線方向のみを取得する、というように視線方向の取得数を随時変更するようにしてもよい。
車載センサ群14は、車に搭載された、走行中に各種データを取得するセンサ群であり、速度センサや、GPS(Global Positioning System)測位装置、降雨センサ、照度センサ、振動センサなどを含む。
情報処理装置20は、カメラ10、視線検出装置12、車載センサ群14から画像やデータを取得し、取得した画像やデータに基づいてドライバの視線の状態を判定する装置である。
図2は、情報処理装置20のハードウェア構成が概略的に示されている。この図2に示すように、情報処理装置20は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、入出力インタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら情報処理装置20の構成各部は、バス98に接続されている。情報処理装置20では、ROM92あるいはHDD96に格納されているプログラム(視線状態判定プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(視線状態判定プログラムを含む)をCPU90が実行することにより、図3に示す、各部の機能が実現される。
図3には、情報処理装置20の機能ブロック図が示されている。情報処理装置20のCPU90がプログラムを実行することで、図3に示すように、カメラ選定部22、取得部としての注視点画像領域推定部24、特定部としての探索窓算出部26、判定部としての追従判定部28、視認時間計算部30、必要視認時間決定部32、視認判定部34、およびわき見判定部36としての機能が実現されている。なお、図3には、HDD96等に格納されているカメラ情報DB40、地図DB42および対象画像特徴DB44も図示されている。
カメラ選定部22は、処理に用いるカメラ10を複数のカメラから選定する。具体的には、カメラ選定部22は、ドライバの視認状態を判定したい時刻に十分近い2つの時刻(第1の時刻および第2の時刻)で視線検出装置12が検知したドライバの視線方向と、各車載カメラの設置位置関係から、視差をそれぞれ求め、2つの時刻双方で最も視差が少ないカメラを選定する。この場合、カメラ選定部22は、カメラ情報DB40に格納されている情報を参照する。カメラ情報DB40には、複数のカメラ10それぞれの位置、ドライバの視点の位置等が格納されているものとする。
なお、カメラ選定部22は、2つの時刻を選定する場合、例えば視認状態を判定したい時刻が現在時刻ならば、現在より少し前の時刻と現在時刻、あるいは現在時刻と現在より少し後の時刻、というように選定する。なお、前者の場合、厳密には判定したい時刻以前の状態を、後者は判定したい時刻以後の状態を判定することとなる。
図4(a)、図4(b)には、視線方向に対するカメラの視差の算出方法を説明する図が示されている。図4(a)に示すように、カメラ選定部22は、ある時刻において、視線検出装置12で検出した視線方向(視線角Kの方向)にあり、任意に決定した距離(R)だけドライバ視点(E)から離れた場所に存在する視認対象(K1)を仮定し、視認対象(K1)とカメラ10の中心(C)を結ぶベクトルK1−Cを算出する。そして、カメラ選定部22は、ベクトルK1−Cと、視線検出装置12による視線方向ベクトルK1−Eとの成す角αKを求め、視差を成す角αKに比例した任意の値として算出する。図4(a)には、比較参考のため、別の2つの視線方向(視線角L,Mの方向)、視認対象(L1、M1)、及びなす角αL、αMを示している。また、図4(a)では、視認対象(K1、L1,M1)が視点から等距離(半径R)にあることを示すため、便宜的にドライバ視点Eを中心とする半径Rの円弧を記載している。なお、カメラ選定部22では、複数のカメラ10において、同時刻における視差を算出し、最も視差が小さいカメラ10をドライバの視線の状態を判定するために用いるカメラとして選定する。
なお、図4(a)は、ドライバ視点E及び視線方向がある時刻に対して1つの値である場合の算出方法を示しているが、例えば、左右眼の位置および左右眼の視線方向を取得できる場合には、カメラ選定部22は、それらに基づいて視差を算出することとしてもよい。この場合、図4(b)に示すように、左眼位置から左視線方向に延びる直線と、右眼位置から右視線方向に延びる直線との交点を視認対象K1の位置とすることができるので、図4(a)のように距離Rを使わずになす角を算出することができる。図4(b)の方法を採用した方が、図4(a)の方法より正確に視認対象の位置及び成す角を算出できる。ただし、左右両眼の視点位置及び視線方向が取得できない場合には活用できないため、2時刻での視線データの双方で、左右両眼に対する視点及び視線方向を取得できるときだけ図4(b)の方法を採用し、その他の場合には図4(a)の方法を採用することとしてもよい。
なお、図4(a)ではドライバ視点Eを中心として距離Rだけ離れた視認対象を仮定することとしているが、これに代えて、カメラ10の位置Cを中心とした距離Rの視認対象を求めてもよい。この場合、カメラ10の位置Cを中心とする半径Rの円弧を描き、視点から視線方向へ伸びる直線と円の交点を視認対象とする。なお、このようにすると、仮定する視認対象の位置(K1〜M1)が図4(a)とは若干異なるが、視差が最も小さいカメラを図4(a)の場合と同様に選定することが可能である。
なお、2時刻で最も視差が少ないカメラを選定するためには、例えば、各カメラで各時刻の視線との視差を求めておき、各時刻での視差の和、平均、最大、最小のいずれかの値を求めて、全カメラでその値の比較を行い、最も値が小さいカメラを選定することとすればよい。
なお、上述したカメラ選定方法は一例である。すなわち、例えば、視線に対して左側の視認対象を見ていることが検知された場合に、カメラ選定部22は、単純に、車の左側に設置されたカメラを選定するようにしてもよい。また、予めカメラ情報DB40において、ドライバの視線方向と、選定すべきカメラ10とを対応付けたテーブルを用意しておき、カメラ選定部22は、該テーブルに基づいてカメラ10を選定することとしてもよい。この場合、仮に、各時刻で選定されるカメラが異なった場合には、カメラ選定部22は、選定された2つのカメラについての視差だけを算出し、該視差に基づいてカメラを選定することとしてもよい。あるいは、カメラ選定部22は、あらかじめカメラの優先順位を決めておき、各時刻で選定されるカメラが異なった場合にはより優先順位の高いカメラを選定することとしてもよい。
なお、カメラ選定は、視線検出装置12の測定間隔、および、カメラ10の撮像間隔ごとに実施してもよいが、例えば、視線検出装置12の検出する視線方向が所定の閾値以上になったタイミングで実施することとしてもよい。あるいは、時間の経過とともに視線が頻繁に移動する場合には、選定されるカメラが頻繁に変わることを避けるため、カメラの選定を所定時間間隔で行ってもよい。なお、車にカメラが複数設けられていない場合には、カメラ選定部22を省略してもよい。
図3に戻り、注視点画像領域推定部24は、前述した2時刻それぞれにおける、視線検出装置12と選定されたカメラ10との位置関係から、視線検出装置12で検出された視線に対応する、選定されたカメラ10により撮像された画像(以下、「シーン画像」と呼ぶ)上の注視点を特定する。また、注視点画像領域推定部24は、特定された注視点の周辺に、任意の大きさの画像領域(以下、「注視点画像領域」と呼ぶ)を設定する。
図5(a)、図5(b)は、注視点画像領域の算出方法について示す模式図である。注視点画像領域推定部24は、幾何学的に、選定されたカメラ位置とカメラの撮像画角に基づいて定まる撮像範囲と、視点位置(図5(a)では左右眼の位置の中心として記載)とから視線方向に延びる直線の交点を注視点として算出する。そして、注視点画像領域推定部24は、図5(b)に示すように、算出した注視点を中心とし、誤差幅(R1,R2)の大きさを持つ領域を、シーン画像上の注視点画像領域とする。なお、注視点画像領域の形状は任意だが、簡単な形状、たとえば矩形等が計算の容易性等を考慮すると好ましい。
なお、図5(a)においては注視点画像領域の算出方法として、幾何学的な算出方法を示したが、これに限られるものではない。例えば、幾何学的に注視点画像位置を求める場合以外に、様々な視線方向を見たときのシーン画像上の画素位置の対応関係をキャリブレーション情報として事前取得しておき、それらの視線方向と画素位置の対応関係を用いて、任意視線方向に対する画素位置、すなわち注視点位置を特定してもよい。
ここで、注視点画像領域の大きさ(誤差幅R1、R2)は、例えば、視線検出装置12の測定誤差や測定誤差可能性の大きさに基づいて決定することができる。なお、測定誤差とは、視線検出装置12の測定性能及び視線検出装置12が出力する測定精度値を意味し、測定誤差可能性とは、測定結果を悪化させる要因の有無を意味する。測定結果を悪化させる要因としては、例えば、視線として両眼の視線を測定したかどうか、車載センサ群14に含まれる加速度センサの計測結果(加速度値等)、GPS測位装置の計測結果(走行位置)と地図DB42に格納されている地図情報等から凹凸の大きな走行路での走行を検知したかどうか、照光センサの検出結果から車外の輝度が明るく、逆光に近い環境であることを検知したかどうか、などが挙げられる。これらは、いずれも視線検出装置12で取得した視線データの精度が低くなると思われる状況である。注視点画像領域推定部24は、シーン画像上の注視点の周辺に、これらの視線検出装置12の測定誤差や測定誤差可能性が大きいほど、領域の大きさが大きくなるように注視点画像領域を決定する。なお、地図DB42には、現在位置の周辺状況を大まかに推定することが可能な地図情報が格納されている。地図情報としては、一般的なデジタル道路地図などを採用することができる。
なお、本実施形態では、注視点画像領域推定部24は、注視点画像領域の大きさを前述した視線検出装置12と選定されたカメラ10との間の視差に基づいて決定することとしてもよい。視線検出装置12と選定されたカメラの視差が大きいと、シーン画像上で視認対象が動く状況と、視線の移動により大きな乖離が発生しやすいため、注視点画像領域を計算する際に参照した、視線検出装置12の注視点位置に誤差があると、画像領域の位置決めに大きな誤差が発生しやすい。このため、画像領域の大きさとして、視線検出装置12の誤差以外に、視差の大きさも考慮して、視差の大きさが大きいほど、注視点画像領域を大きくするように決定してもよい。この結果、視差による誤差影響拡大を防ぐことができる。
さらに、注視点画像領域推定部24は、注視点画像領域の大きさを2時刻の視線方向の変化を用いて調整してもよい。たとえば、注視点画像領域推定部24は、2時刻の視線方向を比較して、視線の変化している方向の注視点画像領域を大きくするよう、2時刻のうちの後時刻での注視点画像領域を調整してもよい。同様に、注視点画像領域推定部24は、視線の変化している方向と逆の注視点画像領域を大きくするよう、2時刻のうちの前時刻における注視点画像領域を調整してもよい。図6では、この調整例について図示している。図6においては、斜め右への視線移動に対して、前時刻の注視点画像領域の左側、後時刻の注視点画像領域の右側を大きめに調整している。それぞれの拡大した大きさの幅は、例えば次式(1)、(2)から算出することができる。
前時刻の差分大きさ(左側)=k1×|移動方向の横成分| …(1)
後時刻の差分大きさ(右側)=k2×|移動方向の横成分| …(2)
ここで、k1,k2は任意パラメータである。
前時刻の差分大きさ(左側)=k1×|移動方向の横成分| …(1)
後時刻の差分大きさ(右側)=k2×|移動方向の横成分| …(2)
ここで、k1,k2は任意パラメータである。
なお、図6では説明の便宜上、左右方向に対してのみ大きさ調整を行う場合について説明したが、左右方向ではなく、斜め右の移動方向の縦成分を用いて、上下方向の調整を行ってもよい。また、左右方向の調整とともに上下方向の調整を行ってもよい。これにより、2時刻での実際の視線移動方向に合わせて、各時刻で誤差が発生しやすい部分の大きさを大きめにした注視点画像領域を設定することができるので、追従判定を精度よく行うことができる。
なお、注視点画像領域推定部24は、予め定められた大きさに基づいて注視点画像領域を推定してもよい。
図3に戻り、探索窓算出部26は、注視点画像領域推定部24にて推定した注視点画像領域(及び注視点)を含むシーン画像の領域を、追従判定部28におけるフロー算出に用いる探索窓として算出する。
探索窓算出部26は、2時刻で算出した各シーン画像内の注視点画像領域の双方を含む範囲を探索窓Lとする。図7には探索窓Lの算出例が示されている。たとえば、1時刻目と2時刻目における注視点画像領域が図7に示す領域であるとすると、探索窓算出部26は、両方の注視点画像領域を内包する十分大きな領域を探索窓Lとして設定する。なお、図7では、探索窓Lを2時刻の注視点画像領域の外接矩形とした例を示している。ただし、これに限らず、例えば、探索窓Lの大きさを、2時刻の注視点画像領域の外接形状の1.5倍程度の大きさ等としてもよい。このように、探索窓Lを大きめに確保すれば、誤差の影響をさほど受けずに、後述するフロー算出を行うことができる。
また、探索窓算出部26は、例えば、2時刻の視線変化方向から探索窓Lの大きさを調整してもよい。例えば、前述した注視点画像領域推定部24で視線方向の変化から各時刻の注視点画像領域を調整した場合(図6参照)と同様、図8(a)、図8(b)に示すように、探索窓を調整し、調整後の探索窓L1、L2を作成する。この場合、探索窓L1として、移動方向と反対側に前時刻(1時刻目)の注視点画像領域近傍を拡大する調整したものを作成し、探索窓L2として、移動方向と同じ側に後時刻(2時刻目)の注視点画像領域近傍を拡大したものを作成する。
その他、探索窓の大きさとして、選定されたカメラと視線検出装置12の位置関係から求めた視差の大きさに基づく大きさを採用することとしてもよい。ここで、視差が大きいと、2時刻でシーン画像上で視認対象が動く状況と視線の移動に、大きな乖離が発生しやすいため、画像領域の位置決めに大きな誤差が発生しやすい。したがって、視差が大きいときに探索窓の大きさを大きくとることで、誤差による後述するフロー算出の精度向上が期待できる。
追従判定部28は、探索窓算出部26が算出した探索窓L(又はL1,L2)を用いて、2時刻のシーン画像で注視点画像領域に対応する領域に最も合致する領域を探し、領域の移動ベクトルであるフロー(オプティカルフロー)を算出する。
図9、図10は、探索窓Lによるフロー算出の一例を示す。前提として、2時刻T1、T2で撮像された各シーン画像内で、各時刻での視線検出装置12の値を用いて、ドライバがどこを見たかを示す注視点画像領域と、それぞれにおける探索窓Lが算出されているとする。なお、図9(a)では、時刻T1における注視点画像領域を黒色矩形枠で示し、図9(b)では、時刻T2における注視点画像領域を白色矩形枠で示している。
このとき、追従判定部28は、時刻T1のシーン画像(図9(a)、図10(a))において、時刻T2の画像の一部である時刻T2における注視点画像領域(図9(b)の白色太線矩形領域)が、時刻T1のシーン画像の探索窓Lに対応する範囲(図10(a)の破線領域)内で最も類似する箇所を探す。そして、時刻T2の画像内での位置からの移動量を、フローF1として算出する。
同様に、時刻T2のシーン画像(図9(b)、図10(b))において、時刻T1の画像の一部である時刻T1の注視点画像領域(図9(a)の黒色太線矩形領域)が、時刻T2のシーン画像の探索窓Lに対応する範囲(図10(b)の破線領域)内で最も類似する箇所を探す。そして、時刻T1の画像内での位置からの移動量をフローF2として算出する。なお、フローF1、F2のいずれか一方のみを算出してもよい。
なお、上記フロー算出処理は、時刻T1の画像の探索窓Lに対応する範囲と、時刻T2の画像の探索窓Lに対応する範囲とにおいて共通する対象が撮像されているか否かを特定しているともいえる。また、フローF2を算出する処理は、時刻T1の画像における時刻T1の注視点に対応する範囲(注視点画像領域)の画像と類似する画像が時刻T2の画像の探索枠Lに対応する範囲に存在しているかを特定しており、フローF1を算出する処理は、時刻T2の画像における時刻T2の注視点に対応する範囲(注視点画像領域)の画像と類似する画像が時刻T1の画像の探索枠Lに対応する範囲に存在しているかを特定しているといえる。
なお、追従判定部28は、注視点画像領域が最も類似する範囲を探す場合、探索窓L内において1画素ずつ注視点画像領域を移動させる。そして、追従判定部28は、各位置で注視点画像領域の各画素と対応する探索窓L内の各画素の輝度差を求め、それらの総和が最小となったときの注視点画像領域の位置を、最も類似する箇所とする。ただし、輝度差の総和の最小値が規定値を超えている場合には、フロー算出できなかったとみなす。
図11、図12には、フロー算出ができない場合の例が示されている。なお、図11(a)では、時刻T1における注視点画像領域を黒色矩形枠で示し、図11(b)では、時刻T2における注視点画像領域を白色矩形枠で示している。追従判定部28は、時刻T1のシーン画像(図11(a)、図12(a))において、時刻T2の画像の一部である時刻T2における注視点画像領域(白色太線矩形領域)が、時刻T1のシーン画像の探索窓Lに対応する範囲(図12(a)の破線領域)内で最も類似するところを探す。また、追従判定部28は、時刻T2のシーン画像(図11(b)、図12(b))において、時刻T1の画像の一部である時刻T1の注視点画像領域(黒色太線矩形領域)が、時刻T2のシーン画像の探索窓Lに対応する範囲(図12(b)の破線領域)内で最も類似するところを探す。図12(b)の場合、探索窓L内に時刻T1の注視点画像領域と類似する箇所がないため、フローF2を算出できないことになる。
なお、上記例では、2時刻の探索窓が共通である場合について説明したが、図8(a)、図8(b)のように、2時刻に対して異なる探索窓L1,L2を算出した場合には、各時刻の探索窓L1,L2を利用する。すなわち、前時刻の注視点画像領域と同じ画像領域を後時刻の画像内から探すときの探索窓には図8(a)に示す探索窓L1を用い、後時刻の注視点画像領域と同じ画像領域を前時刻の画像内から探す時の探索窓には図8(b)に示す探索窓L2を用いればよい。
追従判定部28は、更に、算出したフローの情報等に基づいて、ドライバの追従視を判定する。図13は、追従判定部28による追従判定の一例を示した図である。
図13(b)は、図13(a)のように時刻T1、T2、…、T7で画像が撮影される場合における、前後する2時刻(時刻ペア:T1とT2、T2とT3、…T6とT7)の各画像、算出対象、フロー算出結果を示す表である。図13(b)においては、2時刻のペアごとに、2種類のフロー算出結果が得られる。両方ともフロー算出ができた場合(例えば、T2&T3、T6&T7)、追従判定部28は、追従判定を追従中(○)とする。また、一方のみフロー算出ができた場合(例えば、T1&T2、T5&T6)、追従判定部28は、やや判断精度が低いか、追従対象の変更を始める予兆があるとみなし、追従中である(△)と判定する。また、両方ともフロー算出できなかった場合(例えば、T3&T4、T4&T5)、追従判定部28は、追従していない(ドライバの追従対象が変化した)(×)と判定する。
なお、上記においては、追従判定部28は、各時刻ペアにおけるフロー算出判定結果を用いて、ドライバの追従視を判定する場合について説明したが、これに限られるものではない。追従判定部28は、より多くの時刻、より長い時間のフロー算出結果を用いてドライバの追従視を判定してもよい。
図14には、図13(b)の2倍の時間長さのフロー算出結果を用いて追従視を判定する例が示されている。例えば、T1&T2のペアから2つのフロー算出結果、T2&T3のペアから2つのフロー算出結果を取得し、合計4つのフロー算出結果を用いて、フロー算出できた確率(3/4)に基づいて、追従視していたかどうかを判定する。フロー算出できた確率が3/4であれば、追従判定値(図14では、算出率と表記)は75%となる。ここで、追従中と見做す際の追従判定値の閾値を例えば0.25としておくと、T1〜T3における追従判定値は0.75(>0.25)なので、追従判定部28は、追従中(追従視あり)と判定する。
同様にして、T2〜T4では、追従判定値が0.5であり、T5〜T7では、追従判定値が0.75であるので、追従判定部28は、各時間において追従中と判定する。一方で、T3〜T5、T4〜T6では、追従判定値がそれぞれ0、0.25であり、判定閾値以下であるので、追従判定部28は追従中は判定しない。このように、フロー算出の時間長さを長くしても追従判定を行うことができる。なお、視線検出装置12などの突発的な誤差(スパイクノイズなど)を丸めるためには、フロー算出の時間長さを長くして追従判定をした方がよい。
図3に戻り、視認時間計算部30は、追従判定部28で判定した各時刻の追従判定結果を用いて、連続してどれくらい追従しているかどうか、すなわち追従連続時間(視認対象を視認した時間)を推定計算する。
視認時間計算部30は、追従連続時間を、例えば、1回でも追従判定で追従していないと判定された時点を追従終了時点とみなして算出する。なお、視認時間計算部30は、複数回続けて追従していないと判断された時点を追従終了時点とみなしてもよい。前者では、より細かい追従の切れ目が把握できるという利点がある。また、後者では、視線検出装置12等の誤差の影響を受けにくいという利点がある。
図13(b)において、例えば、1回および2回以上、追従してないと判定された時点を追従終了とみなす場合には、T3〜T6の近傍で追従連続時間が途切れることとなる。一方で、3回以上追従していないという判定された時点で追従終了とみなす場合には、図13(b)ではT1〜T7まで、追従連続時間が途切れることはない。
なお、視認時間計算部30は、例えば、追従対象変更(途切れ)が発生した場合には、途切れている間の全時刻を視認時間として加算しないようにしてもよい。この場合、図13(b)の例では、T3&T4とT4&T5の2ペア、T4&T5とT5&T6の2ペアの2つで追従対象変更とされたため、T3〜T5は追従の連続時間の加算から外し、T1〜T2までの連続時間と、T7から先の連続時間を算出する。
あるいは、視認時間計算部30は、追従開始時を追従判定において×から○又は△になった二時刻のうち遅い方(図13(b)のT5&T6の場合、T6)、追従終了時を○又は△から×になった二時刻のうち早い方(図13(b)のT3&T4の場合、T3)としてもよい。この場合、T4〜T5のみが、追従中と判断するのに用いられなかった時刻なので、T1〜T3、T6〜T7が連続追従時間として算出される。
なお、視認時間計算部30は、図13(b)のT7より後の時刻、及びT1よりも前の時刻においても連続視認時間を計算する。
必要視認時間決定部32は、現在の視認対象を視認するのに必要な時間(必要視認時間)を算出する。この時間は、すべての視認対象に対して一律であってもよいし、視認対象によって値を変更しても構わない。
例えば、より車の側方にある視認対象に対しては、道路周辺物の可能性が高く、通常は車前方を視認しているところから視線移動して把握を行う必要がある。このため、視認対象が側方に近い場合には、より視認に時間がかかると見做して、視認対象が車前方にある場合よりも必要視認時間を長めに設定しても構わない。現在の視認対象が側方にあるか否かは、例えば、視線データの視線方向と車の前方との成す角度が大きいか否かで判断できる。
さらに、必要視認時間決定部32は、例えば、注視点画像領域および、その近傍周辺画像の任意画像領域内の画素変化の大きさが大きい場合に、必要視認時間をより長い時間としてもよい。この場合、画素変化として、例えば、注視点画像領域内の画素輝度分散値を用いることができる。視認対象周辺に様々な物体が存在する場合には、画素の変化が大きいと考えられるため、より物体が多くて視認対象を把握するのが難しい。このため、視認に必要な時間を長めにすることで、より確実な視認推定判断ができる。なお、この画素変化は、2時刻の両方の時刻の画素変化を用いてもよいし、どちらか片方の時刻の画素変化を用いてもよい。
さらに、必要視認時間決定部32は、車載センサ群14から取得した、各時刻の天候や、車の現在位置および現在位置と地図DB42から推定できる周辺状況などによって、必要視認対象時間を変動させてもよい。たとえば、雨天や照度の低い時刻は視認がしにくい、繁華街などの周辺に物体が多い場所は視認しにくい、車が高速移動中は側方の物体(沿道の物体)は視認しにくい、などを考慮して、必要視認時間を設定してもよい。
視認判定部34は、視認時間計算部30で視認対象ごとに計算した連続追従時間と、必要視認時間決定部32で計算した各対象に対する必要視認時間とに基づいて、対象を確実に視認できたかどうかを判定する。すなわち、ある時間以上の連続追従時間だった場合には、対象を視認できたと判断する。
なお、視認判定部34は、厳密に時間比較をするのではなく、多少の時間推定誤差を勘案して、連続追従時間がやや短めでも視認していたと判断してもよい。また、視認判定部34は、時間だけでなく、その時の視線データの詳しい内容を用いて、さらに精密な判断を行ってもよい。例えば、2時刻間で測定される視線データ群の移動速度が閾値以上を占めているデータの割合を算出し、割合が大きい場合には、より判定時間を長めにとっても構わない。図15に示すように、例えば、視線データを移動速度の大きさによって3つの視線、サッカード、スムースパーシュート、固視に分別する。ここで、最も移動速度が大きい視線が、超高速な移動(跳び)を引き起こす眼球運動によるサッカードという視線である。また、低速移動する視認対象がある場合のみ発生し、ゆるやかな低速視線移動となるのがスムースパーシュートである。更に、厳密には非常に高速な微細振動を行うが大まかにはほぼ固定した視線であるのが固視である。視線データの移動速度が大きい場合は、視認している対象を認識するのが困難なサッカードである可能性が高い。したがって、視認判定部34は、サッカードに属する視線データが多い場合には判定時間を長めにとることで、視線データが実際に認識しているのかを勘案した視認状況の判断が可能となる。
わき見判定部36は、視認判定部34で判定した、各視認対象ごとの視認有無を活用し、わき見をしているか否かを判断する。例えば、車の側方に存在する視認対象を視認しているが、車の前方に存在する視認対象を長時間視認していない場合には、わき見判定部36は、わき見発生の可能性が高いと判断する。
このほかに、視認すべき対象物の画像特徴を対象画像特徴DB44においてあらかじめ保持しておき、わき見判定部36は、それらと違う視認対象への長時間視認が発生した場合にわき見と判断してもよい。例えば、高速道路などの視認対象があらかじめ限定できる環境では、標識や先行車、などの大まかな視認すべき対象をあらかじめ用意しておくことが可能である。このようにすることで、よりわき見の判断を正確に実施することができる。
次に、カメラ選定部22、注視点画像領域推定部24、探索窓算出部26、追従判定部28、必要視認時間決定部32による処理の一例について、図16〜図18のフローチャートに沿って説明する。なお、既に説明した各部の処理の詳細については、省略するものとする。
図16のステップS10では、カメラ選定部22が、HDD96等に判定開始時刻として現在時刻を記録する。次いで、ステップS12では、カメラ選定部22が、(現在時刻−判定開始時刻)が2時刻の規定時間M以上になったか否かを判断する。ここでの判断が否定された場合には、ステップS14に移行し、カメラ選定部22は、現在時刻を更新した後、ステップS12に戻る。一方、ステップS12の判断が肯定された場合には、ステップS16に移行する。
ステップS16に移行すると、カメラ選定部22は、判定回数を0とする。次いで、ステップS18では、カメラ選定部22が、必要視認時間を規定初期値Tとし、2時刻の算出結果保存数N=T/Mを算出する。
次いで、ステップS20では、カメラ選定部22が、2時刻として、時刻A(現在時刻−規定時刻M)、時刻B(現在時刻)を決定し、判定回数を1インクリメントする。次いで、ステップS22では、カメラ選定部22が、時刻A、Bにおいてカメラ10が撮像した画像、視線データ、車載センサ群14のデータを取得する。
次いで、ステップS24では、カメラ選定部22が、視線方向変化が閾値以上になったか又はカメラ未選定であるか否かを判断する。ここでの判断が肯定された場合には、ステップS26に移行し、カメラ選定部22は、複数のカメラから、1つのカメラを選定し、図17のステップS28に移行する。一方、ステップS24の判断が否定された場合には、ステップS26を経ずに、図17のステップS28に移行する。
図17のステップS28に移行すると、注視点画像領域推定部24は、視線検出装置12と選定されたカメラ10の位置関係から注視点を特定する(図5(a)参照)。次いで、ステップS30では、注視点画像領域推定部24が、注視点画像領域の大きさを決定する。次いで、ステップS32では、注視点画像領域推定部24が、注視点画像領域を算出する(図5(b)、図6参照)。
次いで、ステップS34では、探索窓算出部26が、探索窓を算出する(図7参照)。次いで、ステップS36では、探索窓算出部26が、探索窓を調整する(図8(a)、図8(b)参照)。次いで、ステップS38では、追従判定部28が、時刻Aにおいて撮影された画像でフローを算出する(図10(a)、図12(a)参照)。次いで、ステップS40では、追従判定部28が、時刻Bにおいて撮影された画像でフローを算出する(図10(b)、図12(b)参照)。次いで、ステップS42では、追従判定部28が、フロー算出結果をHDD96等に保存する。その後は、図18のステップS44に移行する。
図18のステップS44に移行すると、必要視認時間決定部32が、必要視認時間が規定初期値Tであるか否かを判断する。このステップS44の判断が肯定された場合には、ステップS46に移行し、必要視認時間決定部32が、時刻Bの注視点画像領域内の輝度分散が閾値以上であるか否かを判断する。このステップS46の判断が否定されると、ステップS48に移行し、必要視認時間決定部32が、時刻Bで、高速走行、雨天、繁華街走行が検知できるか否かを判断する。このステップS48の判断が否定されると、ステップS50に移行し、必要視認時間決定部32が、時刻AB間の視線センサ群のデータに占めるサッカード視線の割合が閾値以上であるか否かを判断する。このステップS50の判断が否定されると、ステップS54に移行する。一方、ステップS44の判断が否定された場合、ステップS46、S48,S50の判断が肯定された場合には、ステップS52において、必要視認時間決定部32が、必要視認時間を長めに補正し、補正後の必要視認時間T’/規定時間Mから2時刻の算出結果保存数Nを補正し、N’とする。その後は、ステップS54に移行する。
ステップS54に移行すると、追従判定部28は、現在の判定回数が、現在の2時刻の算出結果保存数N(N’)を超えたか否かを判断する。このステップS54の判断が否定された場合には、図16のステップS20に戻るが、肯定された場合には、ステップS56に移行する。
ステップS56に移行すると、追従判定部28は、保存しているすべての2時刻に対し、(フロー算出できた数/全時刻数)の算出率を求める(図14)。
次いで、ステップS58では、追従判定部28が、算出数が閾値を超えたか否かを判断する。このステップS58の判断が肯定された場合には、追従判定部28は、ステップS60に移行し、時刻AB間で追従視が続行中であると判断し、図16のステップS16に戻る。一方、ステップS58の判断が否定された場合には、ステップS62において、追従判定部28が、時刻AB間で追従視が終了したと判断する。その後は、図16のステップS16に戻る。
なお、視認時間計算部30、視認判定部34、わき見判定部36は、図16〜図18の処理の結果得られる情報を用いて、上述した処理を実行する。
以上、詳細に説明したように、本実施形態によると、注視点画像領域推定部24が、時刻A(1時刻目)と時刻B(2時刻目)のそれぞれにおいてドライバが注視する注視点の情報(注視点及び注視点画像領域)を取得する。そして、探索窓算出部26は、時刻Aの注視点と時刻Bの注視点を含む所定範囲(探索窓L)を特定し、追従判定部28は、時刻Aの画像の探索窓L内の範囲と、時刻Bの画像の探索窓L内の範囲とにおいて共通する対象が撮像されているか否かに基づいてドライバの視線が視認対象に追従しているか否かを判定する。これにより、例えば、図19に示すように、ドライバ視点とカメラに視差があり、視認対象が移動した場合の視線方向の変化ベクトルと、画像上での視認対象の移動ベクトルがほぼ反対向きになるような場合であっても、ドライバの視線が対象に追従しているか否かを精度よく判定することができる。また、本実施形態によれば、路肩静止物以外の物体をドライバが追従視している場合にも、物体の動きを考慮しつつ、ドライバの追従視の有無を精度よく判定することができる。
また、本実施形態では、追従判定部28は、時刻A(1時刻目)の画像における時刻Aの注視点に対応する範囲の画像と類似する画像が時刻B(2時刻目)の画像の探索窓Lの範囲に存在しているか、及び時刻Bの画像における時刻Bの注視点に対応する範囲の画像と類似する画像が時刻Aの画像の探索窓Lの範囲に存在しているか、に基づいて、ドライバの視線が視認対象に追従しているかを判定する。これにより、いずれか一方に基づいて判定する場合よりも、注視点画像領域や探索窓Lの誤差等による影響を受けずに、ドライバの視線が視認対象に追従しているかを精度よく判定することができる。
また、本実施形態では、車に搭載されている複数のカメラとドライバ視点との視差を考慮して、最適なカメラを選定するため、この点からもドライバの視線が視認対象に追従しているかを精度よく判定することができる。また、最適なカメラを選定することにより、カメラの死角による判定精度の低下を抑制することもできる。
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備える視線状態判定装置。
(付記2) 前記判定部は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記1に記載の視線状態判定装置。
(付記3) 前記判定部は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記1又は2に記載の視線状態判定装置。
(付記4) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータに実行させる視線状態判定プログラム。
(付記5) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記4に記載の視線状態判定プログラム。
(付記6) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記4又は5に記載の視線状態判定プログラム。
(付記7)
第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータが実行する視線状態判定方法。
(付記8) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記7に記載の視線状態判定方法。
(付記9) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記7又は8に記載の視線状態判定方法。
(付記1) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備える視線状態判定装置。
(付記2) 前記判定部は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記1に記載の視線状態判定装置。
(付記3) 前記判定部は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記1又は2に記載の視線状態判定装置。
(付記4) 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータに実行させる視線状態判定プログラム。
(付記5) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記4に記載の視線状態判定プログラム。
(付記6) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記4又は5に記載の視線状態判定プログラム。
(付記7)
第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータが実行する視線状態判定方法。
(付記8) 前記判定する処理は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする付記7に記載の視線状態判定方法。
(付記9) 前記判定する処理は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする付記7又は8に記載の視線状態判定方法。
20 情報処理装置(視線状態判定装置)
24 注視点画像領域推定部(取得部)
26 探索窓算出部(特定部)
28 追従判定部(判定部)
24 注視点画像領域推定部(取得部)
26 探索窓算出部(特定部)
28 追従判定部(判定部)
Claims (5)
- 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得する取得部と、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定する特定部と、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とにおいて共通する対象が撮像されているか否かに基づいてユーザの視線の状態を判定する判定部と、を備える視線状態判定装置。 - 前記判定部は、前記第1の時刻の画像における前記第1の時刻の注視点に対応する範囲の画像と類似する画像が前記第2の時刻の画像の前記所定範囲に対応する範囲に存在しているか、及び/又は前記第2の時刻の画像における前記第2の時刻の注視点に対応する範囲の画像と類似する画像が前記第1の時刻の画像の前記所定範囲に対応する範囲に存在しているか、に基づいて、ユーザの視線の状態を判定することを特徴とする請求項1に記載の視線状態判定装置。
- 前記判定部は、ユーザの視線が前記対象を追従しているか否かを判定することを特徴とする請求項1又は2に記載の視線状態判定装置。
- 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータに実行させる視線状態判定プログラム。 - 第1の時刻と該第1の時刻から所定時間経過した第2の時刻のそれぞれにおいてユーザが注視する注視点の情報を取得し、
前記第1の時刻の注視点と前記第2の時刻の注視点を含む所定範囲を特定し、
前記第1の時刻の画像の前記所定範囲に対応する範囲と、前記第2の時刻の画像の前記所定範囲に対応する範囲とに、共通する対象が存在するか否かに基づいてユーザの視線の状態を判定する、
処理をコンピュータが実行する視線状態判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014095122A JP2015211741A (ja) | 2014-05-02 | 2014-05-02 | 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014095122A JP2015211741A (ja) | 2014-05-02 | 2014-05-02 | 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015211741A true JP2015211741A (ja) | 2015-11-26 |
Family
ID=54696428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014095122A Withdrawn JP2015211741A (ja) | 2014-05-02 | 2014-05-02 | 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015211741A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019129461A (ja) * | 2018-01-26 | 2019-08-01 | キヤノン株式会社 | 被写体認識装置 |
JP2020113066A (ja) * | 2019-01-11 | 2020-07-27 | 株式会社Jvcケンウッド | 映像処理装置、映像処理方法、およびプログラム |
JP2020170375A (ja) * | 2019-04-04 | 2020-10-15 | 国立大学法人京都工芸繊維大学 | 注視対象物同一性判定装置および注視対象物同一性判定プログラム |
-
2014
- 2014-05-02 JP JP2014095122A patent/JP2015211741A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019129461A (ja) * | 2018-01-26 | 2019-08-01 | キヤノン株式会社 | 被写体認識装置 |
JP7030545B2 (ja) | 2018-01-26 | 2022-03-07 | キヤノン株式会社 | 被写体認識装置 |
JP2022066266A (ja) * | 2018-01-26 | 2022-04-28 | キヤノン株式会社 | 被写体認識装置 |
JP7358530B2 (ja) | 2018-01-26 | 2023-10-10 | キヤノン株式会社 | 被写体認識装置及び被写体認識装置の制御方法 |
JP2020113066A (ja) * | 2019-01-11 | 2020-07-27 | 株式会社Jvcケンウッド | 映像処理装置、映像処理方法、およびプログラム |
JP7275586B2 (ja) | 2019-01-11 | 2023-05-18 | 株式会社Jvcケンウッド | 映像処理装置および映像処理方法 |
JP2020170375A (ja) * | 2019-04-04 | 2020-10-15 | 国立大学法人京都工芸繊維大学 | 注視対象物同一性判定装置および注視対象物同一性判定プログラム |
JP7287624B2 (ja) | 2019-04-04 | 2023-06-06 | 国立大学法人京都工芸繊維大学 | 注視対象物同一性判定装置および注視対象物同一性判定プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10796171B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
US10204277B2 (en) | Electronic device, traveling lane identifying system, and traveling lane identifying method | |
EP3864491B1 (en) | Method for hmd camera calibration using synchronised image rendered on external display | |
JP6292054B2 (ja) | 運転支援装置、方法、及びプログラム | |
US8452528B2 (en) | Visual recognition area estimation device and driving support device | |
JP6092527B2 (ja) | ユーザ凝視データに基づいた時空間データのセグメント化 | |
WO2019061079A1 (zh) | 一种对焦处理方法及设备 | |
KR101716928B1 (ko) | 차량 카메라의 영상 처리 방법 및 이를 이용하는 영상 처리 장치 | |
WO2012169149A1 (en) | Image display apparatus and image display method | |
US9098750B2 (en) | Gradient estimation apparatus, gradient estimation method, and gradient estimation program | |
JP2014181927A (ja) | 情報提供装置、及び情報提供プログラム | |
US10733774B2 (en) | Device and method of displaying heat map on perspective drawing | |
US11473921B2 (en) | Method of following a vehicle | |
KR20180129044A (ko) | 차량 운전 보조 장치 및 이의 안전 운전 유도 방법 | |
TW201929210A (zh) | 半導體裝置、攝影系統及程式 | |
JP2015211741A (ja) | 視線状態判定装置、視線状態判定プログラム及び視線状態判定方法 | |
JP2018005839A (ja) | 画像処理装置および画像処理方法 | |
TWI799000B (zh) | 資訊顯示方法及其處理裝置與顯示系統 | |
JP2013109639A (ja) | 画像処理装置、サーバ、携帯端末装置、及び画像処理方法 | |
JP2009146153A (ja) | 移動体検出装置、移動体検出方法および移動体検出プログラム | |
JP7275586B2 (ja) | 映像処理装置および映像処理方法 | |
US20130142388A1 (en) | Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus | |
JP2007218655A (ja) | ナビゲーション装置 | |
JP2018073049A (ja) | 画像認識装置、画像認識システム、及び画像認識方法 | |
JP5935661B2 (ja) | 交差点案内システム、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170206 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20171225 |