JP5460691B2 - 注視対象判定装置及び注視対象判定方法 - Google Patents

注視対象判定装置及び注視対象判定方法 Download PDF

Info

Publication number
JP5460691B2
JP5460691B2 JP2011502157A JP2011502157A JP5460691B2 JP 5460691 B2 JP5460691 B2 JP 5460691B2 JP 2011502157 A JP2011502157 A JP 2011502157A JP 2011502157 A JP2011502157 A JP 2011502157A JP 5460691 B2 JP5460691 B2 JP 5460691B2
Authority
JP
Japan
Prior art keywords
event
gaze
line
user
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011502157A
Other languages
English (en)
Other versions
JPWO2010143377A1 (ja
Inventor
幸太郎 坂田
茂則 前田
竜 米谷
宏彰 川嶋
高嗣 平山
隆司 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011502157A priority Critical patent/JP5460691B2/ja
Publication of JPWO2010143377A1 publication Critical patent/JPWO2010143377A1/ja
Application granted granted Critical
Publication of JP5460691B2 publication Critical patent/JP5460691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定装置に関する。
一般的に、ユーザの視線方向から得られる画面上の注視位置と画面上に表示されたオブジェクトの位置とを比較することにより、ユーザが注視しているオブジェクト(以下、適宜、単に「注視対象」と記載)が判定される。視線方向を検出する方法には、例えば、LED(Light Emitting Diode)により目に照射された近赤外光が角膜で反射された光源像(プルキニエ像)と瞳孔の位置とを利用して視線方向を推定する角膜反射法がある。さらに、視線方向を検出する方法には、眼球中心と虹彩中心とを結ぶ三次元ベクトルが視線方向であると仮定して、ビデオカメラにより撮像されたユーザの画像から三次元眼球モデル等を用いて視線方向を検出する方法(例えば、非特許文献1を参照)等もある。
しかしながら、前者の角膜反射法では、赤外光を目領域に照射する必要があるため、視線の検出範囲が赤外光を照射できる範囲の近傍に限られる。そのため、角膜反射法では、視線方向を検出することができる、ユーザの姿勢あるいは立ち位置が制限されてしまう。
また、後者の非特許文献1に記載の方法では、眼球中心位置あるいは眼球半径等を直接計測することは不可能であるので、顔特徴点を用いることにより眼球中心位置あるいは眼球半径等のパラメータがモデル化される。三次元眼球モデルを用いて視線方向を推定する場合、ユーザが自由な姿勢あるいは立ち位置を取れるという利点がある。一方で、ユーザに対するキャリブレーションの誤差又は顔特徴点検出の誤差から、眼球中心及び虹彩中心を結ぶ線と実際の視線との間には比較的大きな誤差が生じるという欠点もある。この誤差の低減を目的として、視点の異なる複数台カメラを利用して視線検出の精度の向上を図る方法も提案されている。しかしながら、この種の方法では、依然として視線方向の推定精度がそれほど高くないという問題点が存在する。
このように、ユーザがある程度自由な姿勢をとる場合には、推定された視線方向には比較的大きな誤差が発生する。そこで、高精度に注視対象を判定するために、視線方向から得られる注視位置とオブジェクトの表示位置とを直接比較するのではなく、画面上のオブジェクトの変化に対する視線の追従性に着目するアプローチが考えられる(例えば、特許文献1又は特許文献2を参照)。
特許文献1に記載の注目判定装置は、視線が画面に向けられたとき、画面に表示されている提示情報Qを移動させる。そして、注目判定装置は、検出される視線の移動方向と提示情報Qの移動方向とが一致する場合、視線が提示情報Qの移動に追従したと判定する。
特許文献2に記載の運転者状態判定装置は、運転者に対して視覚的な刺激を与える。さらに、運転者状態判定装置は、その視覚的な刺激を与える位置を移動させたときの運転者の視線方向、視線滞留時間、及び視線軌跡の検出結果から、運転者が運転に適した状態であるか否かを判定する。
特許第4203279号公報 特開2006−158740号公報
山添大丈、内海章、米澤朋子、安部伸治:「三次元眼球モデルを利用した単眼カメラによる遠隔視線推定」画像の認識・理解シンポジウム(MIRU2008)、pp.1650−1655、2008
しかしながら、上記従来の構成では、1つのオブジェクトの動きに対する視線の追従性を判定しているだけなので、複数のオブジェクトが移動などの変化をした場合に、ユーザの視線の反応が、どのオブジェクトの変化に対応したものかわからないという課題を有していた。
そこで、本発明は、上記従来の課題を解決するものであって、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを高精度に判定することができる注視対象判定装置を提供することを目的とする。
上記目的を達成するために、本発明の一態様に係る注視対象判定装置は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定装置であって、オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定部と、ユーザの視線方向を検出する視線方向検出部と、前記視線方向検出部によって検出された視線方向に基づいて、視線方向の時系列データである視線軌跡を算出する視線軌跡算出部と、前記視線軌跡算出部によって算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出部と、前記眼球運動イベント検出部によって検出されたイベント検出時刻と、前記イベント設定部によって提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析部と、前記同期構造分析部によって算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定部とを備える。
この構成により、イベント検出時刻とイベント発生時刻との時間差に基づいてユーザの注視対象を判定できるので、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを高精度に判定することができる。また、注視位置ではなく、視線方向の動きを利用して注視対象を判定しているので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。
また、前記注視対象判定部は、基準時間差以上であって、かつ、前記基準時間差に最も近い時間差が算出されたオブジェクトを、ユーザが注視しているオブジェクトとして判定することが好ましい。
この構成により、滑らかな眼球運動においてオブジェクトの動きに眼球が追従するまでに要する時間である潜時未満の時間差が検出されたオブジェクトが注視対象として判定されることを除外できるので、さらに高精度に注視対象を判定することが可能となる。
また、前記提示イベントは、前記視線方向検出部による視線方向の検出誤差よりも大きな視線方向の動きを誘発することが好ましい。
この構成により、視線検出の誤差によって誤って注視対象が判定されることを抑制することができるので、さらに高精度に注視対象を判定することが可能となる。
また、前記提示イベントは、前記オブジェクトの少なくとも一部の移動を示し、前記眼球運動イベント検出部は、前記提示イベントが示す移動の軌跡との類似性に基づいて、前記イベント検出時刻を検出することが好ましい。
この構成により、オブジェクトの移動軌跡と視線方向の動きとに基づいて注視対象を判定することができるので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。
また、前記提示イベントは、移動方向の変化をともなう移動を示し、前記イベント設定部は、前記各オブジェクトの少なくとも一部を往復運動させることにより、前記提示イベントを発生させることが好ましい。
この構成により、特徴的な移動軌跡を用いて視線軌跡からイベント検出時刻を検出できるので、イベント検出時刻の検出精度を向上させることができる。その結果、高精度に注視対象を判定することが可能となる。
また、前記提示イベントは、前記オブジェクトの少なくとも一部の水平方向の移動を示すことが好ましい。
この構成により、垂直方向よりも水平方向の方が視線の動きが検出されやすいという人の目の特性を利用して、さらに高精度に注視対象を判定することが可能となる。
また、前記提示イベントは、前記オブジェクトを注視しているユーザに、予め定められた速度以上の視線方向の動きを誘発し、前記眼球運動イベント検出部は、前記視線軌跡算出部によって算出された視線軌跡から、視線方向の動きが前記予め定められた速度以上となる時刻を前記イベント検出時刻として検出することが好ましい。
この構成により、視線方向が動く速さに基づいて注視対象を判定することができるので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。
また、前記複数のオブジェクトのそれぞれは文字列を含み、前記提示イベントは、前記文字列を読むために前記オブジェクトを注視しているユーザに前記予め定められた速度以上の視線方向の動きを誘発し、前記イベント設定部は、前記文字列に含まれる文字を、ユーザが読むことが不可能な表示状態である不可読状態からユーザが読むことが可能な表示状態である可読状態へ変化させることにより、前記提示イベントを発生させることが好ましい。
この構成により、文字列を読むためにオブジェクトを注視しているユーザの注視対象を高精度に判定することが可能となる。
また、前記提示イベントは、前記文字列に含まれる先頭文字の、不可読状態から可読状態への変化を示し、前記イベント設定部は、前記文字列に含まれる文字を可読状態から不可読状態へ読み順に変化させた後に、前記文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させることが好ましい。
この構成により、文字列を読むためにオブジェクトを注視しているユーザに与える違和感を抑制しつつ、提示イベントを発生させることが可能となる。
また、前記提示イベントは、前記文字列に含まれる先頭文字の、不可読状態から可読状態への変化を示し、前記イベント設定部は、前記文字列に含まれる文字を、不可読状態から可読状態へ変化させ、さらに可読状態から不可読状態へ変化させることを読み順に実行した後に、前記文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させることが好ましい。
この構成により、文字列を読むためにオブジェクトを注視しているユーザに与える違和感を抑制しつつ、提示イベントを発生させることが可能となる。
また、前記提示イベントは、前記文字列において文字間隔が大きくなる変化を示し、前記イベント設定部は、前記オブジェクト内を通過するように前記文字列を一方向に移動させるとともに、前記文字列において文字間隔が直前の文字間隔よりも大きくなるように変化させることにより、前記提示イベントを発生させることが好ましい。
この構成により、文字列を読むためにオブジェクトを注視しているユーザに与える違和感を抑制しつつ、提示イベントを発生させることが可能となる。
また、前記提示イベントは、前記文字列に含まれる行頭文字の、不可読状態から可読状態への変化を示し、前記イベント設定部は、複数行にわたる前記文字列に含まれる文字を読み順に不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させることが好ましい。
この構成により、文字列を読むためにオブジェクトを注視しているユーザに与える違和感を抑制しつつ、提示イベントを発生させることが可能となる。
また、前記イベント設定部は、前記オブジェクトを前記予め定められた速度以上の移動速度で移動させることにより、前記提示イベントを発生させることが好ましい。
この構成により、オブジェクトの移動に視線方向の動きが同期することを利用して、ユーザの注視対象を高精度に判定することが可能となる。
また、本発明の一態様に係る集積回路は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する集積回路であって、オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定部と、ユーザの視線方向を検出する視線方向検出部と、前記視線方向検出部によって検出された視線方向に基づいて、画面上におけるユーザの視線方向の時系列データである視線軌跡を算出する視線軌跡算出部と、前記視線軌跡算出部によって算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出部と、前記眼球運動イベント検出部によって検出されたイベント検出時刻と、前記イベント設定部によって提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析部と、前記同期構造分析部によって算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定部とを備える。
この構成により、上記注視対象判定装置と同様の効果を奏することができる。
また、本発明の一態様に係る注視対象判定方法は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定方法であって、オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定ステップと、ユーザの視線方向を検出する視線方向検出ステップと、前記視線方向検出ステップにおいて検出された視線方向に基づいて、画面上におけるユーザの視線方向の時系列データである視線軌跡を算出する視線軌跡算出ステップと、前記視線軌跡算出ステップにおいて算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出ステップと、前記眼球運動イベント検出ステップにおいて検出されたイベント検出時刻と、前記イベント設定ステップにおいて提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析ステップと、前記同期構造分析ステップにおいて算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定ステップとを含む。
これにより、上記注視対象判定装置と同様の効果を奏することができる。
なお、本発明は、注視対象判定方法に含まれる各ステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc Read Only Memory)等の記録媒体あるいはインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
本発明の一態様に係る注視対象判定装置によれば、イベント検出時刻とイベント発生時刻との時間差に基づいてユーザの注視対象を判定できるので、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを高精度に判定することができる。
図1は、本発明の実施の形態における注視対象判定装置の機能構成を示すブロック図である。 図2は、本発明の実施の形態における注視対象判定処理の流れを示すフローチャートである。 図3Aは、本発明の実施の形態における視線方向検出処理において取得される画像を撮像する撮像装置を説明するための図である。 図3Bは、本発明の実施の形態における視線方向検出処理において取得される画像を撮像する撮像装置を説明するための図である。 図4は、本発明の実施の形態における視線方向検出処理の流れを示すフローチャートである。 図5は、本発明の実施の形態における視線方向検出処理において顔向きを検出する処理を説明するための図である。 図6は、本発明の実施の形態における視線方向基準面の算出について説明するための図である。 図7は、本発明の実施の形態における黒目中心の検出について説明するための図である。 図8は、本発明の実施の形態における黒目中心の検出について説明するための図である。 図9Aは、本発明の実施の形態における画面に表示されたオブジェクトの配置例を示す図である。 図9Bは、本発明の実施の形態における画面に表示されたオブジェクトの配置例を示す図である。 図10は、本発明の実施の形態におけるイベント検出時刻検出処理を説明するための図である。 図11は、本発明の実施の形態における同期構造分析処理及び注視対象判定処理を説明するための図である。 図12は、本発明の実施の形態の変形例1におけるオブジェクトの配置例を示す図である。 図13は、本発明の実施の形態の変形例1における同期構造分析処理及び注視対象判定処理を説明するための図である。 図14は、本発明の実施の形態の変形例2における画面上に表示されるオブジェクトの配置例を示す図である。 図15は、本発明の実施の形態の変形例2における提示イベントの一例を示す図である。 図16は、本発明の実施の形態の変形例3における画面上に表示されるオブジェクトの配置例を示す図である。 図17は、本発明の実施の形態の変形例3における提示イベントの一例を示す図である。 図18は、本発明の実施の形態の変形例4における画面上に表示されるオブジェクトの配置例を示す図である。 図19は、本発明の実施の形態の変形例4における提示イベントの一例を示す図である。 図20は、本発明の実施の形態の変形例5における画面上に表示されるオブジェクトの配置例を示す図である。 図21は、本発明の実施の形態の変形例5における提示イベントの一例を示す図である。 図22は、本発明の実施の形態の変形例6における画面上に表示されるオブジェクトの配置例を示す図である。 図23は、本発明の実施の形態の変形例6における提示イベントの一例を示す図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
一般に、ユーザの眼球運動は、ユーザが注視するオブジェクトの動きに追従する。そのため、ユーザが注視するオブジェクトの動きとユーザの眼球運動との間には、時間的な同期構造が存在する。この同期構造を分析することによって、ユーザがどのオブジェクトを注視しているか否かを判定できる。同期構造を分析するためには、視線方向の検出誤差が大きな場合にも、検出されやすい眼球運動を発生させるように、オブジェクトを動かす又は変化させる必要がある。
以下において、上記のような視線方向の検出誤差が大きな場合にも検出されやすい眼球運動を発生させる、オブジェクトの少なくとも一部の特徴的な動き及び変化の少なくとも一方を提示イベント(イベント)と呼ぶことにする。なお、オブジェクトの少なくとも一部の変化とは、オブジェクトの少なくとも一部の形、大きさ、輝度又は色などの変化に加えて、オブジェクトの少なくとも一部が出現すること又は消滅することを含む。
図1は、本発明の実施の形態における注視対象判定装置の機能構成を示すブロック図である。
注視対象判定装置10は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する。ここで、オブジェクトとは、画面に表示される表示要素又は表示要素の集合を意味する。
図1に示すように、注視対象判定装置10は、視線方向検出部11と、視線軌跡算出部12と、イベント設定部13と、眼球運動イベント検出部14と、同期構造分析部15と、注視対象判定部16とを備える。
視線方向検出部11は、ユーザの視線方向を検出する。つまり、視線方向検出部11は、ユーザが見ている方向を検出する。
視線軌跡算出部12は、視線方向検出部11によって検出された視線方向に基づいて、視線方向の時系列データである視線軌跡を算出する。つまり、視線軌跡算出部12は、視線方向検出部11によって検出された視線方向に基づいて、視線方向の動きを示す視線軌跡を算出する。
具体的には、視線軌跡算出部12は、例えば、画面上におけるユーザの注視位置の移動軌跡を視線軌跡として算出する。この場合、視線軌跡算出部12は、視線方向とユーザの位置とを利用して、ユーザから視線方向に伸びる直線と画面との交点を注視位置として算出する。そして、視線軌跡算出部12は、このように算出された注視位置の移動軌跡を視線軌跡として算出する。なお、ユーザの位置は、例えば、ステレオカメラなどによって撮影されたステレオ画像におけるユーザ像の視差を利用して検出されればよい。また例えば、ユーザ位置は、画面の前方の床面に設置された圧力センサによって検出される圧力を利用して検出されてもよい。
イベント設定部13は、画面上の複数のオブジェクトそれぞれに対して、開始時刻が異なる提示イベントを設定する。つまり、イベント設定部13は、画面上に表示された複数のオブジェクトのそれぞれに対して互いに異なる時刻に提示イベントを発生させる。
ここで、提示イベントとは、上述したように、オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す。また、提示イベントは、オブジェクトを注視しているユーザに対して視線方向の動きを誘発する。言い換えると、提示イベントは、オブジェクトを注視しているユーザに対して眼球の動きを誘発する。具体的には、提示イベントは、オブジェクトを注視しているユーザに対して注視位置の移動を誘発する。
眼球運動イベント検出部14は、視線軌跡算出部12が算出した視線軌跡から、提示イベントにあらかじめ対応付けられた視線軌跡テンプレートと相関の高い区間を抽出する。視線軌跡テンプレートは、提示イベントを注視した際に生起する確率が高い視線軌跡である。
つまり、眼球運動イベント検出部14は、視線軌跡算出部12によって算出された視線軌跡から、提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する。具体的には、眼球運動イベント検出部14は、注視位置の移動軌跡を示す時間区間の開始時刻をイベント検出時刻として検出する。
より具体的には、眼球運動イベント検出部14は、提示イベントが示す移動の軌跡との類似性に基づいて、イベント検出時刻を検出する。さらにより具体的には、眼球運動イベント検出部14は、視線軌跡算出部12によって算出された視線軌跡から、提示イベントが示すオブジェクトの移動軌跡と類似する注視位置の移動軌跡を示す時間区間(イベント検出区間)を検出することにより、イベント検出時刻を検出する。
同期構造分析部15は、各オブジェクトの提示イベントの開始時刻と眼球運動イベント検出部14が検出した区間の開始時刻との時間差を、各オブジェクトの提示イベントへの視線の同期度として判定する。
つまり、同期構造分析部15は、検出されたイベント検出時刻と、イベント発生時刻との時間差を、オブジェクトごとに算出する。ここで、イベント発生時刻とは、イベント設定部13によって提示イベントが発生させられている時刻である。つまり、イベント発生時刻とは、オブジェクトの少なくとも一部が、提示イベントが示す移動又は変化をしている時刻である。なお、本実施の形態では、提示イベントが発生している時間区間であるイベント発生区間の開始時刻がイベント発生時刻に相当する。
注視対象判定部16は、同期度が高いオブジェクトをユーザの注視対象と判定する。つまり、注視対象判定部16は、同期構造分析部15によって算出された時間差に基づいて、複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する。
次に、以上のように構成された注視対象判定装置10における各種動作について説明する。
図2は、本発明の実施の形態における注視対象判定処理の流れを示すフローチャートである。
まず、イベント設定部13は、各オブジェクトに対して互いに異なる時刻に提示イベントを発生させる(S101)。
このとき、視線方向検出部11は、ユーザの視線方向を検出する(S102)。続いて、視線軌跡算出部12は、検出された視線方向に基づいて視線軌跡を算出する(S103)。
なお、ステップS101と、ステップS102及びS103との処理は、並行して行われてもよい。
そして、眼球運動イベント検出部14は、算出された視線軌跡からイベント検出時刻を検出する(S104)。続いて、同期構造分析部15は、イベント検出時刻とイベント発生時刻との時間差を算出する(S105)。
最後に、注視対象判定部16は、算出された時間差に基づいて、複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する(S106)。
以上のように、注視対象判定装置10は、複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する。
以下に、上記の注視対象判定処理に含まれる各処理について、図面を用いてさらに詳細に説明する。
まず、視線方向を検出する視線方向検出処理(S102)の詳細について説明する。
本実施の形態において、視線方向は、ユーザの顔の向き(以下、「顔向き」と記載)と、ユーザの顔向きに対する目の中の黒目部分の方向(以下、「黒目方向」と記載)との組み合わせを基に計算される。そこで、視線方向検出部11は、まず人物の三次元の顔向きを推定する。次に、視線方向検出部11は、黒目方向の推定を行う。最後に、視線方向検出部11は、顔向き及び黒目方向の2つを統合して視線方向を計算する。
なお、視線方向検出部11は、必ずしも、顔向きと黒目方向との組み合わせを基に視線方向を計算しなくてもよい。例えば、視線方向検出部11は、眼球中心と虹彩(黒目)中心とに基づいて視線方向を計算してもよい。つまり、視線方向検出部11は、眼球中心の三次元位置と虹彩(黒目)中心の三次元位置とを結ぶ三次元ベクトルを視線方向として計算してもよい。
図3A及び図3Bは、本発明の実施の形態における視線方向検出処理において取得される画像を撮像する撮像装置を説明するための図である。図3A又は図3Bに示すように、撮像装置は、画面の前方に位置するユーザを撮像可能なように、画面の近傍に設置される。
図4は、本発明の実施の形態における視線方向検出処理の流れを示すフローチャートである。
まず、視線方向検出部11は、撮像装置が画面の前方に存在するユーザを撮像した画像を取得する(S501)。続いて、視線方向検出部11は、取得された画像から顔領域の検出を行う(S502)。次に、視線方向検出部11は、検出された顔領域に対し、各基準顔向きに対応した顔部品特徴点の領域を当てはめ、各顔部品特徴点の領域画像を切り出す(S503)。
そして、視線方向検出部11は、切り出された領域画像と、あらかじめ保持されたテンプレート画像の相関度を計算する(S504)。続いて、視線方向検出部11は、各基準顔向きが示す角度を、計算された相関度の比に応じて重み付けして加算した重み付け和を求め、これを検出した顔領域に対応するユーザの顔向きとして検出する(S505)。
図5は、本発明の実施の形態における視線方向検出処理において顔向きを検出する処理を説明するための図である。
視線方向検出部11は、図5の(a)に示すように、各基準顔向きに対応した顔部品特徴点の領域を記憶している顔部品領域DBから、顔部品特徴点の領域を読み出す。続いて、視線方向検出部11は、図5の(b)に示すように、撮影された画像の顔領域に対し顔部品特徴点の領域を基準顔向きごとに当てはめ、顔部品特徴点の領域画像を基準顔向きごとに切り出す。
そして、視線方向検出部11は、図5の(c)に示すように、切り出された領域画像と、顔部品領域テンプレートDBに保持されたテンプレート画像との相関度を基準顔向きごとに計算する。また、視線方向検出部11は、このように計算された相関度が示す相関度合いの高さに応じて、基準顔向きごとの重みを算出する。例えば、視線方向検出部11は、基準顔向きの相関度の総和に対する各基準顔向きの相関度の比を重みとして算出する。
続いて、視線方向検出部11は、図5の(d)に示すように、基準顔向きが示す角度に、算出された重みを乗算した値の総和を計算し、計算結果をユーザの顔向きとして検出する。
図5の(d)の例では、基準顔向き+20度に対する重みが「0.85」、正面向きに対する重みが「0.14」、−20度に対する重みが「0.01」であるので、視線方向検出部11は、顔向きを16.8度(=20×0.85+0×0.14+(−20)×0.01)と検出する。
なお、図5では、視線方向検出部11は、顔部品特徴点の領域画像を対象として相関度を計算したが、これには限らない。例えば、視線方向検出部11は、顔領域全体の画像を対象として相関度を計算してもよい。
また、顔向きを検出するその他の方法としては、顔画像から目・鼻・口などの顔部品特徴点を検出し、顔部品特徴点の位置関係から顔向きを計算する方法がある。
顔部品特徴点の位置関係から顔向きを計算する方法としては、1つのカメラから得られた顔部品特徴点に最も一致するように、あらかじめ用意した顔部品特徴点の三次元モデルを回転・拡大縮小してマッチングし、得られた三次元モデルの回転量から顔向きを計算する方法がある。
また、顔部品特徴点の位置関係から顔向きを計算する他の方法としては、2台のカメラにより撮影された画像を基にステレオ視の原理を用いて、左右のカメラにおける顔部品特徴点位置の画像上のずれから各顔部品特徴点の三次元位置を計算し、得られた顔部品特徴点の位置関係から顔向きを計算する方法がある。具体的には、例えば、両目及び口の三次元座標点で張られる平面の法線方向を顔向きとして検出する方法などがある。
図4のフローチャートの説明に戻る。
視線方向検出部11は、撮像装置によって撮像されたステレオ画像を用いて、ユーザの左右の目頭の三次元位置を検出し、検出した左右の目頭の三次元位置を用いて視線方向基準面を算出する(S506)。続いて、視線方向検出部11は、撮像装置によって撮像されたステレオ画像を用いて、ユーザの左右の黒目中心の三次元位置を検出する(S507)。そして、視線方向検出部11は、視線方向基準面と左右の黒目中心の三次元位置とを用いて、黒目方向を検出する(S508)。
そして、視線方向検出部11は、検出されたユーザの顔向きと黒目方向とを用いて、ユーザの視線方向を検出する(S509)。
次に、黒目方向を検出する方法の詳細について、図6〜図8を用いて説明する。
本実施の形態では、視線方向検出部11は、まず、視線方向基準面を算出する。続いて、視線方向検出部11は、黒目中心の三次元位置を検出する。そして最後に、視線方向検出部11は、黒目方向を検出する。
まず、視線方向基準面の算出について説明する。
図6は、本発明の実施の形態における視線方向基準面の算出について説明するための図である。
視線方向基準面とは、黒目方向を検出する際に基準となる面のことであり、図6に示すように顔の左右対称面と同一である。なお、目頭の位置は、目尻、口角、又は眉など他の顔部品に比べて、表情による変動が少なく、また誤検出が少ない。そこで、視線方向検出部11は、顔の左右対称面である視線方向基準面を目頭の三次元位置を用いて算出する。
具体的には、視線方向検出部11は、撮像装置であるステレオカメラで撮像した2枚の画像(ステレオ画像)のそれぞれにおいて、顔検出モジュールと顔部品検出モジュールとを用いて、左右の目頭領域を検出する。そして、視線方向検出部11は、検出した目頭領域の画像間の位置のずれ(視差)を利用して、左右の目頭それぞれの三次元位置を計測する。さらに、視線方向検出部11は、図6に示すように、検出した左右の目頭の三次元位置を端点とする線分の垂直二等分面を視線方向基準面として算出する。
次に、黒目中心の検出に関して説明する。
図7及び図8は、本発明の実施の形態における黒目中心の検出について説明するための図である。
対象物からの光が瞳孔を通って網膜に届き電気信号に変換され、その電気信号が脳に伝達されることにより、人は対象物を視覚的に認識する。したがって、瞳孔の位置を用いれば、視線方向を検出することができる。しかし、日本人の虹彩は、黒又は茶色であるので、画像処理によって瞳孔と虹彩とを判別することが難しい。そこで、本実施の形態では、瞳孔の中心と黒目(瞳孔及び虹彩の両方を含む)の中心とがほぼ一致することから、視線方向検出部11は、黒目方向を検出する際に、黒目中心の検出を行う。
視線方向検出部11は、まず、撮影された画像から目尻と目頭との位置を検出する。そして、視線方向検出部11は、図7のような、目尻と目頭とを含む領域から輝度が小さい領域を、黒目領域として検出する。具体的には、視線方向検出部11は、例えば、輝度が所定閾値以下なる領域であって、所定の大きさよりも大きい領域を黒目領域として検出する。
次に、視線方向検出部11は、図8のような、第1領域と第2領域とからなる黒目検出フィルタを黒目領域の任意の位置に設定する。そして、視線方向検出部11は、第1領域内の画素の輝度と第2領域内の画素の輝度との領域間分散が最大となるような黒目検出フィルタの位置を探索し、探索結果が示す位置を黒目中心として検出する。最後に、視線方向検出部11は、上記と同様に、ステレオ画像における黒目中心の位置のずれを利用して、黒目中心の三次元位置を検出する。
さらに、黒目方向の検出について説明する。
視線方向検出部11は、算出した視線方向基準面と、検出した黒目中心の三次元位置とを用いて、黒目方向を検出する。成人の眼球直径は、ほとんど個人差がないことが知られており、例えば日本人の場合約24mmである。したがって、基準となる方向(例えば正面)を向いたときの黒目中心の位置が分かっていれば、そこから現在の黒目中心の位置までの変位を求めることで黒目方向に変換算出することができる。
ユーザが正面を向いたときは、左右の黒目中心の中点が顔の中心、すなわち視線方向基準面上に存在することを利用して、視線方向検出部11は、左右の黒目中心の中点と視線方向基準面との距離を算出することにより、黒目方向を検出する。
具体的には、視線方向検出部11は、眼球半径Rと左右の黒目中心を結んだ線分の中点と視線方向基準面との距離dとを用いて、式(1)に示すように、顔向きに対する左右方向の回転角θを黒目方向として検出する。
Figure 0005460691
以上のように、視線方向検出部11は、視線方向基準面と黒目中心の三次元位置とを用いて、黒目方向を検出する。そして、視線方向検出部11は、検出された顔向きと黒目方向とを用いて、実空間におけるユーザの視線方向を検出する。
なお、視線方向の検出方法は、角膜反射法、EOG(Electrooculography)法、サーチコイル法及び強膜反射法など多種多様な方法がある。したがって、視線方向検出部11は、必ずしも上述した方法によって視線方向を検出する必要はない。例えば、視線方向検出部11は、角膜反射法を用いて、視線方向を検出してもよい。
角膜反射法は、点光源照明を角膜に照射した際に明るく現れる角膜反射像(プルキニエ像)の位置をもとに、眼球運動を計測する手法である。眼球回転中心と角膜の凸面の中心とが一致しないため、角膜を凸面鏡とし光源の反射点を凸レンズなどで集光すると、この集光点は眼球の回転にともなって移動する。この点を撮像装置で撮影することで、眼球運動を計測するものである。
次に、視線軌跡からイベント検出時刻を検出するイベント検出時刻検出処理(S104)と同期構造分析処理(S105)と注視対象判定処理(S106)との詳細について説明する。
図9A及び図9Bは、本発明の実施の形態における画面に表示されたオブジェクトの配置例を示す図である。
図9A及び図9Bに示すように、本実施の形態における注視対象判定装置10は、1以上の画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する。すなわち、図9Aに示すように、注視対象判定装置10は、1つの画面上に表示された複数のオブジェクトのうちユーザが注視しているオブジェクトを判定する。または、図9Bに示すように、注視対象判定装置10は、複数の画面(画面A及び画面B)上のいずれかに表示されている複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する。
なお、図9A及び図9Bでは、画面上に表示されるオブジェクトの数は2つであり、そのどちらのオブジェクトを注視しているかを判定するという単純化された状況が示されている。また、第1及び第2のオブジェクトは縦に並べて表示され、かつ、第1及び第2のオブジェクトの移動方向は水平方向のみである。これは、垂直方向の動きよりも水平方向の動きの方が視線方向の検出精度が向上するためである。
なお、このオブジェクトの数、配置及び動きは、一例にすぎないのは勿論のことである。つまり、オブジェクトの数は2つより多くてもよい。また、オブジェクトは、例えば横もしくは斜めに並べて、またはランダムな位置に表示されてもよい。また、オブジェクトの移動方向は、垂直方向又は斜め方向などであってもよい。
図10は、本発明の実施の形態におけるイベント検出時刻検出処理を説明するための図である。また、図11は、本発明の実施の形態における同期構造分析処理及び注視対象判定処理を説明するための図である。
ここで、画面上に表示されるコンテンツを構成するN個のオブジェクトに対して、各オブジェクトの時刻tにおける2次元平面上の重心位置を
Figure 0005460691
とおく。さらに、これらのオブジェクトが非常に似かよった動きとして、小さな時間差で同一の動きをする場合を考える。すなわち、第iのオブジェクトの水平方向の動きx(t)は、ある連続関数x(t)を用いて、式(2)のように表される。
Figure 0005460691
ここで、d、bはそれぞれ第iのオブジェクトの動きx(t)のx(t)に対する時間差及び位置の差を表す。
また、オブジェクトの動きx(t)を決定する際には、以下の点に留意することが好ましい。
(1)オブジェクトの動く領域
オブジェクトの動く領域が小さすぎる場合には、眼球運動が小さくなり視線方向の検出の計測誤差に埋もれてしまう可能性がある。そのため、例えば、視線方向検出部11の検出誤差が、例えば50mmであれば、それ以上の幅でオブジェクトを動かすことが好ましい。
つまり、提示イベントは、視線方向検出部11による視線方向の検出誤差よりも大きな視線方向の動きを誘発することが好ましい。すなわち、提示イベントは、視線方向検出部11による視線方向の検出誤差に起因する注視位置の誤差よりも大きな注視位置の移動を誘発することが好ましい。つまり、イベント設定部13は、視線方向の検出誤差に起因する注視位置の誤差よりも大きく各オブジェクトを移動させることにより、提示イベントを発生させることが好ましい。
(2)オブジェクトの動く速さ
一般に、滑らかに動くオブジェクトに対して視線が追従できる速さは、2〜40[度/sec]であると言われている。このことは、非特許文献2(日本視覚学会:「視覚情報処理ハンドブック」、朝倉書店、2000)に示されている。
これらの点を考慮し、オブジェクトの動きx(t)として、例えば、式(3)で表される正弦波を採用することができる。
Figure 0005460691
ここで、θはオブジェクト間の位相差として表される時間差である。
また、例えば、50インチの画面の前方に、ユーザが画面から約1m離れた位置にいる場合、一設定例として、振幅a=162.0[mm]、周期T=3.67[sec]とすることができる。
つまり、本実施の形態では、イベント設定部13は、オブジェクトを水平方向に往復運動させる。なお、イベント設定部13は、必ずしもオブジェクトを水平方向に往復運動させる必要はなく、垂直方向又は斜め方向などに往復運動させてもよい。
視線方向検出部11によって検出された視線方向に基づいて、視線軌跡算出部12によって算出される、画面上におけるユーザの注視位置の座標系列である注視座標系列をxgaze(t)と表せば、ユーザがあるオブジェクトを注視している場合、xgaze(t)にはユーザが注視しているオブジェクトの動きが反映されると考えられる。この注視座標系列は視線軌跡に相当する。
ところで、一般的にユーザの姿勢や立ち位置の自由さを許容した注視対象判定では、xgaze(t)に比較的大きな計測誤差が存在する。そのため、その誤差に埋もれてしまうようなオブジェクトの動きはユーザの眼球運動から検出することができない。
そこで、オブジェクトの動きx(t)に対して、ある時間区間における特徴的なオブジェクトの動きを提示イベントとして定義する。ここで、オブジェクトの動きx(t)に対して提示イベントの軌跡e(t)は、式(4)のように表される。
Figure 0005460691
ここで、tstartはイベント発生時刻であり、teventはイベント発生区間の時間長である。
そして、図10の(b)に示すように、イベント設定部13によって、提示イベントの軌跡e(t)が、各オブジェクトにおいて[tstart+d,tstart+d+tevent]の時間区間(第1のイベント発生区間102及び第2のイベント発生区間103)に発生されられる。ここで、tstart+dによって定義される時刻を、各オブジェクトにおけるイベント発生時刻と呼ぶ。この提示イベントは、眼球運動の計測誤差の大きい場合であっても、検出しやすい眼球の動きを誘発する。つまり、提示イベントは、視線方向検出部11による視線方向の検出誤差に起因する注視位置の誤差よりも大きな注視位置の移動を誘発する。
提示イベントの一例としては、並進運動の折り返し等の動きが挙げられる。すなわち、オブジェクトを水平方向に往復させることで折り返しの動きを持たせ、その折り返しの動きの近傍の動きを提示イベントとして定義する。つまり、提示イベントは、移動方向の変化をともなう移動を示す。より具体的には、提示イベントは、移動方向の反転をともなう移動を示す。
ユーザが提示イベントを目で追うことで、注視座標系列xgaze(t)には、提示イベントの軌跡e(t)に類似した特徴が現れる。そこで、ユーザがイベントを目で追った時に表れると想定される視線軌跡を視線軌跡テンプレートと呼ぶことにすると、眼球運動イベント検出部14は、注視座標系列xgaze(t)と視線軌跡テンプレートとの相関をとることで、図10の(c)に示すように、注視座標系列xgaze(t)において、イベント検出区間104を抽出する。そして、眼球運動イベント検出部14は、抽出したイベント検出区間104の開始時刻を、注視対象の提示イベントに眼球運動が追従しはじめたイベント検出時刻Tとして検出する。以下、適宜、時刻Tのことを眼球運動におけるイベント発生時刻とも呼ぶ。
なお、ここでは、図10の(a)に示すように、視線軌跡テンプレート101として、提示イベントの軌跡e(t)を採用する。
そうすると、眼球運動におけるイベント発生時刻Tは、注視座標系列xgaze(t)と視線軌跡テンプレート(イベントの軌跡)e(t)との相関度を算出することによって次式(5)のとおり求められる。
Figure 0005460691
ここで、corrは正規化相互相関関数であり、式(6)によって表される。
Figure 0005460691
ここで、xgaze(t)とe(t)の各々の平均値は、下記の記号を用いている。
Figure 0005460691
このように、眼球運動イベント検出部14は、提示イベントが示す移動の軌跡との類似性に基づいて、イベント検出時刻を検出する。より具体的には、眼球運動イベント検出部14は、提示イベントが示す移動の軌跡との類似性を示す相関度を視線軌跡の各時間区間において算出し、最も類似性が高いことを示す相関度が得られる時間区間の開始時刻をイベント検出時刻として検出する。
そして、図11に示すように、同期構造分析部15は、各オブジェクトにおけるイベント発生時刻tstart+dと眼球運動におけるイベント発生時刻Tとの同期構造を分析する。つまり、同期構造分析部15は、イベント検出時刻Tとイベント発生時刻tstart+dとの時間差をオブジェクトごとに算出する。
そして、注視対象判定部16は、算出された時間差に基づいて、複数のオブジェクトの中からユーザの注視対象を判定する。
ここで、各オブジェクトに対して、そのオブジェクトがユーザの注視対象であるか否かを判別するための評価値Vを導入する。ユーザがあるオブジェクトの動きを目で追っているのであれば、そのオブジェクトにおけるイベント発生時刻と眼球運動におけるイベント発生時刻は同期すると考えられる。したがって、各オブジェクトにおけるイベント発生時刻tstart+dと眼球運動におけるイベント発生時刻Tとの時間差を用いて、評価値Vを次式(7)のように定義する。つまり、同期構造分析部15は、各オブジェクトについて、イベント検時刻Tとイベント発生時刻tstart+dとの時間差を評価値Vとして算出する。
Figure 0005460691
例えば、図11では、同期構造分析部15は、イベント検出時刻Tと、第1のオブジェクトのイベント発生時刻tstart+dとの時間差を評価値Vとして算出する。また、同期構造分析部15は、イベント検出時刻Tと、第2のオブジェクトのイベント発生時刻tstart+dとの時間差を評価値Vとして算出する。
ここで、ユーザが所定の時間、画面内の注視対象を変化させずに1つのオブジェクトを注視し続ける状況を考える。この場合、イベント設定部13は、注視対象判定を行う時間区間に全オブジェクトに対して、提示イベントが1回発生するように、オブジェクトを移動させればよい。そして、同期構造分析部15は、各オブジェクトの評価値Vを比較することで、各オブジェクトの提示イベントに対する視線(眼球運動)の同期度合いを示す同期度を判定することができる。
今、第kのオブジェクトが注視対象であれば、評価値Vは他のオブジェクトの評価値に比べて小さくなる。すなわち、第kのオブジェクトが注視対象であれば、下式(8)が成立する。
Figure 0005460691
したがって、注視対象判定部16は、上式(8)に基づいて、第kのオブジェクトが視線の同期度が最も高いと判定でき、第kのオブジェクトをユーザの注視対象と判定できる。
つまり、注視対象判定部16は、最も小さい時間差が算出されるオブジェクトをユーザが注視しているオブジェクトとして判定する。例えば、図11では、注視対象判定部16は、第1のオブジェクトの時間差を示す評価値Vよりも第2のオブジェクトの時間差を示す評価値Vの方が小さいので、第2のオブジェクトを注視対象として判定する。
以上のように、本実施の形態における注視対象判定装置10は、画面上の各オブジェクトに対して、互いに異なる時刻に所定の提示イベントを発生させたときに算出される視線軌跡から、提示イベントにあらかじめ対応付けられた視線軌跡テンプレートと相関の高い時間区間の開始時刻をイベント検出時刻として検出する。さらに、注視対象判定装置10は、各オブジェクトのイベント発生時刻とイベント検出時刻との時間差に基づいて、ユーザの注視対象を判定する。そのため、画面上の複数のオブジェクトの中からユーザの注視対象を精度良く判定することができる。
つまり、注視対象判定装置10は、イベント検出時刻とイベント発生時刻との時間差に基づいてユーザの注視対象を判定できるので、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを高精度に判定することができる。
さらに、注視対象判定装置10は、複数のオブジェクトに対して、提示イベントを互いに異なる時刻に発生させればよいので、複数のオブジェクトに対して、同一の提示イベントを発生させることが可能となる。したがって、注視対象判定装置10は、画面に表示されている複数のオブジェクトの動きなどの調和が図られた状態で、注視対象を判定することができる。
また、注視対象判定装置10は、注視位置ではなく、視線方向の動きを利用して注視対象を判定しているので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。具体的には、注視対象判定装置10は、例えば、オブジェクトの移動軌跡と注視位置の移動軌跡とに基づいて注視対象を判定することができるので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。
また、注視対象判定装置10は、視線方向の検出誤差よりも大きな視線方向の動きを誘発する提示イベントを用いて注視対象を判定する。したがって、注視対象判定装置10は、視線検出の誤差によって誤って注視対象が判定されることを抑制することができるので、さらに高精度に注視対象を判定することが可能となる。
また、注視対象判定装置10は、オブジェクトの水平方向の移動を提示イベントとして発生させることにより、垂直方向よりも水平方向の方が視線の動きが検出されやすいという人の目の特性を利用して、さらに高精度に注視対象を判定することが可能となる。
そして、このように高精度に注視対象が判定されることを利用して、注視対象判定装置10は、例えば、ユーザの嗜好を推定するためのデータベースを作成することも可能となる。さらに、注視対象判定装置10は、例えば、高精度に判定された注視対象に関する情報などをさらに表示させるなどにより、ユーザの利便性を向上させることもできる。
なお、本実施の形態において、視線方向検出部11は、眼球中心と虹彩中心とを結ぶ三次元ベクトルが視線方向であると仮定して、カメラで撮像されたユーザの画像から、三次元眼球モデル等を用いて視線方向を検出した。しかし、視線方向検出部11は、LEDにより近赤外光を目に照射し、角膜で反射された光源像(プルキニエ像)と瞳孔の位置から視線方向を推定する瞳孔角膜反射法等の方法などを用いて視線方向を検出してももちろんよい。
また、本実施の形態において、イベント検出時刻は、イベント検出区間の開始時刻であったが、必ずしも開始時刻である必要はない。例えば、イベント検出時刻は、イベント検出区間の中央値であってもよい。この場合、イベント発生時刻も、イベント発生区間の中央値となる。
また、本実施の形態において、イベント設定部13は、複数のオブジェクトのすべてに対して、同一の提示イベントを発生させていたが、必ずしもすべてのオブジェクトに対して同一の提示イベントを発生させる必要はない。例えば、イベント設定部13は、第1及び第2のオブジェクトに対して第1の提示イベントを互いに異なる時刻に発生させ、第3及び第4のオブジェクトに対して第1の提示イベントとは異なる第2の提示イベントを互いに異なる時刻に発生させてもよい。この場合であっても、注視対象判定装置10は、高精度に注視対象を判定することができる。
また、本実施の形態では、視線軌跡が注視座標系列である場合について説明したが、視線軌跡は必ずしも注視座標系列である必要はない。つまり、視線軌跡は、視線方向の動きを示せばよく、必ずしも注視位置の動きを示す必要はない。例えば、ユーザの頭部運動があまりない(ほとんど無視できる)場合、視線軌跡は、黒目中心位置の移動軌跡であってもよい。この場合であっても、眼球運動イベント検出部14は、提示イベントに対応する黒目中心位置の動きを示す時刻をイベント検出時刻として検出することができる。つまり、注視対象判定装置は、注視位置ではなく、視線方向の動きを利用して注視対象を判定することができるので、高精度に注視対象を判定することができる。なお、ユーザがある程度頭部を動かす場合には、視線軌跡は、眼球運動及び頭部運動の両者の影響を考慮できる注視座標系列であることが好ましい。
以上、本発明の一態様に係る注視対象判定装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施した形態も、本発明の範囲内に含まれる。そこで以下に、上記実施の形態の各種変形例について説明する。
(変形例1)
以下に、本発明の実施の形態の変形例1について説明する。
上記実施の形態において、注視対象判定部16は、最も小さい時間差が算出されるオブジェクトをユーザが注視しているオブジェクトとして判定していた。しかし、非特許文献2(日本視覚学会:「視覚情報処理ハンドブック」、朝倉書店、2000)に示されているとおり、一般に、滑らかな眼球運動において対象の動きに眼球が追従するまでに要する時間である潜時は60〜150msとされている。
つまり、イベント発生時刻とイベント検出時刻との時間差が、この潜時未満の時間差である場合には、当該イベント発生時刻に提示イベントが発生したオブジェクトをユーザが注視している可能性は低い。そこで、本変形例における注視対象判定部16は、評価値Vを用いて注視対象を判定する際に、以下に述べるように、この潜時を下回らない時間差のオブジェクトのみを注視対象として判定する。
以下、本変形例における注視対象判定装置10について、上記実施の形態と異なる点を中心に説明する。
図12は、本発明の実施の形態の変形例1におけるオブジェクトの配置例を示す図である。
図12に示すように、画面の過半の大きさの領域に、ある映像などのコンテンツが表示され、その周囲にユーザに対する通知あるいは推薦情報などのオブジェクトを提示する場合にも、本変形例における注視対象判定装置10は注視対象を判定できる。
図13は、本発明の実施の形態の変形例1における同期構造分析処理及び注視対象判定処理を説明するための図である。具体的には、図13は、オブジェクトが5つの場合の、提示イベントと眼球運動との同期構造分析の方法を説明するための図である。
図13において、イベント設定部13は、第1〜第5のオブジェクトに対して、イベント発生時刻tstart+d〜tstart+dに提示イベントを発生させている。そして、眼球運動イベント検出部14は、視線軌跡からイベント検出時刻Tを検出している。
このような状況において、第1〜第5のオブジェクトについて評価値V〜Vが算出された場合、上記実施の形態では、注視対象判定部16は、評価値が他のいずれのオブジェクトの評価値に比べても小さくなる第3のオブジェクトを注視対象と判定する。
しかし、上述したように、一般に滑らかな眼球運動において対象の動きに眼球が追従するまでの潜時は60〜150msとされている。そのため、注視対象判定部16は、この潜時よりも小さいVは注視対象の判定から除く必要がある。
したがって、例えば、図13において、対象の動きに眼球が追従するまでの潜時が60msであり、かつ、評価値Vが60ms未満であれば、注視対象判定部16は、評価値Vは排除した上で、評価値V〜Vの最小値を求める必要がある。この場合、評価値Vが最小値となるので、注視対象判定部16は、第2のオブジェクトを注視対象と判定する。なお、評価値Vが60ms以上であれば、注視対象判定部16は、第3のオブジェクトを注視対象と判定すれば良い。
このように、注視対象判定部16は、基準時間差以上であって、かつ、基準時間差に最も近い時間差が算出されたオブジェクトを、ユーザが注視しているオブジェクトとして判定する。つまり、注視対象判定部16は、基準時間差未満の時間差が算出されるオブジェクトを除外して、最も小さい時間差が算出されるオブジェクトをユーザが注視しているオブジェクトとして判定する。
ここで基準時間差は、潜時に基づいて決定されればよい。例えば、基準時間差は、上記のように潜時と同一であればよい。また、基準時間差は、視線の検出誤差等を考慮した値を潜時に加算又は減算した時間差であってもよい。
以上のように、本変形例における注視対象判定装置10は、滑らかな眼球運動においてオブジェクトの動きに眼球が追従するまでに要する時間である潜時未満の時間差が検出されたオブジェクトが注視対象として判定されることを除外できる。そのため、注視対象判定装置10は、さらに高精度に注視対象を判定することが可能となる。
また、注視対象判定装置10は、各オブジェクトに対して定義されているd、teventを小さくすることができるので、注視対象判定の時間分解能を向上させることができる。つまり、注視対象判定装置10は、各オブジェクトに提示イベントを発生させる時間間隔を短くしても、高精度に注視対象を判定することが可能となる。その結果、注視対象判定装置10は、各オブジェクトにおける提示イベント発生方法の自由度を高めることができので、ユーザに与える違和感を抑制し、調和のとれた状態で複数のオブジェクトに提示イベントを発生させることが可能となる。
(変形例2)
次に、本発明の実施の形態の変形例2について説明する。
上記実施の形態では、提示イベントは、オブジェクトを注視しているユーザに、オブジェクトと同様の移動軌跡となるような注視位置の移動を誘発していた。しかし、本変形例では、提示イベントが、オブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。
以下、本変形例における注視対象判定装置10について、上記実施の形態と異なる点を中心に説明する。
上述したように本変形例において、提示イベントは、オブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。具体的には、提示イベントは、オブジェクトに含まれる文字列を読むために当該文字列を注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。より具体的には、提示イベントは、文字列に含まれる先頭文字の、不可読状態から可読状態への変化を示す。
イベント設定部13は、オブジェクトに含まれる文字列に含まれる文字を、不可読状態から可読状態へ変化させることにより提示イベントを発生させる。具体的には、イベント設定部13は、文字列に含まれる文字を読み順に可読状態から不可読状態へ変化させた後に、当該文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、提示イベントを発生させる。
ここで、不可読状態とは、ユーザが文字を読むことが不可能な表示状態を示す。典型的には、不可読状態は、文字が表示されていない状態である。なお、不可読状態には、文字の鮮明度が所定閾値未満である状態、又は文字のサイズが所定サイズ未満である状態なども含む。ここで、鮮明度とは、文字の鮮明さを示す。例えば、文字にモザイク処理が施されている場合には、鮮明度は小さくなる。所定閾値又は所定サイズは、実験又は経験などにより求められる、画面に表示された文字をユーザが読むことができない鮮明度又は文字サイズの境界値が用いられればよい。
また、可読状態とは、ユーザが読むことが可能な表示状態を示す。例えば、可読状態は、文字が表示されており、かつ、文字の鮮明度が所定閾値以上である状態又は文字が所定サイズ以上である状態を示す。
眼球運動イベント検出部14は、視線軌跡算出部12によって算出された視線軌跡から、注視位置の移動速度が予め定められた速度以上となる時刻をイベント検出時刻として検出する。具体的には、眼球運動イベント検出部14は、例えば、注視位置の移動速度が一定時間以上継続して予め定められた速度以上であるイベント検出区間の開始時刻をイベント検出時刻として検出する。
次に、本変形例における提示イベントの具体例について図14及び図15を用いて説明する。
図14は、本発明の実施の形態の変形例2における画面上に表示されるオブジェクトの配置例を示す図である。図14に示すように、画面内に9つのオブジェクトが存在する。各オブジェクトは、映像のサムネイル画像と、その映像の内容を示す文字列(以下、適宜「テキスト」と記載)とを含んでいる。
図15は、本発明の実施の形態の変形例2における提示イベントの一例を示す図である。具体的には、図15は、画面上に表示された1つのオブジェクトの時間変化を示す図である。
図15の(a)〜(h)に示すように、テキストは、順次左側の文字からフェードアウトしていく。つまり、イベント設定部13は、テキストに含まれる文字を読み順に可読状態から不可読状態へ変化させる。したがって、ユーザは、常にフェードアウトされた部分の右側を読んでいくことになる。
オブジェクトが画像の場合は、オブジェクト内のどの位置にいかなる順序で視線を向けるかは状況に依存し個人差の問題となる。しかしながら、オブジェクトにテキストが含まれる場合は、テキストの内容を理解するためには、ユーザは、基本的に語頭から語尾へ、文頭から文尾へ順次視線を向けて、文字を読み順に読む必要がある。
したがって、ユーザが、当該テキストの内容を理解すべく読み進めていくことを継続すれば、図15の(d)〜(f)では、ユーザの視線の動きは他のときに比べて特徴的な動きとなる。すなわち、ユーザは、図15の(d)〜(f)において、テキストを読み進めていくために、注視位置をすばやく移動する必要がある。
そこで、本変形例では、図15の(d)〜(f)のような、テキストに含まれる先頭文字の変化であって不可読状態から可読状態への変化を、提示イベントして採用する。つまり、本変形例では、ユーザの注視位置の移動速度が予め定められた速度以上となることを誘発する、文字の表示状態の変化を提示イベントとして採用する。
そして、イベント設定部13は、この提示イベントが発生するタイミング(イベント発生時刻)が、画面上に表示された9つのオブジェクトで互いに異なるように、提示イベントを発生させる。
そうすることで、眼球運動イベント検出部14は、視線軌跡算出部12によって算出された注視座標系列xgaze(t)から、注視位置の移動速度が予め定められた速度以上である時間区間をイベント検出区間として抽出する。そして、眼球運動イベント検出部14は、抽出したイベント検出区間の開始時刻をイベント発生時刻として検出する。
さらに、上記実施の形態と同様に、同期構造分析部15は、イベント検出時刻と、各オブジェクトにおけるイベント発生時刻との時間差を算出する。その結果、注視対象判定部16は、算出される時間差が最も小さいオブジェクトを注視対象と判定することができる。
以上のように、本変形例における注視対象判定装置10は、注視位置の移動速度に基づいて注視対象を判定することができるので、視線方向の検出精度が低い場合であっても、高精度に注視対象を判定することができる。
また、注視対象判定装置10は、文字列を読むためにオブジェクトを注視しているユーザの注視対象を高精度に判定することが可能となる。
また、注視対象判定装置10は、文字列を読むためにオブジェクトを注視しているユーザに与える違和感を抑制しつつ、提示イベントを発生させることが可能となる。
(変形例3)
次に、本発明の実施の形態の変形例3について説明する。
本変形例では、上記変形例2と同様に、提示イベントは、文字列を読むためにオブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。しかし、本変形例におけるイベント設定部13は、変形例2と異なる提示イベントを発生させる。
以下、本変形例における注視対象判定装置10について、実施の形態の変形例2と異なる点を中心に説明する。
本変形例において、イベント設定部13は、文字列に含まれる文字を、不可読状態から可読状態へ変化させ、さらに可読状態から不可読状態へ変化させることを読み順に実行した後に、当該文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、提示イベントを発生させる。
以下に、本変形例における提示イベントの具体例について、図16及び図17を用いて説明する。
図16は、本発明の実施の形態の変形例3における画面上に表示されるオブジェクトの配置例を示す図である。なお、画面上に表示されるオブジェクトの配置は、図14と同様であるので説明を省略する。
図17は、本発明の実施の形態の変形例3における提示イベントの一例を示す図である。具体的には、図17は、画面上に表示された1つのオブジェクトの時間変化を示す図である。
図17の(a)〜(h)に示すように、テキストは、表示されるべき行の左側から右側へ順次スポットライトが当てられるが如く、当該行の一部のみがユーザに表示される。つまり、イベント設定部13は、文字列に含まれる文字を、不可読状態から可読状態へ変化させ、さらに可読状態から不可読状態へ変化させることを読み順に実行する。
この場合、ユーザは、常にスポットライトが当てられた文字を読んでいくことになる。したがって、図17の(d)〜(f)では、ユーザは、注視位置を右端から左端へすばやく移動させる。
そこで、本変形例では、図17の(d)〜(f)のような、テキストに含まれる先頭文字の変化であって不可読状態から可読状態への変化を、提示イベントして採用する。つまり、本変形例では、ユーザの注視位置の移動速度が予め定められた速度以上となることを誘発する、文字の表示状態の変化を提示イベントとして採用する。
以上のように、本変形例における注視対象判定装置10は、変形例2における注視対象判定装置10と同様の効果を奏することができる。
(変形例4)
次に、本発明の実施の形態の変形例4について説明する。
本変形例では、上記変形例2と同様に、提示イベントは、文字列を読むためにオブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。しかし、本変形例における提示イベントは、変形例2と異なり、文字列において文字間隔が大きくなる変化を示す。
以下、本変形例における注視対象判定装置10について、実施の形態の変形例2と異なる点を中心に説明する。
上述したように本変形例において、提示イベントは、文字列において文字間隔が大きくなる変化を示す。
イベント設定部13は、オブジェクト内を通過するように文字列を一方向に移動させるとともに、文字列において文字間隔が直前の文字間隔よりも大きくなるように変化させることにより、提示イベントを発生させる。
以下に、本変形例における提示イベントの具体例について、図18及び図19を用いて説明する。
図18は、本発明の実施の形態の変形例4における画面上に表示されるオブジェクトの配置例を示す図である。なお、画面上に表示されるオブジェクトの配置は、図14と同様であるので説明を省略する。
図19は、本発明の実施の形態の変形例4における提示イベントの一例を示す図である。具体的には、図19は、画面上に表示された1つのオブジェクトの時間変化を示す図である。
図19の(a)〜(h)に示すように、テキストは、右から左にテキストが流れていき、テロップ表示される。つまり、テキストは、オブジェクトが表示された領域内を通過するように一方向に移動する。
この場合、ユーザは、領域内を通過している文字を読み順に読むことになる。したがって、図19の(g)〜(h)では、ユーザは、注視位置を左端から右端へすばやく移動させる。つまり、ユーザは、文字間隔が大きいために、注視位置を大きく移動させる必要がある。
そこで、本変形例では、図19の(g)〜(h)のような、文字間隔が大きくなる変化を、提示イベントして採用する。つまり、本変形例では、ユーザの注視位置の移動速度が予め定められた速度以上となることを誘発する、文字間隔の変化を提示イベントとして採用する。
以上のように、本変形例における注視対象判定装置10は、変形例2における注視対象判定装置10と同様の効果を奏することができる。
(変形例5)
次に、本発明の実施の形態の変形例5について説明する。
本変形例では、上記変形例2と同様に、提示イベントは、文字列を読むためにオブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。しかし、本変形例における提示イベントは、変形例2と異なり、複数行にわたる文字列において、行頭文字が不可読状態から可読状態への変化することを示す。
以下、本変形例における注視対象判定装置10について、実施の形態の変形例2と異なる点を中心に説明する。
上述したように本変形例において、提示イベントは、文字列に含まれる行頭文字の、不可読状態から可読状態への変化を示す。
イベント設定部13は、複数行にわたる文字列に含まれる文字を読み順に不可読状態から可読状態へ変化させることにより、提示イベントを発生させる。
以下に、本変形例における提示イベントの具体例について、図20及び図21を用いて説明する。
図20は、本発明の実施の形態の変形例5における画面上に表示されるオブジェクトの配置例を示す図である。図20に示すように、本変形例では、それぞれが複数行にわたる文字列を含む3つのオブジェクトが画面上に表示される。
図21は、本発明の実施の形態の変形例5における提示イベントの一例を示す図である。具体的には、図21は、画面上に表示された1つのオブジェクトの時間変化を示す図である。
図21の(a)〜(c)に示すように、複数行にわたる文字列は、一行ずつ読み順に表示される。つまり、文字列は、一行ずつ読み順に、不可読状態から可読状態へ変化する。
この場合、ユーザは、行末の文字まで読み終わった後に新たに表示された行頭の文字を読むために、注視点をオブジェクトの右端から左端へ大きく移動させる必要がある。
そこで、本変形例では、図21の(a)〜(c)のような、行頭文字の不可読状態から可読状態へ変化を、提示イベントとして採用する。つまり、本変形例では、ユーザの注視位置の移動速度が予め定められた速度以上となることを誘発する、行頭文字の不可読状態から可読状態へ変化を提示イベントとして採用する。
以上のように、本変形例における注視対象判定装置10は、変形例2における注視対象判定装置10と同様の効果を奏することができる。
なお、イベント設定部13は、複数行にわたる文字列を一行ずつ読み順に表示していたが、必ずしも一行ずつ表示する必要はない。例えば、イベント設定部13は、複数行ずつ文字列を表示してもよい。また例えば、イベント設定部13は、1文字又は複数文字ごとに文字を表示することにより、文字列を表示してもよい。
(変形例6)
次に、本発明の実施の形態の変形例6について説明する。
本変形例では、上記変形例2と同様に、提示イベントは、オブジェクトを注視しているユーザに、予め定められた速度以上の注視位置の移動を誘発する。しかし、本変形例における提示イベントは、オブジェクトに文字列が含まれない場合であっても、予め定められた速度以上の注視位置の移動を誘発することができる。
以下、本変形例における注視対象判定装置10について、上記変形例2と異なる点を中心に説明する。
本変形例において、イベント設定部13は、オブジェクトを予め定められた速度以上の移動速度で移動させることにより、提示イベントを発生させる。つまり、イベント設定部13は、複数のオブジェクトのそれぞれを、互いに異なる時刻に、予め定められた速度以上の移動速度で移動させる。
以下に、本変形例における提示イベントの具体例について、図22及び図23を用いて説明する。
図22は、本発明の実施の形態の変形例6における画面上に表示されるオブジェクトの配置例を示す図である。図22に示すように、本変形例では、5つのオブジェクトが水平方向に並んで画面上に表示される。
図23は、本発明の実施の形態の変形例6における提示イベントの一例を示す図である。具体的には、図23は、画面上に表示された5つのオブジェクトの時間変化を示す図である。
図23の(a)〜(e)に示すように、各オブジェクトは、予め定められた速度以上の移動速度で順に右方向に移動する。つまり、イベント設定部13は、オブジェクトの移動方向の前方に位置するオブジェクトが移動した後に、そのオブジェクトを予め定められた速度以上の移動速度で移動させる。
この場合、ユーザは、注視しているオブジェクトが移動したときに、そのオブジェクトと同等の移動速度で注視位置を移動させる。
したがって、眼球運動イベント検出部14は、注視位置の移動速度が予め定められた速度以上となる時刻をイベント検出時刻として検出することができる。
以上のように、本変形例における注視対象判定装置10は、オブジェクトの移動にユーザの注視位置が同期することを利用して、ユーザの注視対象を高精度に判定することが可能となる。
なお、本変形例において、複数のオブジェクトは、水平方向に並んで表示されていたが、必ずしもこのように表示される必要はない。また、提示イベントは、水平方向への移動を示していたが、垂直方向又は斜め方向への移動を示してもよい。
以上、本発明の一態様に係る注視対象判定装置について、実施の形態及びその変形例に基づいて説明したが、本発明は、この実施の形態又はその変形例に限定されるものではない。異なる実施の形態又は変形例における構成要素又はその機能を組み合わせて構築される形態も、本発明の範囲内に含まれる。
例えば、変形例2における注視対象判定部16が、潜時未満の時間差が検出されるオブジェクトを除外して、注視対象を判定してもよい。
以上のように本発明の一態様に係る注視対象判定装置について、実施の形態及びその変形例に基づいて説明したが、本発明は、さらに以下のように変形することもできる。
(1)上記の注視対象判定装置は、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAM又は前記ハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここで、コンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。なお、各装置は、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどの全てを含むコンピュータシステムに限らず、これらの一部から構成されているコンピュータシステムであってもよい。
(2)上記の注視対象判定装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、図1に示すように、システムLSI20は、視線方向検出部11と、視線軌跡算出部12と、イベント設定部13と、眼球運動イベント検出部14と、同期構造分析部15と、注視対象判定部16とを備える。
システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
(3)上記の注視対象判定装置を構成する構成要素の一部又は全部は、注視対象判定装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM、などから構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記注視対象判定装置が備える特徴的な構成要素の動作をステップとする注視対象判定方法であるとしてもよい。また、これらの注視対象判定方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO(Magneto−Optical disc)、DVD(Digital Versatile Disc)、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。また、これらの記録媒体に記録されている前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリとを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムに従って動作するとしてもよい。
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明の一態様に係る注視対象判定装置は、画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する装置等として有用である。
10 注視対象判定装置
11 視線方向検出部
12 視線軌跡算出部
13 イベント設定部
14 眼球運動イベント検出部
15 同期構造分析部
16 注視対象判定部
20 システムLSI

Claims (16)

  1. 画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定装置であって、
    オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定部と、
    ユーザの視線方向を検出する視線方向検出部と、
    前記視線方向検出部によって検出された視線方向に基づいて、視線方向の時系列データである視線軌跡を算出する視線軌跡算出部と、
    前記視線軌跡算出部によって算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出部と、
    前記眼球運動イベント検出部によって検出されたイベント検出時刻と、前記イベント設定部によって提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析部と、
    前記同期構造分析部によって算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定部とを備える
    注視対象判定装置。
  2. 前記注視対象判定部は、基準時間差以上であって、かつ、前記基準時間差に最も近い時間差が算出されたオブジェクトを、ユーザが注視しているオブジェクトとして判定する
    請求項1に記載の注視対象判定装置。
  3. 前記提示イベントは、前記視線方向検出部による視線方向の検出誤差よりも大きな視線方向の動きを誘発する
    請求項1に記載の注視対象判定装置。
  4. 前記提示イベントは、前記オブジェクトの少なくとも一部の移動を示し、
    前記眼球運動イベント検出部は、前記提示イベントが示す移動の軌跡との類似性に基づいて、前記イベント検出時刻を検出する
    請求項1に記載の注視対象判定装置。
  5. 前記提示イベントは、移動方向の変化をともなう移動を示し、
    前記イベント設定部は、前記各オブジェクトの少なくとも一部を往復運動させることにより、前記提示イベントを発生させる
    請求項4に記載の注視対象判定装置。
  6. 前記提示イベントは、前記オブジェクトの少なくとも一部の水平方向の移動を示す
    請求項1に記載の注視対象判定装置。
  7. 前記提示イベントは、前記オブジェクトを注視しているユーザに、予め定められた速度以上の視線方向の動きを誘発し、
    前記眼球運動イベント検出部は、前記視線軌跡算出部によって算出された視線軌跡から、視線方向の動きが前記予め定められた速度以上となる時刻を前記イベント検出時刻として検出する
    請求項1に記載の注視対象判定装置。
  8. 前記複数のオブジェクトのそれぞれは文字列を含み、
    前記提示イベントは、前記文字列を読むために前記オブジェクトを注視しているユーザに前記予め定められた速度以上の視線方向の動きを誘発し、
    前記イベント設定部は、前記文字列に含まれる文字を、ユーザが読むことが不可能な表示状態である不可読状態からユーザが読むことが可能な表示状態である可読状態へ変化させることにより、前記提示イベントを発生させる
    請求項7に記載の注視対象判定装置。
  9. 前記提示イベントは、前記文字列に含まれる先頭文字の、不可読状態から可読状態への変化を示し、
    前記イベント設定部は、前記文字列に含まれる文字を可読状態から不可読状態へ読み順に変化させた後に、前記文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させる
    請求項8に記載の注視対象判定装置。
  10. 前記提示イベントは、前記文字列に含まれる先頭文字の、不可読状態から可読状態への変化を示し、
    前記イベント設定部は、前記文字列に含まれる文字を、不可読状態から可読状態へ変化させ、さらに可読状態から不可読状態へ変化させることを読み順に実行した後に、前記文字列に含まれる先頭文字を不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させる
    請求項8に記載の注視対象判定装置。
  11. 前記提示イベントは、前記文字列において文字間隔が大きくなる変化を示し、
    前記イベント設定部は、前記オブジェクト内を通過するように前記文字列を一方向に移動させるとともに、前記文字列において文字間隔が直前の文字間隔よりも大きくなるように変化させることにより、前記提示イベントを発生させる
    請求項8に記載の注視対象判定装置。
  12. 前記提示イベントは、前記文字列に含まれる行頭文字の、不可読状態から可読状態への変化を示し、
    前記イベント設定部は、複数行にわたる前記文字列に含まれる文字を読み順に不可読状態から可読状態へ変化させることにより、前記提示イベントを発生させる
    請求項8に記載の注視対象判定装置。
  13. 前記イベント設定部は、前記オブジェクトを前記予め定められた速度以上の移動速度で移動させることにより、前記提示イベントを発生させる
    請求項7に記載の注視対象判定装置。
  14. 画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する集積回路であって、
    オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定部と、
    ユーザの視線方向を検出する視線方向検出部と、
    前記視線方向検出部によって検出された視線方向に基づいて、画面上におけるユーザの視線方向の時系列データである視線軌跡を算出する視線軌跡算出部と、
    前記視線軌跡算出部によって算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出部と、
    前記眼球運動イベント検出部によって検出されたイベント検出時刻と、前記イベント設定部によって提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析部と、
    前記同期構造分析部によって算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定部とを備える
    集積回路。
  15. 画面上に表示された複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定方法であって、
    オブジェクトの少なくとも一部の移動及び変化の少なくとも一方を示す提示イベントであって、前記オブジェクトを注視しているユーザに視線方向の動きを誘発する提示イベントを、複数のオブジェクトのそれぞれに対して互いに異なる時刻に発生させるイベント設定ステップと、
    ユーザの視線方向を検出する視線方向検出ステップと、
    前記視線方向検出ステップにおいて検出された視線方向に基づいて、画面上におけるユーザの視線方向の時系列データである視線軌跡を算出する視線軌跡算出ステップと、
    前記視線軌跡算出ステップにおいて算出された視線軌跡から、前記提示イベントに対応する視線方向の動きを示す時刻をイベント検出時刻として検出する眼球運動イベント検出ステップと、
    前記眼球運動イベント検出ステップにおいて検出されたイベント検出時刻と、前記イベント設定ステップにおいて提示イベントが発生させられている時刻であるイベント発生時刻との時間差を、前記オブジェクトごとに算出する同期構造分析ステップと、
    前記同期構造分析ステップにおいて算出された時間差に基づいて、前記複数のオブジェクトの中からユーザが注視しているオブジェクトを判定する注視対象判定ステップとを含む
    注視対象判定方法。
  16. 請求項15に記載の注視対象判定方法をコンピュータに実行させるためのプログラム。
JP2011502157A 2009-06-08 2010-06-03 注視対象判定装置及び注視対象判定方法 Active JP5460691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011502157A JP5460691B2 (ja) 2009-06-08 2010-06-03 注視対象判定装置及び注視対象判定方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009137647 2009-06-08
JP2009137647 2009-06-08
JP2011502157A JP5460691B2 (ja) 2009-06-08 2010-06-03 注視対象判定装置及び注視対象判定方法
PCT/JP2010/003700 WO2010143377A1 (ja) 2009-06-08 2010-06-03 注視対象判定装置及び注視対象判定方法

Publications (2)

Publication Number Publication Date
JPWO2010143377A1 JPWO2010143377A1 (ja) 2012-11-22
JP5460691B2 true JP5460691B2 (ja) 2014-04-02

Family

ID=43308640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011502157A Active JP5460691B2 (ja) 2009-06-08 2010-06-03 注視対象判定装置及び注視対象判定方法

Country Status (4)

Country Link
US (1) US8678589B2 (ja)
EP (1) EP2441383B1 (ja)
JP (1) JP5460691B2 (ja)
WO (1) WO2010143377A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8830164B2 (en) 2009-12-14 2014-09-09 Panasonic Intellectual Property Corporation Of America User interface device and input method
KR20120053803A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법
JP2014077814A (ja) * 2011-02-14 2014-05-01 Panasonic Corp 表示制御装置および表示制御方法
KR101046677B1 (ko) * 2011-03-15 2011-07-06 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프
JP2013039231A (ja) * 2011-08-16 2013-02-28 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
RU2666770C2 (ru) 2011-12-14 2018-09-12 Филипс Лайтинг Холдинг Б.В. Устройство для управления освещением
US9024844B2 (en) 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9030505B2 (en) * 2012-05-17 2015-05-12 Nokia Technologies Oy Method and apparatus for attracting a user's gaze to information in a non-intrusive manner
US20140026156A1 (en) 2012-07-18 2014-01-23 David Deephanphongs Determining User Interest Through Detected Physical Indicia
US10034049B1 (en) 2012-07-18 2018-07-24 Google Llc Audience attendance monitoring through facial recognition
JP6015250B2 (ja) * 2012-08-31 2016-10-26 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN102981620A (zh) * 2012-11-27 2013-03-20 中兴通讯股份有限公司 一种终端操作方法及终端
KR101354248B1 (ko) * 2012-12-14 2014-01-23 현대자동차주식회사 광고제품 정보 제공 시스템 및 방법
KR20140090552A (ko) * 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9619021B2 (en) 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US10884577B2 (en) * 2013-01-15 2021-01-05 Poow Innovation Ltd. Identification of dynamic icons based on eye movement
US10025378B2 (en) 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
JP2015023512A (ja) * 2013-07-22 2015-02-02 オリンパスイメージング株式会社 撮影装置、撮影方法及び撮影装置の撮影プログラム
US10073518B2 (en) * 2013-08-19 2018-09-11 Qualcomm Incorporated Automatic calibration of eye tracking for optical see-through head mounted display
CN103455580A (zh) * 2013-08-26 2013-12-18 华为技术有限公司 一种推荐信息的方法和装置
EP3055987A4 (en) * 2013-09-13 2017-10-25 Intel Corporation Motion data based focus strenght metric to facilitate image processing
KR102081935B1 (ko) * 2013-09-30 2020-02-26 엘지전자 주식회사 멀티 시선 인식 장치 및 방법
US10372202B1 (en) 2014-01-20 2019-08-06 Ca, Inc. Positioning a cursor on a display monitor based on a user's eye-gaze position
US10552675B2 (en) * 2014-03-12 2020-02-04 Seeing Machines Limited Method and apparatus for eye detection from glints
KR102212209B1 (ko) * 2014-04-10 2021-02-05 삼성전자주식회사 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
US10585485B1 (en) 2014-11-10 2020-03-10 Amazon Technologies, Inc. Controlling content zoom level based on user head movement
JP2016151798A (ja) * 2015-02-16 2016-08-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
TWI588815B (zh) * 2015-06-01 2017-06-21 仁寶電腦工業股份有限公司 顯示參數調整方法及使用此方法的電子裝置
CN105184246B (zh) * 2015-08-28 2020-05-19 北京旷视科技有限公司 活体检测方法和活体检测***
JP2017123029A (ja) * 2016-01-06 2017-07-13 富士通株式会社 情報通知装置、情報通知方法及び情報通知プログラム
JP6266675B2 (ja) * 2016-03-18 2018-01-24 株式会社Subaru 捜索支援装置、捜索支援方法及び捜索支援プログラム
JP6851745B2 (ja) * 2016-08-04 2021-03-31 富士通株式会社 画像制御方法、装置、及びプログラム
US10660517B2 (en) 2016-11-08 2020-05-26 International Business Machines Corporation Age estimation using feature of eye movement
US20180125405A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using feature of eye movement
JP2020513253A (ja) * 2016-11-10 2020-05-14 ニューロトラック テクノロジーズ,インク. 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム
KR102476757B1 (ko) * 2017-12-21 2022-12-09 삼성전자주식회사 반사를 검출하는 장치 및 방법
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
CN112580409B (zh) * 2019-09-30 2024-06-07 Oppo广东移动通信有限公司 目标物体选择方法及相关产品
US20230058491A1 (en) * 2020-02-10 2023-02-23 Nec Corporation Gaze estimation system, gaze estimation method, and computer program
KR20210109275A (ko) 2020-02-27 2021-09-06 삼성전자주식회사 사용자의 관심 객체를 예측하는 방법 및 장치
WO2024059927A1 (en) * 2022-09-22 2024-03-28 Huawei Technologies Co., Ltd. Methods and systems for gaze tracking using one corneal reflection
US20240115933A1 (en) * 2022-10-09 2024-04-11 Sony Interactive Entertainment Inc. Group control of computer game using aggregated area of gaze

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183212A (ja) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
JP2005143599A (ja) * 2003-11-11 2005-06-09 Tokai Univ 視線表示装置および痴呆症診断装置
JP2005245598A (ja) * 2004-03-02 2005-09-15 Tokai Univ 眼球運動データ較正係数演算装置、眼球運動データ較正係数演算方法および眼球運動データ較正係数演算プログラム
WO2007069489A1 (ja) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. 安全走行支援装置
WO2007148465A1 (ja) * 2006-06-21 2007-12-27 Panasonic Corporation 操作誘導装置及び操作誘導方法
JP2008288707A (ja) * 2007-05-15 2008-11-27 Panasonic Corp 監視装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4239351A (en) * 1978-09-26 1980-12-16 Baylor College Of Medicine Apparatus for generating and displaying visual acuity targets
JP2977043B2 (ja) 1990-11-28 1999-11-10 日立建機株式会社 斜板式液圧回転機
GB9722949D0 (en) * 1997-10-30 1998-01-07 Bid Instr Ltd Ocular testing and related projection apparatus and method
JP4203279B2 (ja) 2002-07-26 2008-12-24 独立行政法人科学技術振興機構 注目判定装置
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
JP4560368B2 (ja) * 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
JP4497305B2 (ja) * 2004-12-08 2010-07-07 株式会社デンソー 運転者状態判定装置
EP2031531A3 (de) * 2007-07-20 2009-04-29 BrainLAB AG Integriertes medizintechnisches Anzeigesystem
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
JP5208810B2 (ja) * 2009-02-27 2013-06-12 株式会社東芝 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183212A (ja) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
JP2005143599A (ja) * 2003-11-11 2005-06-09 Tokai Univ 視線表示装置および痴呆症診断装置
JP2005245598A (ja) * 2004-03-02 2005-09-15 Tokai Univ 眼球運動データ較正係数演算装置、眼球運動データ較正係数演算方法および眼球運動データ較正係数演算プログラム
WO2007069489A1 (ja) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. 安全走行支援装置
WO2007148465A1 (ja) * 2006-06-21 2007-12-27 Panasonic Corporation 操作誘導装置及び操作誘導方法
JP2008288707A (ja) * 2007-05-15 2008-11-27 Panasonic Corp 監視装置

Also Published As

Publication number Publication date
WO2010143377A1 (ja) 2010-12-16
US20110141010A1 (en) 2011-06-16
EP2441383B1 (en) 2015-10-07
US8678589B2 (en) 2014-03-25
EP2441383A1 (en) 2012-04-18
EP2441383A4 (en) 2014-03-05
JPWO2010143377A1 (ja) 2012-11-22

Similar Documents

Publication Publication Date Title
JP5460691B2 (ja) 注視対象判定装置及び注視対象判定方法
US10657366B2 (en) Information processing apparatus, information processing method, and storage medium
JP5841538B2 (ja) 関心度推定装置および関心度推定方法
JP5571864B1 (ja) 光学焦点の遠隔測定のためのシステム及び方法
JP5475893B2 (ja) 視覚疲労度測定装置およびその方法
US9538947B2 (en) Method, system and device for assisting diagnosis of autism
JP6808320B2 (ja) 三次元物体上の注視点を決定するシステム
EP2829221A1 (en) Asperger's diagnosis assistance method and system, and asperger's diagnosis assistance device
KR20150140814A (ko) 머리 및 눈 추적
JP2009104524A (ja) 視線方向計測方法および視線方向計測装置
JP2007006427A (ja) 映像監視装置
KR101272811B1 (ko) 인터페이스 시스템 및 방법
Larsson et al. Head movement compensation and multi-modal event detection in eye-tracking data for unconstrained head movements
CN111933275A (zh) 一种基于眼动与面部表情的抑郁评估***
JP7168953B2 (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
JP2017111746A (ja) 視線検出装置及び視線検出方法
JP2020513609A (ja) 眼距離収集のための方法及びデバイス
JP2021077265A (ja) 視線検出方法、視線検出装置、及び制御プログラム
JP2012022538A (ja) 注目位置推定方法、画像表示方法、注目コンテンツ表示方法、注目位置推定装置および画像表示装置
JP5429885B2 (ja) 特徴点追跡方法及び特徴点追跡装置
JP7266599B2 (ja) 患者の身体運動を検知するためのデバイス、システム及び方法
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
JP6652263B2 (ja) 口領域検出装置及び口領域検出方法
JP2021077333A (ja) 視線検出方法、視線検出装置、及び制御プログラム
CN114740966A (zh) 多模态图像显示控制方法、***及计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5460691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350