JP6287486B2 - 情報処理装置、方法及びプログラム - Google Patents

情報処理装置、方法及びプログラム Download PDF

Info

Publication number
JP6287486B2
JP6287486B2 JP2014071251A JP2014071251A JP6287486B2 JP 6287486 B2 JP6287486 B2 JP 6287486B2 JP 2014071251 A JP2014071251 A JP 2014071251A JP 2014071251 A JP2014071251 A JP 2014071251A JP 6287486 B2 JP6287486 B2 JP 6287486B2
Authority
JP
Japan
Prior art keywords
line
sight
users
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014071251A
Other languages
English (en)
Other versions
JP2015194809A (ja
Inventor
尚子 林田
尚子 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014071251A priority Critical patent/JP6287486B2/ja
Priority to EP15153718.0A priority patent/EP2926721B1/en
Priority to US14/616,886 priority patent/US9851789B2/en
Publication of JP2015194809A publication Critical patent/JP2015194809A/ja
Application granted granted Critical
Publication of JP6287486B2 publication Critical patent/JP6287486B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、表示画面上における視線位置の移動に基づく情報処理技術に関する。
例えば表示画面上に表示されている文書を読んでいるユーザについて、例えば表示画面の上や下に設置された視線センサが高精度であれば、表示中の文章に沿って読んでいることや、文章領域を斜め読みしていることを、計測した視線データそのものから推定できる。
一方、安価な視線センサを用いる場合には、計測した視線データそのものに誤差が含まれており、例えばパーソナルコンピュータの典型的な表示画面上に1点の視線位置が検出されると、その視線位置を含む、画面6分の1程度の領域内に、真の視線位置が含まれているといった検出精度の場合もある。
このような場合、文章に沿って読んだ場合であっても、文章領域と視線データから求めた視点の座標とが一致することは期待できない。また、時系列に計測した視線データそのものの並びによって、あるユーザの視線方向の推移と他のユーザの視線方向の推移との異同を正確に判断するのは難しい。
例えば、同じ文書などのコンテンツを複数人で視聴するケース、例えば書類の記入漏れ確認作業やオンライン教育等において、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしを検出できれば、該当ユーザに警告を行うことができる。しかしながら、安価な視線センサでは、上記のような問題を高精度で検出することができない。
なお、視線位置と視線速度に基づいて、表示部に表示された電子文書が読まれたか否かを判断する技術は存在しているが、視線位置に依存していることから視線センサの精度が高いことが前提となっている。
また、視線センサの精度が低いことを前提とした技術も存在しているが、ある部分を注視しているか否かを、視線の速度と視線の時系列変化から得られる曲率とから判断するものである。このような技術では、他のユーザとの関係は考慮されていない。
特開2013−25656号公報 特開平5−56925号公報
従って、本発明の目的は、一側面としては、精度が低い視線センサを用いていても表示画面上において典型的な視線の移動を行っていないユーザを検出できるようにするための技術を提供することである。
本発明に係る情報処理装置は、(A)表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された視線の移動履歴から、複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、(B)複数のユーザの各々について特定された視線の移動方向推移に基づき、複数のユーザのうち少数派のユーザを抽出する抽出部とを有する。
一側面としては、精度が低い視線センサを用いていても、表示画面上において典型的な視線の移動を行っていないユーザを検出できるようになる。
図1(a)乃至(c)は、精度の低い視線センサでの視線検出結果を説明するための図である。 図2は、視線移動の傾向について説明するための図である。 図3は、視線の実質移動量を説明するための図である。 図4は、視線の実質移動量を説明するための図である。 図5は、実施の形態に係るシステムの概要を示す図である。 図6は、第1の実施の形態における主情報処理装置の機能ブロック図である。 図7は、第1の実施の形態における処理フローを示す図である。 図8は、収集データ格納部に格納されるデータの例を示す図である。 図9は、収集データ格納部に格納されるデータの例を示す図である。 図10は、収集データ格納部に格納されるデータの例を示す図である。 図11は、収集データ格納部に格納されるデータの例を示す図である。 図12は、収集データ格納部に格納されるデータの例を示す図である。 図13は、移動方向推定処理の処理フローを示す図である。 図14は、移動方向の算出例を示す図である。 図15は、移動方向の算出例を示す図である。 図16は、移動方向の算出例を示す図である。 図17は、移動方向の算出例を示す図である。 図18は、移動方向の算出例を示す図である。 図19は、移動方向の算出例を示す図である。 図20は、算出された実質移動量の一例を示す図である。 図21は、移動方向ラベリングの例を示す図である。 図22は、移動方向ラベルの集約例を示す図である。 図23は、第1の実施の形態における処理フローを示す図である。 図24は、複数人の移動方向ラベルから多数派を決定する処理を説明するための図である。 図25は、第1の実施の形態における類似度の算出の一例を示す図である。 図26は、第2の実施の形態における主情報処理装置の機能ブロック図である。 図27は、第2の実施の形態における処理フローを示す図である。 図28は、包含矩形の一例を示す図である。 図29は、包含矩形の他の例を示す図である。 図30は、矩形処理部の処理結果の一例を示す図である。 図31は、第2の実施の形態における処理フローを示す図である。 図32は、第2の実施の形態における類似度の算出例を示す図である。 図33は、移動方向から特定される矩形を考慮する場合を説明するための図である。 図34は、実質移動量の調整例を示す図である。 図35は、信頼度を反映した矩形の一例を示す図である。 図36は、信頼度を反映した矩形の一例を示す図である。 図37は、信頼度を反映した矩形の一例を示す図である。 図38は、信頼度を反映した矩形の一例を示す図である。 図39は、信頼度を反映した矩形の一例を示す図である。 図40は、信頼度を反映した矩形の一例を示す図である。 図41は、他の実施の形態における包含矩形の一例示す図である。 図42は、他の実施の形態における矩形の設定処理の処理フローを示す図である。 図43は、コンピュータの機能ブロック図である。
[実施の形態1]
本実施の形態では、各ユーザについて視線の移動方向の推移を把握し、それらに基づき典型的な視線の移動方向推移とは異なる視線の移動方向推移が把握されたユーザを検出する。このようなユーザは、書類の記入漏れ確認作業やオンライン教育等において、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしを行った可能性がある。よって、このようなユーザや管理者に警告を発することで、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしなどを抑制させることができる。
但し、上で述べたように、安価な視線センサを用いる場合には、測定された視線位置は誤差を含んでおり、測定された視線位置から単純に視線の移動方向推移を特定するのは好ましくない。一方、安価な視線センサを用いたとしても、図1(a)に示すように表示画面の領域Aあたりを注視している状態から、図1(b)に示すように視線を移動させ、図1(c)に示すように表示画面の領域Bあたりを注視している状態へ遷移する様子を特定することはできる。
本実施の形態では、たとえ図1(a)や図1(c)に示すような注視の状態においても、その視線移動方向の傾向を抽出できるようにし、当該視線移動方向の傾向から、視線の移動方向推移を表すデータを生成することとする。
より具体的には、図2に示すように、例えば8点の視線位置が検出された状態を想定する。ここで、1番目の視線位置と2番目の視線位置とに着目する。そうすると、1番目の視線位置は誤差を考えると円Cの範囲内に存在しており、2番目の視線位置は誤差を考えると円Dの範囲内に存在しており、1番目の視線位置から2番目の視線位置へ移動する際には、視線位置は円Cと円Dが重なった領域Eを移動した可能性がある。このような領域Eは、誤差を勘案した移動方向の傾向を表しているが、領域Eをそのまま取り扱うのは難しいので、本実施の形態では、以下に述べるような方法にて、視線移動方向の傾向を表現するようにする。
すなわち、着目する視線位置と次の視線位置だけではなく、さらに後続の視線位置から実質的な視線の移動方向を算出する。より具体的には、表示画面のx軸方向及びy軸方向の各々について、着目する視線位置から所定時間内において移動方向の向きの反転を検出するまで移動量を累積することで、実質的な移動量を算出する。
図2における1番目の視線位置に着目し、n(正の整数。例えば6)番目の視線位置までの時間内に、折り返しの有無を判断する。x軸方向については、図3に示すように、1番目の視線位置から2番目の視線位置への移動量はdx_1であり、2番目の視線位置から3番目の視線位置への移動量はdx_2であるが、2番目の視線位置から3番目の視線位置への移動において折り返しが発生している。そこで、1番目の視線位置からのx軸方向における実質移動量movx_1を、dx_1+dx_2で表すことにする。
同様に、y軸方向については、図4に示すように、1番目の視線位置から2番目の視線位置への移動量はdy_1であり、2番目の視線位置から3番目の視線位置への移動量はdy_2であり、3番目の視線位置から4番目の視線位置への移動量はdy_3である。3番目の視線位置から4番目の視線位置への移動において折り返しが発生している。そこで、1番目の視線位置からのy軸方向における実質移動量movy_1を、dy_1+dy_2+dy_3で表すことにする。
このような計算を各視点位置について繰り返すことで、各視点位置における移動方向の傾向を算出する。このような計算は、表示画面上一点を見ている場合、測定結果として目の微細な動きを除去できないので、全く同じ座標値になることはないが、所定時間内における各視線位置からの移動量の総和はゼロに近づくという性質に基づくものである。
そして、一定時間(以下、時間帯と呼ぶ)毎に、このような移動方向の傾向をまとめることで、視線の移動方向推移を決定する。そして、視線の移動方向推移に基づき、複数のユーザのうち少数派となるユーザを抽出する。
次に、本実施の形態におけるシステムの概要を図5を用いて説明する。
本実施の形態におけるシステムでは、本実施の形態における主要な処理を実行する主情報処理装置100と、複数のユーザ側情報処理装置300(図では、300a乃至300n)と、管理者端末400とが、ネットワーク200を介して接続されている。
ユーザ側情報処理装置300aは、情報表示装置301aと、情報収集装置302aとを含む。情報表示装置301aは、ユーザに対して表示装置に文書などのデータを表示し、その表示履歴についてのデータを管理する。文書などのデータについては、主情報処理装置100などから配信される場合もあれば、情報表示装置301aで保持されている場合もある。
さらに、情報収集装置302aは、視線センサを有しており、表示画面上におけるユーザの視線位置に関するセンサデータ等を収集する。例えば、情報収集装置302aは、Webカメラのような装置を含み、Webカメラで撮影された画像から、表示画面上における視線位置を算出するようにしても良い。なお、このような検出技術については、Stylianos Asteriadis et al.,“Estimation of behavioral user state based on eye gaze and head pose-application in an e-learning environment”, Multimed Tools Appl, 2009.などを参照のこと。なお、センサデータから、表示画面上の視点座標を算出する処理については、主情報処理装置100において実施しても良いし、情報収集装置302aで収集で行っても良い。
また、情報収集装置302aは、情報表示装置301aの表示画面上に表示されているコンテンツの履歴データをも収集する。情報収集装置302aで収集されたデータは、主情報処理装置100へネットワーク200を介して送信される。
なお、情報表示装置301aと情報収集装置302aとは、一体となってユーザ側情報処理装置300aを成す場合もある。ユーザ側情報処理装置300aは、携帯電話機(スマートフォンを含む)、タブレット装置、パーソナルコンピュータなどであっても良い。さらに、他のユーザ側情報処理装置300b乃至300nについても、ユーザ側情報処理装置300aと同様の構成を有する。
ユーザ側情報処理装置300は、ユーザ一人ずつに用意されている場合もあれば、複数のユーザで共用する場合もある。
管理者端末400は、例えばシステムの管理者が操作する端末装置であり、典型的な視線の移動方向推移を成さなかったユーザについてのデータが、主情報処理装置100から通知された場合に、表示装置などに表示する。
次に、主情報処理装置100の構成例を図6に示す。主情報処理装置100は、データ収集部101と、収集データ格納部102と、推移特定部103と、推移データ格納部104と、抽出部105と、抽出データ格納部106と、出力部107とを有する。
データ収集部101は、ユーザ側情報処理装置300から送信されるセンサデータ及び表示履歴データなどを受信して、収集データ格納部102に格納する。センサデータが、表示画面上の視点座標データに変換されていない場合には、データ収集部101は、データ変換処理をも実施する。
推移特定部103は、移動方向推定部1031を有し、視線の移動方向推移を表すデータを生成し、推移データ格納部104に格納する。移動方向推定部1031は、図3及び図4を用いて説明した実質移動量の算出を行う。
抽出部105は、多数派決定部1051と、少数派抽出部1052とを有し、典型的な視線の移動方向推移を成さなかったユーザについてのデータを抽出して、抽出データ格納部106に格納する。多数派決定部1051は、複数のユーザについての視線の移動方向推移から、多数派についての視線の移動方向推移を決定する。また、少数派抽出部1052は、多数派についての視線の移動方向推移と非類似の視線の移動方向推移を成したユーザを抽出する。
出力部107は、抽出データ格納部106に格納されている少数派のユーザについてのデータを、例えば管理者端末400に送信する。その他の装置(ユーザ側情報処理装置300を含む)に出力するようにしても良い。
次に、図7乃至図25を用いて、主情報処理装置100における処理について説明する。まず、データ収集部101は、各ユーザ側情報処理装置300a乃至300nから、センサデータ及び表示履歴データなどを受信し、センサデータを視点座標データに変換して、収集データ格納部102に格納する(図7:ステップS1)。
上でも述べたように、例えば情報表示装置301の表示画面上には、文書チェック業務中であればチェック対象文書、オンライン教育であれば受講中のオンライン教材が表示される。この時同時に、情報収集装置302は、視線センサからセンサデータを取得し、さらに表示されているコンテンツのデータについても取得して、それらを紐付けた形で主情報処理装置100へ送信する。
主情報処理装置100のデータ収集部101は、このような視線センサからのセンサデータ及びコンテンツのデータを、各ユーザ側情報処理装置300から受信し、収集データ格納部102に格納する。
図8乃至図12に、収集データ格納部102に格納されるコンテンツデータの一例を示す。まず、図8に、ウィンドウ座標の履歴データの一例を示す。図8の例では、表示時刻と、ユーザIDと、スクリーンIDと、ウィンドウIDと、当該ウィンドウの左上のx座標及びy座標と、ウィンドウの幅及び高さと、重なり順とを含む。これによって、どのようなウィンドウが表示画面上に表示されているか、どのウィンドウが最前面になっているのかを把握できる。
さらに、図9に、コンテンツとウィンドウとの関係の一例を表す。図9の例では、表示時刻と、ユーザIDと、スクリーンIDと、ウィンドウIDと、コンテンツIDと、コンテンツ時間区間とを含む。このようなデータによって、どのようなウィンドウにどのようなコンテンツが表示されているかを把握できる。コンテンツ時間区間は、例えばコンテンツ中における最初からの位置(例えば視聴時間やページ数など)を表す。
なお、図10に、コンテンツの保存先データの一例を示す。図10の例では、コンテンツIDと、保存先のアドレス(URI(Uniform Resource Identifier))とが含まれる。このデータについては、予め格納しておいても良い。
このように、各ユーザについて、表示画面上に表示されている各ウィンドウがどのような状態で表示され、ウィンドウ中にどのようなコンテンツが表示されたのかを履歴データとして蓄積する。
この時、ウィンドウ中にコンテンツが表示されている場合であってもウィンドウが他のウィンドウの下に隠れ、実際にはユーザが、目視すべきウィンドウ中のコンテンツを一切見ていない場合もあるため、ウィンドウ座標の履歴データ(図8)には、ウィンドウの表示位置、表示サイズを表すデータのみではなく、ウィンドウの重なり順も含むようになっている。
また、収集データ格納部102には、視線センサのセンサデータから得られた視点座標データも格納される。図11に、表示画面の絶対座標として求めた視線座標データの位置例を示す。図11の例では、計測時刻と、ユーザIDと、スクリーンIDと、x座標値と、y座標値とが含まれる。
一方、表示画面上に複数のウィンドウが表示されている場合には、ウィンドウの重なりを考慮することで、最前面に表示されたウィンドウを目視しているものとして、当該ウィンドウ内の視点座標データを算出する。このような場合には、図12に示すようなデータが収集データ格納部102に格納される。図12の例でも、計測時刻と、ユーザIDと、スクリーンIDと、x座標値と、y座標値とが含まれる。なお、表示画面内における相対的な座標値が記録される。
これ以降の説明では、説明を簡単にするため、表示画面上には1つのウィンドウが全面表示されており、視点座標を最前面のウィンドウ上の座標として求めた場合を例に説明する。
図7の処理の説明に戻って、推移特定部103は、現時点が、視線の移動方向推移を特定するための第1のタイミングであるか否かを判断する(ステップS3)。例えば、タイマにより計測された所定のタイミングであるか否か、または比較対象のユーザからデータを全て受け取ったといったタイミングであるか否かを判断する。現時点が上で述べたような第1のタイミングではない場合には、処理は端子Aを介して図23の処理に移行する。
一方、現時点が上で述べたような第1のタイミングであれば、推移特定部103は、収集データ格納部102から、処理すべき複数の時間帯における処理対象ユーザについての視点座標データを読み出す(ステップS5)。
そして、推移特定部103は、読み出した視点座標データにおいて、未処理のユーザを一人特定する(ステップS7)。そして、移動方向推定部1031は、特定されたユーザについて移動方向推定処理を実行し、処理結果を推移データ格納部104に格納する(ステップS9)。この移動方向推定処理については、図13乃至図19を用いて説明する。
まず、移動方向推定部1031は、各視点座標(最後の視点座標を除く)について、x軸方向及びy軸方向で、直後の視点座標との差分値dx及びdyを算出する(図13:ステップS21)。例えば、x軸方向について、1番目の視点座標と2番目の視点座標との差dx_1、2番目の視点座標と3番目の視点座標との差dx_2、3番目の視点座標と4番目の視点座標との差dx_3、4番目の視点座標と5番目の視点座標との差dx_4、5番目の視点座標と6番目の視点座標との差dx_5、及び6番目の視点座標と7番目の視点座標の差dx_6といったように算出される。y軸方向についても同様である。
また、移動方向推定部1031は、処理対象の視点座標(k番目の視点座標とする)を1つ特定する(ステップS23)。
そして、移動方向推定部1031は、変数rを0に初期化する(ステップS25)。その後、移動方向推定部1031は、処理対象の視点座標kについて、実質移動量movx_kに、r番目の差dx_(k+r)を加算する(ステップS27)。
そして、移動方向推定部1031は、dx_kの向きとdx_(k+r)の向きが異なる、すなわちdx_(k+r)の向きが反転した(符号が反転)か、又はrが所定値(所定期間に相当する値)となったか否かを判断する(ステップS29)。
このステップS29の条件が満たされない場合には、さらにdx_(k+r+1)をmovx_kに累積加算するために、移動方向推定部1031は、rを1インクリメントし(ステップS31)、処理はステップS27に戻る。
一方、ステップS29の条件が満たされた場合には、x軸方向については、今回の処理対象となった視点座標についての実質移動量が得られたことになる。そこで、移動方向推定部1031は、変数rを0に初期化する(ステップS33)。その後、移動方向推定部1031は、処理対象の視点座標kについて、実質移動量movy_kに、r番目の差dy_(k+r)を加算する(ステップS35)。
そして、移動方向推定部1031は、dy_kの向きとdy_(k+r)の向きが異なる、すなわちdy_(k+r)の向きが反転した(符号が反転)か、又はrが所定値(所定期間に相当する値)となったか否かを判断する(ステップS37)。
このステップS37の条件が満たされない場合には、さらにdy_(k+r+1)をmovy_kに累積加算するために、移動方向推定部1031は、rを1インクリメントし(ステップS39)、処理はステップS35に戻る。
一方、ステップS37の条件が満たされた場合には、y軸方向についても、今回の処理対象となった視点座標についての実質移動量が得られたことになる。そこで、移動方向推定部1031は、処理すべき視点座標が、ステップS5で読み出された視点座標データに存在しているか否かを判断する(ステップS41)。
処理すべき視点座標が存在している場合には、移動方向推定部1031は、kを1インクリメントして(ステップS43)、処理はステップS23に戻る。一方、処理すべき視点座標が残っていない場合には、処理は呼び出し元の処理に戻る。
例えば図2の例で、rの上限値を例えば6として処理した場合には、図14乃至図19に示すようなmovx及びmovyが得られる。図14には、movx_1及びmovy_1を示す。図15には、movx_2及びmovy_2を示す。図16には、movx_3及びmovy_3を示す。図17には、movx_4及びmovy_4を示す。図18には、movx_5及びmovy_5を示す。図19には、movx_6及びmovy_6を示す。
また、移動方向推定部1031の処理結果は、推移データ格納部104に格納される。例えば、図20に示すようなデータが格納される。図20の例では、x軸及びy軸のそれぞれについて、時刻t=1から6までの各時刻について実質移動量movx及びmovyが登録される。なお、実質移動量は、その符号によってx軸方向及びy軸方向の向きを表している。図14乃至図19で示したように、x軸方向で正の実質移動量であれば右向き、負の実質移動量であれば左向き、y軸方向で正の実質移動量であれば上向き、負の実質移動量であれば下向きを表す。
図7の処理の説明に戻って、推移特定部103は、移動方向推定部1031によって算出された推定移動方向から、各時刻の移動方向ラベルを特定し、推移データ格納部104に格納する(ステップS11)。
図20に示すような結果が得られた場合には、図21に示すようなデータが得られる。なお、右向きはRと表し、左向きはLと表し、上向きはUと表し、下向きはDと表すものとする。
本実施の形態では、例えば実質移動量の絶対値が10以下の場合には、誤差として検出されなかったものとする。また、実質移動量の絶対値が、表示画面の枠を超えるような値(y軸方向であれば高さHeight以上、x軸方向であれば横幅width以上)であれば、表示画面以外を見ているものとして、これも検出されなかったものとする。
そうすると、図21において、x軸方向t=2及びy軸方向t=5については、実質移動量の絶対値が10以下なので除外されて「−」で表されている。それ以外は、上で述べたようなルールで、ラベル付けされている。なお、説明の都合上t=7についてはラベル付けされていない。
さらに、推移特定部103は、各時刻の移動方向ラベルを、各時間帯について集約し、その集約結果を推移データ格納部104に格納する(ステップS13)。例えば、2秒毎に時間帯を設定するとすると、その2秒間に含まれるラベル(例えば7点)のうち例えば閾値以上(例えば6割以上)を占めるラベルがあれば、そのラベルをその時間帯を代表するラベルとして設定し、そのようなラベルが存在しなければその時間帯を代表するラベルは無し「−」とする。
例えば、図21に示した例では、x軸方向では全てRとなっているので、Rが選択される。y軸方向では5つのうち4つがDとなっているので、Dが選択される。このような判断を各時間帯について行うことで、図22に示すようなデータが得られる。この例では、図21で示したデータが、図22の時刻0−2の2秒間の時間帯の推移データとして、集約される。
そして、推移特定部103は、収集データ格納部102において、未処理のユーザが存在するか判断する(ステップS15)。未処理のユーザが存在する場合には、処理はステップS7に戻る。一方、未処理のユーザが存在しない場合には、処理は端子Bを介して図23のステップS51に移行する。
図23のステップS51へ端子Bを介して移行して、抽出部105は、現時点が、多数派及び少数派を特定するための第2のタイミングになったか判断する(ステップS51)。例えば、タイマにより計測された所定のタイミングであるか否か、または処理すべきデータが揃ったといったタイミングであるか否かを判断する。現時点が上で述べたような第2のタイミングではない場合には、処理を終了する。
一方、現時点が、第2のタイミングであれば、抽出部105は、複数のユーザの視点推移データを複数の時間帯を含む一定時間分を、読み出す(ステップS53)。
そして、抽出部105の多数派決定部1051は、x軸及びy軸の各々について、各時間帯の移動方向の多数派を決定する(ステップS55)。
図24を用いて、多数派決定について説明する。図24の例では、x軸、y軸それぞれについて、n人のユーザの各々について、各時間帯の移動方向ラベルが列挙されている。そこで、本ステップでは、各時間帯について、最も人数が多い移動方向ラベルを、移動方向の多数派として決定する。例えば、0−2秒の時間帯については、x軸については、「R」が選択されたユーザの数が多いので「R」を多数派として特定する。y軸については、例えば「D」と「U」とが同数で多数派が特定できないので、多数派なし「−」が登録される。これを各時間帯について行えば、x軸についての最終行、y軸についての最終行が得られるようになる。
その後、抽出部105の少数派抽出部1052は、読み出したデータのうち未処理のユーザを一人抽出する(ステップS57)。そして、少数派抽出部1052は、特定されたユーザについて、時間帯毎に、多数派との類似度を算出する(ステップS59)。
より具体的には、各時間帯について、多数派の移動方向と一致していれば「1」、不一致であれば「0」、それ以外(例えばいずれかが「−」)であれば「0.5」といったように類似度を算出する。図24に示した例であれば、本ステップを実行することで、1番目のユーザ「UserR1」について、図25に示すような結果が得られる。この例では、x軸については「1」が多いが、y軸については「1」は多くない。
なお、本ステップにおいて、x軸について類似度の平均値又は総和、及びy軸について類似度の平均値又は総和を算出して、総合的な類似度として採用しても良い。さらに、各時間帯について平均値などを計算した後、平均値や総和にて総合的な類似度を算出するようにしても良い。
そして、少数派抽出部1052は、読み出したデータのうち未処理のユーザが存在するか否かを判断する(ステップS61)。未処理のユーザが存在する場合には、処理はステップS57に戻る。一方、未処理のユーザが存在しない場合には、少数派抽出部1052は、算出された類似度に基づき少数派のユーザを抽出し、当該抽出されたユーザについてのデータを、抽出データ格納部106に格納する(ステップS63)。例えば、総合的な類似度が、閾値未満であるユーザを少数派として特定しても良いし、x軸又はy軸で類似度「1」の時間帯が、所定数未満であるユーザを少数派として特定しても良い。
その後、出力部107は、抽出データ格納部106に格納された少数派ユーザのデータを、例えば管理者端末400へ送信する(ステップS65)。これによって、管理者は、問題のあるユーザを特定できる。なお、少数派ユーザのユーザ側情報処理装置300へ、警告データを送信するようにしても良い。
このような処理を例えば定期的に又は管理者などからの要求に応じて繰り返すようにすれば、典型的でない視線の移動方向推移をなしたユーザを特定できるようになる。
本実施の形態によれば、低精度の視線センサを用いていても、視線の移動方向をその特性に応じた方法で抽出することで、視線の移動方向推移が特定され、多数派及び少数派を特定できるようになる。
これによって、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしなどを検出、そして抑制させることができる。
[実施の形態2]
本実施の形態では第1の実施の形態とは異なる少数派ユーザの抽出方法を採用する。但し、図5に示したシステムの概要は、本実施の形態でも同様である。
図26に、本実施の形態に係る主情報処理装置100bの構成例を示す。
本実施の形態に係る主情報処理装置100bの基本構成は、第1の実施の形態と同様であり、推移特定部103bと抽出部105bの構成が異なる。
すなわち、推移特定部103bは、移動方向推定部1031に加えて、矩形処理部1032を有する。矩形処理部1032は、各時間帯における視線の移動方向推移を、数値化するための処理を実行する。
また、抽出部105bは、類似度算出部1053と少数派抽出部1052bとを有する。類似度算出部1053は、矩形処理部1032の処理結果に基づき、各ユーザについて、当該ユーザと他のユーザとの類似度を算出する。
少数派抽出部1052bは、類似度算出部1053によって算出された類似度に基づき、少数派ユーザを抽出する。
次に、図27乃至図32を用いて、本実施の形態に係る主情報処理装置100bの処理内容について説明する。
まず、データ収集部101は、各ユーザ側情報処理装置300a乃至300nから、センサデータ及び表示履歴データなどを受信し、センサデータを視点座標データに変換して、収集データ格納部102に格納する(図27:ステップS101)。本ステップは、ステップS1と同様である。
次に、推移特定部103bは、現時点が、視線の移動方向推移を特定するための第1のタイミングであるか否かを判断する(ステップS103)。このステップは、ステップS3と同様である。現時点が上で述べたような第1のタイミングではない場合には、処理は端子Cを介して図31に移行する。
一方、現時点が上で述べたような第1のタイミングであれば、推移特定部103bは、収集データ格納部102から、処理すべき複数の時間帯における処理対象ユーザについての視点座標データを読み出す(ステップS105)。このステップは、ステップS5と同様である。
そして、推移特定部103bは、読み出した視点座標データにおいて、未処理のユーザを一人特定する(ステップS107)。このステップは、ステップS7と同様である。そして、移動方向推定部1031は、特定されたユーザについて移動方向推定処理を実行し、処理結果を推移データ格納部104に格納する(ステップS109)。この移動方向推定処理については、図13に示したものと同様である。
そして、矩形処理部1032は、各時間帯について、視点座標と当該視点座標における移動方向(x軸方向の実質移動量及びy軸方向の実質移動量)とを包含する包含矩形の矩形面積及び中心点の座標値(又はそれらのうちいずれか)を算出し、推移データ格納部104に格納する(ステップS111)。
例えば、図2の例では、図28に示すような包含矩形Fが特定される。なお、包含矩形Fの中心点は、点fである。このように、ある領域を注視しているような状態であれば、矩形はおおよそ視線位置の包含矩形と一致する。但し、図1(b)のように視線が大きく移動している時間帯であれば、図29に示すように、視線位置からの移動方向に応じた移動先座標で包含矩形の形状が決まってくる。なお、図29において外側の枠は、図1(b)と同じ向きで画面を示した場合の表示領域の外形を示している。
そうすると、図30に示すようなデータが、推移データ格納部104に格納される。図30の例では、包含矩形の矩形面積と、包含矩形の中心点座標とが、ユーザ毎且つ時間帯毎に格納される。
そして、推移特定部103bは、ステップS105で読み出したデータのうち未処理のユーザが存在するか否かを判断する(ステップS113)。未処理のユーザが存在する場合には、処理はステップS107に戻る。一方、未処理のユーザが存在しない場合には、処理は端子Dを介して図31の処理に移行する。
図31の処理の説明に移行して、抽出部105bは、現時点が、多数派及び少数派を特定するための第2のタイミングになったか判断する(ステップS115)。本ステップは、ステップS51と同様である。現時点が上で述べたような第2のタイミングではない場合には、処理を終了する。
一方、現時点が、第2のタイミングであれば、抽出部105bは、複数のユーザの視点推移データを複数の時間帯を含む一定時間分を、読み出す(ステップS117)。
そして、類似度算出部1053は、ステップS117で読み出したデータにおいて、未処理のユーザを一人特定する(ステップS119)。また、類似度算出部1053は、時間帯毎に、他のユーザ各々との類似度を算出する(ステップS121)。
例えば、包含矩形の矩形面積については、1−|第1のユーザの矩形面積−第2のユーザの矩形面積|/正規化のための基準面積で算出する。第1のユーザが、ステップS119で特定されたユーザである。正規化のための基準面積には、全てのユーザに対して同一の値を用いるようにしても良いし、第1のユーザの矩形面積であっても良い。
さらに、包含矩形の中心点についての類似度については、1−正規化された中心点距離で算出する。正規化された中心点距離は、{(第1のユーザのx座標値−第2のユーザのx座標値)2+(第1のユーザのy座標値−第2のユーザのy座標値)20.5/正規化のための基準距離で算出される。正規化のための基準距離は、例えば画面の対角距離、例えば1600×1200ピクセルであれば、対角距離は2000ピクセルとなる。
例えば、図30の例で、時刻0−2秒の時間帯について各ユーザについて他のユーザとの類似度を、包含矩形の矩形面積及び中心点の各々について算出した例を、図32に示す。図32に示すように、他のユーザとの個別の類似度だけではなく、他のユーザ全体との類似度も算出される。他のユーザ全体の類似度は、他のユーザとの類似度の平均値であってもよい。但し、包含矩形の矩形面積の類似度と、包含矩形の中心点についての類似度とを平均して、他のユーザ全体との類似度を算出するようにしても良い。
そして、図32に示すようなデータを、各時間帯について生成する。
また、類似度算出部1053は、他ユーザとの総合類似度を算出する(ステップS123)。具体的には、各時間帯について算出された他のユーザ全体との類似度を複数のユーザ間で平均値を算出するようにしても良いし、各ユーザ毎に算出された他のユーザ全体との類似度の最小値を採用しても良い。包含矩形の矩形面積についての総合類似度と中心点についての総合類似度とをそれぞれ算出しておいてもよいし、それらを平均値等を用いてまとめた1つの総合類似度を算出しても良い。
そして、類似度算出部1053は、ステップS117で読み出したデータにおいて、未処理のユーザが存在するか否かを判断する(ステップS125)。未処理のユーザが存在する場合には、処理はステップS119に戻る。
一方、未処理のユーザが存在しない場合には、少数派抽出部1052bは、総合類似度が閾値未満のユーザを少数派として抽出し、抽出結果を抽出データ格納部106に格納する(ステップS127)。例えば、包含矩形の矩形面積についての総合類似度が、第1の閾値未満である場合、又は中心点についての総合類似度が、第2の閾値未満である場合に、少数派ユーザとして抽出するようにしても良い。さらに、矩形面積についての総合類似度と中心点についての総合類似度をさらにまとめた類似度を算出した場合には、そのための第3の閾値未満であれば少数派ユーザとして抽出するようにしても良い。
なお、多数派ユーザを抽出しておいても良い。
その後、出力部107は、抽出データ格納部106に格納された少数派ユーザのデータを、例えば管理者端末400へ送信する(ステップS129)。これによって、管理者は、問題のあるユーザを特定できる。なお、少数派ユーザのユーザ側情報処理装置300へ、警告データを送信するようにしても良い。
このような処理を例えば定期的に又は管理者などからの要求に応じて繰り返すようにすれば、典型的でない視線の移動方向推移をなしたユーザを特定できるようになる。
以上のような処理を実行することで、低精度の視線センサを用いていても、視線の移動方向をその特性に応じた方法で抽出して視線の移動方向推移が特定され、類似度として評価した上で多数派及び少数派を特定できるようになる。
[その他の実施の形態]
第2の実施の形態では、包含矩形を、注目する時間帯における視点座標と当該視点座標における移動方向(x軸方向の実質移動量及びy軸方向の実質移動量)とを包含するように定義したが、他の定義を採用しても良い。
例えば、視点座標と、x軸方向の実質移動量movxとy軸方向の実質移動量movyで特定される矩形とを包含するように、包含矩形を定義するようにしても良い。このような矩形を、視線の移動範囲として取り扱うためである。
図33に模式的に示すように、第1の視線位置から横幅movx_1と縦幅movy_1の矩形Gを特定する。このような矩形を、着目する時間帯における各視線位置について生成して、それらをも含む包含矩形を特定するものである。
また、図20に示すようなmovx_1及びmovy_1が得られた場合に、上で述べたように、例えば実質移動量の絶対値が10以下の場合には、誤差として検出されなかったものとする。また、実質移動量の絶対値が、表示画面の枠を超えるような値(y軸方向であれば高さHeight以上、x軸方向であれば横幅width以上)であれば、表示画面以外を見ているものとして、これも検出されなかったものとする。
それだけではなく、視線検出誤差rad(図2の円の半径)以上の移動がある場合には、明らかに視線の移動が起こったと判断できるため、実施の形態で行うような視線の移動方向推移を特定するための処理を行うことは、移動方向を特定するという目的においては、冗長と言える。従って、rad(例えば300)以上の値がmovx又はmovyとして算出された場合には、radを採用するものとする。
そうすると、図20のような結果は、図34に示すように変更される。図34をそのまま採用して、第2の実施の形態のように包含矩形を特定するようにしても良いし、上で述べたような新たな定義を採用して包含矩形を特定するようにしても良い。
さらに、このような処理によって採用されたmovx及びmovyの数によって、その時間帯の信頼度を算出するようにしても良い。
図34では、時刻0−2秒に含まれる8点の視線位置で特定される7つの時間間隔うち6つだけを算出しているが、x軸方向については、6点中4点採用されており、y軸方向については、6点中5点採用されている。従って、x軸方向の信頼度は2/3であり、y軸方向の信頼度は5/6である。なお、x軸及びy軸についての信頼度を平均化しても良い。
このような信頼度を、movx及びmovyで特定される矩形のサイズに反映させることも考えられる。例えば、movx及びmovyで特定される矩形の中心に、信頼度を反映させた後の矩形を配置する。
図34の例で、仮に信頼度が1/2であるとすると、第1の視線位置については、図35に示すような矩形H1が得られる。また、第2の視線位置については、図36に示すように、x軸方向はmovxが無しと取り扱われるので、線となった矩形H2が得られる。第3の視線位置については、図37に示すような矩形H3が得られる。また、第4の視線位置については、図38に示すように、元々のmovx及びmovyが短縮されており、短縮されたmovx及びmovyに対して信頼度を反映させて、矩形H4が得られる。第5の視線位置については、図39に示すように、y軸方向はmovyが無しと取り扱われるので、線となった矩形H5が得られる。同様に、図40に示すように、第6の視線位置については、x軸方向はmovxが無しと取り扱われるので、線となった矩形H6が得られる。
そうすると、図41に示すような包含矩形Jが得られるようになる。この例では、図28と同様の結果が得られるが、必ず一致するわけではない。
このような信頼度を用いた矩形の設定処理について、図42にまとめておく。なお、この処理は、ステップS111の一部として、矩形処理部1032によって実行されるものとする。
例えば、矩形処理部1032は、未処理の時間帯を1つ特定する(ステップS201)。そして、矩形処理部1032は、特定された時間帯に含まれる各視線位置について算出された実質移動量のうち、除外条件を満たす実質移動量を除外し、閾値(上で述べたr)以上の実質移動量を閾値に短縮する(ステップS203)。
矩形処理部1032は、実質移動量の数に対する残った実質移動量の数の割合にて信頼度を算出する(ステップS205)。さらに、矩形処理部1032は、信頼度に応じて実質移動量を調整する(ステップS207)。そして、矩形処理部1032は、調整後の実質移動量に応じた矩形を、調整前の実質移動量で特定される矩形の中心に配置する(ステップS209)。矩形配置の位置は一例で、視線位置に合せて配置しても良い。
その後、矩形処理部1032は、未処理の時間帯が存在するか判断する(ステップS211)。未処理の時間帯が存在する場合には、処理はステップS201に戻る。一方、未処理の時間帯が存在しない場合には、元の処理に戻る。
なお、このように得られた各矩形、各包含矩形は、少数派ユーザの抽出における1つのパラメータとしてではなく、視線が存在していた可能性の高い領域として、目視領域や目視領域の推移を特定するために用いるようにしても良い。また、これらの目視領域や目視領域の推移を用いて、多数派および少数派に属するユーザの視線の時系列の流れを記録したり、後日記録を再生したりすることで、書類の確認作業や、オンライン教育受講の様子のロギングやログ確認手段として用いても良い。
以上、本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、主情報処理装置100及び100bの構成例は、プログラムモジュール構成とは一致しない場合もある。また、処理フローについても、処理結果が変わらない限り、処理順番を入れ替えたり、並列実行するようにしても良い。
さらに、主情報処理装置100及び100bは、1台のコンピュータではなく、複数台のコンピュータによって機能分担するようにしても良い。上でも述べたように、ユーザ側情報処理装置300及び主情報処理装置100又は100bは、それぞれ上で述べた各機能を分担保持する。
なお、上で述べた主情報処理装置100及び100bは、コンピュータ装置であって、図43に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本技術の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
以上述べた本実施の形態をまとめると、以下のようになる。
本実施の形態に係る情報処理装置は、(A)表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された視線の移動履歴から、複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、(B)複数のユーザの各々について特定された視線の移動方向推移に基づき、複数のユーザのうち少数派のユーザを抽出する抽出部とを有する。
このようにすれば、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしなどを行うユーザが少数派ユーザであれば、このような少数派ユーザを抽出でき、少数派ユーザに警告や注意などを行うことができるようになる。
また、上で述べた抽出部が、(b1)複数のユーザの視線の移動方向推移を各時間帯で比較することで、複数のユーザのうち多数派とみなす視線の移動方向推移を特定し、(b2)複数のユーザのうち多数派とみなす視線の移動方向推移と非類似となる視線の移動方向推移が特定されたユーザを抽出するようにしても良い。時間帯毎に基準となる視線の移動方向推移を特定することで、少数派を特定しやすくなる。
さらに、上で述べた抽出部が、(b3)複数のユーザの各々について、当該ユーザの視線の移動方向推移と他のユーザの視線の移動方向推移とを比較して類似度を算出し、(b4)複数のユーザの各々について、当該ユーザについて算出された類似度に基づき少数派のユーザを抽出するようにしても良い。このように数値として他のユーザに対する類似度を算出することで、少数派ユーザが抽出できるようになる。
さらに、上で述べた特定部が、各視線位置について、当該視線位置からの所定時間内における実質移動量を算出するようにしても良い。一方、上で述べた特定部が、各視線位置について、表示画面上の各軸方向に、当該視線位置から所定時間内において方向転換を検出した視線位置までの累積移動量を算出するようにしても良い。このような精度の低いセンサを考慮した特徴的な指標値に基づき処理を行うようにすれば、好ましい判断を行うことができるようになる。
さらに、上で述べた特定部が、各時間帯において、当該時間帯における各視線位置及び各累積移動量から特定される矩形の面積と当該矩形の中心座標との少なくともいずれかを算出することで、視線の移動方向推移を特定するようにしても良い。このような矩形は、視線移動の傾向を特徴付けるものである。
また、上で述べた矩形が、各軸方向に累積移動量に応じて設定される辺を有する第2の矩形と、各視線位置を包含する矩形であるようにしても良い。
さらに、上で述べた特定部が、(a1)各時間帯において、当該時間帯における各視線位置について算出された累積移動量が、所定の範囲内であるか判断し、(a2)所定の範囲内である累積移動量が算出された視線位置の個数を時間帯における視線位置の個数で除することで信頼度を算出し、(a3)所定の範囲内である累積移動量に対して信頼度を乗じることで得られる長さを有する辺を有する第2の矩形を配置するようにしても良い。このようにすれば、累積移動量の有効性を表す信頼度を考慮して類似度を算出できるようになる。
なお、上で述べたような処理をプロセッサ又はコンピュータに実行させるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブル・ディスク、CD−ROMなどの光ディスク、光磁気ディスク、半導体メモリ(例えばROM)、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。なお、処理途中のデータについては、RAM等の記憶装置に一時保管される。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する抽出部と、
を有する情報処理装置。
(付記2)
前記抽出部が、
前記複数のユーザの前記視線の移動方向推移を各時間帯で比較することで、前記複数のユーザのうち多数派とみなす視線の移動方向推移を特定し、
前記複数のユーザのうち多数派とみなす視線の移動方向推移と非類似となる前記視線の移動方向推移が特定されたユーザを抽出する
付記1記載の情報処理装置。
(付記3)
前記抽出部が、
前記複数のユーザの各々について、当該ユーザの前記視線の移動方向推移と他のユーザの前記視線の移動方向推移とを比較して類似度を算出し、
前記複数のユーザの各々について、当該ユーザについて算出された類似度に基づき前記少数派のユーザを抽出する
付記1記載の情報処理装置。
(付記4)
前記特定部が、
各視線位置について、当該視線位置からの所定時間内における実質移動量を算出する
付記1乃至3のいずれか1つ記載の情報処理装置。
(付記5)
前記特定部が、
各視線位置について、前記表示画面上の各軸方向に、当該視線位置から所定時間内において方向転換を検出した視線位置までの累積移動量を算出する
付記1乃至3のいずれか1つ記載の情報処理装置。
(付記6)
前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置及び各前記累積移動量から特定される矩形の面積と当該矩形の中心座標との少なくともいずれかを算出することで、前記視線の移動方向推移を特定する
付記5記載の情報処理装置。
(付記7)
前記矩形が、
各前記軸方向に前記累積移動量に応じて設定される辺を有する第2の矩形と、各前記視線位置を包含する矩形である
付記6記載の情報処理装置。
(付記8)
前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置について算出された前記累積移動量が、所定の範囲内であるか判断し、
前記所定の範囲内である累積移動量が算出された視線位置の個数を前記時間帯における視線位置の個数で除することで信頼度を算出し、
前記所定の範囲内である累積移動量に対して信頼度を乗じることで得られる長さを有する辺を有する前記第2の矩形を配置する
付記7記載の情報処理装置。
(付記9)
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を含み、コンピュータにより実行される情報処理方法。
(付記10)
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を、コンピュータに実行させるためのプログラム。
100 主情報処理装置
101 データ収集部
102 収集データ格納部
103 推移特定部
104 推移データ格納部
105 抽出部
106 抽出データ格納部
107 出力部

Claims (10)

  1. 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、
    前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する抽出部と、
    を有する情報処理装置。
  2. 前記抽出部が、
    前記複数のユーザの前記視線の移動方向推移を各時間帯で比較することで、前記複数のユーザのうち多数派とみなす視線の移動方向推移を特定し、
    前記複数のユーザのうち多数派とみなす視線の移動方向推移と非類似となる前記視線の移動方向推移が特定されたユーザを抽出する
    請求項1記載の情報処理装置。
  3. 前記抽出部が、
    前記複数のユーザの各々について、当該ユーザの前記視線の移動方向推移と他のユーザの前記視線の移動方向推移とを比較して類似度を算出し、
    前記複数のユーザの各々について、当該ユーザについて算出された類似度に基づき前記少数派のユーザを抽出する
    請求項1記載の情報処理装置。
  4. 前記特定部が、
    各視線位置について、当該視線位置からの所定時間内における実質移動量を算出する
    請求項1乃至3のいずれか1つ記載の情報処理装置。
  5. 前記特定部が、
    各視線位置について、前記表示画面上の各軸方向に、当該視線位置から所定時間内において方向転換を検出した視線位置までの累積移動量を算出する
    請求項1乃至3のいずれか1つ記載の情報処理装置。
  6. 前記特定部が、
    各前記時間帯において、当該時間帯における各前記視線位置及び各前記累積移動量から特定される矩形の面積と当該矩形の中心座標との少なくともいずれかを算出することで、前記視線の移動方向推移を特定する
    請求項5記載の情報処理装置。
  7. 前記矩形が、
    各前記軸方向に前記累積移動量に応じて設定される辺を有する第2の矩形と、各前記視線位置を包含する矩形である
    請求項6記載の情報処理装置。
  8. 前記特定部が、
    各前記時間帯において、当該時間帯における各前記視線位置について算出された前記累積移動量が、所定の範囲内であるか判断し、
    前記所定の範囲内である累積移動量が算出された視線位置の個数を前記時間帯における視線位置の個数で除することで信頼度を算出し、
    前記所定の範囲内である累積移動量に対して信頼度を乗じることで得られる長さを有する辺を有する前記第2の矩形を配置する
    請求項7記載の情報処理装置。
  9. 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
    前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
    処理を含み、コンピュータにより実行される情報処理方法。
  10. 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
    前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
    処理を、コンピュータに実行させるためのプログラム。
JP2014071251A 2014-03-31 2014-03-31 情報処理装置、方法及びプログラム Active JP6287486B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014071251A JP6287486B2 (ja) 2014-03-31 2014-03-31 情報処理装置、方法及びプログラム
EP15153718.0A EP2926721B1 (en) 2014-03-31 2015-02-03 Information processing technique for eye gaze movements
US14/616,886 US9851789B2 (en) 2014-03-31 2015-02-09 Information processing technique for eye gaze movements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014071251A JP6287486B2 (ja) 2014-03-31 2014-03-31 情報処理装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015194809A JP2015194809A (ja) 2015-11-05
JP6287486B2 true JP6287486B2 (ja) 2018-03-07

Family

ID=52446262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014071251A Active JP6287486B2 (ja) 2014-03-31 2014-03-31 情報処理装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US9851789B2 (ja)
EP (1) EP2926721B1 (ja)
JP (1) JP6287486B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10026095B2 (en) * 2013-09-10 2018-07-17 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
US10878446B2 (en) * 2014-08-18 2020-12-29 Chian Chiu Li Systems and methods for obtaining and utilizing user reaction and feedback
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
US10482661B2 (en) * 2016-03-01 2019-11-19 International Business Machines Corporation Displaying of augmented reality objects
WO2020102671A1 (en) * 2018-11-15 2020-05-22 Worcester Polytechnic Institute Text simplification system utilizing eye-tracking

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4889422A (en) * 1986-01-28 1989-12-26 George Pavlidis Method and means for detecting dyslexia
JPH0556925A (ja) 1991-09-02 1993-03-09 A T R Tsushin Syst Kenkyusho:Kk 視線情報制御装置
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6608615B1 (en) * 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
JP2002149332A (ja) 2000-11-10 2002-05-24 Fuji Xerox Co Ltd 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体
US7380938B2 (en) * 2003-03-25 2008-06-03 Sarnoff Corporation Apparatus to detect and measure saccade and pupilary changes
US8136944B2 (en) * 2008-08-15 2012-03-20 iMotions - Eye Tracking A/S System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
KR20120053803A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법
WO2012150657A1 (ja) 2011-05-02 2012-11-08 パナソニック株式会社 集中有無推定装置及びコンテンツ評価装置
JP5148016B2 (ja) * 2011-05-20 2013-02-20 パナソニック株式会社 立体映像提供装置及びその方法
US8655796B2 (en) * 2011-06-17 2014-02-18 Sanjay Udani Methods and systems for recording verifiable documentation
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
JP5785015B2 (ja) 2011-07-25 2015-09-24 京セラ株式会社 電子機器、電子文書制御プログラムおよび電子文書制御方法
US8719278B2 (en) * 2011-08-29 2014-05-06 Buckyball Mobile Inc. Method and system of scoring documents based on attributes obtained from a digital document by eye-tracking data analysis
JP5926210B2 (ja) * 2012-03-21 2016-05-25 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
JP6559062B2 (ja) * 2012-03-26 2019-08-14 ニューヨーク ユニバーシティ 中枢神経系の完全性を評価するための方法およびキット
JP6003277B2 (ja) * 2012-06-19 2016-10-05 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP6131540B2 (ja) * 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
US10085688B2 (en) * 2012-11-20 2018-10-02 El-Mar Inc. Method of identifying an individual with a disorder or efficacy of a treatment of a disorder
US20150213634A1 (en) * 2013-01-28 2015-07-30 Amit V. KARMARKAR Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
US9301675B2 (en) * 2013-03-15 2016-04-05 Neuro Kinetics, Inc Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target
GB201305726D0 (en) * 2013-03-28 2013-05-15 Eye Tracking Analysts Ltd A method for calibration free eye tracking
JP6547268B2 (ja) * 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム

Also Published As

Publication number Publication date
JP2015194809A (ja) 2015-11-05
US9851789B2 (en) 2017-12-26
EP2926721A1 (en) 2015-10-07
US20150277556A1 (en) 2015-10-01
EP2926721B1 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
CA3151944C (en) Virtual fitting systems and methods for spectacles
JP6287486B2 (ja) 情報処理装置、方法及びプログラム
US9613274B2 (en) Identifying an obstacle in a route
US9836651B2 (en) Displaying information relating to a designated marker
EP2724209B1 (en) Computer device operable with user's eye movement and method for operating the computer device
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US9700200B2 (en) Detecting visual impairment through normal use of a mobile device
JP2014153813A5 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013077215A5 (ja)
JP2015153267A5 (ja)
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP2007213469A (ja) 視線制御表示装置と表示方法
CN110956131B (zh) 单目标追踪方法、装置及***
JP2016224919A (ja) データ閲覧装置、データ閲覧方法、及びプログラム
WO2018008702A1 (ja) 振る舞い検知システム
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
JP2015130105A (ja) オペレータ監視制御装置およびオペレータ監視制御方法
CN109389082B (zh) 视线采集方法、装置、***、计算机可读存储介质
JP6651814B2 (ja) 領域抽出装置、領域抽出プログラム、及び領域抽出方法
US20220012278A1 (en) Search Input Generation for Image Search
JP6618349B2 (ja) 映像検索システム
JP6943183B2 (ja) 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置
JP7165108B2 (ja) 作業訓練システム及び作業訓練支援方法
CN108446693B (zh) 待识别目标的标记方法、***、设备及存储介质
CN110798681A (zh) 成像设备的监测方法、装置和计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R150 Certificate of patent or registration of utility model

Ref document number: 6287486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150