JP6287486B2 - 情報処理装置、方法及びプログラム - Google Patents
情報処理装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6287486B2 JP6287486B2 JP2014071251A JP2014071251A JP6287486B2 JP 6287486 B2 JP6287486 B2 JP 6287486B2 JP 2014071251 A JP2014071251 A JP 2014071251A JP 2014071251 A JP2014071251 A JP 2014071251A JP 6287486 B2 JP6287486 B2 JP 6287486B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- users
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 58
- 238000000034 method Methods 0.000 title claims description 42
- 230000007704 transition Effects 0.000 claims description 85
- 238000013500 data storage Methods 0.000 claims description 43
- 238000000605 extraction Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 33
- 230000001186 cumulative effect Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 43
- 238000004364 calculation method Methods 0.000 description 11
- 238000013480 data collection Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本実施の形態では、各ユーザについて視線の移動方向の推移を把握し、それらに基づき典型的な視線の移動方向推移とは異なる視線の移動方向推移が把握されたユーザを検出する。このようなユーザは、書類の記入漏れ確認作業やオンライン教育等において、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしを行った可能性がある。よって、このようなユーザや管理者に警告を発することで、書類の部分的な確認作業忘れや、オンライン教育における重要箇所の読み飛ばしなどを抑制させることができる。
本実施の形態では第1の実施の形態とは異なる少数派ユーザの抽出方法を採用する。但し、図5に示したシステムの概要は、本実施の形態でも同様である。
第2の実施の形態では、包含矩形を、注目する時間帯における視点座標と当該視点座標における移動方向(x軸方向の実質移動量及びy軸方向の実質移動量)とを包含するように定義したが、他の定義を採用しても良い。
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する抽出部と、
を有する情報処理装置。
前記抽出部が、
前記複数のユーザの前記視線の移動方向推移を各時間帯で比較することで、前記複数のユーザのうち多数派とみなす視線の移動方向推移を特定し、
前記複数のユーザのうち多数派とみなす視線の移動方向推移と非類似となる前記視線の移動方向推移が特定されたユーザを抽出する
付記1記載の情報処理装置。
前記抽出部が、
前記複数のユーザの各々について、当該ユーザの前記視線の移動方向推移と他のユーザの前記視線の移動方向推移とを比較して類似度を算出し、
前記複数のユーザの各々について、当該ユーザについて算出された類似度に基づき前記少数派のユーザを抽出する
付記1記載の情報処理装置。
前記特定部が、
各視線位置について、当該視線位置からの所定時間内における実質移動量を算出する
付記1乃至3のいずれか1つ記載の情報処理装置。
前記特定部が、
各視線位置について、前記表示画面上の各軸方向に、当該視線位置から所定時間内において方向転換を検出した視線位置までの累積移動量を算出する
付記1乃至3のいずれか1つ記載の情報処理装置。
前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置及び各前記累積移動量から特定される矩形の面積と当該矩形の中心座標との少なくともいずれかを算出することで、前記視線の移動方向推移を特定する
付記5記載の情報処理装置。
前記矩形が、
各前記軸方向に前記累積移動量に応じて設定される辺を有する第2の矩形と、各前記視線位置を包含する矩形である
付記6記載の情報処理装置。
前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置について算出された前記累積移動量が、所定の範囲内であるか判断し、
前記所定の範囲内である累積移動量が算出された視線位置の個数を前記時間帯における視線位置の個数で除することで信頼度を算出し、
前記所定の範囲内である累積移動量に対して信頼度を乗じることで得られる長さを有する辺を有する前記第2の矩形を配置する
付記7記載の情報処理装置。
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を含み、コンピュータにより実行される情報処理方法。
表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を、コンピュータに実行させるためのプログラム。
101 データ収集部
102 収集データ格納部
103 推移特定部
104 推移データ格納部
105 抽出部
106 抽出データ格納部
107 出力部
Claims (10)
- 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定する特定部と、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する抽出部と、
を有する情報処理装置。 - 前記抽出部が、
前記複数のユーザの前記視線の移動方向推移を各時間帯で比較することで、前記複数のユーザのうち多数派とみなす視線の移動方向推移を特定し、
前記複数のユーザのうち多数派とみなす視線の移動方向推移と非類似となる前記視線の移動方向推移が特定されたユーザを抽出する
請求項1記載の情報処理装置。 - 前記抽出部が、
前記複数のユーザの各々について、当該ユーザの前記視線の移動方向推移と他のユーザの前記視線の移動方向推移とを比較して類似度を算出し、
前記複数のユーザの各々について、当該ユーザについて算出された類似度に基づき前記少数派のユーザを抽出する
請求項1記載の情報処理装置。 - 前記特定部が、
各視線位置について、当該視線位置からの所定時間内における実質移動量を算出する
請求項1乃至3のいずれか1つ記載の情報処理装置。 - 前記特定部が、
各視線位置について、前記表示画面上の各軸方向に、当該視線位置から所定時間内において方向転換を検出した視線位置までの累積移動量を算出する
請求項1乃至3のいずれか1つ記載の情報処理装置。 - 前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置及び各前記累積移動量から特定される矩形の面積と当該矩形の中心座標との少なくともいずれかを算出することで、前記視線の移動方向推移を特定する
請求項5記載の情報処理装置。 - 前記矩形が、
各前記軸方向に前記累積移動量に応じて設定される辺を有する第2の矩形と、各前記視線位置を包含する矩形である
請求項6記載の情報処理装置。 - 前記特定部が、
各前記時間帯において、当該時間帯における各前記視線位置について算出された前記累積移動量が、所定の範囲内であるか判断し、
前記所定の範囲内である累積移動量が算出された視線位置の個数を前記時間帯における視線位置の個数で除することで信頼度を算出し、
前記所定の範囲内である累積移動量に対して信頼度を乗じることで得られる長さを有する辺を有する前記第2の矩形を配置する
請求項7記載の情報処理装置。 - 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を含み、コンピュータにより実行される情報処理方法。 - 表示画面上における複数のユーザの視線の移動履歴を格納するデータ格納部に格納された前記視線の移動履歴から、前記複数のユーザの各々について、当該ユーザの視線の移動方向推移を特定し、
前記複数のユーザの各々について特定された前記視線の移動方向推移に基づき、前記複数のユーザのうち少数派のユーザを抽出する
処理を、コンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014071251A JP6287486B2 (ja) | 2014-03-31 | 2014-03-31 | 情報処理装置、方法及びプログラム |
EP15153718.0A EP2926721B1 (en) | 2014-03-31 | 2015-02-03 | Information processing technique for eye gaze movements |
US14/616,886 US9851789B2 (en) | 2014-03-31 | 2015-02-09 | Information processing technique for eye gaze movements |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014071251A JP6287486B2 (ja) | 2014-03-31 | 2014-03-31 | 情報処理装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015194809A JP2015194809A (ja) | 2015-11-05 |
JP6287486B2 true JP6287486B2 (ja) | 2018-03-07 |
Family
ID=52446262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014071251A Active JP6287486B2 (ja) | 2014-03-31 | 2014-03-31 | 情報処理装置、方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9851789B2 (ja) |
EP (1) | EP2926721B1 (ja) |
JP (1) | JP6287486B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10026095B2 (en) * | 2013-09-10 | 2018-07-17 | Chian Chiu Li | Systems and methods for obtaining and utilizing user reaction and feedback |
US10878446B2 (en) * | 2014-08-18 | 2020-12-29 | Chian Chiu Li | Systems and methods for obtaining and utilizing user reaction and feedback |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
US10482661B2 (en) * | 2016-03-01 | 2019-11-19 | International Business Machines Corporation | Displaying of augmented reality objects |
WO2020102671A1 (en) * | 2018-11-15 | 2020-05-22 | Worcester Polytechnic Institute | Text simplification system utilizing eye-tracking |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4889422A (en) * | 1986-01-28 | 1989-12-26 | George Pavlidis | Method and means for detecting dyslexia |
JPH0556925A (ja) | 1991-09-02 | 1993-03-09 | A T R Tsushin Syst Kenkyusho:Kk | 視線情報制御装置 |
US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
US6608615B1 (en) * | 2000-09-19 | 2003-08-19 | Intel Corporation | Passive gaze-driven browsing |
JP2002149332A (ja) | 2000-11-10 | 2002-05-24 | Fuji Xerox Co Ltd | 情報処理システム、情報処理方法及びコンピュータ読み取り可能な記録媒体 |
US7380938B2 (en) * | 2003-03-25 | 2008-06-03 | Sarnoff Corporation | Apparatus to detect and measure saccade and pupilary changes |
US8136944B2 (en) * | 2008-08-15 | 2012-03-20 | iMotions - Eye Tracking A/S | System and method for identifying the existence and position of text in visual media content and for determining a subjects interactions with the text |
US20120105486A1 (en) * | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
KR20120053803A (ko) * | 2010-11-18 | 2012-05-29 | 삼성전자주식회사 | 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법 |
WO2012150657A1 (ja) | 2011-05-02 | 2012-11-08 | パナソニック株式会社 | 集中有無推定装置及びコンテンツ評価装置 |
JP5148016B2 (ja) * | 2011-05-20 | 2013-02-20 | パナソニック株式会社 | 立体映像提供装置及びその方法 |
US8655796B2 (en) * | 2011-06-17 | 2014-02-18 | Sanjay Udani | Methods and systems for recording verifiable documentation |
AU2011204946C1 (en) * | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
JP5785015B2 (ja) | 2011-07-25 | 2015-09-24 | 京セラ株式会社 | 電子機器、電子文書制御プログラムおよび電子文書制御方法 |
US8719278B2 (en) * | 2011-08-29 | 2014-05-06 | Buckyball Mobile Inc. | Method and system of scoring documents based on attributes obtained from a digital document by eye-tracking data analysis |
JP5926210B2 (ja) * | 2012-03-21 | 2016-05-25 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
JP6559062B2 (ja) * | 2012-03-26 | 2019-08-14 | ニューヨーク ユニバーシティ | 中枢神経系の完全性を評価するための方法およびキット |
JP6003277B2 (ja) * | 2012-06-19 | 2016-10-05 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP6131540B2 (ja) * | 2012-07-13 | 2017-05-24 | 富士通株式会社 | タブレット端末、操作受付方法および操作受付プログラム |
US10085688B2 (en) * | 2012-11-20 | 2018-10-02 | El-Mar Inc. | Method of identifying an individual with a disorder or efficacy of a treatment of a disorder |
US20150213634A1 (en) * | 2013-01-28 | 2015-07-30 | Amit V. KARMARKAR | Method and system of modifying text content presentation settings as determined by user states based on user eye metric data |
US9301675B2 (en) * | 2013-03-15 | 2016-04-05 | Neuro Kinetics, Inc | Method and apparatus for validating testing procedures in objective ophthalmic eye testing for eye evaluation applications requiring subject compliance with eye fixation to a visual target |
GB201305726D0 (en) * | 2013-03-28 | 2013-05-15 | Eye Tracking Analysts Ltd | A method for calibration free eye tracking |
JP6547268B2 (ja) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
-
2014
- 2014-03-31 JP JP2014071251A patent/JP6287486B2/ja active Active
-
2015
- 2015-02-03 EP EP15153718.0A patent/EP2926721B1/en active Active
- 2015-02-09 US US14/616,886 patent/US9851789B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015194809A (ja) | 2015-11-05 |
US9851789B2 (en) | 2017-12-26 |
EP2926721A1 (en) | 2015-10-07 |
US20150277556A1 (en) | 2015-10-01 |
EP2926721B1 (en) | 2019-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3151944C (en) | Virtual fitting systems and methods for spectacles | |
JP6287486B2 (ja) | 情報処理装置、方法及びプログラム | |
US9613274B2 (en) | Identifying an obstacle in a route | |
US9836651B2 (en) | Displaying information relating to a designated marker | |
EP2724209B1 (en) | Computer device operable with user's eye movement and method for operating the computer device | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US9700200B2 (en) | Detecting visual impairment through normal use of a mobile device | |
JP2014153813A5 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2013077215A5 (ja) | ||
JP2015153267A5 (ja) | ||
US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
JP2007213469A (ja) | 視線制御表示装置と表示方法 | |
CN110956131B (zh) | 单目标追踪方法、装置及*** | |
JP2016224919A (ja) | データ閲覧装置、データ閲覧方法、及びプログラム | |
WO2018008702A1 (ja) | 振る舞い検知システム | |
JP2011133984A (ja) | 動作特徴抽出装置および動作特徴抽出方法 | |
JP2015130105A (ja) | オペレータ監視制御装置およびオペレータ監視制御方法 | |
CN109389082B (zh) | 视线采集方法、装置、***、计算机可读存储介质 | |
JP6651814B2 (ja) | 領域抽出装置、領域抽出プログラム、及び領域抽出方法 | |
US20220012278A1 (en) | Search Input Generation for Image Search | |
JP6618349B2 (ja) | 映像検索システム | |
JP6943183B2 (ja) | 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置 | |
JP7165108B2 (ja) | 作業訓練システム及び作業訓練支援方法 | |
CN108446693B (zh) | 待识别目标的标记方法、***、设备及存储介质 | |
CN110798681A (zh) | 成像设备的监测方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6287486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |