JP2013254406A - 表示装置、表示方法及びプログラム。 - Google Patents

表示装置、表示方法及びプログラム。 Download PDF

Info

Publication number
JP2013254406A
JP2013254406A JP2012130469A JP2012130469A JP2013254406A JP 2013254406 A JP2013254406 A JP 2013254406A JP 2012130469 A JP2012130469 A JP 2012130469A JP 2012130469 A JP2012130469 A JP 2012130469A JP 2013254406 A JP2013254406 A JP 2013254406A
Authority
JP
Japan
Prior art keywords
displayed
cursor
display
user
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012130469A
Other languages
English (en)
Inventor
Haruhiko Sugisaki
晴彦 杉崎
Hitoshi Yamazaki
仁史 山崎
Seiji Shiraishi
誠二 白石
Daisuke Suzuki
大輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012130469A priority Critical patent/JP2013254406A/ja
Priority to PCT/JP2013/065015 priority patent/WO2013183533A1/ja
Publication of JP2013254406A publication Critical patent/JP2013254406A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視線を用いて操作を行う場合にユーザの意図どおりの操作ができるようにする。
【解決手段】視線検出部202は、撮像部106で撮像したユーザの顔の画像からユーザの視線を検出する。特定部201は、表示部1042の表面においてユーザが触れた位置を特定する。第1制御部203は、特定部201で特定された位置に表示装置を操作するためのサブメニューが表示されるように、表示部1042を制御する。第2制御部204は、表示部1042にサブメニューが表示されている場合、カーソルの位置を固定し、表示部1042にサブメニューが表示されていない場合、カーソルの位置を視線検出部で検出された視線に基づいて決定し、決定した位置にカーソルが表示されるように表示部1042を制御する。
【選択図】図2

Description

本発明は、ユーザインターフェースに関する。
ユーザが見ている位置を用いるユーザインターフェースの発明として、例えば特許文献1に開示された入力装置がある。この入力装置の第1の実施の形態においては、表示画面においてユーザが見ている位置を特定し、特定した位置に対応した処理を実行する。
特開平10−161801号公報
上述した第1の実施の形態においては、視点の位置に対応した処理を実行してしまう。このため、ユーザが意図せずに所望の位置とは異なる位置を見てしまった場合、その見た位置に対応した処理が実行されてしまい、ユーザの想定していなかった処理が実行されてしまうこととなる。
本発明は、上述した背景の下になされたものであり、視線を用いて操作を行う場合にユーザの意図どおりの操作ができるようにすることを目的とする。
上述した目的を達成するため、本発明は、画像を表示する表示面を有する表示手段と、ユーザの視線を検出する視線検出手段と、前記表示面上においてユーザが触れた位置を特定する特定手段と、前記特定手段で特定された位置に自装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御手段と、前記表示手段にカーソルを表示させる手段であって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出手段で検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御手段とを備える表示装置を提供する。
本発明においては、前記第1制御手段は、ユーザの触れた位置を前記特定手段が特定したときに前記カーソルに重なって表示されている画像に対応した操作画像が表示されるように前記表示手段を制御する構成としてもよい。
また本発明においては、前記操作画像が表示されている場合の前記カーソルの表示態様と前記操作画像が表示されていない場合の前記カーソルの表示態様とが異なる構成としてもよい。
また、本発明は、ユーザの視線を検出する視線検出ステップと、画像を表示する表示手段の表示面上においてユーザが触れた位置を特定する特定ステップと、前記特定ステップで特定された位置に前記表示手段を有する表示装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御ステップと、前記表示手段にカーソルを表示させるステップであって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出ステップで検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御ステップとを備える表示方法を提供する。
また、本発明は、コンピュータに、ユーザの視線を検出する視線検出ステップと、画像を表示する表示手段の表示面上においてユーザが触れた位置を特定する特定ステップと、前記特定ステップで特定された位置に前記表示手段を有する表示装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御ステップと、前記表示手段にカーソルを表示させるステップであって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出ステップで検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御ステップとを実行させるためのプログラムを提供する。
本発明によれば、視線を用いて操作を行う場合にユーザの意図どおりの操作ができる。
情報処理装置1のハードウェア構成を示した図である。 情報処理装置1の機能ブロック図。 制御部102が行う処理の流れを示したフローチャート。 制御部102が行う処理の流れを示したフローチャート。 制御部102が行う処理の流れを示したフローチャート。 表示部1042に表示される画面の一例を示した図。 表示部1042に表示される画面の一例を示した図。 表示部1042に表示される画面の一例を示した図。
[実施形態]
(ハードウェアの構成)
図1は、本発明の一実施形態に係る情報処理装置1のハードウェア構成を示した図である。情報処理装置1は、板状の筐体にタッチスクリーンやハードウェアのボタンなどを備えた所謂タブレット端末と呼ばれるコンピュータ装置である。図1に示したように、情報処理装置1の各部はバス101により接続されている。
通信部105は、無線通信を行う通信インターフェースの機能を備えている。情報処理装置1は、通信部105を制御して無線LAN(Local Area Network)や移動体通信網に接続し、データ通信や音声通信を行う。
操作部104は、情報処理装置1を操作するための複数のハードウェアのボタンを備えている。また、操作部104は、画像を表示する表示手段の一例である表示部1042と、表示部1042の表面に設けられ、表示部1042が表示した画像を透過し、指が触れた位置を検出する位置検出部1041とが一体化したタッチスクリーン104Aを備えている。なお、表示部1042としては、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイが用いられるが、これらに限定されるものではなく他のディスプレイであってもよい。また、位置検出部1041としては、触れている複数の指の位置を検出するもの(例えば静電容量方式のもの)が用いられる。
撮像部106は、レンズや固体撮像素子を備えており、レンズによって固体撮像素子に結像した像を表す画像を生成する。
記憶部103は、不揮発性メモリを備えている。記憶部103は、オペレーティングシステムを実現させるプログラムOSや、各種アプリケーションプログラムを記憶する。制御部102は、CPU(Central Processing Unit)102A、ROM(Read Only Memory)102BおよびRAM(Random Access Memory)102C等を備えている。CPU102Aが、ROM102Bに記憶されているIPL(Initial Program Loader)を実行すると、記憶部103に記憶されているプログラムOSが実行されてオペレーティングシステムが実現し、各種アプリケーションプログラムの実行が可能となる。本実施形態においては、オペレーティングシステムが実現すると、タッチスクリーン104Aと撮像部106を用いるユーザインターフェースが実現する。
(機能ブロックの説明)
図2は、制御部102において実現する機能のうち本発明に係る特徴的な機能に関係する機能ブロックを示した図である。本実施形態においては、上述したように、タッチスクリーン104Aと撮像部106を用いるユーザインターフェースが実現する。図2は、このユーザインターフェース機能に係る機能ブロック図である。
特定部201は、位置検出部1041においてユーザが触れた指の位置を特定するものである。特定部201は、位置検出部1041で生成される位置データを取得する。この位置データは、表示部1042の表示面上でユーザが指で触れた位置を表す。特定部201は、この位置データを基にしてユーザが触れた指の位置を特定する。
視線検出部202は、ユーザの視線を検出するものである。視線検出部202は、ユーザの顔の画像を取得する。視線検出部202は、取得した顔の画像からユーザの視線を検出する。
第1制御部203は、特定部201で特定された位置に情報処理装置1を操作するための操作画像の一例であるサブメニューが表示されるように表示部1042を制御するものである。サブメニューの項目は、カーソルのある位置に応じて変更する。
第2制御部204は、表示部1042にカーソルを表示させるものである。第2制御部204は、表示部1042にサブメニューが表示されている場合、表示されているカーソルの位置を固定する。また、第2制御部204は、表示部1042にサブメニューが表示されていない場合、カーソルの位置を視線検出部202が検出した視線に基づいて決定し、決定した位置にカーソルが表示されるように表示部1042を制御する。
(実施形態の動作例)
次に本実施形態の動作の一例について、図3〜5のフローチャートと、図6〜8に示した画面例を用いて説明する。図6は、情報処理装置1において表示される操作画面の一例である。この画面においては、カーソル10が表示され、絵文字の一例であるアイコン20−1、20−2が表示されている。また、この画面においては、写真を表示するアプリケーションプログラムに係る表示領域30(所謂ウィンドウ)が表示されている。まず、カーソル10を移動させるときの動作例について説明する。
図6の画面が表示されている状態においてユーザが表示画面に目を向けると、ユーザの顔が撮像部106で撮像される。撮像部106においては、ユーザの顔を含む画像(以下、顔画像と称する)が生成される。制御部102は、この顔画像を取得する(図3:ステップSA1)。制御部102は、顔画像を取得すると、例えば、特開平10−39995号公報に開示されている技術を用いてユーザの視線を検出し、表示画面においてユーザが見ている位置を特定する(ステップSA2)。なお、ユーザの視線を検知する技術は、上記の方法に限定されるものではなく、ユーザの頭部に取り付けられたカメラでユーザの眼球を撮像し、この撮像した画像から視線を検知する方法など、他の周知の方法を用いてもよい。
制御部102は、ユーザが見ている位置を特定すると、後述するサブメニューが表示されているか判断する。制御部102は、後述するサブメニューが表示部1042に表示されていない場合(ステップSA3でYES)、ステップSA2で特定した位置にカーソル10が表示されるように表示部1042を制御する(ステップSA4)。
例えば、ユーザがアイコン20−2の位置を見つめると、図7の(a)に示したように、カーソル10がアイコン20−2上に表示される。また、ユーザが表示領域30内を見つめると、図7の(b)に示したように、カーソル10が表示領域30内に表示される。
次に、サブメニューを表示させるときの動作例について図4を用いて説明する。サブメニューが表示されていない状態において、ユーザがタッチスクリーン104Aに触れると、ユーザが触れた指の位置を表す位置データを位置検出部1041が生成し、制御部102は、この位置データを取得する(図4:ステップSB1)。次に制御部102は、カーソル10と重なっている画像を特定する(ステップSB2)。そして制御部102は、特定した画像に対応したサブメニューが位置データの表す位置に表示されるように表示部1042を制御する(ステップSB3)。
例えば、制御部102は、図7の(a)に示したうようにカーソル10がアイコン20−2の位置にある場合、図8の(a)に示したように、アイコン20−2に対応したサブメニューM1が表示されるように表示部1042を制御する。なお、サブメニューM1は、タッチスクリーン104Aに触れた指40の位置に表示される。また、制御部102は、図7の(b)に示したようにカーソル10が表示領域30内の位置にある場合、図8の(b)に示したように、表示領域30に係るアプリケーションに対応したサブメニューM2が表示されるように表示部1042を制御する。なお、サブメニューM2も、タッチスクリーン104Aに触れた指40の位置に表示される。
次に、サブメニューが表示されている状態でユーザが視線を動かすと、制御部102は、ステップSA3でNOと判定する。制御部102は、ステップSA3でNOと判定すると、ステップSA4の処理を実行せずに図3の処理を終了する。つまり、サブメニューが表示されている状態においては、ユーザが見る位置を変えてもステップSA4の処理が実行されずにカーソル10が移動しないため、カーソル10の位置が固定されることとなる。
次に、サブメニューの表示中にユーザがタッチスクリーンから指を離した場合の動作例について図5を用いて説明する。サブメニューの表示中にユーザが指をタッチスクリーン104Aから離すと、位置検出部1041において位置データが生成されず、制御部102は、位置データを取得できなくなる。制御部102は、サブメニューの表示中に位置データを取得できなくなると、図5の処理を実行する。
まず、制御部102は、位置データを取得できなくなってから経過した時間、即ち、タッチスクリーン104Aからユーザが指を離してから経過した時間が、予め定められた時間(本実施形態では3秒)を超えたか判断する。なお、この時間は3秒に限定されるものではなく、3秒未満の時間や3秒を超える時間であってもよい。制御部102は、ユーザが指を離してから経過した時間が予め定められた時間を超えた場合(ステップSC1でYES)、表示されているサブメニューを消去する(ステップSC2)。この後、制御部102が図3の処理を実行すると、サブメニューが表示されていないためステップSA3でNOと判定されてステップSA4の処理が実行されるため、ユーザが見ている位置にカーソル10が表示される。つまり、サブメニューが消去された後は、視線を動かすと再びカーソル10の位置が移動することとなる。
なお、ステップSC1でNOと判断した場合、制御部102は、位置データが生成されているか判断する。ユーザが指をタッチスクリーン104Aから離した後、予め定められた時間内にタッチスクリーン104Aに再び触れると、位置検出部1041で位置データが生成され、制御部102はステップSC3でYESと判断する。
制御部102は、ステップSC3でYESと判断すると、位置データを取得する(ステップSC4)。次に制御部102は、取得した位置データが表す位置が、サブメニューの項目上であるか判断する。制御部102は位置データの位置がサブメニューの項目上ではない場合(ステップSC4でNO)、サブメニューを消去せずに図5の処理を終了する。この後、制御部102は、図4の処理を実行し、生成された位置データが表す位置にサブメニューを表示する。
一方、制御部102は、位置データが表す位置がサブメニューの項目上である場合(ステップSC4でYES)、当該位置にある項目を特定し、特定した項目に対応した処理を実行する(ステップSC5)。例えば、制御部102は、特定した位置がサブメニューM1の「開く」の位置であった場合、カーソル10がアイコン20−2の位置にあるため、アイコン20−2に係るアプリケーションプログラムを実行する。また、制御部102は、特定した位置がサブメニューM2の「拡大」の位置であった場合、表示領域30内に表示されている画像が拡大されて表示されるように表示部1042を制御し、特定した位置がサブメニューM2の「縮小」の位置であった場合、表示領域30内に表示されている画像が縮小されて表示されるように表示部1042を制御する。
本実施形態によれば、サブメニューが表示されるとカーソルの位置が固定されるため、ユーザは、サブメニューがどのアイコンやアプリケーションに対応しているのか容易に知ることができる。また、サブメニューが表示されるとカーソルの位置が固定されるため、サブメニューを見ながら操作するときにカーソルがサブメニューに重ならず、ユーザは煩わしさを感じることがない。また、指でタッチスクリーン104Aに触れるだけでカーソルが固定され、指をタッチスクリーンから離すだけでカーソルが移動可能となるため、カーソルの移動や固定をメニュー操作やハードウェアボタンで指示する場合と比較すると、容易にカーソルの移動と固定をすることができる。また、本実施形態によれば、カーソルの位置に対応したサブメニューが表示され、サブメニューが表示された後はカーソルが固定される。そして、カーソルが固定された後は実行させる処理を視線で指定することはできなくなるため、視線だけで操作を行う特許文献1の発明の第1の実施の形態の構成と比較すると、ユーザの意図どおりの操作を行うことができる。
[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。なお、上述した実施形態及び以下の変形例は、各々を組み合わせてもよい。
上述した実施形態においては、カーソルの移動とサブメニューの表示を行う機能がオペレーティングシステムのプログラムを実行することにより実現しているが、この機能を実現するのは、オペレーティングシステムのプログラムに限定されるものではない。例えば、オペレーティングシステムのプログラムとは別のアプリケーションプログラムを実行することにより、カーソルの移動とサブメニューの表示を行う機能が実現するようにしてもよい。
上述した実施形態においては、撮像部106が情報処理装置1に内蔵されている構成となっているが、この構成に限定されるものではない。例えば、レンズと固定撮像素子とを備えるカメラを情報処理装置1に接続し、このカメラでユーザの顔を撮像するようにしてもよい。また、レンズと固定撮像素子とを備えるカメラを眼鏡のフレームに配置し、このフレームに設けられたカメラでユーザの顔を撮像するようにしてもよい。
情報処理装置1においては、一つのアプリケーションプログラムに係る画面が表示画面の全面に表示される場合がある。このように、一つのアプリケーションプログラムに係る画面が表示画面の全面に表示されている場合においても、指が触れた位置にサブメニューを表示するようにしてもよい。また、この構成の場合には、カーソルの位置に応じてサブメニューの項目を変更するようにしてもよい。
上述した実施形態においては、ユーザがタッチスクリーン104Aに触れるとサブメニューが表示されるが、サブメニューを表示する契機は、この操作に限定されるものではない。例えば、ユーザがタッチスクリーン104Aに指を接触させたまま指をスライドさせるとサブメニューを表示するようにしてもよい。
上述した実施形態においては、カーソル10が移動可能な状態とカーソル10の位置が固定されている状態とでカーソル10の表示態様を異ならせるようにしてもよい。
例えば、カーソル10が移動可能な状態にある場合にはカーソル10の色を白とし、カーソル10の位置が固定されている状態にある場合には、カーソル10の色を白以外の色に変更してもよい。また、カーソル10の位置が固定されている状態にある場合には、カーソル10が点滅するように表示し、カーソル10が移動可能な状態にある場合にはカーソル10を点滅させないようにしてもよい。また、カーソル10の位置が固定されている状態にある場合のカーソル10の面積を、カーソル10が移動可能な状態にある場合の面積より広くするようにしてもよい。また、カーソル10が移動可能にある状態とカーソル10の位置が固定されている状態とでカーソル10の形状を異ならせるようにしてもよい。また、これらの変形例を組み合わせてもよい。
上述した実施形態においては、情報処理装置1は、通信ネットワークを介した通信を行う機能を備えているが、この機能を備えたものに限定されるものではない。例えば、電子ブックリーダなど、通信ネットワークを介した通信を行う機能を備えていないものであってもよい。
上述した実施形態の機能を実現するプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk)))など、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読取り可能な記録媒体に記憶した状態で提供し、情報処理装置1にインストールしてもよい。また、通信回線を介して情報処理装置1にダウンロードしてインストールしてもよい。
1…情報処理装置、101…バス、102…制御部、102A…CPU、102B…ROM、102C…RAM、103…記憶部、104…操作部、104A…タッチスクリーン、105…通信部、106…撮像部、201…特定部、202…視線検出部、203…第1制御部、204…第2制御部、1041…位置検出部、1042…表示部

Claims (5)

  1. 画像を表示する表示面を有する表示手段と、
    ユーザの視線を検出する視線検出手段と、
    前記表示面上においてユーザが触れた位置を特定する特定手段と、
    前記特定手段で特定された位置に自装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御手段と、
    前記表示手段にカーソルを表示させる手段であって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出手段で検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御手段と
    を備える表示装置。
  2. 前記第1制御手段は、ユーザの触れた位置を前記特定手段が特定したときに前記カーソルに重なって表示されている画像に対応した操作画像が表示されるように前記表示手段を制御すること
    を特徴とする請求項1に記載の表示装置。
  3. 前記操作画像が表示されている場合の前記カーソルの表示態様と前記操作画像が表示されていない場合の前記カーソルの表示態様とが異なること
    を特徴とする請求項1又は請求項2に記載の表示装置。
  4. ユーザの視線を検出する視線検出ステップと、
    画像を表示する表示手段の表示面上においてユーザが触れた位置を特定する特定ステップと、
    前記特定ステップで特定された位置に前記表示手段を有する表示装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御ステップと、
    前記表示手段にカーソルを表示させるステップであって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出ステップで検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御ステップと
    を備える表示方法。
  5. コンピュータに、
    ユーザの視線を検出する視線検出ステップと、
    画像を表示する表示手段の表示面上においてユーザが触れた位置を特定する特定ステップと、
    前記特定ステップで特定された位置に前記表示手段を有する表示装置を操作するための操作画像が表示されるように、前記表示手段を制御する第1制御ステップと、
    前記表示手段にカーソルを表示させるステップであって、前記表示手段に前記操作画像が表示されている場合、前記カーソルの位置を固定し、前記表示手段に前記操作画像が表示されていない場合、前記カーソルの位置を前記視線検出ステップで検出された視線に基づいて決定し、決定した位置に前記カーソルが表示されるように前記表示手段を制御する第2制御ステップと
    を実行させるためのプログラム。
JP2012130469A 2012-06-08 2012-06-08 表示装置、表示方法及びプログラム。 Withdrawn JP2013254406A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012130469A JP2013254406A (ja) 2012-06-08 2012-06-08 表示装置、表示方法及びプログラム。
PCT/JP2013/065015 WO2013183533A1 (ja) 2012-06-08 2013-05-30 表示装置、表示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012130469A JP2013254406A (ja) 2012-06-08 2012-06-08 表示装置、表示方法及びプログラム。

Publications (1)

Publication Number Publication Date
JP2013254406A true JP2013254406A (ja) 2013-12-19

Family

ID=49711925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012130469A Withdrawn JP2013254406A (ja) 2012-06-08 2012-06-08 表示装置、表示方法及びプログラム。

Country Status (2)

Country Link
JP (1) JP2013254406A (ja)
WO (1) WO2013183533A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021596A (ja) * 2012-07-13 2014-02-03 Fujitsu Ltd タブレット端末、操作受付方法および操作受付プログラム
JP2020149336A (ja) * 2019-03-13 2020-09-17 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP2021099643A (ja) * 2019-12-20 2021-07-01 キヤノン株式会社 電子機器およびその制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983695B2 (en) 2015-03-19 2018-05-29 Lenovo (Singapore)Pte. Ltd. Apparatus, method, and program product for setting a cursor position

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100903A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 視線検出機能搭載装置
JP4522475B1 (ja) * 2009-03-19 2010-08-11 Smk株式会社 操作入力装置、制御方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021596A (ja) * 2012-07-13 2014-02-03 Fujitsu Ltd タブレット端末、操作受付方法および操作受付プログラム
US9952690B2 (en) 2012-07-13 2018-04-24 Fujitsu Limited Tablet device, and operation receiving method
JP2020149336A (ja) * 2019-03-13 2020-09-17 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP7215254B2 (ja) 2019-03-13 2023-01-31 株式会社リコー 情報処理装置、表示制御方法、及びプログラム
JP2021099643A (ja) * 2019-12-20 2021-07-01 キヤノン株式会社 電子機器およびその制御方法
JP7383471B2 (ja) 2019-12-20 2023-11-20 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
WO2013183533A1 (ja) 2013-12-12

Similar Documents

Publication Publication Date Title
KR102423826B1 (ko) 사용자 단말 장치 및 그의 제어 방법
US11950916B2 (en) User interfaces for health monitoring
US20210373718A1 (en) Reduced size configuration interface
JP6158913B2 (ja) ジェスチャを使用したデバイスとの対話
KR20150090840A (ko) 디스플레이 화면의 영역을 보호하는 디바이스 및 방법
US20160259530A1 (en) Control of system zoom magnification using a rotatable input mechanism
US9411418B2 (en) Display device, display method, and program
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
JP6940353B2 (ja) 電子機器
JP6483452B2 (ja) 電子機器、制御方法、及び制御プログラム
KR20130115174A (ko) 디지털 베젤을 제공하기 위한 장치 및 방법
TW201331825A (zh) 用以在螢幕間提供視覺過渡之裝置及方法
US20230101625A1 (en) User interfaces for health monitoring
WO2013183533A1 (ja) 表示装置、表示方法及びプログラム
KR102113509B1 (ko) 가상 키패드 제어 방법 및 그 전자 장치
JP2020017215A (ja) 電子機器、制御プログラム及び表示制御方法
JP2013065290A (ja) 装置、方法、及びプログラム
JP6616379B2 (ja) 電子機器
JP5514922B1 (ja) ユーザ操作制御プログラム、携帯装置及びユーザ操作制御方法
JP2017068839A (ja) 見守り装置、見守り方法、およびコンピュータプログラム
JP5640165B2 (ja) ユーザ操作制御プログラム、携帯装置及びユーザ操作制御方法
JP2020017218A (ja) 電子機器、制御プログラム及び表示制御方法
JP5624662B2 (ja) 電子機器、表示制御方法およびプログラム
CN106681630A (zh) 一种移动终端的操作方法及装置
JP5873945B2 (ja) ユーザ操作制御プログラム、携帯装置及びユーザ操作制御方法

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140228