JP2014191629A - 表示装置および同装置における画面制御方法 - Google Patents

表示装置および同装置における画面制御方法 Download PDF

Info

Publication number
JP2014191629A
JP2014191629A JP2013067169A JP2013067169A JP2014191629A JP 2014191629 A JP2014191629 A JP 2014191629A JP 2013067169 A JP2013067169 A JP 2013067169A JP 2013067169 A JP2013067169 A JP 2013067169A JP 2014191629 A JP2014191629 A JP 2014191629A
Authority
JP
Japan
Prior art keywords
screen
display
line
sight
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013067169A
Other languages
English (en)
Other versions
JP6081839B2 (ja
Inventor
Takanori Obata
貴則 小畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013067169A priority Critical patent/JP6081839B2/ja
Publication of JP2014191629A publication Critical patent/JP2014191629A/ja
Application granted granted Critical
Publication of JP6081839B2 publication Critical patent/JP6081839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】3D表示の場合でも立体視を阻害せずに視線入力だけで補助的な操作を不要とするシームレスな操作を可能にする。
【解決手段】3D画面表示を行う表示部13と、表示部13の画面に対する視線位置を計測する視線計測部12とを備えた表示装置(携帯譲歩端末10)であって、アプリケーションを実行する制御部11を更に備え、制御部11は、視線計測部12から出力される情報に基づき、画面の奥行き方向に対する視線移動を検出し、関連する画面を表示部13に重ね合わせ表示してアプリケーションに対する入力を検知する。
【選択図】図1

Description

本発明は、3D映像表示を行う表示装置および同装置における画面制御方法に関する。
携帯情報端末の高機能化とアプリケーションの多様化に伴い、画面上に多数のアイコンが配置されるようになった。アイコンの配置が多くなったため、それらの表示を管理するページめくりのような画面切り替えの方法が一般化してきた。
また、近年、携帯情報端末に3D液晶が搭載されるようになり、立体空間上に多数のアイコンを表示することが可能になった。3D液晶は、光の進行方向を制御して左右の目に異なる画像が見えるようにすることで専用の眼鏡を必要とせずに立体表示が可能な表示装置である。例えば、右目用画像と左目用画像とを足し合わせ画像をTFT(Thin Film Transistor)液晶に表示することで、それぞれの目に応じた画像を見ることができる。
ところで、マンマシンインタフェースとして頻繁に使用されるマウスやキーボード、あるいは現在主流となっているタッチパネルに加え、ユーザの視線を利用して操作が可能な視線入力インタフェースが知られている。視線入力によれば、ユーザの視線位置から画面上のどの位置を見ているかを判別することができる。例えば、特許文献1には、視線情報で画面決定を行う技術が開示されている。しかしながら、特許文献1に開示された技術は、2D画面上での操作方法であって3D画面上での適用はできない。
特開平9−204287号公報
上記したように、携帯情報端末では3D液晶の搭載により立体空間で多数表示されたアイコンを効率的に操作する方法が必要となったが、タッチパネルでは、3D液晶画面を隠すことに繋がり、立体視を阻害するという問題があった。これに対し、画面を隠すことがない視線入力であれば、3D画面上でも立体視を阻害することなく操作が可能になる。
しかしながら、視線入力には、マウスのクリック操作のようなユーザの意思決定を伝える手段が存在せず、このため、ボタンによる補助的な操作、視線位置を一定時間固定する方法、あるいはウィンク等による方法で代替している。したがって、3D表示の場合でも立体視を阻害することなく視線入力だけで補助的な操作を不要とするシームレスな操作方法の出現が望まれている。
本発明は上記した課題を解決するためになされたものであり、3D表示の場合でも立体視を阻害せずに視線入力だけで補助的な操作を不要とするシームレスな操作を可能とした、表示装置および同装置における画面制御方法を提供することを目的とする。
上記した課題を解決するために本発明の一態様による表示装置は、3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部とを備えた表示装置であって、アプリケーションを実行する制御部を更に備え、前記制御部は、前記視線計測
部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出し、関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、前記奥行き方向へしきい値以上の移動を検出した場合に、前記アプリケーションに対する入力の検知を確定することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、予め登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、前記視線が手前の画面にある場合、前記表示部の奥の画面をぼけた背景画像とし、手前で何も表示されていない位置で視線を奥行き方向に移動すると、前記手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、前記表示部に表示された奥の画面に視線を移動する際に、前記奥の画面の任意の位置に焦点を合わせたガイド映像を表示することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、前記手前の画面で何も表示されていない任意の位置に視点を移動したときにキャンセル操作として認識することを特徴とする。
本発明の別の態様による表示装置において、前記制御部は、前記奥行き方向への視点の移動に伴い前記表示部の画面に表示されるコンテンツを追従させて拡大縮小表示を行うことを特徴とする。
また、本発明の一態様による画像制御方法は、3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部と、アプリケーションを実行する制御部とを備えた表示装置において、前記アプリケーションに対する入力検知を行う画面制御方法であって、前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出するステップと、前記視線移動に関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知するステップと、を有することを特徴とする。
本発明の一態様による表示装置および同装置における画面制御方法によれば、3D表示の場合でも立体視を阻害せずに視線入力だけで補助的な操作を不要とするシームレスな操作が可能になる。
本発明の実施の形態に係る携帯情報端末の構成を示すブロック図である。 本発明の実施の形態に係る携帯情報端末の画面操作イメージを示す図である。 本発明の実施の形態に係る携帯情報端末における視点の焦点距離変更による決定処理の流れを示すフローチャートである。 本発明の実施の形態に係る携帯情報端末の3D表示イメージを示す図である。 本発明の実施の形態に係る携帯情報端末の別の画面操作イメージを示す図である。 図5に続いて、携帯情報端末の画面操作イメージを示す図である。 図6に続いて、携帯情報端末の画面操作イメージを示す図である。 図7に続いて、携帯情報端末の画面操作イメージを示す図である。
以下、添付図面を把握して本発明を実施するための実施の形態(以下、単に本実施形態という)について詳細に説明する。
(実施形態の構成)
図1は、本実施形態に係る表示装置としての携帯情報端末10の構成を示すブロック図である。図1に示すように、本実施形態に係る携帯情報端末10は、制御部11と、視線計測部12と、表示部13とを含み、いずれも、アドレス、データ、コントロールのためのラインが複数本で構成されたシステムバス14に接続されている。
制御部11は、例えば、メモリを含むマイクロプロセッサで構成され、メモリに記録されたプログラムを逐次読み出し実行することにより、例えば、アプリケーションを実行する。また、制御部11は、視線計測部12から出力される情報に基づき、画面の奥行き方向に対する視線移動を検出し、関連する画面を表示部13に重ね合わせ表示(スーパーインポーズ)してアプリケーションに対する入力を検知する機能を有する。
制御部11は、奥行き方向へ、しきい値以上の移動を検出した場合に、アプリケーションに対する入力の検知を確定する。また、制御部11は、ユーザ毎に予め登録された情報に基づき、ユーザの左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することができる。また、制御部11は、表示部13に重ね合わせ表示された画面構成において、ユーザの視線が手前の画面にある場合、表示部13の奥の画面をぼけた背景画像とし、手前で何も表示されていない位置で視線を奥行き方向に移動すると、手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御してもよい。
制御部11は、表示部13に表示された奥の画面に視線を移動する際に、奥の画面の任意の位置に焦点を合わせたガイド映像を表示してもよい。また、制御部11は、手前の画面で何も表示されていない任意の位置で視線を奥行き方向に移動すると、キャンセル操作として認識してもよい。また、制御部11は、奥行き方向への視点の移動に伴い表示部13の画面に表示されるコンテンツを追従させて拡大縮小表示を行なってもよい。
視線計測部12は、例えば、赤外線カメラで構成され、眼球に赤外線を照射してその反射光を検出することで眼球の移動角度(回転、角度)を追尾し、制御部11と協働してユーザが注視しているエリアを特定する機能を有する。
表示部13は、例えば、3D液晶により構成される。3D液晶は、視差バリアを利用して立体表示を行うもので、例えば、TFT液晶ディスプレイとスイッチ液晶との組み合わせにより構成される。このスイッチ液晶を制御することにより光学視差バリアを発生させ、左右の目に異なる光が届くように光を分離し、右目画像と左目画像とを足し合わせた画像を3D表示用画像としてTFT液晶ディスプレイに表示する。このことにより、ユーザにそれぞれの目に応じた画像が見える仕組みになっている。
(実施形態の動作)
以下、図1に示す本実施形態に係る携帯情報端末10の動作について、図2〜図4を参照しながら詳細に説明する。
まず、図2に示す画面操作イメージから説明する。3D画面上で視線入力による画面制御の方式として、まず、奥行き方向の特定位置に幾つかの座標を決める。図2に示す例では、A,Bの2箇所としている。ここで、ユーザがブラウジング等を行う場合の画面を、“画面位置B”に表示させていたとする。ユーザがブラウジングを行う場合、“OK”、“NG”の決定画面、またはリンク等の決定操作が必要になるが、視線入力の特徴として、ユーザが視点を奥行き方向へ意識的に動かすことで決定する方法がある。
具体的に、ユーザが画面位置Aに表示されたボタンAを見ている場合、視点はこのボタンAの表示枠範囲(XY座標)内であって、且つ、画面位置Aの焦点距離(Z軸座標)にある。この視点は、XY軸座標枠内でZ軸のみを移動変化させる(焦点距離を変える)ことが可能であるため、このZ軸方向へのしきい値(Z軸方向への移動距離)を超えた時点で、ボタンAの押下を決定したとみなす。そして、画面位置Bにボタン決定後の操作画面を表示することで、改めて視点距離(Z軸)を画面位置Aまで戻す必要がなくなるため、ユーザはスムーズでシームレスな画面操作が可能になる。
尚、ボタンではなく、リンクの場合は、そのリンク表示を囲むように一定の枠を設定することにより同様に処理することが可能である。図3に、制御部11による始点の焦点距離による決定処理の流れがフローチャートで示されている。
図3において、制御部11は、まず、視線計測部12から出力される情報に基づきユーザがボタンまたはリンク枠内を見ているか否かを判定する(ステップS101)。視点がボタンの表示枠範囲(XY座標)内、あるいはリンクの表示枠範囲(XY座標)内であって(ステップS101“Yes”)、且つ、ユーザによるZ軸方向への視線の移動を検知すると(ステップS102“Yes”)、この視点は、XY軸座標枠内でZ軸のみを移動変化させる(焦点距離を変える)ことが可能であることから、制御部11は、Z軸方向へのしきい値(Z軸方向への移動距離)以上の移動か否かを判定する(ステップS103)。制御部11は、しきい値を超えた場合に(ステップS103“Yes”)、ボタン枠内(ステップS104“Yes”)、および決定方向であるZ軸方向への視線移動を確認して(ステップS105“Yes”)、ボタンあるいはリンクを決定したと認識する(ステップS106)。
続いて、制御部11は、表示部13に決定後の画面を表示し(ステップS107)、ステップS101のボタンまたはリンク枠内判定処理に戻り、視点の焦点距離変更による決定処理を繰り返す。
なお、視点がボタンの表示枠範囲(XY座標)内、あるいはリンクの表示枠範囲(XY座標)内にない(ステップS101“No”)、Z軸方向への視線の移動でない(ステップS102“No”)、しきい値以上の移動でない(ステップS103“No”)、ボタン枠内でない(ステップS104“No”)、決定方向であるZ軸方向への移動でない(ステップS105“No”)、いずれの場合もステップS101のボタンまたはリンク枠内判定処理に戻って、視点の焦点距離変更による決定処理を繰り返す。
図4に、本実施形態に係る携帯情報端末10の3D表示イメージが示されている。通常、ユーザが立体視を行う場合、ユーザ毎に立体視が快適に行える距離(z軸座標)がある。また、3D映像は、例えば、図4のように左右の目にそれぞれ異なる映像を送ることで立体的に見せることで実現しており、立体映像のZ軸方向の距離は、この左右の目に送り込む映像間の距離Aで決まる。
つまり、立体映像を遠くに見せるには、立体映像が表示部13の物理的な画面の手前に
表示される場合(つまり、図4のように立体映像が飛び出して見える場合)には、距離Aを狭めると同時に映像を小さくすることで可能になり、立体映像が表示部13の物理的な画面の奥に表示される場合(つまり、立体映像が奥に見える場合)には、距離Aを離すと同時に映像を小さくすることで可能になる。よって、映像のサイズを変更せずに距離Aだけを調整することで、ユーザが認識する立体映像の大きさを変えずに、焦点距離だけを変更することができる。これを利用して、ユーザが閲覧中に、少しずつ距離Aをユーザが快適に行える距離に調整することで、ユーザに違和感を与えずに楽な焦点距離に画像表示を移動させることが可能になる。
これを焦点距離による決定後の画面に適用することで、画面位置Bに表示された画像を、ユーザが違和感を感じることがないように快適な頂点距離(仮に画面位置A)に移動させる。また、Webブラウジングや2Dの動画視聴など、画面位置Aで長時間閲覧するような場合に、距離Aを徐々に変更させることで、目のストレッチを行うことが可能になり、目の疲れ防止が可能になる。また、視線のZ軸方向への移動による決定動作は、Z軸の奥方向と手前方向のどちらでも可能であり、画面位置Aより手前に焦点距離を動かして、画面位置Cを表示することも可能である。
このとき、ユーザがZ軸のいずれの方向に焦点を動かすことで決定と見なすかをわかりやすく表示するため、ボタン映像を半透明にし、画面位置Bに焦点を合わすガイド映像を表示しても良い。
(実施形態の効果)
以上説明のように本実施形態に係る携帯情報端末10によれば、制御部11は、視線計測部12から出力される情報に基づき、画面の奥行き方向に対する視線移動を検出し、関連する画面を表示部13に重ね合わせ表示してアプリケーションに対する入力を検知する。したがって、3D表示の場合でも立体視を阻害することなく視線入力だけで補助的な操作を不要とするシームレスな操作を実現できる。すなわち、視線入力では、ユーザの視線位置から画面上のどの位置を見ているかを判別するが、タッチパネルやマウスのような入力デバイスと異なり、XY軸(平面)だけでなく、Z軸(奥行き)の座標も焦点位置から判別可能になる。したがって、ユーザが意図的に奥行き方向の視点移動をユーザの意思表示の手段とすることで、補助的な操作が要らない視線入力だけでの操作が可能になる。
例えば、立体空間上に配置された特定のアイコンAのデータが表示されており、ユーザはアイコンAに視点を合わせた状態であるとする。ユーザがこのアイコンAのデータをエディタ等により編集する場合、マウス等ではダブルクリックなどの意思表示でエディタ画面を開くが、本実施形態に係る携帯情報端末10では、ユーザが視線をアイコンAに固定(XY軸を固定)した状態から、Z軸方向に視線をずらすことでダブルクリックに相当する意思表示とし、ユーザがずらしたZ軸座標位置に関連する画面を表示する。具体的には、エディタ等の選択画面を表示し、あるいは直接エディタを開いたりすることが可能である。この方法を利用すると、視線入力だけで手軽に異なる機能を呼び出すことが可能になる。
尚、本実施形態に係る携帯情報端末10では、視点をずらした際に、制御部11は、表示部13に画面を重ね合わせ表示(スーパインポーズ)するため、画面が複数重なった状態になる。この場合、手前の画面から奥の画面に戻りたい場合に、手前の画面で奥の画面が隠れると視点移動が困難になると考えられることから、ユーザが手前の画面を見ている際は、制御部11は、手前の画面を背景画像とし、ピントがぼけた奥の画面として表示しておく。そして、手前の画面でアイコンが表示された位置で、視点を奥の画面のZ軸方向に位置をずらすと、手前の画面を透明にして、奥の画面をぼけ表示から正常表示に変更制御する。また、手前の画面で何も表示されていない位置で、視点を奥の画面のZ軸方向に
位置をずらすと、キャンセル操作として認識する。
ここで、図5乃至図7を用いて、より具体的な画面操作イメージを例示する。まず、図5に示すように、手前から奥に向かってA,B,Cの画面が重なって存在し、ユーザは視点を画面BのZ軸位置に合わせているとする。その際、制御部11は、画面Aを透明化(または半透明でぼかす)し、画面Cはピントがぼけた画像として、表示部13に画面Bの背景画像として表示する。次に、ユーザが画面Bに表示された特定のテキストファイル(ファイルb)に視点を合わせた状態から、画面Aの位置に焦点を合わせて視点を移動した場合に、制御部11は、表示部13に画面Aを表示させて画面Aのエディタ等のアイコン(ボタン)を表示する。ここでは、エディタアイコンの他に、例えば、ファイルを削除するための削除アイコン、ファイルを単に閲覧するための閲覧アイコン等を表示する。
そして、ユーザが画面A上でエディタアイコンに視点を合わせ(図6)、画面B位置に視点をずらすと、制御部11は、表示部13の画面Bに、「YES or No」の選択画面を表示する(図7)。なお、このとき、画面Bではなく、画面Aの手前の位置に選択画面を表示してもよいし、画面Cに選択画面を表示してもよい。図7に示す選択画面において、ユーザがYESを選択する、すなわち画面Bの選択画面において「YES」に視点を合わせて、そのまま画面Aに視線をずらすと、制御部11は、表示部13の画面Aに、ファイルbを編集するためのエディタ画面を表示する。なお、図6において、画面Aでエディタ等を起動せずに画面Bに戻る場合は、画面Aのアイコン表示が無い位置で画面Bの位置に焦点を戻す。
ところで、立体視を行うことにより目の疲労が発生しやすく、また、ユーザ毎に3D画面を閲覧中に疲労を感じにくいポイント(奥行き)が異なることが知られている。3D空間上でユーザが文字や画像情報を閲覧する際に、ユーザ毎に表示する奥行き座標(Z座標)を調整することで、目の疲労を軽減できる。これは、制御部11が、予めユーザ毎に登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することで実現できる。
したがって、視線入力中に文字や画面情報を閲覧しているユーザが、意識的に立体視が楽なポイント(Z座標)に視点を移動させ、そのZ座標に追従して文字や画像情報を追従させることで、ユーザの疲労が少ないポイントでの立体視が可能になる。なお、文字や画像情報をZ軸方向に移動させる際は、ユーザにとって文字の大きさが変わらないように、拡大縮小表示を行うことで、ユーザに違和感を感じさせないようにする。すなわち、例えば、手前から奥に風船の画像を移動させる際に、ユーザに見える大きさが変わらないように膨らませるイメージである。
また、上記したユーザの意識的な視点移動に合わせるのとは逆に、立体視で特定画像を長時間見る場合等、見かけの大きさが変わらないように、Z軸方向に画像情報を徐々に前後させることで、ユーザに違和感を与えずに視点をずらすことが可能になるため目の疲労防止がはかれる。更に、Z軸方向へ視点を移動した際に、制御部11が画像を拡大縮小処理することで、視点移動により、ピンチイン、ピンチアウトのような操作も可能になる。
なお、本実施形態に係る表示装置として、携帯情報端末10のみ例示したが、ゲーム機、スマートフォン、タブレット、PC等、3D表示可能な表示部13を有するものであれば、赤外線カメラ等の視点計測部12を付加するだけで、いずれの電子機器にも適用が可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更
又は改良を加えることが可能であることが当業者に明らかである。またその様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10…表示装置(携帯情報端末)、11…制御部、12…視線計測部、13…表示部、14…システムバス

Claims (8)

  1. 3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部とを備えた表示装置であって、
    アプリケーションを実行する制御部を更に備え、
    前記制御部は、
    前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出し、関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知することを特徴とする表示装置。
  2. 前記制御部は、
    前記奥行き方向へしきい値以上の移動を検出した場合に、前記アプリケーションに対する入力の検知を確定することを特徴とする請求項1記載の表示装置。
  3. 前記制御部は、
    予め登録された情報に基づき、ユーザ毎に左目映像と右目映像間の距離を調整することにより焦点距離を変更制御することを特徴とする請求項1または2記載の表示装置。
  4. 前記制御部は、
    前記視線が手前の画面にある場合、前記表示部の奥の画面をぼけた背景画像とし、視線を奥行き方向に移動すると、前記手前の画面を透明にして奥の画面をぼけた状態から正常表示に変更制御することを特徴とする請求項1〜3のいずれか1項記載の表示装置。
  5. 前記制御部は、
    前記表示部に表示された奥の画面に視線を移動する際に、前記奥の画面の任意の位置に焦点を合わせたガイド映像を表示することを特徴とする請求項4記載の表示装置。
  6. 前記制御部は、
    前記手前の画面で何も表示されていない任意の位置で、視線が奥行き方向に移動すると、キャンセル操作として認識することを特徴とする請求項1〜5のいずれか1項記載の表示装置。
  7. 前記制御部は、
    前記奥行き方向への視点の移動に伴い前記表示部の画面に表示されるコンテンツを追従させて拡大縮小表示を行うことを特徴とする請求項1記載の表示装置。
  8. 3D画面表示を行う表示部と、前記表示部の画面に対する視線位置を計測する視線計測部と、アプリケーションを実行する制御部とを備えた表示装置において、前記アプリケーションに対する入力検知を行う画面制御方法であって、
    前記視線計測部から出力される情報に基づき、前記画面の奥行き方向に対する視線移動を検出するステップと、
    前記視線移動に関連する画面を前記表示部に重ね合わせ表示して前記アプリケーションに対する入力を検知するステップと、
    を有することを特徴とする表示装置における画面制御方法。
JP2013067169A 2013-03-27 2013-03-27 表示装置および同装置における画面制御方法 Active JP6081839B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013067169A JP6081839B2 (ja) 2013-03-27 2013-03-27 表示装置および同装置における画面制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013067169A JP6081839B2 (ja) 2013-03-27 2013-03-27 表示装置および同装置における画面制御方法

Publications (2)

Publication Number Publication Date
JP2014191629A true JP2014191629A (ja) 2014-10-06
JP6081839B2 JP6081839B2 (ja) 2017-02-15

Family

ID=51837811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013067169A Active JP6081839B2 (ja) 2013-03-27 2013-03-27 表示装置および同装置における画面制御方法

Country Status (1)

Country Link
JP (1) JP6081839B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182500A (ja) * 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法
JP2019514092A (ja) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company タッチレス制御グラフィカルユーザインターフェース
US10540009B2 (en) 2015-02-25 2020-01-21 Kyocera Corporation Wearable device, control method, and control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11402646B2 (en) 2018-11-12 2022-08-02 Sony Group Corporation Display apparatus, display control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 立体画像表示装置
JP2006516772A (ja) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. 視線追跡システム及び方法
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
WO2011114564A1 (ja) * 2010-03-18 2011-09-22 富士フイルム株式会社 立体画像表示装置およびその制御方法
JP2012099956A (ja) * 2010-10-29 2012-05-24 Toshiba Corp 映像再生装置及び映像再生方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102052A (ja) * 1995-10-06 1997-04-15 Olympus Optical Co Ltd 立体画像表示装置
JP2006516772A (ja) * 2003-01-23 2006-07-06 テングシェ,ヴィシュワス,ブイ. 視線追跡システム及び方法
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
WO2011114564A1 (ja) * 2010-03-18 2011-09-22 富士フイルム株式会社 立体画像表示装置およびその制御方法
JP2012099956A (ja) * 2010-10-29 2012-05-24 Toshiba Corp 映像再生装置及び映像再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016037909; 工藤慎也 他: '開散性眼球運動による奥行き方向への視線入力手法' 情報処理学会研究報告 音声言語情報処理 Vol.2013-SLP-95 No.6, 20130125, 第1-4頁, 情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540009B2 (en) 2015-02-25 2020-01-21 Kyocera Corporation Wearable device, control method, and control program
JP2019514092A (ja) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company タッチレス制御グラフィカルユーザインターフェース
JP2017182500A (ja) * 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法

Also Published As

Publication number Publication date
JP6081839B2 (ja) 2017-02-15

Similar Documents

Publication Publication Date Title
KR102417968B1 (ko) 시선-기반 사용자 상호작용
JP6508280B2 (ja) 制御装置、検出装置、表示システム、電子機器、及びプログラム
JP2018077876A (ja) 情報処理装置、情報処理方法、及びプログラム
US20210303107A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
CN112136096B (zh) 将物理输入设备显示为虚拟对象
US11720171B2 (en) Methods for navigating user interfaces
JP2012108723A (ja) 指示受付装置
JP2013196156A (ja) 情報処理装置、情報処理方法及びプログラム
JP6081839B2 (ja) 表示装置および同装置における画面制御方法
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US20230106627A1 (en) Devices, Methods, And Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20120120063A1 (en) Image processing device, image processing method, and program
JP2006323492A (ja) 制御装置およびプログラム
US9674501B2 (en) Terminal for increasing visual comfort sensation of 3D object and control method thereof
AU2021242208B2 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
US20240103614A1 (en) Devices, methods, for interacting with graphical user interfaces
WO2024064388A1 (en) Devices, methods, for interacting with graphical user interfaces
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments
CN117940880A (zh) 用于与媒体和三维环境交互的设备、方法和图形用户界面
WO2023049111A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN118043766A (zh) 用于与三维环境进行交互的设备、方法和图形用户界面

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170119

R150 Certificate of patent or registration of utility model

Ref document number: 6081839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150