JP2006309448A - ユーザインターフェース装置及び方法 - Google Patents

ユーザインターフェース装置及び方法 Download PDF

Info

Publication number
JP2006309448A
JP2006309448A JP2005130242A JP2005130242A JP2006309448A JP 2006309448 A JP2006309448 A JP 2006309448A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2005130242 A JP2005130242 A JP 2005130242A JP 2006309448 A JP2006309448 A JP 2006309448A
Authority
JP
Japan
Prior art keywords
user
operation intention
intention
unit
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005130242A
Other languages
English (en)
Inventor
Nobuya Otani
伸弥 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005130242A priority Critical patent/JP2006309448A/ja
Publication of JP2006309448A publication Critical patent/JP2006309448A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法を提供する。
【解決手段】 センサ部21は、ユーザがマウス11を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部22に供給する。操作意図推定部22は、センシングした多次元の情報に基づいてユーザの操作意図を事前に推定し、推定した操作意図に関する情報を操作子選択部23に供給する。操作子選択部23は、推定された操作意図に対応する操作子を選択し、表示制御部12からの問い合わせに応じて、選択した操作子を通知する。表示制御部12は、操作子選択部23から操作子が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を通知された操作子の位置に合わせる。
【選択図】 図1

Description

本発明は、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法に関する。
ユーザが操作可能なユーザインターフェース装置においては、例えばポインティングデバイスによるポインティング操作など、ユーザの手を使った物理的な操作に応じて動作するのが通常である。しかしながら、特に四肢麻痺等の重度の障害者にとってはポインティングデバイスの表示位置をディスプレイ上のアイコン等の操作子に合わせることが困難であることから、ユーザの操作負担の軽減が求められていた。
そこで、従来、ポインティングデバイスの1つであるマウスを用いたポインティング操作に、ユーザの視線情報を利用することが提案されている。具体的に、下記非特許文献1では、完全にユーザの視線によりポインティング操作を行うAuto方式や、視線による大まかなポインティングを行った後でポインティングデバイスをマウスに切り替えるManual方式などが提案されている。また、下記特許文献1では、ポインティング操作にユーザの視線情報を利用すると共に、ポインティングデバイスの表示位置に最も近い操作子との間に、ポインティングデバイスを操作子に引き寄せる吸着機能を持たせることが提案されている。このようなポインティングデバイスを備えたユーザインターフェース装置によれば、ポインティング操作に際して、ユーザは基本的に視線を動かすのみでよいため、ユーザの操作負担を軽減することができる。
大和正武 外,「一般的なGUIに適した視線・マウス併用型ターゲット選択方式」,情報処理学会 ジャーナル,Vol.42,No.06 特開2000−47823号公報
しかしながら、上記非特許文献1におけるAuto方式では、視線認識の精度に起因してアイコンやメニュー等の選択に長時間を要しており、Manual方式でも、視線を移動させてからでなければ視線の場所を計算できないため、実際にポインティングデバイスの表示位置、すなわちマウスカーソルの位置が初期移動するまでには多少の時間を要していた。また、上記特許文献1のポインティングデバイスは、吸着機能を有しているものの、実際にマウスカーソルの位置が初期移動するまでには多少の時間を要していた。
さらに、あらゆる従来のポインティングデバイスでは、ユーザは現在行っている作業にとって大切な意識・意図を必ずポインティング操作に向けなければならず、ポインティング操作を行おうとする度に、現在の作業に対する注意を反らすこととなっていた。
このような問題は、マウス等のポインティングデバイスを備えたユーザインターフェース装置の場合に限らず、他のユーザインターフェース装置においても同様である。
本発明は、このような従来の実情に鑑みて提案されたものであり、ユーザの操作意図を事前に推定して動作し、又は動作準備を行うことが可能なユーザインターフェース装置及びその方法を提供することを目的とする。
上述した目的を達成するために、本発明に係るユーザインターフェース装置は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、ユーザの状態をセンシングするセンサ手段と、上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段とを備えることを特徴とする。
また、上述した目的を達成するために、本発明に係るユーザインターフェース方法は、ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段とを備えたユーザインターフェース装置におけるユーザインターフェース方法であって、ユーザの状態をセンシングするセンシング工程と、上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程とを有することを特徴とする。
本発明に係るユーザインターフェース装置及びその方法によれば、センシングしたユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定し、推定された操作意図に応じて動作し、又は動作準備を行うことが可能であるため、ユーザが意図してから操作するまでの時間を短縮することができる。また、この際、ユーザインターフェース装置のユーザがあまり意識しない初期状態について動作又は動作準備を行うようにすれば、誤動作した場合であっても大した問題とは認識されず、ユーザは利便性のみを享受することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
以下では先ず、本発明を、ディスプレイとポインティングデバイスとしてのマウスとを備えたユーザインターフェース装置に適用した例について説明する。図1に示すように、ユーザインターフェース装置1は、インターフェース部10と、ユーザ意図推定モジュール部20とに大別される。このうち、インターフェース部10は、マウス11と、表示制御部12と、ディスプレイ13とを有し、ユーザ意図推定モジュール部20は、センサ部21と、操作意図推定部22と、操作子選択部23とを有している。
このようなユーザインターフェース装置1において、ユーザがディスプレイ13に表示されたマウスカーソルを所望の位置に移動させるためにマウス11を操作すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13に表示されたマウスカーソルの位置を変更する。また、ユーザがマウスカーソルの位置をアイコン等の操作子に合わせた状態でマウス11をクリック等すると、その操作に応じた操作信号がマウス11から表示制御部12に供給される。表示制御部12は、この操作信号に基づいて、ディスプレイ13の表示内容を変更する。
一方、センサ部21は、ユーザがマウス11を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部22に供給する。このセンサ部21としては、例えば、CCD(Charge Coupled Device)カメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができるが、ユーザが特別な装置を装着する必要のないものが好ましい。また、センシングする情報としては、例えば下記の表1のようなものが挙げられるが、ユーザが意図しなくとも発せられる情報が特に好ましい。なお、この表1において、「落ち着き具合」は、例えばユーザの顔の動き量から判断することができ、「熱中度合い」は、例えばユーザの顔とディスプレイ13との距離から判断することができる。
Figure 2006309448
操作意図推定部22は、このセンシングした多次元の情報に基づいてユーザの操作意図を事前に推定し、推定した操作意図に関する情報を操作子選択部23に供給する。操作子選択部23は、推定された操作意図に対応する操作子を選択し、上述した表示制御部12からの問い合わせに応じて、選択した操作子を通知する。表示制御部12は、操作子選択部23から操作子が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を通知された操作子の位置に合わせる。
ここで、ユーザインターフェース装置1における操作子とは、ディスプレイ13上でマウス11によるクリック等が可能な箇所であり、各操作子にはユーザの操作意図が対応付けられている。例えば、ディスプレイ13に表示されたウィンドウの場合、図2に示すような操作子30〜38が存在し、操作子30は、ウィンドウを最小化したいという操作意図に、操作子31は、ウィンドウを最大化したいという操作意図に、操作子32は、ウィンドウを閉じたい(クローズ)という操作意図にそれぞれ対応している。また、操作子33〜36は、それぞれ表示領域を上、下、左、右にスクロールさせたいという操作意図に対応しており、操作子37,38は、それぞれ表示領域を上下、左右にスライドさせたいという操作意図に対応している。
上述した操作意図推定部22は、センサ部21でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、例えば、ベイジアンネットワーク、ダイナミックベイジアンネットワーク、サポートベクタマシン、ブースティング、隠れマルコフモデル、ニューラルネットワーク等を用いることができる。また、単なるif〜then・・・といった決定論的なモデルを用いることもできる。つまり、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルであればよい。
以下、操作意図推定部22における推論モデルとしてベイジアンネットワークを用いる場合について説明する。
ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図3に示すように、「操作意図」のノードに加えて、「発汗量」、「手の場所」、及び「熱中度合い」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「最大化」、「最小化」、「クローズ」、「上スクロール」、「下スクロール」など、各操作子の種類を定義する。また、「発汗量」のノードの状態としては、例えば「多い」、「少ない」、「無い」といった状態を定義し、「手の場所」のノードの状態としては、例えば「マウス」、「顔」、「キーボード」といった状態を定義し、「熱中度合い」のノードの状態としては、例えば「熱中」、「普通」、「飽き」といった状態を定義する。
続いて、このような各ノードを繋ぎ、例えば図4に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図5に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。
このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部22にセンサ部21でセンシングした多次元の情報が入力されると、操作意図推定部22は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図6(A)に示すように、「発汗量」は「多い」、「熱中度合い」は「飽き」、「手の場所」は「顔」という情報が操作意図推定部22に入力されると、操作意図推定部22は、同図(B)に示すように各操作意図についての値を生成する。この結果、「クローズ」の値が最も大きいため、操作意図推定部22は、ユーザの操作意図を「クローズ」と推定し、「クローズ」に関する情報を操作子選択部23に供給する。
その後、操作子選択部23は、「クローズ」に対応する操作子、例えば図2における操作子32を選択し、表示制御部12からの問い合わせに応じて、操作子32に関する情報を通知する。表示制御部12は、操作子選択部23から操作子32に関する情報が通知されると、ディスプレイ13に表示されたマウスカーソルの位置を操作子32の位置に合わせる。
このように、上述したユーザインターフェース装置1では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、ディスプレイ13に表示されたマウスカーソルの位置をその操作意図に対応した操作子の位置に合わせるようにしているため、ユーザは、視線は勿論のこと、意識・意図すら拘束されることなく、マウスカーソルの位置を決定することができる。したがって、ユーザは、マウスカーソルを所望の位置に移動させる間にも現在行っている作業を継続することができ、操作子の確認の瞬間だけ視線や意図・意識を奪われるのみですむ。
なお、上述の説明では、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示するものとしたが、本発明はこれに限定されるものではなく、現在のマウスカーソルの位置と推定した操作意図に対応した操作子の位置との間にマウスカーソルを移動させるようにしても構わない。
また、このユーザインターフェース装置1においては、ユーザがマウスを操作していないときにはディスプレイ上にマウスカーソルを表示しないようにしてもよい。この場合には、ディスプレイ上にマウスカーソルが表示されていない間にユーザの操作意図を推定し、ユーザがマウスを僅かに動かした瞬間に、推定した操作意図に対応した操作子の位置にマウスカーソルの位置を合わせて表示することになる。したがって、仮に操作意図の推定を誤ってしまい、ユーザの操作意図とは異なる位置にマウスカーソルを表示させてしまった場合であっても、ユーザはそもそもマウスカーソルの初期位置を気にしないため、大した誤動作とは認識されない。
次に、本発明を、チューナやCD(Compact Disk)再生部,MD(Mini-Disk:商標)再生部を備えたオーディオ再生装置としてのユーザインターフェース装置に適用した例について説明する。図7に示すように、ユーザインターフェース装置2は、インターフェース部40と、ユーザ意図推定モジュール部50とに大別される。このうち、インターフェース部40は、操作用ボタン41と、操作制御部42とを有し、ユーザ意図推定モジュール部50は、センサ部51と、操作意図推定部52と、操作子選択部53とを有している。
このようなユーザインターフェース装置2において、ユーザが操作用ボタン41を押圧操作すると、その操作に応じた操作信号が操作用ボタン41から操作制御部42に供給される。操作制御部42は、この操作信号に基づいて、ラジオ番組を再生したり、CDやMD(商標)を再生したりする。
一方、センサ部51は、ユーザが操作用ボタン41を操作していない場合であっても、ユーザの状態を常時センシングし続け、センシングした情報を操作意図推定部52に供給する。このセンサ部51としては、上述と同様に、CCDカメラ、赤外線カメラ、マイクロホン、発汗検出器、視線検出器、温度検出器など、ユーザの状態をセンシングできる種々のデバイスを用いることができる。
操作意図推定部52は、このセンシングした多次元の情報に基づいてユーザの操作意図を推定し、推定した操作意図に関する情報を操作子選択部53に供給する。操作子選択部53は、推定された操作意図に対応する操作子を選択し、上述した操作制御部42からの問い合わせに応じて、選択した操作子を通知する。操作制御部42は、操作子選択部53から操作子が通知されると、その操作子に応じた制御を行う。
ここで、ユーザインターフェース装置2における操作子とは、上述した操作用ボタン41に近い概念であり、各操作子にはユーザの操作意図が対応付けられている。例えばオーディオ再生装置の場合、図8に示すような操作用ボタン60〜66が存在し、操作用ボタン60は、電源を入れたいという操作意図に、操作用ボタン61は、音量を調節したいという操作意図に、操作用ボタン62は、MD(商標)の再生を停止したいという操作意図に、操作用ボタン63は、MD(商標)を再生したいという操作意図に、操作用ボタン64は、選曲したいという操作意図に、操作用ボタン65は、MD(商標)を取り出したいという操作意図にそれぞれ対応している。これらの操作用ボタン60〜65は、操作子として把握することができる。一方、操作用ボタン66は、モードを選択するためのものであるが、これはその押圧操作回数により、MD(商標)再生モードにしたい、CD再生モードにしたい、ラジオモードにしたい、AUXモードにしたいという複数の操作意図に対応する。この操作用ボタン66においては、MD(商標)再生モード、CD再生モード、ラジオモード、AUXモードといった各モードを操作子として把握することができる。
上述した操作意図推定部52は、センサ部41でセンシングした多次元の情報を入力とし、推論モデルを用いてユーザの操作意図を推定する。推論モデルとしては、上述したように、例えばベイジアンネットワークなど、センシングした多次元の情報と相関の高い操作意図を1つ選択できる推論モデルを用いることができる。
以下、操作意図推定部52における推論モデルとしてベイジアンネットワークを用いる場合について説明する。
ベイジアンネットワークのネットワーク構造を構築するには、先ず「操作意図」のノードと、操作意図と相関があると思われるセンシング可能なノードとを決定し、各ノードの状態を定義する。例えば図9に示すように、「操作意図」のノードに加えて、「操作の時刻」、「手の移動」、及び「環境音スペクトル」の各ノードを定義することができる。このうち、「操作意図」のノードの状態としては、「MD再生モード」、「CD再生モード」、「ラジオモード」、「AUXモード」など、各操作子の種類を定義する。また、「操作の時刻」のノードの状態としては、例えば「朝」、「昼」、「夜」、「深夜」といった状態を定義し、「手の移動」のノードの状態としては、例えば「手の甲を上にして近づく」、「親指を上にして近づく」、「手が近づかない」といった状態を定義し、「環境音スペクトル」のノードの状態としては、例えば「高域」、「中域」、「低域」といった状態を定義する。
続いて、このような各ノードを繋ぎ、例えば図10に示すようなネットワーク構造を定義する。このネットワーク構造は、例えばK2アルゴリズムを用いて学習データから自動定義してもよく、因果関係を考慮して知識から定義してもよい。その後、例えば図11に示すように、各ノードのパラメータを定義する。このパラメータも、学習データから自動定義してもよく、知識から定義してもよい。
このようにしてベイジアンネットワークのネットワーク構造が構築された後、操作意図推定部52にセンサ部51でセンシングした多次元の情報が入力されると、操作意図推定部52は、入力された多次元の情報に基づいてユーザの操作意図を推定する。例えば図12(A)に示すように、「操作の時刻」は「夜」、「手の移動」は「手の甲を上にして近づく」、「環境音スペクトル」は「中域」という情報が操作意図推定部52に入力されると、操作意図推定部52は、同図(B)に示すように各操作意図についての値を生成する。この結果、「CD再生モード」の値が最も大きいため、操作意図推定部52は、ユーザの操作意図を「CD再生モード」と推定し、「CD再生モード」に関する情報を操作子選択部53に供給する。
その後、操作子選択部23は、「CD再生モード」に対応する操作子を選択し、操作制御部42からの問い合わせに応じて、操作子に関する情報を通知する。操作制御部42は、操作子選択部53から操作子に関する情報が通知されると、モードを「CD再生モード」に変更する。
このように、上述したユーザインターフェース装置2では、センシングしたユーザの状態からユーザの操作意図を事前に推定し、推定した操作意図に応じて操作制御するようにしているため、例えばCD再生に用いた場合には、ユーザがCD再生ボタンを押圧操作する前にCDが回転し始めることになり、ユーザが意図してから操作するまでの時間を短縮することができる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
本実施の形態におけるユーザインターフェース装置の概略構成の一例を示す図である。 ディスプレイ上の操作子の一例を示す図である。 ベイジアンネットワークで定義されるノードとその状態の一例を示す図である。 ノード同士を繋いだネットワーク構造の一例を示す図である。 各ノードについて定義されるパラメータの一例を示す図である。 ユーザの操作意図の推定例を示す図である。 本実施の形態におけるユーザインターフェース装置の概略構成の他の例を示す図である。 オーディオ再生装置における操作子を説明するための図である。 ベイジアンネットワークで定義されるノードとその状態の一例を示す図である。 ノード同士を繋いだネットワーク構造の一例を示す図である。 各ノードについて定義されるパラメータの一例を示す図である。 ユーザの操作意図の推定例を示す図である。
符号の説明
1,2 ユーザインターフェース装置、10 インターフェース部、11 マウス、12 表示制御部、13 ディスプレイ、20 ユーザ意図推定モジュール部、21 センサ部、22 操作意図推定部、23 操作子選択部、40 インターフェース部、41 操作用ボタン、42 操作制御部、50 ユーザ意図推定モジュール部、51 センサ部、52 操作意図推定部、53 操作子選択部

Claims (4)

  1. ユーザによる操作が可能なインターフェース手段と、
    上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段と、
    ユーザの状態をセンシングするセンサ手段と、
    上記センサ手段によってセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定手段と、
    上記操作意図推定手段によって推定された操作意図に応じて上記処理手段を制御する制御手段と
    を備えることを特徴とするユーザインターフェース装置。
  2. 上記インターフェース手段は、ポインティングデバイスを有し、
    上記制御手段は、上記ポインティングデバイスによるポインティング位置を、推定された操作意図に応じた位置とするように上記処理手段を制御する
    ことを特徴とする請求項1記載のユーザインターフェース装置。
  3. 上記推論モデルは、ベイジアンネットワーク、ダイナミックベイジアンネットワーク、サポートベクタマシン、ブースティング、隠れマルコフモデル、ニューラルネットワーク、又は決定論的なモデルであることを特徴とする請求項1記載のユーザインターフェース装置。
  4. ユーザによる操作が可能なインターフェース手段と、上記インターフェース手段を介したユーザの操作に応じて所定の処理を行う処理手段とを備えたユーザインターフェース装置におけるユーザインターフェース方法であって、
    ユーザの状態をセンシングするセンシング工程と、
    上記センシング工程にてセンシングされた上記ユーザの状態に基づき、推論モデルを用いて該ユーザの操作意図を事前に推定する操作意図推定工程と、
    上記操作意図推定工程にて推定された操作意図に応じて上記処理手段を制御する制御工程と
    を有することを特徴とするユーザインターフェース方法。
JP2005130242A 2005-04-27 2005-04-27 ユーザインターフェース装置及び方法 Pending JP2006309448A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005130242A JP2006309448A (ja) 2005-04-27 2005-04-27 ユーザインターフェース装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005130242A JP2006309448A (ja) 2005-04-27 2005-04-27 ユーザインターフェース装置及び方法

Publications (1)

Publication Number Publication Date
JP2006309448A true JP2006309448A (ja) 2006-11-09

Family

ID=37476270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005130242A Pending JP2006309448A (ja) 2005-04-27 2005-04-27 ユーザインターフェース装置及び方法

Country Status (1)

Country Link
JP (1) JP2006309448A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
US7987147B2 (en) 2006-05-18 2011-07-26 Sony Corporation Information processing apparatus, information processing method, and program based on operator probability using sensors
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2019536131A (ja) * 2016-10-04 2019-12-12 フェイスブック,インク. 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JPH11288342A (ja) * 1998-02-09 1999-10-19 Toshiba Corp マルチモーダル入出力装置のインタフェース装置及びその方法
JP2000187553A (ja) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd 入力装置および入力装置用ヘッドマウントディスプレイ
JP2005011037A (ja) * 2003-06-18 2005-01-13 National Institute Of Advanced Industrial & Technology ポインティングデバイス

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187553A (ja) * 1991-06-20 2000-07-04 Fuji Xerox Co Ltd 入力装置および入力装置用ヘッドマウントディスプレイ
JPH11203006A (ja) * 1998-01-20 1999-07-30 Fujitsu Ltd ユーザ状況推定装置
JPH11288342A (ja) * 1998-02-09 1999-10-19 Toshiba Corp マルチモーダル入出力装置のインタフェース装置及びその方法
JP2005011037A (ja) * 2003-06-18 2005-01-13 National Institute Of Advanced Industrial & Technology ポインティングデバイス

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7987147B2 (en) 2006-05-18 2011-07-26 Sony Corporation Information processing apparatus, information processing method, and program based on operator probability using sensors
JP2008140268A (ja) * 2006-12-04 2008-06-19 Denso Corp 操作推定装置およびプログラム
JP4670803B2 (ja) * 2006-12-04 2011-04-13 株式会社デンソー 操作推定装置およびプログラム
JP2016507112A (ja) * 2013-03-05 2016-03-07 インテル コーポレイション 複合的な知覚感知入力の対話
JP2019536131A (ja) * 2016-10-04 2019-12-12 フェイスブック,インク. 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース

Similar Documents

Publication Publication Date Title
AU2020282362B2 (en) User interfaces for audio media control
JP6002758B2 (ja) タッチスクリーンを備えた携帯端末機の画面編集方法及び装置
US9760170B2 (en) Generation of graphical feedback in a computer system
JP5944326B2 (ja) アイトラッカーベースのコンテキストアクション
CN105599642B (zh) 座椅自动调节方法、装置及终端
KR101984590B1 (ko) 디스플레이 디바이스 및 그 제어 방법
KR101289318B1 (ko) 입력 장치, 입력 방법, 및 이와 관련된 컴퓨터 판독 가능 저장 매체
CN104464250B (zh) 用于可编程多媒体控制器的遥控装置
CN114020203A (zh) 用于内容流式传输的用户界面
JP5763345B2 (ja) 遠隔制御のためのタッチセンサ式無線ナビゲーション装置
US20140365913A1 (en) Device, method, and graphical user interface for synchronizing two or more displays
US9218544B2 (en) Intelligent matcher based on situational or spatial orientation
US20110134032A1 (en) Method for controlling touch control module and electronic device thereof
US20070229465A1 (en) Remote control system
CA3028623A1 (en) Application icon customization
KR20130061527A (ko) 정전 용량식 터치 스크린의 터치 감도 제어방법 및 이를 이용한 디스플레이 장치
JP2005149477A (ja) マルチモードのコンピュータポインティングデバイス
JP2016139180A (ja) 情報処理装置、情報処理方法、プログラム、及び、表示装置
JP2006309448A (ja) ユーザインターフェース装置及び方法
CN116368805A (zh) 媒体服务配置
JP2007104630A (ja) 映像監視システム
JP2012138076A (ja) メディアコンテンツを検索するためのユーザインタフェース
US11099731B1 (en) Techniques for content management using a gesture sensitive element
EP1903421A2 (en) Portable integrated device and a method of controlling power thereof
US20220179525A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308