JP2013186500A - 操作支援表示装置およびプログラム - Google Patents

操作支援表示装置およびプログラム Download PDF

Info

Publication number
JP2013186500A
JP2013186500A JP2012048563A JP2012048563A JP2013186500A JP 2013186500 A JP2013186500 A JP 2013186500A JP 2012048563 A JP2012048563 A JP 2012048563A JP 2012048563 A JP2012048563 A JP 2012048563A JP 2013186500 A JP2013186500 A JP 2013186500A
Authority
JP
Japan
Prior art keywords
user
display
recognition
sub
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012048563A
Other languages
English (en)
Other versions
JP5715977B2 (ja
Inventor
Katsuto Mochizuki
克人 望月
Masanori Sanbe
雅法 三部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2012048563A priority Critical patent/JP5715977B2/ja
Priority to CN201210559425.7A priority patent/CN103294186B/zh
Priority to US13/780,195 priority patent/US20130246968A1/en
Publication of JP2013186500A publication Critical patent/JP2013186500A/ja
Application granted granted Critical
Publication of JP5715977B2 publication Critical patent/JP5715977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】コンテンツに対する操作を行うユーザが、操作に対するフィードバックを受けることができるようにする。
【解決手段】利用者の位置および動作を認識する動作認識装置と、前記動作認識装置の認識動作情報を表示部に表示される画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示するサブウィンドウを前記画像に重畳させて表示する表示制御部と、前記動作認識装置からの前記認識動作情報に基づく前記利用者の位置および動作をユーザ操作として反映させる動作反映部と、を備え、前記表示制御部は、前記動作反映部で反映した前記ユーザ操作に応じて前記サブウィンドウの前記操作ガイダンスを更新する。
【選択図】図5

Description

本発明の実施形態は、操作支援表示装置およびプログラムに関する。
広告、イベント、お知らせ等のコンテンツを不特定者に提示する仕組みとして、表示装置等のサイネージ端末にデジタル化されたコンテンツを表示させるシステム、いわゆるデジタルサイネージシステムが知られている。
また、近年においては、カメラに映った利用者までの距離を計測するとともに、利用者の骨格のさまざまな動きを検出する動作認識装置も開発されている。このような動作認識装置による利用者の位置や動作などの認識結果をポインティングデバイスの出力とすることによって、各種の操作を行うことも検討されている。
ところで、動作認識装置の認識結果をポインティングデバイスの出力として利用する場合、利用者はマウスやタッチパネルなどと異なり直接インタフェース装置に直接触れることがないため、体感的なフィードバッグが生じない。そのため、従来においては、利用者は画面上の状況を見て操作状況を判断するしかなかった。
実施形態の操作支援表示装置は、利用者の位置および動作を認識する動作認識装置と、前記動作認識装置の認識動作情報を表示部に表示される画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示するサブウィンドウを前記画像に重畳させて表示する表示制御部と、前記動作認識装置からの前記認識動作情報に基づく前記利用者の位置および動作をユーザ操作として反映させる動作反映部と、を備え、前記表示制御部は、前記動作反映部で反映した前記ユーザ操作に応じて前記サブウィンドウの前記操作ガイダンスを更新する。
実施形態のプログラムは、利用者の位置および動作を認識する動作認識装置を備えるコンピュータを、前記動作認識装置の認識動作情報を表示部に表示される画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示するサブウィンドウを前記画像に重畳させて表示する表示制御部と、前記動作認識装置からの前記認識動作情報に基づく前記利用者の位置および動作をユーザ操作として反映させる動作反映部と、として機能させ、前記表示制御部は、前記動作反映部で反映した前記ユーザ操作に応じて前記サブウィンドウの前記操作ガイダンスを更新する。
図1は、本実施形態にかかる情報処理システムの概略構成を示すブロック図である。 図2は、サイネージ端末装置の外観正面図である。 図3は、サイネージ端末装置の概略構成を示すブロック図である。 図4は、サイネージ端末装置の機能構成を示すブロック図である。 図5は、表示画面の一例を示す正面図である。 図6は、操作支援表示処理の流れを示すフローチャートである。 図7は、画面の遷移を説明するための図である。
図1は、本実施形態にかかる情報処理システム10の概略構成を示すブロック図である。以下の説明では、本実施形態にかかる情報処理システムがショッピングモールに設けられた場合について説明する。
本実施形態にかかる情報処理システム10は、デジタルサイネージ管理装置である情報配信サーバ11と、デジタルサイネージ再生装置である複数のサイネージ端末装置14とを備えている。
情報配信サーバ11は、構内LAN(Local Area Network)等の通信ネットワーク12を介してサイネージ端末装置14に接続されており、商品の広告情報やイベントの情報などの情報のコンテンツをサイネージ端末装置14に対して配信、またコンテンツをサイネージ端末装置14からのアクセスによって取得させる。
サイネージ端末装置14は、通信ネットワーク12を介して情報配信サーバ11から配信または取得したコンテンツデータを再生して表示する。
図2は、サイネージ端末装置の外観正面図である。サイネージ端末装置14は、液晶ディスプレイあるいはプラズマディスプレイとして構成された表示部であるディスプレイユニット21と、各種チケット,クーポン等を印刷して発行するプリンタユニット22と、ディスプレイユニット21,プリンタユニット22を保持する筐体部24と、を備えている。
筐体部24の上部には、動作認識装置25と、BGMや広告音声等の各種音響出力を行うスピーカユニット26が内蔵されている。なお、画像認識等の処理は、サイネージ端末装置14で行うことなく、情報配信サーバ11等の上流側サーバで行っても良い。
動作認識装置25は、例えばカメラ、センサ、プロセッサなどを備えており、サイネージ端末装置14に対面する利用者の位置、動作、顔などを認識する。より詳細には、動作認識装置25は、カメラに映った利用者から当該装置までの距離を計測し、利用者の骨格のさまざまな動きを検出する。
図3は、サイネージ端末装置14の概略構成を示すブロック図である。サイネージ端末装置14は、上述したディスプレイユニット21、プリンタユニット22、動作認識装置25、およびスピーカユニット26の他、当該サイネージ端末装置14全体を制御するコントローラ31と、ユーザが各種操作を行うための操作部32と、通信ネットワーク12を介して情報配信サーバ11との間で通信を行うためのネットワーク通信インタフェース(IF)33と、近距離無線通信部23を構成し、携帯情報端末装置13に対して広告情報やイベント情報等の情報に関連する情報を配信するための情報配信用通信インタフェース(IF)34と、各種データを記憶する外部記憶装置35と、を備えている。
ここで、コントローラ31は、当該コントローラ31全体を制御するMPU(Micro Processing Unit)36と、MPU36が動作するための制御プログラム等を格納したROM(Read Only Memory)37と、各種データを一時的に記憶するRAM(Random Access Memory)38と、を備えている。そして、コントローラ31は、MPU36がROM37に格納された制御プログラムを実行することにより、通信ネットワーク12を介して情報配信サーバ11から配信されたコンテンツを再生して、再生したコンテンツをディスプレイユニット21に表示する。また、操作部32は、各種スイッチ、ボタン等で構成したり、ポインティングデバイスであるタッチパネルとしてディスプレイユニット21と一体に構成したりしても良い。
また、本実施形態においては、動作認識装置25もポインティングデバイスとして機能する。より詳細には、コントローラ31は、動作認識装置25が認識した利用者の動作や手の位置などの認識結果に基づいて、ディスプレイユニット21に表示されたコンテンツに対する操作を可能にしている。
ところが、動作認識装置25の認識結果をポインティングデバイスの出力として利用する場合、利用者はマウスやタッチパネルなどと異なり直接インタフェース装置に直接触れることがないため、体感的なフィードバッグが生じない。そのため、従来においては、利用者は画面上の状況を見て操作状況を判断するしかなかった。
次に、上述したような問題を解決するために、本実施形態にかかる操作支援表示装置であるサイネージ端末装置14が有する特徴的な機能について説明する。図4は、サイネージ端末装置14の機能構成を示すブロック図である。コントローラ31は、ROM37に記憶された制御プログラムに従ってMPU36を動作させることで、図4に示すように、表示制御部311、動作反映部312として機能する。
表示制御部311は、サイネージ端末装置14に配信されてディスプレイユニット21に表示されるコンテンツ画像に対する操作を支援する操作支援サブウィンドウSW(図5参照)を表示するための情報(例えば、表示位置、表示アイコン等)を付加して配信する。また、表示制御部311は、動作認識装置25の認識結果として利用者による指示ポインタが操作支援サブウィンドウSW上に重なる場合には、操作支援サブウィンドウSWの表示位置を移動させる。これにより、ユーザの操作に影響を与えないようにすることもできる。なお、表示制御部311は、利用者による指示ポインタの移動に同期させて操作支援サブウィンドウSWを移動させてカーソル代わりにしても良い。
ここで、図5はサイネージ端末装置14のディスプレイユニット21に表示される表示画面の一例を示す正面図である。図5に示すように、例えば操作部32が操作されて、サイネージ端末装置14で再生するコンテンツの決定が要求されると、表示制御部311は、ディスプレイユニット21にコンテンツCを表示する。加えて、表示制御部311は、サイネージ端末装置14のディスプレイユニット21に表示されているコンテンツCに重畳させて操作支援サブウィンドウSWを表示する。
操作支援サブウィンドウSWは、動作認識装置25からの認識動作情報をポインティングデバイスの出力として利用する場合における操作状態を示す操作ガイダンスを表示するものである。
動作反映部312は、サイネージ端末装置14のディスプレイユニット21に表示された操作支援サブウィンドウSWの表示内容に従った利用者の位置や動作を識別した動作認識装置25からの認識動作情報を取得し、当該利用者の位置および動作をユーザ操作として反映させる。
次に、サイネージ端末装置14における操作支援表示処理について詳細に説明する。ここで、図6はサイネージ端末装置14における操作支援表示処理の流れを示すフローチャート、図7はサイネージ端末装置14のディスプレイユニット21に表示された画面の遷移を説明するための図である。
表示制御部311は、情報配信サーバ11から配信されたコンテンツを受信した順に再生して、再生したコンテンツの画像をディスプレイユニット21に表示するとともに(ステップS1)、動作認識装置25の認識可能領域に利用者が映ることにより利用者の動作の認識が開始されると(ステップS2のYes)、動作認識装置25からの認識動作情報をポインティングデバイスの出力として利用する場合における操作ガイダンスを操作支援サブウィンドウSWとして表示する(ステップS3)。
例えば、図7(a)に示す操作支援サブウィンドウSWの初期画面では、操作ガイダンスとして操作支援表示処理の開始の合図となる動作を表した開始アイコンAが表示される。開始アイコンAは、「人物が右手を挙げた状態」を簡単な絵柄で記号化して表現している。なお、開始アイコンAに表現される動作としては、「手を右に振る」、「手を左に振る」など様々な動作が適用可能である。なお、絵だけでは意味が分からないような場合には、文字による説明が付されていても良いし、文字のみであっても良い。
次いで、表示制御部311は、利用者が開始アイコンAを参考にして同じように右手を挙げる動作を実施したことを示す認識動作情報を動作認識装置25から受信して処理の開始を判断すると(ステップS4のYes)、操作支援表示処理を開始する(ステップS6)。なお、操作支援サブウィンドウSWに表示されるアイコンと動作認識装置25から受信する認識動作情報とは予め対応付けられて外部記憶装置35に格納されるテーブルに記憶されている。
操作支援表示処理が開始されると、動作反映部312は、動作認識装置25から受信した認識動作情報をポインティングデバイスの出力と同等の操作に置換えた状態を、操作支援サブウィンドウSWに示す。また、操作支援表示処理の開始の結果として、ポインティングデバイスの指示ポインタ(カーソル)が操作支援サブウィンドウSWの表示とともに表示されるとともに、指示ポインタ(カーソル)が手の動きに従って移動することになる。
例えば、図7(b)に示す操作支援サブウィンドウSWでは、利用者がまだ動作していないことを示す認識動作情報を、マウスが動かされていない状態と同等の操作に置換えた状態の操作ガイダンスに更新している。
例えば、図7(c)に示す操作支援サブウィンドウSWでは、利用者が手を右から左に動かす動作を実施したことを示す認識動作情報を、マウスを移動させた状態と同等の操作に置換えた状態の操作ガイダンスに更新している。
また、図7(d)に示す操作支援サブウィンドウSWでは、利用者が手を一時的に停止する動作を実施したことを示す認識動作情報を、マウスを停止させた状態と同等の操作に置換えた状態の操作ガイダンスに更新している。
また、図7(e)に示す操作支援サブウィンドウSWでは、利用者が手の指でクリックする動作を実施したことを示す認識動作情報を、マウスをクリックした状態と同等の操作に置換えた状態の操作ガイダンスに更新している。
また、図7(f)に示す操作支援サブウィンドウSWでは、利用者が手をサイネージ端末装置14に近づけて弾く動作を実施したことを示す認識動作情報を、フリックした状態と同等の操作に置換えた状態の操作ガイダンスに更新している。
このように、本実施形態の操作支援表示装置によれば、利用者の位置および動作を認識する動作認識装置25の認識動作情報をディスプレイユニット21に表示されるコンテンツ画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示する操作支援サブウィンドウSWをコンテンツ画像に重畳させて表示させる表示制御部311と、動作認識装置25からの認識動作情報に基づく利用者の位置および動作をユーザ操作として反映させる動作反映部312と、を備え、表示制御部311は、動作反映部312で反映したユーザ操作に応じて操作支援サブウィンドウSWの操作ガイダンスを更新する。これにより、ディスプレイユニット21に表示されたコンテンツに対する操作を行うユーザは、操作支援サブウィンドウSWの操作ガイダンスを見ることで現在の操作内容を理解することができるので、ユーザは操作に対するフィードバックを受けることができる。
また、これらの操作支援表示処理はサイネージ端末装置14側で行うため、情報配信サーバ11側はこれを意識した実装をする必要がない。
本実施形態においては、操作支援表示装置としてサイネージ端末装置14を適用したが、これに限るものではなく、パーソナルコンピュータ等の情報処理装置などにも適用可能である。
本実施形態のサイネージ端末装置14で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態のサイネージ端末装置14で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のサイネージ端末装置14で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
14 操作支援表示装置
21 表示部
25 動作認識装置
311 表示制御部
312 動作反映部
SW サブウィンドウ
特開2010−079770号公報

Claims (6)

  1. 利用者の位置および動作を認識する動作認識装置と、
    前記動作認識装置の認識動作情報を表示部に表示される画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示するサブウィンドウを前記画像に重畳させて表示する表示制御部と、
    前記動作認識装置からの前記認識動作情報に基づく前記利用者の位置および動作をユーザ操作として反映させる動作反映部と、
    を備え、
    前記表示制御部は、前記動作反映部で反映した前記ユーザ操作に応じて前記サブウィンドウの前記操作ガイダンスを更新する、
    ことを特徴とする操作支援表示装置。
  2. 前記表示制御部は、前記サブウィンドウの初期画面では、操作支援表示処理の開始の合図となる動作を表したアイコンを前記操作ガイダンスとして表示する、
    ことを特徴とする請求項1記載の操作支援表示装置。
  3. 前記表示制御部は、前記動作認識装置の認識結果として前記利用者による指示ポインタが前記サブウィンドウ上に重なる場合には、当該サブウィンドウの表示位置を移動させる、
    ことを特徴とする請求項1または2記載の操作支援表示装置。
  4. 利用者の位置および動作を認識する動作認識装置を備えるコンピュータを、
    前記動作認識装置の認識動作情報を表示部に表示される画像に対するポインティングデバイスの出力と同等の操作に置換えた状態を示す操作ガイダンスを表示するサブウィンドウを前記画像に重畳させて表示する表示制御部と、
    前記動作認識装置からの前記認識動作情報に基づく前記利用者の位置および動作をユーザ操作として反映させる動作反映部と、
    として機能させ、
    前記表示制御部は、前記動作反映部で反映した前記ユーザ操作に応じて前記サブウィンドウの前記操作ガイダンスを更新する、
    ことを特徴とするプログラム。
  5. 前記表示制御部は、前記サブウィンドウの初期画面では、操作支援表示処理の開始の合図となる動作を表したアイコンを前記操作ガイダンスとして表示する、
    ことを特徴とする請求項4記載のプログラム。
  6. 前記表示制御部は、前記動作認識装置の認識結果として前記利用者による指示ポインタが前記サブウィンドウ上に重なる場合には、当該サブウィンドウの表示位置を移動させる、
    ことを特徴とする請求項4または5記載のプログラム。
JP2012048563A 2012-03-05 2012-03-05 操作支援表示装置およびプログラム Active JP5715977B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012048563A JP5715977B2 (ja) 2012-03-05 2012-03-05 操作支援表示装置およびプログラム
CN201210559425.7A CN103294186B (zh) 2012-03-05 2012-12-20 操作支援显示装置及其控制方法
US13/780,195 US20130246968A1 (en) 2012-03-05 2013-02-28 Operation supporting display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048563A JP5715977B2 (ja) 2012-03-05 2012-03-05 操作支援表示装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2013186500A true JP2013186500A (ja) 2013-09-19
JP5715977B2 JP5715977B2 (ja) 2015-05-13

Family

ID=49095212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048563A Active JP5715977B2 (ja) 2012-03-05 2012-03-05 操作支援表示装置およびプログラム

Country Status (3)

Country Link
US (1) US20130246968A1 (ja)
JP (1) JP5715977B2 (ja)
CN (1) CN103294186B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207409A (ja) * 2019-05-30 2019-12-05 東芝映像ソリューション株式会社 表示装置及び表示装置の制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713545B (zh) * 2013-12-17 2017-09-29 华为技术有限公司 操作指导方法、装置及***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2000020207A (ja) * 1998-07-01 2000-01-21 Fujitsu Ltd ウィンドウ制御装置および記録媒体
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2002229704A (ja) * 2001-02-06 2002-08-16 Canon Inc 情報処理装置、ウインドウ表示方法、及び記憶媒体
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2011096084A (ja) * 2009-10-30 2011-05-12 Toshiba Corp 表示装置
JP2011186730A (ja) * 2010-03-08 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777614A (en) * 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2004078977A (ja) * 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
US8532871B2 (en) * 2007-06-05 2013-09-10 Mitsubishi Electric Company Multi-modal vehicle operating device
JP2011081469A (ja) * 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
WO2011148607A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 ジェスチャ認識装置及びジェスチャ認識方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844490A (ja) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2000020207A (ja) * 1998-07-01 2000-01-21 Fujitsu Ltd ウィンドウ制御装置および記録媒体
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2002229704A (ja) * 2001-02-06 2002-08-16 Canon Inc 情報処理装置、ウインドウ表示方法、及び記憶媒体
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2010015553A (ja) * 2008-06-03 2010-01-21 Shimane Pref Gov 画像認識装置および操作判定方法並びにプログラム
JP2011096084A (ja) * 2009-10-30 2011-05-12 Toshiba Corp 表示装置
JP2011186730A (ja) * 2010-03-08 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019207409A (ja) * 2019-05-30 2019-12-05 東芝映像ソリューション株式会社 表示装置及び表示装置の制御方法

Also Published As

Publication number Publication date
CN103294186B (zh) 2016-02-17
JP5715977B2 (ja) 2015-05-13
US20130246968A1 (en) 2013-09-19
CN103294186A (zh) 2013-09-11

Similar Documents

Publication Publication Date Title
US11494000B2 (en) Touch free interface for augmented reality systems
JP7174734B2 (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
TWI688879B (zh) 虛擬實境環境中與真實世界互動的方法、系統與記錄媒體
US20230259319A1 (en) User interfaces for content streaming
KR101460428B1 (ko) 폴더들을 관리하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105009062B (zh) 浏览被显示为瓦块的电子消息
KR102007023B1 (ko) 오프-스크린 가시 객체들의 표면화
US8432367B2 (en) Translating user interaction with a touch screen into input commands
US20110310118A1 (en) Ink Lag Compensation Techniques
JP2016126773A (ja) 視線追跡に基づく触覚効果を生成するシステム及び方法
JP2015181035A (ja) 触覚効果を与えるシステム及び方法
CN103019536A (zh) 演示期间交互地缩放内容
CN106796810B (zh) 在用户界面上从视频选择帧
US20150103015A1 (en) Devices and methods for generating tactile feedback
WO2016191188A1 (en) Assist layer with automated extraction
US20230164296A1 (en) Systems and methods for managing captions
CN115413334A (zh) 用于扩展现实***的多设备连续性
JP2019537118A (ja) ページを表示するための方法および装置、グラフィカルユーザインターフェース、ならびにモバイル端末
JP2012217101A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP5715977B2 (ja) 操作支援表示装置およびプログラム
JP2014146127A (ja) 情報処理装置、情報処理方法及びプログラム
US20200335087A1 (en) Information processing apparatus, information processing method, and program
US20190235710A1 (en) Page Turning Method and System for Digital Devices
US20240185481A1 (en) Lyrics and karaoke user interfaces, methods and systems
CN112689818A (zh) 防打扰方法、电子装置及计算机可读存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5715977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150