JP6390277B2 - 情報処理装置、制御方法、およびプログラム - Google Patents
情報処理装置、制御方法、およびプログラム Download PDFInfo
- Publication number
- JP6390277B2 JP6390277B2 JP2014177929A JP2014177929A JP6390277B2 JP 6390277 B2 JP6390277 B2 JP 6390277B2 JP 2014177929 A JP2014177929 A JP 2014177929A JP 2014177929 A JP2014177929 A JP 2014177929A JP 6390277 B2 JP6390277 B2 JP 6390277B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- information processing
- content
- processing apparatus
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1639—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.本開示の一実施形態による情報処理システムの概要
2.基本構成
3.動作処理
3−1.開始条件
3−2.スライドルートおよびスライド速度
3−3.物体近接動作
3−4.終了条件
3−5.終了処理
4.補足
5.まとめ
まず、図面を参照しながら本開示の一実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。以下、図1を用いて本開示の一実施形態に係る情報処理システムの構成例について説明する。
次いで、本実施形態による情報処理装置100が、出力部130によりテーブル140の天面141に表示する情報の一例について説明する。
以上、本開示による情報処理システムの概要について説明した。続いて、本開示による情報システムを構成する情報処理装置100の構成について、図13を参照して説明する。図13は、本開示の一実施形態に係る情報処理装置100の構成例を示す説明図である。
本実施形態による情報処理システムは、図4、図5〜図12に示したように、複数のユーザが、例えばテーブル140aに表示される同一の画面上でそれぞれ独立したアプリケーションを実行することが出来るよう構成されたシステムである。例えば図4に示したアプリケーションのGUI(Graphical User Interface)は、出力制御部122が生成し、出力部130が出力する。
ここで、図15〜図16を参照して本実施形態による開始条件について説明する。図15は、本実施形態による第1の開始条件を説明する図である。図15左に示すように、表示面である天面141に表示されているコンテンツ30を指等の操作体で接触した状態で動かすドラッグ操作の場合は、本実施形態による移動表示制御は開始されない。一方、図15右に示すように、表示面である天面141に表示されているコンテンツ30を指等の操作体で接触した状態で動かし、勢いをつけて指等を離すフリック操作の場合、制御部120は開始条件を満たすと判断し、本実施形態による移動表示制御を開始する。
ここで、図17〜図25を参照して本実施形態によるスライドルートおよびスライド速度の取得について説明する。図17は、本実施形態による第1のスライドルートの取得について説明する図である。図17に示すように、天面141に障害物(実物体)がない場合、制御部120は、フリック操作でユーザの指がコンテンツ30から離れた地点を開始点Sとし、開始点Sからフリック操作の移動方向直線上の所定距離Dの地点を終点Tとして、開始点Sから終点Tまでの最短ルート(即ち直線)をスライドルートとして取得する。所定距離Dは、フリック操作の移動速度、および天面141との仮想的な摩擦係数に基づいて算出される。天面141に障害物(実物体)がない場合、ユーザは、開始点Sから終点Tに移動するコンテンツ30を見失うことがない。
図26は、本実施形態による第1の物体近接動作について説明する図である。図26に示すように、例えば制御部120は、物体の色に応じて、コンテンツ30の透過度を保ったまま皿5cを通過させるよう制御する。具体的には、例えば近接した物体が柄のあるものや暗い色のものである場合、プロジェクション型の情報処理装置100において投影するコンテンツ30を半透明に制御すると物体を通過する際(重なった際)にユーザがコンテンツ30を見失う恐れがある。したがって、近接した物体が柄のあるものや暗い色のものである場合、制御部120は、コンテンツ30の透過度を保ったまま物体を通過するよう表示制御する。
続いて、上記S115で言及した「終了条件」について、図30〜図31を参照して説明する。
図14に戻り、終了条件を満たしたと判断された場合(S115/Yes)、ステップS118において、制御部120は、所定の終了処理を行うよう制御する。ここで、本実施形態による終了処理について図32〜図37を参照して具体的に説明する。
以上、本開示による情報処理システムについて詳細に説明した。次いで、本開示による情報処理システムの補足について説明する。
本実施形態では、スライド移動中のコンテンツに対する操作は受け付けないようにしてもよい。より具体的には、制御部120は、スライド中のコンテンツの制御は、コンテンツ自体の表示制御(xy移動、透明度、回転など)に留め、コンテンツ(GUI)内へのイベント(コンテンツ内のリンクやボタンをクリックするなど)は受け付けないようにする。これにより、スライド中の意図しないイベントを受け付けて誤動作することを防止することができる。以下、図38、図39を参照して一例を説明する。
上述した実施形態では、例えば図25に示すように、天面141に置かれた携帯音楽プレイヤー6の近くにコンテンツ32aが移動された場合、制御部120は携帯音楽プレイヤー6にコンテンツ32aを転送するよう制御する。また、図33に示す例では、天面141に置かれたデジタルカメラ7の近くにコンテンツ37が移動された場合に、制御部120がデジタルカメラ7にコンテンツ37を転送するよう制御している。このように、本実施形態による制御部120は、天面141に置かれている通信機能を有する装置と無線接続し、当該装置の近くに移動されたコンテンツを自動転送することが可能である。
本実施形態において、制御部120は、ユーザのフリック操作に応じてコンテンツをスライド移動させる際に、移動開始時から所定時間(例えば3秒ほど)の間、移動するコンテンツの軌跡を表示してもよい。当該軌跡は、例えばコンテンツから延長された紐形状で表示される。そして、制御部120は、ユーザが当該軌跡を示す紐を押さえて手前に戻す操作を行った場合には、スライド移動させたコンテンツが紐に引っ張られて戻るよう表示制御することも可能である。
上述したように、本開示の実施形態による情報処理システムでは、実物体との位置関係に応じて、表示された仮想物体の移動制御を行うことで、より適切かつ効率的に情報表示を行うことができる。
(1)
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部を備え、
前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、情報処理装置。
(2)
前記制御部は、前記ユーザ操作が行われた後、さらなるユーザ操作なしに物体を移動させて表示させる、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記仮想物体に対する所定のユーザ操作の移動方向および移動速度に基づく前記仮想物体の移動速度および移動経路を取得する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記仮想物体が前記実物体を避けて移動するように表示制御を行う、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記仮想物体が前記実物体を通過して移動するように表示制御を行う、前記(3)に記載の情報処理装置。
(6)
前記制御部は、近接する前記実物体に関連付けられる情報に基づいて前記仮想物体の移動の仕方が変わるように表示制御を行う、前記(3)に記載の情報処理装置。
(7)
前記制御部は、前記仮想物体に関連付けられる情報に基づいて、前記仮想物体の移動の仕方が変わるように表示制御を行う、前記(3)に記載の情報処理装置。
(8)
前記制御部は、近接する前記実物体の性質を表す情報に基づいて、前記仮想物体が前記実物体を避けて移動する、または前記仮想物体が前記実物体を通過して移動するように表示制御を行う、前記(6)に記載の情報処理装置。
(9)
前記制御部は、前記実物体を通過する際、前記実物体の性質に応じて前記仮想物体の透過度を制御する、前記(8)に記載の情報処理装置。
(10)
前記移動速度は、前記所定のユーザ操作時の移動速度と、表示面との仮想的な摩擦係数に基づいて算出される、前記(3)に記載の情報処理装置。
(11)
前記仮想的な摩擦係数は、前記仮想物体のデータ量に比例して設定される、前記(10)に記載の情報処理装置。
(12)
前記仮想物体は、アプリケーションGUI、メディアファイル、または画像データである、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記制御部は、前記仮想物体の移動制御中は、前記仮想物体への操作入力を受付けない、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、前記仮想物体の移動制御中に、前記仮想物体に近接するユーザの手が特定の形状である場合は、前記仮想物体が前記ユーザの手に衝突して止まるよう制御する、前記(13)に記載の情報処理装置。
(15)
前記制御部は、前記仮想物体の移動が停止した際に、近くに表示されている他の仮想物体の機能、または近くに存在する実物体の性質に応じた終了処理を前記仮想物体に対して行う、前記(1)〜(14)のいずれか1項に記載の情報処理。
(16)
前記制御部は、出力部により前記仮想物体を表示面に表示するよう制御する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記出力部は、表示装置、プロジェクタ、またはHMDである、前記(16)に記載の情報処理装置。
(18)
前記仮想物体に対するユーザ操作は、入力部から入力された情報に基づいて取得される、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御することを含み、
前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、制御方法。
(20)
コンピュータを、
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部として機能させ、
前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、プログラム。
110、110a〜110c 入力部
120 制御部
121 検出部
122 出力制御部
130、130a〜130c 出力部
Claims (17)
- 表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部を備え、
前記制御部は、
前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御し、
前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、情報処理装置。 - 前記制御部は、
前記実物体の性質に応じて、前記実物体を回避して移動するか通過して移動するかを判断する、請求項1に記載の情報処理装置。 - 前記制御部は、
前記仮想物体が前記実物体を通過して移動する際、前記実物体の性質に応じて、前記仮想物体を一時的に透過させるか否かを判断する、請求項1または2に記載の情報処理装置。 - 前記実物体の性質は、前記実物体の色、柄、材質、または状態である、請求項1〜3のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記ユーザ操作が行われた後、さらなるユーザ操作なしに物体を移動させて表示させる、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記仮想物体に対する所定のユーザ操作の移動方向および移動速度に基づいて、前記仮想物体の移動速度および移動経路を取得する、請求項2に記載の情報処理装置。
- 前記移動速度は、前記所定のユーザ操作時の移動速度と、表示面との仮想的な摩擦係数に基づいて算出され、
前記仮想的な摩擦係数は、前記仮想物体のデータ量に比例して設定される、請求項6に記載の情報処理装置。 - 前記制御部は、前記仮想物体の性質に基づいて、前記仮想物体の移動の仕方が変わるように表示制御を行う、請求項1〜7のいずれか1項に記載の情報処理装置。
- 前記仮想物体は、アプリケーションGUI、メディアファイル、または画像データである、請求項1〜8のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記仮想物体の移動制御中は、前記仮想物体への操作入力を受付けない、請求項1〜9のいずれか1項に記載の情報処理装置。
- 前記制御部は、前記仮想物体の移動制御中に、前記仮想物体に近接するユーザの手が特定の形状である場合は、前記仮想物体が前記ユーザの手に衝突して止まるよう制御する、請求項10に記載の情報処理装置。
- 前記制御部は、前記仮想物体の移動が停止した際に、近くに表示されている他の仮想物体の機能、または近くに存在する実物体の性質に応じた終了処理を前記仮想物体に対して行う、請求項1〜11のいずれか1項に記載の情報処理装置。
- 前記制御部は、出力部により前記仮想物体を表示面に表示するよう制御する、請求項1〜12のいずれか1項に記載の情報処理装置。
- 前記出力部は、表示装置、プロジェクタ、またはHMDである、請求項13に記載の情報処理装置。
- 前記仮想物体に対するユーザ操作は、入力部から入力された情報に基づいて取得される、請求項1〜14のいずれか1項に記載の情報処理装置。
- 表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御することと、
前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御することと、
を含み、
前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、制御方法。 - コンピュータを、
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部として機能させ、
前記制御部は、
前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御し、
前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014177929A JP6390277B2 (ja) | 2014-09-02 | 2014-09-02 | 情報処理装置、制御方法、およびプログラム |
EP15763655.6A EP3189396B1 (en) | 2014-09-02 | 2015-08-25 | Information processing apparatus, control method, and program |
US15/327,070 US10585531B2 (en) | 2014-09-02 | 2015-08-25 | Information processing apparatus, control method, and program |
CN201580045474.0A CN106716301B (zh) | 2014-09-02 | 2015-08-25 | 信息处理装置、控制方法和程序 |
PCT/JP2015/004276 WO2016035283A1 (en) | 2014-09-02 | 2015-08-25 | Information processing apparatus, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014177929A JP6390277B2 (ja) | 2014-09-02 | 2014-09-02 | 情報処理装置、制御方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016051436A JP2016051436A (ja) | 2016-04-11 |
JP2016051436A5 JP2016051436A5 (ja) | 2017-03-09 |
JP6390277B2 true JP6390277B2 (ja) | 2018-09-19 |
Family
ID=54140611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014177929A Expired - Fee Related JP6390277B2 (ja) | 2014-09-02 | 2014-09-02 | 情報処理装置、制御方法、およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10585531B2 (ja) |
EP (1) | EP3189396B1 (ja) |
JP (1) | JP6390277B2 (ja) |
CN (1) | CN106716301B (ja) |
WO (1) | WO2016035283A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
CN105554553B (zh) * | 2015-12-15 | 2019-02-15 | 腾讯科技(深圳)有限公司 | 通过悬浮窗口播放视频的方法及装置 |
JP6697967B2 (ja) * | 2016-06-30 | 2020-05-27 | シャープ株式会社 | 画像表示装置、画像表示方法及びプログラム |
JP6760008B2 (ja) * | 2016-11-21 | 2020-09-23 | 富士通株式会社 | コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法 |
DE112017005980T5 (de) | 2016-11-25 | 2019-08-08 | Sony Corporation | Anzeigesteuervorrichtung, anzeigesteuerverfahren und computerprogramm |
JP2018101019A (ja) * | 2016-12-19 | 2018-06-28 | セイコーエプソン株式会社 | 表示装置及び表示装置の制御方法 |
US10764474B2 (en) * | 2017-03-02 | 2020-09-01 | Amazon Technologies, Inc. | Assembly for electronic devices |
JP6921192B2 (ja) | 2017-05-22 | 2021-08-18 | 任天堂株式会社 | ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法 |
CN110662587B (zh) | 2017-05-22 | 2024-01-23 | 任天堂株式会社 | 游戏程序、信息处理装置、信息处理***以及游戏处理方法 |
JP6921193B2 (ja) * | 2017-05-22 | 2021-08-18 | 任天堂株式会社 | ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法 |
WO2019069575A1 (ja) | 2017-10-05 | 2019-04-11 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6930601B2 (ja) * | 2017-12-01 | 2021-09-01 | 日本電気株式会社 | 情報処理装置、表示位置調整方法、およびプログラム |
US11112961B2 (en) | 2017-12-19 | 2021-09-07 | Sony Corporation | Information processing system, information processing method, and program for object transfer between devices |
JP7322713B2 (ja) * | 2017-12-27 | 2023-08-08 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN108509086B (zh) * | 2018-02-11 | 2021-06-08 | 合肥市科技馆 | 一种基于多媒体互动的自助餐互动*** |
WO2019217043A1 (en) * | 2018-05-08 | 2019-11-14 | Google Llc | Drag gesture animation |
US11036284B2 (en) | 2018-09-14 | 2021-06-15 | Apple Inc. | Tracking and drift correction |
CN109350961A (zh) * | 2018-10-26 | 2019-02-19 | 努比亚技术有限公司 | 一种内容处理方法、终端及计算机可读存储介质 |
JP7280032B2 (ja) * | 2018-11-27 | 2023-05-23 | ローム株式会社 | 入力デバイス、自動車 |
WO2020166351A1 (ja) | 2019-02-13 | 2020-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
US11016643B2 (en) * | 2019-04-15 | 2021-05-25 | Apple Inc. | Movement of user interface object with user-specified content |
JP2020113345A (ja) * | 2020-04-27 | 2020-07-27 | シャープ株式会社 | 画像表示装置、画像表示方法及びプログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644001A (ja) * | 1992-07-27 | 1994-02-18 | Toshiba Corp | 表示制御装置及び表示制御方法 |
JPH1063470A (ja) * | 1996-06-12 | 1998-03-06 | Nintendo Co Ltd | 画像表示に連動する音響発生装置 |
US6870616B2 (en) * | 1998-06-30 | 2005-03-22 | Jjl Technologies Llc | Spectrometer apparatus for determining an optical characteristic of an object or material having one or more sensors for determining a physical position or non-color property |
US6196917B1 (en) * | 1998-11-20 | 2001-03-06 | Philips Electronics North America Corp. | Goal directed user interface |
US8456447B2 (en) * | 2003-02-14 | 2013-06-04 | Next Holdings Limited | Touch screen signal processing |
US7394459B2 (en) * | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
US20090135162A1 (en) * | 2005-03-10 | 2009-05-28 | Koninklijke Philips Electronics, N.V. | System and Method For Detecting the Location, Size and Shape of Multiple Objects That Interact With a Touch Screen Display |
US20080026838A1 (en) * | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
US7657849B2 (en) * | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US8402382B2 (en) * | 2006-04-21 | 2013-03-19 | Google Inc. | System for organizing and visualizing display objects |
US8203561B2 (en) * | 2008-09-10 | 2012-06-19 | International Business Machines Corporation | Determining valued excursion corridors in virtual worlds |
US8330733B2 (en) * | 2009-01-21 | 2012-12-11 | Microsoft Corporation | Bi-modal multiscreen interactivity |
US8469806B2 (en) * | 2009-07-22 | 2013-06-25 | Immersion Corporation | System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment |
JP5528739B2 (ja) * | 2009-08-12 | 2014-06-25 | 株式会社ジャパンディスプレイ | 検出装置、表示装置、および物体の近接距離測定方法 |
JP2011248768A (ja) * | 2010-05-28 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理システム及びプログラム |
US20110291964A1 (en) * | 2010-06-01 | 2011-12-01 | Kno, Inc. | Apparatus and Method for Gesture Control of a Dual Panel Electronic Device |
US8972903B2 (en) * | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
US8593418B2 (en) * | 2010-08-08 | 2013-11-26 | Qualcomm Incorporated | Method and system for adjusting display content |
US20120249595A1 (en) * | 2011-03-31 | 2012-10-04 | Feinstein David Y | Area selection for hand held devices with display |
US8845431B2 (en) * | 2011-05-31 | 2014-09-30 | Microsoft Corporation | Shape trace gesturing |
CN103890765A (zh) * | 2011-09-07 | 2014-06-25 | 皇家飞利浦有限公司 | 用于医疗设备的非接触式远程控制***和方法 |
CN104205034A (zh) * | 2012-03-29 | 2014-12-10 | 英特尔公司 | 使用手势创建三维图形 |
US9741145B2 (en) * | 2012-06-29 | 2017-08-22 | Disney Enterprises, Inc. | Augmented reality simulation continuum |
US9767446B2 (en) * | 2012-07-19 | 2017-09-19 | Mastercard International Incorporated | Touch screen system and methods for multiple contactless payments |
US9310611B2 (en) * | 2012-09-18 | 2016-04-12 | Qualcomm Incorporated | Methods and systems for making the use of head-mounted displays less obvious to non-users |
KR101984683B1 (ko) * | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
US10549180B2 (en) * | 2013-09-30 | 2020-02-04 | Zynga Inc. | Swipe-direction gesture control for video games using glass input devices |
US20150100911A1 (en) * | 2013-10-08 | 2015-04-09 | Dao Yin | Gesture responsive keyboard and interface |
-
2014
- 2014-09-02 JP JP2014177929A patent/JP6390277B2/ja not_active Expired - Fee Related
-
2015
- 2015-08-25 WO PCT/JP2015/004276 patent/WO2016035283A1/en active Application Filing
- 2015-08-25 US US15/327,070 patent/US10585531B2/en not_active Expired - Fee Related
- 2015-08-25 EP EP15763655.6A patent/EP3189396B1/en active Active
- 2015-08-25 CN CN201580045474.0A patent/CN106716301B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2016035283A1 (en) | 2016-03-10 |
EP3189396A1 (en) | 2017-07-12 |
JP2016051436A (ja) | 2016-04-11 |
EP3189396B1 (en) | 2021-03-31 |
US20170168651A1 (en) | 2017-06-15 |
CN106716301B (zh) | 2020-02-07 |
CN106716301A (zh) | 2017-05-24 |
US10585531B2 (en) | 2020-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6390277B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US11262840B2 (en) | Gaze detection in a 3D mapping environment | |
JP6464138B2 (ja) | ジェスチャによるタッチ入力の向上 | |
US11941764B2 (en) | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments | |
CN102681664B (zh) | 电子装置、信息处理方法、程序和电子装置*** | |
US20160041623A1 (en) | Sessionless pointing user interface | |
US20150205358A1 (en) | Electronic Device with Touchless User Interface | |
US20110175920A1 (en) | Method for handling and transferring data in an interactive input system, and interactive input system executing the method | |
US11714540B2 (en) | Remote touch detection enabled by peripheral device | |
TW201525835A (zh) | 顯示控制裝置、顯示控制方法及程式 | |
JP2016511488A (ja) | センサフュージョンを介した対話式入力の拡張 | |
US9639167B2 (en) | Control method of electronic apparatus having non-contact gesture sensitive region | |
US20110258566A1 (en) | Assigning z-order to user interface elements | |
US20200301553A1 (en) | Establishing and using virtual assets on tangible objects in augmented reality (ar) and virtual reality (vr) | |
US20240153219A1 (en) | Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments | |
US20200293155A1 (en) | Device and method for providing reactive user interface | |
TWI524262B (zh) | 電子裝置的控制方法 | |
WO2020097818A1 (zh) | 防打扰方法、电子装置及计算机可读存储介质 | |
US11768535B1 (en) | Presenting computer-generated content based on extremity tracking | |
Huot | Touch Interfaces | |
KR20180103366A (ko) | 반응형 유저 인터페이스 제공 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170131 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180806 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6390277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |