JP6390277B2 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
JP6390277B2
JP6390277B2 JP2014177929A JP2014177929A JP6390277B2 JP 6390277 B2 JP6390277 B2 JP 6390277B2 JP 2014177929 A JP2014177929 A JP 2014177929A JP 2014177929 A JP2014177929 A JP 2014177929A JP 6390277 B2 JP6390277 B2 JP 6390277B2
Authority
JP
Japan
Prior art keywords
virtual object
information processing
content
processing apparatus
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014177929A
Other languages
English (en)
Other versions
JP2016051436A (ja
JP2016051436A5 (ja
Inventor
哲男 池田
哲男 池田
隆司 中山
隆司 中山
一登 西沢
一登 西沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014177929A priority Critical patent/JP6390277B2/ja
Priority to EP15763655.6A priority patent/EP3189396B1/en
Priority to US15/327,070 priority patent/US10585531B2/en
Priority to CN201580045474.0A priority patent/CN106716301B/zh
Priority to PCT/JP2015/004276 priority patent/WO2016035283A1/en
Publication of JP2016051436A publication Critical patent/JP2016051436A/ja
Publication of JP2016051436A5 publication Critical patent/JP2016051436A5/ja
Application granted granted Critical
Publication of JP6390277B2 publication Critical patent/JP6390277B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、情報処理装置、制御方法、およびプログラムに関する。
スマートフォンやタブレット端末などの、タッチパネルに対する操作によって様々な情報を表示する装置が、広く普及している。タブレット端末については、画面サイズの大型化も図られるようになり、複数のユーザが同時に操作する使われ方も考慮されるようになりつつある。
また、タッチパネルに対する操作には、タッチペンや指等が用いられる。具体的には、例えばアイコンが表示されている画面にタッチペン等を接触させて移動させたり、タップしたりする。このようなタッチパネルに対する操作方法に関し、例えば下記特許文献1では、タッチペン等によるアイコンの移動方向および移動速度を検出し、タッチペン等がアイコンから離れた際に、そのときのアイコンの移動速度が所定速度以上であれば、移動方向にさらに所定距離だけ移動させることが開示されている。
また、複数のユーザが同時に操作したり閲覧したりすることを考慮した大画面の表示装置として、プロジェクタや壁掛けディスプレイが存在する。さらに近年、テーブルトップや天井、壁等、スクリーン以外に映像を投影して複数のユーザが同時に操作したり閲覧したりすることが可能な表示システムも普及しつつある。このような表示システムでは、表示情報(以下、仮想物体とも称す)に対する操作が撮像装置やタッチパネルにより検出され、操作入力に応じた表示制御が行われ得る。
特開平6−44001号公報
しかしながら、テーブルトップには通常の表示画面とは異なりコップや皿等の実物体が置かれることが想定されるが、実物体が置かれた状況に応じた表示制御については従来技術では考慮されていなかった。
そこで、本開示では、実物体との位置関係に応じて、表示された仮想物体の移動制御を行うことで、より適切かつ効率的に情報表示を行うことが可能な情報処理装置、制御方法、およびプログラムを提案する。
本開示によれば、表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部を備え、前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、情報処理装置を提案する。
本開示によれば、表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御することを含み、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、制御方法を提案する。
本開示によれば、コンピュータを、表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部として機能させ、前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、プログラムを提案する。
以上説明したように本開示によれば、実物体との位置関係に応じて、表示された仮想物体の移動制御を行うことで、より適切かつ効率的に情報表示を行うことが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの他の構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの他の構成例を示す説明図である。 表示対象となるコンテンツ例を示す図である。 スマートフォンからのコンテンツ転送表示例を示す図である。 スマートフォンからのコンテンツ転送表示例を示す図である。 スマートフォンからのコンテンツ転送表示例を示す図である。 転送したコンテンツの操作例を示す図である。 転送したコンテンツの移動操作例を示す図である。 転送したコンテンツの移動制御例を示す図である。 転送したコンテンツの移動制御例を示す図である。 転送したコンテンツの操作例を示す図である。 本開示の一実施形態に係る情報処理装置の構成例を示す説明図である。 本開示の一実施形態にかかる情報処理システムの表示制御処理を示すフローチャートである。 本開示の一実施形態にかかる情報処理システムの第1の開始条件について説明する図である。 本開示の一実施形態にかかる情報処理システムの第2の開始条件について説明する図である。 本実施形態による第1のスライドルートの取得について説明する図である。 本実施形態による第2のスライドルートの取得について説明する図である。 本実施形態による第2のスライドルートの取得における物体を避けるルートの探索に関して説明する図である。 本実施形態による第2のスライドルートの取得における物体を避けるルートの探索に関して説明する図である。 本実施形態による第2のスライドルートの取得における物体を避けるルートの探索に関して説明する図である。 本実施形態による第2のスライドルートの取得における物体を避けるルートの探索に関して説明する図である。 本実施形態による第1のスライド速度の取得について説明する図である。 本実施形態による第2のスライド速度の取得について説明する図である。 本実施形態によるコンテンツの容量に応じたスライド速度制御による効果について説明する図である。 本実施形態による第1の物体近接動作について説明する図である。 本実施形態による第2の物体近接動作について説明する図である。 本実施形態による第3の物体近接動作について説明する図である。 本実施形態による第4の物体近接動作について説明する図である。 本実施形態による第1の終了条件について説明する図である。 本実施形態による第2の終了条件について説明する図である。 本実施形態による第1の終了処理について説明する図である。 本実施形態による第1の他の終了処理について説明する図である。 本実施形態による第2の終了処理について説明する図である。 本実施形態による第2の他の終了処理について説明する図である。 本実施形態による第3の終了処理について説明する図である。 本実施形態による第3の他の終了処理について説明する図である。 スライド中のコンテンツへのイベントを受付けないことについて説明する図である。 スライド中のコンテンツへのイベントを受付けないことについて説明する図である。 本実施形態による情報処理システムのデータ転送の補足について説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.基本構成
3.動作処理
3−1.開始条件
3−2.スライドルートおよびスライド速度
3−3.物体近接動作
3−4.終了条件
3−5.終了処理
4.補足
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
まず、図面を参照しながら本開示の一実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。以下、図1を用いて本開示の一実施形態に係る情報処理システムの構成例について説明する。
図1に示したように、本開示の一実施形態に係る情報処理システムは、出力機能および入力機能を有する情報処理装置100aにより構成される。図1に示す例では、情報処理装置100aは、テーブル140aの天面141a(テーブルトップ)に情報を表示し、天面141aに表示した情報に対してユーザに操作をさせる。図1に示すようにテーブル140aの天面141aに情報を表示する方式を「プロジェクション型」とも称する。
情報処理装置100aは、テーブル140aの上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、情報処理装置100aは、情報が表示される対象となるテーブル140aとは離隔して設けられる。
また、情報処理装置100aは、天面141a(テーブルトップ)の表示情報に対するユーザの操作内容や、テーブル140aに置かれている物体の形状などを入力する入力機能(入力部110a)を有する。情報処理装置100aの入力部110aには、例えば1つのレンズでテーブル140aを撮像するカメラや、2つのレンズでテーブル140aを撮像して奥行き方向の情報を記録することが可能なステレオカメラ、ユーザが発する音声や周囲の環境音を収音するためのマイクロホン(以下、マイクと称す)等が用いられる。
入力部110aとして、1つのレンズでテーブル140aを撮像するカメラが用いられる場合、情報処理装置100aは、そのカメラが撮像した画像を解析することで、テーブル140aに置かれた物体を検出することが出来る。また、入力部110aとしてステレオカメラが用いられる場合、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が用いられ得る。ステレオカメラが用いられる場合、情報処理装置100aは、深度情報を取得することが可能となる。深度情報を取得することで、情報処理装置100aは、例えば天面141aの模様やテーブルクロスの模様と区別して、テーブル140aの上に置かれた手や物体の検出が可能になる。また、深度情報を取得することで、情報処理装置100aは、テーブル140aの天面141aへのユーザの手の接触/近接の検出や、天面141aからの手の離脱の検出が可能となる。なお、以下の説明では、ユーザが情報の表示面(ここでは、天面141a)に手等の操作体を接触または近接させることを、まとめて単に「接触」とも称する。
また、入力部110aとしてマイクが用いられる場合、そのマイクは特定の方向の音声を収音するためのマイクアレイが用いられ得る。情報処理装置100aは、マイクアレイの収音方向を任意の方向に調整してもよい。
以下では、ユーザの操作が、入力部110aによって撮像された画像から検出される場合を主に説明するが、本開示は係る例に限定されるものではない。ユーザの操作は、テーブル140aの天面141aに設けられた、ユーザの指等の接触を検出するタッチパネルによって検出されてもよい。また入力部110aが取得できるユーザ操作としては、この他にも、例えば情報の表示面に対するスタイラス操作、カメラに対するジェスチャ操作等が含まれ得る。
また、情報処理装置100aは、テーブル140aの天面141a(テーブルトップ)に情報を表示したり、音声を出力したりする出力機能(出力部130a)を有する。出力部130aとしては、例えばプロジェクタやスピーカ等が用いられる。
出力部130aがプロジェクタで構成される場合、出力部130は、テーブル140aの天面141aに情報を投影する。出力部130aがスピーカで構成される場合、出力部130aは、音声信号に基づいて音声を出力する。スピーカの数は1つであってもよいし、複数であってもよい。出力部130aが複数のスピーカで構成される場合、情報処理装置100aは、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりすることができる。
また情報処理装置100aが図1に示したようなプロジェクション型である場合、出力部130aに照明機器が含まれていてもよい。照明機器が含まれる場合、情報処理装置100aは、入力部110aによって入力された情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御することができる。
図1に示すような情報処理システムを使用するユーザは、情報処理装置100aの出力機能(出力部130)によりテーブル140aの天面141aに表示される情報に対して、指などを天面141aに置いて操作することが出来る。
なお図1には図示しないが、情報処理装置100aには他の装置が接続されていてもよい。例えば情報処理装置100aには、ユーザが所持するスマートフォン、タブレット端末等のモバイル機器が無線接続により直接接続されていてもよいし、ネットワークを介してサーバ等と接続されていてもよい。
本開示では、情報処理システムの形態は図1に示したものに限定されるものではない。図2〜図3は、本開示の一実施形態にかかる情報処理システムの別の形態の例を示す説明図である。
図2に示したのは、本開示の一実施形態に係る情報処理システムの他の構成例を示す説明図であり、情報処理装置100bがテーブル140bの下から情報を照射することで、テーブル140bの天面141bに情報を表示させている。図2に示す例では、情報処理装置100bが、プロジェクタにより実現される出力部130bを有している。また、図2に示した情報処理システムでは、情報の表示面となるテーブル140bの天面141bがガラス板や透明プラスチック板等の透明な材質で形成される。図2のようにテーブル140bの下から情報を照射して天面141bに情報を表示する方式を「リアプロジェクション型」とも称する。また、図2に示した例では、テーブル140bの天面141bに、タッチパネルにより実現される入力部110bが設けられ、天面141bに表示される情報に対するユーザ操作を検出する。なお入力部110bは、天面141bに設けられる構成に限定されず、例えばカメラにより実現された入力部110bが、テーブル140bの下方にテーブル140bとは離隔して設けられてもよいし、情報処理装置100bに含まれていてもよい。
図3に示したのは、本開示の一実施形態に係る情報処理システムの他の構成例を示す説明図である。図3には、タッチパネル式のディスプレイにより実現される情報処理装置100cがテーブル140cの天面141cに置かれている状態が示されている。このようにタッチパネル式のディスプレイの場合、入力部110c及び出力部130cは、タッチパネル式のディスプレイとして構成され得る。すなわち、図3に示した情報処理システムでは、情報の表示面はタッチパネル式のディスプレイとなる。図3のように、天面141cに置かれるタッチパネル式のディスプレイで情報を表示する方式を「平置きディスプレイ型」とも称する。図3に示した情報処理システムでは、タッチパネル式のディスプレイの上方に、ユーザの位置を検出するためのカメラが設けられてもよい。
なお以下の説明では、図1に示したような、テーブル140aの上方に入力部110a及び出力部130aを備えた情報処理装置100a、すなわち情報の表示面と離隔して入力部110a及び出力部130aが設けられる構成を例にして説明する。また、以下の説明では、情報処理装置100a、入力部110a、出力部130a、テーブル140a、天面141aを、単に情報処理装置100、入力部110、出力部130、テーブル140、天面141としても説明する。
(コンテンツ表示例)
次いで、本実施形態による情報処理装置100が、出力部130によりテーブル140の天面141に表示する情報の一例について説明する。
情報処理装置100は、ユーザ操作に応じて様々な情報をテーブル140の天面141に表示する。表示出力する情報は、情報処理装置100のローカルストレージや、外部機器(スマートフォン、タブレット端末、サーバ等)の外部ストレージから取得される。図4は、表示対象となるコンテンツ例を示す図である。図4に示すように、天面141には、複数の情報が表示され、複数のユーザにより操作され得る。図4に示す例では、ミュージックビデオのアプリケーションウィンドウ20、ランチャー画面22、ミュージックのアプリケーションウィンドウ23が、それぞれ近傍のユーザに向けて表示されている。ランチャー画面22は、アイコン21への接触操作に応じて表示される。ユーザは、ランチャー画面22から操作したいアイコンをタップしたり、ランチャー画面22の外にドラッグしたりすることで、選択したアイコンに対応するアプリケーションが展開され、アプリケーションウィンドウ20、23のように表示される。情報処理装置100により出力される表示情報は図4に示す例に限定されず、例えばウェブブラウザ、タイマーアプリケーション、メモアプリケーション、電卓アプリケーション、カレンダーアプリケーション、メディアファイル(例えば動画ファイル、音楽ファイル、写真ファイル)、画像データなどが表示される。
図4に示す例では、ランチャー画面22から利用したいアイコンを選択してテーブル上に表示展開する旨を説明したが、本開示はこれに限定されず、例えばテーブル上に置いた情報処理装置からコンテンツが転送されてテーブル上に表示展開させてもよい。以下、図5〜図12を参照して本情報処理システムによる基本的なコンテンツ表示制御例を説明する。図5〜図7はスマートフォンからのコンテンツ転送表示例を示す図であって、図8は転送したコンテンツの操作例を示す図であって、図9は転送したコンテンツの移動操作例を示す図であって、図10〜図11は転送したコンテンツの移動制御例を示す図であって、図12は転送したコンテンツの操作例を示す図である。
図5に示すように、ユーザはスマートフォン1を、テーブル140の天面141における所定の領域S1に置く。この場合、領域S1を固定にすることで、天面141の上方に設置された情報処理装置100は、スマートフォン1自体の認識を行わなくてもよい。また、情報処理装置100は、天面141において領域S1を示す表示は行わず、テーブル140の各席に対応して領域S1を固定することで、ユーザは自席の目の前の天面141にスマートフォン1を置けばよい仕様となる。また、情報処理装置100は、天面141において領域S1を示す表示を行い、領域S1内にスマートフォン1等の情報処理装置を置くよう表示や音声でユーザに促してもよい。
次に、図6に示すように、ユーザが領域S2をタップする。この際、情報処理装置100は、天面141において領域S2を示す表示は行わず、ユーザはスマートフォン1の近くをタップするようにしてもよいし、情報処理装置100が天面141において領域S2を示す表示を行い、領域S2内をタップするよう表示や音声でユーザに促してもよい。
情報処理装置100は、領域S2がタップされたことを認識すると、領域S1に置かれたスマートフォン1と接続して、スマートフォン1のローカルストレージからコンテンツを抽出(受信)し、天面141に投影表示する。この際、情報処理装置100は、図7に示すように、スマートフォン1から天面141にコンテンツが飛び出したようにコンテンツの表示制御を行う。また、天面141における投影対象範囲(表示領域)は、一例として領域S3で示す範囲とする。
抽出されるコンテンツは、例えば直近で撮影/閲覧した複数の写真コンテンツや、直近で取得/視聴した複数の音楽コンテンツである。情報処理装置100は、抽出したコンテンツのうち、複数の写真コンテンツを、例えばユーザから見てスマートフォン1の左側に表示し、複数の音楽コンテンツ(ジャケット写真画像)はスマートフォン1の右側に表示するよう制御する。また、情報処理装置100は、図7に示すように、複数のコンテンツを少なくとも画像の一部が見えるよう重ねて表示する。
そして、図8〜図12に示すように、ユーザは、天面141に表示された各コンテンツに対して、天面141に指等を接触させて操作することができる。例えば、図8に示すように、音楽コンテンツ25をタップして選択すると、選択した音楽コンテンツ25が再生される。具体的には、情報処理装置100が指等による音楽コンテンツ25のタップ操作を認識し、選択された音楽コンテンツ25をスピーカ(情報処理装置100に設けられているスピーカでもよいし、テーブル140に設けられているスピーカでもよいし、近くに設置されているスピーカでもよい)から出力するよう制御する。これにより、ユーザは、テーブル140で食事をしながら視聴する音楽を再生させることができる。
また、ユーザは、相手に見せたい写真コンテンツを相手側に移動させることも可能である。例えば、ユーザに対してテーブル140を挟んで対向する位置に相手ユーザがいる場合、ユーザは、図9に示すように、相手ユーザに見せたい写真コンテンツ26に指等を接触させて相手方向にドラッグ操作し、そのまま勢いをつけて写真コンテンツ26を相手方向にスライド移動させるようフリック操作する。
この場合、情報処理装置100は、写真コンテンツ26の移動方向および移動速度を検出し、写真コンテンツ26の移動方向に、移動速度に応じた所定距離だけスライド移動させるよう(所謂慣性移動しているように、ユーザ操作が行われた後、さらなるユーザ操作なしに物体を移動させてよう)表示制御する。この際、情報処理装置100は、基本的にはフリック操作位置から直線上に写真コンテンツ26を移動させるが、図10に示すように、破線の矢印で示す直線上に障害物がある場合、これを避けたスライドルートで移動させる。上述したように、本実施形態では、テーブル140の天面141に情報表示を行うため、天面141には、皿やコップ等の実体物が置かれている場合がある。この場合、情報処理装置100は、図10の実線の矢印で示すように、皿5a、5bを避けたルートで相手側に写真コンテンツ26をスライド移動させるよう表示制御する。
また、情報処理装置100は、ユーザのフリック操作に応じて写真コンテンツ26を移動させる際に、図11に示すように、写真コンテンツ26の方向を相手ユーザにとって見やすい方向に変化させてもよい。
相手ユーザは、図12に示すように、写真コンテンツ26をタップして拡大させ、閲覧することができる。すなわち、情報処理装置100は、写真コンテンツ26の移動が停止した後、写真コンテンツ26に対する相手ユーザの操作を認識し、タップ操作が行われた場合は写真コンテンツ26を拡大表示するよう制御する。
そして、双方のユーザがスマートフォン1を持って席を離れる等、表示終了と認識されると、情報処理装置100は表示面(天面141のコンテンツをフェードアウトしてシーンを切り替える。
<<2.基本構成>>
以上、本開示による情報処理システムの概要について説明した。続いて、本開示による情報システムを構成する情報処理装置100の構成について、図13を参照して説明する。図13は、本開示の一実施形態に係る情報処理装置100の構成例を示す説明図である。
図13に示したように、本開示の一実施形態にかかる情報処理装置100は、入力部110と、制御部120と、出力部130と、を含んで構成される。
入力部110は、情報処理装置100を使用するユーザの情報処理装置100に対する操作内容や、出力部130が情報を出力する面(例えば図1に示したテーブル140aの天面141a)に置かれている物体の形状などを入力する。情報処理装置100を使用するユーザの情報処理装置100に対する操作内容には、情報処理装置100が情報の表示面に出力するGUIに対する操作内容を含む。入力部110が入力した、情報処理装置100に対する操作内容、物体の形状等の情報は制御部120に送られる。
入力部110は、情報処理装置100がプロジェクション型である場合、例えば1つのレンズで構成されるカメラ、2つのレンズで構成されるステレオカメラ、マイク等で構成され得る。
制御部120は、情報処理装置100の各部の制御を実行する。例えば制御部120は、入力部110が入力した情報を用いて、出力部130から出力する情報を生成する。図13に示したように、制御部120は、検出部121と、出力制御部122と、を含んで構成される。検出部121は、情報処理装置100を使用するユーザの、情報処理装置100に対する操作内容や、出力部130が出力している情報の内容、出力部130が情報を出力する面(例えば図1に示したテーブル140aの天面141a)に置かれている物体の形状などを検出する処理を実行する。検出部121が検出した内容は出力制御部122に送られる。出力制御部122は、検出部121が検出した内容に基づいて、出力部130から出力する情報を生成する制御を実行する。より具体的には、出力制御部122は、出力部130により出力された情報(仮想物体)に対するユーザ操作の移動方向および/または移動速度に基づいて取得される仮想物体の移動速度および/または移動経路に従って仮想物体の移動速度および/または移動経路を制御する。出力制御部122が生成した情報は出力部130に送られる。
例えば情報処理装置100が図1に示したプロジェクション型の場合、情報の表示面の座標と、ユーザの手等の操作体の表示面への接触座標とが一致するように予め校正されることで、検出部121は、ユーザの手等の操作体が、GUIのどの部分に接触したかを検出することが可能になる。出力制御部122は、表示面に表示された仮想物体に対するユーザ操作に応じて、表示情報(仮想物体)の表示を制御する。具体的には、出力制御部122は、フリック操作に応じて表示情報を移動させる際に、当該表示情報の移動経路付近に存在する実物体との位置関係に応じて、表示情報の表示制御を行う。具体的な表示制御については、後述の「3.動作処理」において詳細に説明する。
制御部120は、例えばCPU(Central Processing Unit;中央演算処理装置)、ROM(Read Only Memory)、RAM(Random Access Memory)などで構成されていてもよい。制御部120がCPU等の装置で構成される場合は、かかる装置は電子回路で構成され得る。
また図13には図示しないが、制御部120は、他の装置との間で無線通信を行なうための通信機能や、情報処理装置100に接続される他の装置、例えば照明機器の動作を制御する機能を有してもよい。
また、制御部120は、コンテンツ制御情報が記憶された記憶部(いわゆるコンテンツ制御情報データベース)を有する。コンテンツ制御情報とは、入力された操作内容、テーブル140aに置かれた物体等に対してどのようなコンテンツ制御を行うかを示す情報である。制御部120は、記憶部に記憶されたコンテンツ制御情報を参照して、入力部110からの入力情報に応じた表示制御を行う。
出力部130は、入力部110によって入力された、情報処理装置100を使用するユーザの操作内容や、出力部130が出力している情報の内容、また出力部130が情報を出力する面(例えば図1に示したテーブル140aの天面141a)に置かれている物体の形状等の情報に応じて情報を出力する。出力部130は、出力制御部122が生成する情報に基づいて情報を出力する。出力部130が出力する情報には、情報の表示面に表示される情報や、スピーカ(図示せず)等から出力される音声などが含まれる。
図13に示した情報処理装置100は、単独の装置として構成されてもよく、一部または全部が別々の装置で構成されてもよい。例えば、図13に示した情報処理装置100の構成例のうち、制御部120が、入力部110及び出力部130とネットワーク等で接続されたサーバ等の装置に備えられていてもよい。制御部120がサーバ等の装置に備えられる場合は、入力部110からの情報がネットワーク等を通じて当該サーバ等の装置に送信され、制御部120が入力部110からの情報に対して処理を行って、当該サーバ等の装置から、出力部130が出力するための情報がネットワーク等を通じて出力部130に送られる。
以上、図13を用いて本開示の一実施形態にかかる情報処理装置100の構成例について説明した。続いて、本開示の一実施形態にかかる情報処理装置100による情報の表示制御例について説明する。
<<3.動作処理>>
本実施形態による情報処理システムは、図4、図5〜図12に示したように、複数のユーザが、例えばテーブル140aに表示される同一の画面上でそれぞれ独立したアプリケーションを実行することが出来るよう構成されたシステムである。例えば図4に示したアプリケーションのGUI(Graphical User Interface)は、出力制御部122が生成し、出力部130が出力する。
また、情報処理システムは、出力部130が情報の表示面に出力したアプリケーションのGUIに対するユーザの操作内容を入力部110で取得する。情報処理システムは、ユーザにその表示面に対して手等の操作体を接触させたり、接触させたその操作体を表示面上で移動させたりすることによって、出力部130が情報の表示面に出力したアプリケーションのGUIの操作を受け付ける。
本開示は、アプリケーションのGUIの操作のうち、特にGUIの表示位置を移動させる操作に関する。図1〜図3に示すように、例えばテーブル140aに情報表示する場合、テーブル140aの天面141aには、コップや皿等の実物体が置かれる場合がある。この場合、ユーザのフリック操作に応じて、移動方向直線上に移動速度に応じた所定の距離だけGUIを移動させた場合、プロジェクション型では、投影されたGUIがコップや皿等の実物体と重なって見え難くなったり、料理の上にGUIが投影されて料理の見栄えが悪くなったりする。また、GUIが実物体と重なった位置で停止してしまうと、実物体を移動させてGUI操作を行わなければならず、不便であった。また、情報処理装置100がリアプロジェクション型や平置きディスプレイ型の場合、GUIが実物体の下に隠れた位置で停止すると、ユーザがGUIを見失ってしまうことがある。そこで、本実施形態では、表示されたGUI(すなわち仮想物体)の表示位置をユーザ操作に応じて変化させる際に、表示面に置かれた実物体を考慮して表示制御することで、より適切かつ効率的に情報表示を行う。
このような表示制御に関して、以下図14を参照して具体的に説明する。図14は、本開示の一実施形態にかかる情報処理システムの表示制御処理を示すフローチャートである。
図14に示したように、まず、ステップS103において、情報処理装置100の制御部120は、「コンテンツ制御情報;開始条件」の取得を行う。すなわち、制御部120は、入力部110から入力された、コンテンツ(具体的にはアプリケーションのGUI)に対するユーザの操作内容を取得し、記憶部に記憶されたコンテンツ制御情報を参照して、移動表示制御(具体的にはスライド操作)開始条件を満たすか否かを判断する。
<3−1.開始条件>
ここで、図15〜図16を参照して本実施形態による開始条件について説明する。図15は、本実施形態による第1の開始条件を説明する図である。図15左に示すように、表示面である天面141に表示されているコンテンツ30を指等の操作体で接触した状態で動かすドラッグ操作の場合は、本実施形態による移動表示制御は開始されない。一方、図15右に示すように、表示面である天面141に表示されているコンテンツ30を指等の操作体で接触した状態で動かし、勢いをつけて指等を離すフリック操作の場合、制御部120は開始条件を満たすと判断し、本実施形態による移動表示制御を開始する。
図16は、本実施形態による第2の開始条件を説明する図である。図16左に示すように、天面141において、ユーザの手前に位置する所定の領域S10内でコンテンツ30を操作している場合は、本実施形態による移動表示制御は開始されない。一方、図16右に示すように、所定の領域S10の外にコンテンツ30をドラッグ操作して移動させた場合、制御部120は開始条件を満たすと判断し、本実施形態による移動表示制御を開始する。
以上説明したように、コンテンツ30に対してフリック操作が行われた場合、または所定の領域S10の外にコンテンツ30が移動された場合、制御部120は、コンテンツ30に対する移動表示制御の開始条件が満たされたと判断する。なお、上述した開始条件は一例であって、本開示はこれに限定されない。
図14に戻り、ステップS106において、制御部120により開始条件を満たしたと判断された場合(S106/Yes)、続くステップS109において、制御部120は、「コンテンツ制御情報;スライドルート、スライド速度」の取得を行う。すなわち、制御部120は、ユーザによるフリック操作の移動方向やコンテンツサイズ等に応じて、コンテンツ30のスライドルートおよびスライド速度の取得(設定)を行う。
<3−2.スライドルートおよびスライド速度>
ここで、図17〜図25を参照して本実施形態によるスライドルートおよびスライド速度の取得について説明する。図17は、本実施形態による第1のスライドルートの取得について説明する図である。図17に示すように、天面141に障害物(実物体)がない場合、制御部120は、フリック操作でユーザの指がコンテンツ30から離れた地点を開始点Sとし、開始点Sからフリック操作の移動方向直線上の所定距離Dの地点を終点Tとして、開始点Sから終点Tまでの最短ルート(即ち直線)をスライドルートとして取得する。所定距離Dは、フリック操作の移動速度、および天面141との仮想的な摩擦係数に基づいて算出される。天面141に障害物(実物体)がない場合、ユーザは、開始点Sから終点Tに移動するコンテンツ30を見失うことがない。
一方、天面141に障害物(実物体)がある場合のスライドルートの取得について図18を参照して説明する。図18は、本実施形態による第2のスライドルートの取得について説明する図である。図18左に示すように、天面141に皿5a、5bといった障害物(実物体)があり、開始点Sから終点Tまでの最短ルート(即ち直線)が障害物と交差(衝突)する場合、制御部120は、障害物を避けるルートをスライドルートとして取得する。この場合、制御部120は、入力部110から入力される天面141に置かれている物体の状況(物体の大きさ、位置)に応じて物体の位置を予め認識し、物体を避けるルートを取得する。このような物体を避けるルートの探索については、図19〜図25を参照して後述する。
また、制御部120は、図18右に示すように、終点Tまでの最短ルート(即ち直線)で移動させ、コンテンツ30が障害物である皿5aに到達した時点で皿5aに反射して移動方向が変化するルートをスライドルートとして取得してもよい。この場合、制御部120は、予め実物体の位置を認識しなくとも、また、フリック操作によるコンテンツ30の移動制御が開始した後にルート上に実物体が置かれた場合であっても、実物体とコンテンツ30が重なることを回避することができる。
以上説明したように、物体を避けるルートまたは物体に反射するルートを取得することで、ユーザの指から離れて移動するコンテンツ30をユーザが見失ってしまうことを防止することができる。次いで、上述した物体を避けるルートの探索について、以下図19〜図25を参照してさらに具体的に説明する。
図19〜図25は、本実施形態による第2のスライドルートの取得における物体を避けるルートの探索に関して説明する図である。制御部120は、まず、図19に示すように、天面141に置かれている物体を認識し、物体が置かれている物体領域50a、50bを判定する。物体の認識は、入力部110としてカメラやデプスセンサが用いられている場合、入力部110から入力される撮像画像およびデプス情報(深度情報)に基づいて行われ得る。また、制御部120は、ユーザの指がコンテンツ30に接触してフリック操作したことを入力部110から入力される操作内容により認識し、図19左に示すように、コンテンツ30に対するフリック操作時のベクトルから、移動方向と終点Tを推定する。
次に、制御部120は、図19右に示すように、3次元ベジェ曲線のコントロールポイントC1、C2を、開始点Sと終点Tの最短ルート(直線)上に設定し、物体領域50a、50bとの衝突判定を行う。衝突判定には、一般的なアルゴリズムを用いるため特に限定しないが、例えば制御部120は、物体領域50a、50bを構成する四辺と、直線/曲線の外積を計算して交差判定を行う。
図19に示す例では、開始点Sおよび終点Tを結ぶルートが物体領域50aと交差して物体に衝突すると判定されるため、制御部120は、図20左に示すように、コントロールポイントC1、C2を、初期位置からずらして、再度物体との衝突判定を行う。図20左に示すルートでも物体領域50aと衝突するため、制御部120は、図20右に示すように、コントロールポイントC1、C2をさらに他の位置にずらして、再度物体との衝突判定を行う。このように、制御部120は、衝突判定とコントロールポイントC1、C2の調整を繰り返して、物体領域50a、50bと衝突しないルートを探索する。
そして、図21左に示すように、物体領域50a、50bと衝突しないルートを見つけた場合、制御部120は、当該ルートをスライドルートとして取得し、図21右に示すように曲線でコンテンツ30をスライド移動させる。
なお、図22に示すように物体領域50a、50b、50cが配置されている場合、物体領域50a、50b、50cと衝突しないルートが見つからないため、制御部120は、図22左に示すように、終点Tまでの最短ルート(直線)を例外的にスライドルートとして取得してもよい。この場合、制御部120は、図22右に示すように、開始点Sから終点Tに向けて直線でコンテンツ30をスライド移動させる。ここで、情報処理装置100が図1に示すようなプロジェクション型の場合、コンテンツ30が物体領域50aを通過する際にはコンテンツ30が物体上に投影されるため、コンテンツ30が見え難くなったり、物体が皿の場合には料理の見栄えが悪くなったりする。したがって、制御部120は、物体領域50aを通過する際にはコンテンツ30が半透明になるよう透過度を制御してもよい。
以上、スライドルートの取得について説明した。次に、スライド速度の取得について図23、図24を参照して説明する。フリック操作に応じてコンテンツ30をスライド移動させる際の速度は、フリック操作時の移動速度、および天面141との仮想的な摩擦係数により算出される。ここで、摩擦係数を移動対象のコンテンツのサイズ(容量)に比例させることで、コンテンツの容量の大きさをユーザに直感的に把握させることができる。
例えば、図23に示すように、1つの音楽ファイルのコンテンツ30をスライド移動させる際の摩擦係数は、3つの音楽ファイルのコンテンツ32をまとめてスライド移動させる際の摩擦係数よりも小さくするよう設定する。このように、移動するコンテンツ数(即ちファイル数)が少ない場合は摩擦係数(すなわち抵抗)を小さく設定し、ファイル数が多い場合は摩擦係数を大きく設定することで、同じ移動速度で指をコンテンツから離した場合におけるスライド速度およびスライド距離が異なる。具体的には、図23に示すように、ファイル数が少ないため摩擦係数を小さく設定されたコンテンツ30の方が、ファイル数が多いため摩擦係数を大きく設定されたコンテンツ32よりも速い速度で長い距離を移動する。これにより、ユーザは、スライド移動しているコンテンツの容量の大きさを直感的に把握することができる。
このような摩擦係数は、移動するファイル数に限定されず、ファイルの容量に応じて変化させてもよい。例えば、図24に示すように、5分間の動画ファイルのコンテンツ34をスライド移動させる際の摩擦係数は、30分間の動画ファイルのコンテンツ35をスライド移動させる際の摩擦係数よりも小さくするよう設定する。このように、移動するコンテンツのサイズ(即ちファイルサイズ)が小さい場合は摩擦係数を小さく設定し、サイズが大きい場合は摩擦係数を大きく設定することで、同じ移動速度で指をコンテンツから離した場合におけるスライド速度およびスライド距離が異なる。具体的には、図24に示すように、サイズが小さいため摩擦係数を小さく設定されたコンテンツ34の方が、サイズが大きいため摩擦係数を大きく設定されたコンテンツ35よりも速い速度で長い距離を移動する。これにより、ユーザは、スライド移動しているコンテンツの容量の大きさを直感的に把握することができる。
以上説明したように、本実施形態では、スライド移動速度算出時に利用する天面141との仮想的な摩擦係数を、コンテンツの容量(ファイル数、サイズ)に応じて変化させるので、コンテンツの容量をユーザに直感的に把握させることできる。これにより例えば図25に示すような利用形態が可能となる。
図25は、本実施形態によるコンテンツの容量に応じたスライド速度制御による効果について説明する図である。図25上に示すように、ユーザAが、お薦めの曲(音楽ファイルのコンテンツ)をいくつか選択してまとめたコンテンツ32を、ユーザBが居る方向に向けてフリックし、スライド移動させる。この際、情報処理装置100は、ユーザAのフリック操作の移動速度を、コンテンツ32の容量(例えばサイズの合計)に比例して大きくなる摩擦係数から算出して設定し、コンテンツ32の移動制御を行う。これにより、ユーザBは、ユーザAによるフリック操作やコンテンツ32がユーザA側からスライド移動してくる動作を見て、コンテンツ32の容量を直感的に把握することができる。
ユーザBは、把握した容量感に応じて、コンテンツ32に含まれる全ての音楽ファイルを携帯音楽プレイヤー6に転送すると容量不足になると判断した場合、図25中央に示すように、コンテンツ32に含まれる音楽ファイルのコンテンツ32a、32b、32cを分ける。そして、ユーザBは、図25下に示すように、コンテンツ32a〜32cのうち、選択した音楽ファイルだけ(例えばコンテンツ32a)を携帯音楽プレイヤー6に転送することができる。情報処理装置100は、ユーザ操作によりコンテンツ32aが、天面141に置かれた携帯音楽プレイヤー6に近づけられた場合、携帯音楽プレイヤー6と無線接続し、コンテンツ32aを転送するよう制御する。
図14に戻り、ステップS112において、制御部120は、上記S109で取得されたスライドルートおよびスライド速度といったコンテンツ制御情報に基づいて、コンテンツの表示を更新、すなわちスライド移動制御を行う。
次に、ステップS115において、制御部120は、終了条件を満たしたか否かを判断する。本実施形態による終了条件については、後述の「3−4.終了条件」で詳細に説明する。
次いで、終了条件を満たしていないと判断された場合(S115/No)、ステップS121において、制御部120は、スライド移動しているコンテンツが、天面141に置かれた実物体に近接したか否かを判断する。具体的には、制御部120は、入力部110から入力された撮像画像、デプス情報等を参照して、コンテンツが実物体に近接したか否かを判断する。
続いて、コンテンツが物体に近接したと判断された場合(S121/Yes)、ステップS124において、制御部120は、「コンテンツ制御情報;物体近接動作」の取得を行う。本実施形態においてコンテンツをスライド移動させる際、図18に示すように物体を避けたり物体に反射させたりするルートによりコンテンツが物体と重ならないように制御したり、物体を避けるルートが見つからない場合には図22に示すように物体をそのまま通過するよう制御する旨を説明した。この他、本実施形態による制御部120は、物体を避けるルートの有無に関わらず、開始点から終点までの直線上を移動させ、物体をそのまま通過させるルートを取得することも可能である。したがって、上記S112で物体を通過するルートを取得した場合、制御部120は、コンテンツが物体に近接した際に物体の性質に応じて所定の物体近接動作を行うよう表示制御する(ステップS124)。以下、図26〜図29を参照して本実施形態による第1〜第4の物体近接動作について説明する。
<3−3.物体近接動作>
図26は、本実施形態による第1の物体近接動作について説明する図である。図26に示すように、例えば制御部120は、物体の色に応じて、コンテンツ30の透過度を保ったまま皿5cを通過させるよう制御する。具体的には、例えば近接した物体が柄のあるものや暗い色のものである場合、プロジェクション型の情報処理装置100において投影するコンテンツ30を半透明に制御すると物体を通過する際(重なった際)にユーザがコンテンツ30を見失う恐れがある。したがって、近接した物体が柄のあるものや暗い色のものである場合、制御部120は、コンテンツ30の透過度を保ったまま物体を通過するよう表示制御する。
図27は、本実施形態による第2の物体近接動作について説明する図である。図27に示すように、例えば制御部120は、物体の色に応じて、コンテンツ30を半透過状態にして皿5dを通過させるよう制御する。具体的には、例えば近接した物体が白や薄い色のものである場合、プロジェクション型の情報処理装置100において投影するコンテンツ30を半透明に制御して物体を通過させてもユーザがコンテンツ30を見失うことがない。したがって、近接した物体が白や薄い色のものである場合、制御部120は、コンテンツ30を半透過状態に変化させて物体を通過するよう表示制御する。これにより、物体を通過した際にユーザがコンテンツ30を見失うことを防止し、かつ、コンテンツ30が重なることで皿5dの料理の見栄えを悪くすることを回避することができる。
図28は、本実施形態による第3の物体近接動作について説明する図である。図28に示すように、例えば制御部120は、物体の素材に応じて、コンテンツ30を全透過状態(即ち非表示)にして皿5eを通過させるよう制御する。具体的には、例えば近接した物体が鏡のような素材やグラスのような透明な素材の場合に、プロジェクション型の情報処理装置100でコンテンツ30を物体に投影すると、投影光が物体に反射してユーザの目に入る恐れや、投影光が乱反射してコンテンツ30の画像が汚くなることが想定される。したがって、近接した物体が鏡やグラスのような光を反射する素材のものである場合、制御部120は、コンテンツ30を全透過状態(即ち非表示)に変化させて物体を通過するよう表示制御する。これにより、物体を通過した際に投影光が反射することを防止することができる。
図29は、本実施形態による第4の物体近接動作について説明する図である。図29に示すように、例えば制御部120は、物体の状態に応じて、コンテンツ30を全透過状態(即ち非表示)または透過度を保ったまま皿5fを通過させるよう制御する。具体的には、例えば図29左に示すように、皿5fに料理がある場合はコンテンツ30を全透過状態(即ち非表示)に変化させて物体を通過させ、図29右に示すように、皿5fに料理がない場合はコンテンツ30の透過度を保ったまま物体を通過させるよう表示制御する。これにより、プロジェクション型の情報処理装置100において、皿5fに料理がある場合はコンテンツ30を非表示にして通過させることで、ユーザがコンテンツ30を見失うリスクがあっても、映像が料理に重なって見栄えが悪くなる(不味そうに見える)ことを防ぐことができる。なお料理の有無は、撮像画像やデプス情報に基づいて推定される。また、食べ終わって皿5fに料理がなくなった場合は、料理の見栄えを考慮する必要が無くなるので、コンテンツ30の透過度を変化させずにそのまま通過させて、ユーザがコンテンツ30を見失うことを防ぐことができる。
以上、近接した物体の性質(色、材質、状態など)に応じたコンテンツ通過時の表示制御について具体的に説明した。このような物体の性質に応じた表示制御情報(コンテンツ制御情報)は、例えば制御部120の記憶部(不図示)に記憶されている。
また、上述した例では、ステップS109において、物体を避けるルート、物体に反射するルート、または物体を通過するルートをスライドルートとして取得する旨を説明したが、本実施形態はこれに限定されず、例えば近接した物体を避けるか通過するかをその物体の性質に応じて変化させるルートを取得することも可能である。このような近接した物体を避けるか通過するかをその物体の性質に応じて変化させるルートを取得した場合における制御部120の表示制御例について以下説明する。
例えば近接する物体の高さがユーザの目線よりも高い場合、物体を通過するコンテンツは当該物体の上面に投影されるためユーザからは見えず、コンテンツが当該物体と重なった位置で止まった場合にユーザはコンテンツを見失ってしまうため、制御部120は、所定値より高い物体にコンテンツが近接した場合はこれを避けるよう制御する。
また、近接する物体が鏡やグラスのように光を反射する素材の場合、投影光が乱反射して画像が汚くなるため、制御部120は、このような素材の物体にコンテンツが近接した場合はこれを避けるよう制御してもよい。
また、近接する物体に料理が盛られている場合、投影光が重なり料理の見栄えが悪くなるため、制御部120は、このような料理が盛られた物体にコンテンツが近接した場合はこれを避けるよう制御してもよい。
また、長時間置かれている物体は予め位置を把握できるが、一時的に置かれる物体はルート取得時(スライド開始時)には予め位置を把握することができないため、制御部120は、予め位置を把握した物体(長時間置かれている物体)に近接した場合はこれを避け、一時的に置かれた物体はこれを通過するよう制御してもよい。
また、リアプロジェクション型や平置きディスプレイ型の情報処理装置100の場合に、コンテンツのスライド移動が物体の置かれた位置で停止してしまうと、ユーザはコンテンツを見失ったり、コンテンツを操作するために物体を移動したりしなければならなかった。特に近接する物体が長時間置かれている物である場合、当該物体が重くて動かすことが容易ではないことや当該物体の定位置を変更することが望ましくないことが想定されるため、制御部120は、長時間置かれている物体は避けるよう制御し、一時的に置かれた物体は通過するよう制御してもよい。
<3−4.終了条件>
続いて、上記S115で言及した「終了条件」について、図30〜図31を参照して説明する。
図30は、本実施形態による第1の終了条件について説明する図である。図30に示すように、制御部120は、例えばコンテンツ30のスライド移動を、天面141との仮想的な摩擦により失速させて停止させる。
図31は、本実施形態による第2の終了条件について説明する図である。図31に示すように、制御部120は、コンテンツ30に近接する手が特定の形状である場合にコンテンツ30のスライド移動を停止するよう制御する。より具体的には、図31に示すように、例えばコンテンツ30の進行方向に対向するよう手の平を向けて、天面141に対して垂直に立てた状態を特定の形状と認識される。
以上、本実施形態による終了条件について説明したが、本開示による終了条件は一例であって、この他、例えば天面141の端に到達した際に停止するよう制御してもよい。
<3−5.終了処理>
図14に戻り、終了条件を満たしたと判断された場合(S115/Yes)、ステップS118において、制御部120は、所定の終了処理を行うよう制御する。ここで、本実施形態による終了処理について図32〜図37を参照して具体的に説明する。
図32は、本実施形態による第1の終了処理について説明する図である。図32に示すように、コンテンツ30が失速した位置の近くに皿5などの実物体が置かれている場合、制御部120は、コンテンツ30が当該実物体に吸い寄せられるよう表示制御し、さらに実物体の周囲にコンテンツ30を整列させるよう表示制御する。これにより、実物体の周囲にスライド移動された各コンテンツが乱雑に表示されることを防止することができる。また、制御部120は、コンテンツ30が失速して停止した時点で皿5などの実物体に重なっていた場合、停止位置をずらして実物体と重ならないように位置に移動させてもよい。
このように、本実施形態による制御部120は、一例としてコンテンツ30が失速した場所近くに置かれている実物体に応じた終了処理を行う。また、制御部120は、実物体が通信機能を有している場合に、コンテンツの種別と実物体が取り扱うデータの種別が一致する場合に、コンテンツを実物体に転送する終了処理を行うことも可能である。以下、図33を参照して説明する。
図33は、本実施形態による第1の他の終了処理について説明する図である。図33左に示すように、スライド移動しているコンテンツ37が写真ファイルであって、コンテンツ37の停止位置付近に置かれている実物体が、デジタルカメラやスマートフォン等の写真ファイルを取り扱う装置の場合、制御部120は、デジタルカメラ7と無線接続し、コンテンツ37をデジタルカメラ7に転送するよう制御する。一方、図33右に示すように、スライド移動しているコンテンツ30が音楽ファイルであって、コンテンツ30の停止位置付近に置かれている実物体が音楽ファイルを取り扱わないデジタルカメラ7である場合、制御部120は、デジタルカメラ7への転送は行わない。
以上、コンテンツが失速した場所近くに置かれている実物体に応じた終了処理について説明した。本実施形態による制御部120は、さらに、コンテンツが失速した場所近くに表示されているアプリケーションGUIに応じた終了処理を行うことも可能である。以下、図34〜図35を参照して説明する。
図34は、本実施形態による第2の終了処理について説明する図である。図34に示すように、スライド移動しているコンテンツ37が写真ファイルであって、コンテンツ37の停止位置付近に表示されているGUIが写真ファイルを取り扱う写真アプリケーションGUI45の場合、制御部120は、コンテンツ37を写真アプリケーションGUI45に取り込んで写真アプリケーションGUI45内に表示するよう制御する。
図35は、本実施形態による第2の他の終了処理について説明する図である。図35に示すように、スライド移動しているコンテンツ38が写真ファイルであって、コンテンツ38の停止位置付近に表示されているGUIがメール画面46の場合、制御部120は、コンテンツ38をメール画面46に貼付するよう制御する。
このように、同じ種別のコンテンツ(図34、図35に示す例では写真ファイル)であっても、近くに表示されているアプリケーションによって異なる終了処理(例えば図34に示す例ではアプリケーションへの取り込みと表示、図35に示す例ではメールへの添付)が行われる。
また、本実施形態による制御部120は、コンテンツが相手ユーザ側で停止した場合(人の近くで停止した場合)、利用者に最適化されるようコンテンツの表示を変化させる終了処理を行うよう制御することも可能である。以下、図36〜図37を参照して説明する。
図36は、本実施形態による第3の終了処理について説明する図である。図36に示すように、例えばユーザB側にコンテンツ37がスライド移動された場合、制御部120は、ユーザBから見やすい方向にコンテンツ37を回転させるよう表示制御する。また、ユーザB側に複数のコンテンツがスライド移動された場合、制御部120は、ユーザB側の天面141の端に、複数のコンテンツが重ならないよう整列させてもよいし、複数のコンテンツを重ねて表示させてもよい。また、制御部120は、ユーザB側の端で複数のコンテンツを重ねて表示する際、各コンテンツの少なくとも一部は見えるよう、乱数を利用して重なり位置を調整する。
図37は、本実施形態による第3の他の終了処理について説明する図である。図37に示すように、制御部120は、コンテンツが停止した近くに居る人の属性に応じて、コンテンツの表示を最適化させる。具体的には、図37左に示すように、コンテンツ39が停止した近くに居るユーザCが高齢者の場合、制御部120は、例えばコンテンツ39のフォントサイズや画像サイズ等を大きくするよう制御する。また、図37右に示すように、コンテンツ40が停止した近くに居るユーザDが外国人の場合、制御部120は、例えばコンテンツ40の文章を翻訳文に変更したり、ロケールを変更したりするよう制御する。なお、人物の属性は、入力部110により取得される撮像画像等の解析により得られる。なお、コンテンツ内容の表示の最適化に関して、表示面の領域ごとにどのような変更を加えるべきかの情報が紐づけられ、移動先が含まれる領域に紐づけられた変更内容にて変更を加えてもよい。例えば、英語の領域、ドイツ語の領域、文字を大きく表示させる領域などが予め設定され、コンテンツの移動先が含まれる領域ごとに、英語翻訳、ドイツ語翻訳、文字の拡大などの変更が加えられる。
<<4.補足>>
以上、本開示による情報処理システムについて詳細に説明した。次いで、本開示による情報処理システムの補足について説明する。
<4−1.スライド中の誤動作の防止>
本実施形態では、スライド移動中のコンテンツに対する操作は受け付けないようにしてもよい。より具体的には、制御部120は、スライド中のコンテンツの制御は、コンテンツ自体の表示制御(xy移動、透明度、回転など)に留め、コンテンツ(GUI)内へのイベント(コンテンツ内のリンクやボタンをクリックするなど)は受け付けないようにする。これにより、スライド中の意図しないイベントを受け付けて誤動作することを防止することができる。以下、図38、図39を参照して一例を説明する。
図38、図39は、スライド中のコンテンツへのイベントを受付けないことについて説明する図である。ここでは、例えば天面141にゲームアプリケーションのGUI(コンテンツ42)が表示され、ユーザAとユーザBが対戦を行っている場合を想定する。まず、図38左に示すように、ユーザAはゲームボード画面のコンテンツ42に対して一手目を入力すると、図38右に示すように、コンテンツ42を対戦者のユーザBの方向へスライド移動させる。
ここで、制御部120は、コンテンツ42をユーザB側にスライド移動させている途中で、図39左に示すように傍観者であるユーザCが天面141を叩いている場所をコンテンツ42が通過し、誤ってコンテンツ42がタップされたとしても、操作を受付けないようにする。これにより、スライド中のコンテンツ42誤動作(例えば手番が進んでしまうなど)を防止することができる。そして、図39右に示すように、コンテンツ42がユーザB側に到達して停止すると、制御部120は、ユーザBによる二手目の入力を受付ける。
<4−2.スライド方向延長上に存在する装置への転送>
上述した実施形態では、例えば図25に示すように、天面141に置かれた携帯音楽プレイヤー6の近くにコンテンツ32aが移動された場合、制御部120は携帯音楽プレイヤー6にコンテンツ32aを転送するよう制御する。また、図33に示す例では、天面141に置かれたデジタルカメラ7の近くにコンテンツ37が移動された場合に、制御部120がデジタルカメラ7にコンテンツ37を転送するよう制御している。このように、本実施形態による制御部120は、天面141に置かれている通信機能を有する装置と無線接続し、当該装置の近くに移動されたコンテンツを自動転送することが可能である。
このような本実施形態によるコンテンツの転送は、天面141上に置かれた装置への転送に限定されず、例えばテーブル140の周囲に置かれている装置に転送してもよい。以下、図40を参照して一例を説明する。
図40は、本実施形態による情報処理システムのデータ転送の補足について説明する図である。図40では、プロジェクション型の情報処理装置100aが、プロジェクタで構成されている出力部130aによりテーブル140aの天面141aにコンテンツ35を投影して表示している。ユーザによるコンテンツ35への操作は、カメラおよび深度センサで構成された入力部110aにより入力された情報に基づいて認識され、制御部120は、入力部110aから入力される操作内容に応じてコンテンツ35の表示制御を行う。具体的には、制御部120は、ユーザによるコンテンツ35のフリック操作に応じて、コンテンツ35をフリック操作時の移動方向にスライド移動させる。
ここで、図40に示すように、コンテンツ35がスライド移動する先の、ユーザと対向する側には他のユーザは存在せず、また、天面141a上にも実物体が置かれていないが、さらにスライド移動方向の延長線上には、テレビジョン装置8が存在する。
制御部120は、スライド移動しているコンテンツ35が動画ファイルであって、スライド移動の延長線上に動画ファイルを再生するテレビジョン装置8が存在する場合、図40において天面141aの左端の所定の領域S12に到達したコンテンツ35をテレビジョン装置8に転送するよう制御する。転送されたコンテンツ35は、テレビジョン装置8で再生される。
このように、本実施形態では、コンテンツのスライド方向に応じて、テーブル140aから離れた場所にある装置(テレビジョン装置、オーディオ装置等)への転送も可能となる。テーブル140aと周囲の装置との位置関係は、例えばカメラで構成される入力部110aにより取得されるテーブル140aの周囲の撮像画像や、情報処理装置100aと周囲の装置との通信により把握され得る。
<4−3.その他>
本実施形態において、制御部120は、ユーザのフリック操作に応じてコンテンツをスライド移動させる際に、移動開始時から所定時間(例えば3秒ほど)の間、移動するコンテンツの軌跡を表示してもよい。当該軌跡は、例えばコンテンツから延長された紐形状で表示される。そして、制御部120は、ユーザが当該軌跡を示す紐を押さえて手前に戻す操作を行った場合には、スライド移動させたコンテンツが紐に引っ張られて戻るよう表示制御することも可能である。
若しくは、上記軌跡を表示しない場合でも、コンテンツをスライド移動させた際に、移動開始から所定時間の間にコンテンツのフリック操作を行ったユーザの手がコンテンツを止める特定の動きまたは形状になった場合は、スライド移動させたコンテンツを戻すよう表示制御することも可能である。
このように、誤ってフリック操作してしまった場合でも、例外的にコンテンツの移動を停止させて戻すことが可能となる。
また、ユーザがコンテンツをフリックして表示面をスライド移動させる際に、コンテンツを到達させたい相手ユーザの名前を発した場合、制御部120は、音声解析により相手ユーザを認識し、認識した相手ユーザが居る方向とコンテンツのスライド方向が異なっている場合はこれを修正し、コンテンツが相手ユーザに届くよう表示制御することも可能である。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、実物体との位置関係に応じて、表示された仮想物体の移動制御を行うことで、より適切かつ効率的に情報表示を行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置100に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本開示による情報処理システムについて、図1〜図3を参照し、プロジェクション型、リアプロジェクション型、および平置きディスプレイ型を示したが、本実施形態はこれに限定されない。例えば、情報処理装置100がHMD(Head Mounted Display)で構成されていてもよい。この場合、情報処理装置100は、HMDの表示部(出力部130)を介したユーザの視界において、例えば天面141に情報が表示されているように表示制御する。そして、情報処理装置100は、天面141上の情報に対するユーザ操作(天面141に指等を接触させて動かすドラッグ操作やフリック操作等)を、HMDに設けられたカメラや深度センサ等の入力部110により取得する。また、情報処理装置100のうち、出力部130がHMDにより構成されていてもよい。
また、上記実施形態では、コンテンツ制御情報が、制御部120の記憶部(ローカルメモリ)に格納されている旨を説明したが、本実施形態はこれに限定されず、制御部120の通信機能により接続されるネットワーク上のサーバ(外部メモリ)に格納されていてもよい。
また、上述した実施形態では、実物体の性質情報(大きさ、皿、状態等)に応じて仮想物体の移動制御の仕方(通過、避ける等)を変えたが、本実施形態はこれに限定されない。例えば、実物体の性質情報および仮想物体の性質情報に応じて仮想物体の移動制御の仕方を変えてもよいし、仮想物体の性質情報のみに応じて仮想物体の移動制御の仕方を変えてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部を備え、
前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、情報処理装置。
(2)
前記制御部は、前記ユーザ操作が行われた後、さらなるユーザ操作なしに物体を移動させて表示させる、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記仮想物体に対する所定のユーザ操作の移動方向および移動速度に基づく前記仮想物体の移動速度および移動経路を取得する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記仮想物体が前記実物体を避けて移動するように表示制御を行う、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記仮想物体が前記実物体を通過して移動するように表示制御を行う、前記(3)に記載の情報処理装置。
(6)
前記制御部は、近接する前記実物体に関連付けられる情報に基づいて前記仮想物体の移動の仕方が変わるように表示制御を行う、前記(3)に記載の情報処理装置。
(7)
前記制御部は、前記仮想物体に関連付けられる情報に基づいて、前記仮想物体の移動の仕方が変わるように表示制御を行う、前記(3)に記載の情報処理装置。
(8)
前記制御部は、近接する前記実物体の性質を表す情報に基づいて、前記仮想物体が前記実物体を避けて移動する、または前記仮想物体が前記実物体を通過して移動するように表示制御を行う、前記(6)に記載の情報処理装置。
(9)
前記制御部は、前記実物体を通過する際、前記実物体の性質に応じて前記仮想物体の透過度を制御する、前記(8)に記載の情報処理装置。
(10)
前記移動速度は、前記所定のユーザ操作時の移動速度と、表示面との仮想的な摩擦係数に基づいて算出される、前記(3)に記載の情報処理装置。
(11)
前記仮想的な摩擦係数は、前記仮想物体のデータ量に比例して設定される、前記(10)に記載の情報処理装置。
(12)
前記仮想物体は、アプリケーションGUI、メディアファイル、または画像データである、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記制御部は、前記仮想物体の移動制御中は、前記仮想物体への操作入力を受付けない、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、前記仮想物体の移動制御中に、前記仮想物体に近接するユーザの手が特定の形状である場合は、前記仮想物体が前記ユーザの手に衝突して止まるよう制御する、前記(13)に記載の情報処理装置。
(15)
前記制御部は、前記仮想物体の移動が停止した際に、近くに表示されている他の仮想物体の機能、または近くに存在する実物体の性質に応じた終了処理を前記仮想物体に対して行う、前記(1)〜(14)のいずれか1項に記載の情報処理。
(16)
前記制御部は、出力部により前記仮想物体を表示面に表示するよう制御する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記出力部は、表示装置、プロジェクタ、またはHMDである、前記(16)に記載の情報処理装置。
(18)
前記仮想物体に対するユーザ操作は、入力部から入力された情報に基づいて取得される、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御することを含み、
前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、制御方法。
(20)
コンピュータを、
表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部として機能させ、
前記制御部は、前記仮想物体を移動させる際に、前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて前記仮想物体の表示制御を行う、プログラム。
100、100a〜100c 情報処理システム
110、110a〜110c 入力部
120 制御部
121 検出部
122 出力制御部
130、130a〜130c 出力部

Claims (17)

  1. 表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部を備え、
    前記制御部は、
    前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御し、
    前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、情報処理装置。
  2. 前記制御部は、
    前記実物体の性質に応じて、前記実物体を回避して移動するか通過して移動するかを判断する、請求項1に記載の情報処理装置。
  3. 前記制御部は、
    前記仮想物体が前記実物体を通過して移動する際、前記実物体の性質に応じて、前記仮想物体を一時的に透過させるか否かを判断する、請求項1または2に記載の情報処理装置。
  4. 前記実物体の性質は、前記実物体の色、柄、材質、または状態である、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記制御部は、前記ユーザ操作が行われた後、さらなるユーザ操作なしに物体を移動させて表示させる、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記制御部は、前記仮想物体に対する所定のユーザ操作の移動方向および移動速度に基づいて、前記仮想物体の移動速度および移動経路を取得する、請求項2に記載の情報処理装置。
  7. 前記移動速度は、前記所定のユーザ操作時の移動速度と、表示面との仮想的な摩擦係数に基づいて算出され、
    前記仮想的な摩擦係数は、前記仮想物体のデータ量に比例して設定される、請求項6に記載の情報処理装置。
  8. 前記制御部は、前記仮想物体の性質に基づいて、前記仮想物体の移動の仕方が変わるように表示制御を行う、請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記仮想物体は、アプリケーションGUI、メディアファイル、または画像データである、請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記制御部は、前記仮想物体の移動制御中は、前記仮想物体への操作入力を受付けない、請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記制御部は、前記仮想物体の移動制御中に、前記仮想物体に近接するユーザの手が特定の形状である場合は、前記仮想物体が前記ユーザの手に衝突して止まるよう制御する、請求項10に記載の情報処理装置。
  12. 前記制御部は、前記仮想物体の移動が停止した際に、近くに表示されている他の仮想物体の機能、または近くに存在する実物体の性質に応じた終了処理を前記仮想物体に対して行う、請求項1〜11のいずれか1項に記載の情報処理装置。
  13. 前記制御部は、出力部により前記仮想物体を表示面に表示するよう制御する、請求項1〜12のいずれか1項に記載の情報処理装置。
  14. 前記出力部は、表示装置、プロジェクタ、またはHMDである、請求項13に記載の情報処理装置。
  15. 前記仮想物体に対するユーザ操作は、入力部から入力された情報に基づいて取得される、請求項1〜14のいずれか1項に記載の情報処理装置。
  16. 表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御することと、
    前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御することと、
    を含み、
    前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、制御方法。
  17. コンピュータを、
    表示された仮想物体に対するユーザ操作に応じて前記仮想物体の表示を制御する制御部として機能させ、
    前記制御部は、
    前記仮想物体の移動経路付近に存在する実物体との位置関係に応じて、前記仮想物体の移動を制御し、
    前記仮想物体を移動させる際、前記実物体の性質に基づいて、前記仮想物体の透過度を制御する、プログラム。
JP2014177929A 2014-09-02 2014-09-02 情報処理装置、制御方法、およびプログラム Expired - Fee Related JP6390277B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014177929A JP6390277B2 (ja) 2014-09-02 2014-09-02 情報処理装置、制御方法、およびプログラム
EP15763655.6A EP3189396B1 (en) 2014-09-02 2015-08-25 Information processing apparatus, control method, and program
US15/327,070 US10585531B2 (en) 2014-09-02 2015-08-25 Information processing apparatus, control method, and program
CN201580045474.0A CN106716301B (zh) 2014-09-02 2015-08-25 信息处理装置、控制方法和程序
PCT/JP2015/004276 WO2016035283A1 (en) 2014-09-02 2015-08-25 Information processing apparatus, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014177929A JP6390277B2 (ja) 2014-09-02 2014-09-02 情報処理装置、制御方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2016051436A JP2016051436A (ja) 2016-04-11
JP2016051436A5 JP2016051436A5 (ja) 2017-03-09
JP6390277B2 true JP6390277B2 (ja) 2018-09-19

Family

ID=54140611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014177929A Expired - Fee Related JP6390277B2 (ja) 2014-09-02 2014-09-02 情報処理装置、制御方法、およびプログラム

Country Status (5)

Country Link
US (1) US10585531B2 (ja)
EP (1) EP3189396B1 (ja)
JP (1) JP6390277B2 (ja)
CN (1) CN106716301B (ja)
WO (1) WO2016035283A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
CN105554553B (zh) * 2015-12-15 2019-02-15 腾讯科技(深圳)有限公司 通过悬浮窗口播放视频的方法及装置
JP6697967B2 (ja) * 2016-06-30 2020-05-27 シャープ株式会社 画像表示装置、画像表示方法及びプログラム
JP6760008B2 (ja) * 2016-11-21 2020-09-23 富士通株式会社 コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法
DE112017005980T5 (de) 2016-11-25 2019-08-08 Sony Corporation Anzeigesteuervorrichtung, anzeigesteuerverfahren und computerprogramm
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
US10764474B2 (en) * 2017-03-02 2020-09-01 Amazon Technologies, Inc. Assembly for electronic devices
JP6921192B2 (ja) 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
CN110662587B (zh) 2017-05-22 2024-01-23 任天堂株式会社 游戏程序、信息处理装置、信息处理***以及游戏处理方法
JP6921193B2 (ja) * 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2019069575A1 (ja) 2017-10-05 2019-04-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6930601B2 (ja) * 2017-12-01 2021-09-01 日本電気株式会社 情報処理装置、表示位置調整方法、およびプログラム
US11112961B2 (en) 2017-12-19 2021-09-07 Sony Corporation Information processing system, information processing method, and program for object transfer between devices
JP7322713B2 (ja) * 2017-12-27 2023-08-08 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN108509086B (zh) * 2018-02-11 2021-06-08 合肥市科技馆 一种基于多媒体互动的自助餐互动***
WO2019217043A1 (en) * 2018-05-08 2019-11-14 Google Llc Drag gesture animation
US11036284B2 (en) 2018-09-14 2021-06-15 Apple Inc. Tracking and drift correction
CN109350961A (zh) * 2018-10-26 2019-02-19 努比亚技术有限公司 一种内容处理方法、终端及计算机可读存储介质
JP7280032B2 (ja) * 2018-11-27 2023-05-23 ローム株式会社 入力デバイス、自動車
WO2020166351A1 (ja) 2019-02-13 2020-08-20 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US11016643B2 (en) * 2019-04-15 2021-05-25 Apple Inc. Movement of user interface object with user-specified content
JP2020113345A (ja) * 2020-04-27 2020-07-27 シャープ株式会社 画像表示装置、画像表示方法及びプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (ja) * 1992-07-27 1994-02-18 Toshiba Corp 表示制御装置及び表示制御方法
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
US6870616B2 (en) * 1998-06-30 2005-03-22 Jjl Technologies Llc Spectrometer apparatus for determining an optical characteristic of an object or material having one or more sensors for determining a physical position or non-color property
US6196917B1 (en) * 1998-11-20 2001-03-06 Philips Electronics North America Corp. Goal directed user interface
US8456447B2 (en) * 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20090135162A1 (en) * 2005-03-10 2009-05-28 Koninklijke Philips Electronics, N.V. System and Method For Detecting the Location, Size and Shape of Multiple Objects That Interact With a Touch Screen Display
US20080026838A1 (en) * 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8402382B2 (en) * 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
US8203561B2 (en) * 2008-09-10 2012-06-19 International Business Machines Corporation Determining valued excursion corridors in virtual worlds
US8330733B2 (en) * 2009-01-21 2012-12-11 Microsoft Corporation Bi-modal multiscreen interactivity
US8469806B2 (en) * 2009-07-22 2013-06-25 Immersion Corporation System and method for providing complex haptic stimulation during input of control gestures, and relating to control of virtual equipment
JP5528739B2 (ja) * 2009-08-12 2014-06-25 株式会社ジャパンディスプレイ 検出装置、表示装置、および物体の近接距離測定方法
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
US20110291964A1 (en) * 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US8972903B2 (en) * 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US20120249595A1 (en) * 2011-03-31 2012-10-04 Feinstein David Y Area selection for hand held devices with display
US8845431B2 (en) * 2011-05-31 2014-09-30 Microsoft Corporation Shape trace gesturing
CN103890765A (zh) * 2011-09-07 2014-06-25 皇家飞利浦有限公司 用于医疗设备的非接触式远程控制***和方法
CN104205034A (zh) * 2012-03-29 2014-12-10 英特尔公司 使用手势创建三维图形
US9741145B2 (en) * 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
US9767446B2 (en) * 2012-07-19 2017-09-19 Mastercard International Incorporated Touch screen system and methods for multiple contactless payments
US9310611B2 (en) * 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US10549180B2 (en) * 2013-09-30 2020-02-04 Zynga Inc. Swipe-direction gesture control for video games using glass input devices
US20150100911A1 (en) * 2013-10-08 2015-04-09 Dao Yin Gesture responsive keyboard and interface

Also Published As

Publication number Publication date
WO2016035283A1 (en) 2016-03-10
EP3189396A1 (en) 2017-07-12
JP2016051436A (ja) 2016-04-11
EP3189396B1 (en) 2021-03-31
US20170168651A1 (en) 2017-06-15
CN106716301B (zh) 2020-02-07
CN106716301A (zh) 2017-05-24
US10585531B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
JP6390277B2 (ja) 情報処理装置、制御方法、およびプログラム
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11262840B2 (en) Gaze detection in a 3D mapping environment
JP6464138B2 (ja) ジェスチャによるタッチ入力の向上
US11941764B2 (en) Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
CN102681664B (zh) 电子装置、信息处理方法、程序和电子装置***
US20160041623A1 (en) Sessionless pointing user interface
US20150205358A1 (en) Electronic Device with Touchless User Interface
US20110175920A1 (en) Method for handling and transferring data in an interactive input system, and interactive input system executing the method
US11714540B2 (en) Remote touch detection enabled by peripheral device
TW201525835A (zh) 顯示控制裝置、顯示控制方法及程式
JP2016511488A (ja) センサフュージョンを介した対話式入力の拡張
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
US20110258566A1 (en) Assigning z-order to user interface elements
US20200301553A1 (en) Establishing and using virtual assets on tangible objects in augmented reality (ar) and virtual reality (vr)
US20240153219A1 (en) Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments
US20200293155A1 (en) Device and method for providing reactive user interface
TWI524262B (zh) 電子裝置的控制方法
WO2020097818A1 (zh) 防打扰方法、电子装置及计算机可读存储介质
US11768535B1 (en) Presenting computer-generated content based on extremity tracking
Huot Touch Interfaces
KR20180103366A (ko) 반응형 유저 인터페이스 제공 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R151 Written notification of patent or utility model registration

Ref document number: 6390277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees