JP6924285B2 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP6924285B2
JP6924285B2 JP2019568426A JP2019568426A JP6924285B2 JP 6924285 B2 JP6924285 B2 JP 6924285B2 JP 2019568426 A JP2019568426 A JP 2019568426A JP 2019568426 A JP2019568426 A JP 2019568426A JP 6924285 B2 JP6924285 B2 JP 6924285B2
Authority
JP
Japan
Prior art keywords
user
hand
finger
contact
contacted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019568426A
Other languages
English (en)
Other versions
JPWO2019150430A1 (ja
Inventor
良徳 大橋
良徳 大橋
和之 有松
和之 有松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019150430A1 publication Critical patent/JPWO2019150430A1/ja
Application granted granted Critical
Publication of JP6924285B2 publication Critical patent/JP6924285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、ユーザーの身体の部位による操作入力を受け付ける情報処理装置、情報処理方法、及びプログラムに関する。
タッチパネルなどの入力デバイスによれば、ユーザーは自分の指を動かして画面上のオブジェクト(操作対象物)を直接触るタップ操作を行うことで、当該オブジェクトに予め関連づけられた処理を実行させることができる。一方、バーチャルリアリティなどの分野においては、ユーザーの手の指などの身体の部位の位置を検出し、その検出結果に応じて各種の処理を実行する技術が検討されている。このような技術では、オブジェクトが配置された仮想空間内の様子をユーザーに提示し、ユーザーがそのオブジェクトに対応する位置に自身の手などを動かした場合に、そのオブジェクトに関連づけられた処理が実行される。すなわち、ユーザーは、タッチパネルの例と同様に、自分の身体を動かして仮想的なオブジェクトに接触させる動作を行うことで、そのオブジェクトに関連づけられた処理を実行させることができる。
上記従来例の技術では、一つのオブジェクトに対して複数種類の処理が関連づけられる場合、ユーザーは単純にオブジェクトに触れるだけでは複数種類の処理のうちのどの処理を実行させたいか、情報処理装置に指示することができない。そのためユーザーは、オブジェクトに触れる動作の前後で、処理の種類を指定する別の操作入力を行う必要がある。しかしながら、このような操作入力が必要になると、操作が煩雑になってしまう。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、操作対象物に対して複数の処理を実行させる指示を簡単な操作入力で実現することのできる情報処理装置、情報処理方法、及びプログラムを提供することにある。
本発明に係る情報処理装置は、ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定する特定部と、前記特定された部位に応じて、予め定められた処理を実行する処理実行部と、を含むことを特徴とする。
本発明に係る情報処理方法は、ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定するステップと、前記特定された部位に応じて、予め定められた処理を実行するステップと、を含むことを特徴とする。
本発明に係るプログラムは、ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定するステップと、前記特定された部位に応じて、予め定められた処理を実行するステップと、をコンピュータに実行させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る情報処理装置を含む情報処理システムの全体構成を表すブロック図である。 本発明の実施の形態に係る情報処理装置の機能を表す機能ブロック図である。 本発明の実施の形態に係る情報処理装置が実行する処理の第1の例について説明する図である。 本発明の実施の形態に係る情報処理装置が実行する処理の第2の例について説明する図である。 画面上のオブジェクトに対して実行する処理の一例について説明する図である。
以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、本発明の一実施形態に係る情報処理システム1の全体構成を示す図である。同図に示されるように、情報処理システム1は、情報処理装置10と、表示装置14と、物体センサー15と、を含んで構成されている。情報処理装置10は、例えば家庭用ゲーム機やパーソナルコンピュータ等であって、図1に示すように、制御部11と、記憶部12と、通信部13とを含んで構成されている。
制御部11は、CPU等のプロセッサーを少なくとも一つ含み、記憶部12に格納されたプログラムに従って各種の情報処理を実行する。この制御部11の具体的な処理の内容については、後に詳しく述べる。
記憶部12は、少なくとも一つのメモリ素子を含み、制御部11によって実行されるプログラム、及びこのプログラムによる処理の対象となるデータを保持する。このプログラムは、コンピュータ可読かつ、非一時的な記憶媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。
通信部13は、USB(Universal Serial Bus)等のシリアルインタフェースあるいは、Bluetooth(登録商標)等の無線通信インタフェースを含んで構成される。情報処理装置10は、通信部13を介して表示装置14、及び物体センサー15のそれぞれと有線又は無線で接続されている。具体的に通信部13は、表示装置14が表示すべき映像のデータを表示装置14に対して送信する。また、通信部13は、物体センサー15による検出結果を物体センサー15から受信する。
表示装置14は、情報処理装置10から送信される映像信号に基づく映像を表示する。ここでは表示装置14は、ヘッドマウントディスプレイ等のユーザーが頭部に装着して使用するタイプのデバイスであることとする。
物体センサー15は、ユーザーの身体の部位の位置を検出するために用いられる。ここでは物体センサー15は、ユーザーの手の位置を検出することとする。具体的に、例えば物体センサー15は、ユーザーの手が存在すると想定される位置に向けられたステレオカメラであってよい。この場合、物体センサー15は左右に並んだ二つのカメラによって構成され、二つのカメラの視差を利用して視野範囲内に写っている被写体までの距離の情報を含んだ距離画像(デプスマップ)を生成する。このような距離画像を参照することで、情報処理装置10は物体センサー15の観測位置を基準点としたユーザーの手の位置や手の形状を把握することができる。また、同様に、ユーザーの手の周囲に存在するテーブルや壁など、各種の物体の位置や形状を検出することもできる。
以下、情報処理装置10の制御部11が実現する機能について説明する。本実施の形態において制御部11は、機能的に図2に示すように、仮想空間制御部31と、位置特定部32と、接触部位特定部33と、対応処理実行部34と、を含んで構成されている。これらの機能は、制御部11が記憶部12に記憶されたプログラムに従って動作することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
仮想空間制御部31は、仮想空間を構築し、その内部の様子を示す映像を描画する。描画された映像は表示装置14によって表示され、ユーザーに提示される。具体的に仮想空間制御部31は、ユーザーによる操作の対象となる仮想オブジェクト(操作対象物)を仮想空間内に配置して、仮想空間を構築する。そして、ユーザーの目の位置に対応する視点位置からこの仮想空間を見た様子を示す画像を描画し、表示装置14に対して出力する。
位置特定部32は、物体センサー15による検出結果を用いて、物体センサー15の検出範囲内に存在する物体の位置、及び形状を特定する。特に位置特定部32は、ユーザーの手、及びその周囲に存在する物体の位置、及び形状を特定する。物体センサー15の検出結果を用いたユーザーの手の特定は、公知の技術によって実現できる。また、位置特定部32は、特定された手の形状、向きなどに基づいて、特定されたユーザーの手が左右どちらの手かを認識する。さらに、手に含まれる指の部分を特定するとともに、それぞれの指が親指、人差し指、中指、薬指、小指のいずれであるかを認識する。
さらに仮想空間制御部31は、位置特定部32によって特定されるユーザーの手に対応するオブジェクト(以下、手オブジェクトという)を仮想空間に配置することとする。手オブジェクトの形状は実際のユーザーの手を模した形状であって、その配置位置は、位置特定部32によって特定された現実空間の手の位置に応じて決定される。このような手オブジェクトを配置することによって、ユーザーは、あたかも自分の手が仮想空間内に存在しているかのように、手オブジェクトを仮想空間内で動かすことができる。
接触部位特定部33は、位置特定部32による特定結果に基づいて、ユーザーの身体のいずれかの部位が操作対象物に接触した場合に、その接触部位を特定する。特に本実施形態では、ユーザーが手で操作対象物に接触することを想定しているので、接触部位特定部33は、ユーザーが左右どちらの手で操作対象物に接触したか、及び5本の指のうちのどの指で接触したかのいずれか少なくとも一方を特定する。ここでは操作対象物は仮想空間内に配置されているので、接触部位特定部33は、位置特定部32が特定するユーザーの手の位置に対応する仮想空間内の位置と、操作対象物の位置と、が重なった場合に、重なった位置の手の部位が操作対象物に接触したと判定し、その部位を特定する。すなわち、ユーザーの手に対応する手オブジェクトが仮想空間内で操作対象物に接触した場合に、ユーザーの手が操作対象物に接触したとみなされることになる。
対応処理実行部34は、接触部位特定部33によって特定される部位に応じて、操作対象物に対して予め定められた処理を実行する。例えば対応処理実行部34は、ユーザーが左右どちらの手で操作対象物に接触したかに応じて、手ごとに予め定められた処理を実行する。このような制御によれば、ユーザーが左手で操作対象物に接触した場合と右手で操作対象物に接触した場合とで、処理の内容を変化させることができる。
また、対応処理実行部34は、ユーザーがどの指で操作対象物に接触したかに応じて、指の種類ごとに予め定められた処理を実行してもよい。このような制御によれば、ユーザーは5本の指を使い分けて5種類の操作を操作対象物に対して指示することができる。さらに対応処理実行部34は、ユーザーが左右どちらの手で操作対象物に接触したか、及びどの指で接触したかの双方の情報を用いて、操作対象物に対して実行する処理の内容を変化させてもよい。この場合対応処理実行部34は、ユーザーが左右10本の指のうちのどの指で操作対象物に接触したかに応じて、最大で10種類の互いに異なる処理を実行することができる。また、対応処理実行部34は、ユーザーが指のどの部分で操作対象物に接触したか(指の先端か、曲げた関節部分かなど)に応じて、処理の内容を変化させてもよい。また、手の甲や手のひらなど指以外の部位で操作対象物に接触した場合にも、その部位に対応した処理を実行してもよい。
また、ユーザーは複数の部位で同時に操作対象物に接触する場合もある。このような場合にも、対応処理実行部34は、ユーザーのどの部位で操作対象物に接触したかに応じて、処理の内容を変化させることができる。特に対応処理実行部34は、ユーザーが複数の指で操作対象物に接触した場合に、片手の指だけで接触したのか、または両手の指で接触したのか、に応じて、互いに異なる処理を実行してもよい。このように複数の指のそれぞれを特定し、それぞれがどちらの手の指かに応じて処理の内容を異ならせることによって、多様な操作入力が可能になる。
以下、接触部位特定部33が特定したユーザーの部位に応じて対応処理実行部34が実行する処理のいくつかの具体例について、説明する。
まず第1の例として、仮想空間内に配置された操作対象物がキャンパスであって、ユーザーは筆の代わりに自身の手の指を利用してキャンパスに絵を描く例について説明する。図3は、この例において2種類の操作対象物(キャンパスC、及びパレットP)及び手オブジェクトHが配置された仮想空間の様子を示している。この例では、手オブジェクトHの5本の指それぞれに対して色が対応づけられており、ユーザーがいずれかの指でキャンパスCをなぞるジェスチャーを行うと、対応処理実行部34は、キャンパスCに接触した指に対応づけられた色で、指の軌跡に沿ってキャンパス上に線を描画する。この例では、ユーザーは自分の指を使い分けることによって、色の切り替え操作等を別途行うことなく、各種の色でキャンパス上に絵を描くことができる。
ここで、ユーザーの各指にどの色が対応づけられるかは、予め定められていてもよいが、キャンパスCとは別の操作対象物(ここではパレットP)にユーザーが指を接触することによって決定されてもよい。具体的に、ここでは複数(6個以上であってもよい)の色がパレットP内に表示されていることとし、ユーザーがいずれかの指でパレットP内の任意の色に接触すると、その色が接触した指に対応づけられる。このような状態になると、以後、ユーザーがその指でキャンパスCに接触すると、その指に対応づけられた色での描画が行われる。また、既に色が対応づけられた指をパレットP内の別の色に接触させた場合、新たに接触した色がその指に対応づけられる。この場合のパレットPは、複数の機能候補(ここでは色の描画)をユーザーに提示する選択オブジェクトとして機能する。選択オブジェクト内のいずれかの機能候補に、ユーザーのいずれかの指が接触した場合、その時点で当該機能候補が接触した指に対応づけられる。このような制御によれば、ユーザーは、直感的に自身の指に任意の機能を割り当てて、操作対象物に対する多様な種類の操作を行うことができるようになる。
なお、この例において、手オブジェクトHの5本の指それぞれに対して、各指に対応づけられた機能を表す表示を行ってもよい。具体的に、例えば対応処理実行部34は、ユーザーがいずれかの指でパレットPのいずれかの色に接触した場合、当該指に対応する手オブジェクトHの先端部分を、接触した色で表示する。こうすれば、ユーザーは自分の手に対応する手オブジェクトHを見ることで、各指に対応づけられた機能を容易に把握することができる。
さらにこの例において、対応処理実行部34は、接触した指がどちらの手の指かに応じて、キャンパス上への描画、及び消去の処理を実現してもよい。例えばユーザーが右手の指でキャンパスに接触した場合、前述したように接触した指に対応づけられた色でキャンパス上への描画を行う。一方、ユーザーが左手のいずれかの指でキャンパスに接触した場合、接触した位置に既に描画済みの内容を消去することとする。こうすれば、ユーザーは両手を使って容易に絵を描いたり描いた絵を消したりすることができる。なお、ここでは左手の指に消去処理を割り当てることとしたが、消去処理は描画処理が割り当てる手と同じ手のいずれかの指に割り当てられてもよい。
第2の例として、3次元オブジェクトOの変形操作を行う例について、説明する。図4は、この例における3次元オブジェクトO、及び手オブジェクトHが配置された仮想空間の様子を示している。この例においては、ユーザーが左手の指で3次元オブジェクトOの表面に接触した場合、接触した位置を中心に3次元オブジェクトOの表面を盛り上げる。逆にユーザーが右手の指で3次元オブジェクトOの表面に接触した場合には、接触した位置を中心に3次元オブジェクトOの表面をへこませることとする。このような処理を対応処理実行部34が実行することで、ユーザーは、自身の手で任意に3次元オブジェクトOの形状を変形することができる。
また、ここでは左右の手のそれぞれに3次元オブジェクトOの変形のさせ方に関する異なる種類の処理を割り当てることとしたが、これに限らず、指ごとに異なる種類の処理を割り当ててもよい。例えば対応処理実行部34は、ユーザーがどの指で3次元オブジェクトOの表面に接触したかに応じて、接触した箇所を盛り上げる、削る、スムージングする、又は接触した箇所に存在する頂点の位置を指の動きに沿って移動するなど、各種の処理を実行してもよい。
このほかにも、対応処理実行部34は、操作対象物に接触したユーザーの身体の部位に応じて、各種の処理を実行してよい。例えばゲームなどでは、キャラクターや障害物などの仮想オブジェクトに対してユーザーが指を接触させた場合に、接触した指がどの指かに応じて、仮想オブジェクトを燃やしたり、凍らせたり、接触位置に何かを出現させたり、回復させたりなど、各種の処理を実行してよい。また、右手で接触した場合には仮想オブジェクトをユーザーの手に吸い寄せ、左手で接触した場合には反発させたりしてもよい。
以上の説明では、対応処理実行部34は、仮想空間内に配置された仮想オブジェクトに対してユーザーの手が接触した際に、接触した部位に対応する処理を実行することとした。しかしながらこれに限らず、操作対象物は現実空間に存在する物体であってもよい。この場合、位置特定部32は、物体センサー15の検出結果を用いて、ユーザーの手の形状、及び位置だけでなく、現実空間においてユーザーの手の周囲に存在する操作対象物の位置、及び形状も特定する。そして、接触部位特定部33は、ユーザーの手の指が現実空間内の操作対象物に接触したと判定される場合に、接触した指を特定する。
具体例として、ユーザーの前に配置されているテーブルを操作対象物とする場合、ユーザーは自身のいずれかの指でテーブルに接触する。接触部位特定部33は、ユーザーがどの指でテーブルに接触したかを特定し、対応処理実行部34は、特定された指の種類や左右どちらの手の指かなどに応じて、予め定められた処理を実行する。このとき仮想空間制御部31は、テーブルに対応する位置、及び形状の仮想オブジェクトをユーザーの手に対応する手オブジェクトなどとともに仮想空間内に配置してもよい。
さらにこの場合において、情報処理装置10は、操作対象物の位置や、ユーザーの指が操作対象物に接触したタイミングを特定するために、物体センサー15だけでなく、その他の種類の検出装置などと接続されてもよい。例えばユーザーは、自身の手の周囲の物体の位置やユーザーの手の指が周囲の物体に接触したことを検出する検出装置を自身の手などに装着する。情報処理装置10は、この検出装置から受信する情報を用いて操作対象物の位置や、操作対象物に接触したユーザーの指がどの指かを特定する。このような制御によれば、現実空間においてユーザーがどの指で操作対象物に接触したか、またどのタイミングで接触したかを精度よく特定することができる。
以上説明した本実施形態に係る情報処理装置10によれば、操作対象物に接触した身体の部位に応じて予め定められた処理を実行することにより、ユーザーは容易に複数種類の処理を情報処理装置10に実行させることができる。
なお、本発明の実施の形態は、以上説明したものに限られない。例えば以上の説明においては、操作対象物は仮想空間に配置された3次元のオブジェクトや、現実空間に存在する物体であることとしたが、操作対象物は画面上に表示される2次元のオブジェクトであってもよい。この場合、表示装置14は、平面状の画面に操作対象物となるオブジェクトを表示することとする。
例えば操作対象物は、画面上に表示される文字列であってもよい。この場合、ユーザーは、画面上においていずれかの指でスライド操作を行うことによって、操作対象となる文字列を選択する。対応処理実行部34は、ユーザーがどの指で文字列を選択したかに応じて、選択された文字列を複製したり、移動したり、削除したりする。また、いずれかの指、又は別の手の指に対して、文字列に対する複製や移動や削除などの操作を元に戻す処理が割り当てられてもよい。
また、操作対象物は、画像や図形などの2Dオブジェクトであってもよい。この場合、ユーザーは画面上をいずれかの指でタッチしたり、スライドしたりすることによって、オブジェクトに対する各種の操作を実行させる。さらにこの例では、ユーザーが2本の指で画面をタッチした場合に、片手の2本の指でタッチしたのか、又は両手の指でタッチしたのかに応じて、処理の内容を変化させてもよい。具体例として、ユーザーが2本の指を画面上でスライドしてその間隔を広げる操作を行ったとする。このとき、ユーザーが片手で当該操作を行った場合、対応処理実行部34は、ズーム処理を行って表示されている画面全体を拡大する。一方、ユーザーが両手の指で当該操作を行った場合、対応処理実行部34は、2Dオブジェクト自体の大きさを拡大する。
また、ユーザーが2本の指を画面上で回転させる回転操作を行った場合について、図5を用いて説明する。図5(a)はユーザーが片手で回転操作を行った場合の例を示している。なお、図中の実線の矢印はユーザーの手の指の動きを、破線の矢印は画面上のオブジェクトの動きを表している。ここでは対応処理実行部34は、表示領域全体をユーザーの指の動きに応じて回転する(ビュー回転)。一方、図5(b)はユーザーが両手それぞれの指で回転操作を行った場合の例を示している。この場合対応処理実行部34は、選択された2Dオブジェクトを単独で回転させる。以上説明したような制御によれば、従来のマルチタッチ方式のタッチパネルなどを使用してユーザーの操作を受け付ける場合と異なり、ユーザーがどの指で操作を行ったか、また、ユーザーが片手及び両手のどちらで操作を行ったのかなどに応じて、処理の内容を変化させることができる。
また、以上の説明ではユーザーは自身の手を操作対象物に接触させることとしたが、これに限らず頭や足先など自身の身体の別の部位を操作対象物に接触させてもよい。この場合、物体センサー15はユーザーの身体のより広い範囲を対象として、その動きや姿勢の変化を検出可能なセンサーであるものとする。この場合にも、対応処理実行部34は、操作対象物に接触したのがユーザーの身体のどの部位かに応じて、予めその部位に対応づけられた処理を実行するものとする。
また、以上の説明では位置特定部32は物体センサー15の検出結果を用いてユーザーの手の指の位置、及び形状を特定し、接触部位特定部33はその特定結果に基づいてユーザーが操作対象物に接触したのがどの指かを特定することとした。しかしながら操作対象物に接触した部位を特定する方法はこのようなものに限られず、例えばユーザーの手に装着した検出装置を使用するなど、接触部位特定部33は各種の方式で操作対象物に接触したユーザーの指を特定してもよい。
1 情報処理システム、10 情報処理装置、11 制御部、12 記憶部、13 通信部、14 表示装置、15 物体センサー、31 仮想空間制御部、32 位置特定部、33 接触部位特定部、34 対応処理実行部。

Claims (6)

  1. ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定する特定部と、
    前記特定された部位に応じて、予め定められた処理を実行する処理実行部と、
    を含み、
    前記処理実行部は、複数の機能候補のいずれかに割り当てられた操作対象物に対してユーザーが自身の身体のいずれかの部位を接触させる操作を実行したことが前記特定部によって特定された場合、接触された操作対象物に割り当てられた機能候補を当該接触した部位に対応づけ、ユーザーが当該接触した部位をさらに別の操作対象物に対して接触させる操作を実行したことが前記特定部によって特定された場合、当該対応づけられた機能候補に応じた処理を実行する
    ことを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記身体の部位はユーザーの手であって、
    前記特定部は、ユーザーが前記操作対象物に対して左右どちらの手で接触したかを特定し、
    前記処理実行部は、ユーザーが左右どちらの手で接触したかに応じて、手ごとに予め定められた処理を実行する
    ことを特徴とする情報処理装置。
  3. 請求項1に記載の情報処理装置において、
    前記身体の部位はユーザーの手のいずれかの指であって、
    前記特定部は、ユーザーが前記操作対象物に対してどの指で接触したかを特定し、
    前記処理実行部は、ユーザーがどの指で接触したかに応じて、指の種類ごとに予め定められた処理を実行する
    ことを特徴とする情報処理装置。
  4. 請求項1からのいずれか一項に記載の情報処理装置において、
    前記操作対象物は、仮想空間内に配置された仮想オブジェクトであって、
    前記情報処理装置は、前記仮想オブジェクト、及び、現実空間におけるユーザーの身体の少なくとも一部の部位に対応する部位オブジェクトが配置された前記仮想空間内の様子を示す画像を描画する仮想空間制御部をさらに含み、
    前記特定部は、前記仮想空間内において前記部位オブジェクトが前記仮想オブジェクトに対して接触した際に、接触した部位を特定する
    ことを特徴とする情報処理装置。
  5. ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定する特定ステップと、
    前記特定された部位に応じて、予め定められた処理を実行する処理ステップと、
    を含み、
    前記処理ステップでは、複数の機能候補のいずれかに割り当てられた操作対象物に対してユーザーが自身の身体のいずれかの部位を接触させる操作を実行したことが前記特定ステップで特定された場合、接触された操作対象物に割り当てられた機能候補を当該接触した部位に対応づけ、ユーザーが当該接触した部位をさらに別の操作対象物に対して接触させる操作を実行したことが前記特定ステップで特定された場合、当該対応づけられた機能候補に応じた処理を実行す
    とを特徴とする情報処理方法。
  6. ユーザーが自身の身体のいずれかの部位を操作対象物に対して接触させる操作を実行した際に、接触した部位を特定する特定ステップと、
    前記特定された部位に応じて、予め定められた処理を実行する処理ステップと、
    をコンピュータに実行させるためのプログラムであって、
    前記処理ステップでは、複数の機能候補のいずれかに割り当てられた操作対象物に対してユーザーが自身の身体のいずれかの部位を接触させる操作を実行したことが前記特定ステップで特定された場合、接触された操作対象物に割り当てられた機能候補を当該接触した部位に対応づけ、ユーザーが当該接触した部位をさらに別の操作対象物に対して接触させる操作を実行したことが前記特定ステップで特定された場合、当該対応づけられた機能候補に応じた処理を実行す
    ログラム。
JP2019568426A 2018-01-30 2018-01-30 情報処理装置 Active JP6924285B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002970 WO2019150430A1 (ja) 2018-01-30 2018-01-30 情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2019150430A1 JPWO2019150430A1 (ja) 2020-09-03
JP6924285B2 true JP6924285B2 (ja) 2021-08-25

Family

ID=67477985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019568426A Active JP6924285B2 (ja) 2018-01-30 2018-01-30 情報処理装置

Country Status (3)

Country Link
US (1) US11500453B2 (ja)
JP (1) JP6924285B2 (ja)
WO (1) WO2019150430A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086511A (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN112650391A (zh) * 2020-12-23 2021-04-13 网易(杭州)网络有限公司 基于虚拟现实的人机交互方法、装置、设备及存储介质
US11823481B2 (en) * 2021-12-29 2023-11-21 Qualcomm Incorporated Adaptive activation of fingerprint sensor areas

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2698320B2 (ja) 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
JP5298161B2 (ja) * 2011-06-13 2013-09-25 シャープ株式会社 操作装置及び画像形成装置
JP6227563B2 (ja) 2013-06-26 2017-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America ユーザインタフェース装置及び表示オブジェクト操作方法
KR102138505B1 (ko) * 2013-07-10 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
US9721383B1 (en) * 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN104252292B (zh) * 2014-08-29 2020-01-03 惠州Tcl移动通信有限公司 一种显示方法及移动终端
WO2017039125A1 (en) * 2015-08-28 2017-03-09 Samsung Electronics Co., Ltd. Electronic device and operating method of the same
US9928662B2 (en) * 2016-05-09 2018-03-27 Unity IPR ApS System and method for temporal manipulation in virtual environments
WO2018017215A1 (en) * 2016-07-16 2018-01-25 Hewlett-Packard Development Company, L.P. Gesture based 3-dimensional object transformation
JP6774367B2 (ja) * 2017-04-11 2020-10-21 富士フイルム株式会社 ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
WO2018196552A1 (zh) * 2017-04-25 2018-11-01 腾讯科技(深圳)有限公司 用于虚拟现实场景中的手型显示方法及装置
US10431006B2 (en) * 2017-04-26 2019-10-01 Disney Enterprises, Inc. Multisensory augmented reality
JP6470356B2 (ja) * 2017-07-21 2019-02-13 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
KR101961221B1 (ko) * 2017-09-18 2019-03-25 한국과학기술연구원 가상 공간에 형성된 가상 모델을 제어하는 방법 및 시스템
US11875012B2 (en) * 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments

Also Published As

Publication number Publication date
US11500453B2 (en) 2022-11-15
US20210055784A1 (en) 2021-02-25
JPWO2019150430A1 (ja) 2020-09-03
WO2019150430A1 (ja) 2019-08-08

Similar Documents

Publication Publication Date Title
US11048333B2 (en) System and method for close-range movement tracking
KR101791366B1 (ko) 증강된 가상 터치패드 및 터치스크린
JP6074170B2 (ja) 近距離動作のトラッキングのシステムおよび方法
US20160098094A1 (en) User interface enabled by 3d reversals
JP6350772B2 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
US20140123077A1 (en) System and method for user interaction and control of electronic devices
EP2996022A1 (en) Input assistance device, input assistance method, and program
JP6924285B2 (ja) 情報処理装置
JP2013037675A5 (ja)
KR20160080109A (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
US20190050132A1 (en) Visual cue system
Matulic et al. Phonetroller: Visual representations of fingers for precise touch input with mobile phones in vr
KR20190059726A (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
WO2015108112A1 (ja) 操作判定装置、操作判定方法、および、プログラム
JP2013089037A (ja) 描画装置、描画制御方法、及び描画制御プログラム
JP6325659B2 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
JP7495651B2 (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
CN111913639B (zh) 虚拟内容的交互方法、装置、***、终端设备及存储介质
US20220084287A1 (en) Information processing apparatus, display device, information processing system, and non-transitory computer readable medium storing program
CN111913562B (zh) 虚拟内容的显示方法、装置、终端设备及存储介质
CN111857364B (zh) 交互装置、虚拟内容的处理方法、装置以及终端设备
CN111913565B (zh) 虚拟内容控制方法、装置、***、终端设备及存储介质
CN111399631B (zh) 虚拟内容显示方法、装置、终端设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210608

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210608

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210618

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210730

R150 Certificate of patent or registration of utility model

Ref document number: 6924285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150