JP2019016071A - 情報処理方法、プログラム及びコンピュータ - Google Patents
情報処理方法、プログラム及びコンピュータ Download PDFInfo
- Publication number
- JP2019016071A JP2019016071A JP2017131570A JP2017131570A JP2019016071A JP 2019016071 A JP2019016071 A JP 2019016071A JP 2017131570 A JP2017131570 A JP 2017131570A JP 2017131570 A JP2017131570 A JP 2017131570A JP 2019016071 A JP2019016071 A JP 2019016071A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- orientation
- receiving port
- hmd device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 230000010365 information processing Effects 0.000 title claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims description 63
- 238000000034 method Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 5
- 230000035515 penetration Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 description 53
- 238000010586 diagram Methods 0.000 description 31
- 210000001508 eye Anatomy 0.000 description 23
- 238000004891 communication Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 210000003811 finger Anatomy 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下、本開示が示す実施形態の詳細について図面を参照しながら説明する。以下の説明では、基本的に、同一の構成要素には同一の符号を付している。このため、説明済みの構成要素(説明済みの参照番号が付された構成要素)については、必要がある場合を除き、原則、その説明を繰り返さない。
[HMDシステムの構成]
図1を参照して、HMD(Head Mount Device)システム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開(配置)可能な各要素(例えば、オブジェクト、静止画、動画等)を、仮想空間2上の展開位置(配置位置)に対応するメッシュに対応付けることで、ユーザによって視認可能な仮想空間要素が展開される仮想空間2をユーザに提供する。仮想空間要素とは、仮想空間2内に展開される要素であり、例えば、各種オブジェクト(例えば、ユーザが操作可能なオブジェクト、所定のアルゴリズムに基づいて動作するオブジェクト、および動作しないオブジェクトなど)や、各種画像(背景画像、ユーザが選択画像なメニュー画像、写真、動画像など)を含む。
図5を参照して、ユーザの視線方向の決定について説明する。図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。
[HMD装置の制御装置]
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。図10は、ユーザ190によって使用されるHMDシステム100がユーザ190に仮想空間2を提供するために実行する処理を表すフローチャートである。
上記実施形態では、コリジョンエリアCBとコリジョンエリアCCとが衝突していることを条件に、カード型オブジェクト500の位置及び向きの少なくともいずれかを補正する場合を例にとり説明した。但し、これに限定されず、例えば、コリジョンエリアCBとコリジョンエリアCCとが衝突し、かつカード型オブジェクト500の選択を解除するための操作が受け付けられたことを条件に、カード型オブジェクト500の位置及び向きの少なくともいずれかを補正するようにしてもよい。つまり、図14のステップS23とS24の順序を入れ替えるようにしてもよい。このようにしても、VR空間上において、カード型オブジェクト500を受入口610に挿入するに際し、カード型オブジェクト500が自然な角度から受入口610に挿入することができ(カード型オブジェクト500が不自然な角度から受入口610に挿入されてしまうことを防止でき)、ユーザ190の仮想空間への没入感を向上させることが可能となる。
上記実施形態において、コリジョンエリアCCを、カード型オブジェクト500の位置及び向きの少なくともいずれかの補正時にカード型オブジェクト500による受入オブジェクト600の貫通を発生させない領域に設定するようにしてもよい。例えば、図17(B)に示すようなコリジョンエリアCCの形状の場合、受入オブジェクト600の背面(受入口610を有する面の反対面)において、コリジョンエリアCBとコリジョンエリアCCとが衝突した場合、カード型オブジェクト500の位置及び向きの少なくともいずれかの補正に伴い、カード型オブジェクト500が受入オブジェクト600を貫通してしまう可能性があり好ましくない。このため、コリジョンエリアCCを、カード型オブジェクト500による受入オブジェクト600の貫通を発生させない領域に設定することが好ましい。例えば、コリジョンエリアCCを受入オブジェクト600の外側に設定するようにすれば、このような事態の発生を防止できる。
上記実施形態では、受入口610に挿入されるオブジェクトがカード型オブジェクト500である場合を例にとり説明したが、受入口610に挿入されるオブジェクトの形状はカード型に限定されず、どのような形状のオブジェクトであってもよい。
(項目1)
ヘッドマウントディスプレイを介して仮想空間を提供するためにコンピュータで実行される情報処理方法であって、
前記仮想空間を規定するステップと、
第1オブジェクト(例えば、カード型オブジェクト500)と、前記第1オブジェクトを受け入れる受入口を有する第2オブジェクト(例えば、受入オブジェクト600)とを、前記仮想空間に配置するステップと、
前記第1オブジェクトを移動させるステップと、
前記第1オブジェクトと前記受入口との位置関係が所定の条件を満たす場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正するステップと、
を含む情報処理方法。
(項目2)
前記補正するステップでは、前記第1オブジェクトを前記受入口に受け入れさせる際に前記第1オブジェクトを移動させる第1方向と、前記受入口の形状に基づいて定まる前記第1オブジェクトを受け入れるための第2方向と、を対向させるように、前記第1オブジェクトの位置を補正する項目1に記載の情報処理方法。
(項目3)
前記補正するステップでは、前記第1オブジェクトを前記受入口に受け入れさせる際の前記第1オブジェクトの向きを前記第1方向に近づけるように、前記第1オブジェクトの向きを更に補正する項目2に記載の情報処理方法。
(項目4)
前記第1オブジェクトに関連付けられた第1コリジョンエリアと、前記受入口に関連付けられた第2コリジョンエリアと、が衝突している場合に、前記所定の条件を満たすと判定するステップを更に含み、
前記第2コリジョンエリアは、前記第1オブジェクトの位置及び向きの少なくともいずれかの補正時に前記第1オブジェクトによる前記第2オブジェクトの貫通を発生させない領域に設定されている項目1〜3のいずれか1項に記載の情報処理方法。
(項目5)
前記配置するステップでは、操作オブジェクト(例えば、手オブジェクト400)を前記仮想空間に更に配置し、
ユーザの動きに基づいて、前記操作オブジェクトに前記第1オブジェクトを選択させるステップと、
前記ユーザの動きに基づいて、前記操作オブジェクトを移動させるステップと、をさらに含み、
前記第1オブジェクトを移動させるステップでは、前記操作オブジェクトにより前記第1オブジェクトが選択されている場合、前記操作オブジェクトの移動に連動して前記第1オブジェクトを移動させ、
前記ユーザの動きに基づいて、前記操作オブジェクトに、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択を解除させるステップをさらに含み、
前記第1オブジェクトを移動させるステップでは、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択が解除された場合、当該第1オブジェクトを前記受入口に受け入れられるように移動させる項目1〜4のいずれか1項に記載の情報処理方法。
(項目6)
前記第1オブジェクトの位置及び向きの少なくともいずれかの補正に連動して、前記操作オブジェクトの位置及び向きの少なくともいずれかを補正するステップを更に含む項目5に記載の情報処理方法。
(項目7)
前記配置するステップでは、操作オブジェクトを前記仮想空間に更に配置し、
ユーザの動きに基づいて、前記操作オブジェクトに前記第1オブジェクトを選択させるステップと、
前記ユーザの動きに基づいて、前記操作オブジェクトを移動させるステップと、をさらに含み、
前記第1オブジェクトを移動させるステップでは、前記操作オブジェクトにより前記第1オブジェクトが選択されている場合、前記操作オブジェクトの移動に連動して前記第1オブジェクトを移動させ、
前記ユーザの動きに基づいて、前記操作オブジェクトに、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択を解除させるステップをさらに含み、
前記補正するステップでは、前記第1オブジェクトと前記受入口との位置関係が前記所定の条件を満たし、かつ位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択が解除された場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正し、
前記第1オブジェクトを移動させるステップでは、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトを、前記受入口に受け入れられるように移動させる項目1〜4のいずれか1項に記載の情報処理方法。
(項目8)
少なくとも、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトが前記受入口に受け入れられる場合に、当該第1オブジェクトが前記受入口に受け入れられたことを想起させる音声を出力するステップを更に含む項目5〜7のいずれか1項に記載の情報処理方法。
(項目9)
項目1〜8のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
(項目10)
ヘッドマウントディスプレイを介して仮想空間を提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサの制御により、
前記仮想空間を規定するステップと、
第1オブジェクトと、前記第1オブジェクトを受け入れる受入口を有する第2オブジェクトとを、前記仮想空間に配置するステップと、
前記第1オブジェクトを移動させるステップと、
前記第1オブジェクトと前記受入口との位置関係が所定の条件を満たす場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正するステップと、
が実行されるコンピュータ。
2…ストレージ、13…入出力インターフェース、14…通信インターフェース、15…
バス、19…ネットワーク、21…中心、23…視界領域、24,25…領域、31…フ
レーム、32…天面、33,34,36,37…ボタン、35…赤外線LED、38…ア
ナログスティック、100…HMDシステム、110…HMD装置、112…ディスプレ
イ、114…センサ、116…カメラ、118…マイク、120…HMDセンサ、130
…モーションセンサ、140…注視センサ、150…サーバ、160…コントローラ、1
60R…右コントローラ、190…ユーザ、200…コンピュータ、220…主制御モジ
ュール、221…仮想空間制御モジュール、222…仮想カメラ制御モジュール、223
…プレイヤキャラクタ制御モジュール、224…オブジェクト制御モジュール、226…
コリジョン判定モジュール、227…視界画像生成モジュール、228…表示制御モジュ
ール、240…メモリモジュール、241…空間情報、242…オブジェクト情報、24
3…ユーザ情報、250…通信制御モジュール、M…視界画像
Claims (10)
- ヘッドマウントディスプレイを介して仮想空間を提供するためにコンピュータで実行される情報処理方法であって、
前記仮想空間を規定するステップと、
第1オブジェクトと、前記第1オブジェクトを受け入れる受入口を有する第2オブジェクトとを、前記仮想空間に配置するステップと、
前記第1オブジェクトを移動させるステップと、
前記第1オブジェクトと前記受入口との位置関係が所定の条件を満たす場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正するステップと、
を含む情報処理方法。 - 前記補正するステップでは、前記第1オブジェクトを前記受入口に受け入れさせる際に前記第1オブジェクトを移動させる第1方向と、前記受入口の形状に基づいて定まる前記第1オブジェクトを受け入れるための第2方向と、を対向させるように、前記第1オブジェクトの位置を補正する請求項1に記載の情報処理方法。
- 前記補正するステップでは、前記第1オブジェクトを前記受入口に受け入れさせる際の前記第1オブジェクトの向きを前記第1方向に近づけるように、前記第1オブジェクトの向きを更に補正する請求項2に記載の情報処理方法。
- 前記第1オブジェクトに関連付けられた第1コリジョンエリアと、前記受入口に関連付けられた第2コリジョンエリアと、が衝突している場合に、前記所定の条件を満たすと判定するステップを更に含み、
前記第2コリジョンエリアは、前記第1オブジェクトの位置及び向きの少なくともいずれかの補正時に前記第1オブジェクトによる前記第2オブジェクトの貫通を発生させない領域に設定されている請求項1〜3のいずれか1項に記載の情報処理方法。 - 前記配置するステップでは、操作オブジェクトを前記仮想空間に更に配置し、
ユーザの動きに基づいて、前記操作オブジェクトに前記第1オブジェクトを選択させるステップと、
前記ユーザの動きに基づいて、前記操作オブジェクトを移動させるステップと、をさらに含み、
前記第1オブジェクトを移動させるステップでは、前記操作オブジェクトにより前記第1オブジェクトが選択されている場合、前記操作オブジェクトの移動に連動して前記第1オブジェクトを移動させ、
前記ユーザの動きに基づいて、前記操作オブジェクトに、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択を解除させるステップをさらに含み、
前記第1オブジェクトを移動させるステップでは、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択が解除された場合、当該第1オブジェクトを前記受入口に受け入れられるように移動させる請求項1〜4のいずれか1項に記載の情報処理方法。 - 前記第1オブジェクトの位置及び向きの少なくともいずれかの補正に連動して、前記操作オブジェクトの位置及び向きの少なくともいずれかを補正するステップを更に含む請求項5に記載の情報処理方法。
- 前記配置するステップでは、操作オブジェクトを前記仮想空間に更に配置し、
ユーザの動きに基づいて、前記操作オブジェクトに前記第1オブジェクトを選択させるステップと、
前記ユーザの動きに基づいて、前記操作オブジェクトを移動させるステップと、をさらに含み、
前記第1オブジェクトを移動させるステップでは、前記操作オブジェクトにより前記第1オブジェクトが選択されている場合、前記操作オブジェクトの移動に連動して前記第1オブジェクトを移動させ、
前記ユーザの動きに基づいて、前記操作オブジェクトに、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択を解除させるステップをさらに含み、
前記補正するステップでは、前記第1オブジェクトと前記受入口との位置関係が前記所定の条件を満たし、かつ位置及び向きの少なくともいずれかが補正された前記第1オブジェクトの選択が解除された場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正し、
前記第1オブジェクトを移動させるステップでは、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトを、前記受入口に受け入れられるように移動させる請求項1〜4のいずれか1項に記載の情報処理方法。 - 少なくとも、位置及び向きの少なくともいずれかが補正された前記第1オブジェクトが前記受入口に受け入れられる場合に、当該第1オブジェクトが前記受入口に受け入れられたことを想起させる音声を出力するステップを更に含む請求項5〜7のいずれか1項に記載の情報処理方法。
- 請求項1〜8のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
- ヘッドマウントディスプレイを介して仮想空間を提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサの制御により、
前記仮想空間を規定するステップと、
第1オブジェクトと、前記第1オブジェクトを受け入れる受入口を有する第2オブジェクトとを、前記仮想空間に配置するステップと、
前記第1オブジェクトを移動させるステップと、
前記第1オブジェクトと前記受入口との位置関係が所定の条件を満たす場合に、前記第1オブジェクトの位置及び向きの少なくともいずれかを、前記第1オブジェクトを前記受入口に受け入れさせるための位置及び向きの少なくともいずれかに補正するステップと、
が実行されるコンピュータ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131570A JP6368404B1 (ja) | 2017-07-04 | 2017-07-04 | 情報処理方法、プログラム及びコンピュータ |
US16/027,194 US20190019338A1 (en) | 2017-07-04 | 2018-07-03 | Information processing method, program, and computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131570A JP6368404B1 (ja) | 2017-07-04 | 2017-07-04 | 情報処理方法、プログラム及びコンピュータ |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129526A Division JP2019016358A (ja) | 2018-07-06 | 2018-07-06 | 情報処理方法、プログラム及びコンピュータ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6368404B1 JP6368404B1 (ja) | 2018-08-01 |
JP2019016071A true JP2019016071A (ja) | 2019-01-31 |
Family
ID=63036684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131570A Active JP6368404B1 (ja) | 2017-07-04 | 2017-07-04 | 情報処理方法、プログラム及びコンピュータ |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190019338A1 (ja) |
JP (1) | JP6368404B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135192A (ja) * | 2019-02-15 | 2020-08-31 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902685B2 (en) * | 2018-12-13 | 2021-01-26 | John T. Daly | Augmented reality remote authoring and social media platform and system |
US20240127521A1 (en) * | 2022-10-14 | 2024-04-18 | VRChat Inc. | Safety policy for contact interactions between avatars |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5254505B1 (ja) * | 2012-07-20 | 2013-08-07 | 楽天株式会社 | 動画処理装置、動画処理方法、ならびに、情報記録媒体 |
JP2013202222A (ja) * | 2012-03-28 | 2013-10-07 | Square Enix Co Ltd | ゲーム装置 |
JP2014068689A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御システムおよび制御プログラム |
JP2015181770A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社セガゲームス | プログラムおよびゲームシステム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9183676B2 (en) * | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
US11740690B2 (en) * | 2017-01-27 | 2023-08-29 | Qualcomm Incorporated | Systems and methods for tracking a controller |
-
2017
- 2017-07-04 JP JP2017131570A patent/JP6368404B1/ja active Active
-
2018
- 2018-07-03 US US16/027,194 patent/US20190019338A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013202222A (ja) * | 2012-03-28 | 2013-10-07 | Square Enix Co Ltd | ゲーム装置 |
JP5254505B1 (ja) * | 2012-07-20 | 2013-08-07 | 楽天株式会社 | 動画処理装置、動画処理方法、ならびに、情報記録媒体 |
JP2014068689A (ja) * | 2012-09-27 | 2014-04-21 | Kyocera Corp | 表示装置、制御システムおよび制御プログラム |
JP2015181770A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社セガゲームス | プログラムおよびゲームシステム |
Non-Patent Citations (1)
Title |
---|
石川 大: "「フローティングインターフェース」の開発", PIONEER R&D (VOL.16,NO.2/2006), vol. Vol.16,No.2/2006, JPN6018021994, 4 November 2016 (2016-11-04), JP, pages 50 - 61, ISSN: 0003815663 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135192A (ja) * | 2019-02-15 | 2020-08-31 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
JP7247636B2 (ja) | 2019-02-15 | 2023-03-29 | 株式会社Jvcケンウッド | 画像調整システム、画像調整装置、及び画像調整方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6368404B1 (ja) | 2018-08-01 |
US20190019338A1 (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244593B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6263252B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6470796B2 (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6392911B2 (ja) | 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6290467B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
US10860089B2 (en) | Method of suppressing VR sickness, system for executing the method, and information processing device | |
JP6201028B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6368404B1 (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP2018125003A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2018124981A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6479933B1 (ja) | プログラム、情報処理装置、および方法 | |
JP6495398B2 (ja) | 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置 | |
JP2019032844A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019133309A (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6278546B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019020836A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092635A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018067297A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018092592A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2018190196A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019016358A (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP6966336B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6441517B1 (ja) | プログラム、情報処理装置、および方法 | |
JP6298557B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2019155115A (ja) | プログラム、情報処理装置、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6368404 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |