JP6257826B1 - 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 - Google Patents
仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 Download PDFInfo
- Publication number
- JP6257826B1 JP6257826B1 JP2017108331A JP2017108331A JP6257826B1 JP 6257826 B1 JP6257826 B1 JP 6257826B1 JP 2017108331 A JP2017108331 A JP 2017108331A JP 2017108331 A JP2017108331 A JP 2017108331A JP 6257826 B1 JP6257826 B1 JP 6257826B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- hmd
- virtual space
- computer
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000010365 information processing Effects 0.000 title claims 2
- 230000033001 locomotion Effects 0.000 claims abstract description 72
- 230000000007 visual effect Effects 0.000 description 56
- 210000001508 eye Anatomy 0.000 description 52
- 238000004891 communication Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 48
- 230000008859 change Effects 0.000 description 20
- 238000001514 detection method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 10
- 210000003811 finger Anatomy 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 210000003128 head Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000007654 immersion Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- RRAMGCGOFNQTLD-UHFFFAOYSA-N hexamethylene diisocyanate Chemical compound O=C=NCCCCCCN=C=O RRAMGCGOFNQTLD-UHFFFAOYSA-N 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
図1は、コンピュータが表示する視界画像の一例を示す図である。視界画像とは、仮想空間のうち視認領域を表現するために生成された画像をいう。図1の分図(A)に示された視界画像1000は、チャットルームを表わす。当該チャットルームは、壁オブジェクト1001、スイッチオブジェクト1002、額縁オブジェクト1003、アバターオブジェクト1004、椅子オブジェクト1005、および、テーブルオブジェクト1006を含む。コンピュータは、当該コンピュータに接続されたHMDのユーザの手に対応する手オブジェクトを視界画像に表示することができる。図1の分図(B)は、さらに手オブジェクト1210を含む視界画像1000Aを示す。手オブジェクトの表示位置は、ユーザの手のトラッキングによって得られた位置情報に従って変更される。本実施の形態において、トラッキングとは、所定の要素(たとえば、人間の「手」)をの少なくとも一部の位置を継続して計測することをいう。コンピュータは、トラッキングのために、上記所定の要素を特定するためのパターン認識を実行してもよい。
図4を参照して、HMDシステム100の構成について説明する。図4は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
図5を参照して、本実施の形態に係るコンピュータ200について説明する。図5は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェイス13と、通信インターフェイス14とを備える。各構成要素は、それぞれ、バス15に接続されている。
図6を参照して、uvw視野座標系について説明する。図6は、ある実施の形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
図7を参照して、仮想空間についてさらに説明する。図7は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図7では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
図8を参照して、ユーザの視線方向の決定について説明する。図8は、ある実施の形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
図9および図10を参照して、視認領域23について説明する。図9は、仮想空間2において視認領域23をX方向から見たYZ断面を表す図である。図10は、仮想空間2において視認領域23をY方向から見たXZ断面を表す図である。
図11を参照して、コントローラ160の一例について説明する。図11は、ある実施の形態に従うコントローラ160の概略構成を表す図である。
図13を参照して、HMD110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図13は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
識別情報制御モジュール234は、仮想空間2に提示されるアバターオブジェクトの識別情報の提示を制御する。例えば、ある局面において、識別情報制御モジュール234は、注視センサ140からの出力に基づいて、ユーザ190の視線が仮想空間2に提示されているアバターオブジェクトに向けられていることを検知する。識別情報制御モジュール234は、そのアバターオブジェクトに対応する他のユーザ(例えば、ユーザ190A,190B)の識別情報を提示する。識別情報は、例えば、当該他のユーザの名前、ハンドルネームその他、他のユーザと区別する情報を含む。
ここで、二人のユーザ190,190Aが仮想空間2を介して通信する場合のコンピュータ200,200Aの動作について説明する。以下、コンピュータ200Aに接続されたHMD110Aを装着したユーザ190Aが、コンピュータ200に接続されたHMD110を装着したユーザ190に発話する場合について説明する。
ある局面において、HMD110Aを装着したユーザ190Aは、ユーザ190とチャットするために、マイク119に向かって発話する。発話の音声信号は、HMD110Aに接続されているコンピュータ200Aに送信される。音声制御モジュール225は、音声信号を音声データに変換し、発話が検出された時を表わすタイムスタンプを音声データに関連付ける。タイムスタンプは、例えば、プロセッサ10の内部クロックの時刻データである。ある局面において、音声信号が通信制御モジュール250によって音声データに変換される時の時刻データがタイムスタンプとして使用される。
コンピュータ200は、コンピュータ200Aによって送信されたデータをサーバ150から受信する。ある局面において、コンピュータ200のプロセッサ10は、通信制御モジュール250から送られるデータに基づいて、音声データを受信したことを検知する。プロセッサ10は、音声データの送信元(すなわちコンピュータ200A)を特定すると、チャット制御モジュール235として、HMD110のモニタ112に、チャットの画面を表示させる。
図14を参照して、HMDシステム100の制御構造について説明する。図14は、ある実施の形態に従うHMDシステム100において実行される処理の一部を表わすシーケンスチャートである。
図15および図16を参照して、メモリモジュール240のデータ構造について説明する。なお、図15に示されるチャットモニタ情報および図16に示されるオブジェクト情報は、各コンピュータ200からサーバ150に送信される等により、サーバ150のチャット情報格納部512Aに格納されていてもよい。
図15は、メモリモジュール240におけるチャットモニタ情報の格納の一態様を表わす図である。ある局面において、メモリモジュール240は、チャットモニタ情報244を保持している。チャットモニタ情報244は、ユーザID1610と、名前1620と、ステータス1630と、制御フラグ1640と、提示開始日時1650とを含む。
図16は、メモリモジュール240におけるオブジェクト情報の格納の一態様を表わす図である。ある局面において、メモリモジュール240は、オブジェクト情報242を保持している。オブジェクト情報242は、オブジェクトID1710と、位置情報1720と、関連ユーザID1730とを含む。
図17を参照して、図1〜図3等を参照して説明されたような手オブジェクト1210の移動に連動したボタンオブジェクト1021の移動を実現するための処理を説明する。図17は、プロセッサ10によって実行される処理のフローチャートである。図17の処理は、たとえばプロセッサ10が所与のプログラムを実行することによって実現される。
図19,図20を参照して、ユーザの移動に従ったオブジェクトの移動の別の態様について説明する。図19は、ユーザの手をトラッキングする処理の変形例を説明するための図である。図19において、分図(A)は現実空間におけるユーザを示し、分図(B)はユーザの動きに従った仮想空間の視界画像1290を示す。図20は、図19の例に従った視界画像の変化を説明するための図である。
(1) 本開示によれば、仮想空間にオブジェクトを配置するためにコンピュータによって実行される方法が提供される。方法は、仮想空間を定義するステップ(S1510)と、仮想空間に第1のオブジェクト(ボタンオブジェクト1021)および第2のオブジェクト(手オブジェクト1210)を配置するステップ(S10)と、仮想空間のユーザの動きに従って第2のオブジェクトを移動させるステップ(S12)と、第1のオブジェクトと第2のオブジェクトとの位置関係が予め定められた条件を満たした場合に、第2のオブジェクトの第1の向きの移動に連動して、第1のオブジェクトを第1の向きに移動させるステップ(S16)と、第1のオブジェクトの第1の向きにおける移動量が第1の量に達した場合に、第1のオブジェクトを第1の向きに対向する第2の向きに移動させるステップ(S24,S28)とを備える。
Claims (7)
- 仮想空間を提供するためにコンピュータによって実行される方法であって、
仮想空間を定義するステップと、
前記仮想空間に第1のオブジェクトおよび第2のオブジェクトを配置するステップと、
前記仮想空間のユーザの動きに従って前記第2のオブジェクトを移動させるステップと、
前記第1のオブジェクトと前記第2のオブジェクトとの位置関係が予め定められた条件を満たした場合に、前記第2のオブジェクトの第1の向きの移動に連動して、前記第1のオブジェクトを前記第1の向きに移動させるステップと、
前記第1のオブジェクトの前記第1の向きにおける移動量が第1の量に達した場合に、前記第1のオブジェクトを前記第1の向きに対向する第2の向きに移動させるステップとを備える、方法。 - 前記第1のオブジェクトの前記第1の向きにおける移動量が前記第1の量に達した場合に第1の報知動作を実行するステップをさらに備える、請求項1に記載の方法。
- 前記第1のオブジェクトの前記第2の向きの移動に連動して第2の報知動作を実行するステップをさらに備える、請求項1または請求項2に記載の方法。
- 前記仮想空間は、前記コンピュータに接続されたヘッドマウントデバイスのユーザと、他のユーザとによって共有されており、
前記動きは、前記ヘッドマウントデバイスのユーザの動き、および、前記他のユーザの動きの少なくとも一方を含む、請求項1〜請求項3のいずれか1項に記載の方法。 - 前記ヘッドマウントデバイスのユーザの視線を検出するステップをさらに備え、
前記第1のオブジェクトを前記第1の向きに移動させるステップ、および、前記第1のオブジェクトを前記第2の向きに移動させるステップは、
前記ヘッドマウントデバイスのユーザの視線が前記第1のオブジェクト上にある場合には実行され、前記第1のオブジェクト上に無い場合には実行されない、請求項4に記載の方法。 - 請求項1〜請求項5のいずれか1項に記載の方法をコンピュータに実行させる、プログラム。
- 請求項6に記載のプログラムを格納したメモリと、
前記プログラムを実行するためのプロセッサとを備える、情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108331A JP6257826B1 (ja) | 2017-05-31 | 2017-05-31 | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 |
US15/993,836 US20180348986A1 (en) | 2017-05-31 | 2018-05-31 | Method executed on computer for providing virtual space, program and information processing apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108331A JP6257826B1 (ja) | 2017-05-31 | 2017-05-31 | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017232191A Division JP2018206340A (ja) | 2017-12-01 | 2017-12-01 | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6257826B1 true JP6257826B1 (ja) | 2018-01-10 |
JP2018205913A JP2018205913A (ja) | 2018-12-27 |
Family
ID=60940165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017108331A Active JP6257826B1 (ja) | 2017-05-31 | 2017-05-31 | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180348986A1 (ja) |
JP (1) | JP6257826B1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3542252B1 (en) * | 2017-08-10 | 2023-08-02 | Google LLC | Context-sensitive hand interaction |
US10739861B2 (en) * | 2018-01-10 | 2020-08-11 | Facebook Technologies, Llc | Long distance interaction with artificial reality objects using a near eye display interface |
US11014242B2 (en) | 2018-01-26 | 2021-05-25 | Microsoft Technology Licensing, Llc | Puppeteering in augmented reality |
US10705597B1 (en) * | 2019-12-17 | 2020-07-07 | Liteboxer Technologies, Inc. | Interactive exercise and training system and method |
EP4211661A2 (en) * | 2020-09-11 | 2023-07-19 | Apple Inc. | Methods for manipulating objects in an environment |
WO2023276216A1 (ja) * | 2021-06-29 | 2023-01-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011209965A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2014192838A (ja) * | 2013-03-28 | 2014-10-06 | Saitama Univ | 携帯端末向けarジェスチャユーザインタフェースシステム |
JP2015172943A (ja) * | 2007-09-14 | 2015-10-01 | 国立研究開発法人産業技術総合研究所 | バーチャルリアリティ環境生成装置及びコントローラ装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5859642A (en) * | 1996-09-26 | 1999-01-12 | Sandia Corporation | Virtual button interface |
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
CN108140360B (zh) * | 2015-07-29 | 2020-12-04 | 森赛尔股份有限公司 | 用于操纵虚拟环境的***和方法 |
DK179823B1 (en) * | 2016-06-12 | 2019-07-12 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK |
US10489978B2 (en) * | 2016-07-26 | 2019-11-26 | Rouslan Lyubomirov DIMITROV | System and method for displaying computer-based content in a virtual or augmented environment |
US10416769B2 (en) * | 2017-02-14 | 2019-09-17 | Microsoft Technology Licensing, Llc | Physical haptic feedback system with spatial warping |
-
2017
- 2017-05-31 JP JP2017108331A patent/JP6257826B1/ja active Active
-
2018
- 2018-05-31 US US15/993,836 patent/US20180348986A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015172943A (ja) * | 2007-09-14 | 2015-10-01 | 国立研究開発法人産業技術総合研究所 | バーチャルリアリティ環境生成装置及びコントローラ装置 |
JP2011209965A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2014192838A (ja) * | 2013-03-28 | 2014-10-06 | Saitama Univ | 携帯端末向けarジェスチャユーザインタフェースシステム |
Non-Patent Citations (1)
Title |
---|
樋口 政和: "AR技術を用いたスマートフォン向け空中多指タイピングインタフェース", 画像ラボ 2016.2, vol. 第27巻 第2号, JPN6017043038, 10 February 2016 (2016-02-10), JP, pages 39 - 43 * |
Also Published As
Publication number | Publication date |
---|---|
JP2018205913A (ja) | 2018-12-27 |
US20180348986A1 (en) | 2018-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244593B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6257827B1 (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
US10438394B2 (en) | Information processing method, virtual space delivering system and apparatus therefor | |
JP6298558B1 (ja) | 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
JP6257826B1 (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP6306765B1 (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
JP6240353B1 (ja) | 仮想空間において情報を提供するための方法、そのためのプログラム、および、そのための装置 | |
JP6290467B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
US10515481B2 (en) | Method for assisting movement in virtual space and system executing the method | |
JP2018125003A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP2019106220A (ja) | ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置 | |
JP6495398B2 (ja) | 仮想空間を提供するための方法、プログラム、および当該プログラムを実行するための情報処理装置 | |
JP2019016071A (ja) | 情報処理方法、プログラム及びコンピュータ | |
JP2018206340A (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP6250779B1 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置 | |
JP2018142319A (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 | |
JP2018190390A (ja) | 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置 | |
JP2018109937A (ja) | 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6639563B2 (ja) | 画像表示装置を介して仮想体験をユーザに提供するためのプログラム、コンピュータ及び方法 | |
JP6321247B1 (ja) | 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置 | |
JP6225242B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6821461B2 (ja) | 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置 | |
JP2018206339A (ja) | 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置 | |
JP6623199B2 (ja) | ヘッドマウントデバイスを用いて仮想現実を提供するためにコンピュータで実行されるプログラムおよび情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6257826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |