JP2010240185A - Apparatus for supporting motion learning - Google Patents
Apparatus for supporting motion learning Download PDFInfo
- Publication number
- JP2010240185A JP2010240185A JP2009092757A JP2009092757A JP2010240185A JP 2010240185 A JP2010240185 A JP 2010240185A JP 2009092757 A JP2009092757 A JP 2009092757A JP 2009092757 A JP2009092757 A JP 2009092757A JP 2010240185 A JP2010240185 A JP 2010240185A
- Authority
- JP
- Japan
- Prior art keywords
- user
- motion
- data
- breathing
- marker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、動作学習支援装置に関する。 The present invention relates to a motion learning support apparatus.
わが国は様々な伝統文化、芸術、芸能などの知的財産を保有している。これらは、世代を超えて人から人へ脈々と受け継がれていくものであるが、現代人の生活様式や価値観の変化、多様化、あるいは地方の過疎化や高齢化の進行によって、それらの承継が困難になっている。 Japan has intellectual property such as various traditional cultures, arts and performing arts. These are handed down from generation to generation from person to person, but due to changes in the lifestyles and values of modern people, diversification, or the depopulation and aging of rural areas, Succession has become difficult.
近年、これらの文化財をアーカイブ化して後世に残す試みが始まっている。有形文化財については、写真やCG(コンピュータグラフィックス)を用いて比較的容易にアーカイブ化することが可能である。ところが、日本舞踊をはじめとする無形文化財は、デジタル化(アーカイブ化)が難しい。 In recent years, attempts have been made to archive these cultural assets for future generations. Tangible cultural properties can be archived relatively easily using photographs and CG (computer graphics). However, intangible cultural properties such as Japanese dance are difficult to digitize (archive).
伝統舞踊やダンスなどを学習するシステムはこれまでにも研究が進められており、たとえば地域伝統舞踊における「動作の流れ」を学習するシステム(非特許文献1)、モーションキャプチャおよびHMD(ヘッドマウントディスプレイ)を用いたスポーツスキル学習システム(非特許文献2)などが提案されている。 Studies on traditional dance and dance learning systems have been studied so far, for example, a system for learning “flow of movement” in local traditional dance (Non-Patent Document 1), motion capture and HMD (head mounted display). A sports skill learning system using non-patent literature 2 is proposed.
またカメラからの実写画像に3次元(3D)CGを合成するMR(Mixed Reality)と呼ばれる技術がある。MRは、文化財の復元や美術品の立体展示等にも利用される。 There is also a technique called MR (Mixed Reality) that synthesizes a three-dimensional (3D) CG with a real image from a camera. MR is also used for the restoration of cultural properties and the three-dimensional display of works of art.
しかしながら、これらのシステムは従来のテレビなどと同じく、2次元平面上に写し出された映像を見習って学習を行うシステムである。したがって学習者(ユーザ)は、奥行きの感覚を掴むことができず、実際にどの程度、体を動かせばよいのか認識しにくいという問題がある。 However, these systems, like conventional televisions, are systems that learn by watching images projected on a two-dimensional plane. Therefore, there is a problem that the learner (user) cannot grasp the sense of depth and cannot recognize how much the body should actually be moved.
また本発明者は、こうした動作学習用のシステムについて考察するにあたり、動作と呼吸が密接な関係を有することを認識するに至った。たとえば人間は、椅子に座った状態から立ち上がるときには息を吸い込み、反対に椅子に座るときは息を吐きだす傾向にある。あるいは、空を見上げるときに息を吸い、下を見下ろすときには息を吐く。このように人間の呼吸は、無意識ではあるが動作と密接な関係を有している。 Further, the present inventor has come to recognize that movement and respiration have a close relationship in considering such a movement learning system. For example, humans tend to inhale when standing up from a chair, and exhale when sitting on a chair. Alternatively, inhale when looking up at the sky and exhale when looking down. Thus, human breathing is unconscious but has a close relationship with movement.
翻って、舞踊やダンス、あるいは太極拳のような演武に関しても、動作と呼吸は密接な関係にあるといえる。走り幅跳びの選手が、ジャンプの前に息を吸い込んでからジャンプするか、あるいは息を吐き出してからジャンプするのかで、跳躍距離は大きく変わってくるであろう。したがって動作とシンクロした正しい呼吸法を身に付けることが、その動作を学習するために非常に有効であるといえる。なお以上の考察を、本発明の分野における共通の一般知識の範囲として捉えてはならず、さらに言えば、上記考察自体が、本発明者がはじめて想到したものである。 On the other hand, it can be said that movement and breathing are closely related to dance, dance, or performance like Tai Chi. The jumping distance will vary greatly depending on whether the long jump player inhales before jumping and then jumps or exhales and jumps. Therefore, it can be said that it is very effective for learning the movement to acquire the correct breathing method synchronized with the movement. It should be noted that the above consideration should not be regarded as a range of common general knowledge in the field of the present invention, and moreover, the above-described consideration itself has been conceived for the first time by the present inventors.
本発明はかかる状況に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、動作と呼吸を同時に学習することが可能なシステムの提供にある。 The present invention has been made in view of such a situation, and one of exemplary purposes of an aspect thereof is to provide a system capable of learning movement and respiration at the same time.
本発明のある態様は、ユーザが所定の動作およびそれと連動した呼吸を学習するのを支援する動作学習支援装置に関する。この動作学習支援装置は、ユーザの頭部に装着されるヘッドマウントディスプレイと、ユーザが吐き出し、あるいは吸い込む息の量を検出し、呼吸データを生成する呼吸センサと、ユーザの体の所定の箇所に取り付けられるセンサに応答してユーザの体の動きを検出し、ユーザの動きを記述するモーションデータを生成するモーションセンサと、ヘッドマウントディスプレイに表示すべき映像データを生成し、ヘッドマウントディスプレイに表示させる制御処理部と、を備える。
予め、ユーザが学習すべき動作を演ずる講師が、3次元コンピュータグラフィックスを用いてモデリングされ、動作ガイダンスデータとして準備されている。また、ユーザが動作と同期して学習すべき呼吸を記述する呼吸ガイダンスデータが準備されている。
制御処理部は、動作ゴールマーカ生成部、呼吸ゴールマーカ生成部、動作ユーザマーカ生成部、呼吸ユーザマーカ生成部を含む。動作ゴールマーカ生成部は、動作ガイダンスデータを受け、講師に対応する3次元オブジェクトをレンダリングし、ヘッドマウントディスプレイに動作ゴールマーカとして表示する。呼吸ゴールマーカ生成部は、呼吸ガイダンスデータにより記述される呼吸を可視化し、ヘッドマウントディスプレイに呼吸ゴールマーカとして表示する。動作ユーザマーカ生成部は、モーションデータにもとづき、ユーザをモデリングした3次元オブジェクトをレンダリングし、動作ゴールマーカと対比可能な態様にてヘッドマウントディスプレイに動作ユーザマーカとして表示する。呼吸ユーザマーカ生成部は、呼吸データにもとづきユーザの息を可視化し、呼吸ゴールマーカと対比可能な態様にてヘッドマウントディスプレイに呼吸ユーザマーカとして表示する。
An aspect of the present invention relates to a motion learning support apparatus that supports a user to learn a predetermined motion and breathing associated therewith. This motion learning support device includes a head mounted display that is worn on the user's head, a breath sensor that detects the amount of breath that the user exhales or inhales, and generates respiratory data, and a predetermined part of the user's body. A motion sensor that detects the movement of the user's body in response to the attached sensor and generates motion data describing the user's movement, and video data to be displayed on the head mounted display are generated and displayed on the head mounted display. A control processing unit.
An instructor who performs an operation to be learned by a user is modeled in advance using three-dimensional computer graphics and prepared as operation guidance data. In addition, respiration guidance data describing respiration that the user should learn in synchronization with the operation is prepared.
The control processing unit includes an action goal marker generation unit, a breathing goal marker generation unit, an action user marker generation unit, and a breathing user marker generation unit. The action goal marker generation unit receives the action guidance data, renders a three-dimensional object corresponding to the lecturer, and displays it as an action goal marker on the head mounted display. The breathing goal marker generating unit visualizes the breath described by the breathing guidance data and displays it as a breathing goal marker on the head mounted display. The motion user marker generation unit renders a three-dimensional object that models the user based on the motion data, and displays it as a motion user marker on the head mounted display in a manner that can be compared with the motion goal marker. The breathing user marker generation unit visualizes the user's breath based on the breathing data, and displays it as a breathing user marker on the head mounted display in a manner that can be compared with the breathing goal marker.
この態様によれば、ユーザは、自らの動作および呼吸を同時に効率的に学習することができる。 According to this aspect, the user can learn his / her movement and breathing efficiently at the same time.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を、方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 Note that any combination of the above-described components and the expression of the present invention converted between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.
本発明によれば、動作と呼吸を関連づけて学習することができる。 According to the present invention, it is possible to learn by associating movement and breathing.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. The embodiments do not limit the invention but are exemplifications, and all features and combinations thereof described in the embodiments are not necessarily essential to the invention.
実施の形態に係る動作学習支援装置100は、ユーザ2がある動作を学習するのを支援するシステムであり、たとえばダンス、ゴルフのスイング、バッティングフォーム、指揮者の指揮法、伝統舞踊をはじめとするさまざまな動作の学習に適用できる。以下の実施の形態では、舞踊を学習するシステムを例に説明するが、本発明は特にそれに限定されるものではない。
The motion
図1は、実施の形態に係る動作学習支援装置100の構成を示す図である。動作学習支援装置100は、呼吸センサ10、モーションセンサ20、HMD(ヘッドマウントディスプレイ)30、カメラ40、制御処理部50を備える。
FIG. 1 is a diagram illustrating a configuration of a motion
動作学習支援装置100について概説する。ユーザ2の頭部に取り付けられたHMD30には、ユーザ2が学習すべき動作を示す映像(動作ガイダンス映像)と、学習すべき呼吸を可視化した映像(呼吸ガイダンス映像)が表示される。ユーザ2は、そのガイダンスにしたがって体を動かし、呼吸を行う。ユーザ2の動作はモーションセンサ20によってキャプチャされ、ユーザ2をモデリングした画像(オブジェクト)が、HMD30にガイダンスともに表示される。ユーザ2は、自らをモデリングしたオブジェクトを、HMD30に表示されるガイダンスと近づけるように体を動かすことにより、動作を学習する。また、呼吸センサ10よってユーザ2の呼吸がキャプチャされ、キャプチャされた呼吸の強弱が可視化されて、HMD30に表示される。ユーザ2は、可視化された呼吸が、呼吸ガイダンス映像と一致するように呼吸を行うことにより、動作と同期した正確な呼吸を学習する仕組みとなっている。
The motion
呼吸センサ10は、ユーザ2の呼吸の強弱を測定するデバイスである。ユーザ2が呼吸センサ10を口に咥えた状態で呼吸をすると、呼吸センサ10内部に空気が吹き込まれ、あるいは空気が吸い出される。呼吸センサ10は、たとえばエアフローセンサと呼ばれるデバイスを用いて構成することができる。
The
図2は、図1の呼吸センサ10の第1の構成例を示す図である。呼吸センサ10は、筐体12、入力部14、流路16、呼吸測定部18を備える。
入力部14は、ストローのような管であり、内部に開口を有している。流路16は、その一端が入力部14の開口部と連通しており、他端が筐体12の外部と連通している。ユーザ2が入力部14を口3に加えた状態で呼吸をすることにより、流路16に息が吹き込まれ、あるいは空気が吸い出される。異なるユーザが呼吸センサ10を共有する際の衛生面を考慮し、入力部14はユーザごとに交換可能であることが好ましい。
FIG. 2 is a diagram illustrating a first configuration example of the
The
呼吸測定部18は、エアフローセンサ18a、マイコン18b、温度センサ18cを含む。エアフローセンサ18aは、流路16の経路上あるいはその終端部に設けられ、流路16内を通過する気体の流量を測定し、測定された流量を示す流量データDflwを出力する。なお、流量とは流速と同義であり、言い換えれば、ユーザ2が吐き出した息の量、あるいはユーザ2が吸い込んだ空気の量、さらに言い換えれば呼吸の強弱に対応する。たとえばエアフローセンサ18aとしては、市販されている芝浦電子製F6201−1が利用できる。マイコン18bは、エアフローセンサ18aと制御処理部50とのインタフェースユニットであり、流量データDflwを制御処理部50へと出力する。
The respiration measurement unit 18 includes an
温度センサ18cは、流路16を流通する空気の温度を検出し、検出した温度を示す温度データDtmpを出力する。温度データDtmpは制御処理部50へと入力される。温度センサ18cとしては例えば熱電対が利用できる。
The
図2の呼吸センサ10によれば、ユーザの口を介した呼吸の量および温度を測定することができる。図2の呼吸センサ10は、口呼吸が鼻呼吸よりも支配的であるような運動・動作の学習に好適である。
According to the
図3(a)、(b)は、図1の呼吸センサ10の第2の構成例を示す図である。図2の呼吸センサが、口を介しての呼吸を測定するのに適しているのに対して、図3(a)、(b)のセンサは、口および鼻を介しての呼吸を測定するのに適している。
FIGS. 3A and 3B are diagrams showing a second configuration example of the
図3(a)は、呼吸センサ10を外から見た図であり、図3(b)は、呼吸センサ10をユーザの顔と接触する側から見た図である。図3の呼吸センサ10は、筐体12、ストラップ13、呼吸測定部18を備える。筐体12は、ユーザの鼻および口を覆うカップ状のマスクである。ストラップ13は、筐体12に取り付けられており、ユーザの頭部や耳に引っかけることにより、筐体12をユーザの顔と固定せしめる。筐体12には開口部15が設けられており、ユーザが鼻もしくは口から吐き出した息は、開口部15を介して筐体12の外側に排出され、ユーザが鼻もしくは口から吸い込む空気は、開口部15を介して筐体12の内側に取り込まれる。なお、図2の流路16は、筐体12の内部全体に対応するものと捉えることができる。
3A is a view of the
図3(b)に示すように、ユーザが吐き出し、あるいは吸い込んだ空気(息)が流通する経路上には、呼吸測定部18を構成するエアフローセンサ18a、温度センサ18cが設けられる。マイコン18bは筐体12の外部に設けられる。なおエアフローセンサ18a、温度センサ18cの位置は、ユーザの呼吸の量および温度を測定するのに最適する箇所に設ければよく、図示される位置には限定されない。
As shown in FIG. 3B, an
図3(a)、(b)の呼吸センサ10によれば、鼻を介した呼吸と口を介した呼吸を測定することができる。
According to the
図3(a)、(b)の呼吸センサ10の変形例として、筐体12を2つの気室(不図示)に分割してもよい。具体的には、鼻に対応づけられる気室(鼻気室)と、口に対応づけられる気室(口気室)の2つである。そして、鼻気室と口気室それぞれに対して、開口部15および呼吸測定部18を設けてもよい。この変形例によれば、鼻呼吸の量、温度と、口呼吸の量、温度を、独立に測定することができ、ユーザが鼻から息を吸う、鼻から息を吐く、口から息を吸う、口から息を吐くという4つのアクションを検出、測定することができる。したがって、学習者が、鼻呼吸と口呼吸それぞれに対して別個に注意を払うべき運動、動作を学習するのに好適である。
As a modification of the
以上が呼吸センサ10の構成例である。続いて、その動作を説明する。
ユーザ2が、入力部14に対して息を吐き出すと、その息の流量が呼吸測定部18によって検出される。呼吸測定部18に用いられる一般的なエアフローセンサ18aは、指向性を有さず、その内部に流れる気体の流量の絶対値のみを検出するものであり、その方向までは判別できない場合が多い。ユーザ2が息を吐き出しているのか、あるいは吸い込んでいるのかを判定するために、温度センサ18cから出力される温度データDtmpを利用することができる。
The configuration example of the
When the user 2 exhales to the
一般的に人間が呼吸をする場合、はき出される息の温度T1と、吸い込まれる空気の温度T2は、総じて前者の方が高い。したがって、予め温度にしきい値を設定しておけば、温度データDtmpが所定のしきい値以上のとき、ユーザ2が息を吐き出しているものと判定し、しきい値以下のとき、息を吸い込んでいるものと判定することができる。 Generally, when a person breathes, the former breath temperature T1 and the sucked air temperature T2 are generally higher in the former. Therefore, if a threshold value is set in advance for the temperature, when the temperature data Dtmp is equal to or higher than the predetermined threshold value, it is determined that the user 2 is exhaling. It can be determined that
このように、図2もしくは図3の呼吸センサ10によれば、
1a. ユーザ2が息を吐き出すアクション
1b. ユーザ2が空気を吸い込むアクション
を判別できる。また、各アクションそれぞれにおいて、ユーザ2が息を吐く強さ、空気を吸い込む強さを検出することができる。以下、流量データDflwおよび温度データDtmpを総称して呼吸データDbrtという。
Thus, according to the
1a. Action that user 2 exhales 1b. The user 2 can determine the action of inhaling air. In each action, it is possible to detect the strength with which the user 2 exhales and the strength with which the air is inhaled. Hereinafter, the flow rate data Dflw and the temperature data Dtmp are collectively referred to as respiration data Dbrt.
なお、息が吐き出されているか、吸い込まれているかを判定するためには、以下の技術も有効である。
たとえば、指向性を有する2つのエアフローセンサを、その向きが反対となるように設け、一方により吐き出される息の強度を、他方により吸い込まれる息の強度を測定してもよい。
In order to determine whether breath is being exhaled or inhaled, the following technique is also effective.
For example, two airflow sensors having directivity may be provided so that their directions are opposite to each other, and the intensity of the breath exhaled by one and the intensity of the breath inhaled by the other may be measured.
あるいは流路16(図3では筐体12の内部)を2つの経路に分岐させ、一方の経路に、第1の指向性を有する逆止弁と無指向性の第1のエアフローセンサを、他方の経路に、第2の指向性(第1と反対)を有する逆止弁と無指向性の第2のエアフローセンサを設けてもよい。この構成によれば、第1のエアフローセンサによって、ユーザが吐き出す息の強度を、第2のエアフローセンサによってユーザが吸い込む息の強度を、それぞれ測定できる。
Alternatively, the flow path 16 (inside the
以上が呼吸センサ10の説明である。
The above is the description of the
図1に戻る。モーションセンサ20は、ユーザ2の動きを検出するデバイスである。モーションセンサ20は、複数の磁気センサ22a〜22e(磁気センサ22総称する)、磁気発生源(トランスミッタ)24、インタフェースユニット26を含む。磁気発生源24は、磁界を発生する。複数の磁気センサ22は、ユーザ2の可動部分に取り付けられる。磁気センサ22は、磁気発生源24が発生した磁気を受信する受信機である。磁気発生源24は、各磁気センサ22が受信した磁気にもとづいて、各磁気センサ22の位置(座標)、傾き、向きなどを取得する。モーションセンサ20は市販されるものを利用すればよい。磁界を利用したモーションセンサを利用する代わりに、あるいはそれに加えてジャイロセンサなどを利用したモーションセンサを利用することも可能である。
Returning to FIG. The
たとえば、磁気センサ22は、頭部(22a)、左右の腕(22b、22c)、左右の足(22d、22e)にそれぞれ取り付けられる。なお、磁気センサ22は、ユーザ2が学習すべき動作に関連する箇所にのみ取り付けられればよいため、上半身のみ、あるいは下半身のみに取り付けられてもよいし、さらに多くの部位に取り付けられてもよい。 For example, the magnetic sensor 22 is attached to the head (22a), the left and right arms (22b, 22c), and the left and right feet (22d, 22e), respectively. The magnetic sensor 22 only needs to be attached to a location related to the operation that the user 2 should learn. Therefore, the magnetic sensor 22 may be attached to only the upper body or the lower body, or may be attached to more parts. .
インタフェースユニット26、キャプチャしたユーザ2の動作に対応するデータ(以下、モーションデータという)Dmotを制御処理部50へと出力する。
The
カメラ40は、たとえばカメラ40の頭部、好ましくは目の付近に取り付けられ、ユーザの視点の先にある映像を撮影する。カメラ40によって撮影された映像は、視界データDvisとして制御処理部50へと出力される。
The
制御処理部50には、モーションデータDmot、呼吸データDbrt、視界データDvisが入力される。制御処理部50はこれらのデータにもとづき、HMD30に表示すべき映像を生成する。
Motion data Dmot, respiration data Dbrt, and visual field data Dvis are input to the
以上が動作学習支援装置100の全体構成である。
続いて、制御処理部50の構成およびその処理について説明する。図4は、図1のHMD30に表示される映像を示す図である。図5は、図4の映像を生成する制御処理部50の構成を示すブロック図である。
The above is the overall configuration of the motion learning
Next, the configuration and processing of the
図4に示すように、HMD30に表示される映像70は、動作に関する部分(動作表示領域)72と、呼吸に関する部分(呼吸表示領域)74を含む。2つの領域72、74は、互いに分離していてもよいし、オーバーラップして表示されてもよい。
As shown in FIG. 4, the
まず動作表示領域72について説明する。動作表示領域72には、講師オブジェクト80、動作ゴールマーカ82、動作ユーザマーカ84、背景86が描画される。動作表示領域72の描画には、一般的な3次元コンピュータグラフィックス(3DCG)技術が利用される。
First, the
ユーザが学習すべき動作を実行する教師(講師)は、予め3DCGを用いてモデリングされており、3次元オブジェクト(ポリゴン)の形態で電子化されている。動作表示領域72に描画される講師オブジェクト80は、このモデリングされたオブジェクトをレンダリングして描画したものである。
A teacher (instructor) who performs an operation to be learned by the user is modeled in advance using 3DCG, and is digitized in the form of a three-dimensional object (polygon). The
3次元オブジェクトである講師オブジェクト80をレンダリング処理する際の、カメラの座標(カメラ座標)、方向(カメラ方向)は、現実のユーザ2の視点の位置、視線方向と連動して変化する。つまりユーザ2が後ろに後退すれば、レンダリングのカメラの位置も後退するため、あたかも講師オブジェクト80との距離が遠ざかったかのように描画される。また、ユーザ2が左右に動けば、それと連動してレンダリング用のカメラの座標が移動し、斜め方向から見た講師オブジェクト80が表示されることになる。なおレンダリング用のカメラの画角(ビューボリウム)は、固定されていてもよいし、任意に調節可能であってもよい。これによりユーザ2は、仮想的な教師(講師オブジェクト80)を任意の方向から見ることが可能となる。
When rendering the
レンダリングされた講師オブジェクト80は、背景86に重ね合わせて表示される。背景86は、図1のカメラ40によって撮影された画像が利用することが好ましい。この場合、ユーザ2の視線の先に、あたかも仮想的な講師が存在するかのような臨場感をもたらすことになる。これはMR(Mixed Reality)と称される技術を利用すればよい。
The rendered
なお、背景86としては、カメラ40によって撮影された映像に代えて、予め用意された2次元の画像データを利用してもよい。あるいは、予めモデリングされた3次元仮想空間を、レンダリングすることで背景を描画してもよい。
Note that as the
動作ユーザマーカ84は、ユーザ2の視線から、ユーザ自身を描画したものである。動作ユーザマーカ84は、ユーザをモデリングした3次元オブジェクトをレンダリングすることにより生成される。動作ユーザマーカ84の腕や足などの所定の箇所の位置(座標)は、モーションセンサ20によって取得されたモーションデータDmotと連動している。たとえばユーザ2が右腕を上げると、磁気センサ22bの位置が高くなり、モーションデータDmotがその動作に応じた値となる。その結果、レンダリングされる動作ユーザマーカ84の右腕も、ユーザ2の現実の動作と連動して持ち上げられる。
The
HMD映像70には、講師オブジェクト80に加えて、動作ゴールマーカ82が描画される。動作ゴールマーカ82は、講師オブジェクト80のモデルを動作ユーザマーカ84に重ね合わせてレンダリングしたものである。つまり、講師オブジェクト80と動作ゴールマーカ82は、同じ3次元オブジェクト(ポリゴン)を異なるカメラ座標、カメラ方向によってレンダリングしたものであり、その動作は互いに連動している。
In addition to the
動作ゴールマーカ82および動作ユーザマーカ84は、半透明で描画することが望ましい。半透明のオブジェクトの描画は、透過度情報(α値)を利用したアルファブレンディングと称される手法を用いて実現可能である。動作ゴールマーカ82および動作ユーザマーカ84は、スケルトンマーカと総称される。
The
動作ゴールマーカ82、動作ユーザマーカ84を半透明でレンダリングすれば、レンダリングする際に、動作ゴールマーカ82と動作ユーザマーカ84の前後関係を考慮する必要がなくなるため、Zバッファ法などを用いた陰影処理が不要となり、演算コストを下げることができ、ひいては、高速かつ滑らかなアニメーション描画が可能となる。
If the
動作ゴールマーカ82および動作ユーザマーカ84は、互いに対比可能な態様にてHMD30に表示される。ユーザ2は、HMD30に描画される講師オブジェクト80を模して、動作ユーザマーカ84が動作ゴールマーカ82と一致するように、手足を動かすことにより、動作を学習することができる。
The
続いて、図4の呼吸表示領域74について説明する。呼吸表示領域74には、呼吸ゴールマーカ92および呼吸ユーザマーカ94が表示される。呼吸ゴールマーカ92は、ユーザ2が行うべき呼吸の向き(吸う、吐く)ならびに強弱を示す情報であり、呼吸を可視化したものである。たとえば呼吸ゴールマーカ92は、横軸に時間を、縦軸に呼吸の強弱をとった波形として示される。正方向が吐く息を、負方向が吸う息に対応してもよい。
Next, the
カーソル96は、現時刻においてユーザ2が行うべき呼吸を示している。時々刻々と変化する呼吸を表示するためには、たとえばカーソル96の位置を固定しておき、呼吸ゴールマーカ92の波形を左方向にスクロールしてもよいし、反対に、呼吸ゴールマーカ92の波形を固定しておき、カーソル96を横軸に沿って移動してもよい。あるいは、一般的なカラオケでは、現在歌うべき歌詞の位置を示すために歌詞が色分けして表示されるが、実施の形態に係る動作学習支援装置100おいても、呼吸ゴールマーカ92の波形を色分けすることで、現在の目標とすべき呼吸量をユーザに知覚させてもよい。
The
呼吸ゴールマーカ92および呼吸ユーザマーカ94は、互いに対比可能な態様にてHMD30に表示される。ユーザ2は、呼吸ゴールマーカ92に習って呼吸を行う。ユーザ2の呼吸は呼吸センサ10によって取得される。取得された呼吸を示す波形は、呼吸ユーザマーカ94(点線)として呼吸表示領域74に表示される。当然ながら、呼吸ユーザマーカ94は過去の情報のみを含んでいることから、カーソル96よりも左側(過去の領域)にのみ表示される。ユーザ2は、呼吸ユーザマーカ94が呼吸ゴールマーカ92と一致するように呼吸の向き(吸い込む、吐き出す)およびその強弱を調節する。その結果、動作と同期した呼吸法を学習することができる。
The
なお上述したように、口呼吸と鼻呼吸を独立して測定可能な呼吸センサ10を用いる場合には、動作表示領域72には、口呼吸に関するゴールマーカ、ユーザマーカと、鼻呼吸に関するゴールマーカ、ユーザマーカを併せて表示することが好ましい。
As described above, when the
上述したように、動作と呼吸は互いに密接な関連を有していることから、動作と呼吸を同時並列的に学習することは大きな相乗効果を生み、それらを個別に学習する場合に比べて短期間で動作を習得することが可能となる。 As described above, since movement and breathing are closely related to each other, learning movement and breathing simultaneously in parallel produces a great synergistic effect, compared to a case where they are learned individually. It becomes possible to learn the operation between them.
なお、呼吸表示領域74の表示態様は図4のそれに限定されない。たとえば、現在のユーザ2の呼吸の向きおよび強さを示すインジケータ(呼吸ユーザマーカ94)と、現在、ユーザ2が行うべき呼吸の向きおよび強さを示すインジケータ(呼吸ゴールマーカ92)を、並べて表示してもよい。
The display mode of the
図5を参照し、HMD映像70を生成する制御処理部50の構成を説明する。
制御処理部50は、記憶部52、信号処理部54、表示処理部56を備える。制御処理部50は、汎用的なワークステーションやパーソナルコンピュータ、ゲーム機器を利用してもよいし、動作学習支援装置100用に専用設計された電子計算機であってもよい。図5に示される制御処理部50を構成する各ブロックは、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
The configuration of the
The
記憶部52は、ハードディスク、光ディスクやメモリなどの、データやプログラムを格納するデバイスあるいは手段である。記憶部52には、ユーザ2が学習すべき動作および呼吸を記録したガイダンスデータGDが格納されている。ガイダンスデータGDは、具体的には、動作を示すデータ(動作ガイダンスデータGDM)と、呼吸を示すデータ(呼吸ガイダンスデータGDB)を含んでいる。動作データは、図4の講師オブジェクト80および動作ゴールマーカ82のもととなる3次元オブジェクト(ポリゴンデータ)ならびにそのアニメーションを記述するデータを含む。後者は、各時刻における呼吸の向きおよび強弱を示すデータである。ガイダンスデータGDを記憶部52に格納する代わりに、ネットワークを介して受信する形態であっても構わない。
The
信号処理部54は、たとえばCPUやグラフィックスプロセッサおよびそれらを制御するプログラムによって具現化されるいくつかの機能を含む。信号処理部54は、動作ゴールマーカ生成部60、呼吸ゴールマーカ生成部62、動作ユーザマーカ生成部64、呼吸ユーザマーカ生成部66、背景画像生成部68、画像合成部69を含む。
The
動作ゴールマーカ生成部60は、動作ガイダンスデータGDMにもとづき、図4のHMD映像70(動作表示領域72)に表示すべき講師オブジェクト80および動作ゴールマーカ82の画像データを生成する。
The motion goal
呼吸ゴールマーカ生成部62は、呼吸ガイダンスデータGDBにもとづき、図4のHMD映像70(呼吸表示領域74)に表示すべき呼吸ゴールマーカ92の画像データを生成する。
The breathing goal
動作ユーザマーカ生成部64は、モーションセンサ20によって取得されたモーションデータDmotを受け、図4のHMD映像70(動作表示領域72)に表示すべき動作ユーザマーカ84の画像データを生成する。
The motion user
背景画像生成部68は、カメラ40によって撮影された視界データDvisを受け、図4のHMD映像70(動作表示領域72)に表示すべき背景86の画像データを生成する。
The background
画像合成部69は、動作ゴールマーカ生成部60、呼吸ゴールマーカ生成部62、動作ユーザマーカ生成部64、呼吸ユーザマーカ生成部66、背景画像生成部68、画像合成部69が生成した各画像データを合成し、図4のHMD映像70の画像データを生成する。表示処理部56は、画像合成部69が生成したHMD映像70の画像データをHMD30へと出力する。
The
以上の構成により、HMD30に動作および呼吸の効率的な学習に役立つ映像を表示できる。
With the above configuration, an image useful for efficient learning of movement and breathing can be displayed on the
さらに制御処理部50は、ユーザ2の動作をレコーディングする機能を備える。記録再生部58は、モーションセンサ20が取得したモーションデータDmotと呼吸センサ10が取得した呼吸データDbrtを、記憶部52に記録データRDとして保存し、また記録データRDを読み出す。つまり制御処理部50は、記録データRDを再生する機能を備えている。具体的には、動作ユーザマーカ生成部64は、モーションセンサ20からのリアルタイムのモーションデータDmotに代えて、記録再生部58が記憶部52から読み出した記録データRDに含まれるモーションデータDmotを利用して、動作ユーザマーカ84を再生する。同様に呼吸ユーザマーカ生成部66は、呼吸センサ10からのリアルタイムの呼吸データDbrtに代えて、記録再生部58が読み出した記録データRDに含まれる呼吸データDbrtを利用して呼吸ユーザマーカ94を再生する。再生時には、スロー再生、早送り、巻き戻しなども可能となっている。
Further, the
この再生機能により、ユーザ2は、先に行った学習動作を事後的に再生することができる。なお、再生時の3DCGレンダリングの際のカメラ座標やカメラの向きなどは、ユーザ2が自由に設定可能である。これにより、ユーザ2は、第3者的な視点から自らの姿勢および動作を見ることができ、学習の効率を高めることができる。また、過去の自分の動作および呼吸を記録しておくことにより、ユーザ2は自らの成長を実感することができる。図6は、記録データRDの再生時のディスプレイの表示画面を示す図である。図6に示すように、講師オブジェクト80と動作ユーザマーカ84は、別々に表示してもよいし、あるいはオーバーラップして表示させることも可能である。また、図6には示されないが、呼吸ユーザマーカ94と呼吸ゴールマーカ92を併せて、あるいは単独で表示してもよい。なお、図6に示す学習確認用の画面は、HMD30に表示してもよいし、別途も受けられた一般的なディスプレイ装置に表示してもよい。
With this reproduction function, the user 2 can reproduce the learning operation performed earlier afterwards. Note that the user 2 can freely set camera coordinates, camera orientation, and the like during 3DCG rendering during playback. Thereby, the user 2 can see his / her posture and action from a third-party viewpoint, and can improve the efficiency of learning. In addition, by recording past actions and breathing, the user 2 can feel his own growth. FIG. 6 is a diagram showing a display screen on the display when the recording data RD is reproduced. As shown in FIG. 6, the
さらに制御処理部50は、ユーザ2に対して、アドバイスを与える機能を備えている。アドバイス処理部59は、動作ガイダンスデータGDM、呼吸ガイダンスデータGDBと、モーションデータDmotと、呼吸データDbrtを受ける。
ユーザ2が動作および呼吸を学習する最中において、アドバイス処理部59は、モーションセンサ20が取得したモーションデータDmotが示す各磁気センサ22の座標、つまり体の各部位の座標を、動作ガイダンスデータGDMが示す部位の正しい座標とを比較し、その差分に応じたアドバイスを示すデータを生成する。同様にアドバイス処理部59は、呼吸センサ10が取得した呼吸データDbrtを呼吸ガイダンスデータGDBが示す正しい呼吸と比較し、その差分に応じたアドバイスを示すデータを生成する。動作および呼吸に関するアドバイスを示すデータは、たとえば「右手をもっと前に」、「強く息を吐いて」などのテキスト形式であり、画像合成部69は、図4のHMD映像70に設けられたアドバイス表示領域76にアドバイスを示す情報を提示する。
Furthermore, the
While the user 2 learns motion and breathing, the
ユーザ2が記録データRDを再生する際には、アドバイス処理部59は、記録データRDに含まれるモーションデータDmotが示す各磁気センサ22の座標、つまり体の各部位の座標を、動作ガイダンスデータGDMが示す部位の正しい座標とを比較し、その差分に応じたアドバイスを示すデータを生成する。同様にアドバイス処理部59は、記録データRDに含まれる呼吸データDbrtを、呼吸ガイダンスデータGDBが示す正しい呼吸と比較し、その差分に応じたアドバイスを示すデータを生成する。図6に示すように、再生時の表示画面にもアドバイス表示領域76が設けられており、アドバイスを示すテキスト情報が提示される。さらに、アドバイス処理部59は、アドバイスの対象となる体の部位を示すマークの画像データ(アドバイスマーカ)85を生成してもよい。アドバイスマーカ85を表示することで、ユーザ2は、視覚的に自らの動作の問題点を把握でき、それを矯正することができる。
When the user 2 reproduces the recording data RD, the
以上、実施の形態を説明した。実施の形態は例示であり、さまざまな変形例が可能であり、そうした変形例も本発明に含まれることは当業者に理解されるところである。 The embodiment has been described above. The embodiments are exemplifications, and various modifications are possible, and those skilled in the art will understand that such modifications are also included in the present invention.
2…ユーザ、100…動作学習支援装置、10…呼吸センサ、12…筐体、13…ストラップ、14…入力部、15…開口部、16…流路、18…呼吸測定部、18a…エアフローセンサ、18b…マイコン、18c…温度センサ、20…モーションセンサ、22…磁気センサ、24…磁気発生源、26…インタフェースユニット、30…HMD、40…カメラ、50…コンピュータ、52…記憶部、54…信号処理部、56…表示処理部、58…記録再生部、59…アドバイス処理部、60…動作ゴールマーカ生成部、62…呼吸ゴールマーカ生成部、64…動作ユーザマーカ生成部、66…呼吸ユーザマーカ生成部、68…背景画像生成部、69…画像合成部、GD…ガイダンスデータ、GDM…動作ガイダンスデータ、GDB…呼吸ガイダンスデータ、70…HMD映像、72…動作表示領域、74…呼吸表示領域、80…講師オブジェクト、82…動作ゴールマーカ、84…動作ユーザマーカ、86…背景、92…呼吸ゴールマーカ、94…呼吸ユーザマーカ、96…カーソル。
DESCRIPTION OF SYMBOLS 2 ... User, 100 ... Motion learning support apparatus, 10 ... Respiration sensor, 12 ... Housing | casing, 13 ... Strap, 14 ... Input part, 15 ... Opening part, 16 ... Flow path, 18 ... Respiration measurement part, 18a ... Airflow sensor , 18b ... microcomputer, 18c ... temperature sensor, 20 ... motion sensor, 22 ... magnetic sensor, 24 ... magnetic source, 26 ... interface unit, 30 ... HMD, 40 ... camera, 50 ... computer, 52 ... storage unit, 54 ...
Claims (4)
前記ユーザの頭部に装着されるヘッドマウントディスプレイと、
前記ユーザが吐き出し、あるいは吸い込む息の量を検出し、呼吸データを生成する呼吸センサと、
前記ユーザの体の所定の箇所に取り付けられるセンサに応答して前記ユーザの体の動きを検出し、前記ユーザの動きを記述するモーションデータを生成するモーションセンサと、
前記ヘッドマウントディスプレイに表示すべき映像データを生成し、前記ヘッドマウントディスプレイに表示させる制御処理部と、
を備え、
前記制御処理部は、
前記ユーザが学習すべき動作を演ずる講師を3次元コンピュータグラフィックスを用いてモデリングして生成された動作ガイダンスデータを受け、前記講師に対応する3次元オブジェクトをレンダリングし、前記ヘッドマウントディスプレイに動作ゴールマーカとして表示する動作ゴールマーカ生成部と、
前記ユーザが学習すべき呼吸を記述する呼吸ガイダンスデータを受け、前記呼吸ガイダンスデータにより記述される呼吸を可視化し、前記ヘッドマウントディスプレイに呼吸ゴールマーカとして表示する呼吸ゴールマーカ生成部と、
前記モーションデータにもとづき、前記ユーザをモデリングした3次元オブジェクトをレンダリングし、前記動作ゴールマーカと対比可能な態様にて前記ヘッドマウントディスプレイに動作ユーザマーカとして表示する動作ユーザマーカ生成部と、
前記呼吸データにもとづき前記ユーザの息を可視化し、前記呼吸ゴールマーカと対比可能な態様にて前記ヘッドマウントディスプレイに呼吸ユーザマーカとして表示する呼吸ユーザマーカ生成部と、
を含むことを特徴とする動作学習支援装置。 An action learning support device for supporting a user to learn a predetermined action and breathing associated therewith,
A head-mounted display worn on the user's head;
A respiration sensor that detects the amount of breath that the user exhales or inhales and generates respiration data;
A motion sensor that detects motion of the user's body in response to a sensor attached to a predetermined location of the user's body and generates motion data describing the user's motion;
A control processing unit for generating video data to be displayed on the head mounted display and displaying the data on the head mounted display;
With
The control processing unit
The operation guidance data generated by modeling the instructor performing the operation to be learned by the user using 3D computer graphics is received, the 3D object corresponding to the instructor is rendered, and the operation goal is displayed on the head mounted display. An action goal marker generator to be displayed as a marker;
A breathing goal marker generating unit that receives breathing guidance data describing breathing to be learned by the user, visualizes breathing described by the breathing guidance data, and displays the breathing goal marker on the head-mounted display;
Based on the motion data, a three-dimensional object that models the user is rendered, and an operation user marker generation unit that displays as an operation user marker on the head-mounted display in a manner that can be compared with the operation goal marker;
A breathing user marker generating unit that visualizes the breath of the user based on the breathing data and displays it as a breathing user marker on the head-mounted display in a manner comparable to the breathing goal marker;
A motion learning support apparatus comprising:
前記モーションデータおよび前記呼吸データを記録する記憶部をさらに含み、
前記動作ユーザマーカ生成部は、前記記憶部に記録された前記モーションデータにもとづき、前記動作ユーザマーカを生成可能であり、前記呼吸ユーザマーカ生成部は、前記記憶部に記録された前記呼吸データにもとづき、前記呼吸ユーザマーカを生成可能であることを特徴とする請求項1に記載の動作学習支援装置。 The control processing unit
A storage unit for recording the motion data and the respiration data;
The operation user marker generation unit can generate the operation user marker based on the motion data recorded in the storage unit, and the respiration user marker generation unit adds the respiration data recorded in the storage unit to the respiration data. The motion learning support apparatus according to claim 1, wherein the breathing user marker can be generated on the basis.
前記制御処理部は、前記カメラが撮影した映像を、前記ヘッドマウントディスプレイに表示される映像の背景として合成することを特徴とする請求項1から3のいずれかに記載の動作学習支援装置。 The camera further includes a camera that captures the user's line-of-sight direction,
4. The motion learning support apparatus according to claim 1, wherein the control processing unit synthesizes an image captured by the camera as a background of an image displayed on the head mounted display. 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009092757A JP2010240185A (en) | 2009-04-07 | 2009-04-07 | Apparatus for supporting motion learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009092757A JP2010240185A (en) | 2009-04-07 | 2009-04-07 | Apparatus for supporting motion learning |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010240185A true JP2010240185A (en) | 2010-10-28 |
Family
ID=43093953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009092757A Pending JP2010240185A (en) | 2009-04-07 | 2009-04-07 | Apparatus for supporting motion learning |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010240185A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013161662A1 (en) * | 2012-04-23 | 2013-10-31 | 独立行政法人科学技術振興機構 | Motion guide presentation method and system therefor, and motion guide presentation device |
WO2014188517A1 (en) * | 2013-05-21 | 2014-11-27 | Okada Tamotsu | Breath control mouthpiece |
CN105759953A (en) * | 2015-01-05 | 2016-07-13 | 索尼公司 | Information processing device, information processing method, and program |
WO2017094356A1 (en) * | 2015-12-01 | 2017-06-08 | シャープ株式会社 | Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium |
US9720230B2 (en) | 2014-06-06 | 2017-08-01 | Seiko Epson Corporation | Head mounted display, detection device, control method for head mounted display, and computer program |
JP2018195172A (en) * | 2017-05-19 | 2018-12-06 | 株式会社コロプラ | Information processing method, information processing program, and information processing device |
JP2019091510A (en) * | 2017-05-19 | 2019-06-13 | 株式会社コロプラ | Information processing method, information processing program, and information processing device |
JP2020047239A (en) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | Tracking system and tracking method |
CN112704852A (en) * | 2020-12-24 | 2021-04-27 | 毕晓杰 | Department of respiration breathing rehabilitation training device suitable for different size heads |
-
2009
- 2009-04-07 JP JP2009092757A patent/JP2010240185A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013161662A1 (en) * | 2012-04-23 | 2015-12-24 | 国立研究開発法人科学技術振興機構 | Motion guide presentation method, system thereof, and motion guide presentation device |
US9910488B2 (en) | 2012-04-23 | 2018-03-06 | Japan Science And Technology Agency | Motion guide presentation method and system therefor, and motion guide presentation device |
WO2013161662A1 (en) * | 2012-04-23 | 2013-10-31 | 独立行政法人科学技術振興機構 | Motion guide presentation method and system therefor, and motion guide presentation device |
WO2014188517A1 (en) * | 2013-05-21 | 2014-11-27 | Okada Tamotsu | Breath control mouthpiece |
JPWO2014188517A1 (en) * | 2013-05-21 | 2017-02-23 | 岡田 保 | Respiratory control mouthpiece |
US9720230B2 (en) | 2014-06-06 | 2017-08-01 | Seiko Epson Corporation | Head mounted display, detection device, control method for head mounted display, and computer program |
US10162408B2 (en) | 2014-06-06 | 2018-12-25 | Seiko Epson Corporation | Head mounted display, detection device, control method for head mounted display, and computer program |
JPWO2016111067A1 (en) * | 2015-01-05 | 2017-10-12 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2016111067A1 (en) * | 2015-01-05 | 2016-07-14 | ソニー株式会社 | Information processing device, information processing method, and program |
CN105759953A (en) * | 2015-01-05 | 2016-07-13 | 索尼公司 | Information processing device, information processing method, and program |
CN105759953B (en) * | 2015-01-05 | 2020-04-21 | 索尼公司 | Information processing apparatus, information processing method, and program |
WO2017094356A1 (en) * | 2015-12-01 | 2017-06-08 | シャープ株式会社 | Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium |
JP2018195172A (en) * | 2017-05-19 | 2018-12-06 | 株式会社コロプラ | Information processing method, information processing program, and information processing device |
JP2019091510A (en) * | 2017-05-19 | 2019-06-13 | 株式会社コロプラ | Information processing method, information processing program, and information processing device |
JP2020047239A (en) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | Tracking system and tracking method |
US10817047B2 (en) | 2018-09-19 | 2020-10-27 | XRSpace CO., LTD. | Tracking system and tacking method using the same |
CN112704852A (en) * | 2020-12-24 | 2021-04-27 | 毕晓杰 | Department of respiration breathing rehabilitation training device suitable for different size heads |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010240185A (en) | Apparatus for supporting motion learning | |
KR101056406B1 (en) | Game device, game processing method and information recording medium | |
JP6938542B2 (en) | Methods and program products for articulated tracking that combine embedded and external sensors | |
US8786698B2 (en) | Blow tracking user interface system and method | |
US20170221379A1 (en) | Information terminal, motion evaluating system, motion evaluating method, and recording medium | |
Casas et al. | A kinect-based augmented reality system for individuals with autism spectrum disorders | |
TWI377055B (en) | Interactive rehabilitation method and system for upper and lower extremities | |
JP5806469B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
KR101036429B1 (en) | Apparatus and method for cyber training of martial art and the recording medium | |
KR101979750B1 (en) | Dance training contents authoring system | |
Hachimura et al. | A prototype dance training support system with motion capture and mixed reality technologies | |
JP2009543619A (en) | System for displaying the virtual environment | |
US9053641B2 (en) | Real-time X-ray vision for healthcare simulation | |
WO2007069751A1 (en) | Memory test device, judgment test device, comparison test device, coordination training device, and working memory training device | |
US11682157B2 (en) | Motion-based online interactive platform | |
JP5325265B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
Tisserand et al. | Preservation and gamification of traditional sports | |
JPH07250919A (en) | Cycling simulation system | |
KR20210127860A (en) | Virtual Reality (VR) Martial Arts Training System | |
CN114303142A (en) | Image generation device | |
JP2002032788A (en) | Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon | |
JP6398938B2 (en) | Projection control apparatus and program | |
KR102433084B1 (en) | Player emotion analysis method for virtual reality game, player emotion-based virtual reality service management method and virtual reality system | |
WO2023026529A1 (en) | Information processing device, information processing method, and program | |
Barbulescu et al. | A system for creating virtual reality content from make-believe games |