JP6819036B2 - Virtual reality system - Google Patents

Virtual reality system Download PDF

Info

Publication number
JP6819036B2
JP6819036B2 JP2015237791A JP2015237791A JP6819036B2 JP 6819036 B2 JP6819036 B2 JP 6819036B2 JP 2015237791 A JP2015237791 A JP 2015237791A JP 2015237791 A JP2015237791 A JP 2015237791A JP 6819036 B2 JP6819036 B2 JP 6819036B2
Authority
JP
Japan
Prior art keywords
vehicle
movement
user
reality system
sensation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015237791A
Other languages
Japanese (ja)
Other versions
JP2017102401A (en
Inventor
亮 小玉
亮 小玉
吉紘 大濱
吉紘 大濱
裕之 梶本
裕之 梶本
昌裕 高下
昌裕 高下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2015237791A priority Critical patent/JP6819036B2/en
Publication of JP2017102401A publication Critical patent/JP2017102401A/en
Application granted granted Critical
Publication of JP6819036B2 publication Critical patent/JP6819036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、バーチャルリアリティシステムに関する。 The present invention relates to a virtual reality system.

テーマパーク等の施設に設置された体感型エンタテイメントシステムにおいては、映像と移動感覚とを同時に提示することにより、バーチャル空間の臨場感を高めたバーチャルリアリティ(VR)コンテンツが提供されている。移動感覚の提示には、ユーザが着座することができるモーション・プラットフォーム(MP)が用いられている。MPは、上下方向、左右方向、前後方向など、種々の方向の移動感覚をユーザに提示する。従来のMPは、巨大な運動機構であり、場所を取り、高価で、容易には運搬できない。このため、施設に設置して使用されるのが一般的であった。 In a hands-on entertainment system installed in a facility such as a theme park, virtual reality (VR) content that enhances the realism of a virtual space is provided by simultaneously presenting an image and a sense of movement. A motion platform (MP) that allows the user to sit down is used to present the sense of movement. The MP presents the user with a sense of movement in various directions such as a vertical direction, a horizontal direction, and a front-back direction. Conventional MPs are huge motion mechanisms, take up space, are expensive, and cannot be easily transported. For this reason, it was generally installed and used in facilities.

一方、近年、映像を提示する映像提示装置については、高機能で且つ低価格のヘッド・マウント・ディスプレイ(HMD)が市場に投入されており、高品質な3D映像を個人的に視聴できる。これに伴い、臨場感のあるVRコンテンツを家庭で楽しむために、手軽に利用できるMPが必要とされるようになった。 On the other hand, in recent years, a high-performance and low-priced head-mounted display (HMD) has been put on the market as a video presentation device for presenting a video, and a high-quality 3D video can be viewed personally. Along with this, in order to enjoy VR contents with a sense of reality at home, an MP that can be easily used has come to be required.

VRコンテンツの提供に車両が利用される例はある。例えば、カストロール社の「エッジ・バーチャルドリフト」では、走行中の車両の運動をGPSや車速計などから取得し、それに合わせてバーチャルなサーキット映像を生成する。HMDを装着して車両を走行させながらサーキット映像を見ることで、バーチャル空間を爆走する体験をする(非特許文献1)。日本自動車研究所の「JARI-ARV(拡張現実実験車)」では、ドライバの視界を覆い隠すようにボンネット上にディスプレイを配置した実験車で、バーチャル映像を見ながら走行することにより、ドライビング・シミュレーションを行う(非特許文献2)。 There are examples of vehicles being used to provide VR content. For example, Castrol's "Edge Virtual Drift" acquires the motion of a moving vehicle from GPS, a vehicle speed meter, etc., and generates a virtual circuit image accordingly. By wearing an HMD and watching a circuit image while driving a vehicle, you can experience exploding in a virtual space (Non-Patent Document 1). The "JARI-ARV (Augmented Reality Experimental Vehicle)" of the Japan Automobile Research Institute is an experimental vehicle in which a display is placed on the hood so as to cover the driver's view, and driving simulation is performed by driving while watching virtual images. (Non-Patent Document 2).

三菱自動車社の「星空ドライブ」では、静止した車内で星空を見ながらドライブしているバーチャル映像を見る(非特許文献3)。プロトタイプ社の「Jumpstart eXstream」では、HMDを装着して固定されたバイクに跨り、バーチャル空間の荒野を疾走する映像を見る。バイクは固定されているが、タイヤは空転してエンジン振動を体感できる。また、ファンにより風を当てることで移動感覚が提示される(非特許文献4)。 In "Starry Sky Drive" of Mitsubishi Motors, you can see a virtual image of driving while looking at the starry sky in a stationary car (Non-Patent Document 3). At Prototype's "Jump start eXstream", you can watch a video of running through the wilderness of virtual space, straddling a fixed motorcycle with an HMD attached. The bike is fixed, but the tires spin and you can feel the engine vibration. In addition, a feeling of movement is presented by blowing wind from a fan (Non-Patent Document 4).

Audi Singapore社の「A Drive Back in Time」では、後部座席でHMDを装着すると、昔のシンガポールの街並みが見える。昔の町をドライブする体験であり、走行車両の位置座標に応じてバーチャル映像を表示する(非特許文献5)。ホンダ社の「Dream Drive」では、後部座席でHMDを装着すると、様々なバーチャル空間の映像が楽しめる。車両の移動に合わせて、移動状態に応じたバーチャル映像が表示される(非特許文献6)。 At Audi Singapore's "A Drive Back in Time," you can see the old Singapore cityscape by wearing an HMD in the back seat. It is an experience of driving in an old town, and a virtual image is displayed according to the position coordinates of a traveling vehicle (Non-Patent Document 5). With Honda's "Dream Drive", you can enjoy various virtual space images by installing the HMD in the back seat. A virtual image corresponding to the moving state is displayed according to the movement of the vehicle (Non-Patent Document 6).

発明者等は、VRコンテンツを提供するバーチャルリアリティシステムに車両が利用される形態を、パッシブ型、アクティブ型、バーチャル・ドライブ型の3種類に分類した。パッシブ型は、乗用車が加速すれば提示されるコンテンツ内部でも加速するというように、乗用車の運転に合わせたコンテンツを提示する形態である。アクティブ型は、提示するコンテンツに合わせて乗用車を自動運転により駆動することで移動感覚等を提示し、コンテンツの臨場感を向上させる形態である。バーチャル・ドライブ型は、運転手がHMDを装着し、バーチャル空間の映像を提示された状態で、実空間にて実際に乗用車の走行を行う形態である。 The inventors have classified the forms in which the vehicle is used in the virtual reality system that provides VR contents into three types: passive type, active type, and virtual drive type. The passive type is a form in which content that matches the driving of the passenger car is presented, such that if the passenger car accelerates, the content that is presented also accelerates. The active type is a form in which a passenger car is driven by automatic driving according to the content to be presented to present a sense of movement and the like to improve the presence of the content. The virtual drive type is a form in which the driver actually wears the HMD and actually runs the passenger car in the real space while the image of the virtual space is presented.

非特許文献3、4に記載の技術は、車両をMPとして使用していない。また、非特許文献1、2、5、6に記載の技術は、パッシブ型かバーチャル・ドライブ型のいずれかに該当する。即ち、車両走行に合せて映像提示を行っているに過ぎない。従って、バーチャルリアリティシステムにおいては、映像提示に合わせて移動感覚を提示するアクティブ型の形態で車両がMPとして利用される技術は従来存在しなかった。 The techniques described in Non-Patent Documents 3 and 4 do not use the vehicle as an MP. Further, the techniques described in Non-Patent Documents 1, 2, 5 and 6 correspond to either a passive type or a virtual drive type. That is, the image is only presented according to the running of the vehicle. Therefore, in the virtual reality system, there has been no technology in which a vehicle is used as an MP in an active form that presents a sense of movement in accordance with video presentation.

http://www.castrol.com/ja_jp/japan/products/cars/engine-oils/castrol-edge/edge-virtual-drift.htmlhttp://www.castrol.com/ja_jp/japan/products/cars/engine-oils/castrol-edge/edge-virtual-drift.html http://www.jari.or.jp/tabid/139/Default.aspxhttp://www.jari.or.jp/tabid/139/Default.aspx http://www.mitsubishi-motors.com/jp/events/star/event/outline201410.htmlhttp://www.mitsubishi-motors.com/jp/events/star/event/outline201410.html http://proto-type.jp/portfolio/jumpstart-extream/http://proto-type.jp/portfolio/jumpstart-extream/ https://www.youtube.com/watch?v=4KG1ub4g_EA&feature=youtu.behttps://www.youtube.com/watch?v=4KG1ub4g_EA&feature=youtu.be http://itpro.nikkeibp.co.jp/atcl/idg/14/481542/072800139/http://itpro.nikkeibp.co.jp/atcl/idg/14/481542/072800139/

本発明は上記事情に鑑みなされたものであり、本発明の目的は、車両をモーション・プラットフォームとして利用して、ユーザに対して映像情報に応じた感覚又は運動を提示することができるバーチャルリアリティシステムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is a virtual reality system capable of presenting a sensation or movement according to video information to a user by using a vehicle as a motion platform. Is to provide.

上記目的を達成するために本発明のバーチャルリアリティシステムは、車両をモーション・プラットフォームとするバーチャルリアリティシステムにおいて、バーチャル空間を表す映像情報に基づいてユーザに映像を提示する映像提示手段と、前記バーチャル空間を表す映像情報に応じた感覚又は運動を提示するように、前記車両を移動させた後に停止させ、前記車両を元の位置に戻す駆動パターンで前記車両の加減速を制御する制御手段と、を備えたバーチャルリアリティシステムである。 In order to achieve the above object, the virtual reality system of the present invention is a virtual reality system using a vehicle as a motion platform, in which an image presenting means for presenting an image to a user based on image information representing a virtual space and the virtual space. A control means for controlling acceleration / deceleration of the vehicle by a drive pattern in which the vehicle is moved and then stopped and the vehicle is returned to the original position so as to present a sensation or movement corresponding to the video information representing the above. It is a virtual reality system equipped.

本発明のバーチャルリアリティシステムによれば、車両をモーション・プラットフォームとして利用して、車両の加減速により、ユーザに対して映像情報に応じた感覚又は運動を提示することができる。 According to the virtual reality system of the present invention, the vehicle can be used as a motion platform , and the user can be presented with a sensation or motion according to video information by accelerating or decelerating the vehicle .

本発明の実施の形態に係るバーチャルリアリティシステムの概念を示す模式図である。It is a schematic diagram which shows the concept of the virtual reality system which concerns on embodiment of this invention. 本発明の実施の形態に係るバーチャルリアリティシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the virtual reality system which concerns on embodiment of this invention. VRコンピュータの構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of a VR computer. 車両の駆動制御系の一例を示すブロック図である。It is a block diagram which shows an example of the drive control system of a vehicle. バーチャルリアリティシステムの現実空間における構成の一例を示す概略図である。It is a schematic diagram which shows an example of the structure in the real space of a virtual reality system. バーチャルリアリティシステムのVRコンピュータ及びその周辺の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of a VR computer of a virtual reality system and its surroundings. 「駆動パターン生成処理」の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of "drive pattern generation processing". 加速度を提示する例を示す模式図である。It is a schematic diagram which shows the example which presents the acceleration. (A)〜(C)は、衝突感覚を提示する際の車両の駆動パターンの一例を説明する模式図である。(A) to (C) are schematic diagrams illustrating an example of a vehicle drive pattern when presenting a collision sensation. 「衝突感覚生成処理」の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of "collision sensation generation processing". 「衝撃提示処理」の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of "impact presentation processing". 「車両位置修正処理」の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of "vehicle position correction processing". 衝撃提示の際のアクセルシフト値のパターンを示すグラフである。It is a graph which shows the pattern of the accelerator shift value at the time of impact presentation. (A)〜(C)は、衝突感覚を提示する際の車両の駆動パターンの他の一例を説明する模式図である。(A) to (C) are schematic diagrams illustrating another example of the driving pattern of the vehicle when presenting the collision sensation. 移動感覚を提示する例を示す模式図である。It is a schematic diagram which shows the example which presents the sensation of movement. (A)〜(C)は、加速度を提示する際の車両の駆動パターンの一例を説明する模式図である。(A) to (C) are schematic diagrams illustrating an example of a vehicle drive pattern when presenting acceleration. 平衡感覚を提示する例を示す模式図である。It is a schematic diagram which shows the example which presents the sense of balance. (A)〜(C)は、平衡感覚を提示する際の車両の駆動パターンの一例を説明する模式図である。(A) to (C) are schematic diagrams illustrating an example of a vehicle drive pattern when presenting a sense of balance. 移動感覚や平衡感覚を提示する際の車両の駆動パターンの他の一例を説明する模式図である。It is a schematic diagram explaining another example of the drive pattern of a vehicle at the time of presenting a sense of movement and a sense of balance. 温度感覚を提示する例を示す模式図である。It is a schematic diagram which shows the example which presents the temperature sensation. 移動感覚等を提示する他の手段を例示する模式図である。It is a schematic diagram which illustrates other means for presenting a sensation of movement and the like.

以下、図面を参照して本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<バーチャルリアリティシステム>
(アクティブ型の車両利用形態)
先ず、バーチャルリアリティシステム(以下、「VRシステム」という。)において、上記のアクティブ型の形態で車両をMPとして利用する技術について簡単に説明する。図1は本発明の実施の形態に係るVRシステムの概念を示す模式図である。図1に示すように、本実施の形態に係るVRシステムでは、車両10をMPとして利用してVRコンテンツを提供する。
<Virtual reality system>
(Active vehicle usage pattern)
First, in a virtual reality system (hereinafter referred to as "VR system"), a technique of using a vehicle as an MP in the above-mentioned active form will be briefly described. FIG. 1 is a schematic diagram showing a concept of a VR system according to an embodiment of the present invention. As shown in FIG. 1, in the VR system according to the present embodiment, the vehicle 10 is used as an MP to provide VR contents.

ユーザ12は、映像提示手段であるHMD50を装着してMPである車両10に乗り込む。VRシステムは、HMD50によりバーチャル空間の映像をユーザ12に提示する。同時に、VRシステムは、車両10をMPとして利用して、ユーザ12にバーチャル空間の映像に応じた感覚又は運動を提示する。例えば、バーチャル空間での衝突映像に応じた衝撃をユーザ12に体感させる。人間は複数の感覚を統合することで、身の周りで起きる現象を認識している。このため、映像と他の感覚又は運動とが同時に提示されることで、ユーザ12がバーチャル空間の情報は事実だと錯覚し、VRコンテンツの臨場感が高まるのである。 The user 12 wears the HMD 50, which is a video presenting means, and gets into the vehicle 10 which is an MP. The VR system presents the image of the virtual space to the user 12 by the HMD 50. At the same time, the VR system uses the vehicle 10 as an MP to present the user 12 with a sensation or movement according to the image of the virtual space. For example, the user 12 is made to experience the impact corresponding to the collision image in the virtual space. Humans recognize the phenomena that occur around us by integrating multiple senses. Therefore, when the image and other sensations or movements are presented at the same time, the user 12 thinks that the information in the virtual space is a fact, and the presence of the VR content is enhanced.

近年、高機能で且つ低価格のHMDが市場に投入されたのに伴い、臨場感のあるVRコンテンツを家庭で楽しむために、手軽に利用できるMPが必要とされるようになった。発明者等は、本来移動体であり移動感覚等の提示に必要な構成を備える車両に着目し、車両をMPとして利用するVRシステムを開発した。日本における自家用乗用車の普及率は1世帯あたり1台以上と高く、車両は家庭でも手軽に利用することができる。従って、車両をMPとして利用することで、体感型エンタテイメントを手軽に楽しむことができる。なお、後述する通り、車両10は前方及び後方に1m程度移動する。従って、車両2台分の駐車スペース程度の面積があればよく、サーキット等の走行場は必要ない。 In recent years, with the introduction of high-performance and low-priced HMDs to the market, easy-to-use MPs have been required to enjoy VR contents with a sense of reality at home. The inventors have focused on a vehicle that is originally a moving vehicle and has a configuration necessary for presenting a sense of movement, and has developed a VR system that uses the vehicle as an MP. The penetration rate of private cars in Japan is as high as one or more per household, and vehicles can be easily used at home. Therefore, by using the vehicle as an MP, it is possible to easily enjoy the experience-based entertainment. As will be described later, the vehicle 10 moves forward and backward by about 1 m. Therefore, it suffices to have an area of about the parking space for two vehicles, and a running field such as a circuit is not required.

(バーチャルリアリティシステムの構成)
次に、VRシステムの構成について説明する。
図2は本発明の実施の形態に係るVRシステムの構成の一例を示すブロック図である。図2に示すように、本実施の形態に係るVRシステムは、VRコンテンツを提供するためのVRコンピュータ16と、車両10の各部を制御する車両制御用コンピュータ20とを備えている。これらは車両10に搭載されている。VRコンピュータ16は、駆動パターン生成プログラム18により、後述する「駆動パターン生成処理」等を実行する。車両制御用コンピュータ20は、車両モード22とVRシステムモード24とを備えている。これらのモードは、ユーザ12の操作により切り替えられる。
(Configuration of virtual reality system)
Next, the configuration of the VR system will be described.
FIG. 2 is a block diagram showing an example of the configuration of the VR system according to the embodiment of the present invention. As shown in FIG. 2, the VR system according to the present embodiment includes a VR computer 16 for providing VR contents and a vehicle control computer 20 for controlling each part of the vehicle 10. These are mounted on the vehicle 10. The VR computer 16 executes "drive pattern generation processing" and the like, which will be described later, by the drive pattern generation program 18. The vehicle control computer 20 includes a vehicle mode 22 and a VR system mode 24. These modes can be switched by the operation of the user 12.

図3に示すように、VRコンピュータ16は、CPU16A、ROM16B、RAM16C、不揮発性のメモリ16D、及び入出力部(I/O)16Fを備えている。これら各部は、バス16Eを介して互いに接続されている。CPU16Aは、ROM16Bに記憶された駆動パターン生成プログラム18等を読み出し、RAM16Cをワークエリアとして使用してプログラムを実行する。I/O16Fには、外部装置と通信を行う通信部34、ユーザからの操作を受け付ける操作部36、ユーザに情報を表示する表示部38、及び情報を記憶する記憶部40が接続されている。なお、通信部34以外は省略してもよい。車両制御用コンピュータ20も、VRコンピュータ16と同じ構成であるため説明を省略する。 As shown in FIG. 3, the VR computer 16 includes a CPU 16A, a ROM 16B, a RAM 16C, a non-volatile memory 16D, and an input / output unit (I / O) 16F. Each of these parts is connected to each other via a bus 16E. The CPU 16A reads out the drive pattern generation program 18 and the like stored in the ROM 16B, and executes the program using the RAM 16C as a work area. A communication unit 34 that communicates with an external device, an operation unit 36 that receives an operation from a user, a display unit 38 that displays information to the user, and a storage unit 40 that stores information are connected to the I / O 16F. Note that other than the communication unit 34 may be omitted. Since the vehicle control computer 20 has the same configuration as the VR computer 16, the description thereof will be omitted.

図2に示すように、車両10は、ペダル、レバー等の操作部26、車速計等の計測部28、モータ等の駆動部30、及びアクセル、ブレーキ等の駆動対象32を備えている。車両制御用コンピュータ20において車両モード22が選択されている場合には、操作部26をインターフェースとして駆動対象32を駆動制御する。例えば、ブレーキペダルを踏めばブレーキが作動するというように、操作部26を操作することにより制御情報が生成される。車両制御用コンピュータ20は、生成された制御情報に応じて駆動対象32を駆動制御する。駆動対象32は、駆動部30を介して駆動制御される。即ち、車両10は通常の車両として利用される。 As shown in FIG. 2, the vehicle 10 includes an operation unit 26 such as a pedal and a lever, a measurement unit 28 such as a vehicle speed meter, a drive unit 30 such as a motor, and a drive target 32 such as an accelerator and a brake. When the vehicle mode 22 is selected in the vehicle control computer 20, the drive target 32 is driven and controlled using the operation unit 26 as an interface. For example, control information is generated by operating the operation unit 26, such that the brake is activated when the brake pedal is depressed. The vehicle control computer 20 drives and controls the drive target 32 according to the generated control information. The drive target 32 is driven and controlled via the drive unit 30. That is, the vehicle 10 is used as a normal vehicle.

一方、VRシステムモード24が選択されている場合には、車両制御用コンピュータ20は、VRコンピュータ16と通信を行って、VRコンピュータ16から制御情報を取得する。VRコンピュータ16は、バーチャル空間を表す映像情報に基づいてユーザ12に感覚又は運動を提示するように、操作部26の操作を模擬して駆動パターンを生成し、駆動パターンに基づいて車両10の一部を駆動制御するための制御情報を生成する。生成された制御情報は、車両制御用コンピュータ20に出力される。車両制御用コンピュータ20は、入力された制御情報に応じて、駆動部30を介して駆動対象32を駆動制御する。即ち、車両10はMPとして利用される。 On the other hand, when the VR system mode 24 is selected, the vehicle control computer 20 communicates with the VR computer 16 and acquires control information from the VR computer 16. The VR computer 16 simulates the operation of the operation unit 26 to generate a drive pattern so as to present the sensation or movement to the user 12 based on the video information representing the virtual space, and one of the vehicles 10 based on the drive pattern. Generates control information for driving and controlling the unit. The generated control information is output to the vehicle control computer 20. The vehicle control computer 20 drives and controls the drive target 32 via the drive unit 30 according to the input control information. That is, the vehicle 10 is used as an MP.

例えばユーザ12に衝突による衝撃を体感させたい場合には、後述する通り、「シフトをDに切り替えて、アクセルをオンにした後に、アクセルをオフにする」など、操作部26の操作を模擬して駆動パターンを生成し、生成された駆動パターンに応じてシフトやアクセルを駆動制御する制御信号を生成する。なお、駆動パターンは、後述するイベントの種類に応じて予め用意しておいてもよいし、リアルタイムで生成してもよい。 For example, when the user 12 wants to experience the impact of a collision, the operation of the operation unit 26 is simulated, such as "switch the shift to D, turn on the accelerator, and then turn off the accelerator" as described later. A drive pattern is generated, and a control signal for driving and controlling a shift or an accelerator is generated according to the generated drive pattern. The drive pattern may be prepared in advance according to the type of event described later, or may be generated in real time.

なお、車両10が暴走しないように安全装置を設けることが好ましい。例えば、VRコンピュータ16からの通信が途絶えた場合には、車両モード22に切り替わるようにしてもよい。或いは、車両モード22が選択されている場合には、VRコンピュータ16と通信不能としてもよい。また、本実施の形態では、車両モード22では操作部26の操作により制御情報が生成される例について説明したが、自動運転技術が導入された車両では、車両モード22における制御情報の生成は、操作部26の操作とは無関係に行われる。 It is preferable to provide a safety device so that the vehicle 10 does not run out of control. For example, when the communication from the VR computer 16 is interrupted, the mode may be switched to the vehicle mode 22. Alternatively, when the vehicle mode 22 is selected, communication with the VR computer 16 may be disabled. Further, in the present embodiment, an example in which control information is generated by the operation of the operation unit 26 in the vehicle mode 22 has been described, but in the vehicle into which the automatic driving technology is introduced, the generation of the control information in the vehicle mode 22 is performed. It is performed independently of the operation of the operation unit 26.

ここで、車両10の駆動制御系についてより具体的に説明する。
図4は車両10の駆動制御系の一例を示すブロック図である。車両10をMPとして利用する場合、バーチャル空間を表す映像情報に基づいてユーザ12に感覚又は運動を提示するために、車両10の複数の駆動対象32を利用することができる。図4では、複数の駆動対象32として、アクセル32A、シフト32B、ステアリング32C、ブレーキ32D、エアサスペンション32E、スピーカ32F、電動シート32G、シートヒータ32H、シートベルト32I、エアコン32J、ボンネット32K、トランク32Kを例示した。また、計測部28の1つである車速計28Aを例示した。
Here, the drive control system of the vehicle 10 will be described more specifically.
FIG. 4 is a block diagram showing an example of the drive control system of the vehicle 10. When the vehicle 10 is used as an MP, a plurality of drive targets 32 of the vehicle 10 can be used in order to present a sensation or movement to the user 12 based on video information representing a virtual space. In FIG. 4, as a plurality of drive targets 32, the accelerator 32A, the shift 32B, the steering 32C, the brake 32D, the air suspension 32E, the speaker 32F, the electric seat 32G, the seat heater 32H, the seat belt 32I, the air conditioner 32J, the bonnet 32K, and the trunk 32K. Was illustrated. Moreover, the vehicle speed meter 28A which is one of the measuring units 28 was illustrated.

車両モード22が選択された場合の情報の流れを点線で表し、VRシステムモード24が選択された場合の情報の流れを実線で表す。例えば、車両モード22が選択された場合は、ペダル26Aの操作により生成された制御情報に応じて、D/Aコンバータ30Aを介してアクセル32Aを駆動制御する。また、ハンドル26Cの操作により生成された制御情報に応じて、モータ30Cを介してステアリング32Cを駆動制御する。また、ポジションレバー26Gの操作により生成された制御情報に応じて、インターフェース(I/O)30Gを介して電動シート32Gを駆動制御する。 The information flow when the vehicle mode 22 is selected is represented by a dotted line, and the information flow when the VR system mode 24 is selected is represented by a solid line. For example, when the vehicle mode 22 is selected, the accelerator 32A is driven and controlled via the D / A converter 30A according to the control information generated by the operation of the pedal 26A. Further, the steering wheel 32C is driven and controlled via the motor 30C according to the control information generated by the operation of the steering wheel 26C. Further, the electric seat 32G is driven and controlled via the interface (I / O) 30G according to the control information generated by the operation of the position lever 26G.

一方、VRシステムモード24が選択された場合は、駆動対象32Aから32Lまでの各々を駆動制御するための制御信号は、VRコンピュータ16により生成されて、車両制御用コンピュータ20に出力される。そして、駆動対象32Aから32Lまでの各々は、車両制御用コンピュータ20により、対応する駆動部30Aから30Lまでの何れかを介して駆動制御される。なお、いずれのモードでも、車速計28Aは、タイヤ42から速度情報を取得して、車両制御用コンピュータ20に出力する。 On the other hand, when the VR system mode 24 is selected, the control signals for driving and controlling each of the driving targets 32A to 32L are generated by the VR computer 16 and output to the vehicle control computer 20. Then, each of the drive targets 32A to 32L is driven and controlled by the vehicle control computer 20 via any of the corresponding drive units 30A to 30L. In either mode, the vehicle speed meter 28A acquires speed information from the tire 42 and outputs it to the vehicle control computer 20.

(VRコンピュータの動作)
次に、VRコンピュータ16の動作について説明する。
まず、ユーザ12の装備について説明する。図5はVRシステムの現実空間における構成の一例を示す概略図である。図5に示すように、本実施の形態では、ユーザ12は、HMD50を装着する以外に、操作入力を行うためのコントローラ52を保持している。また、ユーザ12の頭部には、頭の動きを検出するための頭位置センサ54が取り付けられている。頭位置センサ54としては、3軸又は6軸の加速度センサを用いることができる。なお、頭位置センサ54は、HMD50に内蔵されていてもよい。
(Operation of VR computer)
Next, the operation of the VR computer 16 will be described.
First, the equipment of the user 12 will be described. FIG. 5 is a schematic view showing an example of the configuration of the VR system in the real space. As shown in FIG. 5, in the present embodiment, the user 12 holds a controller 52 for performing operation input in addition to wearing the HMD 50. Further, a head position sensor 54 for detecting the movement of the head is attached to the head of the user 12. As the head position sensor 54, a 3-axis or 6-axis acceleration sensor can be used. The head position sensor 54 may be built in the HMD 50.

次に、VRコンピュータ16の機能、動作について説明する。図6はVRコンピュータ16及びその周辺の構成の一例を示すブロック図である。図6に示すように、VRコンピュータ16は、映像更新部56と制御情報生成部58とを備えている。HMD50、コントローラ52、及び頭位置センサ54の各々は、VRコンピュータ16と電気的に接続されており、VRコンピュータ16との間で情報の授受を行う。 Next, the functions and operations of the VR computer 16 will be described. FIG. 6 is a block diagram showing an example of the configuration of the VR computer 16 and its surroundings. As shown in FIG. 6, the VR computer 16 includes a video update unit 56 and a control information generation unit 58. Each of the HMD 50, the controller 52, and the head position sensor 54 is electrically connected to the VR computer 16 and exchanges information with and from the VR computer 16.

映像更新部56は、コントローラ52から操作入力情報を受け取り、頭位置センサ54から頭部の位置情報を受け取る。映像更新部56は、受け取った操作入力情報及び位置情報に基づいて、バーチャル空間を表す映像情報を更新する。例えば、VRコンテンツが戦闘ゲームである場合、ミサイル発射を指示する操作入力情報を受け取ると、指示が反映されてバーチャル空間でミサイルが発射された映像が生成される。そして、映像更新部56は、更新した映像情報を、HMD50と制御情報生成部58とに逐次出力する。ユーザ12には、HMD50によりバーチャル空間を表す映像が提示される。 The image update unit 56 receives the operation input information from the controller 52, and receives the head position information from the head position sensor 54. The video update unit 56 updates the video information representing the virtual space based on the received operation input information and position information. For example, when the VR content is a battle game, when the operation input information instructing the missile launch is received, the instruction is reflected and the image in which the missile is launched is generated in the virtual space. Then, the video update unit 56 sequentially outputs the updated video information to the HMD 50 and the control information generation unit 58. The HMD 50 presents the user 12 with an image representing the virtual space.

制御情報生成部58は、映像更新部56から逐次入力される映像情報を監視し、バーチャル空間でのイベントの発生を検出する。ここで「イベント」とは、バーチャル空間に存在するオブジェクトの速度や加速度の変化等、映像情報の変化である。換言すれば、バーチャル空間の映像情報から、種々の物理量を取得することが可能である。制御情報生成部58は、イベントの発生を検出すると、操作部26の操作を模擬して駆動パターンを生成し、生成された駆動パターンに応じて車両10の一部を駆動制御するための制御情報を生成する。生成された制御情報は、車両制御用コンピュータ20に出力される。 The control information generation unit 58 monitors the video information sequentially input from the video update unit 56, and detects the occurrence of an event in the virtual space. Here, the "event" is a change in video information such as a change in the speed or acceleration of an object existing in the virtual space. In other words, it is possible to acquire various physical quantities from the video information in the virtual space. When the control information generation unit 58 detects the occurrence of an event, the control information generation unit 58 simulates the operation of the operation unit 26 to generate a drive pattern, and controls information for driving and controlling a part of the vehicle 10 according to the generated drive pattern. To generate. The generated control information is output to the vehicle control computer 20.

なお、制御情報生成部58は、頭位置センサ54から入力された位置情報も使用して、駆動パターンを生成してもよい。例えば、バーチャル空間での衝突映像に応じた衝撃をユーザ12に体感させた結果、ユーザの頭の動きが想定より小さかった場合は、再度、より大きな衝撃をユーザ12に体感させてもよい。後述する図7のステップ108で実行される「追加感覚生成処理」がこれに該当する。 The control information generation unit 58 may also use the position information input from the head position sensor 54 to generate a drive pattern. For example, if the user 12 experiences an impact corresponding to the collision image in the virtual space and the movement of the user's head is smaller than expected, the user 12 may experience a larger impact again. The “additional sensation generation process” executed in step 108 of FIG. 7, which will be described later, corresponds to this.

また、本実施の形態では、逐次更新される映像情報に応じたリアルタイム処理にはVRコンピュータ16の方が適しているため、VRコンピュータ16が制御情報を生成する例について説明するが、車両制御用コンピュータ20により制御情報を生成してもよい。この場合は、VRコンピュータ16で、バーチャル空間を表す映像情報に基づいて操作部26の操作を模擬して駆動パターンを生成し、生成した駆動パターンを駆動命令として車両制御用コンピュータ20に出力する。車両制御用コンピュータ20は、入力された駆動命令に基づいて制御情報を生成する。 Further, in the present embodiment, since the VR computer 16 is more suitable for real-time processing according to the sequentially updated video information, an example in which the VR computer 16 generates control information will be described, but for vehicle control. Control information may be generated by the computer 20. In this case, the VR computer 16 simulates the operation of the operation unit 26 based on the video information representing the virtual space to generate a drive pattern, and outputs the generated drive pattern as a drive command to the vehicle control computer 20. The vehicle control computer 20 generates control information based on the input drive command.

<駆動パターン生成処理>
次に、VRコンピュータ16により実行される「駆動パターン生成処理」について説明する。図7は「駆動パターン生成処理」の手順の一例を示すフローチャートである。「駆動パターン生成処理」は、制御情報生成部58の機能であり、VRコンピュータ16のCPU16Aにより実行される。また、「駆動パターン生成処理」は、バーチャル空間でイベント発生が検出されると開始される。
<Drive pattern generation process>
Next, the "drive pattern generation process" executed by the VR computer 16 will be described. FIG. 7 is a flowchart showing an example of the procedure of the “drive pattern generation process”. The "drive pattern generation process" is a function of the control information generation unit 58, and is executed by the CPU 16A of the VR computer 16. Further, the "drive pattern generation process" is started when an event occurrence is detected in the virtual space.

本実施の形態では、VRコンテンツは参加型ゲームであり、バーチャル空間にはプレイヤーのアバターが存在する。そこで、本実施の形態では、バーチャル空間でのプレイヤーオブジェクトと他のオブジェクトとの「衝突」、プレイヤーオブジェクトの「移動」、プレイヤーオブジェクトが存在するフィールドの「環境変化」をイベントとして検出する。ここでは、現実環境に存在する人間を「ユーザ」と称し、バーチャル空間に存在するアバターを「プレイヤー」と称する。 In the present embodiment, the VR content is a participatory game, and a player's avatar exists in the virtual space. Therefore, in the present embodiment, "collision" between the player object and another object in the virtual space, "movement" of the player object, and "environmental change" of the field in which the player object exists are detected as events. Here, a human being in the real environment is referred to as a "user", and an avatar existing in the virtual space is referred to as a "player".

まず、ステップ100で、イベントが「衝突」か否か判定する。「衝突」である場合は、ステップ102に進む。ステップ102では、衝突感覚を提示するための駆動パターンを生成する「衝突感覚生成処理」を実行する。次に、ステップ104でユーザの反応を検出する。続くステップ106で、ユーザの反応に応じた感覚や運動を提示するための駆動パターンを生成する「追加感覚生成処理」を実行して、ルーチンを終了する。 First, in step 100, it is determined whether or not the event is a "collision". If it is a "collision", the process proceeds to step 102. In step 102, a "collision sensation generation process" for generating a drive pattern for presenting a collision sensation is executed. Next, in step 104, the reaction of the user is detected. In the following step 106, the "additional sensation generation process" for generating the driving pattern for presenting the sensation or movement according to the user's reaction is executed, and the routine is terminated.

一方、ステップ100で判定した結果、「衝突」でない場合は、ステップ108に進み、ステップ108で、イベントが「移動」か否か判定する。「移動」である場合は、ステップ110に進む。ステップ110では、移動感覚や平衡感覚を提示するための駆動パターンを生成する「移動感覚生成処理」を実行する。次に、ステップ104でユーザの反応を検出し、続くステップ106で「追加感覚生成処理」を実行して、ルーチンを終了する。 On the other hand, if the result of the determination in step 100 is not "collision", the process proceeds to step 108, and in step 108, it is determined whether or not the event is "movement". If it is "move", the process proceeds to step 110. In step 110, a "movement sensation generation process" for generating a drive pattern for presenting a movement sensation or a balance sensation is executed. Next, the user's reaction is detected in step 104, and the "additional sensation generation process" is executed in the following step 106 to end the routine.

更に、ステップ108で判定した結果、「移動」でない場合は、「環境変化」しか残っていないため、ステップ112に進む。ステップ112では、温度感覚を提示するための駆動パターンを生成する「温度感覚生成処理」を実行する。次に、ステップ104でユーザの反応を検出し、続くステップ106で「追加感覚生成処理」を実行して、ルーチンを終了する。 Further, as a result of the determination in step 108, if it is not "movement", only "environmental change" remains, and the process proceeds to step 112. In step 112, a "temperature sensation generation process" for generating a drive pattern for presenting the temperature sensation is executed. Next, the user's reaction is detected in step 104, and the "additional sensation generation process" is executed in the following step 106 to end the routine.

なお、「追加感覚生成処理」は、ユーザへの感覚提示が不十分な場合に、同じ感覚を更に提示するものであり、「衝突感覚生成処理」「移動感覚生成処理」「温度感覚生成処理」のいずれかを実行するものである。この場合は、制御情報は2回に分けて出力される。また、ステップ104及びステップ106の手順は省略してもよい。 The "additional sensation generation process" further presents the same sensation when the sensation presentation to the user is insufficient, and is "collision sensation generation process", "movement sensation generation process", and "temperature sensation generation process". It does one of the above. In this case, the control information is output in two steps. Further, the steps of steps 104 and 106 may be omitted.

(衝突感覚の提示)
次に、衝突感覚の提示方法について説明する。
図8は衝突感覚を提示する例を示す模式図である。図8に示すように、バーチャル空間でプレイヤーと隕石との衝突があると「衝突」イベントが検出される。この場合、臨場感を高めるためにユーザに衝突感覚を提示する。例えば、衝突音を出す(Bang!!)、加速度(衝撃)を提示する等で、衝突感覚が提示される。
(Presentation of collision feeling)
Next, a method of presenting a collision sensation will be described.
FIG. 8 is a schematic diagram showing an example of presenting a collision sensation. As shown in FIG. 8, a "collision" event is detected when there is a collision between a player and a meteorite in virtual space. In this case, a collision sensation is presented to the user in order to enhance the sense of presence. For example, a collision sensation is presented by making a collision sound (Bang !!), presenting an acceleration (impact), and the like.

上記の通り、VRコンピュータ16は、バーチャル空間での「衝突」の発生を検出すると、D/Aコンバータ30Aを介してアクセル32Aを駆動し、インターフェースI/O30Bを介してシフト32Bを駆動し、オーディオアンプ30Fを介してスピーカ32Fを駆動する駆動パターンを生成する。そして、生成された駆動パターンに応じて車両10の一部を駆動制御するための制御情報を生成する。 As described above, when the VR computer 16 detects the occurrence of "collision" in the virtual space, it drives the accelerator 32A via the D / A converter 30A, drives the shift 32B via the interface I / O 30B, and audio. A drive pattern for driving the speaker 32F via the amplifier 30F is generated. Then, control information for driving and controlling a part of the vehicle 10 is generated according to the generated drive pattern.

生成された制御情報は、車両制御用コンピュータ20に出力される。この結果、アクセル32A及びシフト32Bにより加速度の提示が行われ、スピーカ32Fにより衝突感のある音が再生される。ここで、頭位置センサ54から入力された位置情報により「頭の動き」が検知された場合は、画面を揺らす等、バーチャル空間を表す映像情報を更新する。これにより、映像酔いを低減することができる。 The generated control information is output to the vehicle control computer 20. As a result, the acceleration is presented by the accelerator 32A and the shift 32B, and the sound with a feeling of collision is reproduced by the speaker 32F. Here, when "head movement" is detected by the position information input from the head position sensor 54, the image information representing the virtual space is updated, such as shaking the screen. As a result, video sickness can be reduced.

ここで、加速度の提示においては、バーチャル空間での衝突方向とユーザが受ける衝突方向とを一致させる。「衝突」という事象について相互に矛盾しない複数の感覚(ここでは、視野感覚と衝突感覚)をユーザに提示することで、ユーザは衝突感覚を実感する。即ち、没入感を得ることができる。 Here, in presenting the acceleration, the collision direction in the virtual space and the collision direction received by the user are matched. By presenting to the user a plurality of sensations (here, a visual field sensation and a collision sensation) that are consistent with each other regarding the event of "collision", the user realizes the collision sensation. That is, an immersive feeling can be obtained.

次に、加速度を提示する際の車両の駆動パターンの一例を説明する。まず、図9(A)に示すように、シフトをニュートラル(N)からドライブ(D)に切り替え、提示する加速度に合わせてアクセルをオンにする。ユーザは矢印で示すように後方に押されるような重力を感じる。次に、図9(B)に示すように、0.3秒後にアクセルをオフにして、シフトをNに戻す。ユーザは矢印で示すように前方に押されるような重力を感じる。ユーザは後方に押された後に急に前方に押されることで、衝突したときと同様の衝撃を体感する。そして、自然停止するのを待つ。 Next, an example of the drive pattern of the vehicle when presenting the acceleration will be described. First, as shown in FIG. 9A, the shift is switched from the neutral (N) to the drive (D), and the accelerator is turned on according to the acceleration to be presented. The user feels gravity as if pushed backwards as indicated by the arrow. Next, as shown in FIG. 9B, the accelerator is turned off after 0.3 seconds and the shift is returned to N. The user feels gravity as if pushed forward as indicated by the arrow. The user feels the same impact as in a collision by being pushed backward and then suddenly pushed forward. Then wait for it to stop naturally.

最後に、図9(C)に示すように、停車後、ユーザに気づかれないようクリープで元の場所まで車両を戻す。なお、図9(A)に示す状態でアクセルをオンにした後、衝突による移動感覚を提示するために、加速と同時にエアコンの風量を徐々に大きくしてもよい。また、斜め方向や回転方向の移動があれば、シフトやアクセルと共にステアリングを駆動してもよい。 Finally, as shown in FIG. 9C, after the vehicle is stopped, the vehicle is creeped back to its original position so as not to be noticed by the user. After the accelerator is turned on in the state shown in FIG. 9A, the air volume of the air conditioner may be gradually increased at the same time as acceleration in order to present a sense of movement due to a collision. Further, if there is movement in the diagonal direction or the rotational direction, the steering may be driven together with the shift and the accelerator.

次に、衝突感覚を提示するためにコンピュータが実行する処理について説明する。具体的には、図7のステップ102で実行される「衝突感覚生成処理」について説明する。図10は「衝突感覚生成処理」の手順の一例を示すフローチャートである。まず、ステップ200で、物理演算により衝突の強さを表す「衝撃値F」を演算する。上記の通り、バーチャル空間の映像情報からオブジェクトの加速度や質量等の物理量が取得され、物理演算により衝撃値Fが演算される。 Next, the processing performed by the computer to present the collision sensation will be described. Specifically, the “collision sensation generation process” executed in step 102 of FIG. 7 will be described. FIG. 10 is a flowchart showing an example of the procedure of the “collision sensation generation process”. First, in step 200, the "impact value F" representing the strength of the collision is calculated by physical calculation. As described above, physical quantities such as acceleration and mass of the object are acquired from the video information in the virtual space, and the impact value F is calculated by the physical calculation.

次に、ステップ202で、車両前方にスペースがあるか否かを判定する。例えば、車両に搭載された測距装置等により車両前方の障害物を検出し、障害物が無ければスペースがあると判定される。車両前方にスペースがある場合は、ステップ204に進み、ステップ204で「衝突提示処理」を起動する。そして、続くステップ206で、衝突音を再生する駆動パターンを生成する。最後に、ステップ208で「車両位置修正処理」を実行してルーチンを終了する。 Next, in step 202, it is determined whether or not there is a space in front of the vehicle. For example, an obstacle in front of the vehicle is detected by a distance measuring device or the like mounted on the vehicle, and if there is no obstacle, it is determined that there is a space. If there is a space in front of the vehicle, the process proceeds to step 204, and the "collision presentation process" is activated in step 204. Then, in the following step 206, a drive pattern for reproducing the collision sound is generated. Finally, in step 208, the "vehicle position correction process" is executed to end the routine.

一方、ステップ202で判定した結果、車両前方にスペースが無い場合は、ステップ210に進み、ステップ210で、衝撃値Fとは正負が反転した「衝撃値−F」を仮定して「衝突提示処理」を起動する。そして、続くステップ206で、衝突音を再生する駆動パターンを生成する。最後に、ステップ208で「車両位置修正処理」を実行してルーチンを終了する。 On the other hand, as a result of the determination in step 202, if there is no space in front of the vehicle, the process proceeds to step 210, and in step 210, assuming "impact value-F" in which the positive and negative are reversed from the impact value F, "collision presentation processing" Is started. Then, in the following step 206, a drive pattern for reproducing the collision sound is generated. Finally, in step 208, the "vehicle position correction process" is executed to end the routine.

図11は「衝撃提示処理」の手順の一例を示すフローチャートである。VRコンピュータ16には、図示しないカウンタが設けられており、衝撃提示処理の実行回数をカウントしている。衝撃提示処理の実行回数には上限閾値が設けられており、上限閾値に到達すると衝撃提示処理を一旦停止する。 FIG. 11 is a flowchart showing an example of the procedure of the “impact presentation process”. The VR computer 16 is provided with a counter (not shown), and counts the number of times the impact presentation process is executed. An upper limit threshold is set for the number of times the impact presentation process is executed, and when the upper limit threshold is reached, the impact presentation process is temporarily stopped.

まず、ステップ300で、カウント値が閾値未満か否かを判定する。カウント値が閾値未満の場合は、ステップ302に進み、「衝撃値F」に応じた衝撃を付与するシフト及び電圧パターンでアクセルをオンにする駆動パターンを生成する。次に、ステップ304で、カウントアップしてカウント値を「1」だけ増加させ、続くステップ306で、予め定めた時間だけ待機した後にルーチンを終了する。一方、ステップ300で判定した結果、カウント値が閾値以上の場合は、ルーチンを終了する。 First, in step 300, it is determined whether or not the count value is less than the threshold value. If the count value is less than the threshold value, the process proceeds to step 302 to generate a drive pattern for turning on the accelerator with a shift and a voltage pattern that gives an impact according to the “impact value F”. Next, in step 304, the count is increased to increase the count value by "1", and in the following step 306, the routine is terminated after waiting for a predetermined time. On the other hand, if the result of the determination in step 300 is that the count value is equal to or greater than the threshold value, the routine is terminated.

図13は衝撃提示の際のシフト及び電圧パターンを示すグラフである。横軸は時間(単位:秒)を表し、縦軸はアクセル電圧値(単位:V)を表す。実線は「衝撃値F」に応じた衝撃を付与するシフト及び電圧パターンであり、一点鎖線は「衝撃値−F」に応じた衝撃を付与するシフト及び電圧パターンである。「衝撃値F」に応じた衝撃を付与する場合には、シフトをDに切り替えて衝撃力Fに相当する正のアクセル電圧を印加した後、シフトをRに切り替えて衝撃力−Fに相当する負のアクセル電圧を印加するように駆動パターンを生成する。 FIG. 13 is a graph showing a shift and a voltage pattern at the time of impact presentation. The horizontal axis represents time (unit: seconds), and the vertical axis represents the accelerator voltage value (unit: V). The solid line is a shift and voltage pattern that gives an impact according to the “impact value F”, and the alternate long and short dash line is a shift and voltage pattern that gives an impact according to the “impact value −F”. When applying an impact according to the "impact value F", the shift is switched to D, a positive accelerator voltage corresponding to the impact force F is applied, and then the shift is switched to R to correspond to the impact force −F. The drive pattern is generated so as to apply a negative accelerator voltage.

一方、「衝撃値−F」に応じた衝撃を付与する場合には、シフトをRに切り替えて衝撃力−Fに相当する負のアクセル電圧を印加した後、シフトをDに切り替えて衝撃力Fに相当する正のアクセル電圧を印加するように駆動パターンを生成する。なお、衝撃値とアクセル電圧との関係は、予め取得してROM16B等に記憶しておく。 On the other hand, when applying an impact according to the "impact value-F", the shift is switched to R, a negative accelerator voltage corresponding to the impact force -F is applied, and then the shift is switched to D to apply the impact force F. The drive pattern is generated so as to apply a positive accelerator voltage corresponding to. The relationship between the impact value and the accelerator voltage is acquired in advance and stored in the ROM 16B or the like.

次に、図10のステップ208で「車両位置修正処理」について説明する。図12は「車両位置修正処理」の手順の一例を示すフローチャートである。まず、ステップ400で、衝撃提示処理が終了したか否かを判定する。衝撃提示処理の実行に掛かる処理時間は予め設定されているので、衝撃提示処理の起動から予め設定された時間が経過していれば、衝撃提示処理が終了したと判定する。衝撃提示処理が終了した場合はステップ402に進み、衝撃提示処理が終了していない場合はステップ400の判定を繰り返す。 Next, the “vehicle position correction process” will be described in step 208 of FIG. FIG. 12 is a flowchart showing an example of the procedure of the “vehicle position correction process”. First, in step 400, it is determined whether or not the impact presentation process is completed. Since the processing time required to execute the impact presentation process is preset, it is determined that the impact presentation process has been completed if the preset time has elapsed from the start of the impact presentation process. If the impact presentation process is completed, the process proceeds to step 402, and if the impact presentation process is not completed, the determination in step 400 is repeated.

次に、ステップ402では、車両は初期位置にあるか否かを判定する。加速度の提示のためにシフトDでアクセルがオンになると、車両は1m程度移動する。例えば、車両に搭載された車速計等により車両位置を推定し、車両が設定された初期位置にあれば車両は初期位置にあると判定する。車両が初期位置にある場合は、ステップ404に進み、シフトをNに切り替えて待機するように駆動パターンを生成する。一方、車両が初期位置にない場合は、ステップ406に進み、車両が前方にずれているか否かを判定する。 Next, in step 402, it is determined whether or not the vehicle is in the initial position. When the accelerator is turned on at shift D to present the acceleration, the vehicle moves about 1 m. For example, the vehicle position is estimated by a vehicle speed meter or the like mounted on the vehicle, and if the vehicle is in the set initial position, it is determined that the vehicle is in the initial position. If the vehicle is in the initial position, the process proceeds to step 404 to generate a drive pattern to switch the shift to N and wait. On the other hand, if the vehicle is not in the initial position, the process proceeds to step 406 to determine whether the vehicle is displaced forward.

ステップ406の判定の結果、車両が前方にずれている場合は、ステップ408に進み、シフトをRに切り替えてクリープで初期位置まで移動するように駆動パターンを生成する。一方、車両が前方にずれていない場合、即ち、車両が後方にずれている場合は、ステップ410に進み、シフトをDに切り替えてクリープで初期位置まで移動するように駆動パターンを生成する。 As a result of the determination in step 406, if the vehicle is displaced forward, the process proceeds to step 408, the shift is switched to R, and a drive pattern is generated so as to creep to the initial position. On the other hand, when the vehicle is not displaced forward, that is, when the vehicle is displaced rearward, the process proceeds to step 410, the shift is switched to D, and a drive pattern is generated so as to creep to the initial position.

なお、上述した衝突感覚を提示では、アクセルとシフトを用いて加速度の提示を行う例について説明したが、ブレーキを追加することでユーザにより大きな衝撃を体感させることができる。図14(A)〜(C)は、衝突感覚を提示する際の車両の駆動パターンの他の一例を説明する模式図である。まず、図14(A)に示すように、シフトをニュートラル(N)からドライブ(D)に切り替え、提示する加速度に合わせてアクセルをオンにする。ユーザは矢印で示すように後方に押されるような重力を感じる。 In the above-mentioned presentation of the collision sensation, an example in which the acceleration is presented by using the accelerator and the shift has been described, but the user can experience a larger impact by adding the brake. 14 (A) to 14 (C) are schematic views illustrating another example of the driving pattern of the vehicle when presenting the collision sensation. First, as shown in FIG. 14 (A), the shift is switched from the neutral (N) to the drive (D), and the accelerator is turned on according to the acceleration to be presented. The user feels gravity as if pushed backwards as indicated by the arrow.

次に、図14(B)に示すように、0.3秒後にアクセルをオフにして、シフトをNに戻す。そして、ブレーキをオンにする。ユーザは矢印で示すように前方に押されるような重力を感じる。ユーザは後方に押された後に急に前方に押されることで、激しく衝突したときと同様に「ガッタン」という衝撃を体感する。その衝撃は、図9で説明した「衝撃」よりも大きい。そして、自然停止するのを待つ。最後に、図14(C)に示すように、停車後、ユーザに気づかれないようクリープで元の場所まで車両を戻す。 Next, as shown in FIG. 14B, the accelerator is turned off after 0.3 seconds and the shift is returned to N. Then turn on the brake. The user feels gravity as if pushed forward as indicated by the arrow. When the user is pushed backward and then suddenly pushed forward, he / she feels the impact of "guttan" as in the case of a violent collision. The impact is greater than the "impact" described in FIG. Then wait for it to stop naturally. Finally, as shown in FIG. 14C, after the vehicle is stopped, the vehicle is creeped back to its original position so as not to be noticed by the user.

(移動感覚の提示)
次に、移動感覚の提示方法について説明する。
図15は移動感覚を提示する例を示す模式図である。図15に示すように、バーチャル空間でプレイヤーや他のオブジェクトの移動があると「移動」イベントが検出される。この場合、臨場感を高めるためにユーザに移動感覚を提示する。例えば、移動感のある音を出す(風切り音ビュー、音源の移動など)、加速感のある加速度の提示、移動感のある映像の提示(映像の流れを早くする、集中線の追加など)、風の提示(徐々にエアコンの風量を上げる)等により、移動感覚を提示する。
(Presentation of movement sensation)
Next, a method of presenting a sense of movement will be described.
FIG. 15 is a schematic diagram showing an example of presenting a sense of movement. As shown in FIG. 15, a "move" event is detected when there is a movement of a player or other object in virtual space. In this case, a sense of movement is presented to the user in order to enhance the sense of presence. For example, producing a moving sound (wind sound view, moving sound source, etc.), presenting acceleration with a sense of acceleration, presenting a moving image (fastening the flow of the image, adding a concentrated line, etc.), The feeling of movement is presented by presenting the wind (gradually increasing the air volume of the air conditioner).

上記の通り、VRコンピュータ16は、バーチャル空間での「移動」の発生を検出すると、D/Aコンバータ30Aを介してアクセル32Aを駆動し、インターフェースI/O30Bを介してシフト32Bを駆動し、インターフェースI/O30Jを介してエアコン32Jを駆動し、オーディオアンプ30Fを介してスピーカ32Fを駆動する駆動パターンを生成する。そして、生成された駆動パターンに応じて車両10の一部を駆動制御するための制御情報を生成する。 As described above, when the VR computer 16 detects the occurrence of "movement" in the virtual space, it drives the accelerator 32A via the D / A converter 30A, drives the shift 32B via the interface I / O 30B, and drives the interface. A drive pattern is generated in which the air conditioner 32J is driven via the I / O 30J and the speaker 32F is driven via the audio amplifier 30F. Then, control information for driving and controlling a part of the vehicle 10 is generated according to the generated drive pattern.

生成された制御情報は、車両制御用コンピュータ20に出力される。この結果、アクセル32A及びシフト32Bにより加速感のある加速度の提示が行われ、エアコン32Jにより風の提示が行われ、スピーカ32Fにより移動感のある音が再生される。また、「移動」の発生が検出された場合には、移動感のある映像を提示する等、バーチャル空間を表す映像情報を更新する。 The generated control information is output to the vehicle control computer 20. As a result, the accelerator 32A and the shift 32B present the acceleration with a feeling of acceleration, the air conditioner 32J presents the wind, and the speaker 32F reproduces the sound with a feeling of movement. In addition, when the occurrence of "movement" is detected, the video information representing the virtual space is updated, such as by presenting a video with a feeling of movement.

上述した通り、加速度の提示においては、バーチャル空間での移動方向とユーザの移動方向とを一致させる。「移動」という事象について相互に矛盾しない複数の感覚(ここでは、視野感覚と移動感覚)をユーザに提示することで、ユーザは移動感覚を実感する。即ち、没入感を得ることができる。換言すれば、バーチャル空間での移動方向とユーザの移動方向とが逆向きでは、没入感を得ることができない。 As described above, in presenting the acceleration, the moving direction in the virtual space and the moving direction of the user are matched. By presenting to the user a plurality of sensations (here, visual field sensation and movement sensation) that are consistent with each other regarding the phenomenon of "movement", the user realizes the movement sensation. That is, an immersive feeling can be obtained. In other words, if the moving direction in the virtual space and the moving direction of the user are opposite to each other, an immersive feeling cannot be obtained.

ここで、加速感のある加速度の提示する際の車両の駆動パターンの一例を説明する。まず、図16(A)に示すように、シフトをニュートラル(N)からドライブ(D)に切り替え、提示する加速度に合わせてアクセルをオンにする。加速と同時にエアコンの風量を大きくする。ユーザは矢印で示すように後方に押されるような重力を感じると共に、風圧を感じる。 Here, an example of a vehicle drive pattern when presenting acceleration with a feeling of acceleration will be described. First, as shown in FIG. 16 (A), the shift is switched from the neutral (N) to the drive (D), and the accelerator is turned on according to the acceleration to be presented. Increase the air volume of the air conditioner at the same time as accelerating. The user feels the force of gravity as shown by the arrow and the wind pressure.

次に、図16(B)に示すように、0.3秒後にアクセルをオフにして、シフトをNに戻す。ユーザは矢印で示すように前方に押されるような重力を感じる。ユーザは重力と風圧を感じることにより、移動感覚を体感する。そして、自然停止するのを待つ。最後に、図16(C)に示すように、停車後、ユーザに気づかれないようクリープで元の場所まで車両を戻す。なお、斜め方向や回転方向の移動があれば、シフトやアクセルと共にステアリングを駆動してもよい。 Next, as shown in FIG. 16B, the accelerator is turned off after 0.3 seconds and the shift is returned to N. The user feels gravity as if pushed forward as indicated by the arrow. The user feels the sensation of movement by feeling gravity and wind pressure. Then wait for it to stop naturally. Finally, as shown in FIG. 16C, after the vehicle is stopped, the vehicle is creeped back to its original position so as not to be noticed by the user. If there is movement in the diagonal direction or the rotational direction, the steering may be driven together with the shift and the accelerator.

なお、コンピュータでは「移動感覚生成処理(図7のステップ110)」が実行される。この「移動感覚生成処理」では、バーチャル空間の映像情報からプレイヤーの移動の速度や加速度が物理量として取得され、物理演算により風圧等の移動抵抗値が演算される。そして演算された抵抗値に応じてアクセル32A、シフト32B、エアコン32J、スピーカ32Fを駆動する駆動パターンが生成される。 The computer executes the "movement sensation generation process (step 110 in FIG. 7)". In this "movement sensation generation process", the speed and acceleration of the player's movement are acquired as physical quantities from the video information in the virtual space, and the movement resistance value such as wind pressure is calculated by physical calculation. Then, a drive pattern for driving the accelerator 32A, the shift 32B, the air conditioner 32J, and the speaker 32F is generated according to the calculated resistance value.

(平衡感覚の提示)
次に、平衡感覚の提示方法について説明する。
図17は平衡感覚を提示する例を示す模式図である。図16に示すように、バーチャル空間でプレイヤーの「移動」が検出された場合には、プレイヤーの傾斜を伴うことがある。この場合には、臨場感を高めるためにユーザに平衡感覚を提示することもできる。例えば、ユーザの体を傾ける、傾斜のある映像を見せる(傾斜した水平線など)等により、平衡感覚を提示する。
(Presentation of sense of balance)
Next, a method of presenting a sense of balance will be described.
FIG. 17 is a schematic diagram showing an example of presenting a sense of balance. As shown in FIG. 16, when the player's "movement" is detected in the virtual space, the player may be tilted. In this case, a sense of balance can be presented to the user in order to enhance the sense of presence. For example, the sense of balance is presented by tilting the user's body, showing a tilted image (such as a tilted horizon).

上記の通り、VRコンピュータ16は、バーチャル空間での「(プレイヤーの傾斜を伴う)移動」の発生を検出すると、モータ30Cを介してステアリング32Cを駆動し、モータ30Dを介してブレーキ32Dを駆動する駆動パターンを生成する。そして、生成された駆動パターンに応じて車両10の一部を駆動制御するための制御情報を生成する。生成された制御情報は、車両制御用コンピュータ20に出力される。この結果、ステアリング32C及びブレーキ32Dによりユーザの体が傾けられる。 As described above, when the VR computer 16 detects the occurrence of "movement (with the inclination of the player)" in the virtual space, the VR computer 16 drives the steering wheel 32C via the motor 30C and drives the brake 32D via the motor 30D. Generate a drive pattern. Then, control information for driving and controlling a part of the vehicle 10 is generated according to the generated drive pattern. The generated control information is output to the vehicle control computer 20. As a result, the user's body is tilted by the steering 32C and the brake 32D.

図18(A)〜(C)に示すように、ブレーキをオンにして停車状態にある車両のステアリング角を変化させることで、車両のロール方向の運動を促してユーザに運動を提示する。例えば、図18(A)に示すように、ステアリング角が−2.0°では、左旋回する場合と同様に車両の左側が沈み込み、ユーザの体は左側に傾けられる。また、図18(C)に示すように、ステアリング角が2.0°では、右旋回する場合と同様に車両の右側が沈み込み、ユーザの体は右側に傾けられる。 As shown in FIGS. 18A to 18C, by turning on the brake and changing the steering angle of the stopped vehicle, the movement in the roll direction of the vehicle is promoted and the movement is presented to the user. For example, as shown in FIG. 18A, when the steering angle is −2.0 °, the left side of the vehicle sinks and the user's body is tilted to the left as in the case of turning left. Further, as shown in FIG. 18C, when the steering angle is 2.0 °, the right side of the vehicle sinks and the user's body is tilted to the right side as in the case of turning right.

「(プレイヤーの傾斜を伴う)移動」の発生が検出された場合には、衝撃値Fの代わりにプレイヤーの傾斜角度が演算される。VRコンピュータ16は、プレイヤーの傾斜角度に応じてステアリング32Cを駆動する駆動パターンを生成する。ここで、平衡感覚の提示においては、バーチャル空間での傾き方向とユーザの傾き方向とを一致させる。「傾斜」という事象について相互に矛盾しない複数の感覚(ここでは、視野感覚と平衡感覚)をユーザに提示することで、ユーザは平衡感覚を実感する。即ち、没入感を得ることができる。 When the occurrence of "movement (with the tilt of the player)" is detected, the tilt angle of the player is calculated instead of the impact value F. The VR computer 16 generates a drive pattern that drives the steering wheel 32C according to the tilt angle of the player. Here, in presenting the sense of balance, the tilt direction in the virtual space and the tilt direction of the user are matched. By presenting the user with a plurality of sensations (here, visual field sensation and equilibrium sensation) that are consistent with each other regarding the phenomenon of "tilt", the user realizes the equilibrium sensation. That is, an immersive feeling can be obtained.

また、頭位置センサ54から入力された位置情報により「頭の動き」からユーザの体の傾斜角度を算出し、ユーザの傾斜角度に応じて水平線を傾ける等、バーチャル空間を表す映像情報を更新してもよい。この場合、更新された映像情報から「(プレイヤーの傾斜を伴う)移動」の発生が検出されて、ユーザに平衡感覚が再度提示される。車両によりステアリング32Cを駆動して得られる傾斜は異なるので、これにより車両毎の傾斜のばらつきを補正することができる。 In addition, the video information representing the virtual space is updated, such as calculating the tilt angle of the user's body from the "head movement" based on the position information input from the head position sensor 54 and tilting the horizon according to the tilt angle of the user. You may. In this case, the occurrence of "movement (with tilt of the player)" is detected from the updated video information, and the user is presented with a sense of balance again. Since the inclination obtained by driving the steering 32C differs depending on the vehicle, it is possible to correct the variation in the inclination for each vehicle.

なお、上述した平衡感覚の提示では、ブレーキとステアリングを用いる例について説明したが、電動シートを搭載した車両の場合は、電動シートにより平衡感覚を提示することもできる。また、電動シートによれば移動感覚も提示することができる。図19は移動感覚や平衡感覚を提示する際の車両の駆動パターンの他の一例を説明する模式図である。電動シートは、矢印で併記したように、前後スライド、リクライニング、シートの上下移動、座面前端の上下移動等の機能を有しているため、電動シートを駆動することでユーザに対して種々の運動や感覚を提示することができる。 In the above-mentioned presentation of the sense of balance, an example in which the brake and the steering wheel are used has been described, but in the case of a vehicle equipped with an electric seat, the sense of balance can also be presented by the electric seat. In addition, the electric seat can also present a sense of movement. FIG. 19 is a schematic diagram illustrating another example of a vehicle drive pattern when presenting a sense of movement and a sense of balance. As shown by the arrows, the electric seat has functions such as forward / backward sliding, reclining, vertical movement of the seat, and vertical movement of the front end of the seat surface. Therefore, by driving the electric seat, various users can use it. Can present movement and sensation.

例えば、リクライニング機能を使用すると、背中が押されるような感覚、ウォータースライダーを滑り落ちるような落下感覚等をユーザに提示できる。また、座面前端の上下移動機能を使用すると、ジェットコースターで登っていくような重力感覚をユーザに提示できる。 For example, by using the reclining function, it is possible to present the user with a feeling of pushing the back, a feeling of falling like sliding down a waterslide, and the like. In addition, by using the vertical movement function of the front end of the seat surface, it is possible to present the user with a feeling of gravity as if climbing on a roller coaster.

(温度感覚の提示)
次に、温度感覚の提示方法について説明する。
図20は温度感覚を提示する例を示す模式図である。図20に示すように、バーチャル空間でプレイヤーが存在するフィールド環境に変化があると「環境変化」イベントが検出される。この場合、臨場感を高めるためにユーザに温度感覚を提示する。例えば、常夏の島のようにフィールドが暑い場合には、エアコンにより暖房を入れる、シートヒータをオンにする等により、温度感覚を提示する。また、雪国のようにフィールドが寒い場合は、エアコンにより冷房を入れる等により、温度感覚を提示する。
(Presentation of temperature sensation)
Next, a method of presenting the temperature sensation will be described.
FIG. 20 is a schematic diagram showing an example of presenting a temperature sensation. As shown in FIG. 20, when there is a change in the field environment in which the player exists in the virtual space, an "environmental change" event is detected. In this case, a sense of temperature is presented to the user in order to enhance the sense of presence. For example, when the field is hot like an island in everlasting summer, a sense of temperature is presented by turning on the heating with an air conditioner or turning on the seat heater. Also, when the field is cold like in a snowy country, the temperature sensation is presented by turning on the air conditioner.

上記の通り、VRコンピュータ16は、バーチャル空間での「環境変化」の発生を検出すると、インターフェースI/O30Jを介してエアコン32Jを駆動し、インターフェースI/O30Hを介してシートヒータ32Hを駆動する駆動パターンを生成する。そして、生成された駆動パターンに応じて車両10の一部を駆動制御するための制御情報を生成する。生成された制御情報は、車両制御用コンピュータ20に出力される。この結果、エアコン32Jやシートヒータ32Hにより温度変化の提示が行われる。 As described above, when the VR computer 16 detects the occurrence of "environmental change" in the virtual space, the VR computer 16 drives the air conditioner 32J via the interface I / O30J and drives the seat heater 32H via the interface I / O30H. Generate a pattern. Then, control information for driving and controlling a part of the vehicle 10 is generated according to the generated drive pattern. The generated control information is output to the vehicle control computer 20. As a result, the temperature change is presented by the air conditioner 32J and the seat heater 32H.

なお、コンピュータでは「温度感覚生成処理(図7のステップ112)」が実行される。この「温度感覚生成処理」では、バーチャル空間の映像情報から取得される明度・彩度・色相等の物理量から環境温度が演算され、演算された環境温度に応じてエアコン32J等を駆動する駆動パターンが生成される。 The computer executes the "temperature sensation generation process (step 112 in FIG. 7)". In this "temperature sensation generation process", the environmental temperature is calculated from the physical quantities such as brightness, saturation, and hue acquired from the video information in the virtual space, and the drive pattern for driving the air conditioner 32J or the like according to the calculated environmental temperature. Is generated.

<変形例>
なお、上記実施の形態で説明したバーチャルリアリティシステムの構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない。
<Modification example>
It should be noted that the configuration of the virtual reality system described in the above embodiment is an example, and it goes without saying that the configuration may be changed within a range that does not deviate from the gist of the present invention.

(他の提示手段)
上記では、図4を参照して、ユーザに感覚又は運動を提示する提示手段として車両の複数の駆動対象を利用することを説明したが、提示手段は車両の一部を構成するものであればよく、例示したものに限定される訳ではない。他の提示手段により例示していない運動や感覚を提示することも可能である。提示手段の種類は1種類には限定されない、複数種類の提示手段を組み合わせて使用してもよい。
(Other presentation means)
In the above, with reference to FIG. 4, it has been described that a plurality of driving objects of the vehicle are used as the presenting means for presenting the sensation or movement to the user, but if the presenting means constitutes a part of the vehicle, Well, it is not limited to the examples. It is also possible to present movements and sensations not illustrated by other presentation means. The type of presenting means is not limited to one, and a plurality of types of presenting means may be used in combination.

例えば、エアサスペンションが搭載されている車両であれば、車両全体を持ち上げる、車両の後部だけを持ち上げる等の車両の姿勢変更により、上下運動や回転運動をユーザに提示することができる。 For example, in the case of a vehicle equipped with an air suspension, vertical movement and rotational movement can be presented to the user by changing the posture of the vehicle such as lifting the entire vehicle or lifting only the rear part of the vehicle.

また、車両の4輪が独立に駆動可能な4輪インホイールが搭載されている車両では、図21(A)〜(D)に示すように、タイヤが同じ色の矢印方向に移動することで、上下運動、ロール運動、ヨー運動、振動運動等、種々の運動をユーザに提示することができる。例えば、図21(A)の上下運動の例では、4つのタイヤが内側に移動すると車両が上方向に移動し、4つのタイヤが外側に移動すると車両が下方向に移動する。また、図21(B)のロール運動の例では、右側のタイヤが上方に移動すると共に左側のタイヤが下方に移動すると車両が左回りに回転し、左側のタイヤが上方に移動すると共に右側のタイヤが下方に移動すると車両が右回りに回転する。また、図21(C)のヨー運動の例では、右側のタイヤが前方に移動すると共に左側のタイヤが後方に移動すると車両が左旋回する。また、図21(D)の振動提示の例では、4つのタイヤ1→2→3→4の順番で前方に移動すると車両が振動しながら左旋回する。 Further, in a vehicle equipped with a four-wheel in-wheel that can independently drive the four wheels of the vehicle, as shown in FIGS. 21 (A) to 21 (D), the tires move in the direction of the arrows of the same color. , Vertical movement, roll movement, yaw movement, vibration movement, and various other movements can be presented to the user. For example, in the example of the vertical movement shown in FIG. 21 (A), when the four tires move inward, the vehicle moves upward, and when the four tires move outward, the vehicle moves downward. Further, in the example of the roll motion shown in FIG. 21B, when the right tire moves upward and the left tire moves downward, the vehicle rotates counterclockwise, the left tire moves upward, and the right tire moves downward. When the tires move downward, the vehicle rotates clockwise. Further, in the example of the yaw motion shown in FIG. 21C, when the tire on the right side moves forward and the tire on the left side moves backward, the vehicle turns to the left. Further, in the example of vibration presentation in FIG. 21 (D), when the four tires move forward in the order of 1 → 2 → 3 → 4, the vehicle makes a left turn while vibrating.

また、上記では映像提示手段としてHMDを用いる例について説明したが、ユーザの視野を覆う他の映像表示手段を用いてもよい。例えば、日本自動車研究所の「JARI-ARV(拡張現実実験車)」のように、ユーザの視界を覆い隠すようにボンネット上にディスプレイを配置してもよい。 Further, although the example of using the HMD as the image presenting means has been described above, another image display means covering the user's field of view may be used. For example, a display may be placed on the bonnet so as to obscure the user's field of view, such as the "JARI-ARV (Augmented Reality Experimental Vehicle)" of the Japan Automobile Research Institute.

10 車両
12 ユーザ
16 VRコンピュータ
18 駆動パターン生成プログラム
20 車両制御用コンピュータ
22 車両モード
24 システムモード
26 操作部
28 計測部
30 駆動部
32 駆動対象
34 通信部
36 操作部
38 表示部
40 記憶部
50 HMD
52 コントローラ
54 頭位置センサ
56 映像更新部
58 制御情報生成部
10 Vehicle 12 User 16 VR Computer 18 Drive pattern generation program 20 Vehicle control computer 22 Vehicle mode 24 System mode 26 Operation unit 28 Measurement unit 30 Drive unit 32 Drive target 34 Communication unit 36 Operation unit 38 Display unit 40 Storage unit 50 HMD
52 Controller 54 Head position sensor 56 Video update unit 58 Control information generation unit

Claims (12)

車両をモーション・プラットフォームとするバーチャルリアリティシステムにおいて、 バーチャル空間を表す映像情報に基づいてユーザに映像を提示する映像提示手段と、
前記バーチャル空間を表す映像情報に応じた感覚又は運動を提示するように、前記車両を移動させた後に停止させ、前記車両を元の位置に戻す駆動パターンで前記車両の加減速を制御する制御手段と、
を備えたバーチャルリアリティシステム。
In a virtual reality system using a vehicle as a motion platform, a video presentation means for presenting a video to a user based on video information representing a virtual space,
A control means for controlling acceleration / deceleration of the vehicle by a drive pattern in which the vehicle is moved and then stopped and the vehicle is returned to the original position so as to present a sensation or motion corresponding to the video information representing the virtual space. When,
Virtual reality system with.
前記制御手段は、バーチャル空間で発生した個々のイベントについて、相互に矛盾しない複数の感覚又は運動をユーザに提示する、請求項1に記載のバーチャルリアリティシステム。 The virtual reality system according to claim 1, wherein the control means presents the user with a plurality of sensations or movements that are consistent with each other for individual events that occur in the virtual space. 前記制御手段は、車両内のユーザに感覚又は運動を提示するために、車両の操作を模擬して車両の一部を駆動する駆動パターンを生成し、生成した駆動パターンに基づいて車両の加減速を制御するための制御情報を生成する、請求項1又は請求項2に記載のバーチャルリアリティシステム。 The control means generates a drive pattern for driving a part of the vehicle by simulating the operation of the vehicle in order to present a sensation or movement to a user in the vehicle, and accelerates / decelerates the vehicle based on the generated drive pattern. The virtual reality system according to claim 1 or 2, which generates control information for controlling the above. 前記制御手段は、バーチャル空間を表す映像情報からバーチャル空間でのイベントの発生を検出し、検出したイベントに応じた感覚又は運動を提示するための駆動パターンを生成する、請求項1から請求項3までのいずれか1項に記載のバーチャルリアリティシステム。 The control means has claims 1 to 3 which detect the occurrence of an event in the virtual space from the video information representing the virtual space and generate a driving pattern for presenting a sensation or a movement corresponding to the detected event. The virtual reality system according to any one of the items up to. 前記制御手段は、前記イベントがオブジェクトの衝突である場合は、前記バーチャル空間を表す映像情報から取得した物理量から前記オブジェクトの衝突による衝撃値を求め、得られた衝撃値に応じた衝突感覚をユーザに提示するための駆動パターンを生成する、請求項4に記載のバーチャルリアリティシステム。 When the event is a collision of an object, the control means obtains an impact value due to the collision of the object from a physical quantity acquired from video information representing the virtual space, and the user obtains a collision sensation according to the obtained impact value. The virtual reality system according to claim 4, which generates a drive pattern for presenting in. 前記制御手段は、前記イベントがオブジェクトの移動である場合は、前記バーチャル空間を表す映像情報から取得した物理量から前記オブジェクトの移動による移動抵抗値を求め、得られた移動抵抗値に応じた移動感覚をユーザに提示するための駆動パターンを生成する、請求項4又は請求項5に記載のバーチャルリアリティシステム。 When the event is the movement of an object, the control means obtains the movement resistance value due to the movement of the object from the physical quantity acquired from the video information representing the virtual space, and the movement sensation according to the obtained movement resistance value. The virtual reality system according to claim 4 or 5, which generates a driving pattern for presenting to the user. 前記制御手段は、前記イベントがオブジェクトの傾斜を伴う移動である場合は、前記バーチャル空間を表す映像情報から取得した物理量から前記オブジェクトの移動による傾斜角度を求め、得られた傾斜角度に応じた平衡感覚をユーザに提示するための駆動パターンを生成する、請求項4から請求項6までのいずれか1項に記載のバーチャルリアリティシステム。 When the event is a movement accompanied by an inclination of the object, the control means obtains an inclination angle due to the movement of the object from a physical quantity acquired from the video information representing the virtual space, and balances according to the obtained inclination angle. The virtual reality system according to any one of claims 4 to 6, which generates a drive pattern for presenting a sense to the user. 前記制御手段は、前記イベントがフィールドの環境変化である場合は、前記バーチャル空間を表す映像情報から取得した物理量からフィールドの環境温度を求め、得られた環境温度に応じて温度感覚を提示するための駆動パターンを生成する、請求項4から請求項7までのいずれか1項に記載のバーチャルリアリティシステム。 When the event is a change in the environment of the field, the control means obtains the environmental temperature of the field from the physical quantity acquired from the video information representing the virtual space, and presents the temperature sensation according to the obtained environmental temperature. The virtual reality system according to any one of claims 4 to 7, wherein the driving pattern of the above is generated. 前記駆動パターンは、
シフトをニュートラルからドライブに切り替えてアクセルをオンした後で、アクセルをオフにしてシフトをニュートラルに戻し、停車後にクリープで車両を元の位置まで戻す第1の駆動パターン、
又は、シフトをニュートラルからドライブに切り替えてアクセルをオンした後で、アクセルをオフし、続けてシフトをニュートラルに切り替えてブレーキをオンし、停車後にクリープで車両を元の位置まで戻す第2の駆動パターンである、
請求項5に記載のバーチャルリアリティシステム。
The drive pattern is
The first drive pattern, after switching the shift from neutral to drive and turning on the accelerator, then turning off the accelerator to return the shift to neutral and then creeping back the vehicle to its original position after stopping.
Alternatively, after switching the shift from neutral to drive and turning on the accelerator, the accelerator is turned off, then the shift is switched to neutral and the brake is turned on, and after the vehicle is stopped, the vehicle is creeped back to its original position. Is a pattern,
The virtual reality system according to claim 5.
前記車両と前記制御手段との通信を制限する、
請求項1に記載のバーチャルリアリティシステム。
Restrict communication between the vehicle and the control means,
The virtual reality system according to claim 1.
前記車両内のユーザの反応を検出する検出手段をさらに備え、
前記制御手段は、前記検出手段で検出された反応が閾値以下の場合は、前記感覚又は運動の提示を繰り返し行うように前記車両の加減速を制御する、
請求項1に記載のバーチャルリアリティシステム。
Further provided with a detection means for detecting the reaction of the user in the vehicle,
When the reaction detected by the detection means is equal to or less than the threshold value, the control means controls the acceleration / deceleration of the vehicle so as to repeatedly present the sensation or movement.
The virtual reality system according to claim 1.
前記車両の前方のスペースを検知する検知手段をさらに備え、
前記制御手段は、前記検知手段で予め定めたスペースが検知されない場合は、前記衝撃値の正負を反転させて、車両を後方に移動させた後に停止させる駆動パターンを生成する、請求項5に記載のバーチャルリアリティシステム。
Further equipped with a detection means for detecting the space in front of the vehicle,
The control means according to claim 5, wherein when the detection means does not detect a predetermined space, the positive and negative of the impact value are reversed to generate a drive pattern in which the vehicle is moved backward and then stopped. Virtual reality system.
JP2015237791A 2015-12-04 2015-12-04 Virtual reality system Active JP6819036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237791A JP6819036B2 (en) 2015-12-04 2015-12-04 Virtual reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237791A JP6819036B2 (en) 2015-12-04 2015-12-04 Virtual reality system

Publications (2)

Publication Number Publication Date
JP2017102401A JP2017102401A (en) 2017-06-08
JP6819036B2 true JP6819036B2 (en) 2021-01-27

Family

ID=59017483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237791A Active JP6819036B2 (en) 2015-12-04 2015-12-04 Virtual reality system

Country Status (1)

Country Link
JP (1) JP6819036B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6648061B2 (en) * 2017-03-28 2020-02-14 Kddi株式会社 Video distribution apparatus, system, program and method for distributing video according to client status
JP7168858B2 (en) * 2019-10-01 2022-11-10 株式会社カプコン Game program, self-driving car, and game system
KR102127324B1 (en) * 2020-04-16 2020-06-26 한국기술교육대학교 산학협력단 Smart exercise system in autonomous vehicle and exercise method using the same
US20220227375A1 (en) 2021-01-19 2022-07-21 Denso Ten Limited Information processing device, information processing method, computer readable medium, and map storage device
CN116310186B (en) * 2023-05-10 2023-08-04 深圳智筱视觉科技有限公司 AR virtual space positioning method based on geographic position

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0131260Y2 (en) * 1984-08-31 1989-09-25
US4752065A (en) * 1985-12-19 1988-06-21 Showscan Film Corporation Motion picture amusement ride
JPH0732672U (en) * 1993-11-24 1995-06-16 株式会社東京アールアンドデー Experience simulated cars and circuits
JP3849481B2 (en) * 2001-10-03 2006-11-22 ソニー株式会社 Signal processing method, signal processing apparatus, and signal processing program
JP2006047478A (en) * 2004-08-02 2006-02-16 Murakami Shokai:Kk Virtual reality producing device, virtual reality production controller, and virtual reality production control program
US9457282B2 (en) * 2014-05-21 2016-10-04 Universal City Studios Llc Virtual attraction controller

Also Published As

Publication number Publication date
JP2017102401A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6819036B2 (en) Virtual reality system
CN108657089B (en) Amusement device for automatically driving a motor vehicle
US9902403B2 (en) Sensory stimulation for an autonomous vehicle
CN110368679B (en) Vehicle-mounted game method, device, vehicle and machine-readable medium
CN110368681B (en) Vehicle-mounted game method, device, vehicle and machine-readable medium
US10585471B2 (en) Systems and methods to provide an interactive space based on predicted events
CN105807922A (en) Implementation method, device and system for virtual reality entertainment driving
JP6719308B2 (en) Simulation system and program
CN110368680B (en) Vehicle-mounted game method and device
KR101134008B1 (en) A game machine for the vitual reality bodily sensation
JPH10151272A (en) Game device
JP2008256737A (en) Movable body controller
CN112092704A (en) Amusement device for autonomous vehicle
JP2006047478A (en) Virtual reality producing device, virtual reality production controller, and virtual reality production control program
CN111316342B (en) Automatic brake simulation experience device of four-wheel automobile
JP4040609B2 (en) Moving body simulation apparatus and moving body simulation program
JP2007094082A (en) Mobile object simulator system, control method and control program thereof
CN110947175A (en) High-simulation in-person three-screen body sense racing car
JP2007219098A (en) Drive simulation system and interface device provided to the same
US20240095418A1 (en) System and method for an augmented-virtual reality driving simulator using a vehicle
JP2005315999A (en) Driving simulation method and driving simulator
KR20140101455A (en) Control device of combat simulation game
JP3331342B2 (en) Drive game machine
US20230302374A1 (en) Entertainment system for a vehicle
JP2923497B1 (en) Motion sensation generator

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20151225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150