JP2009085805A - Motion tracker apparatus - Google Patents

Motion tracker apparatus Download PDF

Info

Publication number
JP2009085805A
JP2009085805A JP2007257145A JP2007257145A JP2009085805A JP 2009085805 A JP2009085805 A JP 2009085805A JP 2007257145 A JP2007257145 A JP 2007257145A JP 2007257145 A JP2007257145 A JP 2007257145A JP 2009085805 A JP2009085805 A JP 2009085805A
Authority
JP
Japan
Prior art keywords
relative
coordinate system
relative information
information
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007257145A
Other languages
Japanese (ja)
Other versions
JP4924342B2 (en
Inventor
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2007257145A priority Critical patent/JP4924342B2/en
Publication of JP2009085805A publication Critical patent/JP2009085805A/en
Application granted granted Critical
Publication of JP4924342B2 publication Critical patent/JP4924342B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion tracker apparatus capable of accurately measuring a current position and a current angle of an object such as a helmet etc. with a head-mounted display device to a relative coordinate system set in a camera device. <P>SOLUTION: The motion tracker apparatus 1 is provided with the camera device 2 and an optical-marker-position information computation part 24 for computing optical-marker position information, being current positions of optical markers 7. The motion tracker apparatus 1 is provided with an object angular velocity sensor 14; an object acceleration sensor 15; an object velocity computation part 25; and a change-over part 29 for computing relative information at a first relative information computation part 22 when the optical-marker position information includes current positions of three optical markers 7 or more, computing relative information at a second relative information computation part 23 when the optical-marker position information includes an current position of one optical marker 7 or current positions of two optical markers 7, and computing relative information at a third relative information computation part 26 when the optical marker position information includes no current positions of any optical markers 7. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カメラ装置に設定された相対座標系に対する対象物の現在位置及び現在角度を測定するためのモーショントラッカ装置(以下、MT装置ともいう)に関する。本発明は、例えば、ゲーム機や乗物等の移動体で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、現在の頭部位置及び頭部角度)を測定するHMT装置(以下、HMT装置ともいう)等に利用される。 The present invention relates to a motion tracker device (hereinafter also referred to as an MT device) for measuring a current position and a current angle of an object with respect to a relative coordinate system set in a camera device. The present invention relates to an HMT device that measures a current position and a current angle (that is, a current head position and a head angle) of a helmet with a head-mounted display device used in a moving body such as a game machine or a vehicle (for example, Hereinafter, it is also used as an HMT apparatus).

時々刻々と変動する物体の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機では、バーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより、映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要があり、頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するために、HMT装置が利用されている。 A technique for accurately measuring the current position and current angle of an object that changes from moment to moment is used in various fields. For example, in a game machine, an image is displayed by using a helmet with a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to change the image in accordance with the current position and current angle of the head-mounted display-equipped helmet. In order to measure the current position and current angle of the head-mounted display-equipped helmet, the HMT The device is being used.

また、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(救難飛行艇)の緯度、経度、高度、姿勢に加えて、飛行体に設定された相対座標系に対するパイロットの頭部の現在位置や現在角度を測定する必要があり、HMT装置が利用されている。 Also, in the rescue operation by the rescue flying boat, in order not to lose sight of the found rescue target, by locking when the aiming image displayed by the helmet with head mounted display device corresponds to the rescue target, Calculating the position of the locked rescue target has been done. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude, and attitude of the flying object (rescue flying boat), the current position of the pilot's head relative to the relative coordinate system set for the flying object It is necessary to measure the current angle, and an HMT apparatus is used.

頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている(例えば、特許文献1参照)。例えば、光学マーカー群として、複数の反射板を頭部装着型表示装置付ヘルメットの外周面上に取り付けるとともに、光源から光を照射したときの反射光をカメラ装置でモニタする光学方式のHMT装置が開示されている。また、発光体を互いに離隔するようにして複数箇所に取り付けた光学方式のHMT装置もある(例えば、特許文献2参照)。図5は、従来の光学方式のHMT装置を示す図である。図5に示すように、頭部装着型表示装置付ヘルメット50の外周面上に、光学マーカー群として、発光体であるLED(発光ダイオード)7を互いに離隔するようにして3箇所に取り付け、これら3個のLED7の相対的な位置関係をHMT装置に予め記憶させておく。そして、これら3個のLED7を、設置場所が固定された2台のカメラ2a、2bで同時に立体視で撮影することで、所謂、三角測量の原理により、現在の3個のLED7の相対的な位置関係を測定している。このようにして、頭部装着型表示装置付ヘルメット50に固定された3点の位置(3個のLEDの位置)が特定できれば、頭部装着型表示装置付ヘルメット50の位置や角度が特定できるので、これにより、2台のカメラ2a、2bに対する頭部装着型表示装置付ヘルメット50の移動位置や移動角度を算出している。
特表平9−506194号公報 特願2006−284442号公報
As an HMT device used for a helmet with a head-mounted display device, an apparatus that optically measures the current position and current angle of the helmet with a head-mounted display device is disclosed (for example, see Patent Document 1). ). For example, as an optical marker group, there is an optical HMT device that attaches a plurality of reflecting plates on the outer peripheral surface of a helmet with a head-mounted display device and monitors reflected light when a light is emitted from a light source with a camera device. It is disclosed. There is also an optical HMT device in which light emitters are attached to a plurality of locations so as to be separated from each other (see, for example, Patent Document 2). FIG. 5 is a diagram showing a conventional optical HMT apparatus. As shown in FIG. 5, on the outer peripheral surface of the helmet 50 with a head-mounted display device, as an optical marker group, LEDs (light emitting diodes) 7 as light emitters are attached to three locations so as to be separated from each other. The relative positional relationship of the three LEDs 7 is stored in advance in the HMT device. Then, these three LEDs 7 are photographed in stereoscopic view simultaneously by two cameras 2a and 2b whose installation locations are fixed, so that the relative relationship between the current three LEDs 7 can be determined based on the so-called triangulation principle. The positional relationship is measured. In this way, if three positions (positions of three LEDs) fixed to the helmet 50 with a head-mounted display device can be specified, the position and angle of the helmet 50 with a head-mounted display device can be specified. Therefore, the movement position and movement angle of the helmet 50 with a head-mounted display device with respect to the two cameras 2a and 2b are calculated.
JP-T 9-506194 Japanese Patent Application No. 2006-284442

しかしながら、光学方式のHMT装置においては、2台のカメラ2a、2bにより3個のLED7を観測し続ける必要があるが、図6に示すように、頭部装着型表示装置付ヘルメット50の位置や角度が大きく変化する場合には、3個のLED7の位置とカメラ2a、2bの設置場所との関係で、3個のLED7の内のいくつかがカメラ2a、2bの視野から外れることがあり、その結果、頭部装着型表示装置付ヘルメット50の測定ができなくなることがあった。
そこで、本発明は、カメラ装置でLED等の光学マーカーの検出ができなくなったときに、カメラ装置に設定された相対座標系に対する、頭部装着型表示装置付ヘルメット等の対象物の現在位置及び現在角度を、精度よく測定することができるモーショントラッカ装置を提供することを目的とする。
However, in the optical HMT device, it is necessary to continue to observe the three LEDs 7 with the two cameras 2a and 2b. However, as shown in FIG. When the angle changes greatly, some of the three LEDs 7 may be out of the field of view of the cameras 2a and 2b due to the relationship between the positions of the three LEDs 7 and the installation locations of the cameras 2a and 2b. As a result, measurement of the helmet 50 with a head-mounted display device may not be possible.
Therefore, the present invention provides a current position of an object such as a helmet with a head-mounted display device with respect to a relative coordinate system set in the camera device when an optical marker such as an LED cannot be detected by the camera device. It is an object of the present invention to provide a motion tracker device that can accurately measure the current angle.

上記課題を解決するためになされた本発明のモーショントラッカ装置は、対象物に位置決めされて取り付けられた3個以上の光学マーカーと、相対座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記相対座標系に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、相対情報記憶部に記憶させる第一相対情報算出部とを備えるモーショントラッカ装置であって、前記対象物に取り付けられるとともに、前記対象物に作用する対象物角速度を検出する対象物角速度センサと、前記対象物に取り付けられるとともに、前記対象物に作用する対象物加速度を検出する対象物加速度センサと、前記相対情報記憶部に記憶された少なくとも2つの相対情報に基づいて、前記対象物の対象物速度を算出する対象物速度算出部と、前記対象物角速度、光学マーカー位置情報、及び、記憶された相対情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、前記相対情報記憶部に記憶させる第二相対情報算出部と、前記対象物角速度、対象物加速度、対象物速度、及び、記憶された相対情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、前記相対情報記憶部に記憶させる第三相対情報算出部と、前記光学マーカー位置情報算出部で算出された光学マーカー位置情報が、3個以上の光学マーカーの現在位置を含むときには、前記第一相対情報算出部で相対情報を算出し、前記光学マーカー位置情報が、1個以上3個未満の光学マーカーの現在位置を含むときには、前記第二相対情報算出部で相対情報を算出し、前記光学マーカー位置情報が、全く光学マーカーの現在位置を含まないときには、前記第三相対情報算出部で相対情報を算出する切替部とを備えるようにしている。 In order to solve the above problems, the motion tracker device of the present invention has three or more optical markers positioned and attached to an object, a relative coordinate system, and a three-dimensional view of light rays from the optical markers. Based on the detected light beam, an optical marker position information calculating unit that calculates optical marker position information that is a current position of the optical marker with respect to the relative coordinate system, and based on the optical marker position information A motion tracker device comprising: a first relative information calculation unit that calculates relative information including a current position and a current angle of an object relative to the relative coordinate system, and stores the relative information in a relative information storage unit; An object angular velocity sensor for detecting an object angular velocity acting on the object and attached to the object. And an object acceleration sensor for detecting an object acceleration acting on the object, and an object for calculating an object speed of the object based on at least two pieces of relative information stored in the relative information storage unit. Based on the velocity calculation unit, the object angular velocity, the optical marker position information, and the stored relative information, the relative information including the current position and the current angle of the object with respect to the relative coordinate system is calculated, and the relative Based on the second relative information calculation unit to be stored in the information storage unit, the object angular velocity, the object acceleration, the object speed, and the stored relative information, the current position and the current position of the object with respect to the relative coordinate system Calculating relative information including an angle and storing the relative information in the relative information storage unit; and the optical marker position information calculated by the optical marker position information calculation unit. However, when the current position of three or more optical markers is included, the first relative information calculation unit calculates relative information, and the optical marker position information includes the current positions of one or more than three optical markers. Sometimes, the second relative information calculation unit calculates relative information, and when the optical marker position information does not include any current position of the optical marker, the third relative information calculation unit calculates relative information; It is intended to have.

ここで、「対象物角速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする角速度を検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。
また、「対象物加速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を検出できるもののことをいい、例えば、加速度センサ等が用いられる。
Here, the “object angular velocity sensor” means a sensor whose three axes are defined in the sensor itself and can detect an angular velocity with reference to these three axes. For example, a gyro sensor or the like is used.
The “object acceleration sensor” refers to a sensor in which three axes are defined in the sensor itself, and acceleration in a triaxial direction with reference to the three axes can be detected. For example, an acceleration sensor or the like is used.

本発明のHMT装置によれば、3個以上の光学マーカーが、対象物に位置決めされて取り付けられている。また、カメラ装置が、光学マーカーからの光線を立体視で検出する。そして、光学マーカー位置情報算出部は、検出された光線に基づいて、相対座標系に対する光学マーカーの現在位置である光学マーカー位置情報を算出する。このとき、光学マーカー位置情報が、3個以上の光学マーカーの現在位置を含んでいれば、対象物の現在位置及び現在角度が特定できるので、第一相対情報算出部が光学マーカー位置情報のみを用いて相対情報を算出する。
しかし、対象物の位置や角度が大きく変化した場合には、光学マーカーの位置とカメラ装置の設置場所との関係で、カメラ装置により1個若しくは2個の光学マーカーからの光線のみしか立体視で検出することができないことがある。そこで、本発明のHMT装置では、対象物角速度センサが、対象物に作用する対象物角速度を検出する。これにより、光学マーカー位置情報が、1個以上3個未満の光学マーカーの現在位置を含むときには、第二相対情報算出部が、光学マーカー位置情報を用いて対象物の位置を特定するとともに、対象物角速度を用いて対象物の移動角度量を算出することにより、相対情報を算出する。
さらに、対象物の位置や角度が大きく変化した場合には、光学マーカーの位置とカメラ装置の設置場所との関係で、カメラ装置により全く光学マーカーからの光線を立体視で検出することができないことがある。そこで、本発明のHMT装置では、対象物加速度センサが、対象物に作用する対象物加速度を検出する。これにより、光学マーカー位置情報が、全く光学マーカーの現在位置を含まないときには、第三相対情報算出部が、対象物角速度を用いて対象物の移動角度量を算出するとともに、対象物加速度を用いて対象物の移動距離量を算出することにより、相対情報を算出する。
According to the HMT device of the present invention, three or more optical markers are positioned and attached to an object. Further, the camera device detects the light beam from the optical marker by stereoscopic vision. The optical marker position information calculation unit calculates optical marker position information, which is the current position of the optical marker with respect to the relative coordinate system, based on the detected light beam. At this time, if the optical marker position information includes the current positions of three or more optical markers, the current position and the current angle of the object can be specified, so the first relative information calculation unit calculates only the optical marker position information. To calculate relative information.
However, when the position or angle of the object changes greatly, only the light rays from one or two optical markers can be stereoscopically viewed by the camera device due to the relationship between the position of the optical marker and the installation location of the camera device. It may not be detected. Therefore, in the HMT apparatus of the present invention, the object angular velocity sensor detects the object angular velocity acting on the object. Thereby, when the optical marker position information includes the current position of one or more and less than three optical markers, the second relative information calculation unit specifies the position of the object using the optical marker position information, and the target The relative information is calculated by calculating the amount of movement angle of the object using the object angular velocity.
Furthermore, when the position or angle of the object changes significantly, the camera device cannot detect the light beam from the optical marker in stereoscopic view due to the relationship between the position of the optical marker and the installation location of the camera device. There is. Therefore, in the HMT apparatus of the present invention, the object acceleration sensor detects the object acceleration acting on the object. Thereby, when the optical marker position information does not include the current position of the optical marker at all, the third relative information calculation unit calculates the moving angle amount of the object using the object angular velocity and uses the object acceleration. The relative information is calculated by calculating the moving distance of the object.

以上のように、本発明のHMT装置によれば、カメラ装置により光学マーカーの検出ができなくなるような、第一相対情報算出部が相対情報を算出できない状態になったときにも、第二相対情報算出部や第三相対情報算出部が相対情報を算出することができる。
なお、第三相対情報算出部は、対象物角速度と対象物加速度とに基づいて、相対情報を算出するが、対象物加速度を用いて対象物の移動距離量を算出する際に2回積分を実施するため、高い精度を長時間確保することはできない。そこで、第一相対情報算出部が相対情報を算出できない状態になったときに、光学マーカー位置情報が、1個以上3個未満の光学マーカーの現在位置を含む場合には、対象物加速度を用いず、第二相対情報算出部が、光学マーカー位置情報を用いて対象物の位置を特定するとともに、対象物角速度を用いて対象物の移動角度量を算出することにより、相対情報を算出する。つまり、光学マーカー位置情報が、全く光学マーカーの現在位置を含まない場合のみに、第三相対情報算出部が、対象物角速度を用いて対象物の移動角度量を算出するとともに、対象物加速度を用いて対象物の移動距離量を算出することにより、相対情報を算出する。したがって、対象物加速度を用いて対象物の移動距離量を算出する時間を減少させることで、高い精度を保持することができる。すなわち、精度よく、移動体に設定された相対座標系に対する対象物の現在位置及び現在角度を算出することができる。
As described above, according to the HMT device of the present invention, even when the first relative information calculation unit becomes unable to calculate relative information such that the optical marker cannot be detected by the camera device, the second relative The information calculation unit and the third relative information calculation unit can calculate the relative information.
The third relative information calculation unit calculates the relative information based on the object angular velocity and the object acceleration, but performs the integration twice when calculating the moving distance of the object using the object acceleration. As a result, high accuracy cannot be ensured for a long time. Therefore, when the first relative information calculation unit cannot calculate relative information, if the optical marker position information includes the current position of one or more and less than three optical markers, the object acceleration is used. First, the second relative information calculation unit calculates the relative information by specifying the position of the object using the optical marker position information and calculating the moving angle amount of the object using the object angular velocity. That is, only when the optical marker position information does not include the current position of the optical marker at all, the third relative information calculation unit calculates the movement angle amount of the object using the object angular velocity and calculates the object acceleration. The relative information is calculated by calculating the moving distance amount of the object. Therefore, high accuracy can be maintained by reducing the time for calculating the moving distance of the object using the object acceleration. That is, the current position and current angle of the object with respect to the relative coordinate system set on the moving body can be calculated with high accuracy.

(他の課題を解決するための手段および効果)
また、上記発明において、前記対象物は、搭乗者の頭部に装着されるヘルメットであり、かつ、前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、さらに、前記移動体に取り付けられるとともに、前記移動体に作用する移動体角速度を、前記対象物角速度センサと同時間に検出する移動体角速度センサと、前記移動体に取り付けられるとともに、前記移動体に作用する移動体加速度を、前記対象物加速度センサと同時間に検出する移動体加速度センサとを備え、前記第二相対情報算出部は、前記対象物角速度、光学マーカー位置情報、記憶された相対情報、及び、移動体角速度に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出し、前記第三相対情報算出部は、前記対象物角速度、対象物加速度、対象物速度、記憶された相対情報、移動体角速度、及び、移動体加速度に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出するようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the object is a helmet to be mounted on a passenger's head, and the camera device is attached to a moving body on which the passenger is boarded, and is further attached to the moving body. And a moving body angular velocity sensor that detects a moving body angular velocity acting on the moving body at the same time as the object angular velocity sensor, and a moving body acceleration that is attached to the moving body and acts on the moving body, A moving body acceleration sensor that detects the object acceleration sensor at the same time, and the second relative information calculation unit calculates the object angular velocity, the optical marker position information, the stored relative information, and the moving body angular velocity. Based on the relative coordinate system to calculate relative information including the current position and current angle of the object, the third relative information calculation unit, the object angular velocity, the object Relative information including the current position and current angle of the object relative to the relative coordinate system may be calculated based on the acceleration, the object speed, the stored relative information, the mobile object angular velocity, and the mobile object acceleration. .

ここで、「移動体角速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする角速度を検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。なお、上述した対象物角速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになる。一方、移動体角速度センサは、対象物が移動体中で移動しても、移動体の動きのみの情報を検出することになる。
また、「移動体加速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を検出できるもののことをいい、例えば、加速度センサ等が用いられる。なお、上述した対象物加速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになる。一方、移動体加速度センサは、対象物が移動体中で移動しても、移動体の動きのみの情報を検出することになる。
Here, the “moving body angular velocity sensor” refers to a sensor whose three axes are defined in the sensor itself and capable of detecting an angular velocity based on these three axes. For example, a gyro sensor or the like is used. Note that the above-described object angular velocity sensor detects movement information obtained by combining the movement of the object and the movement of the moving object when the object moves in the moving object. On the other hand, the moving body angular velocity sensor detects only the movement of the moving body even if the object moves in the moving body.
The “moving body acceleration sensor” refers to a sensor in which three axes are defined in the sensor itself, and acceleration in a triaxial direction with reference to the three axes can be detected. For example, an acceleration sensor or the like is used. Note that the object acceleration sensor described above detects movement information obtained by combining the movement of the object and the movement of the moving object when the object moves in the moving object. On the other hand, the moving body acceleration sensor detects only the movement of the moving body even if the object moves in the moving body.

本発明のHMT装置によれば、搭乗者が移動体中に搭乗しているときには、対象物角速度センサは、搭乗者の動きと移動体の動きとが合成された動きの情報を検出するが、移動体角速度センサが移動体の動きのみの情報を検出するため、対象物角速度と移動体角速度とを用いて、移動体の動きを除外した搭乗者の動きのみの情報を算出することができる。また、対象物加速度センサも、搭乗者の動きと移動体の動きとが合成された動きの情報を検出するが、移動体加速度センサが移動体の動きのみの情報を検出するため、対象物加速度と移動体加速度とを用いて、移動体の動きを除外した搭乗者の動きのみの情報を算出することができる。これにより、搭乗者が移動体に搭乗していても、相対情報を算出することができる。 According to the HMT device of the present invention, when the occupant is in the moving body, the object angular velocity sensor detects the information on the movement in which the movement of the occupant and the movement of the moving body are combined. Since the moving body angular velocity sensor detects only information on the movement of the moving body, it is possible to calculate only the information on the movement of the passenger excluding the movement of the moving body using the object angular velocity and the moving body angular velocity. The object acceleration sensor also detects movement information obtained by combining the movement of the passenger and the movement of the moving body. However, since the moving body acceleration sensor detects only the movement of the moving body, the object acceleration is detected. And the moving body acceleration can be used to calculate information on only the movement of the passenger excluding the movement of the moving body. Thereby, even if the passenger is on the moving body, the relative information can be calculated.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.

図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの平面図である。また、図3は、相対座標系(XYZ座標系)の設定を説明するための図である。
本実施形態は、飛行体30に搭乗するパイロット3が着用する頭部装着型表示装置付ヘルメットの現在位置及び現在角度を算出するものである。つまり、HMT装置1は、飛行体30に設定された相対座標系(XYZ座標系)に対する、パイロット3が着用する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出する。なお、相対座標系(XYZ座標系)は、後述するカメラ装置2を基準とするものであり、相対座標系記憶部43に記憶され、一方、ヘルメット座標系(X’Y’Z’座標系)は、後述するLED群7を基準として設定されたものであり、ヘルメット座標系記憶部44に記憶されている。また、角度(RLh)は、ロール方向(X軸に対する回転)の角度であり、角度(ELh)は、エレベーション方向(Y軸に対する回転)の角度であり、角度(AZh)は、アジマス方向(Z軸に対する回転)の角度である。
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a plan view of the helmet with a head-mounted display device shown in FIG. FIG. 3 is a diagram for explaining the setting of the relative coordinate system (XYZ coordinate system).
In the present embodiment, the current position and the current angle of the helmet with a head mounted display device worn by the pilot 3 boarding the flying object 30 are calculated. That is, the HMT device 1 has a helmet coordinate system (X′Y ′) set in the helmet 10 with a head mounted display device worn by the pilot 3 with respect to the relative coordinate system (XYZ coordinate system) set in the flying object 30. The position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the Z ′ coordinate system) are calculated. The relative coordinate system (XYZ coordinate system) is based on the camera device 2 described later, and is stored in the relative coordinate system storage unit 43, while the helmet coordinate system (X'Y'Z 'coordinate system). Is set based on the LED group 7 described later, and is stored in the helmet coordinate system storage unit 44. The angle (RLh) is an angle in the roll direction (rotation with respect to the X axis), the angle (ELh) is an angle in the elevation direction (rotation with respect to the Y axis), and the angle (AZh) is in the azimuth direction ( Angle of rotation with respect to the Z-axis).

HMT装置1は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット10と、飛行体30に取り付けられたカメラ装置2と、飛行体30に取り付けられた移動体3軸ジャイロセンサ(移動体角速度センサ)4及び移動体加速度センサ5と、コンピュータにより構成される制御部20とから構成される。 The HMT apparatus 1 includes a helmet 10 with a head-mounted display device attached to the head of a pilot 3, a camera device 2 attached to the flying object 30, and a mobile three-axis gyro sensor attached to the flying object 30. (Moving body angular velocity sensor) 4 and moving body acceleration sensor 5, and a control unit 20 constituted by a computer.

頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くコンバイナ8と、LED(光学マーカー)群7と、対象物3軸ジャイロセンサ(対象物角速度センサ)14と、対象物加速度センサ15とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロット3は、表示器による表示画像とコンバイナ8の前方実在物とを視認することが可能となっている。
LED群7は、図2に示すように、互いに異なる波長の赤外光を発光する3個(あるいは3個以上の数)のLED7a、7b、7cが互いに離隔するようにして取り付けられたものである。
The helmet 10 with a head-mounted display device includes a display (not shown), a combiner 8 that guides the eyes of the pilot 3 by reflecting image display light emitted from the display, and an LED (optical marker). A group 7, an object three-axis gyro sensor (object angular velocity sensor) 14, and an object acceleration sensor 15 are included. In addition, the pilot 3 wearing the helmet 10 with a head-mounted display device can visually recognize the display image by the display and the front actual thing of the combiner 8.
As shown in FIG. 2, the LED group 7 is mounted such that three (or three or more) LEDs 7a, 7b, 7c emitting infrared light having different wavelengths are separated from each other. is there.

ここで、ヘルメット座標系(X’Y’Z’座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図2に示すように、原点をLED7aの位置とし、前方方向をX’軸方向とし、前方方向に垂直方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直方向をZ’軸方向とするように定義するように、後述するヘルメット座標系記憶部44に設定されている。また、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置関係(初期データ)も、ヘルメット座標系記憶部44に記憶されている。これにより、後述する三角測量の手法で、現時点における3個のLED7a、7b、7cの位置を算出し、初期データを参照することで、頭部装着型表示装置ヘルメット10の現在位置及び現在角度が、ヘルメット座標系(X’Y’Z’座標系)を用いて表現されるようになっている。 Here, the helmet coordinate system (X′Y′Z ′ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 2, the origin is the position of the LED 7a. As will be described later, the forward direction is defined as the X ′ axis direction, the forward direction is defined as the Y ′ axis direction, and the X ′ axis direction and the Y ′ axis direction are defined as the Z ′ axis direction. It is set in the helmet coordinate system storage unit 44. Further, the positional relationship (initial data) of the three LEDs 7 a, 7 b, 7 c on the helmet coordinate system (X′Y′Z ′ coordinate system) is also stored in the helmet coordinate system storage unit 44. Thereby, the position of the three LEDs 7a, 7b, and 7c at the present time is calculated by a triangulation method to be described later, and the current position and the current angle of the head mounted display device helmet 10 are determined by referring to the initial data. It is expressed using a helmet coordinate system (X′Y′Z ′ coordinate system).

対象物3軸ジャイロセンサ14は、頭部装着型表示装置付ヘルメット10に作用する対象物角速度(V’RL、V’EL、V’AZ)を検出するものである。また、対象物3軸ジャイロセンサ14は、ヘルメット座標系(X’Y’Z’座標系)に軸を合わせられて、頭部装着型表示装置付ヘルメット10に取り付けられている。よって、ロール方向(X’軸に対する回転)、エレベーション方向(Y’軸に対する回転)、アジマス方向(Z’軸に対する回転)における対象物角速度(V’RL、V’EL、V’AZ)が検出される。このとき、パイロット3は飛行体30に乗っており、飛行体30自体も動いているので、対象物角速度(V’RL、V’EL、V’AZ)は、パイロット3の頭部の角速度だけでなく、飛行体30の角速度も含んだものとなる。
なお、対象物3軸ジャイロセンサ14は、ヘルメット座標系(X’Y’Z’座標系)の原点に取り付けられていてもよく、ヘルメット座標系(X’Y’Z’座標系)の原点以外の位置に取り付けられた場合には、ヘルメット座標系(X’Y’Z’座標系)の原点の位置での角速度を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で、対象物角速度(V’RL、V’EL、V’AZ)に変換することになる。
The object 3-axis gyro sensor 14 detects an object angular velocity (V ′ RL , V ′ EL , V ′ AZ ) that acts on the helmet 10 with a head-mounted display device. Further, the object 3-axis gyro sensor 14 is attached to the helmet 10 with a head-mounted display device with its axis aligned with the helmet coordinate system (X′Y′Z ′ coordinate system). Accordingly, the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) in the roll direction (rotation with respect to the X ′ axis), the elevation direction (rotation with respect to the Y ′ axis), and the azimuth direction (rotation with respect to the Z ′ axis) are determined. Detected. At this time, since the pilot 3 is on the flying body 30 and the flying body 30 itself is moving, the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) are only the angular velocities of the head of the pilot 3. In addition, the angular velocity of the flying object 30 is included.
Note that the object 3-axis gyro sensor 14 may be attached to the origin of the helmet coordinate system (X′Y′Z ′ coordinate system), other than the origin of the helmet coordinate system (X′Y′Z ′ coordinate system). In the general calculation method such as multiplying the offset matrix M0 to obtain the angular velocity at the position of the origin of the helmet coordinate system (X'Y'Z 'coordinate system) The object angular velocity (V ′ RL , V ′ EL , V ′ AZ ) is converted.

対象物加速度センサ15は、頭部装着型表示装置付ヘルメット10に作用する対象物加速度(α’、α’、α’)を検出するものである。また、対象物加速度センサ15は、ヘルメット座標系(X’Y’Z’座標系)に軸を合わせられて、頭部装着型表示装置付ヘルメット10に取り付けられている。よって、X’軸、Y’軸、Z’軸における対象物加速度(α’、α’、α’)が検出される。このとき、パイロット3は飛行体30に乗っており、飛行体30自体も動いているので、対象物加速度(α’、α’、α’)は、パイロット3の頭部の加速度だけでなく、飛行体30の加速度も含んだものとなる。
なお、軸合わせされずに、頭部装着型表示装置付ヘルメット10に取り付けられている場合は、座標変換行列を求めておくことで、ヘルメット座標系と関連付けを行うことになる。
The object acceleration sensor 15 detects an object acceleration (α ′ x , α ′ y , α ′ z ) that acts on the helmet 10 with a head-mounted display device. The object acceleration sensor 15 is attached to the head mounted display-equipped helmet 10 with the axis aligned with the helmet coordinate system (X′Y′Z ′ coordinate system). Therefore, object accelerations (α ′ x , α ′ y , α ′ z ) in the X ′ axis, the Y ′ axis, and the Z ′ axis are detected. At this time, since the pilot 3 is on the flying body 30 and the flying body 30 itself is moving, the object acceleration (α ′ x , α ′ y , α ′ z ) is only the acceleration of the head of the pilot 3. In addition, the acceleration of the flying object 30 is included.
In addition, when it is attached to the helmet 10 with a head-mounted display device without being aligned, association with the helmet coordinate system is performed by obtaining a coordinate transformation matrix.

なお、本実施形態では、初期の状態において、パイロット3によって相対座標系(XYZ座標系)とヘルメット座標系(X’Y’Z’座標系)とが正確に軸合わせされたり、相対座標系とヘルメット座標系との軸ズレ量が算出されたりする必要がある。ここで、相対座標系とヘルメット座標系との軸合わせの方法としては、例えば、頭部装着型表示装置付ヘルメット10を装着したパイロット3に特定方向を向くように指示することにより、相対座標系とヘルメット座標系とを軸合わせする方法等が挙げられる。これにより、対象物3軸ジャイロセンサ14と移動体3軸ジャイロセンサ4との軸合わせが行われるとともに、対象物加速度センサ15と移動体加速度センサ5との軸合わせが行われることになる。 In the present embodiment, in the initial state, the relative coordinate system (XYZ coordinate system) and the helmet coordinate system (X′Y′Z ′ coordinate system) are accurately aligned by the pilot 3, or the relative coordinate system It is necessary to calculate the amount of axis misalignment with the helmet coordinate system. Here, as a method of aligning the relative coordinate system and the helmet coordinate system, for example, by instructing the pilot 3 wearing the head mounted display-equipped helmet 10 to point in a specific direction, the relative coordinate system And a method of aligning the helmet coordinate system with each other. Thus, the alignment of the object triaxial gyro sensor 14 and the movable body triaxial gyro sensor 4 is performed, and the alignment of the object acceleration sensor 15 and the movable body acceleration sensor 5 is performed.

飛行体30は、パイロット3が搭乗するコックピットであり、パイロット3が着席する座席30aと、カメラ装置2と、移動体3軸ジャイロセンサ4と、移動体加速度センサ5とを備える。
カメラ装置2は、第一カメラ2aと第二カメラ2bとからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離(d)を隔てるように、飛行体30の天井に固定軸2cを介して設置されている。これにより、第一カメラ2aで撮影された第一画像が作成されるとともに、第二カメラ2bで撮影された第二画像が作成されることになる。
このとき、第一画像及び第二画像中にLED7a、7b、7cが映し出されていれば、第一画像及び第二画像中に映し出されているLED7a、7b、7cの位置により、第一カメラ2aからの方向角度(α)と第二カメラ2bからの方向角度(β)とを算出し、第一カメラ2aと第二カメラ2bとの間の距離(d)を用いることにより、所謂、三角測量の手法で、第一画像及び第二画像中に映し出されているLED7a、7b、7cのカメラ装置2に対する位置を算出できる(図3参照)。
The flying body 30 is a cockpit on which the pilot 3 is boarded, and includes a seat 30 a on which the pilot 3 is seated, a camera device 2, a moving body 3-axis gyro sensor 4, and a moving body acceleration sensor 5.
The camera device 2 is composed of a first camera 2a and a second camera 2b. The photographing direction is directed to the helmet 10 with a head-mounted display device, and stereoscopic viewing of the helmet 10 with a head-mounted display device is possible. It is installed on the ceiling of the flying body 30 via the fixed shaft 2c so as to be separated by a possible constant distance (d). As a result, a first image photographed by the first camera 2a is created, and a second image photographed by the second camera 2b is created.
At this time, if the LEDs 7a, 7b, and 7c are projected in the first image and the second image, the first camera 2a depends on the positions of the LEDs 7a, 7b, and 7c projected in the first image and the second image. By calculating the direction angle (α) from the second camera 2b and the direction angle (β) from the second camera 2b, and using the distance (d) between the first camera 2a and the second camera 2b, so-called triangulation With this method, the positions of the LEDs 7a, 7b, and 7c displayed in the first image and the second image with respect to the camera device 2 can be calculated (see FIG. 3).

また、LED7a、7b、7cの位置を、空間座標で表現することができるようにするために、カメラ装置2に固定され、カメラ装置2とともに移動する座標系である相対座標系(XYZ座標系)を用いる。なお、相対座標系(XYZ座標系)の具体的な原点位置やXYZ軸方向の説明については後述する。
これにより、相対座標系(XYZ座標系)において、3個のLED7a、7b、7cの位置座標が表現できれば、3個のLED7a、7b、7cが位置決めされて取り付けられている頭部装着型表示装置付ヘルメット10の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)は、相対座標系(XYZ座標系)に対する、ヘルメット座標系(X’Y’Z’座標系)の位置及び角度を用いて表現できるようになる。なお、頭部装着型表示装置付ヘルメット10の位置(Xh、Yh、Zh)は、ヘルメット座標系(X’Y’Z’座標系)の原点であるLED7aの現在の位置座標で表現することとする。
しかしながら、相対座標系(XYZ座標系)において、3個のLED7a、7b、7cの内の2個以下のLEDの位置座標しか表現できない場合がある。このような場合には、本実施形態では後述する方法で対象物3軸ジャイロセンサ14と移動体3軸ジャイロセンサ4と対象物加速度センサ15と移動体加速度センサ5とを用いて、頭部装着型表示装置付ヘルメット10の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を表現することになる。
In addition, the relative coordinate system (XYZ coordinate system) which is a coordinate system which is fixed to the camera device 2 and moves together with the camera device 2 so that the positions of the LEDs 7a, 7b and 7c can be expressed in spatial coordinates. Is used. A specific origin position of the relative coordinate system (XYZ coordinate system) and description of the XYZ axis directions will be described later.
Accordingly, if the position coordinates of the three LEDs 7a, 7b, and 7c can be expressed in the relative coordinate system (XYZ coordinate system), the head-mounted display device in which the three LEDs 7a, 7b, and 7c are positioned and attached. The position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the attached helmet 10 are the position and angle of the helmet coordinate system (X'Y'Z 'coordinate system) relative to the relative coordinate system (XYZ coordinate system). Can be expressed using. The position (Xh, Yh, Zh) of the helmet 10 with a head-mounted display device is expressed by the current position coordinates of the LED 7a which is the origin of the helmet coordinate system (X′Y′Z ′ coordinate system). To do.
However, in the relative coordinate system (XYZ coordinate system), only the position coordinates of two or less of the three LEDs 7a, 7b, and 7c may be expressed. In such a case, in the present embodiment, the head mounting is performed using the object triaxial gyro sensor 14, the moving body triaxial gyro sensor 4, the object acceleration sensor 15, and the moving body acceleration sensor 5 by a method described later. The position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the helmet 10 with type display device will be expressed.

移動体3軸ジャイロセンサ4は、飛行体30に作用する移動体角速度(VRL、VEL、VAZ)を検出するものである。また、移動体3軸ジャイロセンサ4は、相対座標系(XYZ座標系)に軸を合わせされて、飛行体30に取り付けられている。よって、ロール方向(X軸に対する回転)、エレベーション方向(Y軸に対する回転)、アジマス方向(Z軸に対する回転)における移動体角速度(VRL、VEL、VAZ)が検出される。
なお、移動体3軸ジャイロセンサ4は、相対座標系(XYZ座標系)の原点に取り付けられていてもよく、相対座標系(XYZ座標系)の原点以外の位置に取り付けられた場合には、相対座標系(XYZ座標系)の原点の位置での角速度を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で、移動体角速度(VRL、VEL、VAZ)に変換することになる。
The moving body three-axis gyro sensor 4 detects moving body angular velocities (V RL , V EL , V AZ ) acting on the flying object 30. The mobile three-axis gyro sensor 4 is attached to the flying body 30 with its axis aligned with the relative coordinate system (XYZ coordinate system). Accordingly, the moving body angular velocities (V RL , V EL , V AZ ) in the roll direction (rotation with respect to the X axis), the elevation direction (rotation with respect to the Y axis), and the azimuth direction (rotation with respect to the Z axis) are detected.
The movable body three-axis gyro sensor 4 may be attached to the origin of the relative coordinate system (XYZ coordinate system), and when attached to a position other than the origin of the relative coordinate system (XYZ coordinate system), Convert to mobile body angular velocities (V RL , V EL , V AZ ) by a general calculation method such as multiplication with an offset matrix M0 to obtain an angular velocity at the position of the origin of the relative coordinate system (XYZ coordinate system). Will do.

移動体加速度センサ5は、飛行体30に作用する対象物加速度(α、α、α)を検出するものである。また、移動体加速度センサ5は、相対座標系(XYZ座標系)に軸を合わせられて、飛行体30に取り付けられている。よって、X軸、Y軸、Z軸における対象物加速度(α、α、α)が検出される。
なお、軸合わせされずに、飛行体30に取り付けられている場合は、座標変換行列を求めておくことで、相対座標系と関連付けを行うことになる。
The moving body acceleration sensor 5 detects an object acceleration (α x , α y , α z ) acting on the flying object 30. The moving body acceleration sensor 5 is attached to the flying body 30 with its axis aligned with the relative coordinate system (XYZ coordinate system). Therefore, object accelerations (α x , α y , α z ) on the X axis, the Y axis, and the Z axis are detected.
In addition, when it is attached to the flying body 30 without being aligned, the association with the relative coordinate system is performed by obtaining the coordinate transformation matrix.

制御部20は、図1に示すように、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行う。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、第一相対情報算出部22と、第二相対情報算出部23と、光学マーカー位置情報算出部24と、対象物速度算出部25と、第三相対情報算出部26と、切替部29と、映像表示部27とを有する。
また、メモリ41は、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、相対情報を蓄積する相対情報記憶部42と、相対座標系(XYZ座標系)を記憶する相対座標系記憶部43と、ヘルメット座標系(X’Y’Z’座標系)を記憶するヘルメット座標系記憶部44とを有する。
As shown in FIG. 1, the control unit 20 is configured by a computer including a CPU 21, a memory 41, and the like, and performs various controls and arithmetic processes. The processing executed by the CPU 21 will be described separately for each functional block. The motion tracker driving unit 28, the first relative information calculating unit 22, the second relative information calculating unit 23, the optical marker position information calculating unit 24, The object speed calculation unit 25, the third relative information calculation unit 26, the switching unit 29, and the video display unit 27 are included.
The memory 41 has an area for storing various data necessary for the control unit 20 to execute processing. The memory 41 includes a relative information storage unit 42 for storing relative information, and a relative coordinate system (XYZ coordinate system). ) And a helmet coordinate system storage unit 44 for storing a helmet coordinate system (X′Y′Z ′ coordinate system).

なお、相対座標系(XYZ座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第二カメラ2bから第一カメラ2aへの方向をX軸方向とし、X軸方向に垂直かつ左向き方向をY軸方向とし、X軸方向に垂直かつ天井に垂直で下向き方向をZ軸方向とするように定義し、原点を第一カメラ2aと第二カメラ2bとの中点として定義するように相対座標系記憶部43に設定されている。
また、ヘルメット座標系記憶部44には、予め、初期データとして、3個のLED7a、7b、7cのヘルメット座標系(X’Y’Z’座標系)上におけるそれぞれの位置(X’DIS、Y’ DIS、Z’ DIS)が記憶されている。
さらに、相対情報記憶部42には、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報が順次記憶されていくことになる。このとき、3個のLED7a、7b、7cの相対座標系(XYZ座標系)における時間tのそれぞれの位置(XLED、YLED、ZLED)も順次記憶されていく。
The relative coordinate system (XYZ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis, but in this embodiment, as shown in FIG. 3, the direction from the second camera 2b to the first camera 2a. Is defined as an X-axis direction, a vertical direction to the X-axis direction and a leftward direction as a Y-axis direction, a vertical direction to the X-axis direction, a vertical direction to the ceiling, and a downward direction as a Z-axis direction. It is set in the relative coordinate system storage unit 43 so as to be defined as a midpoint with the second camera 2b.
Further, in the helmet coordinate system storage unit 44, as initial data, the positions (X ′ DIS , Y) of the three LEDs 7a, 7b, 7c on the helmet coordinate system (X′Y′Z ′ coordinate system) are previously stored. ' DIS , Z'DIS ) is stored.
Further, the relative information storage unit 42 sequentially stores relative information including the head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) of the pilot 3 with respect to the relative coordinate system (XYZ coordinate system). It will be done. At this time, the respective positions (X LED , Y LED , Z LED ) at the time t n in the relative coordinate system (XYZ coordinate system) of the three LEDs 7a, 7b, 7c are also sequentially stored.

モーショントラッカ駆動部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置2でLED群7を撮影することにより、第一画像及び第二画像を取得する制御を行うものである。
光学マーカー位置情報算出部24は、第一画像及び第二画像に基づいて、相対座標系(XYZ座標系)に対する、LED群7のそれぞれの現在位置である時間tn+1の光学マーカー位置情報を算出する制御を行うものである。
具体的には、カメラ装置2にLEDが撮影されれば、LEDのカメラ装置2に対する位置は、第一画像と第二画像中に映し出されているLEDの位置を抽出し、さらに第一カメラ2aからの方向角度(α)と第二カメラ2bからの方向角度(β)とを抽出し、第一カメラ2aと第二カメラ2bとの間の距離(d)を用いることにより、三角測量の手法で算出する。
The motion tracker driving unit 28 outputs a command signal for lighting the LED group 7 and controls the acquisition of the first image and the second image by photographing the LED group 7 with the camera device 2.
Based on the first image and the second image, the optical marker position information calculation unit 24 calculates the optical marker position information at time t n + 1 that is the current position of each LED group 7 with respect to the relative coordinate system (XYZ coordinate system). The control which performs is performed.
Specifically, if an LED is photographed by the camera device 2, the position of the LED with respect to the camera device 2 is extracted from the position of the LED displayed in the first image and the second image, and further the first camera 2a. Triangulation method by extracting the direction angle (α) from the second camera 2b and the direction angle (β) from the second camera 2b and using the distance (d) between the first camera 2a and the second camera 2b Calculate with

切替部29は、光学マーカー位置情報算出部24で算出された時間tn+1の光学マーカー位置情報が、3個以上のLEDの現在位置を含むときには、第一相対情報算出部22で相対情報を算出し、時間tn+1の光学マーカー位置情報が、1個以上3個未満のLEDの現在位置を含むときには、第二相対情報算出部23で相対情報を算出し、時間tn+1の光学マーカー位置情報が、全くLEDの現在位置を含まないときには、第三相対情報算出部26で相対情報を算出するように切り替えを行う制御を行うものである。 When the optical marker position information at time t n + 1 calculated by the optical marker position information calculation unit 24 includes the current positions of three or more LEDs, the switching unit 29 calculates relative information by the first relative information calculation unit 22. When the optical marker position information at time t n + 1 includes the current position of one or more and less than three LEDs, the second relative information calculation unit 23 calculates relative information, and the optical marker position information at time t n + 1 is When the current position of the LED is not included at all, the third relative information calculation unit 26 performs control to perform switching so as to calculate relative information.

第一相対情報算出部22は、時間tn+1の光学マーカー位置情報が、3個以上のLEDの現在位置を含むときに、時間tn+1の光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む時間tn+1の相対情報を算出して、相対情報記憶部24に記憶させる制御を行うものである。
具体的には、相対座標系(XYZ座標系)に対する時間tn+1の3個のLED7a、7b、7cの位置座標である光学マーカー位置情報と、ヘルメット座標系記憶部44に記憶されている初期データとを比較することにより、3個のLED7a、7b、7cが位置決めされて取り付けられているヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出する。
The first relative information calculation section 22 includes an optical marker position information of the time t n + 1 is, when including the current position of the three or more LED, based on the optical marker position information of the time t n + 1, the relative coordinate system (XYZ coordinate Control for calculating relative information of time t n + 1 including the head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) of pilot 3 with respect to the system) and storing the relative information in storage unit 24 Is what you do.
Specifically, the optical marker position information that is the position coordinates of the three LEDs 7a, 7b, and 7c at time t n + 1 with respect to the relative coordinate system (XYZ coordinate system), and initial data stored in the helmet coordinate system storage unit 44 And the position (Xh, Yh, Zh) and angle (RLh,) of the helmet coordinate system (X′Y′Z ′ coordinate system) where the three LEDs 7a, 7b, 7c are positioned and attached. ELh, AZh).

第二相対情報算出部23は、時間tn+1の光学マーカー位置情報が、1個以上3個未満のLEDの現在位置を含むときに、時間tから時間tn+1までの対象物角速度(V’RL、V’EL、V’AZ)と、時間tn+1の光学マーカー位置情報と、記憶された時間tの相対情報と、時間tから時間tn+1までの移動体角速度(VRL、VEL、VAZ)とに基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出して、相対情報記憶部24に記憶させる制御を行うものである。
すなわち、光学マーカー位置情報算出部24で算出された光学マーカー位置情報が3個以上のLEDの現在位置を含まず、第一相対情報算出部22が相対情報を算出できない状態になったときに、第二相対情報算出部23は、1個以上3個未満のLEDの現在位置を用いて相対情報を算出することになる。
Second relative information calculation section 23 includes an optical marker position information of the time t n + 1 is, when including the current position of the one or more less than three LED, object velocity from the time t n to time t n + 1 (V ' RL, V 'EL, V' and AZ), the time t n + 1 of the optical marker position information, relative information stored time t n, the moving object angular velocity (V RL from the time t n to time t n + 1, V EL , V AZ ) and relative information including the pilot 3 head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) with respect to the relative coordinate system (XYZ coordinate system). Thus, the control to be stored in the relative information storage unit 24 is performed.
That is, when the optical marker position information calculated by the optical marker position information calculation unit 24 does not include the current positions of three or more LEDs, and the first relative information calculation unit 22 cannot calculate relative information, The second relative information calculation unit 23 calculates the relative information using the current positions of one or more and less than three LEDs.

具体的には、まず、対象物3軸ジャイロセンサ14で検出された時間tから時間tn+1までの対象物角速度(V’RL、V’EL、V’AZ)と、移動体3軸ジャイロセンサ4で検出された時間tから時間tn+1までの移動体角速度(VRL、VEL、VAZ)との差分から、角速度差(ΔVRL、ΔVEL、ΔVAZ)を算出する。つまり、差分を算出することによって、飛行体30の角速度が消去され、頭部のみの角速度が得られる。
次に、角速度差(ΔVRL、ΔVEL、ΔVAZ)を積分演算することにより、相対座標系(XYZ座標系)に対する時間tから時間tn+1までのヘルメット座標系(X’Y’Z’座標系)の角度移動量(RLDEP、ELDEP、AZDEP)を算出する。
次に、角度移動量(RLDEP、ELDEP、AZDEP)を用いて下記式(1)により、頭部装着型表示装置付ヘルメット10に位置決めして取り付けられたLEDの時間tから時間tn+1までの移動距離量(ΔXr、ΔYr、ΔZr)を算出する。なお、LED7a、7b、7cのヘルメット座標系(X’Y’Z’座標系)上におけるそれぞれの位置(X’DIS、Y’ DIS、Z’ DIS)は、ヘルメット座標系記憶部44に、初期データとして予め記憶されている。
Specifically, first, the object 3 object angular velocity from the detected time-axis gyroscope 14 t n to time t n + 1 (V 'RL , V' EL, V 'AZ) and mobile triaxial gyro An angular velocity difference (ΔV RL , ΔV EL , ΔV AZ ) is calculated from a difference from the moving body angular velocity (V RL , V EL , V AZ ) from time t n to time t n + 1 detected by the sensor 4. That is, by calculating the difference, the angular velocity of the flying object 30 is eliminated, and the angular velocity of only the head is obtained.
Then, the angular velocity difference (ΔV RL, ΔV EL, ΔV AZ) by integral operation using, relative coordinate system (XYZ coordinate system) with respect to time helmet coordinate system from t n to time t n + 1 (X'Y'Z ' The amount of angular movement (RL DEP , EL DEP , AZ DEP ) of the coordinate system is calculated.
Next, the time t t from the time t n of the LED positioned and attached to the head mounted display-equipped helmet 10 according to the following formula (1) using the angular displacement (RL DEP , EL DEP , AZ DEP ) The movement distance amount (ΔXr, ΔYr, ΔZr) up to n + 1 is calculated. The respective positions (X ′ DIS , Y ′ DIS , Z ′ DIS ) on the helmet coordinate system (X′Y′Z ′ coordinate system) of the LEDs 7 a, 7 b, 7 c are stored in the helmet coordinate system storage unit 44 in the initial state. It is stored in advance as data.

Figure 2009085805
Figure 2009085805

次に、相対情報記憶部24に記憶された相対座標系(XYZ座標系)における時間tのLEDの位置(XLED、YLED、ZLED)を用いて下記式(2)により、時間tのLEDの位置(XLED、YLED、ZLED)に移動距離量(ΔXr、ΔYr、ΔZr)を加算することで、時間tn+1のLEDの計算位置(XDEP、YDEP、ZDEP)を算出する。 Next, using the position of the LED (X LED , Y LED , Z LED ) at time t n in the relative coordinate system (XYZ coordinate system) stored in the relative information storage unit 24, the time t The calculated position (X DEP , Y DEP , Z DEP ) of the LED at time t n + 1 by adding the movement distance amount (ΔXr, ΔYr, ΔZr) to the position of the LED of n (X LED , Y LED , Z LED ) Is calculated.

Figure 2009085805
Figure 2009085805

ここで、ヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出するためには、ヘルメット座標系(X’Y’Z’座標系)の時間tから時間tn+1までの移動角度量(RLDEP、ELDEP、AZDEP)だけでなく、移動距離量(ΔXh、ΔYh、ΔZh)も算出する必要がある。
そこで、相対座標系(XYZ座標系)に対する時間tn+1の1個若しくは2個のLEDの位置座標である光学マーカー位置情報と、検出されたLEDと同一のLEDの算出位置(XDEP、YDEP、ZDEP)とを比較することにより、ヘルメット座標系の時間tから時間tn+1までの移動距離量(ΔXh、ΔYh、ΔZh)を算出する。
そして、最後に、時間tn+1の全てのLEDの算出位置(XDEP、YDEP、ZDEP)に移動距離量(ΔXh、ΔYh、ΔZh)を加算した位置座標(XLED、YLED、ZLED)を算出して、ヘルメット座標系記憶部44に記憶されている初期データと比較することにより、3個のLED7a、7b、7cが位置決めされて取り付けられているヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出する。
Here, in order to calculate the position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the helmet coordinate system (X′Y′Z ′ coordinate system), the helmet coordinate system (X′Y′Z It is necessary to calculate not only the movement angle amount (RL DEP , EL DEP , AZ DEP ) from time t n to time t n + 1 of the 'coordinate system' but also the movement distance amount (ΔXh, ΔYh, ΔZh).
Therefore, the optical marker position information, which is the position coordinate of one or two LEDs at time t n + 1 with respect to the relative coordinate system (XYZ coordinate system), and the calculated position (X DEP , Y DEP of the same LED as the detected LED) , by comparing the Z DEP), the movement distance of from the time t n of the helmet coordinate system to the time t n + 1 (ΔXh, ΔYh , ΔZh) is calculated.
Finally, position coordinates (X LED , Y LED , Z LED ) obtained by adding movement distance amounts (ΔXh, ΔYh, ΔZh) to the calculated positions (X DEP , Y DEP , Z DEP ) of all LEDs at time t n + 1. ) And compared with the initial data stored in the helmet coordinate system storage unit 44, the helmet coordinate system (X′Y′Z) in which the three LEDs 7a, 7b, 7c are positioned and attached The position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the 'coordinate system' are calculated.

対象物速度算出部25は、相対情報記憶部42に記憶された時間tn−1の相対情報と時間tの相対情報とに基づいて、頭部装着型表示装置付ヘルメット10の時間tの対象物速度(V、V、V)を算出する制御を行うものである。
後述する第三相対情報算出部26で、移動体加速度(α、α、α)と対象物加速度(α’、α’、α’)とを用いて相対情報を算出するためには、頭部装着型表示装置付ヘルメット10の時間tn+1の速度を算出することになるが、このときに、頭部装着型表示装置付ヘルメット10の時間tの対象物速度(初速度)が必要になる。そこで、対象物速度算出部25は、時間tn−1の相対情報と時間tの相対情報とから、時間tn−1から時間tまでの平均速度を算出する。これにより、第三相対情報算出部26で平均速度を時間tの対象物速度(V、V、V)として用いることになる。
Object velocity calculating unit 25, based on the relative information relative information of the stored time in the storage unit 42 t n-1 and the relative information of the time t n, the time t n of the head-mounted display device with the helmet 10 The object speed (V x , V y , V z ) is calculated.
A third relative information calculation unit 26 described later calculates relative information using the moving body acceleration (α x , α y , α z ) and the target object acceleration (α ′ x , α ′ y , α ′ z ). Therefore, the speed of the time t n + 1 of the helmet 10 with a head-mounted display device is calculated. At this time, the object speed (initially) of the helmet 10 with a head-mounted display device at the time t n is calculated. Speed). Therefore, the object speed calculation unit 25 calculates the average speed from time t n −1 to time t n from the relative information at time t n−1 and the relative information at time t n . Accordingly, the average speed is used as the object speed (V x , V y , V z ) at time t n by the third relative information calculation unit 26.

第三相対情報算出部26は、時間tn+1の光学マーカー位置情報が、全くLEDの現在位置を含まないときに、時間tから時間tn+1までの対象物角速度(V’RL、V’EL、V’AZ)と、時間tから時間tn+1までの対象物加速度(α’、α’、α’)と、時間tの対象物速度(V、V、V)と、記憶された時間tの相対情報と、時間tから時間tn+1までの移動体角速度(VRL、VEL、VAZ)と、時間tから時間tn+1までの移動体加速度(α、α、α)とに基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出して、相対情報記憶部24に記憶させる制御を行うものである。
すなわち、光学マーカー位置情報算出部24で算出された光学マーカー位置情報が全くLEDの現在位置を含まず、第一相対情報算出部22及び第二相対情報算出部23が相対情報を算出できない状態になったときに、第三相対情報算出部23は、相対情報を算出することになる。
ここでも、ヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出するために、ヘルメット座標系(X’Y’Z’座標系)の時間tから時間tn+1までの移動角度量(RLDEP、ELDEP、AZDEP)と、移動距離量(ΔXh、ΔYh、ΔZh)とを算出することになる。なお、ヘルメット座標系(X’Y’Z’座標系)の時間tから時間tn+1までの移動角度量(RLDEP、ELDEP、AZDEP)を算出する方法については、第二相対情報算出部23で説明したものと同様であるので説明を省略することとする。
Third relative information calculation section 26 includes an optical marker position information of the time t n + 1 is, when at all does not include the current position of the LED, the object velocity (V 'RL, V' from the time t n to time t n + 1 EL , V ′ AZ ), object acceleration (α ′ x , α ′ y , α ′ z ) from time t n to time t n + 1 , and object velocity (V x , V y , V z ) at time t n. a), and the relative information stored time t n, the moving object angular velocity (V RL from the time t n to time t n + 1, V EL, and V AZ), mobile acceleration from time t n to time t n + 1 Based on (α x , α y , α z ), the pilot 3 head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) with respect to the relative coordinate system (XYZ coordinate system) are included. Control for calculating relative information and storing it in the relative information storage unit 24 Is performed.
That is, the optical marker position information calculated by the optical marker position information calculation unit 24 does not include the current position of the LED at all, and the first relative information calculation unit 22 and the second relative information calculation unit 23 cannot calculate relative information. When this happens, the third relative information calculation unit 23 calculates relative information.
Again, in order to calculate the position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the helmet coordinate system (X'Y'Z 'coordinate system), the helmet coordinate system (X'Y'Z' A movement angle amount (RL DEP , EL DEP , AZ DEP ) and a movement distance amount (ΔXh, ΔYh, ΔZh) from time t n to time t n + 1 in the coordinate system) are calculated. In addition, about the method of calculating the movement angle amount (RL DEP , EL DEP , AZ DEP ) from time t n to time t n + 1 in the helmet coordinate system (X′Y′Z ′ coordinate system), the second relative information calculation is performed. Since it is the same as that described in the section 23, description thereof will be omitted.

具体的には、まず、対象物加速度センサ15で検出された時間tから時間tn+1までの対象物加速度(α’、α’、α’)と、移動体加速度センサ15で検出された時間tから時間tn+1までの移動体加速度(α、α、α)との差分から、加速度差(Δα、Δα、Δα)を算出する。つまり、差分を算出することによって、飛行体30の加速度が消去され、頭部のみの加速度が得られる。
次に、対象物速度算出部25で算出された時間tの対象物速度(V、V、V)を用いて、加速度差(Δα、Δα、Δα)を2回積分演算することにより、相対座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の時間tから時間tn+1までの移動距離量(ΔXh、ΔYh、ΔZh)を算出する。
そして、最後に、時間tの全てのLEDの位置に算出位置(XDEP、YDEP、ZDEP)と移動距離量(ΔXh、ΔYh、ΔZh)とを加算した位置座標(XLED、YLED、ZLED)を算出して、ヘルメット座標系記憶部44に記憶されている初期データと比較することにより、3個のLED7a、7b、7cが位置決めされて取り付けられているヘルメット座標系(X’Y’Z’座標系)の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)を算出する。
Specifically, first, the object acceleration (α ′ x , α ′ y , α ′ z ) from time t n to time t n + 1 detected by the object acceleration sensor 15 and the moving body acceleration sensor 15 are detected. An acceleration difference (Δα x , Δα y , Δα z ) is calculated from the difference with the moving body acceleration (α x , α y , α z ) from time t n to time t n + 1 . That is, by calculating the difference, the acceleration of the flying object 30 is eliminated, and the acceleration of only the head is obtained.
Next, the acceleration differences (Δα x , Δα y , Δα z ) are integrated twice using the object speeds (V x , V y , V z ) at the time t n calculated by the object speed calculation unit 25. by calculating, for calculating the relative coordinate system (XYZ coordinate system) helmet coordinate system to the moving distance of from the time t n to time t n + 1 in (X'Y'Z 'coordinate system) (ΔXh, ΔYh, ΔZh) .
Finally, position coordinates (X LED , Y LED ) obtained by adding the calculated positions (X DEP , Y DEP , Z DEP ) and the movement distance amounts (ΔXh, ΔYh, ΔZh) to the positions of all LEDs at time t n. , Z LED ) and comparing the initial data stored in the helmet coordinate system storage unit 44 with the helmet coordinate system (X ′) in which the three LEDs 7a, 7b, and 7c are positioned and attached. The position (Xh, Yh, Zh) and angle (RLh, ELh, AZh) of the Y′Z ′ coordinate system) are calculated.

映像表示部27は、時間tn+1の相対情報に基づいて、映像表示光を出射する制御を行うものである。これにより、パイロット3は、表示器による表示映像を視認することができる。 The video display unit 27 performs control for emitting video display light based on the relative information at time t n + 1 . Thereby, the pilot 3 can visually recognize the display image by the display.

(ヘッドモーショントラッカ装置の動作)
次に、ヘッドモーショントラッカ装置1により相対情報を測定する測定動作について説明する。図4は、ヘッドモーショントラッカ装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、時間tを時間tn+1と更新する。
(Operation of the head motion tracker)
Next, a measurement operation for measuring relative information by the head motion tracker device 1 will be described. FIG. 4 is a flowchart for explaining the measurement operation by the head motion tracker device 1.
First, in the process in step S101, and updates the time t n time t n + 1 and.

次に、ステップS102の処理において、モーショントラッカ駆動部28は、第一画像及び第二画像を取得する。
また、ステップS103の処理において、移動体3軸ジャイロセンサ4と移動体加速度センサ5とは、移動体角速度(VRL、VEL、VAZ)と移動体加速度(α、α、α)とを検出する。
さらに、ステップS104の処理において、対象物3軸ジャイロセンサ14と対象物加速度センサ15とは対象物角速度(V’RL、V’EL、V’AZ)と対象物加速度(α’、α’、α’)とを検出する。
なお、ステップS102〜S104の処理は、同時に実行される。
Next, in the process of step S102, the motion tracker driving unit 28 acquires a first image and a second image.
In the process of step S103, the moving body triaxial gyro sensor 4 and the moving body acceleration sensor 5 have the moving body angular velocity (V RL , V EL , V AZ ) and the moving body acceleration (α x , α y , α z). ) Is detected.
Furthermore, in the process of step S104, the object triaxial gyro sensor 14 and the object acceleration sensor 15 are the object angular velocity (V ′ RL , V ′ EL , V ′ AZ ) and the object acceleration (α ′ x , α ′). y , α ′ z ).
Note that the processes in steps S102 to S104 are performed simultaneously.

次に、ステップS105の処理において、光学マーカー位置情報算出部24は、第一画像及び第二画像に基づいて、相対座標系(XYZ座標系)に対する、LED群7の現在位置である時間tn+1の光学マーカー位置情報を算出する。
次に、ステップS106の処理において、切替部29は、光学マーカー位置情報算出部24で算出された時間tn+1の光学マーカー位置情報が、いくつのLEDの現在位置を含んでいるかを判定する。
Next, in the process of step S105, the optical marker position information calculation unit 24, based on the first image and the second image, time t n + 1 that is the current position of the LED group 7 with respect to the relative coordinate system (XYZ coordinate system). The optical marker position information is calculated.
Next, in the process of step S < b > 106, the switching unit 29 determines how many LEDs the current position of the optical marker position information of the time t n + 1 calculated by the optical marker position information calculation unit 24 includes.

光学マーカー位置情報が、3個のLEDの現在位置を含むときには、ステップS107の処理において、第一相対情報算出部22は、時間tn+1の光学マーカー位置情報に基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出して、相対情報記憶部24に記憶させる。 When the optical marker position information includes the current positions of the three LEDs, in the process of step S107, the first relative information calculation unit 22 uses the relative coordinate system (XYZ coordinates) based on the optical marker position information at time tn + 1. The relative information including the head position (Xh, Yh, Zh) and the head angle (RLh, ELh, AZh) of the pilot 3 with respect to the system is calculated and stored in the relative information storage unit 24.

また、光学マーカー位置情報が、1個以上3個未満のLEDの現在位置を含むときには、ステップS108の処理において、第二相対情報算出部23は、対象物角速度(V’RL、V’EL、V’AZ)と、時間tn+1の光学マーカー位置情報と、時間tの相対情報と、移動体角速度(VRL、VEL、VAZ)とに基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出して、相対情報記憶部24に記憶させる。 Further, when the optical marker position information includes the current positions of one or more and less than three LEDs, in the process of step S108, the second relative information calculation unit 23 calculates the object angular velocity (V ′ RL , V ′ EL , V ′ AZ ), optical marker position information at time t n + 1 , relative information at time t n , and relative angular velocity (V RL , V EL , V AZ ), relative coordinate system (XYZ coordinate system) Relative information including the head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) of the pilot 3 with respect to is calculated and stored in the relative information storage unit 24.

さらに、光学マーカー位置情報が、全くLEDの現在位置を含まないときには、ステップS109の処理において、対象物速度算出部25は、時間tn−1の相対情報と時間tの相対情報とに基づいて、頭部装着型表示装置付ヘルメット10の時間tの対象物速度(V、V、V)を算出する。
次に、ステップS110の処理において、第三相対情報算出部26は、対象物角速度(V’RL、V’EL、V’AZ)と、対象物加速度(α’、α’、α’)と、時間tの対象物速度(V、V、V)と、時間tの相対情報と、移動体角速度(VRL、VEL、VAZ)と、移動体加速度(α、α、α)とに基づいて、相対座標系(XYZ座標系)に対するパイロット3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出して、相対情報記憶部24に記憶させる。
Further, the optical marker position information, when at all does not include the current position of the LED is in the process of step S109, the object speed calculation unit 25, based on the relative information of the time t n-1 of the relative information and time t n Then, the object speed (V x , V y , V z ) at the time t n of the head mounted helmet 10 with a display device is calculated.
Next, in the process of step S110, the third relative information calculation unit 26 determines the object angular velocity (V ′ RL , V ′ EL , V ′ AZ ) and the object acceleration (α ′ x , α ′ y , α ′). and z), object velocity time t n (V x, V y , and V z), and relative information of the time t n, the moving object angular velocity (V RL, V EL, and V AZ), mobile acceleration ( relative to the relative coordinate system (XYZ coordinate system) and including the pilot 3 head position (Xh, Yh, Zh) and head angle (RLh, ELh, AZh) based on α x , α y , α z ) Information is calculated and stored in the relative information storage unit 24.

次に、ステップS111の処理において、映像表示部27は、時間tn+1の相対情報に基づいて、映像表示光を出射する。
次に、ステップS112の処理において、飛行体30が移動しているか否かを判定する。飛行体30が移動していないと判定したときには、本フローチャートを終了させる。
一方、飛行体が移動していると判定したときには、ステップS101の処理に戻る。つまり、飛行体30が移動していないと判定するときまで、ステップS101〜S111の処理は繰り返される。
Next, in the process of step S111, the video display unit 27 emits video display light based on the relative information at time tn + 1 .
Next, in the process of step S112, it is determined whether or not the flying object 30 is moving. When it is determined that the flying object 30 is not moving, this flowchart is ended.
On the other hand, when it determines with the flying body moving, it returns to the process of step S101. That is, the processes in steps S101 to S111 are repeated until it is determined that the flying object 30 is not moving.

以上のように、本発明のHMT装置1によれば、カメラ装置2によりLED7a、7b、7cの検出ができなくなるような、第一相対情報算出部22が相対情報を算出できない状態になったときにも、第二相対情報算出部23や第三相対情報算出部26が相対情報を算出することができる。
また、対象物加速度を用いて頭部装着型表示装置付ヘルメット10の移動距離量(ΔXh、ΔYh、ΔZh)を算出する時間を減少させることで、高い精度を保持することができる。すなわち、精度よく、移動体に設定された相対座標系(XYZ座標系)に対する頭部装着型表示装置付ヘルメット10の現在位置(Xh、Yh、Zh)及び現在角度(RLh、ELh、AZh)を算出することができる。
As described above, according to the HMT device 1 of the present invention, when the first relative information calculation unit 22 becomes unable to calculate relative information such that the camera device 2 cannot detect the LEDs 7a, 7b, and 7c. In addition, the second relative information calculation unit 23 and the third relative information calculation unit 26 can calculate the relative information.
Moreover, high accuracy can be maintained by reducing the time for calculating the movement distance amount (ΔXh, ΔYh, ΔZh) of the helmet 10 with a head mounted display device using the object acceleration. That is, the current position (Xh, Yh, Zh) and current angle (RLh, ELh, AZh) of the helmet 10 with a head-mounted display device with respect to the relative coordinate system (XYZ coordinate system) set on the moving body are accurately obtained. Can be calculated.

なお、上述したHMT装置1では、LED群7は、互いに異なる波長の赤外光を発光する構成を示したが、全てのLEDは、同一の波長の光を発光するようにして、例えば、各LEDをそれぞれ個別に追跡して区別する方法(例えば、特願2006−284442号公報等に記載されたLEDの識別方法)を用いたり、各LEDの形状をそれぞれ変えたりして、互いを識別されるような構成としてもよい。また、LED群は、赤外光以外の光を発光するような構成としてもよい。 In the HMT device 1 described above, the LED group 7 is configured to emit infrared light having different wavelengths, but all LEDs emit light having the same wavelength, for example, Each LED can be identified by using a method of individually tracking and distinguishing LEDs (for example, an LED identification method described in Japanese Patent Application No. 2006-284442) or by changing the shape of each LED. It is good also as such a structure. The LED group may be configured to emit light other than infrared light.

本発明は、飛行体に設定された相対座標系に対する搭乗員等の頭部位置や頭部角度を測定するためのモーショントラッカ装置に利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used for a motion tracker device for measuring a head position or head angle of a crew member or the like with respect to a relative coordinate system set for a flying object.

本発明の一実施形態であるヘッドモーショントラッカ装置の概略構成を示す図である。It is a figure which shows schematic structure of the head motion tracker apparatus which is one Embodiment of this invention. 図1に示す頭部装着型表示装置付ヘルメットの平面図である。It is a top view of the helmet with a head-mounted display device shown in FIG. 相対座標系(XYZ座標系)の設定を説明するための図である。It is a figure for demonstrating the setting of a relative coordinate system (XYZ coordinate system). 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。It is a flowchart for demonstrating the measurement operation | movement by the head motion tracker apparatus which is one Embodiment of this invention. 従来のヘッドモーショントラッカ装置を示す図である。It is a figure which shows the conventional head motion tracker apparatus. 従来のヘッドモーショントラッカ装置を示す図である。It is a figure which shows the conventional head motion tracker apparatus.

符号の説明Explanation of symbols

1 ヘッドモーショントラッカ装置
2 カメラ装置
3 パイロット
4 移動体3軸ジャイロセンサ(移動体角速度センサ)
5 移動体加速度センサ
7 LED(光学マーカー)
10 頭部装着型表示装置付ヘルメット(対象物)
14 対象物3軸ジャイロセンサ(対象物角速度センサ)
15 対象物加速度センサ
22 第一相対情報算出部
23 第二相対情報算出部
24 光学マーカー位置情報算出部
25 対象物速度算出部
26 第三相対情報算出部
28 モーショントラッカ駆動部
29 切替部
30 飛行体
42 相対情報記憶部
DESCRIPTION OF SYMBOLS 1 Head motion tracker apparatus 2 Camera apparatus 3 Pilot 4 Mobile body 3 axis gyro sensor (moving body angular velocity sensor)
5 Moving body acceleration sensor 7 LED (optical marker)
10 Helmet with head mounted display (object)
14 Object 3-axis gyro sensor (object angular velocity sensor)
15 object acceleration sensor 22 first relative information calculation unit 23 second relative information calculation unit 24 optical marker position information calculation unit 25 object speed calculation unit 26 third relative information calculation unit 28 motion tracker driving unit 29 switching unit 30 flying object 42 Relative information storage

Claims (2)

対象物に位置決めされて取り付けられた3個以上の光学マーカーと、
相対座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記相対座標系に対する光学マーカーの現在位置である光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、相対情報記憶部に記憶させる第一相対情報算出部とを備えるモーショントラッカ装置であって、
前記対象物に取り付けられるとともに、前記対象物に作用する対象物角速度を検出する対象物角速度センサと、
前記対象物に取り付けられるとともに、前記対象物に作用する対象物加速度を検出する対象物加速度センサと、
前記相対情報記憶部に記憶された少なくとも2つの相対情報に基づいて、前記対象物の対象物速度を算出する対象物速度算出部と、
前記対象物角速度、光学マーカー位置情報、及び、記憶された相対情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、前記相対情報記憶部に記憶させる第二相対情報算出部と、
前記対象物角速度、対象物加速度、対象物速度、及び、記憶された相対情報に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出して、前記相対情報記憶部に記憶させる第三相対情報算出部と、
前記光学マーカー位置情報算出部で算出された光学マーカー位置情報が、3個以上の光学マーカーの現在位置を含むときには、前記第一相対情報算出部で相対情報を算出し、
前記光学マーカー位置情報が、1個以上3個未満の光学マーカーの現在位置を含むときには、前記第二相対情報算出部で相対情報を算出し、
前記光学マーカー位置情報が、全く光学マーカーの現在位置を含まないときには、前記第三相対情報算出部で相対情報を算出する切替部とを備えることを特徴とするモーショントラッカ装置。
Three or more optical markers positioned and attached to the object;
A camera device in which a relative coordinate system is set and detects a light beam from the optical marker in a stereoscopic view;
An optical marker position information calculation unit that calculates optical marker position information that is a current position of the optical marker with respect to the relative coordinate system based on the detected light beam;
A motion tracker device comprising: a first relative information calculation unit that calculates relative information including a current position and a current angle of an object relative to the relative coordinate system based on the optical marker position information and stores the relative information in a relative information storage unit Because
An object angular velocity sensor that is attached to the object and detects an object angular velocity acting on the object;
An object acceleration sensor that is attached to the object and detects an object acceleration acting on the object;
An object speed calculation unit that calculates an object speed of the object based on at least two pieces of relative information stored in the relative information storage unit;
Relative information including the current position and current angle of the object with respect to the relative coordinate system is calculated based on the object angular velocity, the optical marker position information, and the stored relative information, and stored in the relative information storage unit. A second relative information calculation unit for causing
Relative information including the current position and current angle of the object relative to the relative coordinate system is calculated based on the object angular velocity, the object acceleration, the object speed, and the stored relative information, and the relative information storage A third relative information calculation unit to be stored in the unit;
When the optical marker position information calculated by the optical marker position information calculation unit includes the current positions of three or more optical markers, the first relative information calculation unit calculates relative information,
When the optical marker position information includes the current position of one or more and less than three optical markers, the second relative information calculation unit calculates relative information,
A motion tracker device comprising: a switching unit that calculates relative information by the third relative information calculation unit when the optical marker position information does not include the current position of the optical marker at all.
前記対象物は、搭乗者の頭部に装着されるヘルメットであり、かつ、
前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、
さらに、前記移動体に取り付けられるとともに、前記移動体に作用する移動体角速度を、前記対象物角速度センサと同時間に検出する移動体角速度センサと、
前記移動体に取り付けられるとともに、前記移動体に作用する移動体加速度を、前記対象物加速度センサと同時間に検出する移動体加速度センサとを備え、
前記第二相対情報算出部は、前記対象物角速度、光学マーカー位置情報、記憶された相対情報、及び、移動体角速度に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出し、
前記第三相対情報算出部は、前記対象物角速度、対象物加速度、対象物速度、記憶された相対情報、移動体角速度、及び、移動体加速度に基づいて、前記相対座標系に対する対象物の現在位置及び現在角度を含む相対情報を算出することを特徴とする請求項1に記載のモーショントラッカ装置。
The object is a helmet to be worn on a passenger's head; and
The camera device is attached to a moving body on which the passenger is boarded,
A movable body angular velocity sensor that is attached to the movable body and detects a movable body angular velocity acting on the movable body at the same time as the object angular velocity sensor;
A moving body acceleration sensor that is attached to the moving body and detects a moving body acceleration acting on the moving body at the same time as the object acceleration sensor;
The second relative information calculating unit includes a current position and a current angle of the object relative to the relative coordinate system based on the object angular velocity, the optical marker position information, the stored relative information, and the moving body angular velocity. Calculate information,
The third relative information calculation unit is configured to calculate a current object current relative to the relative coordinate system based on the object angular velocity, the object acceleration, the object velocity, the stored relative information, the moving object angular velocity, and the moving object acceleration. The motion tracker device according to claim 1, wherein relative information including a position and a current angle is calculated.
JP2007257145A 2007-10-01 2007-10-01 Motion tracker device Active JP4924342B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007257145A JP4924342B2 (en) 2007-10-01 2007-10-01 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007257145A JP4924342B2 (en) 2007-10-01 2007-10-01 Motion tracker device

Publications (2)

Publication Number Publication Date
JP2009085805A true JP2009085805A (en) 2009-04-23
JP4924342B2 JP4924342B2 (en) 2012-04-25

Family

ID=40659411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007257145A Active JP4924342B2 (en) 2007-10-01 2007-10-01 Motion tracker device

Country Status (1)

Country Link
JP (1) JP4924342B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095557A (en) * 2012-11-07 2014-05-22 Shimadzu Corp Motion tracker device
CN104280022A (en) * 2013-07-13 2015-01-14 哈尔滨点石仿真科技有限公司 Digital helmet display device tracking system of visual-aided inertial measuring unit
JP2016006415A (en) * 2014-05-29 2016-01-14 アニマ株式会社 Method and apparatus for estimating position of optical marker in optical motion capture
JP2016011951A (en) * 2014-06-04 2016-01-21 アニマ株式会社 Method and device of acquiring positional information of virtual marker, and motion measurement method
JP2016190009A (en) * 2015-03-31 2016-11-10 富士フイルム株式会社 Radiographic image capturing apparatus, control method and program of radiographic image capturing apparatus
US20170343823A1 (en) * 2014-12-15 2017-11-30 Shimadzu Corporation Dynamic image processing device for head mounted display, dynamic image processing method for head mounted display and head mounted display system
JP2018171518A (en) * 2018-08-08 2018-11-08 富士フイルム株式会社 Radiographic image capturing apparatus, control method and program of radiographic image capturing apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0954542A (en) * 1995-08-16 1997-02-25 Namco Ltd Action detector, simulator and action detection method
JP2001103395A (en) * 1999-09-30 2001-04-13 Kawasaki Heavy Ind Ltd Head mount display device
JP2002296028A (en) * 2001-04-02 2002-10-09 Japan Aviation Electronics Industry Ltd Head tracking device for movable body
JP2003281504A (en) * 2002-03-22 2003-10-03 Canon Inc Image pickup portion position and attitude estimating device, its control method and composite reality presenting system
JP2005147894A (en) * 2003-11-17 2005-06-09 Canon Inc Measuring method and measuring instrument
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP4665872B2 (en) * 2006-08-30 2011-04-06 株式会社島津製作所 Head motion tracker device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0954542A (en) * 1995-08-16 1997-02-25 Namco Ltd Action detector, simulator and action detection method
JP2001103395A (en) * 1999-09-30 2001-04-13 Kawasaki Heavy Ind Ltd Head mount display device
JP2002296028A (en) * 2001-04-02 2002-10-09 Japan Aviation Electronics Industry Ltd Head tracking device for movable body
JP2003281504A (en) * 2002-03-22 2003-10-03 Canon Inc Image pickup portion position and attitude estimating device, its control method and composite reality presenting system
JP2005147894A (en) * 2003-11-17 2005-06-09 Canon Inc Measuring method and measuring instrument
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP4665872B2 (en) * 2006-08-30 2011-04-06 株式会社島津製作所 Head motion tracker device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095557A (en) * 2012-11-07 2014-05-22 Shimadzu Corp Motion tracker device
CN104280022A (en) * 2013-07-13 2015-01-14 哈尔滨点石仿真科技有限公司 Digital helmet display device tracking system of visual-aided inertial measuring unit
JP2016006415A (en) * 2014-05-29 2016-01-14 アニマ株式会社 Method and apparatus for estimating position of optical marker in optical motion capture
JP2016011951A (en) * 2014-06-04 2016-01-21 アニマ株式会社 Method and device of acquiring positional information of virtual marker, and motion measurement method
US20170343823A1 (en) * 2014-12-15 2017-11-30 Shimadzu Corporation Dynamic image processing device for head mounted display, dynamic image processing method for head mounted display and head mounted display system
US10948728B2 (en) * 2014-12-15 2021-03-16 Shimadzu Corporation Dynamic image processing device for head mounted display, dynamic image processing method for head mounted display and head mounted display system
JP2016190009A (en) * 2015-03-31 2016-11-10 富士フイルム株式会社 Radiographic image capturing apparatus, control method and program of radiographic image capturing apparatus
JP2018171518A (en) * 2018-08-08 2018-11-08 富士フイルム株式会社 Radiographic image capturing apparatus, control method and program of radiographic image capturing apparatus

Also Published As

Publication number Publication date
JP4924342B2 (en) 2012-04-25

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
JP4924342B2 (en) Motion tracker device
JP5145832B2 (en) Head-mounted display device and head-mounted display device system
JP4961904B2 (en) Head motion tracker device
JP5292725B2 (en) Motion tracker device
JP5092279B2 (en) Head motion tracker device and method of using the same
JP4665872B2 (en) Head motion tracker device
JP5092300B2 (en) Head motion tracker device
JP2016151566A (en) Motion tracker device
US11360552B1 (en) High assurance headtracking via structured light projection for head worn display (HWD)
JP4905321B2 (en) Head motion tracker device
JP2014095557A (en) Motion tracker device
JP2012226666A (en) Motion tracker device
JP2009036517A (en) Head motion tracker device
JP4967546B2 (en) Head motion tracker device
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4656016B2 (en) Motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP4872768B2 (en) Head motion tracker device
JP7435330B2 (en) Head motion tracker device and head motion tracker device for aircraft
CN208314856U (en) A kind of system for the detection of monocular airborne target
JP4784591B2 (en) Motion tracker device
JP4867837B2 (en) Motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120123

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4924342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3