JP4665872B2 - ヘッドモーショントラッカ装置 - Google Patents

ヘッドモーショントラッカ装置 Download PDF

Info

Publication number
JP4665872B2
JP4665872B2 JP2006234419A JP2006234419A JP4665872B2 JP 4665872 B2 JP4665872 B2 JP 4665872B2 JP 2006234419 A JP2006234419 A JP 2006234419A JP 2006234419 A JP2006234419 A JP 2006234419A JP 4665872 B2 JP4665872 B2 JP 4665872B2
Authority
JP
Japan
Prior art keywords
head
relative
information
time
head information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006234419A
Other languages
English (en)
Other versions
JP2008059204A (ja
Inventor
研 廣岡
明徳 藤田
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2006234419A priority Critical patent/JP4665872B2/ja
Publication of JP2008059204A publication Critical patent/JP2008059204A/ja
Application granted granted Critical
Publication of JP4665872B2 publication Critical patent/JP4665872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、移動体に設定された基準座標に対する少なくとも搭乗者の頭部角度を測定するためのヘッドモーショントラッカ装置(以下、HMT装置ともいう)に関する。本発明は、例えば、ゲーム機や乗物等の移動体で用いられる頭部装着型表示装置付ヘルメットの現在角度(すなわち、現在の頭部角度)を検出するHMT装置等に利用される。
例えば、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(救難飛行艇)の緯度、経度、高度、姿勢に加えて、飛行体に設定された基準座標に対するパイロットの頭部角度を測定している。このために、HMT装置が利用されている。
このような従来のHMT装置として、例えば、複数の反射板を頭部装着型表示装置付ヘルメットに取り付けるとともに光源から光を照射したときの反射光をカメラ装置でモニタする光学方式HMT装置が開示されている(例えば、特許文献1参照)。また、本出願人が先に出願しているHMT装置もある(特願2005−106418号)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として、LED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、これら3つのLEDの相対的な位置関係を予め記憶させておく。そして、これら3つのLEDを、ステレオ視が可能でかつ設置場所が固定された2台のカメラで同時に撮影することで、所謂、三角測量の原理により、現在の3つのLEDの相対的な位置関係を測定している。頭部装着型表示装置付ヘルメットに固定された3点の位置(3つのLEDの位置)が特定できれば、頭部装着型表示装置付ヘルメットの位置や向き(角度)が特定できるので、これにより、基準座標に対する頭部装着型表示装置付ヘルメットの移動距離量や移動角度量を算出している。
特表平9−506194号公報
しかしながら、光学方式HMT装置においては、3個のLEDを点灯させることにより、2台のカメラで同時に撮影するが、撮影と撮影との間隔時間(例えば、16msec(60Hz))により変動に対する応答性が定まる。そのため、高速で変化する頭部装着型表示装置付ヘルメットの動きをモニタリングするときには、追従性が充分でないことがあった。
また、2台のカメラによりLED群を観測し続ける必要があるが、頭部装着型表示装置付ヘルメットの位置が大きく変化する場合には、LEDの位置とカメラ装置の設置場所との関係で、LEDがカメラ装置の視野から外れることがあるので、ステレオ視による測定ができなくなることがあった。
そこで、本発明は、光学方式HMT装置において、移動体に設定された基準座標に対する頭部角度を、短い間隔時間で正確に算出することができる機構を備えたヘッドモーショントラッカ装置を提供することを目的とする。
上記課題を解決するためになされた本発明のヘッドモーショントラッカ装置は、光学方式モーショントラッカと、前記光学方式モーショントラッカにより、移動体に設定された基準座標に対する搭乗者の頭部角度を含む第一相対頭部情報を算出する主頭部情報算出部と、前記第一相対頭部情報を記憶する第一相対頭部情報記憶部とを備えたヘッドモーショントラッカ装置において、前記移動体に取り付けられるとともに、当該移動体に作用する角速度を検出する移動体センサと、前記搭乗者の頭部に装着されるとともに、当該頭部に作用する角速度を検出する頭部センサと、前記移動体センサ及び頭部センサから検出された角速度と、前記第一相対頭部情報とに基づいて、前記基準座標に対する搭乗者の頭部角度を含む第二相対頭部情報を、主頭部情報算出部の算出時間より短時間で算出する副頭部情報算出部と、前記主頭部情報算出部による第一相対頭部情報が再び算出されるときまで、前記副頭部情報算出部により第二相対頭部情報を算出させる切替部とを備えるようにしている。
ここで、「光学方式モーショントラッカ」とは、動きを検出しようとする物体に、発光体(ランプ、LED等)、反射体、蛍光体等の光学マーカーを取り付けるとともに、光学マーカー群を光学的に検出するカメラ装置等の光学検出手段を配置することにより、光学マーカー群の位置を逐次検出することで、物体の動きを追跡することができるモーショントラッカのことをいう。
また、「移動体センサ」及び「頭部センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする角速度や3軸方向の加速度を検出できるもののことをいい、具体的には、ジャイロセンサや、加速度センサが用いられる。なお、頭部センサでは、移動体中では頭部の動きと移動体の動きとが合成された動きの情報が検出される。
また、「主頭部情報算出部による第一相対頭部情報が再び算出されるとき」とは、主頭部情報算出部による第一相対頭部情報が算出されてから、主頭部情報算出部による第一相対頭部情報が再び算出されることが可能になったときのことをいう。よって、例えば、カメラ装置等による撮影と撮影との間の時間や、光学マーカー群がカメラ装置等の光学検出手段の視野外に移動することにより光学的測定ができなくなっているときは、主頭部情報算出部による第一相対頭部情報が再び算出されるときではないことになる。
本発明のHMT装置によれば、主頭部情報算出部は、光学方式モーショントラッカにより、移動体に設定された基準座標に対する搭乗者の頭部角度を含む第一相対頭部情報を算出する。一方、移動体に取り付けられた移動体センサは角速度を短い間隔時間で検出することができるとともに、搭乗者の頭部に取り付けられた頭部センサも短い間隔時間で角速度を検出することができるので、副頭部情報算出部は、角速度と、第一相対頭部情報とに基づいて、搭乗者の頭部角度を含む第二相対頭部情報を短い間隔時間で算出することができる。
これにより、切替部は、カメラ装置等の光学検出手段による撮影と撮影との間の時間や、ステレオ視による測定ができなくなったりするような、主頭部情報算出部が第一相対頭部情報を算出できない状態であるときに、副頭部情報算出部が移動体に設定された基準座標に対する頭部角度を含む第二相対頭部情報を算出することができる。
なお、副頭部情報算出部は、頭部センサから検出される角速度、及び、移動体センサから検出される角速度に基づいて、第二相対頭部情報を算出するが、角速度を検出するセンサ(ジャイロセンサ等)の性質上、時間とともにドリフト現象による誤差を生じる可能性がある。よって、主頭部情報算出部による第一相対頭部情報が算出されるときまで、副頭部情報算出部により頭部角度を含む第二相対頭部情報を算出する。つまり、第二相対頭部情報は、記憶された第一相対頭部情報を初期情報として、移動体センサ及び頭部センサから検出される角速度から算出される変化分が加算されたものであり、短時間の測定であればドリフト現象の影響をほとんど受けない。そして、再び、主頭部情報算出部による第一相対頭部情報を算出することが可能になると、その第一相対頭部情報を参照するようにする。
よって、このようにすることにより、短い間隔時間で、精度よく、移動体に設定された基準座標に対する頭部角度等の頭部情報を算出することができる。
(他の課題を解決するための手段および効果)
また、上記各発明において、前記光学方式モーショントラッカは、前記搭乗者の頭部に装着される光学マーカー群と、前記移動体に取り付けられ、前記光学マーカー群からの光線を検出するカメラ装置とを備えるようにしてもよい。
さらに、上記各発明において、前記第一相対頭部情報記憶部は、異なる時間に算出された少なくとも2つの第一相対頭部情報を記憶するとともに、前記移動体センサと頭部センサとは、さらに加速度を検出し、かつ、前記少なくとも2つの第一相対頭部情報に基づいて、前記搭乗者の頭部速度を含む頭部速度情報を算出する頭部速度情報算出部を備え、前記主頭部情報算出部は、さらに搭乗者の頭部位置を含んだ第一相対頭部情報を算出するとともに、
前記副頭部情報算出部は、さらに移動体センサ及び頭部センサから検出された加速度と、前記頭部速度情報及び第一相対頭部情報とに基づいて、前記搭乗者の頭部位置を含んだ第二相対頭部情報を算出するようにしてもよい。
以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。
(実施形態1)
図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの平面図である。また、図3は、基準座標(XYZ座標)の設定を説明するための図であり、図4は、HMT装置が頭部角度を含む第二相対頭部情報を算出する際に実行する演算処理の流れを説明する図である。なお、本実施形態は、飛行体30に設定された基準座標(XYZ座標)でのパイロット3の頭部角度の算出を行うものである。
HMT装置1は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット10と、飛行体30に固定された固定軸2cにより支持されるカメラ装置2(2a、2b)と、飛行体30に取り付けられた飛行体側3軸ジャイロセンサ4と、コンピュータにより構成される制御部20とから構成される。
頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くコンバイナ8と、位置や向き(すなわち、頭部角度)を測定する際の指標となる頭部マーカーとして機能するLED群7と、頭部側3軸ジャイロセンサ6とを有する。なお、頭部装着型表示装置付ヘルメット10自体にも、座標(ヘルメット座標)が定められているが、モーショントラッカの一部として使用するためには、パイロット3によって後述する基準座標(XYZ座標)と正確に軸合わせされる必要がある。頭部装着型表示装置付ヘルメット10自体のヘルメット座標と基準座標(XYZ座標)との軸合わせの方法については、広く用いられている一般的な方法(例えば、頭部装着型表示装置付ヘルメットを装着したパイロットに特定方向を向くように指示することにより軸合わせを行う方法)により行われる。なお、頭部装着型表示装置付ヘルメット10を装着したパイロット3は、表示器による表示画像とコンバイナ8の前方実在物とを視認することが可能となっている。
LED群7は、図2に示すように、互いに異なる波長の赤外光を発光する3個(あるいは3個以上の数)のLED7a、7b、7cが互いに離隔するようにして取り付けられたものである。なお、頭部装着型表示装置付ヘルメット10の3個のLED7a、7b、7cの相対的な位置関係と頭部装着型表示装置付ヘルメット10に対する取り付け位置とが、予め、メモリ41の初期データ記憶部39に記憶するようにしてある。よって、後述する三角測量の手法で、現時点における3個のLED7a、7b、7cの位置を算出し、初期データ記憶部39に記憶されたデータを参照することにより、現時点でのLED7a、7b、7cの位置を特定することができ、ひいてはLED7a、7b、7cが固定されている頭部装着型表示装置付ヘルメット10の角度が特定できるようにしてある。
頭部側3軸ジャイロセンサ6は、頭部の角速度を検知するものである。なお、頭部側3軸ジャイロセンサ6自体に、x座標が定められている。つまり、ロール方向(x軸に対する回転)、エレベーション方向(y軸に対する回転)、アジマス方向(z軸に対する回転)における移動量である角速度(θ2、φ2、ψ2)が検知される。このとき、パイロット3は飛行体30に乗っており、飛行体30自体も動いているので、角速度(θ2、φ2、ψ2)は、パイロット3の頭部の角速度だけでなく、飛行体の角速度も含んだものとなる。
なお、頭部側3軸ジャイロセンサ6は、頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標と正確に軸合わせされて、頭部装着型表示装置付ヘルメット10に取り付けられる。
飛行体30は、パイロット3が搭乗するコックピットであり、パイロット3が着席する座席30aと、カメラ装置2(2a、2b)と、飛行体側3軸ジャイロセンサ4とを備える。
カメラ装置2(2a、2b)は、2台のカメラ2a、2bからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離(d1)を隔てるように、飛行体30の天井に固定軸2cを介して設置されている。
よって、図3に示すように、LED7aのカメラ装置2(2a、2b)に対する位置は、カメラ装置2(2a、2b)に撮影された画像データ中の頭部マーカーの位置を抽出し、さらにカメラ2aからの方向角度(α)とカメラ2bからの方向角度(β)とを抽出し、カメラ2aとカメラ2bとの間の距離(d1)を用いることにより、三角測量の手法で算出することができるようにしてある。他の頭部マーカーであるLED7b、7cのカメラ装置2(2a、2b)に対する位置についても、同様に算出されるようにしてある。
このときの各頭部マーカーの位置を、空間座標で表現することができるようにするために、カメラ装置2(2a、2b)に固定され、カメラ装置2とともに移動する座標系である基準座標(XYZ座標)を用いる。なお、基準座標(XYZ座標)の具体的な原点位置やXYZ軸方向の説明については後述する。基準座標(XYZ座標)によりLED7a、7b、7cの位置座標は、(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)として表現できる。カメラ装置2(2a、2b)に対する3つのLED7a、7b、7cの位置座標(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)が特定されることにより、LED7a、7b、7cが固定されている頭部装着型表示装置付ヘルメット10の角度が座標系を用いて特定できるようになる。
つまり、頭部マーカーであるLED群7から発光される赤外光を検出することにより3個のLED7a、7b、7cの現在の位置座標を得ることで、カメラ装置2(2a、2b)に対する頭部装着型表示装置付ヘルメット10の現在の角度を算出でき、座標軸に対する角度で表現できるようにしてある。
飛行体側3軸ジャイロセンサ4は、飛行体30の角速度を検知するものである。なお、飛行体側角速度センサ4自体には、x座標が定められている。つまり、ロール方向(x軸に対する回転)、エレベーション方向(y軸に対する回転)、アジマス方向(z軸に対する回転)における移動量である角速度(θ1、φ1、ψ1)が検知される。なお、飛行体側3軸ジャイロセンサ4は、基準座標(XYZ座標)と正確に軸合わせされて、取り付けられている。また、軸合わせされずに、取り付けられている場合は、座標変換行列を求めておくことで、基準座標と関連付けを行うことになる。
制御部20は、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行う。制御部20のCPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、主頭部情報算出部22と、副頭部情報算出部23と、切替部29と、映像表示部25とからなる。なお、図5は、制御部20が実行する流れを説明するタイムチャートである。
また、メモリ41は、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、基準座標(XYZ座標)を記憶する基準座標記憶部43と、第一相対頭部情報を記憶する第一相対頭部情報記憶部42と、時間記憶部44と、第二相対頭部情報及び角速度差を記憶する第二相対頭部情報記憶部47と、初期データ記憶部39とを含む。
ここで、基準座標(XYZ座標)について説明する。基準座標(XYZ座標)は、カメラ装置2(2a,2b)とともに移動する3次元座標系であり、原点及び各座標軸の方向を任意に定めることができるが、カメラ2bからカメラ2aへの方向をX軸方向とし、X軸方向に垂直かつ天井に垂直で下向き方向をZ軸方向とし、X軸方向に垂直かつ天井に水平で右向き方向をY軸方向とするように定義し、原点をカメラ2a、カメラ2bの中点として定義するようにしてある。
したがって、基準座標記憶部43は、カメラ装置に対して固定された座標系である基準座標(XYZ座標)の定義に必要な情報である原点位置情報、X、Y、Z軸方向に関する情報を記憶する。具体的には、予め、移動体30に、X、Y、Z軸方向を格子方向とした正方格子状の基準座標スケールを配置して画像データを撮影し、画像データに対し、画像データ中の格子点に基づいて、原点位置及びX、Y、Z軸の方向の情報を関連付けて記憶する。この記憶された画像データと、LED群の画像データとを比較することにより、当該画像データ上に映し出されたLED群の座標が求められることになる。
また、時間記憶部44は、第一相対頭部情報が算出される毎に更新される時間(t)、第一相対頭部情報又は第二相対頭部情報が算出される毎に更新される時間(s)を記憶する。ただし、ここでの時間は、後述する主頭部情報算出部22や副頭部情報算出部23が、第一相対頭部情報、第二相対頭部情報を算出するプログラム(図6〜図7、図12〜図13参照)を実行する際の処理回数カウンタt、sの値を、「時間」として扱うものである。
モーショントラッカ駆動部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置2(2a、2b)でLED群7を撮影し、画像データによる位置情報を取得する制御を行うものである。
主頭部情報算出部22は、カメラ装置2(2a、2b)(XYZ座標)に対するパイロット3の頭部角度(Θa、Φa、Ψa)を含む第一頭部情報を算出する制御を行うものである。
つまり、カメラ装置2(2a、2b)に対する3つのLED7a、7b、7cの位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出し、これら3つの位置座標を、初期データ記憶部39に記憶されているLED7a、7b、7cの相対的な位置関係と頭部装着型表示装置ヘルメット10に対する取り付け位置のデータを参照することにより、LED7a、7b、7cが固定された頭部装着型表示装置ヘルメット10の現在角度を決定する。
決定された頭部装着型表示装置ヘルメット10の現在角度を、XYZ座標を用いて表現するために、頭部装着型表示装置ヘルメット10上の一点をヘルメット基準点(P)と定め、さらにヘルメット基準点を始点とする二方向をヘルメット基準方向(M及びN)と定める。本実施形態では、図2に示すように、ヘルメット基準点(P)としてLED7aの位置を指定し、ヘルメット基準方向(M及びN)として頭部装着型表示装置ヘルメット10の前方方向とその垂直方向を指定することにする。これにより、決定された頭部装着型表示装置ヘルメット10の現在角度は、ヘルメット基準方向(M及びN)のX軸、Y軸、Z軸に対する角度(Θ、Φ、Ψ)を用いて表現することができる。
つまり、主頭部情報算出部22は、3つのLED7a、7b、7cの位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出し、これに基づいて、ヘルメット基準方向(M及びN)の角度(Θa、Φa、Ψa)を、頭部角度情報として算出する。なお、頭部角度(Θa、Φa、Ψa)を含む第一相対頭部情報は、第一相対頭部情報記憶部42に記憶されることになる。
副頭部情報算出部23は、角速度(θ1、φ1、ψ1)及び角速度(θ2、φ2、ψ2)と、第一相対頭部情報とに基づいて、第一相対頭部情報よりも短い周期で、パイロット3の頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する制御を行うものである。例えば、まず、飛行体3軸ジィイロセンサ4で検知された時間sの角速度(θ1、φ1、ψ1)と、頭部側3軸ジャイロセンサ6で検知された時間sの角速度(θ2、φ2、ψ2)との差分から、角速度差(Δθ、Δφ、Δψ)を算出して、第二相対頭部情報記憶部47に記憶させる。このとき、差分を算出することによって、飛行体30の角速度が消去され、頭部のみの角速度が得られる。次に、角速度差(Δθ、Δφ、Δψ)を積分演算することにより、時間tに記憶された頭部角度(Θa、Φa、Ψa)からの頭部角度の移動角度量(ΔΘ、ΔΦ、ΔΨ)を算出する。最後に、時間tに記憶された頭部角度(Θa、Φa、Ψa)に頭部角度の移動角度量(ΔΘ、ΔΦ、ΔΨ)を加算することにより、時間sの頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出することを行う。さらに、その後、角速度(θ1、φ1、ψ1)及び角速度(θ2、φ2、ψ2)と、記憶された第二相対頭部情報とに基づいて、パイロット3の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出することを行う。
なお、時間t、sは、既述のように、時間記憶部44に記憶されるカウンタ値で現わした時間のことであり、時間(t)は、第一相対頭部情報が算出される毎に更新され、一方、時間(s)は、第一相対頭部情報又は第二相対頭部情報が算出される毎に更新されるものである。
切替部29は、第一相対頭部情報を算出させるか、あるいは第二相対頭部情報を算出させるかの切り替えを行う制御を行うものである。例えば、カメラ装置2(2a、2b)によりLED群7の検出ができるか否かを判定して、LED群7が検出できるときには、第一相対頭部情報を算出させ、一方、カメラ装置2(2a、2b)による撮影と撮影との間の時間(例えば、mを0、1、2と予め設定する)や、LED群7が検出できないときには、第二相対頭部情報を算出させるように実行する(図5参照)。
映像表示部25は、算出された第一相対頭部情報又は第二相対頭部情報に基づいて、映像表示光を出射する制御を行うものである。例えば、第一相対頭部情報が算出されているか否かを判定して、第一相対頭部情報が算出されているときには、第一相対頭部情報を出力するとともに、続けて、算出された数の第二相対頭部情報を出力する。さらに、その後、第一相対頭部情報が算出されているか否かを判定して、第一相対頭部情報が算出されているときには、第一相対頭部情報を出力するとともに、続けて、算出された数の第二相対頭部情報を出力することを繰り返す。これにより、パイロット3は、表示器による表示映像を短い時間間隔で視認することができるようになる。
(ヘッドモーショントラッカ装置1の動作)
次に、ヘッドモーショントラッカ装置1による動作について説明する。図6、7は、ヘッドモーショントラッカ装置1による測定動作について説明するためのフローチャートである。図8、9は、ヘッドモーショントラッカ装置1による出力動作について説明するためのフローチャートである。
まず、ステップS101の処理において、飛行体30が移動しているか否かを判定する。飛行体30が移動していないと判定したときには、本フローチャートを終了させる。
一方、飛行体が移動していると判定したときには、ステップS102の処理において、時間(t)にtn+1と更新するように、tn+1と時間記憶部44に記憶させる。
次に、ステップS103の処理において、モーショントラッカ駆動部28は、カメラ装置2(2a、2b)でLED群7を撮影する。
次に、ステップS104の処理において、主頭部情報算出部22は、3つのLED7a、7b、7cの位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出することにより、カメラ装置2(2a、2b)(XYZ座標)に対するパイロット3の頭部角度(Θa、Φa、Ψa)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部角度(Θa、Φa、Ψa)を含む第一相対頭部情報を算出する。
なお、ステップS104の処理が実行されている間に、ステップS105〜S113の処理が実行される。つまり、第一相対頭部情報を算出する間に、第二相対頭部情報を算出するための角速度差を算出・記憶する。
まず、ステップS105の処理において、時間(s)をsとするように、sと時間記憶部44に記憶させる。
次に、ステップS106の処理において、頭部側3軸ジャイロセンサ6が、頭部の角速度(θ2、φ2、ψ2)を出力する。また、ステップS107の処理において、飛行体側3軸ジャイロセンサ4は、飛行体の角速度(θ1、φ1、ψ1)を出力する。
なお、ステップS106及びS107の処理は、同時に実行される。
次に、ステップS108の処理において、副頭部情報算出部23は、飛行体側3軸ジャイロセンサ4で検知された時間sの角速度(θ1、φ1、ψ1)と、頭部側3軸ジャイロセンサ6で検知された時間sの角速度(θ2、φ2、ψ2)とに基づいて、時間sの角速度差(Δθ、Δφ、Δψ)を算出して、第二相対頭部情報記憶部47に記憶させる。
次に、ステップS109の処理において、時間(s)にsm+1と更新するように、sm+1と時間記憶部44に記憶させる。
次に、ステップS110の処理において、頭部側3軸ジャイロセンサ6が、頭部の角速度(θ2、φ2、ψ2)を出力する。また、ステップS111の処理において、飛行体側3軸ジャイロセンサ4は、飛行体の角速度(θ1、φ1、ψ1)を出力する。
なお、ステップS110及びS111の処理は、同時に実行される。
次に、ステップS112の処理において、副頭部情報算出部23は、飛行体側3軸ジャイロセンサ4で検知された時間sm+1の角速度(θ1、φ1、ψ1)と、頭部側3軸ジャイロセンサ6で検知された時間sm+1の角速度(θ2、φ2、ψ2)とに基づいて、時間sm+1の角速度差(Δθ、Δφ、Δψ)を算出して、第二相対頭部情報記憶部47に記憶させる。
次に、ステップS113の処理において、切替部29は、時間(s)においてm>2(切替条件)を満たすか否かを判定する。m>2を満たさないときには、ステップS109の処理に戻る。つまり、m>2を満たすと判定されるときまで、ステップS109〜ステップS112の処理は繰り返される。
一方、m>2を満たすと判定され、かつ、ステップS104の処理で頭部角度(Θa、Φa、Ψa)が算出されたときには、ステップS114の処理において、切替部29は、カメラ装置2(2a、2b)によりLED群7の検出ができるか否かを判定する。カメラ装置2(2a、2b)によりLED群7の検出ができるときには、ステップS101の処理に戻り、ステップS101〜ステップS113の処理は繰り返される。
一方、カメラ装置2(2a、2b)によりLED群7の検出ができないと判定されたときには、ステップS115の処理に進む。つまり、第二相対頭部情報を算出するための角速度差を算出・記憶し続けることになる。
まず、ステップS115の処理において、時間(s)にsm+1と更新するように、sm+1と時間記憶部44に記憶させる。
次に、ステップS116の処理において、頭部側3軸ジャイロセンサ6が、頭部の角速度(θ2、φ2、ψ2)を出力する。また、ステップS117の処理において、飛行体側3軸ジャイロセンサ4は、飛行体の角速度(θ1、φ1、ψ1)を出力する。
なお、ステップS116及びS117の処理は、同時に実行される。
次に、ステップS118の処理において、副頭部情報算出部23は、飛行体側3軸ジャイロセンサ4で検知された時間sm+1の角速度(θ1、φ1、ψ1)と、頭部側3軸ジャイロセンサ6で検知された時間sm+1の角速度(θ2、φ2、ψ2)とに基づいて、時間sm+1の角速度差(Δθ、Δφ、Δψ)を算出して、第二相対頭部情報記憶部47に記憶させる。
次に、ステップS119の処理において、切替部29は、カメラ装置2(2a、2b)によりLED群7の検出ができるか否かを判定する。カメラ装置2(2a、2b)によりLED群7の検出ができないときには、ステップS115の処理に戻る。つまり、カメラ装置2(2a、2b)によりLED群7の検出ができると判定されるときまで、ステップS115〜ステップS118の処理は繰り返される。
一方、カメラ装置2(2a、2b)によりLED群7の検出ができると判定されたときには、ステップS101の処理に戻る。
次に、ヘッドモーショントラッカ装置1による出力動作について説明する(図8、9参照)。
まず、ステップS120の処理において、時間tの第一相対頭部情報が算出されているか否かを判定する。ステップS120の処理は、時間tの第一相対頭部情報が算出されていると判定されるときまで、繰り返される。
一方、時間tの第一相対頭部情報が算出されていると判定されたときには、ステップS121の処理において、頭部角度(Θa、Φa、Ψa)を含む第一相対頭部情報を出力する。
次に、ステップS122の処理において、頭部角度(Θa、Φa、Ψa)を含む第一相対頭部情報を第一相対頭部情報記憶部42に記憶させる。このとき、第一相対頭部情報記憶部42に記憶される頭部角度(Θa、Φa、Ψa)は、ステップS122の処理が実行される毎に、蓄積されていくことになる。
次に、ステップS123の処理において、m(第二相対頭部情報の出力の数)に0と更新するように、m=0と記憶させる。
次に、ステップS124の処理において、副頭部情報算出部23は、時間sの角速度差(Δθ、Δφ、Δψ)と、時間tの第一相対頭部情報とに基づいて、時間sの頭部角度(Θb、Φb、Ψb)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する。
例えば、まず、角速度差(Δθ、Δφ、Δψ)を積分演算することにより、時間tの頭部角度(Θa、Φa、Ψa)からの頭部角度の移動角度量(ΔΘ、ΔΦ、ΔΨ)を算出する。次に、時間tの頭部角度(Θa、Φa、Ψa)に頭部角度の移動角度量(Δθ、Δφ、Δψ)を加算することにより、時間sの頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する。
次に、ステップS125の処理において、時間sの頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を出力する。
次に、ステップS126の処理において、時間sの頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を第二相対頭部情報記憶部47に記憶させる。このとき、第二相対頭部情報記憶部47に記憶される頭部角度(Θb、Φb、Ψb)は、ステップS125の処理が実行される毎に、更新されていくことになる。
次に、ステップS127の処理において、m(第二相対頭部情報の出力の数)にm+1と更新するように、m=m+1と記憶させる。
次に、ステップS128の処理において、副頭部情報算出部23は、時間sm+1の角速度差(Δθ、Δφ、Δψ)と、時間sの第一相対頭部情報とに基づいて、時間sm+1の頭部角度(Θb、Φb、Ψb)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する。
例えば、まず、角速度差(Δθ、Δφ、Δψ)を積分演算することにより、時間sの頭部角度(Θb、Φb、Ψb)からの頭部角度の移動角度量(ΔΘ、ΔΦ、ΔΨ)を算出する。次に、時間sの頭部角度(Θb、Φb、Ψb)に頭部角度の移動角度量(Δθ、Δφ、Δψ)を加算することにより、時間sm+1の頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する。
次に、ステップS129の処理において、時間sm+1の頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を出力する。
次に、ステップS130の処理において、時間sm+1の頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を第二相対頭部情報記憶部47に記憶する。このとき、第二相対頭部情報記憶部47に記憶される頭部角度(Θb、Φb、Ψb)は、ステップS130の処理が実行される毎に、更新されていくことになる。
次に、ステップS131の処理において、m(第二相対頭部情報の出力の数)=mmax(第二相対頭部情報記憶部47に記憶された角速度差の数)であるか否かを判定する。m=mmaxを満たさないときには、ステップS127の処理に戻る。つまり、m=mmaxを満たすと判定されるときまで、ステップS127〜ステップS130の処理は繰り返される。
一方、m=mmaxを満たすと判定されたときには、ステップS132の処理において、時間tn+ 1 の第一相対頭部情報が算出されているか否かを判定する。時間tn+ 1 の第一相対頭部情報が算出されているときには、ステップS121の処理に戻る。つまり、時間tn+ 1 の第一相対頭部情報が算出されていないと判定されるときまで、ステップS121〜ステップS131の処理は繰り返される。
一方、時間tn+ 1 の第一相対頭部情報が算出されていないと判定されたときには、本フローチャートを終了させる。
以上のように、実施形態1のヘッドモーショントラッカ装置1によれば、光学方式モーショントラッカにより、飛行体30に設定された基準座標に対するパイロット3の頭部角度を含む第一相対頭部情報を算出する。一方、飛行体30に取り付けられた飛行体側3軸ジャイロセンサ4が角速度を検出するとともに、パイロット3の頭部に取り付けられた頭部側3軸ジャイロセンサ6が角速度を検出すると、副頭部情報算出部23は、角速度と、第一相対頭部情報とに基づいて、パイロット3の頭部角度を含む第二相対頭部情報を算出することができる。
これにより、切替部29は、カメラ装置2による撮影と撮影との間の時間や、ステレオ視による測定ができなくなったりするような、主頭部情報算出部22が第一相対頭部情報を算出できない状態になったときに、副頭部情報算出部23が飛行体30に設定された基準座標に対する頭部角度を含む第二相対頭部情報を算出することができる。
よって、このようにすることにより、短い間隔時間で、精度よく、飛行体30に設定された基準座標に対する頭部角度の頭部情報を算出することができる。
(実施形態2)
図10は、本発明の他の一実施形態であるヘッドモーショントラッカ装置の概略構成を示す図であり、図11は、HMT装置が頭部位置を含む第二相対頭部情報を算出する際に実行する演算処理の流れを説明する図である。本実施形態は、頭部角度に加えて、頭部位置についても算出する。なお、頭部角度の算出については、実施形態1と同じ演算処理が行われるので、ここでは頭部角度の算出については説明を省略し、頭部位置の算出についてのみ説明することとする。なお、上述した実施形態1と同様のものについては、同じ符号を付して、説明を省略することとする。
HMT装置51は、パイロット3の頭部に装着される頭部装着型表示装置付ヘルメット60と、飛行体30に固定された固定軸2cにより支持されるカメラ装置2(2a、2b)と、飛行体30に取り付けられた飛行体側3軸ジャイロセンサ4及び飛行体側加速度センサ55と、コンピュータにより構成される制御部70とから構成される。
飛行体側加速度センサ55は、飛行体の加速度を検知するものである。なお、飛行体側加速度センサ55自体に、x座標が定められている。つまり、x軸、y軸、z軸方向に対する加速度(x1、y1、z1)が検出される。なお、飛行体側加速度センサ55は、基準座標(XYZ座標)と正確に軸合わせされて、取り付けられている。また、軸合わせされずに、取り付けられている場合は、座標変換行列を求めておくことで、基準座標と関連付けを行うことになる。
頭部装着型表示装置付ヘルメット60は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、パイロット3の目に導くコンバイナ8と、位置や向き(すなわち、頭部角度及び頭部位置)を測定する際の指標となる頭部マーカーとして機能するLED群7と、頭部側3軸ジャイロセンサ6と、頭部側加速度センサ59とを有する。なお、頭部装着型表示装置付ヘルメット60自体にも、座標(ヘルメット座標)が定められているが、モーショントラッカの一部として使用するためには、パイロット3によって基準座標(XYZ座標)と正確に軸合わせされる必要があり、軸合わせされた後は、頭部装着型表示装置付ヘルメット60の位置は基準座標(XYZ座標)で表される。
頭部側加速度センサ59は、頭部の加速度を検出するものである。なお、頭部側加速度センサ59自体に、x座標が定められている。つまり、x軸、y軸、z軸方向における加速度(x2,y2,z2)が検出される。パイロット53は飛行体30に乗っており、飛行体30も動いているので、加速度(x2,y2,z2)は、パイロット3の頭部の加速度だけでなく、飛行体30の加速度も含んだものとなる。
なお、頭部側加速度センサ59は、頭部装着型表示装置付ヘルメット60に設定されたヘルメット座標と正確に軸合わせされて、頭部装着型表示装置付ヘルメット60に取り付けられる。
制御部70は、CPU71、メモリ91等からなるコンピュータにより構成され、各種の制御や演算処理を行う。制御部70のCPUが実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、主頭部情報算出部72と、副頭部情報算出部73と、頭部速度情報算出部74と、切替部29と、映像表示部25とからなる。
また、メモリ41は、制御部70が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、基準座標(XYZ座標)を記憶する基準座標記憶部43と、第一相対頭部情報を蓄積する第一相対頭部情報記憶部92と、時間記憶部44と、第二相対頭部情報、角速度差及び加速度差を記憶する第二相対頭部情報記憶部97と、現在頭部速度を記憶する速度記憶部98と、初期データ記憶部39とを含む。
主頭部情報算出部72は、カメラ装置2(2a、2b)(XYZ座標)に対するパイロット3の頭部角度(Θa、Φa、Ψa)及び頭部位置(Xa、Ya、Za)を含む第一頭部情報を算出する制御を行うものである。
具体的には、頭部装着型表示装置ヘルメット60上の一点をヘルメット基準点(P)と定め、さらにヘルメット基準点(P)を始点とする二方向をヘルメット基準方向(M及びN)と定める。本実施形態でも、図2に示すように、ヘルメット基準点(P)としてLED7aの位置を指定し、ヘルメット基準方向(M及びN)として頭部装着型表示装置ヘルメット60の前方方向とその垂直方向を指定することにする。これにより、決定された頭部装着型表示装置ヘルメット60の現在位置及び現在角度は、このヘルメット基準点Pの位置座標(X、Y、Z)、ヘルメット基準方向(M及びN)のX軸、Y軸、Z軸に対する角度(Θ、Φ、Ψ)を用いて表現することができる。
よって、主頭部情報算出部72は、3つのLED7a、7b、7cの位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出し、これに基づいて、ヘルメット基準点Pの位置座標(Xa、Ya、Za)、ヘルメット基準方向(M及びN)の角度(Θa、Φa、Ψa)を第一相対頭部情報として算出する。なお、頭部位置(Xa、Ya、Za)及び頭部角度(Θa、Φa、Ψa)を含む第一相対頭部情報は、第一相対頭部情報記憶部92に蓄積されることになる。
頭部速度情報算出部74は、第一相対頭部情報記憶部92に記憶された第一相対頭部情報に基づいて、パイロット3の頭部速度を含む頭部速度情報を算出する制御を行うものである。後述する副頭部情報算出部73で、飛行体側加速度センサ55及び頭部側加速度センサ59から検出された加速度に基づいて、第二相対頭部情報を算出するために、速度を算出する必要があるが、このときに、初速度が必要になる。例えば、時間tから時間sまでの加速度を積分するときには、時間tの速度(初速度)が必要となる。そこで、頭部速度情報算出部74は、時間tに記憶された頭部位置(Xa、Ya、Za)と、時間tに記憶された頭部位置(Xa、Ya、Za)とから、時間tから時間tまでの平均速度を算出することによって、副頭部情報算出部73で時間tの速度(初速度)として用いるための、パイロット3の頭部速度を含む頭部速度情報を算出する。
副頭部情報算出部73は、角速度(θ1、φ1、ψ1)及び角速度(θ2、φ2、ψ2)と、第一相対頭部情報とに基づいて、パイロット3の頭部角度(Θb、Φb、Ψb)を含む第二相対頭部情報を算出する制御を行うともに、さらに、加速度(x1、y1、z1)及び加速度(x2、y2、z2)と、頭部速度情報及び第一相対頭部情報とに基づいて、パイロット3の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出する制御を行うものである。なお、頭部角度の算出については、実施形態1と同じ演算処理が行われるので、ここでは頭部角度の算出については説明を省略し、頭部位置の算出についてのみ説明することとする。
例えば、まず、飛行体加速度センサ55で検知された時間sの加速度(x1、y1、z1)と、頭部側加速度センサ59で検知された時間sの加速度(x2、y2、z2)との差分から、加速度差(Δx、Δy、Δz)を算出して、第二相対頭部情報記憶部97に記憶させる。このとき、差分を算出することによって、飛行体30の加速度が消去され、頭部のみの加速度が得られる。次に、時間tの速度として頭部速度情報を用いて、加速度差(Δx、Δy、Δz)を積分演算することにより、時間sの現在頭部速度を算出するとともに現在頭部速度を速度記憶部98に記憶させる。さらに、時間sの現在頭部速度を積分演算することにより、時間tの頭部位置(Xa、Ya、Za)からの頭部位置の移動距離量(ΔX、ΔY、ΔZ)を算出する。最後に、時間tの頭部位置(Xa、Ya、Za)に頭部位置の移動距離量(ΔX、ΔY、ΔZ)を加算することにより、時間sの頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出するとともに第二相対頭部情報を第二相対頭部情報記憶部97に記憶させることを行う。さらに、その後、加速度(x1、y1、z1)及び加速度(x2、y2、z2)と、記憶された現在頭部速度及び第二相対頭部情報とに基づいて、パイロット3の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出することを行う。
(ヘッドモーショントラッカ装置51の動作)
ヘッドモーショントラッカ装置51により頭部角度を測定して出力する動作は、基本的に、図6〜9を用いて説明したものと同様の処理を行うものであるので、説明を省略する。
ここでは、ヘッドモーショントラッカ装置51により頭部位置を測定して出力する動作について説明する。図12、13は、ヘッドモーショントラッカ装置51による測定動作について説明するためのフローチャートである。図14、15は、ヘッドモーショントラッカ装置51による出力動作について説明するためのフローチャートである。
まず、ステップS201の処理において、飛行体30が移動しているか否かを判定する。飛行体30が移動していないと判定したときには、本フローチャートを終了させる。
一方、飛行体が移動していると判定したときには、ステップS202の処理において、時間(t)にtn+1と更新するように、tn+1と時間記憶部44に記憶させる。
次に、ステップS203の処理において、モーショントラッカ駆動部28は、カメラ装置2(2a、2b)でLED群7を撮影する。
次に、ステップS204の処理において、主頭部情報算出部72は、3つのLED7a、7b、7cの位置(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を算出することにより、カメラ装置2(2a、2b)(XYZ座標)に対するパイロット3の頭部位置(Xa、Ya、Za)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部位置(Xa、Ya、Za)を含む第一相対頭部情報を算出する。
なお、ステップS204の処理が実行されている間に、ステップS205〜S213の処理が実行される。つまり、第一相対頭部情報を算出する間に、第二相対頭部情報を算出するための加速度差を算出・記憶する。
まず、ステップS205の処理において、時間(s)をsとするように、sと時間記憶部44に記憶させる。
次に、ステップS206の処理において、頭部側加速度センサ59が、頭部の加速度(x2、y2、z2)を出力する。また、ステップS207の処理において、飛行体側加速度センサ55は、飛行体の加速度(x1、y1、z1)を出力する。
なお、ステップS206及びS207の処理は、同時に実行される。
次に、ステップS208の処理において、副頭部情報算出部73は、飛行体側加速度センサ55で検知された時間sの加速度(x1、y1、z1)と、頭部側加速度センサ59で検知された時間sの加速度(x2、y2、z2)とに基づいて、時間sの加速度差(Δx、Δy、Δz)を算出して、第二相対頭部情報記憶部97に記憶させる。
次に、ステップS209の処理において、時間(s)にsm+1と更新するように、sm+1と時間記憶部44に記憶させる。
次に、ステップS210の処理において、頭部側加速度センサ59が、頭部の加速度(x2、y2、z2)を出力する。また、ステップS211の処理において、飛行体側加速度センサ55は、飛行体の加速度(x1、y1、z1)を出力する。
なお、ステップS210及びS211の処理は、同時に実行される。
次に、ステップS212の処理において、副頭部情報算出部73は、頭部側加速度センサ59で検知された時間sm+1の加速度(x2、y2、z2)と、飛行体側加速度センサ55で検知された時間sm+1の加速度(x1、y1、z1)とに基づいて、時間sm+1の加速度差(Δx、Δy、Δz)を算出して、第二相対頭部情報記憶部97に記憶させる。
次に、ステップS213の処理において、切替部29は、時間(s)においてm>2(切替条件)を満たすか否かを判定する。m>2を満たさないときには、ステップS209の処理に戻る。つまり、m>2を満たすと判定されるときまで、ステップS209〜ステップS212の処理は繰り返される。
一方、m>2を満たすと判定され、かつ、ステップS204の処理で頭部位置(Xa、Ya、Za)が算出されたときには、ステップS214の処理において、切替部29は、カメラ装置2(2a、2b)によりLED群7の検出ができるか否かを判定する。カメラ装置2(2a、2b)によりLED群7の検出ができるときには、ステップS201の処理に戻り、ステップS201〜ステップS213の処理は繰り返される。
一方、カメラ装置2(2a、2b)によりLED群7の検出ができないと判定されたときには、ステップS215の処理に進む。よって、第二相対頭部情報を算出するための加速度差を算出・記憶し続けることになる。
まず、ステップS215の処理において、時間(s)にsm+1と更新するように、sm+1と時間記憶部44に記憶させる。
次に、ステップS216の処理において、頭部側加速度センサ59が、頭部の加速度(x2、y2、z2)を出力する。また、ステップS217の処理において、飛行体側加速度センサ55は、飛行体の加速度(x1、y1、z1)を出力する。
なお、ステップS216及びS217の処理は、同時に実行される。
次に、ステップS218の処理において、副頭部情報算出部73は、飛行体側加速度センサ55で検知された時間sm+1の加速度(x1、y1、z1)と、頭部側加速度センサ59で検知された時間sm+1の加速度(x2、y2、z2)とに基づいて、時間sm+1の加速度差(Δx、Δy、Δz)を算出して、第二相対頭部情報記憶部97に記憶させる。
次に、ステップS219の処理において、切替部29は、カメラ装置2(2a、2b)によりLED群7の検出ができるか否かを判定する。カメラ装置2(2a、2b)によりLED群7の検出ができないときには、ステップS215の処理に戻る。つまり、カメラ装置2(2a、2b)によりLED群7の検出ができると判定されるときまで、ステップS215〜ステップS218の処理は繰り返される。
一方、カメラ装置2(2a、2b)によりLED群7の検出ができると判定されたときには、ステップS201の処理に戻る。
次に、ヘッドモーショントラッカ装置51による出力動作について説明する(図14、15参照)。
まず、ステップS220の処理において、時間tの第一相対頭部情報が算出されているか否かを判定する。ステップS220の処理は、時間tの第一相対頭部情報が算出されていると判定されるときまで、繰り返される。
一方、時間tの第一相対頭部情報が算出されていると判定されたときには、ステップS221の処理において、時間tの頭部位置(Xa、Ya、Za)を含む第一相対頭部情報を出力する。
次に、ステップS222の処理において、時間tの頭部位置(Xa、Ya、Za)を含む第一相対頭部情報を第一相対頭部情報記憶部92に記憶する。このとき、第一相対頭部情報記憶部92に記憶される頭部位置(Xa、Ya、Za)は、ステップS222の処理が実行される毎に、蓄積されていくことになる。
次に、ステップS223の処理において、頭部速度情報算出部74は、第一相対頭部情報記憶部42に記憶された時間tの第一相対頭部情報と時間tの第一相対頭部情報とに基づいて、パイロット3の頭部速度を含む頭部速度情報を算出する。つまり、時間tの速度として用いるための頭部速度情報を算出して、速度記憶部98に記憶させる。
次に、ステップS223の処理において、m(第二相対頭部情報の出力の数)に0と更新するように、m=0と記憶させる。
次に、ステップS224の処理において、副頭部情報算出部73は、時間sの加速度差(Δx、Δy、Δz)と、頭部速度情報とに基づいて、時間sの現在頭部速度を算出する。
例えば、まず、時間tの速度として頭部速度情報を用いて、加速度差(Δx、Δy、Δz)を積分演算することにより、時間sの現在頭部速度を算出する。このとき、現在頭部速度を速度記憶部98に記憶させる。
次に、ステップS225の処理において、副頭部情報算出部73は、時間sの現在頭部速度と、時間tの第一相対頭部情報とに基づいて、時間sの頭部位置(Xb、Yb、Zb)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出する。
具体的には、まず、時間sの現在頭部速度を積分演算することにより、時間tの頭部位置(Xa、Ya、Za)からの頭部位置の移動距離量(ΔX、ΔY、ΔZ)を算出する。次に、時間tの頭部位置(Xa、Ya、Za)に頭部位置の移動距離量(ΔX、ΔY、ΔZ)を加算することにより、時間sの頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出する。
次に、ステップS226の処理において、時間sの頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を出力する。
次に、ステップS227の処理において、時間sの頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を第二相対頭部情報記憶部97に記憶させる。このとき、第二相対頭部情報記憶部97に記憶される頭部位置(Xb、Yb、Zb)は、ステップS227の処理が実行される毎に、更新されていくことになる。
次に、ステップS228の処理において、m(第二相対頭部情報の出力の数)にm+1と更新するように、m=m+1と記憶させる。
次に、ステップS229の処理において、副頭部情報算出部73は、時間sm+1の加速度差(Δx、Δy、Δz)と、頭部速度情報とに基づいて、時間sm+1の現在頭部速度を算出する。
例えば、まず、時間sの速度として頭部速度情報を用いて、加速度差(Δx、Δy、Δz)を積分演算することにより、時間sm+1の現在頭部速度を算出する。このとき、現在頭部速度を速度記憶部98に記憶させる。
次に、ステップS230の処理において、副頭部情報算出部73は、時間sm+1の現在頭部速度と、時間sの第一相対頭部情報とに基づいて、時間sm+1の頭部位置(Xb、Yb、Zb)を算出する。すなわち、飛行体30に設定された基準座標に対する頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出する。
具体的には、まず、時間sm+1の現在頭部速度を積分演算することにより、時間sの頭部位置(Xb、Yb、Zb)からの頭部位置の移動距離量(ΔX、ΔY、ΔZ)を算出する。次に、時間sの頭部位置(Xa、Ya、Za)に頭部位置の移動距離量(ΔX、ΔY、ΔZ)を加算することにより、時間sm+1の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を算出する。
次に、ステップS231の処理において、時間sm+1の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を出力する。
次に、ステップS232の処理において、時間sm+1の頭部位置(Xb、Yb、Zb)を含む第二相対頭部情報を第二相対頭部情報記憶部97に記憶する。このとき、第二相対頭部情報記憶部97に記憶される頭部位置(Xb、Yb、Zb)は、ステップS232の処理が実行される毎に、更新されていくことになる。
次に、ステップS233の処理において、m(第二相対頭部情報の出力の数)=mmax(第二相対頭部情報記憶部97に記憶された加速度差の数)であるか否かを判定する。m=mmaxを満たさないときには、ステップS228の処理に戻る。つまり、m=mmaxを満たすと判定されるときまで、ステップS228〜ステップS232の処理は繰り返される。
一方、m=mmaxを満たすと判定されたときには、ステップS234の処理において、時間tn+ 1 の第一相対頭部情報が算出されているか否かを判定する。時間tn+ 1 の第一相対頭部情報が算出されているときには、ステップS221の処理に戻る。つまり、時間tn+ 1 の第一相対頭部情報が算出されていないと判定されるときまで、ステップS221〜ステップS233の処理は繰り返される。
一方、時間tn+ 1 の第一相対頭部情報が算出されていないと判定されたときには、本フローチャートを終了させる。
以上のように、実施形態2のヘッドモーショントラッカ装置51によれば、さらに、光学方式モーショントラッカにより、飛行体30に設定された基準座標に対するパイロット3の頭部位置を含む第一相対頭部情報を算出する。一方、飛行体30に取り付けられた飛行体側加速度センサ55が加速度を検出するとともに、パイロット3の頭部に取り付けられた頭部側加速度センサ59が加速度を検出すると、副頭部情報算出部73は、加速度と、第一相対頭部情報と、頭部速度情報とに基づいて、パイロット3の頭部位置を含む第二相対頭部情報を算出することができる。
これにより、切替部29は、カメラ装置2による撮影と撮影との間の時間や、ステレオ視による測定ができなくなったりするような、主頭部情報算出部22が第一相対頭部情報を算出できない状態になったときに、副頭部情報算出部23が飛行体30に設定された基準座標に対する頭部位置を含む第二相対頭部情報を算出することができる。
よって、このようにすることにより、短い間隔時間で、精度よく、飛行体30に設定された基準座標に対する頭部位置の頭部情報を算出することができる。
本発明は、搭乗員等の飛行体に設定された基準座標に対する頭部角度を測定するためのヘッドモーショントラッカ装置に利用することができる。
本発明の一実施形態であるヘッドモーショントラッカ装置の概略構成を示す図である。 図1に示す頭部装着型表示装置付ヘルメットの平面図である。 基準座標(XYZ座標)の設定を説明するための図である。 HMT装置が頭部角度を含む第二相対頭部情報を算出する際に実行する演算処理の流れを説明する図である。 制御部が実行する流れを説明するタイムチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の他の一実施形態であるヘッドモーショントラッカ装置の概略構成を示す図である。 HMT装置が頭部位置を含む第二相対頭部情報を算出する際に実行する演算処理の流れを説明する図である。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。 本発明の一実施形態であるヘッドモーショントラッカ装置による測定動作について説明するためのフローチャートである。
符号の説明
1、51 ヘッドモーショントラッカ装置
2 カメラ装置
3 パイロット
4 飛行体側3軸ジャイロセンサ
6 頭部側3軸ジャイロセンサ
7 LED群
10、60 頭部装着型表示装置付ヘルメット
22、72 主頭部情報算出部
23、73 副頭部情報算出部
74 頭部速度情報算出部
28 モーショントラッカ駆動部
29 切替部
30 飛行体
42 第一相対頭部情報記憶部

Claims (3)

  1. 光学方式モーショントラッカと、
    前記光学方式モーショントラッカにより、移動体に設定された基準座標に対する搭乗者の頭部角度を含む第一相対頭部情報を算出する主頭部情報算出部と、
    前記第一相対頭部情報を記憶する第一相対頭部情報記憶部とを備えたヘッドモーショントラッカ装置において、
    前記移動体に取り付けられるとともに、当該移動体に作用する角速度を検出する移動体センサと、
    前記搭乗者の頭部に装着されるとともに、当該頭部に作用する角速度を検出する頭部センサと、
    前記移動体センサ及び頭部センサから検出された角速度と、前記第一相対頭部情報とに基づいて、前記基準座標に対する搭乗者の頭部角度を含む第二相対頭部情報を、主頭部情報算出部の算出時間より短時間で算出する副頭部情報算出部と、
    前記主頭部情報算出部による第一相対頭部情報が再び算出されるときまで、前記副頭部情報算出部により第二相対頭部情報を算出させる切替部とを備えることを特徴とするヘッドモーショントラッカ装置。
  2. 前記光学方式モーショントラッカは、前記搭乗者の頭部に装着される光学マーカー群と、
    前記移動体に取り付けられ、前記光学マーカー群からの光線を検出するカメラ装置とを備えることを特徴とする請求項1に記載のヘッドモーショントラッカ装置。
  3. 前記第一相対頭部情報記憶部は、異なる時間に算出された少なくとも2つの第一相対頭部情報を記憶するとともに、
    前記移動体センサと頭部センサとは、さらに加速度を検出し、かつ、
    前記少なくとも2つの第一相対頭部情報に基づいて、前記搭乗者の頭部速度を含む頭部速度情報を算出する頭部速度情報算出部を備え、
    前記主頭部情報算出部は、さらに搭乗者の頭部位置を含んだ第一相対頭部情報を算出するとともに、
    前記副頭部情報算出部は、さらに移動体センサ及び頭部センサから検出された加速度と、前記頭部速度情報及び第一相対頭部情報とに基づいて、前記搭乗者の頭部位置を含んだ第二相対頭部情報を算出することを特徴とする請求項1又は2に記載のヘッドモーショントラッカ装置。
JP2006234419A 2006-08-30 2006-08-30 ヘッドモーショントラッカ装置 Active JP4665872B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006234419A JP4665872B2 (ja) 2006-08-30 2006-08-30 ヘッドモーショントラッカ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006234419A JP4665872B2 (ja) 2006-08-30 2006-08-30 ヘッドモーショントラッカ装置

Publications (2)

Publication Number Publication Date
JP2008059204A JP2008059204A (ja) 2008-03-13
JP4665872B2 true JP4665872B2 (ja) 2011-04-06

Family

ID=39241877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006234419A Active JP4665872B2 (ja) 2006-08-30 2006-08-30 ヘッドモーショントラッカ装置

Country Status (1)

Country Link
JP (1) JP4665872B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009085805A (ja) * 2007-10-01 2009-04-23 Shimadzu Corp モーショントラッカ装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4918376B2 (ja) * 2007-02-23 2012-04-18 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP5594944B2 (ja) * 2008-08-05 2014-09-24 株式会社島津製作所 モーショントラッカ装置
JP2014095557A (ja) * 2012-11-07 2014-05-22 Shimadzu Corp モーショントラッカ装置
WO2016098591A1 (ja) * 2014-12-15 2016-06-23 株式会社島津製作所 ヘッドマウントディスプレイ用の動画像処理装置、ヘッドマウントディスプレイ用の動画像処理方法およびヘッドマウントディスプレイシステム
JP6689679B2 (ja) * 2016-06-01 2020-04-28 京セラ株式会社 表示装置、情報表示システム、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106322A (ja) * 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
JPH1163927A (ja) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd 頭部位置・姿勢の計測装置および作業監視装置
JP2000244886A (ja) * 1999-01-20 2000-09-08 Canon Inc コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン
JP2001103395A (ja) * 1999-09-30 2001-04-13 Kawasaki Heavy Ind Ltd ヘッド・マウント・ディスプレイ装置
JP2005016964A (ja) * 2003-06-23 2005-01-20 Shimadzu Corp 磁界補正データ生成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106322A (ja) * 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
JPH1163927A (ja) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd 頭部位置・姿勢の計測装置および作業監視装置
JP2000244886A (ja) * 1999-01-20 2000-09-08 Canon Inc コンピュータ会議システム、コンピュータ処理装置、コンピュータ会議を行う方法、コンピュータ処理装置における処理方法、ビデオ会議システム、ビデオ会議を行う方法、ヘッドホン
JP2001103395A (ja) * 1999-09-30 2001-04-13 Kawasaki Heavy Ind Ltd ヘッド・マウント・ディスプレイ装置
JP2005016964A (ja) * 2003-06-23 2005-01-20 Shimadzu Corp 磁界補正データ生成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009085805A (ja) * 2007-10-01 2009-04-23 Shimadzu Corp モーショントラッカ装置

Also Published As

Publication number Publication date
JP2008059204A (ja) 2008-03-13

Similar Documents

Publication Publication Date Title
JP5594944B2 (ja) モーショントラッカ装置
JP4961904B2 (ja) ヘッドモーショントラッカ装置
JP4665872B2 (ja) ヘッドモーショントラッカ装置
JP5775354B2 (ja) 離着陸ターゲット装置及び自動離着陸システム
JP4396564B2 (ja) 物体のモニタリング方法およびこれを用いたモーショントラッカ
JP5145832B2 (ja) 頭部装着型表示装置及び頭部装着型表示装置システム
US20120130566A1 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
US8963804B2 (en) Method and system for operating a near-to-eye display
BR0311522A (pt) Sistema e método para a realização de reconhecimento aerotransportado, e método para realizar alcance de alvo aéreo
JP4924342B2 (ja) モーショントラッカ装置
EP2910994B1 (en) Polarized tracker system and method for tracking movement
JP5292725B2 (ja) モーショントラッカ装置
JP4967546B2 (ja) ヘッドモーショントラッカ装置
JP5092300B2 (ja) ヘッドモーショントラッカ装置
JP2012226666A (ja) モーショントラッカ装置
JP2014095557A (ja) モーショントラッカ装置
JP4877138B2 (ja) ヘッドモーショントラッカ装置
JP2009036517A (ja) ヘッドモーショントラッカ装置
JP4905321B2 (ja) ヘッドモーショントラッカ装置
JP5029531B2 (ja) モーショントラッカシステム及びその座標系設定方法
JP4905311B2 (ja) ヘッドモーショントラッカシステム及びそれに用いられるキャリブレーション装置
JP4656016B2 (ja) モーショントラッカ装置
JP4656017B2 (ja) ヘッドモーショントラッカ装置
JP2007334762A (ja) ヘッドモーショントラッカ装置
JP4872768B2 (ja) ヘッドモーショントラッカ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4665872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3