JP5233958B2 - Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus - Google Patents
Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus Download PDFInfo
- Publication number
- JP5233958B2 JP5233958B2 JP2009250330A JP2009250330A JP5233958B2 JP 5233958 B2 JP5233958 B2 JP 5233958B2 JP 2009250330 A JP2009250330 A JP 2009250330A JP 2009250330 A JP2009250330 A JP 2009250330A JP 5233958 B2 JP5233958 B2 JP 5233958B2
- Authority
- JP
- Japan
- Prior art keywords
- window
- rescue target
- vehicle
- head
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、難破船や遭難者等の救難目標の位置を、航空機やヘリコプタ等の飛行体等の搭乗員が装着する頭部装着型表示装置を利用して指示する救難目標位置指示装置及びそれに光学特性を記憶させる光学特性記憶方法に関する。 The present invention relates to a rescue target position indicating device for indicating a position of a rescue target such as a shipwreck or a victim using a head-mounted display device worn by a crew member such as an aircraft such as an aircraft or helicopter. The present invention relates to an optical property storage method for storing optical properties.
救難活動において、上空から難破船(救難目標)を探すために航空機(飛行体)が用いられている。航空機は、前面と側面とに曲面形状のガラス製の見張窓を有するとともに、鉄製の壁を有する。これにより、航空機の外部と航空機の内部とが分かれており、パイロットが航空機の内部の座席に着席することになる。そして、航空機の外部からの光は、見張窓を透過して航空機の内部に導かれることで、パイロットは、航空機の外部に存在する実在物を視認することができるようになっている。
このような航空機において、航空機の外部で発見した難破船を見失うことがないようにするため、救難目標位置指示装置が設置されており、救難目標位置指示装置によって、パイロットが装着する頭部装着型表示装置付ヘルメットのバイザー(光学素子)により表示される照準画像と、バイザーを通して視認される難破船とが対応したときにロックすることにより、ロックされた救難目標の位置を演算することが行われている(例えば、特許文献1参照)。
なお、図3は、照準画像の一例を示す図である。十字形状の照準画像Rが表示されているとともに、難破船Nが視認されている。
In rescue operations, aircraft (aircraft) are used to search for shipwrecks (rescue targets) from above. The aircraft has curved glass guard windows on the front and side surfaces and an iron wall. As a result, the outside of the aircraft and the inside of the aircraft are separated, and the pilot is seated on the seat inside the aircraft. The light from the outside of the aircraft passes through the watch window and is guided to the inside of the aircraft, so that the pilot can visually recognize the actual object existing outside the aircraft.
In such an aircraft, in order not to lose sight of the shipwreck found outside the aircraft, a rescue target position indicating device is installed, and the head mounted type that the pilot wears with the rescue target position indicating device. The position of the locked rescue target is calculated by locking when the aiming image displayed by the visor (optical element) of the helmet with display device corresponds to the shipwreck visible through the visor. (For example, refer to Patent Document 1).
FIG. 3 is a diagram illustrating an example of the aiming image. A cross-shaped aiming image R is displayed and the shipwreck N is visible.
ここで、従来の救難目標位置指示装置の一例について説明する。図8は、従来の救難目標位置指示装置の概略構成の一例を示す図である。また、図2(a)は、頭部装着型表示装置付ヘルメットの一例を示す側面図であり、図2(b)は、図2(a)に示す頭部装着型表示装置付ヘルメットの平面図である。
救難目標位置指示装置101は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、パイロットPの手によって入力操作される押しボタン21を有する入力装置20と、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を演算するヘッドモーショントラッカ(HMT)装置30と、飛行体情報を演算する検出装置40と、頭部装着型表示装置付ヘルメット10と入力装置20とHMT装置30と検出装置40とを制御する制御部150とを備える。
Here, an example of a conventional rescue target position indicating device will be described. FIG. 8 is a diagram illustrating an example of a schematic configuration of a conventional rescue target position indicating device. 2A is a side view showing an example of a helmet with a head-mounted display device, and FIG. 2B is a plan view of the helmet with a head-mounted display device shown in FIG. FIG.
The rescue target
救難目標位置指示装置101が設置される航空機90は、前面と側面とに曲面形状のガラス製の見張窓91を有するとともに、後面に鉄製の壁92を有する。そして、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算するために、航空機90には、XYZ座標系が予め設定されている。このようなXYZ座標系は、原点及び各座標軸の方向を任意に定めることができ、救難活動を行う前に設定者等によって制御部150に予め記憶されることになる。
検出装置40は、航空機90の緯度及び経度を検出するGPS用受信機41と、航空機90の高度を検出する高度計42と、航空機90の姿勢として航空機90の機首の方向を検出する方向センサ43と、航空機90の姿勢として航空機60の左右の傾きであるバンク角を検出する角度センサ44とで構成される。そして、GPS用受信機41と高度計42と方向センサ43と角度センサ44とは、航空機90に取り付けられ、制御部150に信号を出力することになる。
An
The
頭部装着型表示装置付ヘルメット10は、パイロットPの頭部に装着されるヘルメット11と、パイロットPの眼の前方に配置されるバイザー(光学素子)12と、パイロットPの左上方に配置される左眼用表示器13Lと、パイロットPの右上方に配置される右眼用表示器13Rとを有する。
ヘルメット11は、パイロットPの頭部を覆うととともに、顔面が開放される略半球形状である。
バイザー12は、所定の曲面形状であり、ハーフミラーやホログラム素子等により構成される。そして、バイザー12は、上下方向にスライド可能な状態でヘルメット11に支持されており、バイザー12を下げるとパイロットPの左眼及び右眼の前方に配置されるようになっている。
The
The
The
左眼用表示器13Lは、照準画像Rを示す左眼用画像表示光を出射するとともに、右眼用表示器13Rは、照準画像Rを示す右眼用画像表示光を出射する。
これにより、左眼用表示器13Lから出射される左眼用画像表示光は、バイザー12の反射面で反射されることにより、パイロットPの左眼に導かれるとともに、右眼用表示器13Rから出射される右眼用画像表示光は、バイザー12の反射面で反射されることにより、パイロットPの右眼に導かれる。その結果、パイロットPは、観察対象の虚像(照準画像)Rを立体的にバイザー12の所定の位置に視認できるとともに、バイザー12を透過する光により実在物も視認できるようになっている。
The left-
Thus, the left-eye image display light emitted from the left-
また、パイロットPの頭部は、航空機90の内部で様々な位置や角度に変化するので、HMT装置30によって、航空機90に設定されたXYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を演算するために、頭部装着型表示装置付ヘルメット10には、X’Y’Z’座標系が予め設定されている。なお、角度(RL)は、ロール方向(X軸回りの回転)の角度であり、角度(EL)は、エレベーション方向(Y軸回りの回転)の角度であり、角度(AZ)は、アジマス方向(Z軸回りの回転)の角度である。このようなX’Y’Z’座標系は、原点及び各座標軸の方向を任意に定めることができ、救難活動を行う前に設定者等によって制御部150に予め記憶されることになる。
Further, since the head of the pilot P changes to various positions and angles inside the
HMT装置30は、例えば、ヘルメット11の上部に取り付けられた磁気センサ31と、航空機90の天井に取り付けられた磁気ソース32とで構成される。磁気ソース31は、交流磁界を発生させるものであり、空間の各点には、それぞれの位置に固有の磁気変化(大きさ及び方向を有する磁気)が生じることになる。磁気センサ31は、3軸のピックアップコイルを有しており、磁気センサ31が存在する位置固有の磁気の大きさ及び方向を検出する。そして、磁気センサ31は、制御部150に信号を出力することになる。
また、制御部150は、頭部装着型表示装置付ヘルメット10において、照準画像Rは、X’Y’Z’座標系のどの位置に表示されるかがわかるようになっており、XYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を算出することができれば、XYZ座標系において照準画像Rがどの位置を指し示しているかがわかるようになっている。
The
Further, in the
制御部150は、CPU151とメモリ152とを備える。また、CPU151が処理する機能をブロック化して説明すると、HMT装置30から頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を取得する頭部情報取得部51aと、検出装置40から飛行体情報を取得する飛行体情報取得部51bと、難破船Nの位置(XN,YN,ZN)を演算する演算部151cと、難破船Nの位置(XN,YN,ZN)を表示する表示制御部51dとを有する。
また、メモリ152には、制御部150が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、XYZ座標系を記憶するXYZ系記憶領域52aと、X’Y’Z’座標系を記憶するX’Y’Z’座標系記憶領域52bとを有する。
The
Further, the
演算部151cは、押しボタン21からの入力信号と、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と、飛行体情報とに基づいて、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算する制御を行う。
具体的には、パイロットPは、外部に存在する難破船Nを発見すると、照準画像Rと難破船Nとを対応させる。そして照準画像Rと難破船Nとが対応(ロック)したときに、パイロットPは、押しボタン21を入力操作する。これにより、演算部151cは、押しボタン21が入力操作されたときの頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と、押しボタン21が入力操作されたときの飛行体情報とに基づいて、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算する。その結果、演算部151cは、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対して難破船Nがどの位置(XN,YN,ZN)に存在するかがわかるようになっており、パイロットPに難破船Nの位置(XN,YN,ZN)を指し示すようになっている。
The
Specifically, when the pilot P finds the shipwreck N existing outside, the pilot P associates the aiming image R with the shipwreck N. Then, when the aiming image R and the shipwreck N correspond (lock), the pilot P performs an input operation on the
しかしながら、救難目標位置指示装置101では、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対する難破船Nの位置(XN,YN,ZN)がわかるようになっているはずが、パイロットPは、指し示された位置(XN,YN,ZN)を視認しても、難破船Nが存在しないことがあった。つまり、救難目標位置指示装置101では、航空機90に対する難破船Nの位置(XN,YN,ZN)を正確に演算することができていないことがあった。
However, in the rescue target
本件発明者らは、上記課題を解決するために、航空機90に対する難破船Nの位置(XN,YN,ZN)を正確に演算することができる方法について検討を行った。パイロットPは、見張窓91を通して、難破船Nと照準画像Rとを対応させているが、図9に示すように、見張窓91で光学歪が発生していることがわかった。このように見張窓91で光学歪が発生した状態で難破船Nと照準画像Rとを対応させると、演算部151cは、航空機90に対する難破船Nの位置(XN,YN,ZN)を誤って演算することになる。
また、見張窓91で発生する光学歪は、図10に示すように、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)が同じであっても、角度(AZh,ELh,RLh)が異なれば、全く異なる。さらに、見張窓91で発生する光学歪は、図11に示すように、頭部装着型表示装置付ヘルメット10の角度(AZh,ELh,RLh)が同じであっても、位置(Xh,Yh,Zh)が異なれば、全く異なることもあるし、図12に示すように、同じとなることもある。
そこで、見張窓91の光学特性を考慮することにより、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算することを見出した。
In order to solve the above-described problems, the present inventors have studied a method that can accurately calculate the position (X N , Y N , Z N ) of the shipwreck N with respect to the
Further, as shown in FIG. 10, even if the position (X h , Y h , Z h ) of the
Therefore, it has been found that the position (X N , Y N , Z N ) of the shipwreck N with respect to the
すなわち、本発明の救難目標位置指示装置は、外部と内部とを分ける窓を有し、外部からの光が窓を透過して内部に導かれる搭乗体に搭乗員が搭乗し、前記搭乗員の眼の前方に配置される光学素子と、照準画像を示す画像表示光を出射する表示器とを有し、前記表示器から出射された画像表示光が、前記光学素子を介して搭乗員の眼に導かれることにより、前記搭乗員の前方に照準画像を形成するとともに、前記搭乗員の眼の前方からの光が、前記光学素子を透過して搭乗員の眼に導かれる頭部装着型表示装置と、前記搭乗員の手によって入力操作される入力装置と、前記搭乗体に対する頭部装着型表示装置の位置及び角度を演算するヘッドモーショントラッカ装置と、外部に存在する救難目標と照準画像とが対応したときに入力操作された入力装置からの入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度とに基づいて、前記搭乗体に対する救難目標の位置を演算する制御部とを備える救難目標位置指示装置であって、前記窓の材質、形状及び配置位置を示す窓の光学特性を記憶する記憶部を有し、前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性とに基づいて、前記搭乗体に対する救難目標の位置を演算するようにしている。
ここで、「光学素子」としては、顔正面を覆うように配置されるものが挙げられ、例えば、バイザー、コンバイナ、メガネ等が挙げられる。
That is, the rescue target position indicating device of the present invention has a window that divides the outside and the inside, and a crew member rides on a vehicle body in which light from outside passes through the window and is guided to the inside. An optical element disposed in front of the eye; and a display that emits image display light indicating an aiming image, and the image display light emitted from the display is an occupant's eye via the optical element. Head-mounted display in which an aiming image is formed in front of the crew member and light from the front of the crew eye is transmitted to the crew member's eye through the optical element. A device, an input device that is input by a crew member's hand, a head motion tracker device that calculates the position and angle of a head-mounted display device relative to the vehicle, a rescue target and an aiming image that exist outside The input operation was performed when A rescue target position indicating device comprising: a control unit that calculates a position of a rescue target relative to the vehicle based on an input signal from a force device and a position and an angle of a head-mounted display device relative to the vehicle. A storage unit that stores optical characteristics of the window indicating the material, shape, and arrangement position of the window, and the control unit includes the input signal and the position and angle of the head-mounted display device with respect to the vehicle body. Based on the optical characteristics of the window, the position of the rescue target relative to the vehicle is calculated.
Here, examples of the “optical element” include an element arranged so as to cover the front face of the face, and examples thereof include a visor, a combiner, and glasses.
本発明の頭部装着型表示装置によれば、窓の光学特性を考慮しているので、搭乗体に対する救難目標の位置を正確に演算することができる。 According to the head-mounted display device of the present invention, since the optical characteristics of the window are taken into consideration, the position of the rescue target with respect to the vehicle can be accurately calculated.
(他の課題を解決するための手段および効果)
また、上記の発明において、前記窓の光学特性は、前記搭乗体に対する頭部装着型表示装置の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを含むようにしてもよい。
また、上記の発明において、前記搭乗体は、曲面形状の窓を有する飛行体であり、前記飛行体の緯度、経度、高度及び姿勢を示す飛行体情報を演算する検出装置を備え、前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性と、前記飛行体情報とに基づいて、前記搭乗体に対する救難目標の位置を演算するようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the optical characteristics of the window indicate where the rescue target existing outside can be seen through the window according to each position and each angle of the head-mounted display device with respect to the vehicle. Optical distortion data may be included.
In the invention described above, the vehicle is a flying object having a curved window, and includes a detection device that calculates flying object information indicating a latitude, longitude, altitude, and attitude of the flying object, and the control unit Calculates the position of the rescue target relative to the vehicle based on the input signal, the position and angle of the head mounted display device relative to the vehicle, the optical characteristics of the window, and the flying object information. You may do it.
そして、本発明の光学特性記憶方法は、上述したような救難目標位置指示装置に、前記窓の光学特性を記憶させる光学特性記憶方法であって、前記窓の材質、形状及び配置位置を窓データとして設定する窓データ設定ステップと、前記搭乗体の内部に複数の測定点及び測定方向を測定データとして設定する測定データ設定ステップと、前記窓データと測定データとに基づいて、近似多項式を用いて、前記搭乗体の内部の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを作成する光学歪データ作成ステップとを含むようにしている。
さらに、上記の発明において、前記窓データ設定ステップは、3次元デジタイザを用いて窓の形状を設定するようにしてもよい。
The optical characteristic storage method of the present invention is an optical characteristic storage method for storing the optical characteristics of the window in the rescue target position indicating device as described above, wherein the window material, shape and arrangement position are stored in the window data. Based on the window data setting step, the measurement data setting step for setting a plurality of measurement points and measurement directions as measurement data inside the vehicle, and the window data and the measurement data, an approximate polynomial is used. And an optical distortion data generation step of generating optical distortion data indicating the position of the rescue target existing outside through the window according to each position and each angle inside the vehicle.
Further, in the above invention, the window data setting step may set the window shape using a three-dimensional digitizer.
以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.
図1は、本発明の救難目標位置指示装置の概略構成の一例を示す図である。なお、救難目標位置指示装置101と同様のものについては、同じ符号を付している。
救難目標位置指示装置1は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、パイロットPの手によって入力操作される押しボタン21等を有する入力装置20と、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を演算するヘッドモーショントラッカ(HMT)装置30と、飛行体情報を演算する検出装置40と、頭部装着型表示装置付ヘルメット10と入力装置20とHMT装置30と検出装置40とを制御する制御部50とを備える。
FIG. 1 is a diagram showing an example of a schematic configuration of a rescue target position indicating device of the present invention. In addition, the same code | symbol is attached | subjected about the thing similar to the rescue target position instruction |
The rescue target position indicating device 1 includes a
制御部50は、CPU51とメモリ52とを備える。また、CPU51が処理する機能をブロック化して説明すると、HMT装置30から頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を取得する頭部情報取得部51aと、検出装置40から飛行体情報を取得する飛行体情報取得部51bと、難破船Nの位置(XN,YN,ZN)を演算する演算部51cと、難破船Nの位置(XN,YN,ZN)を表示する表示制御部51dと、見張窓91の光学特性を設定して記憶させる設定部51eとを有する。
また、メモリ52には、制御部50が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、XYZ座標系を記憶するXYZ系記憶領域52aと、X’Y’Z’座標系を記憶するX’Y’Z’座標系記憶領域52bと、見張窓91の光学特性を記憶する光学特性記憶領域52cとを有する。
The control unit 50 includes a
Further, the
設定部51eは、見張窓91の光学特性を光学特性記憶領域52cに記憶させる制御を行う。見張窓91の光学特性は、救難活動を行う前に設定者等が入力装置20を用いながら設定することによって、光学特性記憶領域52cに記憶されることになる。
ここで、見張窓91の光学特性を記憶させる光学特性記憶方法の一例について説明する。図4は、光学特性記憶方法の一例を説明するためのフローチャートである。
光学特性記憶方法は、<1>窓データ設定ステップ(ステップS101)と、<2>測定データ設定ステップ(ステップS102)と、<3>光学歪データ作成ステップ(ステップS103)とを含む。
The
Here, an example of an optical characteristic storage method for storing the optical characteristic of the
The optical property storage method includes a <1> window data setting step (step S101), a <2> measurement data setting step (step S102), and a <3> optical distortion data creation step (step S103).
<1>窓データ設定ステップ
設定者は、見張窓91の屈折率(材質)を窓データとして設定部51eに設定する。例えば、設定者は入力装置20を用いて「屈折率1.3」と入力する。また、設定者は、見張窓91の形状を窓データとして設定部51dに設定する。例えば、設定者は3次元デジタイザを用いて見張窓91の形状(曲面形状や厚さや表面状態等)を計測し、その後、入力装置20を用いて「見張窓91の形状」を入力する。さらに、設定者は、XYZ座標系における見張窓91の配置位置を窓データとして設定部51dに設定する。例えば、設定者は入力装置20を用いて「見張窓91の配置位置(Xg,Yg,Zg)」を入力する。
<1> Window Data Setting Step The setter sets the refractive index (material) of the
<2>測定データ設定ステップ
航空機90の内部に複数の測定点及び測定方向を測定データとして設定部51eに設定する。図5は、航空機90の内部に設定された複数の測定点の一例を説明するための図であり、図6は、航空機90の内部に設定された複数の測定方向の一例を説明するための図である。
例えば、複数の測定点は、XYZ座標系において原点(0,0,0)を中心として、X方向に所定の間隔(例えば、10cm)をあけて5点をとり、Y方向に所定の間隔(例えば、10cm)をあけて5点をとるように、原点(0,0,0)を中心とした5×5である合計25点を設定する。
さらに、各測定点において、Z方向を基準として、エレベーション方向(EL)に所定の間隔(例えば、30°)をあけて5つの角度をとり、アジマス方向(AZ)に所定の間隔(例えば、30°)をあけて5つの角度をとるように、合計9つの角度を設定する。
<2> Measurement Data Setting Step In the
For example, in the XYZ coordinate system, a plurality of measurement points are set at a predetermined interval (for example, 10 cm) in the X direction around the origin (0, 0, 0), and a predetermined interval ( For example, a total of 25 points, which is 5 × 5 with the origin (0, 0, 0) as the center, is set so as to take 5 points with a gap of 10 cm.
Furthermore, at each measurement point, with respect to the Z direction, a predetermined interval (for example, 30 °) is taken in the elevation direction (EL) to take five angles, and a predetermined interval (for example, the azimuth direction (AZ) (for example, A total of nine angles are set such that five angles are taken with 30 °).
<3>光学歪データ作成ステップ
<1>窓データ設定ステップで設置された窓データと、<2>測定データ設定ステップで設置された測定データとに基づいて、下記に示す近似多項式を用いて、航空機90の内部の各位置(Xh,Yh,Zh)及び各角度(AZh,ELh,RLh)によって、外部に存在する難破船Nが見張窓91を介してどの位置(XN,YN,ZN)に見えるかを示す光学歪データを作成する。
<3> Optical strain data creation step <1> Based on the window data set in the window data setting step and the measurement data set in the <2> measurement data setting step, using the approximate polynomial shown below, Depending on each position (X h , Y h , Z h ) and each angle (AZ h , EL h , RL h ) inside the
ここで、近似多項式の一例として、3次式で補正を行った場合について説明する。
まず、位置(X,Y,0)を固定し、各AZでのEL歪量ΔELの近似多項式(6−1)を求める。
ΔEL=A×EL3+B×EL2+C×EL+D・・・(6−1)
なお、(6−1)の係数A〜Dは、下記式(6−2)〜(6−5)で表される。
A=A1×AZ3+A2×AZ2+A3×AZ+A4・・・(6−2)
B=B1×AZ3+B2×AZ2+B3×AZ+B4・・・(6−3)
C=C1×AZ3+C2×AZ2+C3×AZ+C4・・・(6−4)
D=D1×AZ3+D2×AZ2+D3×AZ+D4・・・(6−5)
また、(6−2)〜(6−5)の係数A1〜A4,B1〜B4,C1〜C4,D1〜D4も、同様にXの3次式で表し、そのXの3次式の係数も、同様にYの3次式で表すことになる。
そして、最終的に近似多項式(6−1)を(6−6)に示すようなX,Y,Z,AZ,ELの3次式とする。
ΔEL=(((H1×Y3+H2×Y2+H3×Y+H4)×X3+(H5×Y3+H6×Y2+H7×Y+H8)×X2+
(H9×Y3+H10×Y2+H11×Y+H12)×X+(H13×Y3+H14×Y2+H15×Y+H16))×AZ3+
((H17×Y3+H18×Y2+H19×Y+H20)×X3+(H21×Y3+H22×Y2+H23×Y+H24)×X2+
(H25×Y3+H26×Y2+H27×Y+H28)×X+(H29×Y3+H30×Y2+H31×Y+H32))×AZ2+
((H33×Y3+H34×Y2+H35×Y+H36)×X3+(H37×Y3+H38×Y2+H39×Y+H40)×X2+
(H41×Y3+H42×Y2+H43×Y+H44)×X+(H45×Y3+H46×Y2+H47×Y+H48))×AZ+
((H49×Y3+H50×Y2+H51×Y+H52)×X3+(H53×Y3+H54×Y2+H55×Y+H56)×X2+
(H57×Y3+H58×Y2+H59×Y+H60)×X+(H61×Y3+H62×Y2+H63×Y+H64)))×EL3+
(((H65×Y3+H66×Y2+H67×Y+H68)×X3+(H69×Y3+H70×Y2+H71×Y+H72)×X2+
(H73×Y3+H74×Y2+H75×Y+H76)×X+(H77×Y3+H78×Y2+H79×Y+H80))×AZ3+
((H81×Y3+H82×Y2+H83×Y+H84)×X3+(H85×Y3+H86×Y2+H87×Y+H88)×X2+
(H89×Y3+H90×Y2+H91×Y+H92)×X+(H93×Y3+H94×Y2+H95×Y+H96))×AZ2+
((H97×Y3+H98×Y2+H99×Y+H100)×X3+(H101×Y3+H102×Y2+H103×Y+H104)×X2+
(H105×Y3+H106×Y2+H107×Y+H108)×X+(H109×Y3+H110×Y2+H111×Y+H112))×AZ+
((H113×Y3+H114×Y2+H115×Y+H116)×X3+(H117×Y3+H118×Y2+H119×Y+H120)×X2+
(H121×Y3+H122×Y2+H123×Y+H124)×X+(H125×Y3+H126×Y2+H127×Y+H128)))×EL2+
(((H129×Y3+H130×Y2+H131×Y+H132)×X3+(H133×Y3+H134×Y2+H135×Y+H136)×X2+
(H137×Y3+H138×Y2+H139×Y+H140)×X+(H141×Y3+H142×Y2+H143×Y+H144))×AZ3+
((H145×Y3+H146×Y2+H147×Y+H148)×X3+(H149×Y3+H150×Y2+H151×Y+H152)×X2+
(H153×Y3+H154×Y2+H155×Y+H156)×X+(H157×Y3+H158×Y2+H159×Y+H160))×AZ2+
((H161×Y3+H162×Y2+H163×Y+H164)×X3+(H165×Y3+H166×Y2+H167×Y+H168)×X2+
(H169×Y3+H170×Y2+H171×Y+H172)×X+(H173×Y3+H174×Y2+H175×Y+H176))×AZ+
((H177×Y3+H178×Y2+H179×Y+H180)×X3+(H181×Y3+H182×Y2+H183×Y+H184)×X2+
(H185×Y3+H186×Y2+H187×Y+H188)×X+(H189×Y3+H190×Y2+H191×Y+H192)))×EL+
(((H193×Y3+H194×Y2+H195×Y+H196)×X3+(H197×Y3+H198×Y2+H199×Y+H200)×X2+
(H201×Y3+H202×Y2+H203×Y+H204)×X+(H205×Y3+H206×Y2+H207×Y+H208))×AZ3+
((H209×Y3+H210×Y2+H211×Y+H212)×X3+(H213×Y3+H214×Y2+H215×Y+H216)×X2+
(H217×Y3+H218×Y2+H219×Y+H220)×X+(H221×Y3+H222×Y2+H223×Y+H224))×AZ2+
((H225×Y3+H226×Y2+H227×Y+H228)×X3+(H229×Y3+H230×Y2+H231×Y+H232)×X2+
(H233×Y3+H234×Y2+H235×Y+H236)×X+(H237×Y3+H238×Y2+H239×Y+H240))×AZ+
((H241×Y3+H242×Y2+H243×Y+H244)×X3+(H245×Y3+H246×Y2+H247×Y+H248)×X2+
(H249×Y3+H249×Y2+H250×Y+H251)×X+(H252×Y3+H253×Y2+H254×Y+H255)))
・・・(6−6)
なお、H1〜H255は定数とする。
Here, a case where correction is performed by a cubic equation will be described as an example of the approximate polynomial.
First, the position (X, Y, 0) is fixed, and an approximate polynomial (6-1) of the EL distortion amount ΔEL at each AZ is obtained.
ΔEL = A × EL 3 + B × EL 2 + C × EL + D (6-1)
The coefficients A to D in (6-1) are expressed by the following formulas (6-2) to (6-5).
A = A 1 × AZ 3 + A 2 × AZ 2 + A 3 × AZ + A 4 (6-2)
B = B 1 × AZ 3 + B 2 × AZ 2 + B 3 × AZ + B 4 (6-3)
C = C 1 × AZ 3 + C 2 × AZ 2 + C 3 × AZ + C 4 (6-4)
D = D 1 × AZ 3 + D 2 × AZ 2 + D 3 × AZ + D 4 (6-5)
Further, the coefficients A 1 to A 4 , B 1 to B 4 , C 1 to C 4 , and D 1 to D 4 of (6-2) to (6-5) are similarly expressed by a cubic expression of X, Similarly, the coefficient of the cubic equation of X is also represented by the cubic equation of Y.
Finally, the approximate polynomial (6-1) is a cubic expression of X, Y, Z, AZ, EL as shown in (6-6).
ΔEL = (((H 1 × Y 3 + H 2 × Y 2 + H 3 × Y + H 4 ) × X 3 + (H 5 × Y 3 + H 6 × Y 2 + H 7 × Y + H 8 ) × X 2 +
(H 9 × Y 3 + H 10 × Y 2 + H 11 × Y + H 12 ) × X + (H 13 × Y 3 + H 14 × Y 2 + H 15 × Y + H 16 )) × AZ 3 +
((H 17 × Y 3 + H 18 × Y 2 + H 19 × Y + H 20 ) × X 3 + (H 21 × Y 3 + H 22 × Y 2 + H 23 × Y + H 24 ) × X 2 +
(H 25 × Y 3 + H 26 × Y 2 + H 27 × Y + H 28 ) × X + (H 29 × Y 3 + H 30 × Y 2 + H 31 × Y + H 32 )) × AZ 2 +
((H 33 × Y 3 + H 34 × Y 2 + H 35 × Y + H 36 ) × X 3 + (H 37 × Y 3 + H 38 × Y 2 + H 39 × Y + H 40 ) × X 2 +
(H 41 × Y 3 + H 42 × Y 2 + H 43 × Y + H 44 ) × X + (H 45 × Y 3 + H 46 × Y 2 + H 47 × Y + H 48 )) × AZ +
((H 49 x Y 3 + H 50 x Y 2 + H 51 x Y + H 52 ) x X 3 + (H 53 x Y 3 + H 54 x Y 2 + H 55 x Y + H 56 ) x X 2 +
(H 57 × Y 3 + H 58 × Y 2 + H 59 × Y + H 60 ) × X + (H 61 × Y 3 + H 62 × Y 2 + H 63 × Y + H 64 ))) × EL 3 +
((((H 65 × Y 3 + H 66 × Y 2 + H 67 × Y + H 68 ) × X 3 + (H 69 × Y 3 + H 70 × Y 2 + H 71 × Y + H 72 ) × X 2 +
(H 73 × Y 3 + H 74 × Y 2 + H 75 × Y + H 76 ) × X + (H 77 × Y 3 + H 78 × Y 2 + H 79 × Y + H 80 )) × AZ 3 +
((H 81 × Y 3 + H 82 × Y 2 + H 83 × Y + H 84 ) × X 3 + (H 85 × Y 3 + H 86 × Y 2 + H 87 × Y + H 88 ) × X 2 +
(H 89 × Y 3 + H 90 × Y 2 + H 91 × Y + H 92 ) × X + (H 93 × Y 3 + H 94 × Y 2 + H 95 × Y + H 96 )) × AZ 2 +
((H 97 × Y 3 + H 98 × Y 2 + H 99 × Y + H 100 ) × X 3 + (H 101 × Y 3 + H 102 × Y 2 + H 103 × Y + H 104 ) × X 2 +
(H 105 × Y 3 + H 106 × Y 2 + H 107 × Y + H 108 ) × X + (H 109 × Y 3 + H 110 × Y 2 + H 111 × Y + H 112 )) × AZ +
((H 113 × Y 3 + H 114 × Y 2 + H 115 × Y + H 116 ) × X 3 + (H 117 × Y 3 + H 118 × Y 2 + H 119 × Y + H 120 ) × X 2 +
(H 121 × Y 3 + H 122 × Y 2 + H 123 × Y + H 124 ) × X + (H 125 × Y 3 + H 126 × Y 2 + H 127 × Y + H 128 ))) × EL 2 +
(((H 129 × Y 3 + H 130 × Y 2 + H 131 × Y + H 132 ) × X 3 + (H 133 × Y 3 + H 134 × Y 2 + H 135 × Y + H 136 ) × X 2 +
(H 137 × Y 3 + H 138 × Y 2 + H 139 × Y + H 140 ) × X + (H 141 × Y 3 + H 142 × Y 2 + H 143 × Y + H 144 )) × AZ 3 +
((H 145 × Y 3 + H 146 × Y 2 + H 147 × Y + H 148 ) × X 3 + (H 149 × Y 3 + H 150 × Y 2 + H 151 × Y + H 152 ) × X 2 +
(H 153 × Y 3 + H 154 × Y 2 + H 155 × Y + H 156 ) × X + (H 157 × Y 3 + H 158 × Y 2 + H 159 × Y + H 160 )) × AZ 2 +
((H 161 × Y 3 + H 162 × Y 2 + H 163 × Y + H 164 ) × X 3 + (H 165 × Y 3 + H 166 × Y 2 + H 167 × Y + H 168 ) × X 2 +
(H 169 × Y 3 + H 170 × Y 2 + H 171 × Y + H 172 ) × X + (H 173 × Y 3 + H 174 × Y 2 + H 175 × Y + H 176 )) × AZ +
((H 177 × Y 3 + H 178 × Y 2 + H 179 × Y + H 180 ) × X 3 + (H 181 × Y 3 + H 182 × Y 2 + H 183 × Y + H 184 ) × X 2 +
(H 185 × Y 3 + H 186 × Y 2 + H 187 × Y + H 188 ) × X + (H 189 × Y 3 + H 190 × Y 2 + H 191 × Y + H 192 ))) × EL +
((((H 193 × Y 3 + H 194 × Y 2 + H 195 × Y + H 196 ) × X 3 + (H 197 × Y 3 + H 198 × Y 2 + H 199 × Y + H 200 ) × X 2 +
(H 201 × Y 3 + H 202 × Y 2 + H 203 × Y + H 204 ) × X + (H 205 × Y 3 + H 206 × Y 2 + H 207 × Y + H 208 )) × AZ 3 +
((H 209 × Y 3 + H 210 × Y 2 + H 211 × Y + H 212 ) × X 3 + (H 213 × Y 3 + H 214 × Y 2 + H 215 × Y + H 216 ) × X 2 +
(H 217 × Y 3 + H 218 × Y 2 + H 219 × Y + H 220 ) × X + (H 221 × Y 3 + H 222 × Y 2 + H 223 × Y + H 224 )) × AZ 2 +
((H 225 x Y 3 + H 226 x Y 2 + H 227 x Y + H 228 ) x X 3 + (H 229 x Y 3 + H 230 x Y 2 + H 231 x Y + H 232 ) x X 2 +
(H 233 × Y 3 + H 234 × Y 2 + H 235 × Y + H 236 ) × X + (H 237 × Y 3 + H 238 × Y 2 + H 239 × Y + H 240 )) × AZ +
((H 241 x Y 3 + H 242 x Y 2 + H 243 x Y + H 244 ) x X 3 + (H 245 x Y 3 + H 246 x Y 2 + H 247 x Y + H 248 ) x X 2 +
(H 249 × Y 3 + H 249 × Y 2 + H 250 × Y + H 251 ) × X + (H 252 × Y 3 + H 253 × Y 2 + H 254 × Y + H 255 )))
... (6-6)
H 1 to H 255 are constants.
演算部51cは、押しボタン21からの入力信号と、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と、飛行体情報と、光学歪データとに基づいて、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算する制御を行う。
具体的には、パイロットPは、外部に存在する難破船Nを発見すると、照準画像Rと難破船Nとを対応させる。そして照準画像Rと難破船Nとが対応(ロック)したときに、パイロットPは、押しボタン21を入力操作する。これにより、演算部51cは、押しボタン21が入力操作されたときの頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と、押しボタン21が入力操作されたときの飛行体情報と、光学歪データとに基づいて、航空機90に対する難破船の位置(XN,YN,ZN)を演算する。
Specifically, when the pilot P finds the shipwreck N existing outside, the pilot P associates the aiming image R with the shipwreck N. Then, when the aiming image R and the shipwreck N correspond (lock), the pilot P performs an input operation on the
ところで、光学歪データは、航空機90の内部のXY面での各位置(Xh,Yh,0)及び各角度(AZh,ELh,RLh)によって、外部に存在する難破船Nが見張窓91を介してどの位置(XN,YN,ZN)に見えるかを示すものである。そして、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)は、航空機90の内部のXY面上に存在するとは限らないので、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と同じように歪量を受けるXY面での位置(Xh,Yh,0)及び角度(AZh,ELh,RLh)であるシミュレーション点を見つけ出すことになる。
By the way, the optical distortion data indicates that the shipwreck N that exists outside depends on each position (X h , Y h , 0) and each angle (AZ h , EL h , RL h ) on the XY plane inside the
図7は、頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)と同じように歪量を受けるシミュレーション点を見つけ出すことを説明するための図である。
頭部装着型表示装置付ヘルメット10の位置(X1,Y1,Z1)及び角度(AZ1,EL1,RL1)と同じように歪量を受けるシミュレーション点は、位置(X1,Y1,Z1)から角度(RL1,EL1,AZ1)に向かうようにしてXY面と交差する点、すなわち、位置(X1+Z1tanAZ1,Y1+Z1tanEL1,0)であり、かつ、角度(AZ1,EL1,RL1)は同一である角度(AZ1,EL1,RL1)となる。
これにより、演算部51cは、押しボタン21が入力操作されたときの飛行体情報と、位置(X1+Z1tanAZ1,Y1+Z1tanEL1,0)及び角度(AZ1,EL1,RL1)のときの光学歪データとに基づいて、航空機90に対する難破船Nの位置(XN,YN,ZN)を演算する。
FIG. 7 finds a simulation point that receives a distortion amount in the same manner as the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the
Similar to the position (X 1 , Y 1 , Z 1 ) and angle (AZ 1 , EL 1 , RL 1 ) of the
Accordingly, the
その結果、演算部51cは、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対して難破船Nがどの位置(XN,YN,ZN)に存在するかがわかるようになっており、パイロットPに難破船Nの位置(XN,YN,ZN)を指し示すようになっている。
以上のように、救難目標位置指示装置1によれば、見張窓91の光学特性を考慮しているので、航空機90に対する難破船Nの位置(XN,YN,ZN)を正確に演算することができる。
As a result, even if the
As described above, according to the rescue target position indicating device 1, since the optical characteristics of the
(他の実施形態)
上述した救難目標位置指示装置1では、航空機90に設定されたXYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(Xh,Yh,Zh)及び角度(AZh,ELh,RLh)を、磁気方式のHMT装置20で算出する構成としたが、光学方式のHMT装置で算出する構成としてもよい。
(Other embodiments)
In the rescue target position indicating apparatus 1 described above, the position (X h , Y h , Z h ) and angle (AZ h , EL h ,) of the
本発明の救難目標位置指示装置は、例えば、航空機やヘリコプタのような飛行体等のパイロットが使用するのに適する。 The rescue target position indicating device of the present invention is suitable for use by a pilot such as an aircraft or a helicopter.
1,101 救難目標位置指示装置
10 頭部装着型表示装置付ヘルメット(頭部装着型表示装置)
12 バイザー(光学素子)
13 表示器
20 入力装置
30 ヘッドモーショントラッカ装置
50,150 制御部
52,152 記憶部
90 飛行体(搭乗体)
91 見張窓
1,101 Rescue target
12 Visor (optical element)
DESCRIPTION OF SYMBOLS 13
91 Watching window
Claims (5)
前記搭乗員の眼の前方に配置される光学素子と、照準画像を示す画像表示光を出射する表示器とを有し、前記表示器から出射された画像表示光が、前記光学素子を介して搭乗員の眼に導かれることにより、前記搭乗員の前方に照準画像を形成するとともに、前記搭乗員の眼の前方からの光が、前記光学素子を透過して搭乗員の眼に導かれる頭部装着型表示装置と、
前記搭乗員の手によって入力操作される入力装置と、
前記搭乗体に対する頭部装着型表示装置の位置及び角度を演算するヘッドモーショントラッカ装置と、
外部に存在する救難目標と照準画像とが対応したときに入力操作された入力装置からの入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度とに基づいて、前記搭乗体に対する救難目標の位置を演算する制御部とを備える救難目標位置指示装置であって、
前記窓の材質、形状及び配置位置を示す窓の光学特性を記憶する記憶部を有し、
前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性とに基づいて、前記搭乗体に対する救難目標の位置を演算することを特徴とする救難目標位置指示装置。 A crew member has a window that divides the outside and the inside, and a crew member is boarded on a vehicle in which light from the outside passes through the window and is guided to the inside.
An optical element disposed in front of the eyes of the crew member, and a display that emits image display light indicating an aiming image, and the image display light emitted from the display is transmitted through the optical element. A head that is guided to the crew member's eyes to form an aiming image in front of the crew member, and light from the front of the crew member's eye is transmitted to the crew member's eye through the optical element. A part-mounted display device;
An input device that is input by a crew member's hand;
A head motion tracker device that calculates the position and angle of the head-mounted display device with respect to the vehicle;
Based on the input signal from the input device input when the rescue target existing outside corresponds to the aiming image, and the position and angle of the head-mounted display device relative to the vehicle, the vehicle A rescue target position indicating device comprising a control unit for calculating the position of a rescue target,
A storage unit that stores optical characteristics of the window indicating the material, shape, and arrangement position of the window;
The control unit calculates a position of a rescue target with respect to the vehicle based on the input signal, a position and angle of a head-mounted display device with respect to the vehicle, and an optical characteristic of the window. A rescue target position indicating device.
前記飛行体の緯度、経度、高度及び姿勢を示す飛行体情報を演算する検出装置を備え、
前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性と、前記飛行体情報とに基づいて、前記搭乗体に対する救難目標の位置を演算することを特徴とする請求項1又は請求項2に記載の救難目標位置指示装置。 The vehicle is a flying object having a curved window,
A detector for calculating flying object information indicating the latitude, longitude, altitude and attitude of the flying object;
The control unit, based on the input signal, the position and angle of the head-mounted display device with respect to the vehicle, the optical characteristics of the window, and the flying object information, the position of the rescue target with respect to the vehicle The rescue target position indicating device according to claim 1, wherein the rescue target position indicating device is calculated.
前記窓の材質、形状及び配置位置を窓データとして設定する窓データ設定ステップと、
前記搭乗体の内部に複数の測定点及び測定方向を測定データとして設定する測定データ設定ステップと、
前記窓データと測定データとに基づいて、近似多項式を用いて、前記搭乗体の内部の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを作成する光学歪データ作成ステップとを含むことを特徴とする光学特性記憶方法。 An optical property storage method for storing the optical property of the window in the rescue target position indicating device according to claim 2,
A window data setting step for setting the material, shape and arrangement position of the window as window data;
A measurement data setting step for setting a plurality of measurement points and measurement directions as measurement data inside the vehicle,
Based on the window data and measurement data, using an approximate polynomial, the optical distortion indicating the position where the external rescue target can be seen through the window by each position and angle inside the vehicle. An optical characteristic storage method comprising: an optical strain data generation step of generating data.
5. The optical property storage method according to claim 4, wherein the window data setting step sets a window shape using a three-dimensional digitizer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250330A JP5233958B2 (en) | 2009-10-30 | 2009-10-30 | Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250330A JP5233958B2 (en) | 2009-10-30 | 2009-10-30 | Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011093456A JP2011093456A (en) | 2011-05-12 |
JP5233958B2 true JP5233958B2 (en) | 2013-07-10 |
Family
ID=44110874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009250330A Active JP5233958B2 (en) | 2009-10-30 | 2009-10-30 | Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233958B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH087540B2 (en) * | 1987-12-26 | 1996-01-29 | 株式会社島津製作所 | Display device |
JPH0264612A (en) * | 1988-08-31 | 1990-03-05 | Shimadzu Corp | Distortion correcting device for head up display |
JPH0342694A (en) * | 1989-07-10 | 1991-02-22 | Matsushita Electric Ind Co Ltd | Head-up display device |
JPH05280941A (en) * | 1992-03-31 | 1993-10-29 | Matsushita Electric Ind Co Ltd | Inputting apparatus of three-dimensional shape |
JP2550827B2 (en) * | 1992-04-28 | 1996-11-06 | 株式会社島津製作所 | Helmet mounted display |
JPH10319343A (en) * | 1997-05-19 | 1998-12-04 | Fuji Xerox Co Ltd | Head-mounted display |
JPH1130764A (en) * | 1997-07-11 | 1999-02-02 | Shimadzu Corp | Display device |
JP4174624B2 (en) * | 1999-02-02 | 2008-11-05 | 株式会社島津製作所 | Rescue target position indicator |
JP2007334762A (en) * | 2006-06-16 | 2007-12-27 | Shimadzu Corp | Head motion tracker |
-
2009
- 2009-10-30 JP JP2009250330A patent/JP5233958B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011093456A (en) | 2011-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9891705B1 (en) | Automatic boresighting of head-worn display | |
JP5145832B2 (en) | Head-mounted display device and head-mounted display device system | |
CN107014378A (en) | A kind of eye tracking aims at control system and method | |
WO2015168675A1 (en) | Improved registration for vehicular augmented reality using auto-harmonization | |
US10935392B2 (en) | Inertial sensor data correction | |
US11312458B2 (en) | Watercraft | |
US20150302654A1 (en) | Thermal imaging accessory for head-mounted smart device | |
US10382746B1 (en) | Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object | |
US20170053453A1 (en) | Avionic system comprising means for designating and marking land | |
KR20090120431A (en) | Methods and systems for operating avionic systems based on user gestures | |
US10392126B2 (en) | Method and apparatus for controlling vehicle attitude display | |
EP3173847B1 (en) | System for displaying fov boundaries on huds | |
EP3642694B1 (en) | Augmented reality system and method of displaying an augmented reality image | |
US11815690B2 (en) | Head mounted display symbology concepts and implementations, associated with a reference vector | |
GB2469564A (en) | Helmet with visor position detection and associated helmet position detection | |
JP5092279B2 (en) | Head motion tracker device and method of using the same | |
AU2016320555B2 (en) | Helmet tracker buffeting compensation | |
CN111417890A (en) | Viewing apparatus for aircraft pilots | |
JP5233958B2 (en) | Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus | |
US10326985B2 (en) | Display system and method for an aircraft | |
JP2008026265A (en) | Head motion tracker system | |
JP2020500361A (en) | Method for assisting target localization and observable device capable of performing the method | |
EP3395668A1 (en) | Watercraft | |
JP4174624B2 (en) | Rescue target position indicator | |
GB2581237A (en) | Head mounted display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5233958 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |