JP5233958B2 - Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus - Google Patents

Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus Download PDF

Info

Publication number
JP5233958B2
JP5233958B2 JP2009250330A JP2009250330A JP5233958B2 JP 5233958 B2 JP5233958 B2 JP 5233958B2 JP 2009250330 A JP2009250330 A JP 2009250330A JP 2009250330 A JP2009250330 A JP 2009250330A JP 5233958 B2 JP5233958 B2 JP 5233958B2
Authority
JP
Japan
Prior art keywords
window
rescue target
vehicle
head
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009250330A
Other languages
Japanese (ja)
Other versions
JP2011093456A (en
Inventor
陽介 鳥山
恒久 大橋
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2009250330A priority Critical patent/JP5233958B2/en
Publication of JP2011093456A publication Critical patent/JP2011093456A/en
Application granted granted Critical
Publication of JP5233958B2 publication Critical patent/JP5233958B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、難破船や遭難者等の救難目標の位置を、航空機やヘリコプタ等の飛行体等の搭乗員が装着する頭部装着型表示装置を利用して指示する救難目標位置指示装置及びそれに光学特性を記憶させる光学特性記憶方法に関する。   The present invention relates to a rescue target position indicating device for indicating a position of a rescue target such as a shipwreck or a victim using a head-mounted display device worn by a crew member such as an aircraft such as an aircraft or helicopter. The present invention relates to an optical property storage method for storing optical properties.

救難活動において、上空から難破船(救難目標)を探すために航空機(飛行体)が用いられている。航空機は、前面と側面とに曲面形状のガラス製の見張窓を有するとともに、鉄製の壁を有する。これにより、航空機の外部と航空機の内部とが分かれており、パイロットが航空機の内部の座席に着席することになる。そして、航空機の外部からの光は、見張窓を透過して航空機の内部に導かれることで、パイロットは、航空機の外部に存在する実在物を視認することができるようになっている。
このような航空機において、航空機の外部で発見した難破船を見失うことがないようにするため、救難目標位置指示装置が設置されており、救難目標位置指示装置によって、パイロットが装着する頭部装着型表示装置付ヘルメットのバイザー(光学素子)により表示される照準画像と、バイザーを通して視認される難破船とが対応したときにロックすることにより、ロックされた救難目標の位置を演算することが行われている(例えば、特許文献1参照)。
なお、図3は、照準画像の一例を示す図である。十字形状の照準画像Rが表示されているとともに、難破船Nが視認されている。
In rescue operations, aircraft (aircraft) are used to search for shipwrecks (rescue targets) from above. The aircraft has curved glass guard windows on the front and side surfaces and an iron wall. As a result, the outside of the aircraft and the inside of the aircraft are separated, and the pilot is seated on the seat inside the aircraft. The light from the outside of the aircraft passes through the watch window and is guided to the inside of the aircraft, so that the pilot can visually recognize the actual object existing outside the aircraft.
In such an aircraft, in order not to lose sight of the shipwreck found outside the aircraft, a rescue target position indicating device is installed, and the head mounted type that the pilot wears with the rescue target position indicating device. The position of the locked rescue target is calculated by locking when the aiming image displayed by the visor (optical element) of the helmet with display device corresponds to the shipwreck visible through the visor. (For example, refer to Patent Document 1).
FIG. 3 is a diagram illustrating an example of the aiming image. A cross-shaped aiming image R is displayed and the shipwreck N is visible.

ここで、従来の救難目標位置指示装置の一例について説明する。図8は、従来の救難目標位置指示装置の概略構成の一例を示す図である。また、図2(a)は、頭部装着型表示装置付ヘルメットの一例を示す側面図であり、図2(b)は、図2(a)に示す頭部装着型表示装置付ヘルメットの平面図である。
救難目標位置指示装置101は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、パイロットPの手によって入力操作される押しボタン21を有する入力装置20と、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を演算するヘッドモーショントラッカ(HMT)装置30と、飛行体情報を演算する検出装置40と、頭部装着型表示装置付ヘルメット10と入力装置20とHMT装置30と検出装置40とを制御する制御部150とを備える。
Here, an example of a conventional rescue target position indicating device will be described. FIG. 8 is a diagram illustrating an example of a schematic configuration of a conventional rescue target position indicating device. 2A is a side view showing an example of a helmet with a head-mounted display device, and FIG. 2B is a plan view of the helmet with a head-mounted display device shown in FIG. FIG.
The rescue target position indicating device 101 includes a helmet 10 with a head-mounted display device that is worn on the head of the pilot P, an input device 20 that has a push button 21 that is operated by the pilot P's hand, and a head-mounted device. Head Motion Tracker (HMT) device 30 for calculating the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with type display device, and detection for calculating the flying object information The apparatus 40, the helmet 10 with a head mounted display device, the input device 20, the HMT device 30, and the control unit 150 that controls the detection device 40 are provided.

救難目標位置指示装置101が設置される航空機90は、前面と側面とに曲面形状のガラス製の見張窓91を有するとともに、後面に鉄製の壁92を有する。そして、航空機90に対する難破船Nの位置(X,Y,Z)を演算するために、航空機90には、XYZ座標系が予め設定されている。このようなXYZ座標系は、原点及び各座標軸の方向を任意に定めることができ、救難活動を行う前に設定者等によって制御部150に予め記憶されることになる。
検出装置40は、航空機90の緯度及び経度を検出するGPS用受信機41と、航空機90の高度を検出する高度計42と、航空機90の姿勢として航空機90の機首の方向を検出する方向センサ43と、航空機90の姿勢として航空機60の左右の傾きであるバンク角を検出する角度センサ44とで構成される。そして、GPS用受信機41と高度計42と方向センサ43と角度センサ44とは、航空機90に取り付けられ、制御部150に信号を出力することになる。
An aircraft 90 on which the rescue target position indicating device 101 is installed has a curved glass watch window 91 on the front and side surfaces, and an iron wall 92 on the rear surface. In order to calculate the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90, an XYZ coordinate system is set in advance in the aircraft 90. Such an XYZ coordinate system can arbitrarily determine the origin and the direction of each coordinate axis, and is stored in advance in the control unit 150 by a setter or the like before performing a rescue operation.
The detection device 40 includes a GPS receiver 41 that detects the latitude and longitude of the aircraft 90, an altimeter 42 that detects the altitude of the aircraft 90, and a direction sensor 43 that detects the nose direction of the aircraft 90 as the attitude of the aircraft 90. And an angle sensor 44 that detects the bank angle, which is the inclination of the aircraft 60, as the attitude of the aircraft 90. The GPS receiver 41, the altimeter 42, the direction sensor 43, and the angle sensor 44 are attached to the aircraft 90 and output signals to the control unit 150.

頭部装着型表示装置付ヘルメット10は、パイロットPの頭部に装着されるヘルメット11と、パイロットPの眼の前方に配置されるバイザー(光学素子)12と、パイロットPの左上方に配置される左眼用表示器13Lと、パイロットPの右上方に配置される右眼用表示器13Rとを有する。
ヘルメット11は、パイロットPの頭部を覆うととともに、顔面が開放される略半球形状である。
バイザー12は、所定の曲面形状であり、ハーフミラーやホログラム素子等により構成される。そして、バイザー12は、上下方向にスライド可能な状態でヘルメット11に支持されており、バイザー12を下げるとパイロットPの左眼及び右眼の前方に配置されるようになっている。
The helmet 10 with a head-mounted display device is disposed at the upper left of the pilot P, a helmet 11 mounted on the pilot P's head, a visor (optical element) 12 disposed in front of the pilot P's eyes. Left-eye display 13L and a right-eye display 13R disposed on the upper right side of the pilot P.
The helmet 11 has a substantially hemispherical shape that covers the head of the pilot P and opens the face.
The visor 12 has a predetermined curved surface shape and is configured by a half mirror, a hologram element, or the like. The visor 12 is supported by the helmet 11 so as to be slidable in the vertical direction. When the visor 12 is lowered, the visor 12 is arranged in front of the left eye and right eye of the pilot P.

左眼用表示器13Lは、照準画像Rを示す左眼用画像表示光を出射するとともに、右眼用表示器13Rは、照準画像Rを示す右眼用画像表示光を出射する。
これにより、左眼用表示器13Lから出射される左眼用画像表示光は、バイザー12の反射面で反射されることにより、パイロットPの左眼に導かれるとともに、右眼用表示器13Rから出射される右眼用画像表示光は、バイザー12の反射面で反射されることにより、パイロットPの右眼に導かれる。その結果、パイロットPは、観察対象の虚像(照準画像)Rを立体的にバイザー12の所定の位置に視認できるとともに、バイザー12を透過する光により実在物も視認できるようになっている。
The left-eye display device 13L emits left-eye image display light indicating the aiming image R, and the right-eye display device 13R emits right-eye image display light indicating the aiming image R.
Thus, the left-eye image display light emitted from the left-eye display device 13L is reflected by the reflecting surface of the visor 12, thereby being guided to the left eye of the pilot P and from the right-eye display device 13R. The emitted right-eye image display light is reflected by the reflecting surface of the visor 12 and is guided to the right eye of the pilot P. As a result, the pilot P can visually recognize a virtual image (aiming image) R to be observed at a predetermined position of the visor 12 in a three-dimensional manner, and can also visually recognize an actual object through light transmitted through the visor 12.

また、パイロットPの頭部は、航空機90の内部で様々な位置や角度に変化するので、HMT装置30によって、航空機90に設定されたXYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を演算するために、頭部装着型表示装置付ヘルメット10には、X’Y’Z’座標系が予め設定されている。なお、角度(RL)は、ロール方向(X軸回りの回転)の角度であり、角度(EL)は、エレベーション方向(Y軸回りの回転)の角度であり、角度(AZ)は、アジマス方向(Z軸回りの回転)の角度である。このようなX’Y’Z’座標系は、原点及び各座標軸の方向を任意に定めることができ、救難活動を行う前に設定者等によって制御部150に予め記憶されることになる。 Further, since the head of the pilot P changes to various positions and angles inside the aircraft 90, the position of the helmet 10 with the head mounted display device with respect to the XYZ coordinate system set in the aircraft 90 by the HMT device 30. In order to calculate (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ), the helmet 10 with head mounted display device has an X′Y′Z ′ coordinate system in advance. Is set. The angle (RL) is an angle in the roll direction (rotation around the X axis), the angle (EL) is an angle in the elevation direction (rotation around the Y axis), and the angle (AZ) is azimuth. It is the angle of the direction (rotation around the Z axis). Such an X′Y′Z ′ coordinate system can arbitrarily determine the origin and the direction of each coordinate axis, and is stored in advance in the control unit 150 by a setter or the like before performing a rescue operation.

HMT装置30は、例えば、ヘルメット11の上部に取り付けられた磁気センサ31と、航空機90の天井に取り付けられた磁気ソース32とで構成される。磁気ソース31は、交流磁界を発生させるものであり、空間の各点には、それぞれの位置に固有の磁気変化(大きさ及び方向を有する磁気)が生じることになる。磁気センサ31は、3軸のピックアップコイルを有しており、磁気センサ31が存在する位置固有の磁気の大きさ及び方向を検出する。そして、磁気センサ31は、制御部150に信号を出力することになる。
また、制御部150は、頭部装着型表示装置付ヘルメット10において、照準画像Rは、X’Y’Z’座標系のどの位置に表示されるかがわかるようになっており、XYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を算出することができれば、XYZ座標系において照準画像Rがどの位置を指し示しているかがわかるようになっている。
The HMT device 30 includes, for example, a magnetic sensor 31 attached to the upper part of the helmet 11 and a magnetic source 32 attached to the ceiling of the aircraft 90. The magnetic source 31 generates an alternating magnetic field, and a magnetic change (magnetism having a magnitude and direction) unique to each position is generated at each point in the space. The magnetic sensor 31 has a three-axis pickup coil, and detects the magnitude and direction of the magnetism specific to the position where the magnetic sensor 31 exists. Then, the magnetic sensor 31 outputs a signal to the control unit 150.
Further, in the helmet 10 with a head-mounted display device, the control unit 150 can know in which position in the X′Y′Z ′ coordinate system the aiming image R is displayed. The XYZ coordinate system If the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with a head-mounted display device with respect to can be calculated, which is the aiming image R in the XYZ coordinate system? You can see if you are pointing to a position.

制御部150は、CPU151とメモリ152とを備える。また、CPU151が処理する機能をブロック化して説明すると、HMT装置30から頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を取得する頭部情報取得部51aと、検出装置40から飛行体情報を取得する飛行体情報取得部51bと、難破船Nの位置(X,Y,Z)を演算する演算部151cと、難破船Nの位置(X,Y,Z)を表示する表示制御部51dとを有する。
また、メモリ152には、制御部150が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、XYZ座標系を記憶するXYZ系記憶領域52aと、X’Y’Z’座標系を記憶するX’Y’Z’座標系記憶領域52bとを有する。
The control unit 150 includes a CPU 151 and a memory 152. Further, the functions processed by the CPU 151 will be described as a block. The position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with head mounted display device from the HMT device 30 will be described. Head information acquisition unit 51a that acquires the vehicle information from the detection device 40, and a calculation unit that calculates the position (X N , Y N , Z N ) of the shipwreck N 151c and a display control unit 51d for displaying the position (X N , Y N , Z N ) of the shipwreck N.
Further, the memory 152 is formed with an area for storing various data necessary for the control unit 150 to execute processing, an XYZ system storage area 52a for storing the XYZ coordinate system, and an X′Y′Z. And an X′Y′Z ′ coordinate system storage area 52b for storing a coordinate system.

演算部151cは、押しボタン21からの入力信号と、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と、飛行体情報とに基づいて、航空機90に対する難破船Nの位置(X,Y,Z)を演算する制御を行う。
具体的には、パイロットPは、外部に存在する難破船Nを発見すると、照準画像Rと難破船Nとを対応させる。そして照準画像Rと難破船Nとが対応(ロック)したときに、パイロットPは、押しボタン21を入力操作する。これにより、演算部151cは、押しボタン21が入力操作されたときの頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と、押しボタン21が入力操作されたときの飛行体情報とに基づいて、航空機90に対する難破船Nの位置(X,Y,Z)を演算する。その結果、演算部151cは、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対して難破船Nがどの位置(X,Y,Z)に存在するかがわかるようになっており、パイロットPに難破船Nの位置(X,Y,Z)を指し示すようになっている。
The calculation unit 151c includes an input signal from the push button 21, the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with a head-mounted display device, and the flight. Based on the body information, control for calculating the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90 is performed.
Specifically, when the pilot P finds the shipwreck N existing outside, the pilot P associates the aiming image R with the shipwreck N. Then, when the aiming image R and the shipwreck N correspond (lock), the pilot P performs an input operation on the push button 21. Accordingly, the calculation unit 151c causes the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with a head mounted display device when the push button 21 is input. And the position of the shipwreck N relative to the aircraft 90 (X N , Y N , Z N ) are calculated based on the flying object information when the push button 21 is input. As a result, even if the aircraft 90 continues to move, the calculation unit 151c may be located at any position (X N , Y N , Z N ) of the wreck N with respect to the aircraft 90 once the wreck N is locked. It can be seen whether it exists, and the pilot P is pointed to the position of the shipwreck N (X N , Y N , Z N ).

特開2000−225998号公報JP 2000-225998 A

しかしながら、救難目標位置指示装置101では、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対する難破船Nの位置(X,Y,Z)がわかるようになっているはずが、パイロットPは、指し示された位置(X,Y,Z)を視認しても、難破船Nが存在しないことがあった。つまり、救難目標位置指示装置101では、航空機90に対する難破船Nの位置(X,Y,Z)を正確に演算することができていないことがあった。 However, in the rescue target position indicating device 101, even if the aircraft 90 continues to move, once the wreck N is locked, the position (X N , Y N , Z N ) of the wreck N with respect to the aircraft 90 is known. Although it should have become like this, even if the pilot P visually recognizes the indicated position (X N , Y N , Z N ), the shipwreck N may not exist. That is, the rescue target position indicating device 101 may not be able to accurately calculate the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90.

本件発明者らは、上記課題を解決するために、航空機90に対する難破船Nの位置(X,Y,Z)を正確に演算することができる方法について検討を行った。パイロットPは、見張窓91を通して、難破船Nと照準画像Rとを対応させているが、図9に示すように、見張窓91で光学歪が発生していることがわかった。このように見張窓91で光学歪が発生した状態で難破船Nと照準画像Rとを対応させると、演算部151cは、航空機90に対する難破船Nの位置(X,Y,Z)を誤って演算することになる。
また、見張窓91で発生する光学歪は、図10に示すように、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)が同じであっても、角度(AZ,EL,RL)が異なれば、全く異なる。さらに、見張窓91で発生する光学歪は、図11に示すように、頭部装着型表示装置付ヘルメット10の角度(AZ,EL,RL)が同じであっても、位置(X,Y,Z)が異なれば、全く異なることもあるし、図12に示すように、同じとなることもある。
そこで、見張窓91の光学特性を考慮することにより、航空機90に対する難破船Nの位置(X,Y,Z)を演算することを見出した。
In order to solve the above-described problems, the present inventors have studied a method that can accurately calculate the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90. The pilot P associates the shipwreck N with the aiming image R through the lookout window 91, but it was found that optical distortion occurred in the lookout window 91 as shown in FIG. 9. With such optical distortion by Miha window 91 to correspond to the wreck N and sight image R in a state that occurred, calculation unit 151c, the position of the wreck N for aircraft 90 (X N, Y N, Z N) Will be erroneously calculated.
Further, as shown in FIG. 10, even if the position (X h , Y h , Z h ) of the helmet 10 with a head-mounted display device is the same, the optical distortion generated in the lookout window 91 is the angle (AZ). If h 1 , EL h , RL h ) are different, they are completely different. Furthermore, as shown in FIG. 11, the optical distortion generated in the watch window 91 can be detected even if the angle (AZ h , EL h , RL h ) of the helmet 10 with a head-mounted display device is the same (X If h 1 , Y h , and Z h ) are different, they may be completely different or may be the same as shown in FIG.
Therefore, it has been found that the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90 is calculated by considering the optical characteristics of the lookout window 91.

すなわち、本発明の救難目標位置指示装置は、外部と内部とを分ける窓を有し、外部からの光が窓を透過して内部に導かれる搭乗体に搭乗員が搭乗し、前記搭乗員の眼の前方に配置される光学素子と、照準画像を示す画像表示光を出射する表示器とを有し、前記表示器から出射された画像表示光が、前記光学素子を介して搭乗員の眼に導かれることにより、前記搭乗員の前方に照準画像を形成するとともに、前記搭乗員の眼の前方からの光が、前記光学素子を透過して搭乗員の眼に導かれる頭部装着型表示装置と、前記搭乗員の手によって入力操作される入力装置と、前記搭乗体に対する頭部装着型表示装置の位置及び角度を演算するヘッドモーショントラッカ装置と、外部に存在する救難目標と照準画像とが対応したときに入力操作された入力装置からの入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度とに基づいて、前記搭乗体に対する救難目標の位置を演算する制御部とを備える救難目標位置指示装置であって、前記窓の材質、形状及び配置位置を示す窓の光学特性を記憶する記憶部を有し、前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性とに基づいて、前記搭乗体に対する救難目標の位置を演算するようにしている。
ここで、「光学素子」としては、顔正面を覆うように配置されるものが挙げられ、例えば、バイザー、コンバイナ、メガネ等が挙げられる。
That is, the rescue target position indicating device of the present invention has a window that divides the outside and the inside, and a crew member rides on a vehicle body in which light from outside passes through the window and is guided to the inside. An optical element disposed in front of the eye; and a display that emits image display light indicating an aiming image, and the image display light emitted from the display is an occupant's eye via the optical element. Head-mounted display in which an aiming image is formed in front of the crew member and light from the front of the crew eye is transmitted to the crew member's eye through the optical element. A device, an input device that is input by a crew member's hand, a head motion tracker device that calculates the position and angle of a head-mounted display device relative to the vehicle, a rescue target and an aiming image that exist outside The input operation was performed when A rescue target position indicating device comprising: a control unit that calculates a position of a rescue target relative to the vehicle based on an input signal from a force device and a position and an angle of a head-mounted display device relative to the vehicle. A storage unit that stores optical characteristics of the window indicating the material, shape, and arrangement position of the window, and the control unit includes the input signal and the position and angle of the head-mounted display device with respect to the vehicle body. Based on the optical characteristics of the window, the position of the rescue target relative to the vehicle is calculated.
Here, examples of the “optical element” include an element arranged so as to cover the front face of the face, and examples thereof include a visor, a combiner, and glasses.

本発明の頭部装着型表示装置によれば、窓の光学特性を考慮しているので、搭乗体に対する救難目標の位置を正確に演算することができる。   According to the head-mounted display device of the present invention, since the optical characteristics of the window are taken into consideration, the position of the rescue target with respect to the vehicle can be accurately calculated.

(他の課題を解決するための手段および効果)
また、上記の発明において、前記窓の光学特性は、前記搭乗体に対する頭部装着型表示装置の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを含むようにしてもよい。
また、上記の発明において、前記搭乗体は、曲面形状の窓を有する飛行体であり、前記飛行体の緯度、経度、高度及び姿勢を示す飛行体情報を演算する検出装置を備え、前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性と、前記飛行体情報とに基づいて、前記搭乗体に対する救難目標の位置を演算するようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the optical characteristics of the window indicate where the rescue target existing outside can be seen through the window according to each position and each angle of the head-mounted display device with respect to the vehicle. Optical distortion data may be included.
In the invention described above, the vehicle is a flying object having a curved window, and includes a detection device that calculates flying object information indicating a latitude, longitude, altitude, and attitude of the flying object, and the control unit Calculates the position of the rescue target relative to the vehicle based on the input signal, the position and angle of the head mounted display device relative to the vehicle, the optical characteristics of the window, and the flying object information. You may do it.

そして、本発明の光学特性記憶方法は、上述したような救難目標位置指示装置に、前記窓の光学特性を記憶させる光学特性記憶方法であって、前記窓の材質、形状及び配置位置を窓データとして設定する窓データ設定ステップと、前記搭乗体の内部に複数の測定点及び測定方向を測定データとして設定する測定データ設定ステップと、前記窓データと測定データとに基づいて、近似多項式を用いて、前記搭乗体の内部の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを作成する光学歪データ作成ステップとを含むようにしている。
さらに、上記の発明において、前記窓データ設定ステップは、3次元デジタイザを用いて窓の形状を設定するようにしてもよい。
The optical characteristic storage method of the present invention is an optical characteristic storage method for storing the optical characteristics of the window in the rescue target position indicating device as described above, wherein the window material, shape and arrangement position are stored in the window data. Based on the window data setting step, the measurement data setting step for setting a plurality of measurement points and measurement directions as measurement data inside the vehicle, and the window data and the measurement data, an approximate polynomial is used. And an optical distortion data generation step of generating optical distortion data indicating the position of the rescue target existing outside through the window according to each position and each angle inside the vehicle.
Further, in the above invention, the window data setting step may set the window shape using a three-dimensional digitizer.

本発明の救難目標位置指示装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the rescue target position instruction | indication apparatus of this invention. 頭部装着型表示装置付ヘルメットの一例を示す図である。It is a figure which shows an example of the helmet with a head mounting | wearing type display apparatus. 照準画像の一例を示す図である。It is a figure which shows an example of an aim image. 光学特性記憶方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the optical characteristic memory | storage method. 航空機の内部に設定された複数の測定点の一例を説明するための図である。It is a figure for demonstrating an example of the several measurement point set inside the aircraft. 航空機の内部に設定された複数の測定方向の一例を説明するための図である。It is a figure for demonstrating an example of the several measurement direction set inside the aircraft. 頭部装着型表示装置の位置及び角度と同じように歪量を受けるシミュレーション点を見つけ出すことを説明するための図である。It is a figure for demonstrating finding the simulation point which receives distortion amount similarly to the position and angle of a head mounted display apparatus. 従来の救難目標位置指示装置の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the conventional rescue target position instruction | indication apparatus. 見張窓で発生する光学歪を説明するための図である。It is a figure for demonstrating the optical distortion which generate | occur | produces in a lookout window. 見張窓で発生する光学歪を説明するための図である。It is a figure for demonstrating the optical distortion which generate | occur | produces in a lookout window. 見張窓で発生する光学歪を説明するための図である。It is a figure for demonstrating the optical distortion which generate | occur | produces in a lookout window. 見張窓で発生する光学歪を説明するための図である。It is a figure for demonstrating the optical distortion which generate | occur | produces in a lookout window.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.

図1は、本発明の救難目標位置指示装置の概略構成の一例を示す図である。なお、救難目標位置指示装置101と同様のものについては、同じ符号を付している。
救難目標位置指示装置1は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、パイロットPの手によって入力操作される押しボタン21等を有する入力装置20と、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を演算するヘッドモーショントラッカ(HMT)装置30と、飛行体情報を演算する検出装置40と、頭部装着型表示装置付ヘルメット10と入力装置20とHMT装置30と検出装置40とを制御する制御部50とを備える。
FIG. 1 is a diagram showing an example of a schematic configuration of a rescue target position indicating device of the present invention. In addition, the same code | symbol is attached | subjected about the thing similar to the rescue target position instruction | indication apparatus 101. FIG.
The rescue target position indicating device 1 includes a helmet 10 with a head-mounted display device that is worn on the head of the pilot P, an input device 20 that has a push button 21 that is input by the pilot P's hand, and the head. A head motion tracker (HMT) device 30 for calculating the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the wearable display-equipped helmet 10 and the flying object information are calculated. A detection device 40, a helmet 10 with a head-mounted display device, an input device 20, an HMT device 30, and a control unit 50 that controls the detection device 40 are provided.

制御部50は、CPU51とメモリ52とを備える。また、CPU51が処理する機能をブロック化して説明すると、HMT装置30から頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を取得する頭部情報取得部51aと、検出装置40から飛行体情報を取得する飛行体情報取得部51bと、難破船Nの位置(X,Y,Z)を演算する演算部51cと、難破船Nの位置(X,Y,Z)を表示する表示制御部51dと、見張窓91の光学特性を設定して記憶させる設定部51eとを有する。
また、メモリ52には、制御部50が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、XYZ座標系を記憶するXYZ系記憶領域52aと、X’Y’Z’座標系を記憶するX’Y’Z’座標系記憶領域52bと、見張窓91の光学特性を記憶する光学特性記憶領域52cとを有する。
The control unit 50 includes a CPU 51 and a memory 52. Further, the functions processed by the CPU 51 will be described in the form of blocks. The position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with head mounted display device from the HMT device 30 will be described. Head information acquisition unit 51a that acquires the vehicle information from the detection device 40, and a calculation unit that calculates the position (X N , Y N , Z N ) of the shipwreck N 51c, a display control unit 51d for displaying the position (X N , Y N , Z N ) of the shipwreck N , and a setting unit 51e for setting and storing the optical characteristics of the watch window 91.
Further, the memory 52 is formed with an area for storing various data necessary for the control unit 50 to execute processing, an XYZ system storage area 52a for storing the XYZ coordinate system, and an X′Y′Z. It has an X′Y′Z ′ coordinate system storage area 52 b for storing a “coordinate system” and an optical characteristic storage area 52 c for storing the optical characteristics of the watch window 91.

設定部51eは、見張窓91の光学特性を光学特性記憶領域52cに記憶させる制御を行う。見張窓91の光学特性は、救難活動を行う前に設定者等が入力装置20を用いながら設定することによって、光学特性記憶領域52cに記憶されることになる。
ここで、見張窓91の光学特性を記憶させる光学特性記憶方法の一例について説明する。図4は、光学特性記憶方法の一例を説明するためのフローチャートである。
光学特性記憶方法は、<1>窓データ設定ステップ(ステップS101)と、<2>測定データ設定ステップ(ステップS102)と、<3>光学歪データ作成ステップ(ステップS103)とを含む。
The setting unit 51e performs control to store the optical characteristics of the watch window 91 in the optical characteristic storage area 52c. The optical characteristic of the watch window 91 is stored in the optical characteristic storage area 52c by setting by the setter using the input device 20 before performing the rescue operation.
Here, an example of an optical characteristic storage method for storing the optical characteristic of the watch window 91 will be described. FIG. 4 is a flowchart for explaining an example of the optical characteristic storage method.
The optical property storage method includes a <1> window data setting step (step S101), a <2> measurement data setting step (step S102), and a <3> optical distortion data creation step (step S103).

<1>窓データ設定ステップ
設定者は、見張窓91の屈折率(材質)を窓データとして設定部51eに設定する。例えば、設定者は入力装置20を用いて「屈折率1.3」と入力する。また、設定者は、見張窓91の形状を窓データとして設定部51dに設定する。例えば、設定者は3次元デジタイザを用いて見張窓91の形状(曲面形状や厚さや表面状態等)を計測し、その後、入力装置20を用いて「見張窓91の形状」を入力する。さらに、設定者は、XYZ座標系における見張窓91の配置位置を窓データとして設定部51dに設定する。例えば、設定者は入力装置20を用いて「見張窓91の配置位置(X,Y,Z)」を入力する。
<1> Window Data Setting Step The setter sets the refractive index (material) of the watch window 91 as window data in the setting unit 51e. For example, the setter inputs “refractive index 1.3” using the input device 20. Further, the setter sets the shape of the watch window 91 as window data in the setting unit 51d. For example, the setter measures the shape (curved surface shape, thickness, surface state, etc.) of the watch window 91 using a three-dimensional digitizer, and then inputs the “shape of the watch window 91” using the input device 20. Furthermore, the setter sets the arrangement position of the watch window 91 in the XYZ coordinate system in the setting unit 51d as window data. For example, the setter uses the input device 20 to input “arrangement position (X g , Y g , Z g ) of the watch window 91”.

<2>測定データ設定ステップ
航空機90の内部に複数の測定点及び測定方向を測定データとして設定部51eに設定する。図5は、航空機90の内部に設定された複数の測定点の一例を説明するための図であり、図6は、航空機90の内部に設定された複数の測定方向の一例を説明するための図である。
例えば、複数の測定点は、XYZ座標系において原点(0,0,0)を中心として、X方向に所定の間隔(例えば、10cm)をあけて5点をとり、Y方向に所定の間隔(例えば、10cm)をあけて5点をとるように、原点(0,0,0)を中心とした5×5である合計25点を設定する。
さらに、各測定点において、Z方向を基準として、エレベーション方向(EL)に所定の間隔(例えば、30°)をあけて5つの角度をとり、アジマス方向(AZ)に所定の間隔(例えば、30°)をあけて5つの角度をとるように、合計9つの角度を設定する。
<2> Measurement Data Setting Step In the aircraft 90, a plurality of measurement points and measurement directions are set in the setting unit 51e as measurement data. FIG. 5 is a diagram for explaining an example of a plurality of measurement points set inside the aircraft 90, and FIG. 6 is a diagram for explaining an example of a plurality of measurement directions set inside the aircraft 90. FIG.
For example, in the XYZ coordinate system, a plurality of measurement points are set at a predetermined interval (for example, 10 cm) in the X direction around the origin (0, 0, 0), and a predetermined interval ( For example, a total of 25 points, which is 5 × 5 with the origin (0, 0, 0) as the center, is set so as to take 5 points with a gap of 10 cm.
Furthermore, at each measurement point, with respect to the Z direction, a predetermined interval (for example, 30 °) is taken in the elevation direction (EL) to take five angles, and a predetermined interval (for example, the azimuth direction (AZ) (for example, A total of nine angles are set such that five angles are taken with 30 °).

<3>光学歪データ作成ステップ
<1>窓データ設定ステップで設置された窓データと、<2>測定データ設定ステップで設置された測定データとに基づいて、下記に示す近似多項式を用いて、航空機90の内部の各位置(X,Y,Z)及び各角度(AZ,EL,RL)によって、外部に存在する難破船Nが見張窓91を介してどの位置(X,Y,Z)に見えるかを示す光学歪データを作成する。
<3> Optical strain data creation step <1> Based on the window data set in the window data setting step and the measurement data set in the <2> measurement data setting step, using the approximate polynomial shown below, Depending on each position (X h , Y h , Z h ) and each angle (AZ h , EL h , RL h ) inside the aircraft 90, the position (X N , Y N , Z N ) is generated, and optical distortion data is generated.

ここで、近似多項式の一例として、3次式で補正を行った場合について説明する。
まず、位置(X,Y,0)を固定し、各AZでのEL歪量ΔELの近似多項式(6−1)を求める。
ΔEL=A×EL+B×EL+C×EL+D・・・(6−1)
なお、(6−1)の係数A〜Dは、下記式(6−2)〜(6−5)で表される。
A=A×AZ+A×AZ+A×AZ+A・・・(6−2)
B=B×AZ+B×AZ+B×AZ+B・・・(6−3)
C=C×AZ+C×AZ+C×AZ+C・・・(6−4)
D=D×AZ+D×AZ+D×AZ+D・・・(6−5)
また、(6−2)〜(6−5)の係数A〜A,B〜B,C〜C,D〜Dも、同様にXの3次式で表し、そのXの3次式の係数も、同様にYの3次式で表すことになる。
そして、最終的に近似多項式(6−1)を(6−6)に示すようなX,Y,Z,AZ,ELの3次式とする。
ΔEL=(((H1×Y3+H2×Y2+H3×Y+H4)×X3+(H5×Y3+H6×Y2+H7×Y+H8)×X2
(H9×Y3+H10×Y2+H11×Y+H12)×X+(H13×Y3+H14×Y2+H15×Y+H16))×AZ3
((H17×Y3+H18×Y2+H19×Y+H20)×X3+(H21×Y3+H22×Y2+H23×Y+H24)×X2
(H25×Y3+H26×Y2+H27×Y+H28)×X+(H29×Y3+H30×Y2+H31×Y+H32))×AZ2
((H33×Y3+H34×Y2+H35×Y+H36)×X3+(H37×Y3+H38×Y2+H39×Y+H40)×X2
(H41×Y3+H42×Y2+H43×Y+H44)×X+(H45×Y3+H46×Y2+H47×Y+H48))×AZ+
((H49×Y3+H50×Y2+H51×Y+H52)×X3+(H53×Y3+H54×Y2+H55×Y+H56)×X2
(H57×Y3+H58×Y2+H59×Y+H60)×X+(H61×Y3+H62×Y2+H63×Y+H64)))×EL3
(((H65×Y3+H66×Y2+H67×Y+H68)×X3+(H69×Y3+H70×Y2+H71×Y+H72)×X2
(H73×Y3+H74×Y2+H75×Y+H76)×X+(H77×Y3+H78×Y2+H79×Y+H80))×AZ3
((H81×Y3+H82×Y2+H83×Y+H84)×X3+(H85×Y3+H86×Y2+H87×Y+H88)×X2
(H89×Y3+H90×Y2+H91×Y+H92)×X+(H93×Y3+H94×Y2+H95×Y+H96))×AZ2
((H97×Y3+H98×Y2+H99×Y+H100)×X3+(H101×Y3+H102×Y2+H103×Y+H104)×X2
(H105×Y3+H106×Y2+H107×Y+H108)×X+(H109×Y3+H110×Y2+H111×Y+H112))×AZ+
((H113×Y3+H114×Y2+H115×Y+H116)×X3+(H117×Y3+H118×Y2+H119×Y+H120)×X2
(H121×Y3+H122×Y2+H123×Y+H124)×X+(H125×Y3+H126×Y2+H127×Y+H128)))×EL2
(((H129×Y3+H130×Y2+H131×Y+H132)×X3+(H133×Y3+H134×Y2+H135×Y+H136)×X2
(H137×Y3+H138×Y2+H139×Y+H140)×X+(H141×Y3+H142×Y2+H143×Y+H144))×AZ3
((H145×Y3+H146×Y2+H147×Y+H148)×X3+(H149×Y3+H150×Y2+H151×Y+H152)×X2
(H153×Y3+H154×Y2+H155×Y+H156)×X+(H157×Y3+H158×Y2+H159×Y+H160))×AZ2
((H161×Y3+H162×Y2+H163×Y+H164)×X3+(H165×Y3+H166×Y2+H167×Y+H168)×X2
(H169×Y3+H170×Y2+H171×Y+H172)×X+(H173×Y3+H174×Y2+H175×Y+H176))×AZ+
((H177×Y3+H178×Y2+H179×Y+H180)×X3+(H181×Y3+H182×Y2+H183×Y+H184)×X2
(H185×Y3+H186×Y2+H187×Y+H188)×X+(H189×Y3+H190×Y2+H191×Y+H192)))×EL+
(((H193×Y3+H194×Y2+H195×Y+H196)×X3+(H197×Y3+H198×Y2+H199×Y+H200)×X2
(H201×Y3+H202×Y2+H203×Y+H204)×X+(H205×Y3+H206×Y2+H207×Y+H208))×AZ3
((H209×Y3+H210×Y2+H211×Y+H212)×X3+(H213×Y3+H214×Y2+H215×Y+H216)×X2
(H217×Y3+H218×Y2+H219×Y+H220)×X+(H221×Y3+H222×Y2+H223×Y+H224))×AZ2
((H225×Y3+H226×Y2+H227×Y+H228)×X3+(H229×Y3+H230×Y2+H231×Y+H232)×X2
(H233×Y3+H234×Y2+H235×Y+H236)×X+(H237×Y3+H238×Y2+H239×Y+H240))×AZ+
((H241×Y3+H242×Y2+H243×Y+H244)×X3+(H245×Y3+H246×Y2+H247×Y+H248)×X2
(H249×Y3+H249×Y2+H250×Y+H251)×X+(H252×Y3+H253×Y2+H254×Y+H255)))
・・・(6−6)
なお、H1〜H255は定数とする。
Here, a case where correction is performed by a cubic equation will be described as an example of the approximate polynomial.
First, the position (X, Y, 0) is fixed, and an approximate polynomial (6-1) of the EL distortion amount ΔEL at each AZ is obtained.
ΔEL = A × EL 3 + B × EL 2 + C × EL + D (6-1)
The coefficients A to D in (6-1) are expressed by the following formulas (6-2) to (6-5).
A = A 1 × AZ 3 + A 2 × AZ 2 + A 3 × AZ + A 4 (6-2)
B = B 1 × AZ 3 + B 2 × AZ 2 + B 3 × AZ + B 4 (6-3)
C = C 1 × AZ 3 + C 2 × AZ 2 + C 3 × AZ + C 4 (6-4)
D = D 1 × AZ 3 + D 2 × AZ 2 + D 3 × AZ + D 4 (6-5)
Further, the coefficients A 1 to A 4 , B 1 to B 4 , C 1 to C 4 , and D 1 to D 4 of (6-2) to (6-5) are similarly expressed by a cubic expression of X, Similarly, the coefficient of the cubic equation of X is also represented by the cubic equation of Y.
Finally, the approximate polynomial (6-1) is a cubic expression of X, Y, Z, AZ, EL as shown in (6-6).
ΔEL = (((H 1 × Y 3 + H 2 × Y 2 + H 3 × Y + H 4 ) × X 3 + (H 5 × Y 3 + H 6 × Y 2 + H 7 × Y + H 8 ) × X 2 +
(H 9 × Y 3 + H 10 × Y 2 + H 11 × Y + H 12 ) × X + (H 13 × Y 3 + H 14 × Y 2 + H 15 × Y + H 16 )) × AZ 3 +
((H 17 × Y 3 + H 18 × Y 2 + H 19 × Y + H 20 ) × X 3 + (H 21 × Y 3 + H 22 × Y 2 + H 23 × Y + H 24 ) × X 2 +
(H 25 × Y 3 + H 26 × Y 2 + H 27 × Y + H 28 ) × X + (H 29 × Y 3 + H 30 × Y 2 + H 31 × Y + H 32 )) × AZ 2 +
((H 33 × Y 3 + H 34 × Y 2 + H 35 × Y + H 36 ) × X 3 + (H 37 × Y 3 + H 38 × Y 2 + H 39 × Y + H 40 ) × X 2 +
(H 41 × Y 3 + H 42 × Y 2 + H 43 × Y + H 44 ) × X + (H 45 × Y 3 + H 46 × Y 2 + H 47 × Y + H 48 )) × AZ +
((H 49 x Y 3 + H 50 x Y 2 + H 51 x Y + H 52 ) x X 3 + (H 53 x Y 3 + H 54 x Y 2 + H 55 x Y + H 56 ) x X 2 +
(H 57 × Y 3 + H 58 × Y 2 + H 59 × Y + H 60 ) × X + (H 61 × Y 3 + H 62 × Y 2 + H 63 × Y + H 64 ))) × EL 3 +
((((H 65 × Y 3 + H 66 × Y 2 + H 67 × Y + H 68 ) × X 3 + (H 69 × Y 3 + H 70 × Y 2 + H 71 × Y + H 72 ) × X 2 +
(H 73 × Y 3 + H 74 × Y 2 + H 75 × Y + H 76 ) × X + (H 77 × Y 3 + H 78 × Y 2 + H 79 × Y + H 80 )) × AZ 3 +
((H 81 × Y 3 + H 82 × Y 2 + H 83 × Y + H 84 ) × X 3 + (H 85 × Y 3 + H 86 × Y 2 + H 87 × Y + H 88 ) × X 2 +
(H 89 × Y 3 + H 90 × Y 2 + H 91 × Y + H 92 ) × X + (H 93 × Y 3 + H 94 × Y 2 + H 95 × Y + H 96 )) × AZ 2 +
((H 97 × Y 3 + H 98 × Y 2 + H 99 × Y + H 100 ) × X 3 + (H 101 × Y 3 + H 102 × Y 2 + H 103 × Y + H 104 ) × X 2 +
(H 105 × Y 3 + H 106 × Y 2 + H 107 × Y + H 108 ) × X + (H 109 × Y 3 + H 110 × Y 2 + H 111 × Y + H 112 )) × AZ +
((H 113 × Y 3 + H 114 × Y 2 + H 115 × Y + H 116 ) × X 3 + (H 117 × Y 3 + H 118 × Y 2 + H 119 × Y + H 120 ) × X 2 +
(H 121 × Y 3 + H 122 × Y 2 + H 123 × Y + H 124 ) × X + (H 125 × Y 3 + H 126 × Y 2 + H 127 × Y + H 128 ))) × EL 2 +
(((H 129 × Y 3 + H 130 × Y 2 + H 131 × Y + H 132 ) × X 3 + (H 133 × Y 3 + H 134 × Y 2 + H 135 × Y + H 136 ) × X 2 +
(H 137 × Y 3 + H 138 × Y 2 + H 139 × Y + H 140 ) × X + (H 141 × Y 3 + H 142 × Y 2 + H 143 × Y + H 144 )) × AZ 3 +
((H 145 × Y 3 + H 146 × Y 2 + H 147 × Y + H 148 ) × X 3 + (H 149 × Y 3 + H 150 × Y 2 + H 151 × Y + H 152 ) × X 2 +
(H 153 × Y 3 + H 154 × Y 2 + H 155 × Y + H 156 ) × X + (H 157 × Y 3 + H 158 × Y 2 + H 159 × Y + H 160 )) × AZ 2 +
((H 161 × Y 3 + H 162 × Y 2 + H 163 × Y + H 164 ) × X 3 + (H 165 × Y 3 + H 166 × Y 2 + H 167 × Y + H 168 ) × X 2 +
(H 169 × Y 3 + H 170 × Y 2 + H 171 × Y + H 172 ) × X + (H 173 × Y 3 + H 174 × Y 2 + H 175 × Y + H 176 )) × AZ +
((H 177 × Y 3 + H 178 × Y 2 + H 179 × Y + H 180 ) × X 3 + (H 181 × Y 3 + H 182 × Y 2 + H 183 × Y + H 184 ) × X 2 +
(H 185 × Y 3 + H 186 × Y 2 + H 187 × Y + H 188 ) × X + (H 189 × Y 3 + H 190 × Y 2 + H 191 × Y + H 192 ))) × EL +
((((H 193 × Y 3 + H 194 × Y 2 + H 195 × Y + H 196 ) × X 3 + (H 197 × Y 3 + H 198 × Y 2 + H 199 × Y + H 200 ) × X 2 +
(H 201 × Y 3 + H 202 × Y 2 + H 203 × Y + H 204 ) × X + (H 205 × Y 3 + H 206 × Y 2 + H 207 × Y + H 208 )) × AZ 3 +
((H 209 × Y 3 + H 210 × Y 2 + H 211 × Y + H 212 ) × X 3 + (H 213 × Y 3 + H 214 × Y 2 + H 215 × Y + H 216 ) × X 2 +
(H 217 × Y 3 + H 218 × Y 2 + H 219 × Y + H 220 ) × X + (H 221 × Y 3 + H 222 × Y 2 + H 223 × Y + H 224 )) × AZ 2 +
((H 225 x Y 3 + H 226 x Y 2 + H 227 x Y + H 228 ) x X 3 + (H 229 x Y 3 + H 230 x Y 2 + H 231 x Y + H 232 ) x X 2 +
(H 233 × Y 3 + H 234 × Y 2 + H 235 × Y + H 236 ) × X + (H 237 × Y 3 + H 238 × Y 2 + H 239 × Y + H 240 )) × AZ +
((H 241 x Y 3 + H 242 x Y 2 + H 243 x Y + H 244 ) x X 3 + (H 245 x Y 3 + H 246 x Y 2 + H 247 x Y + H 248 ) x X 2 +
(H 249 × Y 3 + H 249 × Y 2 + H 250 × Y + H 251 ) × X + (H 252 × Y 3 + H 253 × Y 2 + H 254 × Y + H 255 )))
... (6-6)
H 1 to H 255 are constants.

演算部51cは、押しボタン21からの入力信号と、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と、飛行体情報と、光学歪データとに基づいて、航空機90に対する難破船Nの位置(X,Y,Z)を演算する制御を行う。
具体的には、パイロットPは、外部に存在する難破船Nを発見すると、照準画像Rと難破船Nとを対応させる。そして照準画像Rと難破船Nとが対応(ロック)したときに、パイロットPは、押しボタン21を入力操作する。これにより、演算部51cは、押しボタン21が入力操作されたときの頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と、押しボタン21が入力操作されたときの飛行体情報と、光学歪データとに基づいて、航空機90に対する難破船の位置(X,Y,Z)を演算する。
Calculating unit 51c, an input signal from the push button 21, the position of the head-mounted display device with a helmet 10 (X h, Y h, Z h) and angle (AZ h, EL h, RL h) and flight Based on the body information and the optical strain data, control for calculating the position (X N , Y N , Z N ) of the shipwreck N with respect to the aircraft 90 is performed.
Specifically, when the pilot P finds the shipwreck N existing outside, the pilot P associates the aiming image R with the shipwreck N. Then, when the aiming image R and the shipwreck N correspond (lock), the pilot P performs an input operation on the push button 21. Accordingly, the calculation unit 51c causes the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with a head-mounted display device when the push button 21 is input. And the position of the shipwreck (X N , Y N , Z N ) with respect to the aircraft 90 based on the flying object information when the push button 21 is input and the optical distortion data.

ところで、光学歪データは、航空機90の内部のXY面での各位置(X,Y,0)及び各角度(AZ,EL,RL)によって、外部に存在する難破船Nが見張窓91を介してどの位置(X,Y,Z)に見えるかを示すものである。そして、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)は、航空機90の内部のXY面上に存在するとは限らないので、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と同じように歪量を受けるXY面での位置(X,Y,0)及び角度(AZ,EL,RL)であるシミュレーション点を見つけ出すことになる。 By the way, the optical distortion data indicates that the shipwreck N that exists outside depends on each position (X h , Y h , 0) and each angle (AZ h , EL h , RL h ) on the XY plane inside the aircraft 90. The position (X N , Y N , Z N ) that can be seen through the watch window 91 is shown. Since the position (X h , Y h , Z h ) of the helmet 10 with a head-mounted display device does not necessarily exist on the XY plane inside the aircraft 90, the helmet 10 with a head-mounted display device 10. position of (X h, Y h, Z h) and angle (AZ h, EL h, RL h) position in the XY plane for receiving the distortion amount in the same way as (X h, Y h, 0 ) and the angle (AZ h , EL h , RL h ) will be found.

図7は、頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と同じように歪量を受けるシミュレーション点を見つけ出すことを説明するための図である。
頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)と同じように歪量を受けるシミュレーション点は、位置(X,Y,Z)から角度(RL,EL,AZ)に向かうようにしてXY面と交差する点、すなわち、位置(X+ZtanAZ,Y+ZtanEL,0)であり、かつ、角度(AZ,EL,RL)は同一である角度(AZ,EL,RL)となる。
これにより、演算部51cは、押しボタン21が入力操作されたときの飛行体情報と、位置(X+ZtanAZ,Y+ZtanEL,0)及び角度(AZ,EL,RL)のときの光学歪データとに基づいて、航空機90に対する難破船Nの位置(X,Y,Z)を演算する。
FIG. 7 finds a simulation point that receives a distortion amount in the same manner as the position (X h , Y h , Z h ) and angle (AZ h , EL h , RL h ) of the helmet 10 with a head-mounted display device. It is a figure for demonstrating.
Similar to the position (X 1 , Y 1 , Z 1 ) and angle (AZ 1 , EL 1 , RL 1 ) of the helmet 10 with a head-mounted display device, the simulation point that receives the distortion amount is the position (X 1 , A point that intersects the XY plane from Y 1 , Z 1 ) toward the angle (RL 1 , EL 1 , AZ 1 ), that is, a position (X 1 + Z 1 tan AZ 1 , Y 1 + Z 1 tanEL 1 , 0) And the angles (AZ 1 , EL 1 , RL 1 ) are the same angles (AZ 1 , EL 1 , RL 1 ).
Accordingly, the arithmetic unit 51c, and the flying object information when the push button 21 is an input operation, the position (X 1 + Z 1 tanAZ 1 , Y 1 + Z 1 tanEL 1, 0) and the angle (AZ 1, EL 1, The position (X N , Y N , Z N ) of the shipwreck N relative to the aircraft 90 is calculated based on the optical strain data at the time of RL 1 ).

その結果、演算部51cは、航空機90が移動しつづけていても、難破船Nが一度ロックされれば、航空機90に対して難破船Nがどの位置(X,Y,Z)に存在するかがわかるようになっており、パイロットPに難破船Nの位置(X,Y,Z)を指し示すようになっている。
以上のように、救難目標位置指示装置1によれば、見張窓91の光学特性を考慮しているので、航空機90に対する難破船Nの位置(X,Y,Z)を正確に演算することができる。
As a result, even if the aircraft 90 continues to move, the calculation unit 51c may be located at any position (X N , Y N , Z N ) of the wreck N with respect to the aircraft 90 once the wreck N is locked. It can be seen whether it exists, and the pilot P is pointed to the position of the shipwreck N (X N , Y N , Z N ).
As described above, according to the rescue target position indicating device 1, since the optical characteristics of the watch window 91 are taken into consideration, the position (X N , Y N , Z N ) of the shipwreck N relative to the aircraft 90 is accurately calculated. can do.

(他の実施形態)
上述した救難目標位置指示装置1では、航空機90に設定されたXYZ座標系に対する頭部装着型表示装置付ヘルメット10の位置(X,Y,Z)及び角度(AZ,EL,RL)を、磁気方式のHMT装置20で算出する構成としたが、光学方式のHMT装置で算出する構成としてもよい。
(Other embodiments)
In the rescue target position indicating apparatus 1 described above, the position (X h , Y h , Z h ) and angle (AZ h , EL h ,) of the helmet 10 with a head-mounted display device with respect to the XYZ coordinate system set in the aircraft 90. RL h ) is calculated by the magnetic HMT device 20, but may be calculated by the optical HMT device.

本発明の救難目標位置指示装置は、例えば、航空機やヘリコプタのような飛行体等のパイロットが使用するのに適する。   The rescue target position indicating device of the present invention is suitable for use by a pilot such as an aircraft or a helicopter.

1,101 救難目標位置指示装置
10 頭部装着型表示装置付ヘルメット(頭部装着型表示装置)
12 バイザー(光学素子)
13 表示器
20 入力装置
30 ヘッドモーショントラッカ装置
50,150 制御部
52,152 記憶部
90 飛行体(搭乗体)
91 見張窓
1,101 Rescue target position pointing device 10 Helmet with head-mounted display device (head-mounted display device)
12 Visor (optical element)
DESCRIPTION OF SYMBOLS 13 Indicator 20 Input device 30 Head motion tracker apparatus 50,150 Control part 52,152 Storage part 90 Flying object (boarding body)
91 Watching window

Claims (5)

外部と内部とを分ける窓を有し、外部からの光が窓を透過して内部に導かれる搭乗体に搭乗員が搭乗し、
前記搭乗員の眼の前方に配置される光学素子と、照準画像を示す画像表示光を出射する表示器とを有し、前記表示器から出射された画像表示光が、前記光学素子を介して搭乗員の眼に導かれることにより、前記搭乗員の前方に照準画像を形成するとともに、前記搭乗員の眼の前方からの光が、前記光学素子を透過して搭乗員の眼に導かれる頭部装着型表示装置と、
前記搭乗員の手によって入力操作される入力装置と、
前記搭乗体に対する頭部装着型表示装置の位置及び角度を演算するヘッドモーショントラッカ装置と、
外部に存在する救難目標と照準画像とが対応したときに入力操作された入力装置からの入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度とに基づいて、前記搭乗体に対する救難目標の位置を演算する制御部とを備える救難目標位置指示装置であって、
前記窓の材質、形状及び配置位置を示す窓の光学特性を記憶する記憶部を有し、
前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性とに基づいて、前記搭乗体に対する救難目標の位置を演算することを特徴とする救難目標位置指示装置。
A crew member has a window that divides the outside and the inside, and a crew member is boarded on a vehicle in which light from the outside passes through the window and is guided to the inside.
An optical element disposed in front of the eyes of the crew member, and a display that emits image display light indicating an aiming image, and the image display light emitted from the display is transmitted through the optical element. A head that is guided to the crew member's eyes to form an aiming image in front of the crew member, and light from the front of the crew member's eye is transmitted to the crew member's eye through the optical element. A part-mounted display device;
An input device that is input by a crew member's hand;
A head motion tracker device that calculates the position and angle of the head-mounted display device with respect to the vehicle;
Based on the input signal from the input device input when the rescue target existing outside corresponds to the aiming image, and the position and angle of the head-mounted display device relative to the vehicle, the vehicle A rescue target position indicating device comprising a control unit for calculating the position of a rescue target,
A storage unit that stores optical characteristics of the window indicating the material, shape, and arrangement position of the window;
The control unit calculates a position of a rescue target with respect to the vehicle based on the input signal, a position and angle of a head-mounted display device with respect to the vehicle, and an optical characteristic of the window. A rescue target position indicating device.
前記窓の光学特性は、前記搭乗体に対する頭部装着型表示装置の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを含むことを特徴とする請求項1に記載の救難目標位置指示装置。   The optical characteristics of the window include optical distortion data indicating where a rescue target existing outside can be seen through the window according to each position and each angle of the head-mounted display device with respect to the vehicle. The rescue target position indicating device according to claim 1, wherein 前記搭乗体は、曲面形状の窓を有する飛行体であり、
前記飛行体の緯度、経度、高度及び姿勢を示す飛行体情報を演算する検出装置を備え、
前記制御部は、前記入力信号と、前記搭乗体に対する頭部装着型表示装置の位置及び角度と、前記窓の光学特性と、前記飛行体情報とに基づいて、前記搭乗体に対する救難目標の位置を演算することを特徴とする請求項1又は請求項2に記載の救難目標位置指示装置。
The vehicle is a flying object having a curved window,
A detector for calculating flying object information indicating the latitude, longitude, altitude and attitude of the flying object;
The control unit, based on the input signal, the position and angle of the head-mounted display device with respect to the vehicle, the optical characteristics of the window, and the flying object information, the position of the rescue target with respect to the vehicle The rescue target position indicating device according to claim 1, wherein the rescue target position indicating device is calculated.
請求項2に記載の救難目標位置指示装置に、前記窓の光学特性を記憶させる光学特性記憶方法であって、
前記窓の材質、形状及び配置位置を窓データとして設定する窓データ設定ステップと、
前記搭乗体の内部に複数の測定点及び測定方向を測定データとして設定する測定データ設定ステップと、
前記窓データと測定データとに基づいて、近似多項式を用いて、前記搭乗体の内部の各位置及び各角度によって、外部に存在する救難目標が窓を介してどの位置に見えるかを示す光学歪データを作成する光学歪データ作成ステップとを含むことを特徴とする光学特性記憶方法。
An optical property storage method for storing the optical property of the window in the rescue target position indicating device according to claim 2,
A window data setting step for setting the material, shape and arrangement position of the window as window data;
A measurement data setting step for setting a plurality of measurement points and measurement directions as measurement data inside the vehicle,
Based on the window data and measurement data, using an approximate polynomial, the optical distortion indicating the position where the external rescue target can be seen through the window by each position and angle inside the vehicle. An optical characteristic storage method comprising: an optical strain data generation step of generating data.
前記窓データ設定ステップは、3次元デジタイザを用いて窓の形状を設定することを特徴とする請求項4に記載の光学特性記憶方法。
5. The optical property storage method according to claim 4, wherein the window data setting step sets a window shape using a three-dimensional digitizer.
JP2009250330A 2009-10-30 2009-10-30 Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus Active JP5233958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009250330A JP5233958B2 (en) 2009-10-30 2009-10-30 Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009250330A JP5233958B2 (en) 2009-10-30 2009-10-30 Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus

Publications (2)

Publication Number Publication Date
JP2011093456A JP2011093456A (en) 2011-05-12
JP5233958B2 true JP5233958B2 (en) 2013-07-10

Family

ID=44110874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009250330A Active JP5233958B2 (en) 2009-10-30 2009-10-30 Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus

Country Status (1)

Country Link
JP (1) JP5233958B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087540B2 (en) * 1987-12-26 1996-01-29 株式会社島津製作所 Display device
JPH0264612A (en) * 1988-08-31 1990-03-05 Shimadzu Corp Distortion correcting device for head up display
JPH0342694A (en) * 1989-07-10 1991-02-22 Matsushita Electric Ind Co Ltd Head-up display device
JPH05280941A (en) * 1992-03-31 1993-10-29 Matsushita Electric Ind Co Ltd Inputting apparatus of three-dimensional shape
JP2550827B2 (en) * 1992-04-28 1996-11-06 株式会社島津製作所 Helmet mounted display
JPH10319343A (en) * 1997-05-19 1998-12-04 Fuji Xerox Co Ltd Head-mounted display
JPH1130764A (en) * 1997-07-11 1999-02-02 Shimadzu Corp Display device
JP4174624B2 (en) * 1999-02-02 2008-11-05 株式会社島津製作所 Rescue target position indicator
JP2007334762A (en) * 2006-06-16 2007-12-27 Shimadzu Corp Head motion tracker

Also Published As

Publication number Publication date
JP2011093456A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
US9891705B1 (en) Automatic boresighting of head-worn display
JP5145832B2 (en) Head-mounted display device and head-mounted display device system
CN107014378A (en) A kind of eye tracking aims at control system and method
WO2015168675A1 (en) Improved registration for vehicular augmented reality using auto-harmonization
US10935392B2 (en) Inertial sensor data correction
US11312458B2 (en) Watercraft
US20150302654A1 (en) Thermal imaging accessory for head-mounted smart device
US10382746B1 (en) Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object
US20170053453A1 (en) Avionic system comprising means for designating and marking land
KR20090120431A (en) Methods and systems for operating avionic systems based on user gestures
US10392126B2 (en) Method and apparatus for controlling vehicle attitude display
EP3173847B1 (en) System for displaying fov boundaries on huds
EP3642694B1 (en) Augmented reality system and method of displaying an augmented reality image
US11815690B2 (en) Head mounted display symbology concepts and implementations, associated with a reference vector
GB2469564A (en) Helmet with visor position detection and associated helmet position detection
JP5092279B2 (en) Head motion tracker device and method of using the same
AU2016320555B2 (en) Helmet tracker buffeting compensation
CN111417890A (en) Viewing apparatus for aircraft pilots
JP5233958B2 (en) Rescue target position indicating device and optical characteristic storage method for storing optical characteristic in the apparatus
US10326985B2 (en) Display system and method for an aircraft
JP2008026265A (en) Head motion tracker system
JP2020500361A (en) Method for assisting target localization and observable device capable of performing the method
EP3395668A1 (en) Watercraft
JP4174624B2 (en) Rescue target position indicator
GB2581237A (en) Head mounted display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R151 Written notification of patent or utility model registration

Ref document number: 5233958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3