JP2021018206A - Head motion tracker device - Google Patents

Head motion tracker device Download PDF

Info

Publication number
JP2021018206A
JP2021018206A JP2019135537A JP2019135537A JP2021018206A JP 2021018206 A JP2021018206 A JP 2021018206A JP 2019135537 A JP2019135537 A JP 2019135537A JP 2019135537 A JP2019135537 A JP 2019135537A JP 2021018206 A JP2021018206 A JP 2021018206A
Authority
JP
Japan
Prior art keywords
head
angle
current frame
environment information
motion tracker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019135537A
Other languages
Japanese (ja)
Other versions
JP7334521B2 (en
Inventor
行信 松原
Yukinobu Matsubara
行信 松原
一穂 多和田
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2019135537A priority Critical patent/JP7334521B2/en
Publication of JP2021018206A publication Critical patent/JP2021018206A/en
Application granted granted Critical
Publication of JP7334521B2 publication Critical patent/JP7334521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a head motion tracker device which can detect the motion of a head while facilitating the attachment of an imaging part.SOLUTION: A head motion tracker device 100 comprises a head attachment part 1 which is attached to a head 201a of an operator 201 (wearer) and includes a camera 3 (imaging part) for capturing an image. The head motion tracker device 100 includes a signal processing part 7 which calculates a position and an angle of the head 201a in a current frame on the basis of a current frame image captured by the camera 3 in the current frame and at least one of peripheral environment information including information on a feature point of the periphery of the head attachment part 1 and a previous frame image captured by the camera 3 in a previous frame prior to the current frame.SELECTED DRAWING: Figure 2

Description

本発明は、ヘッドモーショントラッカ装置に関する。 The present invention relates to a head motion tracker device.

従来、頭部の位置および角度を算出するヘッドモーショントラッカ装置が知られている(たとえば、特許文献1参照)。 Conventionally, a head motion tracker device for calculating the position and angle of a head is known (see, for example, Patent Document 1).

上記特許文献1のヘッドモーショントラッカ装置は、パイロットの頭部に装着される頭部装着体を備える。頭部装着体には、光線を出射する複数の頭部装着体発光部が設けられている。また、パイロットが搭乗するコックピット内にはカメラ装置が取り付けられている。また、ヘッドモーショントラッカ装置は、カメラ装置により取得される画像において映し出される頭部装着体発光部の位置情報に基づいて、カメラ装置に対するパイロットの頭部(頭部装着体)の位置および角度を含む相対情報を算出する相対情報算出部を備える。 The head motion tracker device of Patent Document 1 includes a head-mounted body mounted on the pilot's head. The head-mounted body is provided with a plurality of head-mounted body light emitting portions that emit light rays. In addition, a camera device is installed in the cockpit where the pilot is boarding. Further, the head motion tracker device includes the position and angle of the pilot's head (head-mounted body) with respect to the camera device based on the position information of the head-mounted body light emitting portion projected in the image acquired by the camera device. A relative information calculation unit for calculating relative information is provided.

特開2009−109319号公報JP-A-2009-109319

しかしながら、上記特許文献1に記載されているヘッドモーショントラッカ装置では、カメラ装置がコックピット内に取り付けられているので、頭部の動きを適切に検出するために、カメラ装置の取り付け位置およびカメラ装置の取り付け方法の検討を行う必要がある。この場合、既存のコックピットにカメラ装置を後から取り付ける場合において、コックピットの形状、大きさ、および、コックピット内の装備品の位置等に起因して、カメラ装置を適切に取り付けるのが困難な場合がある。そこで、カメラ装置(撮像部)の取り付けを容易化しながら、頭部の動きを検出することが可能なヘッドモーショントラッカ装置が望まれていた。 However, in the head motion tracker device described in Patent Document 1, since the camera device is mounted in the cockpit, the mounting position of the camera device and the camera device are set in order to appropriately detect the movement of the head. It is necessary to consider the mounting method. In this case, when the camera device is later attached to the existing cockpit, it may be difficult to properly attach the camera device due to the shape and size of the cockpit, the position of the equipment in the cockpit, and the like. is there. Therefore, a head motion tracker device capable of detecting the movement of the head while facilitating the attachment of the camera device (imaging unit) has been desired.

この発明は、上記のような課題を解決するためになされたものであり、撮像部の取り付けを容易化しながら、頭部の動きを検出することが可能なヘッドモーショントラッカ装置を提供することである。 The present invention has been made to solve the above-mentioned problems, and is to provide a head motion tracker device capable of detecting the movement of the head while facilitating the attachment of the imaging unit. ..

上記目的を達成するために、この発明の一の局面におけるヘッドモーショントラッカ装置は、装着者の頭部に装着され、画像を撮像する撮像部を含む頭部装着部と、現在のフレームにおいて撮像部により撮像された現フレーム画像と、頭部装着部の周囲の特徴点の情報を含む周囲環境情報、および、現在のフレームよりも前の前フレームにおいて撮像部により撮像された前フレーム画像のうちの少なくとも一方とに基づいて、現在のフレームにおける頭部の位置および角度を算出する信号処理部と、を備える。 In order to achieve the above object, the head motion tracker device according to one aspect of the present invention is mounted on the wearer's head and includes a head-mounted portion including an imaging unit that captures an image, and an imaging unit in the current frame. Of the current frame image captured by the imaging unit, ambient environment information including information on feature points around the head-mounted portion, and a front frame image captured by the imaging unit in the front frame prior to the current frame. It includes a signal processing unit that calculates the position and angle of the head in the current frame based on at least one of them.

本発明によれば、上記のように、撮像部が頭部装着部に含まれている。これにより、頭部装着部以外の場所(たとえば、コックピット内の所定箇所)に撮像部が設けられる場合と異なり、頭部の周囲の状態(たとえば、装着者がいる部屋(コックピットなど)の形状、大きさ、上記部屋内の装備品等の位置)によって、撮像部の取り付け位置および撮像部の取り付け方法を検討する必要がない。なお、撮像部が頭部装着部に含まれている場合でも、撮像部により撮像された現フレーム画像と、周囲環境情報および前フレーム画像のうちの少なくとも一方とに基づいて、現在のフレームにおける頭部の位置および角度を算出することができる。その結果、撮像部の取り付けを容易化しながら、頭部の動きを検出することができる。 According to the present invention, as described above, the imaging unit is included in the head mounting unit. As a result, unlike the case where the imaging unit is provided in a place other than the head mounting part (for example, a predetermined place in the cockpit), the shape of the state around the head (for example, the shape of the room where the wearer is (for example, the cockpit)). It is not necessary to consider the mounting position of the imaging unit and the mounting method of the imaging unit depending on the size (position of the equipment and the like in the room). Even when the imaging unit is included in the head-mounted unit, the head in the current frame is based on the current frame image captured by the imaging unit and at least one of the ambient environment information and the previous frame image. The position and angle of the part can be calculated. As a result, the movement of the head can be detected while facilitating the attachment of the imaging unit.

一実施形態による操縦者が航空機の搭乗している状態を示した図である。It is a figure which showed the state which the operator by one Embodiment is aboarding an aircraft. 一実施形態によるヘッドモーショントラッカ装置の構成を示した概略図である。It is the schematic which showed the structure of the head motion tracker device by one Embodiment. 一実施形態によるヘッドモーショントラッカ装置の構成を示したブロック図である。It is a block diagram which showed the structure of the head motion tracker apparatus by one Embodiment. 一実施形態による現フレーム画像と前フレーム画像との比較を行う場合の制御を示すフロー図である。It is a flow chart which shows the control when the current frame image and the previous frame image are compared by one Embodiment. 一実施形態による現フレーム画像と周囲環境情報との比較を行う場合の制御を示すフロー図である。It is a flow chart which shows the control in the case of comparing the current frame image and the surrounding environment information by one Embodiment. 一実施形態による周囲環境情報が記憶されていない領域において頭部の位置および角度を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the position and the angle of the head in the area where the ambient environment information by one Embodiment is not stored. 一実施形態における周囲環境情報のアライメント情報を取得する方法を説明するための図である。It is a figure for demonstrating the method of acquiring the alignment information of the ambient environment information in one Embodiment.

以下、本発明を具体化した実施形態を図面に基づいて説明する。 Hereinafter, embodiments embodying the present invention will be described with reference to the drawings.

[本実施形態]
図1〜図7を参照して、ヘッドモーショントラッカ装置(頭部位置角度検出装置)100について説明する。本実施形態では、ヘッドモーショントラッカ装置100が、航空機200において適用される例について説明する。なお、航空機200は、特許請求の範囲の「機体」の一例である。
[The present embodiment]
The head motion tracker device (head position angle detecting device) 100 will be described with reference to FIGS. 1 to 7. In this embodiment, an example in which the head motion tracker device 100 is applied to the aircraft 200 will be described. The aircraft 200 is an example of an "airframe" within the scope of claims.

図1に示すように、ヘッドモーショントラッカ装置100は、頭部装着部1を備える。頭部装着部1は、ヘルメット形状を有しているが、ヘッドギア形状を有していてもよい。頭部装着部1は、航空機200を操縦する操縦者201の頭部201aに装着される。なお、操縦者201は、特許請求の範囲の「装着者」の一例である。 As shown in FIG. 1, the head motion tracker device 100 includes a head mounting portion 1. The head mounting portion 1 has a helmet shape, but may have a headgear shape. The head mounting portion 1 is mounted on the head 201a of the pilot 201 who operates the aircraft 200. The operator 201 is an example of the "wearer" in the claims.

また、頭部装着部1には、操縦者201の眼前に設けられるバイザー2が設けられる。バイザー2を介して、操縦者201が航空機200の操縦を補助する情報(たとえば機体姿勢および速度等のシンボル)が表示される。この表示を視認することにより、操縦者201は、航空機200の機体姿勢および速度等を調整することが可能となる。 Further, the head mounting portion 1 is provided with a visor 2 provided in front of the eyes of the operator 201. Information (for example, symbols such as the attitude and speed of the aircraft) that assists the pilot 201 in maneuvering the aircraft 200 is displayed via the visor 2. By visually recognizing this display, the pilot 201 can adjust the attitude and speed of the aircraft 200.

図2に示すように、頭部装着部1には、カメラ3が設けられている。すなわち、カメラ3は、頭部装着部1と一体的に設けられている。ここで、本実施形態では、カメラ3は、頭部装着部1に複数(本実施形態では2つ)設けられている。2つのカメラ3は、頭部装着部1の前面において水平方向に並んで設けられている。なお、カメラ3の頭部装着部1における配置場所および並び方はこれに限られない。また、カメラ3のレンズの種類は限定されず、たとえば、広角レンズおよび魚眼レンズ等により構成されていてもよい。なお、カメラ3は、特許請求の範囲の「撮像部」の一例である。 As shown in FIG. 2, the head mounting portion 1 is provided with a camera 3. That is, the camera 3 is provided integrally with the head mounting portion 1. Here, in the present embodiment, a plurality of cameras 3 (two in the present embodiment) are provided on the head mounting portion 1. The two cameras 3 are provided side by side in the horizontal direction on the front surface of the head mounting portion 1. The arrangement location and arrangement of the camera 3 on the head mounting portion 1 are not limited to this. The type of lens of the camera 3 is not limited, and may be composed of, for example, a wide-angle lens, a fisheye lens, or the like. The camera 3 is an example of the "imaging unit" in the claims.

また、頭部装着部1には、近赤外光を照射する近赤外LED4が設けられている。近赤外LED4は、頭部装着部1に2つ設けられている。具体的には、水平方向において頭部装着部1の一方側に設けられている近赤外LED4は、頭部装着部1の一方側に設けられているカメラ3の撮像方向に近赤外光を照射する。また、水平方向において頭部装着部1の他方側に設けられている近赤外LED4は、頭部装着部1の他方側に設けられているカメラ3の撮像方向に近赤外光を照射する。頭部装着部1の一方側に設けられるカメラ3と近赤外LED4は隣接するように設けられ、頭部装着部1の他方側に設けられるカメラ3と近赤外LED4は隣接するように設けられている。なお、近赤外LED4および近赤外光は、それぞれ、特許請求の範囲の「光源部」および「非可視光」の一例である。 Further, the head-mounted portion 1 is provided with a near-infrared LED 4 that irradiates near-infrared light. Two near-infrared LEDs 4 are provided on the head mounting portion 1. Specifically, the near-infrared LED 4 provided on one side of the head-mounted portion 1 in the horizontal direction is near-infrared light in the imaging direction of the camera 3 provided on one side of the head-mounted portion 1. Irradiate. Further, the near-infrared LED 4 provided on the other side of the head-mounted portion 1 in the horizontal direction irradiates near-infrared light in the imaging direction of the camera 3 provided on the other side of the head-mounted portion 1. .. The camera 3 provided on one side of the head-mounted portion 1 and the near-infrared LED 4 are provided adjacent to each other, and the camera 3 provided on the other side of the head-mounted portion 1 and the near-infrared LED 4 are provided adjacent to each other. Has been done. The near-infrared LED 4 and the near-infrared light are examples of the "light source unit" and the "invisible light" in the claims, respectively.

また、本実施形態では、カメラ3は、可視領域の波長から非可視領域の波長までの光を検出可能に構成されている。具体的には、カメラ3は、可視光および近赤外光の検出が可能に構成されている。 Further, in the present embodiment, the camera 3 is configured to be capable of detecting light from a wavelength in the visible region to a wavelength in the invisible region. Specifically, the camera 3 is configured to be capable of detecting visible light and near-infrared light.

また、ヘッドモーショントラッカ装置100は、近赤外LED4から照射される近赤外光を照射方向(カメラ3側)に反射する再帰性反射体5を備える。再帰性反射体5とは、光が入射された方向(照射方向)に光を反射させる反射体を意味する。再帰性反射体5は、航空機200のコックピット200a内の機体フレーム200b、キャノピー200c、および、ウィンドウ200d(図1参照)の各々に取り付けられている。なお、再帰性反射体5は、操縦者201の視認性を阻害しなければ、機体フレーム200b、キャノピー200c、および、ウィンドウ200d以外の場所にも取り付けられていてもよい。 Further, the head motion tracker device 100 includes a retroreflector 5 that reflects the near-infrared light emitted from the near-infrared LED 4 in the irradiation direction (camera 3 side). The retroreflector 5 means a reflector that reflects light in the direction in which the light is incident (irradiation direction). The retroreflector 5 is attached to each of the airframe frame 200b, the canopy 200c, and the window 200d (see FIG. 1) in the cockpit 200a of the aircraft 200. The retroreflector 5 may be attached to a place other than the airframe frame 200b, the canopy 200c, and the window 200d as long as the visibility of the operator 201 is not impaired.

また、再帰性反射体5は、透明な材質により形成されている。また、再帰性反射体5は、裏面に粘着テープ等が設けられたシート状の反射体であり、機体フレーム200b、キャノピー200c、および、ウィンドウ200dの各々に貼り付けられている。 Further, the retroreflector 5 is formed of a transparent material. Further, the retroreflective body 5 is a sheet-shaped reflector provided with an adhesive tape or the like on the back surface, and is attached to each of the airframe frame 200b, the canopy 200c, and the window 200d.

図3に示すように、頭部装着部1は、センサ6を含む。センサ6は、2つのカメラ3の各々に設けられている第1センサ6aを含む。第1センサ6aは、カメラ3の傾斜角度および向きを検出する。 As shown in FIG. 3, the head mounting portion 1 includes a sensor 6. The sensor 6 includes a first sensor 6a provided on each of the two cameras 3. The first sensor 6a detects the tilt angle and orientation of the camera 3.

また、センサ6は、第2センサ6bを含む。第2センサ6bは、頭部装着部1の加速度および角速度を検出する。 Further, the sensor 6 includes a second sensor 6b. The second sensor 6b detects the acceleration and the angular velocity of the head mounting portion 1.

また、ヘッドモーショントラッカ装置100は、信号処理部7を備える。信号処理部7は、頭部装着部1に内蔵されている。信号処理部7は、制御部7aと、画像処理部7bと、センサデータ処理部7cと、記憶部7dと、比較部7eと、頭部角度位置算出部7fと、を含む。 Further, the head motion tracker device 100 includes a signal processing unit 7. The signal processing unit 7 is built in the head mounting unit 1. The signal processing unit 7 includes a control unit 7a, an image processing unit 7b, a sensor data processing unit 7c, a storage unit 7d, a comparison unit 7e, and a head angle position calculation unit 7f.

制御部7aは、カメラ3および近赤外LED4の各々に制御信号を送信するように構成されている。具体的には、制御部7aは、たとえば、カメラ3および近赤外LED4の各々のオンオフを制御する信号、および、近赤外LED4の発光強度等を制御する信号を送信する。 The control unit 7a is configured to transmit a control signal to each of the camera 3 and the near infrared LED 4. Specifically, the control unit 7a transmits, for example, a signal for controlling the on / off of each of the camera 3 and the near-infrared LED 4, and a signal for controlling the emission intensity of the near-infrared LED 4.

具体的には、制御部7aは、夜間等の周囲が暗い場合には、近赤外LED4をオンさせる制御信号を送る。また、昼間等の周囲が明るい場合にも近赤外LED4をオンさせてもよい。なお、近赤外LED4は、近赤外光の波長が850nm以上であるように構成されている。また、近赤外LED4は、夜間等の周囲が暗い場合で暗視機能を使用する用途では、930nm以上の波長の近赤外光を使用可能に構成されている。これにより、夜間等において、近赤外LED4からの近赤外光による暗視機能等への影響を低減することが可能である。 Specifically, the control unit 7a sends a control signal for turning on the near-infrared LED 4 when the surroundings are dark, such as at night. Further, the near infrared LED 4 may be turned on even when the surroundings are bright such as in the daytime. The near-infrared LED 4 is configured so that the wavelength of the near-infrared light is 850 nm or more. Further, the near-infrared LED 4 is configured to be able to use near-infrared light having a wavelength of 930 nm or more in applications where the night-vision function is used when the surroundings are dark such as at night. As a result, it is possible to reduce the influence of the near-infrared light from the near-infrared LED 4 on the night-vision function and the like at night and the like.

また、画像処理部7bは、2つのカメラ3の各々により撮像された画像に基づいて、画像処理を行うように構成されている。たとえば、画像処理部7bは、画像における光学歪補正および特徴点抽出等を行う。 Further, the image processing unit 7b is configured to perform image processing based on the images captured by each of the two cameras 3. For example, the image processing unit 7b performs optical distortion correction, feature point extraction, and the like on the image.

また、センサデータ処理部7cは、第1センサ6aおよび第2センサ6bの各々の検出値(センサデータ)に基づいて、処理を行うように構成されている。 Further, the sensor data processing unit 7c is configured to perform processing based on the detection values (sensor data) of each of the first sensor 6a and the second sensor 6b.

また、記憶部7dには、頭部装着部1の周囲の特徴点の情報を含む周囲環境情報が記憶されている。具体的には、周囲環境情報とは、周囲の特徴点の、所定の機体の基準座標における3次元座標情報である。また、周囲環境情報とは、所定の角度に傾いた頭部201aにおいて、所定の位置からカメラ3により画像(頭部201aの周囲の環境)を撮像した場合に撮像された画像において、上記特徴点が取得される位置の情報(画像上における位置の情報)に換算可能な情報を少なくとも含む。また、周囲環境情報は、上記特徴点が取得される位置の情報に加えて、上記特徴点の大きさの情報等を含んでいてもよい。また、カメラ3により取得された後述する前フレーム画像または画像中の特徴点は、記憶部7dに格納される。 Further, the storage unit 7d stores information on the surrounding environment including information on feature points around the head-mounted unit 1. Specifically, the surrounding environment information is three-dimensional coordinate information of the surrounding feature points at the reference coordinates of a predetermined aircraft. Further, the ambient environment information is the above-mentioned feature point in the image captured when the image (environment around the head 201a) is imaged by the camera 3 from the predetermined position on the head 201a tilted at a predetermined angle. Includes at least information that can be converted into position information (position information on the image) from which is acquired. Further, the surrounding environment information may include information on the size of the feature points and the like in addition to the information on the position where the feature points are acquired. Further, the front frame image described later or the feature points in the image acquired by the camera 3 are stored in the storage unit 7d.

ここで、本実施形態では、周囲環境情報は、操縦者201の周囲に設けられた装備品の少なくとも位置情報を含む。たとえば、周囲環境情報は、再帰性反射体5の位置情報、機体フレーム200bの位置情報、キャノピー200cの位置情報、および、ウィンドウ200dの位置情報等を含む。なお、機体フレーム200b、キャノピー200c、ウィンドウ200d、および、再帰性反射体5の各々は、上記装備品の一例である。なお、周囲環境情報は、コックピット200aの壁面、天井面、および、角部等の位置情報等を含んでいてもよい。 Here, in the present embodiment, the ambient environment information includes at least the position information of the equipment provided around the operator 201. For example, the surrounding environment information includes the position information of the retroreflector 5, the position information of the airframe frame 200b, the position information of the canopy 200c, the position information of the window 200d, and the like. Each of the airframe frame 200b, the canopy 200c, the window 200d, and the retroreflector 5 is an example of the above equipment. The surrounding environment information may include position information of the wall surface, ceiling surface, corners, etc. of the cockpit 200a.

また、比較部7eは、現在のフレームにおいてカメラ3により撮像された画像(以下、現フレーム画像)と、現在のフレームよりも前のフレームにおいてカメラ3により撮像された画像(以下、前フレーム画像)とを比較するように構成されている。また、比較部7eは、現フレーム画像と、記憶部7dに記憶された周囲環境情報とを比較するように構成されている。なお、カメラ3のフレームレートは、たとえば60Hz以上である。 Further, the comparison unit 7e includes an image captured by the camera 3 in the current frame (hereinafter, the current frame image) and an image captured by the camera 3 in the frame before the current frame (hereinafter, the previous frame image). Is configured to compare with. Further, the comparison unit 7e is configured to compare the current frame image with the surrounding environment information stored in the storage unit 7d. The frame rate of the camera 3 is, for example, 60 Hz or higher.

また、頭部角度位置算出部7fは、比較部7eによる比較結果に基づいて、頭部201a(頭部装着部1)の角度および位置を算出するように構成されている。頭部角度位置算出部7fにより算出された頭部201aの角度および位置の情報は、HMD回路(図示せず)を含む装置(図示せず)に送信される。上記HMD回路は、送信された頭部201aの角度および位置の情報に基づいて、バイザー2を介して操縦者201に表示する画像を作成する。なお、上記HMD回路を含む装置は、頭部装着部1の外部および内部のいずれに設けられていてもよい。 Further, the head angle position calculation unit 7f is configured to calculate the angle and position of the head 201a (head mounting unit 1) based on the comparison result by the comparison unit 7e. The angle and position information of the head 201a calculated by the head angle position calculation unit 7f is transmitted to a device (not shown) including an HMD circuit (not shown). The HMD circuit creates an image to be displayed to the operator 201 via the visor 2 based on the transmitted angle and position information of the head 201a. The device including the HMD circuit may be provided either outside or inside the head-mounted portion 1.

ここで、本実施形態では、信号処理部7は、現フレーム画像と、周囲環境情報および前フレーム画像のうちの少なくとも一方とに基づいて、現在のフレームにおける頭部201aの位置および角度を算出するように構成されている。具体的には、信号処理部7は、現フレーム画像と、周囲環境情報および前フレーム画像のうちの少なくとも一方とを比較することにより、現在のフレームにおける頭部201aの位置および角度を算出するように構成されている。なお、信号処理部7は、上記比較において、周囲環境情報および前フレーム画像のうちのいずれを使用するかを切り替えるように構成されていてもよいし、いずれか一方のみを使用するように構成されていてもよい。 Here, in the present embodiment, the signal processing unit 7 calculates the position and angle of the head 201a in the current frame based on the current frame image and at least one of the surrounding environment information and the previous frame image. It is configured as follows. Specifically, the signal processing unit 7 calculates the position and angle of the head 201a in the current frame by comparing the current frame image with at least one of the surrounding environment information and the previous frame image. It is configured in. In the above comparison, the signal processing unit 7 may be configured to switch which of the surrounding environment information and the previous frame image is used, or is configured to use only one of them. You may be.

(現フレーム画像と前フレーム画像との比較による算出)
図4を参照して、現フレーム画像と前フレーム画像とを比較することにより、現在のフレームにおける頭部201aの位置および角度を算出する場合の信号処理部7の制御について説明する。
(Calculated by comparing the current frame image with the previous frame image)
The control of the signal processing unit 7 when calculating the position and angle of the head 201a in the current frame by comparing the current frame image and the previous frame image with reference to FIG. 4 will be described.

図4に示すように、ステップS1において、信号処理部7(頭部角度位置算出部7f)は、初期のフレームの画像(以下、初期フレーム画像)と周囲環境情報とに基づいて、初期のフレームにおける頭部201aの位置および角度の基準値を算出するように構成されている。具体的には、信号処理部7(頭部角度位置算出部7f)は、初期フレーム画像において取得された所定の特徴点(たとえば再帰性反射体5)と、所定の角度で所定の位置に設けられている頭部201aに対応する周囲環境情報に含まれる上記所定の特徴点の位置情報等とを比較する。この比較結果により算出される上記所定の特徴点の位置および大きさ等の変化量に基づいて、上記周囲環境情報に対応する上記所定の角度および上記所定の位置と、初期のフレームにおける頭部201aの位置および角度との差異が検出される。その結果、初期のフレームにおける頭部201aの位置および角度(基準値)が算出される。 As shown in FIG. 4, in step S1, the signal processing unit 7 (head angle position calculation unit 7f) sets the initial frame based on the image of the initial frame (hereinafter referred to as the initial frame image) and the surrounding environment information. It is configured to calculate the reference value of the position and the angle of the head 201a in the above. Specifically, the signal processing unit 7 (head angle position calculation unit 7f) is provided at a predetermined position at a predetermined angle with a predetermined feature point (for example, the retroreflector 5) acquired in the initial frame image. It is compared with the position information of the predetermined feature point included in the surrounding environment information corresponding to the head 201a. Based on the amount of change such as the position and size of the predetermined feature point calculated from the comparison result, the predetermined angle and the predetermined position corresponding to the ambient environment information and the head 201a in the initial frame Differences from the position and angle of are detected. As a result, the position and angle (reference value) of the head 201a in the initial frame are calculated.

次に、ステップS2において、本実施形態では、信号処理部7(頭部角度位置算出部7f)は、上記基準値、および、前フレーム画像と現フレーム画像との比較結果に基づいて、現在のフレームの頭部201aの位置および角度を算出するように構成されている。 Next, in step S2, in the present embodiment, the signal processing unit 7 (head angle position calculation unit 7f) is currently based on the reference value and the comparison result between the previous frame image and the current frame image. It is configured to calculate the position and angle of the head 201a of the frame.

具体的には、信号処理部7(頭部角度位置算出部7f)は、上記基準値、および、初期フレーム画像と初期のフレームの次のフレーム(以下、N1フレーム)における画像との比較結果に基づいて、N1フレームにおける頭部201aの位置および角度を算出する。具体的な算出方法としては、上記ステップS1で説明した方法と同様である。すなわち、初期フレーム画像において取得された所定の特徴点(たとえば再帰性反射体5)と、N1フレーム画像において取得された上記所定の特徴点とが比較される。この比較結果により算出される上記所定の特徴点の位置および大きさ等の変化量に基づいて、初期フレームにおける頭部201aの位置および角度と、N1フレームにおける頭部201aの位置および角度との差異(すなわち頭部201aの位置および角度の各々の変化量)が検出される。その結果、N1フレームにおける頭部201aの位置および角度が算出される。 Specifically, the signal processing unit 7 (head angle position calculation unit 7f) is based on the above reference value and the comparison result between the initial frame image and the image in the next frame (hereinafter, N1 frame) of the initial frame. Based on this, the position and angle of the head 201a in the N1 frame are calculated. The specific calculation method is the same as the method described in step S1 above. That is, the predetermined feature points acquired in the initial frame image (for example, the retroreflector 5) are compared with the predetermined feature points acquired in the N1 frame image. The difference between the position and angle of the head 201a in the initial frame and the position and angle of the head 201a in the N1 frame based on the amount of change such as the position and size of the predetermined feature points calculated from the comparison result. (That is, the amount of change in the position and angle of the head 201a) is detected. As a result, the position and angle of the head 201a in the N1 frame are calculated.

次に、N1フレームにおける頭部201aの位置および角度を基準値として、N1フレームの画像とN1フレームの次のフレーム(以下、N2フレーム)の画像との比較結果に基づいて、N2フレームにおける頭部201aの位置および角度が算出される。このように、フレーム間の画像の比較が各フレームにおいて行われることによって、各フレームにおける頭部201aの位置および角度が算出される。これにより、現在のフレームの頭部201aの位置および角度が算出される。 Next, using the position and angle of the head 201a in the N1 frame as reference values, the head in the N2 frame is based on the comparison result between the image of the N1 frame and the image of the next frame of the N1 frame (hereinafter, N2 frame). The position and angle of 201a are calculated. By comparing the images between the frames in this way, the position and angle of the head 201a in each frame are calculated. As a result, the position and angle of the head 201a of the current frame are calculated.

(現フレーム画像と周囲環境情報との比較による算出)
次に、図5を参照して、現フレーム画像と周囲環境情報とを比較することにより、現在のフレームにおける頭部201aの位置および角度を算出する場合の信号処理部7の制御について説明する。
(Calculated by comparing the current frame image with the surrounding environment information)
Next, with reference to FIG. 5, the control of the signal processing unit 7 when calculating the position and angle of the head 201a in the current frame by comparing the current frame image with the surrounding environment information will be described.

まず、ステップS11において、信号処理部7(頭部角度位置算出部7f)は、初期のフレームの画像(以下、初期フレーム画像)と周囲環境情報とに基づいて、初期のフレームにおける頭部201aの位置および角度の基準値を算出するように構成されている。この制御は、上記ステップS1と同じであるので、詳細な説明は省略する。 First, in step S11, the signal processing unit 7 (head angle position calculation unit 7f) of the head 201a in the initial frame based on the image of the initial frame (hereinafter, the initial frame image) and the surrounding environment information. It is configured to calculate reference values for position and angle. Since this control is the same as in step S1, detailed description thereof will be omitted.

次に、ステップS12において、信号処理部7(頭部角度位置算出部7f)は、前フレームにおける頭部201aの位置および角度と、センサ6の検出値とに基づいて、現在のフレームの頭部201aの概略的な位置および概略的な角度を算出する。この際、センサ6の検出値として、第1センサ6aにより検出されたカメラ3の傾斜角度および向きのデータと、第2センサ6bにより検出された頭部装着部1の加速度および角速度のデータとが用いられる。 Next, in step S12, the signal processing unit 7 (head angle position calculation unit 7f) heads the current frame based on the position and angle of the head 201a in the front frame and the detection value of the sensor 6. The approximate position and approximate angle of 201a are calculated. At this time, as the detection values of the sensor 6, the tilt angle and orientation data of the camera 3 detected by the first sensor 6a and the acceleration and angular velocity data of the head mounting portion 1 detected by the second sensor 6b are used. Used.

次に、ステップS13において、本実施形態では、信号処理部7は、現フレーム画像と、頭部201aの上記概略的な位置および上記概略的な角度に対応する周囲環境情報とを比較することにより、現在のフレームの頭部201aの位置および角度を算出するように構成されている。具体的には、信号処理部7は、記憶部7d(図3参照)に記憶されている周囲環境情報のうち、頭部201aの上記概略的な位置および上記概略的な角度に対応する周囲環境情報を取得する(読み出す)とともに、記憶部7dから取得された(読み出された)周囲環境情報と、現フレーム画像との比較を行う。 Next, in step S13, in the present embodiment, the signal processing unit 7 compares the current frame image with the ambient environment information corresponding to the above-mentioned approximate position and the above-mentioned approximate angle of the head 201a. , Is configured to calculate the position and angle of the head 201a of the current frame. Specifically, the signal processing unit 7 has the ambient environment corresponding to the above-mentioned approximate position and the above-mentioned approximate angle of the head 201a among the surrounding environment information stored in the storage unit 7d (see FIG. 3). In addition to acquiring (reading) the information, the surrounding environment information acquired (read) from the storage unit 7d is compared with the current frame image.

詳細には、信号処理部7(頭部角度位置算出部7f)は、現フレーム画像において取得された所定の特徴点(たとえば再帰性反射体5)と、上記概略的な位置および上記概略的な角度に対応する周囲環境情報に含まれる上記所定の特徴点の位置情報等とを比較する。この比較結果により算出される上記所定の特徴点の位置等の差異に基づいて、上記周囲環境情報と、現在のフレームにおける頭部201aの位置および角度との差異が検出される。その結果、現在のフレームにおける頭部201aの位置および角度が算出される。なお、ステップS12において用いられた前フレームにおける頭部201aの位置および角度は、ステップS11において算出された基準値に基づいて、ステップS13の制御がフレーム毎に繰り返し行われることにより算出されている。 Specifically, the signal processing unit 7 (head angle position calculation unit 7f) includes a predetermined feature point (for example, a retroreflector 5) acquired in the current frame image, the above-mentioned schematic position, and the above-mentioned schematic position. Compare with the position information of the above-mentioned predetermined feature points included in the surrounding environment information corresponding to the angle. Based on the difference such as the position of the predetermined feature point calculated from the comparison result, the difference between the surrounding environment information and the position and angle of the head 201a in the current frame is detected. As a result, the position and angle of the head 201a in the current frame are calculated. The position and angle of the head 201a in the front frame used in step S12 are calculated by repeatedly controlling step S13 for each frame based on the reference value calculated in step S11.

また、ヘッドモーショントラッカ装置100(信号処理部7)では、現フレーム画像と前フレーム画像との比較を行う制御と、現フレーム画像と周囲環境情報との比較を行う制御との切り替え可能に構成されていてもよい。たとえば、通常時は現フレーム画像と周囲環境情報との比較が行われる一方、第1センサ6aまたは第2センサ6bの情報から周囲環境情報の取得ができなかった場合などに、現フレーム画像と前フレーム画像との比較を行う制御に切り替えられるように構成されていてもよい。また、通常時は現フレーム画像と前フレーム画像との比較が行われる一方、カメラ3により前フレーム画像が撮像されなかった場合などに、現フレーム画像と周囲環境情報との比較を行う制御に切り替えられるように構成されていてもよい。なお、途中で制御が切り替えられる場合は、上記ステップS1(図4参照)およびステップS11(図5参照)の制御は行わなくてもよい。また、現フレーム画像と前フレーム画像との比較を行う制御と、現フレーム画像と周囲環境情報との比較を行う制御のうちのいずれか一方の制御のみが行われるように構成されていてもよい。 Further, the head motion tracker device 100 (signal processing unit 7) is configured to be switchable between a control for comparing the current frame image and the previous frame image and a control for comparing the current frame image with the surrounding environment information. You may be. For example, while the current frame image is normally compared with the surrounding environment information, the current frame image and the previous frame image may not be obtained when the surrounding environment information cannot be obtained from the information of the first sensor 6a or the second sensor 6b. It may be configured so that it can be switched to the control for comparing with the frame image. In addition, while the current frame image and the previous frame image are normally compared, the control is switched to the comparison between the current frame image and the surrounding environment information when the previous frame image is not captured by the camera 3. It may be configured to be. If the control is switched in the middle, the control in step S1 (see FIG. 4) and step S11 (see FIG. 5) may not be performed. Further, it may be configured so that only one of the control for comparing the current frame image with the previous frame image and the control for comparing the current frame image with the surrounding environment information is performed. ..

また、本実施形態では、信号処理部7は、現在のフレームの頭部201aの位置および角度の算出が所定の時間(たとえば1フレーム)内に行われなかった場合に、センサ6の検出値に基づいて補間を行うように構成されている。信号処理部7は、上記補間を行うことにより、前フレームにおける頭部201aの位置および角度から、現在のフレームの頭部201aの位置および角度を算出するように構成されている。具体的には、信号処理部7は、現在のフレームの頭部201aの位置および角度の算出が所定の時間内に行われなかった場合に、前フレームにおける頭部201aの位置および角度と、第2センサ6bにより検出された頭部装着部1の加速度および角速度とに基づいて、現在のフレームの頭部201aの位置および角度を補間により算出する。 Further, in the present embodiment, the signal processing unit 7 determines the detection value of the sensor 6 when the position and angle of the head head 201a of the current frame are not calculated within a predetermined time (for example, one frame). It is configured to perform interpolation based on. The signal processing unit 7 is configured to calculate the position and angle of the head 201a of the current frame from the position and angle of the head 201a in the front frame by performing the above interpolation. Specifically, the signal processing unit 7 determines the position and angle of the head 201a in the front frame and the position and angle of the head 201a in the front frame when the position and angle of the head 201a of the current frame are not calculated within a predetermined time. 2 The position and angle of the head 201a of the current frame are calculated by interpolation based on the acceleration and the angular velocity of the head mounting portion 1 detected by the sensor 6b.

この場合、信号処理部7に設けられる図示しないタイマ等により、上記算出が所定の時間内に行われたか否かを検知可能に構成されていてもよい。なお、現在のフレームの頭部201aの位置および角度の算出が所定の時間内に行われない場合とは、ノイズ等に起因してカメラ3により適切な画像が撮像されなかったことに起因して、現フレーム画像において前フレーム画像(周囲環境情報)等と位置の比較が行われる所定の特徴点(たとえば再帰性反射体5)の検出(発見)に時間を要した場合等が考えられる。 In this case, a timer (not shown) provided in the signal processing unit 7 may be configured to be able to detect whether or not the above calculation has been performed within a predetermined time. The case where the position and angle of the head 201a of the current frame are not calculated within a predetermined time is due to the fact that an appropriate image was not captured by the camera 3 due to noise or the like. It is conceivable that it takes time to detect (discover) a predetermined feature point (for example, the retroreflector 5) whose position is compared with the previous frame image (ambient environment information) in the current frame image.

また、図6を参照して、現在のフレームの頭部201aの位置および角度に対応する周囲環境情報が記憶部7dに記憶されていない場合の信号処理部7の制御ついて説明する。 Further, with reference to FIG. 6, the control of the signal processing unit 7 when the ambient environment information corresponding to the position and angle of the head head 201a of the current frame is not stored in the storage unit 7d will be described.

図6に示すように、現在のフレームよりも前のフレームにおいて、周囲環境情報が記憶部7dに記憶されている領域Aの方向に頭部201aが向いた状態で画像300が取得されたとする。また、現在のフレームにおいて、周囲環境情報が記憶部7dに記憶されていない領域Bの方向に頭部201aが向いた状態で画像301が取得されているとする。 As shown in FIG. 6, it is assumed that the image 300 is acquired in a frame before the current frame with the head 201a facing in the direction of the region A in which the ambient environment information is stored in the storage unit 7d. Further, in the current frame, it is assumed that the image 301 is acquired with the head 201a facing in the direction of the region B in which the surrounding environment information is not stored in the storage unit 7d.

この場合、本実施形態では、周囲環境情報が記憶部7dに記憶されている頭部201aの位置および角度(領域Aの方向に対する頭部201aの位置および角度)と、周囲環境情報が記憶部7dに記憶されていない頭部201aの位置(領域Bの方向に対する頭部201aの位置)からの頭部201aの移動量Lと、現フレーム画像(この場合、画像301)とに基づいて、現在のフレームの頭部201aの位置および角度を算出するように構成されている。 In this case, in the present embodiment, the position and angle of the head 201a (the position and angle of the head 201a with respect to the direction of the region A) in which the surrounding environment information is stored in the storage unit 7d, and the surrounding environment information are stored in the storage unit 7d. Based on the amount of movement L of the head 201a from the position of the head 201a (the position of the head 201a with respect to the direction of the region B) not stored in the current frame image (in this case, the image 301), the current frame image (image 301 in this case). It is configured to calculate the position and angle of the head 201a of the frame.

具体的には、信号処理部7は、画像300および領域Aの方向に対応する周囲環境情報から領域Aの方向に対する頭部201aの位置および角度を算出するように構成されている。また、信号処理部7は、前フレーム画像(画像300)および現フレーム画像(画像301)の各々において同一の所定の特徴点(たとえば再帰性反射体5)が取得されている場合に、上記所定の特徴点の位置、方向および大きさ等の変化量に基づいて、フレーム間における頭部201aの位置の移動量L(および頭部201aの角度の変化量)を算出する。そして、信号処理部7は、領域Aの方向に対する頭部201aの位置および角度と、頭部201aの位置の移動量L(および頭部201aの角度の変化量)とに基づいて、領域Bの方向に対する頭部201aの位置および角度を算出する。 Specifically, the signal processing unit 7 is configured to calculate the position and angle of the head 201a with respect to the direction of the area A from the ambient environment information corresponding to the image 300 and the direction of the area A. Further, when the same predetermined feature point (for example, the retroreflector 5) is acquired in each of the front frame image (image 300) and the current frame image (image 301), the signal processing unit 7 determines the above. The amount of movement L of the position of the head 201a between frames (and the amount of change of the angle of the head 201a) is calculated based on the amount of change in the position, direction, size, and the like of the feature points. Then, the signal processing unit 7 determines the region B based on the position and angle of the head 201a with respect to the direction of the region A and the amount of movement L of the position of the head 201a (and the amount of change in the angle of the head 201a). The position and angle of the head 201a with respect to the direction are calculated.

さらに、信号処理部7は、領域Aの方向に対する頭部201aの位置および角度と、頭部201aの位置の移動量L(および頭部201aの角度の変化量)と、現フレーム画像(画像301)とに基づいて、現在のフレームの頭部201aの位置および角度に対応する周囲環境情報の作成および記憶部7dへの登録を行う。具体的には、領域Bに対応する画像301から特徴点が抽出されるとともに、抽出された領域Bに対応する特徴点と、領域Bの方向に対する頭部201aの位置および角度とに基づいて、領域Bに対応する周囲環境情報が新たに作成されるとともに記憶部7dに登録(追加)される。これにより、周囲環境情報がない領域の方向でも、頭部201aの位置および角度算出が可能になるとともに、この処理が繰り返し行われることにより、周囲環境情報をさらに更新(増加)することが可能である。その結果、上記処理が行われる度に、頭部201aの位置および角度の算出の精度を向上させることが可能である。 Further, the signal processing unit 7 includes a position and angle of the head 201a with respect to the direction of the region A, a movement amount L of the position of the head 201a (and a change amount of the angle of the head 201a), and a current frame image (image 301). ), And the surrounding environment information corresponding to the position and angle of the head head 201a of the current frame is created and registered in the storage unit 7d. Specifically, feature points are extracted from the image 301 corresponding to the region B, and based on the feature points corresponding to the extracted region B and the position and angle of the head 201a with respect to the direction of the region B, The surrounding environment information corresponding to the area B is newly created and registered (added) in the storage unit 7d. As a result, the position and angle of the head 201a can be calculated even in the direction of the area where there is no surrounding environment information, and the surrounding environment information can be further updated (increased) by repeating this process. is there. As a result, it is possible to improve the accuracy of calculating the position and angle of the head 201a each time the above processing is performed.

また、現フレーム画像(画像301)において前フレーム画像(画像300)と同一の所定の特徴点(たとえば再帰性反射体5)が取得されない場合には、領域Aと領域Bとの中間領域(領域Aと領域Bとに跨る領域)に対する頭部201aの位置および角度に基づいて、現在のフレームの頭部201aの位置および角度を算出してもよい。なお、現在のフレームまでに、中間領域の方向に頭部201aが向いた状態で画像302が取得されているとする。 Further, when the same predetermined feature point (for example, retroreflective body 5) as that of the previous frame image (image 300) is not acquired in the current frame image (image 301), an intermediate region (region) between the region A and the region B is not acquired. The position and angle of the head 201a of the current frame may be calculated based on the position and angle of the head 201a with respect to the region (a region straddling A and the region B). It is assumed that the image 302 has been acquired by the current frame with the head 201a facing in the direction of the intermediate region.

この場合、中間領域に対応する画像302のうちの領域A側の画像と、領域A側に対応する周囲環境情報とに基づいて、中間領域に対する頭部201aの位置および角度が算出される。また、中間領域に対応する画像302のうちの領域B側の画像から特徴点(たとえば再帰性反射体5)が抽出される。抽出された領域B側の特徴点と、中間領域に対する頭部201aの位置および角度とに基づいて、中間領域に対応する周囲環境情報が作成されるとともに登録される。 In this case, the position and angle of the head 201a with respect to the intermediate region are calculated based on the image on the region A side of the image 302 corresponding to the intermediate region and the surrounding environment information corresponding to the region A side. Further, a feature point (for example, the retroreflector 5) is extracted from the image on the region B side of the image 302 corresponding to the intermediate region. Based on the extracted feature points on the region B side and the position and angle of the head 201a with respect to the intermediate region, the surrounding environment information corresponding to the intermediate region is created and registered.

そして、信号処理部7は、中間領域に対応する画像302および現フレーム画像(画像301)の各々における同一の所定の特徴点の位置、方向および大きさ等の変化量に基づいて算出される頭部201aの位置の移動量(頭部201aの角度の変化量)と、中間領域に対する頭部201aの位置および角度とに基づいて、領域Bの方向に対する頭部201aの位置および角度を算出する。その後、上記と同様に、領域Bに対応する周囲環境情報が新たに作成されるとともに記憶部7dに登録(追加)される。 Then, the signal processing unit 7 calculates the head based on the amount of change in the position, direction, size, etc. of the same predetermined feature point in each of the image 302 and the current frame image (image 301) corresponding to the intermediate region. The position and angle of the head 201a with respect to the direction of the region B are calculated based on the amount of movement of the position of the portion 201a (the amount of change in the angle of the head 201a) and the position and angle of the head 201a with respect to the intermediate region. After that, in the same manner as described above, the surrounding environment information corresponding to the area B is newly created and registered (added) in the storage unit 7d.

また、現フレーム画像(画像301)において前フレーム画像(画像300)と同一の所定の特徴点(たとえば再帰性反射体5)が取得されない場合で、かつ、中間領域において画像が取得されない場合には、領域Aの方向に対応する頭部201aの位置および角度と、第2センサ6bにより検出された加速度および角速度とにより、領域Bに対応する頭部201aの位置および角度を算出してもよい。 Further, when the same predetermined feature point (for example, retroreflective body 5) as that of the previous frame image (image 300) is not acquired in the current frame image (image 301) and the image is not acquired in the intermediate region. , The position and angle of the head 201a corresponding to the region A may be calculated from the position and angle of the head 201a corresponding to the direction of the region A and the acceleration and the angular velocity detected by the second sensor 6b.

また、本実施形態では、信号処理部7は、周囲環境情報のアライメント情報を予め取得し、取得したアライメント情報を反映した周囲環境情報を用いて頭部201aの位置および角度を算出するように構成されている。 Further, in the present embodiment, the signal processing unit 7 is configured to acquire the alignment information of the surrounding environment information in advance and calculate the position and angle of the head 201a using the surrounding environment information reflecting the acquired alignment information. Has been done.

具体的には、図7に示すように、アライメント装置202により、航空機200の姿勢情報および方位情報に基づいたアライメントに関するデータ(以下、アライメントデータ)を取得しておく。アライメントデータとは、たとえば、航空機200が飛行していない状態において、航空機200の機体の基準座標に対する航空機200の傾斜角度等の情報を含む。すなわち、機体静止状態での所定の機体の基準座標に対する周囲環境情報の位置情報を予め取得するアライメントが行われる。 Specifically, as shown in FIG. 7, the alignment device 202 acquires data related to alignment based on the attitude information and the directional information of the aircraft 200 (hereinafter, alignment data). The alignment data includes, for example, information such as an inclination angle of the aircraft 200 with respect to the reference coordinates of the body of the aircraft 200 when the aircraft 200 is not in flight. That is, alignment is performed in which the position information of the surrounding environment information with respect to the reference coordinates of the predetermined aircraft in the stationary state of the aircraft is acquired in advance.

アライメント装置202は、アライメント時のみ使用され、アライメント装置202には、航空機200のインターフェースから機体姿勢および方位情報が入力される。なお、ヘッドモーショントラッカ装置100自体が航空機200のインターフェースに直接的に接続されていてもよい。 The alignment device 202 is used only at the time of alignment, and the attitude and direction information of the aircraft is input to the alignment device 202 from the interface of the aircraft 200. The head motion tracker device 100 itself may be directly connected to the interface of the aircraft 200.

また、ヘッドモーショントラッカ装置100は、無線(たとえばWifi)または有線(たとえばイーサネット(登録商標))を介して、アライメント装置202からアライメントデータを取得している。 Further, the head motion tracker device 100 acquires alignment data from the alignment device 202 via wireless (for example, Wifi) or wired (for example, Ethernet (registered trademark)).

また、信号処理部7では、アライメント装置202から取得したアライメントデータ(機体姿勢および方位情報)および現フレーム画像の特徴点と、第1センサ6aにより検出されたカメラ3の傾斜角度および向きのデータとの対応付けが行われる。そして、信号処理部7(たとえば記憶部7d)に、現フレーム画像の特徴点の、所定の機体の基準座標に対する3次元座標および形状等の情報テーブル(上記アライメント情報の一例)が保持される。信号処理部7は、上記テーブルを参照することにより、所定の機体の基準座標に対する現在のフレームにおける頭部201aの位置および角度を算出する。具体的には、上記ステップS1(図4参照)および上記ステップS11(図5参照)の各々において上記テーブルの情報が考慮された状態で、頭部201aの位置および角度の算出が行われる。言い換えれば、現在のフレームにおける頭部201aの位置および角度は、上記テーブルの情報により補正された上記基準値に基づいて算出される。 In addition, the signal processing unit 7 includes alignment data (aircraft orientation and orientation information) acquired from the alignment device 202, feature points of the current frame image, and tilt angle and orientation data of the camera 3 detected by the first sensor 6a. Is associated with each other. Then, the signal processing unit 7 (for example, the storage unit 7d) holds an information table (an example of the above alignment information) such as the three-dimensional coordinates and the shape of the feature points of the current frame image with respect to the reference coordinates of the predetermined aircraft. The signal processing unit 7 calculates the position and angle of the head 201a in the current frame with respect to the reference coordinates of the predetermined aircraft by referring to the above table. Specifically, the position and angle of the head 201a are calculated in each of the steps S1 (see FIG. 4) and step S11 (see FIG. 5) in consideration of the information in the table. In other words, the position and angle of the head 201a in the current frame are calculated based on the reference value corrected by the information in the table.

なお、ヘッドモーショントラッカ100の使用時には、現在のフレームにおける頭部201aの位置および角度を算出において、航空機200が飛行時の機体姿勢、方向、加速度、および、角速度等の情報が参照(図3参照)される。 When using the head motion tracker 100, information such as the attitude, direction, acceleration, and angular velocity of the aircraft 200 when the aircraft 200 is flying is referred to in calculating the position and angle of the head 201a in the current frame (see FIG. 3). ).

(本実施形態の効果)
本実施形態では、以下のような効果を得ることができる。
(Effect of this embodiment)
In this embodiment, the following effects can be obtained.

本実施形態では、上記のように、ヘッドモーショントラッカ装置100は、操縦者201の頭部201aに装着され、画像を撮像するカメラ3を含む頭部装着部1を備える。また、ヘッドモーショントラッカ装置100は、現在のフレームにおいてカメラ3により撮像された現フレーム画像と、頭部装着部1の周囲の特徴点の情報を含む周囲環境情報、および、現在のフレームよりも前の前フレームにおいてカメラ3により撮像された前フレーム画像のうちの少なくとも一方とに基づいて、現在のフレームにおける頭部201aの位置および角度を算出する信号処理部7を備える。これにより、頭部装着部1以外の場所にカメラ3が設けられる場合と異なり、頭部201aの周囲の状態(たとえば、コックピット200aの形状、大きさ、コックピット200a内の装備等の位置)によって、カメラ3の取り付け位置およびカメラ3の取り付け方法を検討する必要がない。なお、カメラ3が頭部装着部1に含まれている場合でも、カメラ3により撮像された現フレーム画像と、周囲環境情報および前フレーム画像のうちの少なくとも一方とに基づいて、現在のフレームにおける頭部201aの位置および角度を算出することができる。その結果、カメラ3の取り付けを容易化しながら、頭部201aの動きを検出することができる。 In the present embodiment, as described above, the head motion tracker device 100 is mounted on the head 201a of the operator 201 and includes a head mounting portion 1 including a camera 3 for capturing an image. Further, the head motion tracker device 100 includes the current frame image captured by the camera 3 in the current frame, surrounding environment information including information on feature points around the head mounting portion 1, and before the current frame. A signal processing unit 7 is provided for calculating the position and angle of the head head 201a in the current frame based on at least one of the front frame images captured by the camera 3 in the front frame. As a result, unlike the case where the camera 3 is provided in a place other than the head mounting portion 1, depending on the state around the head 201a (for example, the shape and size of the cockpit 200a, the position of equipment in the cockpit 200a, etc.). It is not necessary to consider the mounting position of the camera 3 and the mounting method of the camera 3. Even when the camera 3 is included in the head-mounted portion 1, the current frame is based on the current frame image captured by the camera 3 and at least one of the surrounding environment information and the previous frame image. The position and angle of the head 201a can be calculated. As a result, the movement of the head 201a can be detected while facilitating the attachment of the camera 3.

また、本実施形態では、上記のように、信号処理部7を、現フレーム画像と、周囲環境情報および前フレーム画像のうちの少なくとも一方とを比較することにより、現在のフレームにおける頭部201aの位置および角度を算出するように構成する。これにより、周囲環境情報および前フレーム画像を基準に、現在のフレームにおける頭部201aの位置および角度を算出することができる。その結果、現在のフレームにおける頭部201aの位置および角度を容易に算出することができる。 Further, in the present embodiment, as described above, the signal processing unit 7 compares the current frame image with at least one of the surrounding environment information and the previous frame image to obtain the head 201a in the current frame. It is configured to calculate the position and angle. Thereby, the position and angle of the head 201a in the current frame can be calculated based on the surrounding environment information and the previous frame image. As a result, the position and angle of the head 201a in the current frame can be easily calculated.

また、本実施形態では、上記のように、信号処理部7を、周囲環境情報としての、操縦者201の周囲に設けられた装備品(再帰性反射体5、機体フレーム200b、キャノピー200c、および、ウィンドウ200d)の少なくとも位置情報に基づいて、現在のフレームの頭部201aの位置および角度を算出するように構成する。ここで、上記装備品の位置情報は、信号処理部7による制御中に変化しない情報である。したがって、上記装備品の位置情報に基づいて、現在のフレームの頭部201aの位置および角度を算出することによって、制御中に変化する情報に基づいて制御を行う場合に比べて、信号処理部7の制御を簡易化することができる。 Further, in the present embodiment, as described above, the signal processing unit 7 is provided with the equipment (retroreflective body 5, body frame 200b, canopy 200c, and canopy 200c) provided around the operator 201 as ambient environment information. , Window 200d), the position and angle of the head 201a of the current frame are calculated based on at least the position information. Here, the position information of the equipment is information that does not change during control by the signal processing unit 7. Therefore, by calculating the position and angle of the head 201a of the current frame based on the position information of the above-mentioned equipment, the signal processing unit 7 is compared with the case where the control is performed based on the information that changes during the control. It is possible to simplify the control of.

また、本実施形態では、上記のように、上記装備品としての、近赤外LED4から照射される近赤外光を照射方向に反射する再帰性反射体5を備えるように、ヘッドモーショントラッカ装置100を構成する。ここで、再帰性反射体5は、照射方向に近赤外光を反射するので、暗所においてもカメラ3により容易に視認される。また、再帰性反射体5を設けることによって、再帰性反射体5以外の部品がカメラ3により視認され難くなるので、カメラ3により取得可能な情報量が低減される。その結果、再帰性反射体5を設けることにより、暗所においても現在のフレームの頭部201aの位置および角度を算出することができるとともに、カメラ3により取得可能な情報量の低減に起因して上記算出における信号処理部7の処理の負荷を低減することができる。 Further, in the present embodiment, as described above, the head motion tracker device includes the retroreflector 5 that reflects the near-infrared light emitted from the near-infrared LED 4 in the irradiation direction as the above-mentioned equipment. Consists of 100. Here, since the retroreflector 5 reflects near-infrared light in the irradiation direction, it can be easily visually recognized by the camera 3 even in a dark place. Further, by providing the retroreflector 5, parts other than the retroreflector 5 are less likely to be visually recognized by the camera 3, so that the amount of information that can be acquired by the camera 3 is reduced. As a result, by providing the retroreflector 5, the position and angle of the head head 201a of the current frame can be calculated even in a dark place, and the amount of information that can be acquired by the camera 3 is reduced. The processing load of the signal processing unit 7 in the above calculation can be reduced.

また、本実施形態では、上記のように、再帰性反射体5が、透明な材質により形成されるように、ヘッドモーショントラッカ装置100を構成する。これにより、操縦者201の視認性が再帰性反射体5により阻害されるのを抑制することができる。 Further, in the present embodiment, as described above, the head motion tracker device 100 is configured so that the retroreflector 5 is formed of a transparent material. As a result, it is possible to prevent the visibility of the operator 201 from being hindered by the retroreflector 5.

また、本実施形態では、上記のように、信号処理部7を、初期のフレームの初期フレーム画像と周囲環境情報とに基づいて、初期のフレームにおける頭部201aの位置および角度の基準値を算出するとともに、上記基準値、および、前フレーム画像と現フレーム画像との比較結果に基づいて、現在のフレームの頭部201aの位置および角度を算出するように構成する。これにより、上記基準値を用いずに、前フレーム画像と現フレーム画像との比較結果だけに基づいて上記算出を行う場合に比べて、上記算出をより正確に行うことができる。 Further, in the present embodiment, as described above, the signal processing unit 7 calculates the reference value of the position and angle of the head 201a in the initial frame based on the initial frame image of the initial frame and the surrounding environment information. At the same time, the position and angle of the head head 201a of the current frame are calculated based on the above reference value and the comparison result between the previous frame image and the current frame image. As a result, the above calculation can be performed more accurately than in the case where the above calculation is performed based only on the comparison result between the previous frame image and the current frame image without using the above reference value.

また、本実施形態では、上記のように、信号処理部7を、前フレームにおける頭部201aの位置および角度と、センサ6の検出値とに基づいて、現在のフレームの頭部201aの概略的な位置および概略的な角度を算出するように構成する。さらに、信号処理部7を、現フレーム画像と、頭部201aの概略的な位置および概略的な角度に対応する周囲環境情報とを比較することにより、現在のフレームの頭部201aの位置および角度を算出するように構成する。これにより、現在のフレームの頭部201aの概略的な位置および概略的な角度を算出することにより、現フレーム画像が有する環境情報と、比較対象の周囲環境情報(すなわち上記概略的な位置および概略的な角度に対応する周囲環境情報)との差異を比較的小さくすることができる。その結果、現在のフレームの頭部201aの位置および角度の算出を速やかに、かつ、正確に行うことができる。 Further, in the present embodiment, as described above, the signal processing unit 7 approximates the head 201a of the current frame based on the position and angle of the head 201a in the front frame and the detection value of the sensor 6. It is configured to calculate various positions and approximate angles. Further, the signal processing unit 7 compares the current frame image with the ambient environment information corresponding to the approximate position and the approximate angle of the head 201a, whereby the position and angle of the head 201a of the current frame. Is configured to calculate. As a result, by calculating the approximate position and the approximate angle of the head 201a of the current frame, the environmental information of the current frame image and the surrounding environment information to be compared (that is, the above-mentioned approximate position and outline). It is possible to make the difference from the surrounding environment information corresponding to the target angle relatively small. As a result, the position and angle of the head head 201a of the current frame can be calculated quickly and accurately.

また、本実施形態では、上記のように、周囲環境情報が記憶されている記憶部7dを備えるように、ヘッドモーショントラッカ装置100を構成する。また、信号処理部7を、現在のフレームの頭部201aの位置および角度に対応する周囲環境情報が記憶部7dに記憶されていない場合に、周囲環境情報が記憶部7dに記憶されている頭部201aの位置および角度と、周囲環境情報が記憶部7dに記憶されている頭部201aの位置からの頭部201aの移動量Lと、現フレーム画像とに基づいて、現在のフレームの頭部201aの位置および角度を算出するとともに現在のフレームの頭部201aの位置および角度に対応する周囲環境情報の作成および記憶部7dへの登録を行うように構成する。これにより、現在のフレームの頭部201aの位置および角度に対応する周囲環境情報が記憶部7dに記憶されていない場合でも、現在よりも前のフレームにおける情報を用いることによって、現在のフレームの頭部201aの位置および角度を容易に算出することができる。さらに、頭部201aの位置および角度の算出とともに、現在のフレームの頭部201aの位置および角度に対応する周囲環境情報の作成および記憶部7dへの登録を行うことによって、次回以降の頭部201aの位置および角度の算出を容易化することができる。 Further, in the present embodiment, as described above, the head motion tracker device 100 is configured to include the storage unit 7d in which the ambient environment information is stored. Further, when the signal processing unit 7 does not store the ambient environment information corresponding to the position and angle of the head 201a of the current frame in the storage unit 7d, the head in which the ambient environment information is stored in the storage unit 7d. The head of the current frame is based on the position and angle of the unit 201a, the amount of movement L of the head 201a from the position of the head 201a in which the ambient environment information is stored in the storage unit 7d, and the current frame image. The position and angle of the 201a are calculated, and the ambient environment information corresponding to the position and angle of the head head 201a of the current frame is created and registered in the storage unit 7d. As a result, even if the surrounding environment information corresponding to the position and angle of the head 201a of the current frame is not stored in the storage unit 7d, the head of the current frame can be used by using the information in the frame before the present. The position and angle of the part 201a can be easily calculated. Further, by calculating the position and angle of the head 201a, creating the ambient environment information corresponding to the position and angle of the head 201a of the current frame, and registering the information in the storage unit 7d, the head 201a from the next time onward can be obtained. It is possible to facilitate the calculation of the position and angle of.

また、本実施形態では、上記のように、信号処理部7を、現在のフレームの頭部201aの位置および角度の算出が所定の時間内に行われなかった場合に、センサ6の検出値に基づいて補間することにより、前フレームにおける頭部201aの位置および角度から、現在のフレームの頭部201aの位置および角度を算出するように構成する。これにより、現在のフレームにおいて頭部201aの位置および角度の算出が所定の時間内に行われなかった場合でも、上記補間より、現在のフレームに対応する頭部201aの位置および角度を取得することができる。 Further, in the present embodiment, as described above, when the position and angle of the head head 201a of the current frame are not calculated within a predetermined time, the signal processing unit 7 is set to the detection value of the sensor 6. By interpolating based on the above, the position and angle of the head 201a of the current frame are calculated from the position and angle of the head 201a in the front frame. As a result, even if the position and angle of the head 201a are not calculated within the predetermined time in the current frame, the position and angle of the head 201a corresponding to the current frame can be obtained from the above interpolation. Can be done.

また、本実施形態では、上記のように、信号処理部7を、周囲環境情報のアライメント情報を予め取得し、取得したアライメント情報を反映した周囲環境情報を用いて頭部201aの位置および角度を算出するように構成する。これにより、アライメント情報が反映された周囲環境情報に基づいて頭部201aの位置および角度の算出を行うことによって、頭部201aの位置および角度をより正確に算出することができる。 Further, in the present embodiment, as described above, the signal processing unit 7 acquires the alignment information of the surrounding environment information in advance, and uses the ambient environment information reflecting the acquired alignment information to determine the position and angle of the head 201a. Configure to calculate. As a result, the position and angle of the head 201a can be calculated more accurately by calculating the position and angle of the head 201a based on the surrounding environment information in which the alignment information is reflected.

また、本実施形態では、上記のように、カメラ3が、頭部装着部1に複数設けられるように、ヘッドモーショントラッカ装置100を構成する。これにより、頭部装着部1にカメラ3が1つだけ設けられている場合に比べて、頭部から見てより広範囲の領域の画像を取得することができる。 Further, in the present embodiment, as described above, the head motion tracker device 100 is configured so that a plurality of cameras 3 are provided on the head mounting portion 1. As a result, it is possible to acquire an image of a wider area when viewed from the head, as compared with the case where only one camera 3 is provided on the head mounting portion 1.

また、本実施形態では、上記のように、カメラ3を、可視領域の波長から非可視領域の波長までの光を検出可能に構成する。これにより、昼間等の周囲が明るい場合においては頭部の周囲の画像を可視光を用いてカメラ3により撮像することができる。さらに、夜間等の周囲が暗いため可視画像の取得が困難な場合にも、頭部の周囲の画像を非可視光を用いてカメラ3により容易に撮像することができる。 Further, in the present embodiment, as described above, the camera 3 is configured to be capable of detecting light from a wavelength in the visible region to a wavelength in the invisible region. As a result, when the surroundings are bright such as in the daytime, the image around the head can be captured by the camera 3 using visible light. Further, even when it is difficult to acquire a visible image due to the dark surroundings such as at night, the image around the head can be easily captured by the camera 3 using invisible light.

(変形例)
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく、特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
(Modification example)
It should be noted that the embodiments disclosed this time are exemplary in all respects and are not considered to be restrictive. The scope of the present invention is shown by the scope of claims, not the description of the above-described embodiment, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims.

たとえば、上記実施形態では、近赤外光(非可視光)が照射される近赤外LED4(光源部)が設けられている例を示したが、本発明はこれに限られない。たとえば、光源部は、紫外線を照射し、カメラは紫外線対応可能なもので構成してもよい。 For example, in the above embodiment, an example in which a near-infrared LED 4 (light source unit) irradiated with near-infrared light (invisible light) is provided, but the present invention is not limited to this. For example, the light source unit may be irradiated with ultraviolet rays, and the camera may be configured to be compatible with ultraviolet rays.

また、上記実施形態では、航空機200における構成を例に示したが、本発明はこれに限られない。たとえば、自動車、船舶、および、シミュレータ等に上記実施形態に記載のヘッドモーショントラッカ装置が用いられてもよい。 Further, in the above embodiment, the configuration of the aircraft 200 is shown as an example, but the present invention is not limited to this. For example, the head motion tracker device described in the above embodiment may be used in automobiles, ships, simulators, and the like.

また、上記実施形態では、カメラ3(撮像部)が頭部装着部1に2つ設けられる例を示したが、本発明はこれに限られない。たとえば、カメラ3(撮像部)は、頭部装着部1に1つ、または、3つ以上設けられていてもよい。また、カメラ3とは異なる個数の近赤外LED4(光源部)が設けられていてもよい。 Further, in the above embodiment, an example is shown in which two cameras 3 (imaging units) are provided on the head mounting unit 1, but the present invention is not limited to this. For example, one or three or more cameras 3 (imaging unit) may be provided on the head mounting unit 1. Further, a different number of near-infrared LEDs 4 (light source unit) than the camera 3 may be provided.

また、上記実施形態では、信号処理部7は、頭部装着部1に内蔵されている例を示したが、本発明はこれに限られない。信号処理部7は、頭部装着部1の外部に設けられていてもよい。 Further, in the above embodiment, the signal processing unit 7 is incorporated in the head mounting unit 1, but the present invention is not limited to this. The signal processing unit 7 may be provided outside the head mounting unit 1.

また、上記実施形態では、カメラ3(撮像部)の傾斜角度、カメラ3(撮像部)の向き、頭部装着部1の加速度、および、頭部装着部1の角速度がセンサ6により検出される例を示したが、本発明はこれに限られない。カメラ3(撮像部)の傾斜角度、カメラ3(撮像部)の向き、頭部装着部1の加速度、および、頭部装着部1の角速度のうちの一部だけがセンサ6により検出されてもよい。 Further, in the above embodiment, the tilt angle of the camera 3 (imaging unit), the orientation of the camera 3 (imaging unit), the acceleration of the head mounting portion 1, and the angular velocity of the head mounting portion 1 are detected by the sensor 6. Although an example is shown, the present invention is not limited to this. Even if only a part of the tilt angle of the camera 3 (imaging unit), the orientation of the camera 3 (imaging unit), the acceleration of the head mounting unit 1, and the angular velocity of the head mounting unit 1 is detected by the sensor 6. Good.

また、上記実施形態では、説明の便宜上、信号処理部7による処理を「フロー駆動型」のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、信号処理部7の処理をイベント単位で実行する「イベント駆動型」により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。 Further, in the above embodiment, for convenience of explanation, the processing by the signal processing unit 7 has been described by using a “flow-driven” flowchart, but the present invention is not limited to this. In the present invention, the processing of the signal processing unit 7 may be performed by an "event-driven type" that executes the processing in event units. In this case, it may be completely event-driven, or it may be a combination of event-driven and flow-driven.

[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
[Aspect]
It will be understood by those skilled in the art that the above exemplary embodiments are specific examples of the following embodiments.

(項目1)
装着者の頭部に装着され、画像を撮像する撮像部を含む頭部装着部と、
現在のフレームにおいて前記撮像部により撮像された現フレーム画像と、前記頭部装着部の周囲の特徴点の情報を含む周囲環境情報、および、前記現在のフレームよりも前の前フレームにおいて前記撮像部により撮像された前フレーム画像のうちの少なくとも一方とに基づいて、前記現在のフレームにおける前記頭部の位置および角度を算出する信号処理部と、を備える、ヘッドモーショントラッカ装置。
(Item 1)
A head-mounted part that is attached to the wearer's head and includes an imaging part that captures an image,
The current frame image captured by the imaging unit in the current frame, surrounding environment information including information on feature points around the head-mounted portion, and the imaging unit in a front frame prior to the current frame. A head motion tracker device comprising a signal processing unit that calculates the position and angle of the head in the current frame based on at least one of the previous frame images captured by.

(項目2)
前記信号処理部は、前記現フレーム画像と、前記周囲環境情報および前記前フレーム画像のうちの少なくとも一方とを比較することにより、前記現在のフレームにおける前記頭部の位置および角度を算出するように構成されている、項目1に記載のヘッドモーショントラッカ装置。
(Item 2)
The signal processing unit calculates the position and angle of the head in the current frame by comparing the current frame image with at least one of the surrounding environment information and the previous frame image. The head motion tracker device according to item 1, which is configured.

(項目3)
前記信号処理部は、前記周囲環境情報としての、前記装着者の周囲に設けられた装備品の少なくとも位置情報に基づいて、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、項目1または2に記載のヘッドモーショントラッカ装置。
(Item 3)
The signal processing unit is configured to calculate the position and angle of the head of the current frame based on at least the position information of the equipment provided around the wearer as the ambient environment information. The head motion tracker device according to item 1 or 2.

(項目4)
前記頭部装着部は、前記撮像部と隣接するように設けられ、前記撮像部の撮像方向に非可視光を照射する光源部を含み、
前記装備品としての、前記光源部から照射される前記非可視光を照射方向に反射する再帰性反射体をさらに備える、項目3に記載のヘッドモーショントラッカ装置。
(Item 4)
The head-mounted portion is provided adjacent to the imaging unit, and includes a light source unit that irradiates invisible light in the imaging direction of the imaging unit.
The head motion tracker device according to item 3, further comprising a retroreflector that reflects the invisible light emitted from the light source unit in the irradiation direction as the equipment.

(項目5)
前記再帰性反射体は、透明な材質により形成されている、項目4に記載のヘッドモーショントラッカ装置。
(Item 5)
The head motion tracker device according to item 4, wherein the retroreflector is made of a transparent material.

(項目6)
前記信号処理部は、初期のフレームの初期フレーム画像と前記周囲環境情報とに基づいて、前記初期のフレームにおける前記頭部の位置および角度の基準値を算出するとともに、前記基準値、および、前記前フレーム画像と前記現フレーム画像との比較結果に基づいて、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、項目1〜5のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 6)
The signal processing unit calculates a reference value of the position and angle of the head in the initial frame based on the initial frame image of the initial frame and the ambient environment information, and also calculates the reference value and the reference value. The item according to any one of items 1 to 5, which is configured to calculate the position and angle of the head of the current frame based on the comparison result between the previous frame image and the current frame image. Head motion tracker device.

(項目7)
前記頭部装着部は、前記撮像部の傾斜角度、前記撮像部の向き、前記頭部装着部の加速度、および、前記頭部装着部の角速度のうちの少なくとも1つを検出するセンサを含み、
前記信号処理部は、前記前フレームにおける前記頭部の位置および角度と、前記センサの検出値とに基づいて、前記現在のフレームの前記頭部の概略的な位置および概略的な角度を算出するとともに、前記現フレーム画像と、前記頭部の前記概略的な位置および前記概略的な角度に対応する前記周囲環境情報とを比較することにより、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、項目1〜6のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 7)
The head-mounted portion includes a sensor that detects at least one of the tilt angle of the imaging unit, the orientation of the imaging unit, the acceleration of the head-mounted portion, and the angular velocity of the head-mounted portion.
The signal processing unit calculates the approximate position and the approximate angle of the head of the current frame based on the position and angle of the head in the front frame and the detection value of the sensor. At the same time, by comparing the current frame image with the approximate position of the head and the ambient environment information corresponding to the approximate angle, the position and angle of the head of the current frame can be determined. The head motion tracker device according to any one of items 1 to 6, which is configured to be calculated.

(項目8)
前記周囲環境情報が記憶されている記憶部をさらに備え、
前記信号処理部は、前記現在のフレームの前記頭部の位置および角度に対応する前記周囲環境情報が前記記憶部に記憶されていない場合に、前記周囲環境情報が前記記憶部に記憶されている前記頭部の位置および角度と、前記周囲環境情報が前記記憶部に記憶されている前記頭部の位置からの前記頭部の移動量と、前記現フレーム画像とに基づいて、前記現在のフレームの前記頭部の位置および角度を算出するとともに前記現在のフレームの前記周囲環境情報の作成および前記記憶部への登録を行うように構成されている、項目7に記載のヘッドモーショントラッカ装置。
(Item 8)
Further provided with a storage unit for storing the surrounding environment information,
When the ambient environment information corresponding to the position and angle of the head of the current frame is not stored in the storage unit, the signal processing unit stores the ambient environment information in the storage unit. The current frame based on the position and angle of the head, the amount of movement of the head from the position of the head in which the ambient environment information is stored in the storage unit, and the current frame image. The head motion tracker device according to item 7, which is configured to calculate the position and angle of the head of the head, create the surrounding environment information of the current frame, and register the information in the storage unit.

(項目9)
前記頭部装着部は、前記撮像部の傾斜角度、前記撮像部の向き、前記頭部装着部の加速度、および、前記頭部装着部の角速度のうちの少なくとも1つを検出するセンサを含み、
前記信号処理部は、前記現在のフレームの前記頭部の位置および角度の算出が所定の時間内に行われなかった場合に、前記センサの検出値に基づいて補間することにより、前記前フレームにおける前記頭部の位置および角度から、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、項目1〜8のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 9)
The head-mounted portion includes a sensor that detects at least one of the tilt angle of the imaging unit, the orientation of the imaging unit, the acceleration of the head-mounted portion, and the angular velocity of the head-mounted portion.
When the position and angle of the head of the current frame are not calculated within a predetermined time, the signal processing unit performs interpolation based on the detected value of the sensor in the previous frame. The head motion tracker device according to any one of items 1 to 8, which is configured to calculate the position and angle of the head of the current frame from the position and angle of the head.

(項目10)
前記信号処理部は、前記周囲環境情報のアライメント情報を予め取得し、取得された前記アライメント情報を反映した周囲環境情報を用いて前記頭部の位置および角度を算出するように構成されている、項目1〜9のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 10)
The signal processing unit is configured to acquire alignment information of the surrounding environment information in advance and calculate the position and angle of the head using the acquired surrounding environment information reflecting the alignment information. The head motion tracker device according to any one of items 1 to 9.

(項目11)
前記撮像部は、前記頭部装着部に複数設けられている、項目1〜10のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 11)
The head motion tracker device according to any one of items 1 to 10, wherein a plurality of the imaging units are provided on the head mounting unit.

(項目12)
前記撮像部は、可視領域の波長から非可視領域の波長までの光を検出可能に構成されている、項目1〜11のいずれか1項に記載のヘッドモーショントラッカ装置。
(Item 12)
The head motion tracker device according to any one of items 1 to 11, wherein the imaging unit is configured to be capable of detecting light from a wavelength in the visible region to a wavelength in the invisible region.

1 頭部装着部
3 カメラ(撮像部)
4 近赤外LED(光源部)
5 再帰性反射体
6 センサ
7 信号処理部
7d 記憶部
100 ヘッドモーショントラッカ装置
200 航空機(機体)
201 操縦者(装着者)
201a 頭部
L 移動量
1 Head-mounted part 3 Camera (imaging part)
4 Near infrared LED (light source)
5 Retroreflector 6 Sensor 7 Signal processing unit 7d Storage unit 100 Head motion tracker device 200 Aircraft (airframe)
201 Pilot (wearer)
201a Head L movement amount

Claims (12)

装着者の頭部に装着され、画像を撮像する撮像部を含む頭部装着部と、
現在のフレームにおいて前記撮像部により撮像された現フレーム画像と、前記頭部装着部の周囲の特徴点の情報を含む周囲環境情報、および、前記現在のフレームよりも前の前フレームにおいて前記撮像部により撮像された前フレーム画像のうちの少なくとも一方とに基づいて、前記現在のフレームにおける前記頭部の位置および角度を算出する信号処理部と、を備える、ヘッドモーショントラッカ装置。
A head-mounted part that is attached to the wearer's head and includes an imaging part that captures an image,
The current frame image captured by the imaging unit in the current frame, surrounding environment information including information on feature points around the head-mounted portion, and the imaging unit in a front frame prior to the current frame. A head motion tracker device comprising a signal processing unit that calculates the position and angle of the head in the current frame based on at least one of the previous frame images captured by.
前記信号処理部は、前記現フレーム画像と、前記周囲環境情報および前記前フレーム画像のうちの少なくとも一方とを比較することにより、前記現在のフレームにおける前記頭部の位置および角度を算出するように構成されている、請求項1に記載のヘッドモーショントラッカ装置。 The signal processing unit calculates the position and angle of the head in the current frame by comparing the current frame image with at least one of the surrounding environment information and the previous frame image. The head motion tracker device according to claim 1, which is configured. 前記信号処理部は、前記周囲環境情報としての、前記装着者の周囲に設けられた装備品の少なくとも位置情報に基づいて、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、請求項1または2に記載のヘッドモーショントラッカ装置。 The signal processing unit is configured to calculate the position and angle of the head of the current frame based on at least the position information of the equipment provided around the wearer as the ambient environment information. The head motion tracker device according to claim 1 or 2. 前記頭部装着部は、前記撮像部と隣接するように設けられ、前記撮像部の撮像方向に非可視光を照射する光源部を含み、
前記装備品としての、前記光源部から照射される前記非可視光を照射方向に反射する再帰性反射体をさらに備える、請求項3に記載のヘッドモーショントラッカ装置。
The head-mounted portion is provided adjacent to the imaging unit, and includes a light source unit that irradiates invisible light in the imaging direction of the imaging unit.
The head motion tracker device according to claim 3, further comprising a retroreflector that reflects the invisible light emitted from the light source unit in the irradiation direction as the equipment.
前記再帰性反射体は、透明な材質により形成されている、請求項4に記載のヘッドモーショントラッカ装置。 The head motion tracker device according to claim 4, wherein the retroreflector is made of a transparent material. 前記信号処理部は、初期のフレームの初期フレーム画像と前記周囲環境情報とに基づいて、前記初期のフレームにおける前記頭部の位置および角度の基準値を算出するとともに、前記基準値、および、前記前フレーム画像と前記現フレーム画像との比較結果に基づいて、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、請求項1〜5のいずれか1項に記載のヘッドモーショントラッカ装置。 The signal processing unit calculates a reference value of the position and angle of the head in the initial frame based on the initial frame image of the initial frame and the ambient environment information, and also calculates the reference value and the reference value. The invention according to any one of claims 1 to 5, which is configured to calculate the position and angle of the head of the current frame based on the result of comparison between the previous frame image and the current frame image. Head motion tracker device. 前記頭部装着部は、前記撮像部の傾斜角度、前記撮像部の向き、前記頭部装着部の加速度、および、前記頭部装着部の角速度のうちの少なくとも1つを検出するセンサを含み、
前記信号処理部は、前記前フレームにおける前記頭部の位置および角度と、前記センサの検出値とに基づいて、前記現在のフレームの前記頭部の概略的な位置および概略的な角度を算出するとともに、前記現フレーム画像と、前記頭部の前記概略的な位置および前記概略的な角度に対応する前記周囲環境情報とを比較することにより、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、請求項1〜6のいずれか1項に記載のヘッドモーショントラッカ装置。
The head-mounted portion includes a sensor that detects at least one of the tilt angle of the imaging unit, the orientation of the imaging unit, the acceleration of the head-mounted portion, and the angular velocity of the head-mounted portion.
The signal processing unit calculates the approximate position and the approximate angle of the head of the current frame based on the position and angle of the head in the front frame and the detection value of the sensor. At the same time, by comparing the current frame image with the approximate position of the head and the ambient environment information corresponding to the approximate angle, the position and angle of the head of the current frame can be determined. The head motion tracker device according to any one of claims 1 to 6, which is configured to be calculated.
前記周囲環境情報が記憶されている記憶部をさらに備え、
前記信号処理部は、前記現在のフレームの前記頭部の位置および角度に対応する前記周囲環境情報が前記記憶部に記憶されていない場合に、前記周囲環境情報が前記記憶部に記憶されている前記頭部の位置および角度と、前記周囲環境情報が前記記憶部に記憶されている前記頭部の位置からの前記頭部の移動量と、前記現フレーム画像とに基づいて、前記現在のフレームの前記頭部の位置および角度を算出するとともに前記現在のフレームの前記周囲環境情報の作成および前記記憶部への登録を行うように構成されている、請求項7に記載のヘッドモーショントラッカ装置。
Further provided with a storage unit for storing the surrounding environment information,
When the ambient environment information corresponding to the position and angle of the head of the current frame is not stored in the storage unit, the signal processing unit stores the ambient environment information in the storage unit. The current frame based on the position and angle of the head, the amount of movement of the head from the position of the head in which the ambient environment information is stored in the storage unit, and the current frame image. The head motion tracker device according to claim 7, wherein the position and angle of the head of the head are calculated, and the ambient environment information of the current frame is created and registered in the storage unit.
前記頭部装着部は、前記撮像部の傾斜角度、前記撮像部の向き、前記頭部装着部の加速度、および、前記頭部装着部の角速度のうちの少なくとも1つを検出するセンサを含み、
前記信号処理部は、前記現在のフレームの前記頭部の位置および角度の算出が所定の時間内に行われなかった場合に、前記センサの検出値に基づいて補間することにより、前記前フレームにおける前記頭部の位置および角度から、前記現在のフレームの前記頭部の位置および角度を算出するように構成されている、請求項1〜8のいずれか1項に記載のヘッドモーショントラッカ装置。
The head-mounted portion includes a sensor that detects at least one of the tilt angle of the imaging unit, the orientation of the imaging unit, the acceleration of the head-mounted portion, and the angular velocity of the head-mounted portion.
When the position and angle of the head of the current frame are not calculated within a predetermined time, the signal processing unit performs interpolation based on the detected value of the sensor in the previous frame. The head motion tracker device according to any one of claims 1 to 8, which is configured to calculate the position and angle of the head of the current frame from the position and angle of the head.
前記信号処理部は、前記周囲環境情報のアライメント情報を予め取得し、取得した前記アライメント情報を反映した前記周囲環境情報を用いて前記頭部の位置および角度を算出するように構成されている、請求項1〜9のいずれか1項に記載のヘッドモーショントラッカ装置。 The signal processing unit is configured to acquire alignment information of the surrounding environment information in advance and calculate the position and angle of the head using the surrounding environment information reflecting the acquired alignment information. The head motion tracker device according to any one of claims 1 to 9. 前記撮像部は、前記頭部装着部に複数設けられている、請求項1〜10のいずれか1項に記載のヘッドモーショントラッカ装置。 The head motion tracker device according to any one of claims 1 to 10, wherein a plurality of the image pickup units are provided on the head mounting portion. 前記撮像部は、可視領域の波長から非可視領域の波長までの光を検出可能に構成されている、請求項1〜11のいずれか1項に記載のヘッドモーショントラッカ装置。 The head motion tracker device according to any one of claims 1 to 11, wherein the imaging unit is configured to be capable of detecting light from a wavelength in the visible region to a wavelength in the invisible region.
JP2019135537A 2019-07-23 2019-07-23 Head motion tracker device Active JP7334521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019135537A JP7334521B2 (en) 2019-07-23 2019-07-23 Head motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019135537A JP7334521B2 (en) 2019-07-23 2019-07-23 Head motion tracker device

Publications (2)

Publication Number Publication Date
JP2021018206A true JP2021018206A (en) 2021-02-15
JP7334521B2 JP7334521B2 (en) 2023-08-29

Family

ID=74563158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019135537A Active JP7334521B2 (en) 2019-07-23 2019-07-23 Head motion tracker device

Country Status (1)

Country Link
JP (1) JP7334521B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184307A (en) * 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk Head-mounted optical device
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2003281504A (en) * 2002-03-22 2003-10-03 Canon Inc Image pickup portion position and attitude estimating device, its control method and composite reality presenting system
JP2003344018A (en) * 2003-04-04 2003-12-03 Canon Inc Unit and method for image processing as well as program and storage medium
JP2004289733A (en) * 2003-03-25 2004-10-14 Clarion Co Ltd Vehicle periphery-monitoring apparatus
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2016183890A (en) * 2015-03-26 2016-10-20 日産自動車株式会社 Self-position calculation device and self-position calculation method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1184307A (en) * 1997-09-01 1999-03-26 M R Syst Kenkyusho:Kk Head-mounted optical device
JP2000347128A (en) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk Head mount display device and head mount display system
JP2003281504A (en) * 2002-03-22 2003-10-03 Canon Inc Image pickup portion position and attitude estimating device, its control method and composite reality presenting system
JP2004289733A (en) * 2003-03-25 2004-10-14 Clarion Co Ltd Vehicle periphery-monitoring apparatus
JP2003344018A (en) * 2003-04-04 2003-12-03 Canon Inc Unit and method for image processing as well as program and storage medium
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2016183890A (en) * 2015-03-26 2016-10-20 日産自動車株式会社 Self-position calculation device and self-position calculation method

Also Published As

Publication number Publication date
JP7334521B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
ES2929891T3 (en) Eye Tracking Wearable Devices
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
JP4533762B2 (en) Variable transmittance window system
JP6445607B2 (en) Vehicle display system and method for controlling vehicle display system
KR20150122975A (en) Hmd and method for controlling the same
WO2014130049A1 (en) Systems and methods for augmented rear-view displays
JPWO2020031740A1 (en) Control devices and control methods, as well as programs
KR102159767B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11024040B2 (en) Dynamic object tracking
US9626783B2 (en) Helmet-used device capable of automatically adjusting positions of displayed information and helmet thereof
US11579449B2 (en) Systems and methods for providing mixed-reality experiences under low light conditions
KR20230025697A (en) Blind Assistance Eyewear with Geometric Hazard Detection
US20200357179A1 (en) Viewing device for aircraft pilot
US20230412778A1 (en) Projector with field lens
US20190188506A1 (en) A vehicle-mounted display system and method for preventing vehicular accidents
JP7334521B2 (en) Head motion tracker device
CN113853548A (en) Dimming light that disturbs the viewer's vision
JP2009036517A (en) Head motion tracker device
US20160344987A1 (en) Special Environment Projection System
US20220319364A1 (en) Eyewear projector brightness control
KR20200111144A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US20230168522A1 (en) Eyewear with direction of sound arrival detection
US20230063386A1 (en) Eyewear synchronized with uav image capturing system
US20240169659A1 (en) Wearable terminal device, program, and display method
EP3812824A1 (en) Night vision compatible short-wave infrared eye tracking system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R151 Written notification of patent or utility model registration

Ref document number: 7334521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151