JP2013160513A - Motion tracker device - Google Patents

Motion tracker device Download PDF

Info

Publication number
JP2013160513A
JP2013160513A JP2012019850A JP2012019850A JP2013160513A JP 2013160513 A JP2013160513 A JP 2013160513A JP 2012019850 A JP2012019850 A JP 2012019850A JP 2012019850 A JP2012019850 A JP 2012019850A JP 2013160513 A JP2013160513 A JP 2013160513A
Authority
JP
Japan
Prior art keywords
optical
coordinate system
optical marker
head
helmet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012019850A
Other languages
Japanese (ja)
Inventor
Naohiro Kamiya
直浩 神谷
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2012019850A priority Critical patent/JP2013160513A/en
Publication of JP2013160513A publication Critical patent/JP2013160513A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a motion tracker device which exerts no influence on a night vision device.SOLUTION: A motion tracker device 1 includes an object 30 to which a first coordinate system is set, three or more pieces of optical markers which are positioned in the first coordinate system and attached to the object 30, a camera device 12 to which a second coordinate system is set so as to detect beams from the optical markers in stereoscopic vision, an optical marker positional information calculation part 41b which calculates the optical marker positional information including each of the present positions of the three or more pieces of optical markers in the second coordinate system on the basis of the detected beams, and a relative information calculation part 41c which calculates the relative information including the present positions and the present angles of the object 30 in the second coordinate system on the basis of the optical marker positional information. The optical marker includes a semiconductor laser which oscillates laser beams and an optical element which is disposed in front of the semiconductor laser so as to diverge the laser beams.

Description

本発明は、光学方式のモーショントラッカ装置(以下、MT装置ともいう)に関し、さらに詳細には、光学マーカーの現在位置及び現在角度を検出する機能を備える光学方式のMT装置に関する。本発明は、例えば、乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、現在の頭部位置及び頭部角度)を検出するヘッドモーショントラッカ装置(以下、HMT装置ともいう)等に利用される。
ここで、光学方式のHMT装置とは、光学マーカーを取り付けたヘルメット等を頭部に装着して、光学マーカーの位置を立体視が可能なカメラ装置で測定することにより、頭部の動きを追跡する装置等のことをいう。
The present invention relates to an optical motion tracker device (hereinafter also referred to as an MT device), and more particularly to an optical MT device having a function of detecting a current position and a current angle of an optical marker. The present invention relates to a head motion tracker device (hereinafter referred to as an HMT device) that detects a current position and a current angle (that is, a current head position and a head angle) of a helmet with a head-mounted display device used in, for example, a vehicle. Also used).
Here, the optical HMT device is a head mounted with a helmet or the like with an optical marker attached, and the movement of the head is tracked by measuring the position of the optical marker with a camera device capable of stereoscopic viewing. This refers to devices that perform such operations.

時々刻々と変動する物体の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機ではバーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要がある。よって、頭部装着型表示装置付ヘルメット(対象物)の現在位置や現在角度を測定するために、HMT装置が利用されている。   A technique for accurately measuring the current position and current angle of an object that changes from moment to moment is used in various fields. For example, in a game machine, in order to realize virtual reality (VR), an image is displayed by using a helmet with a head-mounted display device. At this time, it is necessary to change the image in accordance with the current position and the current angle of the head mounted display-equipped helmet. Therefore, the HMT device is used to measure the current position and the current angle of the head-mounted helmet with a display device (target object).

また、救難飛行艇(移動体)による救難活動では、発見した救難目標を見失わないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応したときにロックすることによって、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、救難飛行艇の緯度、経度、高度、姿勢に加えて、救難飛行艇に設定された相対座標系に対するパイロット(搭乗者)の頭部角度及び頭部位置を測定している。このときにHMT装置が利用されている。   Also, in the rescue operation by the rescue flying boat (moving body), it is locked when the aiming image displayed by the helmet with head mounted display device corresponds to the rescue target so as not to lose sight of the discovered rescue target. By doing so, the position of the locked rescue target is calculated. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude and attitude of the rescue flight boat, the pilot (passenger) head angle with respect to the relative coordinate system set for the rescue flight boat and The head position is measured. At this time, the HMT apparatus is used.

頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている(例えば、特許文献1参照)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として発光体であるLED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、頭部装着型表示装置付ヘルメットにおける3個のLEDの相対的な位置関係をHMT装置に予め記憶させておく。そして、これら3個のLEDを、立体視が可能でかつ設置場所が固定された第一カメラと第二カメラ(カメラ装置)で同時に撮影することで、所謂、三角測量の原理により、カメラ装置に対する3個のLEDの相対的な現在の位置関係を測定している。これにより、カメラ装置に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を特定している。   As an HMT device used for a helmet with a head-mounted display device, an apparatus that optically measures the current position and current angle of the helmet with a head-mounted display device is disclosed (for example, see Patent Document 1). ). Specifically, on the outer peripheral surface of the helmet with a head-mounted display device, LEDs (light-emitting diodes) that are light emitters as optical marker groups are attached to three locations so as to be separated from each other, and the head-mounted display device The relative positional relationship of the three LEDs in the attached helmet is stored in advance in the HMT device. And by photographing these three LEDs simultaneously with the first camera and the second camera (camera device) that can be stereoscopically viewed and fixed in place, the so-called triangulation principle is applied to the camera device. The relative current position of the three LEDs is measured. Thereby, the current position and the current angle of the helmet with a head-mounted display device with respect to the camera device are specified.

また、救難飛行艇等では、パイロットが夜間等の環境下でも外界(救難目標)を視認できるように暗視装置を装着することがある。このような暗視装置は、境界波長(例えば、610nmや635nm等)よりも長波長の光を増幅するものである。よって、境界波長より長波長の光の総量が規定値を超えないようにしなければならない。   Further, in a rescue flying boat, a night vision device may be mounted so that a pilot can visually recognize the outside world (rescue target) even in an environment such as nighttime. Such a night vision apparatus amplifies light having a wavelength longer than the boundary wavelength (for example, 610 nm, 635 nm, or the like). Therefore, the total amount of light having a wavelength longer than the boundary wavelength must not exceed the specified value.

特願2006−284442号公報Japanese Patent Application No. 2006-284442

ところで、上述したような光学方式のHMT装置では、頭部装着型表示装置付ヘルメットの外周面上にLEDが取り付けられている。ここで、図6は、LEDの発光スペクトル強度特性を示す図である。LEDの発光分布は、その材料や製造方法に依存するが、ピークを有するものの、その波長分布は広い波長領域に渡っている。すなわち、LEDは、発光中心波長が境界波長より短波長であっても、暗視装置に影響を与えてしまう。   By the way, in the optical HMT device as described above, LEDs are attached on the outer peripheral surface of the helmet with a head-mounted display device. Here, FIG. 6 is a diagram showing an emission spectrum intensity characteristic of the LED. The light emission distribution of the LED depends on its material and manufacturing method, but has a peak, but its wavelength distribution covers a wide wavelength region. That is, the LED affects the night vision device even if the emission center wavelength is shorter than the boundary wavelength.

本件発明者らは、上記課題を解決するために、暗視装置に影響を与えない光学方式のHMT装置について鋭意検討を行った。まず、頭部装着型表示装置付ヘルメットの外周面上に、広い波長領域に渡るLEDに代えて、狭い波長領域となる半導体レーザ(LD)を取り付けた。図7は、LDの発光スペクトル強度特性を示す図である。LDの発光分布は、単一波長と表現してよい程、極めて狭い波長領域となる。   In order to solve the above-mentioned problems, the present inventors diligently studied an optical HMT device that does not affect the night vision device. First, instead of the LED over a wide wavelength region, a semiconductor laser (LD) having a narrow wavelength region was attached to the outer peripheral surface of the helmet with a head-mounted display device. FIG. 7 is a diagram showing an emission spectrum intensity characteristic of the LD. The light emission distribution of the LD becomes an extremely narrow wavelength region as it can be expressed as a single wavelength.

しかし、LDの指向性能はLEDの指向性能と比較して直進性が強く、第一カメラと第二カメラとで同時に撮影できる領域が狭くなる。その結果、救難飛行艇に搭乗するパイロットの頭部の動きを充分に追跡することができなくなるという問題点が発生した。そこで、レーザ光を発散させるボールレンズ等の光学素子をLDの前方に配置することにした。これにより、LDでも幅広い指向性能を達成することができた。すなわち、光学マーカーとして、レーザ光を発振(出射)する半導体レーザとレーザ光を発散させる光学素子とを組み合わせて用いることを見出した。   However, the directivity of the LD is more straight ahead than the directivity of the LED, and the area that can be photographed simultaneously by the first camera and the second camera is narrowed. As a result, there was a problem that it was impossible to sufficiently track the movement of the pilot's head on the rescue flight boat. Therefore, an optical element such as a ball lens that diverges the laser light is arranged in front of the LD. As a result, a wide directivity performance can be achieved even in the LD. That is, it has been found that a semiconductor laser that oscillates (emits) laser light and an optical element that emits laser light are used in combination as an optical marker.

すなわち、本発明のモーショントラッカ装置は、第一座標系が設定された対象物と、前記第一座標系に位置決めされて対象物に取り付けられた3個以上の光学マーカーと、第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、前記光学マーカーは、レーザ光を発振する半導体レーザと、当該半導体レーザの前方に配置され、レーザ光を発散させる光学素子とを有するようにしている。   That is, the motion tracker of the present invention includes an object having a first coordinate system, three or more optical markers positioned on the object and positioned on the first coordinate system, and a second coordinate system. An optical marker position information including a current position of each of the three or more optical markers in the second coordinate system on the basis of the camera device that is set and detects the light beam from the optical marker in a stereoscopic view. A motion tracker comprising: an optical marker position information calculation unit that calculates a relative information calculation unit that calculates relative information including a current position and a current angle of an object in the second coordinate system based on the optical marker position information The optical marker is a semiconductor laser that oscillates laser light, and light that is disposed in front of the semiconductor laser and diverges the laser light. It is to have an element.

以上のように、本発明のモーショントラッカ装置によれば、狭い波長領域となるレーザ光を発振する半導体レーザを用いているので、レーザ光の発光中心波長が暗視装置の感度帯域を外れていれば、暗視装置に影響を与えない。また、レーザ光を光学素子を用いて点光源化することができ、その結果、カメラ装置での光学マーカーの位置の検出精度を向上させることができる。   As described above, according to the motion tracker device of the present invention, since the semiconductor laser that oscillates a laser beam having a narrow wavelength region is used, the emission center wavelength of the laser beam can be out of the sensitivity band of the night vision device. Thus, the night vision device is not affected. Further, the laser light can be converted into a point light source using an optical element, and as a result, the detection accuracy of the position of the optical marker in the camera device can be improved.

(他の課題を解決するための手段及び効果)
また、上記の発明において、前記光学素子は、ボールレンズであるようにしてもよい。
また、上記の発明において、前記対象物は、搭乗者の頭部に装着されるヘルメットであり、前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられているようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the optical element may be a ball lens.
In the invention described above, the object may be a helmet that is attached to a passenger's head, and the camera device may be attached to a moving body on which the passenger rides.

そして、上記の発明において、前記搭乗者は、境界波長よりも長波長の光を増幅する暗視装置を装着しており、前記半導体レーザは、前記境界波長以下のレーザ光を発振するようにしてもよい。
ここで、「境界波長」とは、暗視装置で増幅したい光の波長を決定するためのものであり、暗視装置の設計者等によって任意に決められることになる。
In the above invention, the occupant wears a night vision device that amplifies light having a wavelength longer than the boundary wavelength, and the semiconductor laser oscillates laser light having a wavelength equal to or less than the boundary wavelength. Also good.
Here, the “boundary wavelength” is for determining the wavelength of light to be amplified by the night vision apparatus, and can be arbitrarily determined by the designer of the night vision apparatus or the like.

さらに、上記の発明において、前記移動体には、複数の搭乗者が搭乗することが可能となっているようにしてもよい。   Furthermore, in the above invention, a plurality of passengers may be able to board the moving body.

本発明の一実施形態である救難飛行艇の概略構成を示す図。The figure which shows schematic structure of the rescue flight boat which is one Embodiment of this invention. 頭部装着型表示装置付ヘルメットの平面図。The top view of a helmet with a head mounting | wearing type display apparatus. 光学マーカーの断面図。Sectional drawing of an optical marker. 第一カメラ装置と頭部装着型表示装置付ヘルメットとの位置関係を示す図。The figure which shows the positional relationship of a 1st camera apparatus and a helmet with a head mounting | wearing type display apparatus. 光学マーカーを識別する方法を説明する図。The figure explaining the method of identifying an optical marker. LEDの発光スペクトル強度特性を示す図。The figure which shows the emission spectrum intensity | strength characteristic of LED. LDの発光スペクトル強度特性を示す図。The figure which shows the emission spectrum intensity | strength characteristic of LD. 光学マーカーの断面図。Sectional drawing of an optical marker. 頭部装着型表示装置付ヘルメットの平面図。The top view of a helmet with a head mounting | wearing type display apparatus. 頭部装着型表示装置付ヘルメットの他の一例の平面図。The top view of another example of the helmet with a head mounting | wearing type display apparatus.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below, and includes various modes without departing from the spirit of the present invention.

図1は、本発明の一実施形態である救難飛行艇の概略構成を示す図である。
救難飛行艇1は、第一パイロットPが搭乗するための第一運転席11と、第一運転席11の上方に取り付けられた第一カメラ装置12と、第二パイロットPが搭乗するための第二運転席21と、第二運転席21の上方に取り付けられた第二カメラ装置22と、第一パイロットPや第二パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット30と、コンピュータにより構成される制御部40とを備える。
FIG. 1 is a diagram showing a schematic configuration of a rescue flying boat according to an embodiment of the present invention.
In the rescue flight boat 1, the first driver's seat 11 for boarding the first pilot P 1 , the first camera device 12 mounted above the first driver's seat 11, and the second pilot P 2 board. a second driver's seat 21, the second and the second camera unit 22 mounted above the operator's seat 21, a head-mounted display device attached to the first pilot P 1 and the second pilot P 2 head The helmet 30 with an attachment and the control part 40 comprised with a computer are provided.

第一HMT装置は、第一カメラ装置12と1個の頭部装着型表示装置付ヘルメット30と制御部40とで構成されており、第一カメラ装置12に設定される第二座標系(XYZ座標系)に対する第一パイロットPの頭部位置(Xh1、Yh1、Zh1)及び頭部角度(RLh1、ELh1、AZh1)を含む相対情報を算出するものである。つまり、XYZ座標系における第一パイロットPが着用する頭部装着型表示装置付ヘルメット30に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。 The first HMT device includes the first camera device 12, one head-mounted helmet 30 with a display device, and a control unit 40, and a second coordinate system (XYZ) set in the first camera device 12. Relative information including the head position (X h1 , Y h1 , Z h1 ) and head angle (RL h1 , EL h1 , AZ h1 ) of the first pilot P 1 with respect to the coordinate system) is calculated. That is, the position and angle of the first coordinate system (X′Y′Z ′ coordinate system) set in the helmet 30 with a head mounted display device worn by the first pilot P 1 in the XYZ coordinate system are calculated.

また、第二HMT装置は、第二カメラ装置22と1個の頭部装着型表示装置付ヘルメット30と制御部40とで構成されており、第二カメラ装置22に設定される第二座標系(XYZ座標系)に対する第二パイロットPの頭部位置(Xh2、Yh2、Zh2)及び頭部角度(RLh2、ELh2、AZh2)を含む相対情報を算出するものである。つまり、XYZ座標系における第二パイロットPが着用する頭部装着型表示装置付ヘルメット30に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。
なお、角度RLは、ロール方向(X軸に対する回転)の角度であり、角度ELは、エレベーション方向(Y軸に対する回転)の角度であり、角度AZは、アジマス方向(Z軸に対する回転)の角度である。また、第二HMT装置は、第一HMT装置と同様の構造であるので、説明を省略するものとする。
The second HMT device includes the second camera device 22, one head-mounted helmet 30 with a display device, and a control unit 40, and a second coordinate system set in the second camera device 22. Relative information including the head position (X h2 , Y h2 , Z h2 ) and the head angle (RL h2 , EL h2 , AZ h2 ) of the second pilot P 2 with respect to (XYZ coordinate system) is calculated. In other words, it calculates the position and angle of the first coordinate system in which the second pilot P 2 in the XYZ coordinate system is set on the head mounted display with a helmet 30 worn (X'Y'Z 'coordinate system).
The angle RL h is an angle in the roll direction (rotation with respect to the X axis), the angle EL h is an angle in the elevation direction (rotation with respect to the Y axis), and the angle AZ h is an azimuth direction (with respect to the Z axis). Angle of rotation). Further, since the second HMT device has the same structure as the first HMT device, description thereof will be omitted.

図2は、頭部装着型表示装置付ヘルメット30の平面図であり、図3は、光学マーカーの断面図である。また、図4は、第一カメラ装置と頭部装着型表示装置付ヘルメットとの位置関係を示す図である。
頭部装着型表示装置付ヘルメット30は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、第一パイロットPの目に導くコンバイナ31と、光学マーカーとして機能する光学マーカー群32とを有する。なお、頭部装着型表示装置付ヘルメット30を装着した第一パイロットPは、表示器による表示映像とコンバイナ31の前方実在物とを視認することが可能となっている。
また、頭部装着型表示装置付ヘルメット30は、夜間等の環境下では第一パイロットPが外界(前方実在物)も視認できるように、コンバイナ31の前方に暗視装置33を取り付けたり、昼間等の環境下では暗視装置33が邪魔にならないようにコンバイナ31の前方から暗視装置33を取り外したりすることが可能になっている。
FIG. 2 is a plan view of the helmet 30 with a head-mounted display device, and FIG. 3 is a cross-sectional view of the optical marker. FIG. 4 is a diagram showing a positional relationship between the first camera device and the helmet with a head-mounted display device.
The helmet 30 with a head-mounted display device includes a display (not shown), a combiner 31 that guides the eyes of the first pilot P 1 by reflecting image display light emitted from the display, and an optical marker. And an optical marker group 32 functioning as The first pilot P 1 wearing the helmet 30 with a head-mounted display device can visually recognize the display image by the display unit and the front actual object of the combiner 31.
In addition, the helmet 30 with a head-mounted display device is provided with a night vision device 33 in front of the combiner 31 so that the first pilot P 1 can visually recognize the outside world (an actual object in front) in an environment such as nighttime. In an environment such as daytime, the night vision device 33 can be removed from the front of the combiner 31 so that the night vision device 33 does not get in the way.

暗視装置33は、取り込んだ赤外光(例えば、610nm(境界波長)以上の波長)の光量を増幅することにより、暗視機能を備えるものである。そして、頭部装着型表示装置付ヘルメット30のコンバイナ31の前方に取り付けることが可能な双眼鏡のような形状となっている。これにより、夜間等の環境下でも第一パイロットPは頭部装着型表示装置付ヘルメット30を装着しながら、外界の赤外光を発したり反射したりする被写体を視認できるようになる。
上記暗視装置としては、例えば、被写体から光を取り込む撮像レンズと、取り込む光量を調整する光量調整部と、撮像レンズから取り込まれた光を受けるとともに当該光を光学像に変換するマイクロチャンネルプレート型イメージインテンシファイア(以下、MCP型I.I.ともいう)と、カップリング機構と、MCP型I.I.から出力された光学像が結像されるとともに、当該光学像を画像信号に変換する撮像素子とから構成されるもの等が挙げられる。
The night vision device 33 has a night vision function by amplifying the amount of captured infrared light (for example, a wavelength of 610 nm (boundary wavelength) or more). And it becomes a shape like the binoculars which can be attached to the front of the combiner 31 of the helmet 30 with a head-mounted display device. As a result, the first pilot P 1 can visually recognize a subject that emits or reflects outside infrared light while wearing the helmet 30 with a head-mounted display device even in an environment such as at night.
As the night vision device, for example, an imaging lens that captures light from a subject, a light amount adjustment unit that adjusts the amount of light to be captured, and a microchannel plate type that receives light captured from the imaging lens and converts the light into an optical image Image intensifier (hereinafter also referred to as MCP type II), coupling mechanism, and MCP type I.I. I. And an optical image output from the image sensor, and an image sensor that converts the optical image into an image signal.

光学マーカー群32は、ヘルメットの外周面に取り付けられた3個(あるいは3個以上の数)の光学マーカー32a〜32cである。各光学マーカー32a〜32cは、図7に示すような波長(例えば、480nm)のレーザ光を発振して出射するLD(半導体レーザ)34と、LD34の前方に配置されレーザ光を発散させるボールレンズ(光学素子)35とを有する。よって、各光学マーカー32a〜32cは、境界波長(例えば、610nm)より短波長の光を発振することになる。   The optical marker group 32 includes three (or three or more) optical markers 32a to 32c attached to the outer peripheral surface of the helmet. Each of the optical markers 32a to 32c includes an LD (semiconductor laser) 34 that oscillates and emits laser light having a wavelength (for example, 480 nm) as shown in FIG. 7, and a ball lens that is disposed in front of the LD 34 and emits the laser light. (Optical element) 35. Accordingly, each of the optical markers 32a to 32c oscillates light having a shorter wavelength than the boundary wavelength (for example, 610 nm).

ところで、頭部装着型表示装置付ヘルメット30自体には、第一座標系(X’Y’Z’座標系)が予め定められている。光学マーカー群32は、3個の光学マーカー32a〜32cがお互い一定の距離dを隔てるようにして、第一座標系(X’Y’Z’座標系)に位置決めされて取り付けられている。つまり、X’Y’Z’座標系における各光学マーカー32a、32b、32cの座標位置は、(X’DISa、Y’DISa、Z’DISa)、(X’DISb、Y’DISb、Z’DISb)、(X’DISc、Y’DISc、Z’DISc)と表現できる。
なお、各光学マーカー32a〜32cは、同じ波長(480nm)のレーザ光を発振するものなので、後述する第一カメラ装置12のみでは、撮影した各光学マーカーが、頭部装着型表示装置付ヘルメット30に取り付けられた光学マーカーのいずれにそれぞれ対応するかは認識することができない。
By the way, the first coordinate system (X′Y′Z ′ coordinate system) is predetermined for the head mounted helmet 30 with a display device itself. The optical marker group 32 is positioned and attached to the first coordinate system (X′Y′Z ′ coordinate system) so that the three optical markers 32 a to 32 c are separated from each other by a certain distance d 2 . That, X'Y'Z 'each optical marker 32a in the coordinate system, 32b, 32c coordinate positions of, (X' DISa, Y ' DISa, Z' DISa), (X 'DISb, Y' DISb, Z 'DISb ), (X ′ DISc , Y ′ DISc , Z ′ DISc ).
Since each of the optical markers 32a to 32c oscillates laser light having the same wavelength (480 nm), only the first camera device 12 to be described later captures each optical marker by the head-mounted display-equipped helmet 30. It cannot be recognized which one of the optical markers attached to each corresponds.

第一カメラ装置12は、第一カメラ12aと第二カメラ12bとからなる。第一カメラ12aと第二カメラ12bとは、撮影方向が異なりかつ立体視が可能な一定の距離dを隔てるように、第一運転席11の上方の天井に固定されている。
よって、第一カメラ装置12に対する光学マーカー32aの位置は、第一カメラ12aと第二カメラ12bとでそれぞれ撮影された画像中に映し出されている光学マーカー32a像の位置を抽出し、さらに第一カメラ12aからの方向角度αと第二カメラ12bからの方向角度βとを抽出し、第一カメラ12aと第二カメラ12bとの間の距離dを用いることにより、三角測量の手法で算出することができる。他の光学マーカー32b、32cの第一カメラ装置12に対する位置についても同様に算出される。
The first camera device 12 includes a first camera 12a and a second camera 12b. The first camera 12a and second camera 12b, so as to separate the distance d 1 constant photographing direction are different and capable of stereoscopic vision, and is fixed to the ceiling above the first driver's seat 11.
Therefore, the position of the optical marker 32a with respect to the first camera device 12 is obtained by extracting the position of the optical marker 32a image shown in the images photographed by the first camera 12a and the second camera 12b, respectively. It extracts the direction angle β from the direction angle α and the second camera 12b from the camera 12a, by using the distance d 1 between the first camera 12a and second camera 12b, calculating the technique of triangulation be able to. The positions of the other optical markers 32b and 32c with respect to the first camera device 12 are similarly calculated.

このとき、各光学マーカー32a〜32cの位置を、空間座標で表現できるようにするために、第一カメラ装置12に固定され、第一カメラ装置12とともに移動する座標系である第二座標系(XYZ座標系)を用いる。
XYZ座標系により光学マーカー32a〜32cの座標位置は、(XLD1、YLD1、ZLD1)、(XLD2、YLD2、ZLD2)、(XLD3、YLD3、ZLD3)と表現できる。これにより、第一カメラ装置12に対する3個の光学マーカー32a〜32cの座標位置(XLD1、YLD1、ZLD1)、(XLD2、YLD2、ZLD2)、(XLD3、YLD3、ZLD3)がそれぞれどの光学マーカーか識別されて特定されれば、光学マーカー32a〜32cが位置決めされて取り付けられている頭部装着型表示装置付ヘルメット30の位置(Xh1、Yh1、Zh1)及び角度(RLh1、ELh1、AZh1)は、XYZ座標系における第一座標系(X’Y’Z’座標系)の位置及び角度を用いて表現することができる。
At this time, in order to be able to express the position of each of the optical markers 32 a to 32 c by a spatial coordinate, the second coordinate system (which is a coordinate system that is fixed to the first camera device 12 and moves together with the first camera device 12). XYZ coordinate system) is used.
The coordinate positions of the optical markers 32a to 32c can be expressed as ( XLD1 , YLD1 , ZLD1 ), ( XLD2 , YLD2 , ZLD2 ), ( XLD3 , YLD3 , ZLD3 ) by the XYZ coordinate system. Thereby, the coordinate positions (X LD1 , Y LD1 , Z LD1 ), (X LD2 , Y LD2 , Z LD2 ), (X LD3 , Y LD3 , Z) of the three optical markers 32a to 32c with respect to the first camera device 12 are obtained. LD3 ) is identified and specified as each optical marker, and the position ( Xh1 , Yh1 , Zh1 ) of the helmet 30 with a head mounted display device to which the optical markers 32a to 32c are positioned and attached. The angles (RL h1 , EL h1 , AZ h1 ) can be expressed by using the position and angle of the first coordinate system (X′Y′Z ′ coordinate system) in the XYZ coordinate system.

制御部40は、CPU41やメモリ42等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU41が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部41aと、光学マーカー位置情報算出部41bと、相対情報算出部41cと、映像表示部41dとを有する。
また、メモリ42には、制御部40が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、第二座標系(XYZ座標系)を初期データとして記憶する第二座標系記憶領域42aと、第一座標系(X’Y’Z’座標系)を初期データとして記憶するとともにX’Y’Z’座標系における3個の光学マーカー32a〜32cのそれぞれの位置(X’DIS、Y’DIS、Z’DIS)を初期データとして記憶する第一座標系記憶領域42bと、XYZ座標系における3個の光学マーカー32a〜32cの時間tでのそれぞれの位置(XLED、YLED、ZLED)を含む光学マーカー位置情報を順次記憶するための光学マーカー記憶領域42cとを有する。
The control unit 40 is configured by a computer including a CPU 41, a memory 42, and the like, and performs various controls and arithmetic processes. The processing executed by the CPU 41 will be described separately for each functional block. The CPU 41 includes a motion tracker drive unit 41a, an optical marker position information calculation unit 41b, a relative information calculation unit 41c, and a video display unit 41d.
The memory 42 is formed with an area for storing various data necessary for the control unit 40 to execute processing, and the second coordinate system stores the second coordinate system (XYZ coordinate system) as initial data. The system storage area 42a and the first coordinate system (X′Y′Z ′ coordinate system) are stored as initial data, and the positions of the three optical markers 32a to 32c in the X′Y′Z ′ coordinate system (X 'DIS, Y' DIS, respective positions at time t n of the three optical markers 32a~32c a first coordinate system memory area 42b for storing a Z 'DIS) as initial data, in the XYZ coordinate system (X LED , Y LED , Z LED ), and an optical marker storage area 42 c for sequentially storing optical marker position information.

モーショントラッカ駆動部41aは、光学マーカー32a〜32cを点灯させる指令信号を出力するとともに、第一カメラ装置12で光学マーカー32a〜32cから出射される光線の画像データを時間tごとに検出させる制御を行う。しかし、光学マーカー32a〜32cは、同じ波長のレーザ光を発振するものなので、エピポーラ幾何学に基づく予測により、第一カメラ12aで撮影された第一画像と、第二カメラ12bで撮影された第二画像との間での共通の光学マーカー像の組を認識することができるが、頭部装着型表示装置付ヘルメット30に取り付けられた光学マーカーのいずれにそれぞれ対応するかを決定することはできない。そこで、後述する光学マーカー位置情報算出部41b等によって、各光学マーカーが識別されるようになっている。 Motion tracker driver 41a outputs the instruction signal for turning on the optical markers 32 a to 32 c, the control for detecting the image data of the light beam emitted from the optical markers 32 a to 32 c in the first camera device 12 every time t n I do. However, since the optical markers 32a to 32c oscillate laser beams having the same wavelength, the first image captured by the first camera 12a and the second image captured by the second camera 12b are predicted based on the epipolar geometry. A set of common optical marker images between the two images can be recognized, but it cannot be determined which one of the optical markers attached to the helmet 30 with a head-mounted display device corresponds to. . Therefore, each optical marker is identified by an optical marker position information calculation unit 41b and the like which will be described later.

光学マーカー位置情報算出部41bは、時間tの光学マーカー位置情報に基づいて光学マーカー32a〜32cのそれぞれの予想移動範囲Da、Db、Dcを設定することにより、時間tn+1の画像データを用いて光学マーカー32a〜32cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する制御を行う。
まず、図5に示すように、時間tの光学マーカー位置情報における光学マーカー32a(t)〜32c(t)のそれぞれの位置を中心とした直径dの球状である予想移動範囲Da、Db、Dcを第二座標系(XYZ座標系)に設定する。これにより、時間tn+1に予想移動範囲Da、Db、Dcに存在する光学マーカーを、予想移動範囲Da、Db、Dcに対応する光学マーカーと同一のものであると識別する。具体的には、時間tn+1に予想移動範囲Daに存在する光学マーカー32aを、予想移動範囲Daの中心に対応する光学マーカー32a(t)と同一のものであると識別する。同様に、予想移動範囲Dbに存在する光学マーカー32bを、予想移動範囲Dbの中心に対応する光学マーカー32b(t)と同一のものであるとし、予想移動範囲Dcに存在する光学マーカー32cを、予想移動範囲Dcの中心に対応する光学マーカー32c(t)と同一のものであると識別する。このようにして、各光学マーカー32a〜32cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する。
Optical marker position information calculator 41b are each expected moving range Da of the optical marker 32a~32c based on the optical marker position information of the time t n, Db, by setting Dc, using image data of the time t n + 1 Then, control is performed to calculate the optical marker position information at time t n + 1 including the current positions of the optical markers 32a to 32c.
First, as illustrated in FIG. 5, an expected movement range Da having a spherical shape with a diameter d 2 centering on each position of the optical markers 32 a (t n ) to 32 c (t n ) in the optical marker position information at time t n. , Db, Dc are set in the second coordinate system (XYZ coordinate system). As a result, the optical markers existing in the predicted movement ranges Da, Db, and Dc at the time t n + 1 are identified as the same optical markers as those corresponding to the predicted movement ranges Da, Db, and Dc. Specifically, the optical marker 32a existing in the expected movement range Da at time t n + 1 is identified as being the same as the optical marker 32a (t n ) corresponding to the center of the expected movement range Da. Similarly, the optical marker 32b existing in the expected movement range Db is assumed to be the same as the optical marker 32b (t n ) corresponding to the center of the expected movement range Db, and the optical marker 32c existing in the expected movement range Dc is The optical marker 32c (t n ) corresponding to the center of the expected movement range Dc is identified as the same. In this way, the optical marker position information at time t n + 1 including the current position of each of the optical markers 32a to 32c is calculated.

相対情報算出部41cは、時間tn+1の光学マーカー位置情報に基づいて、第二座標系(XYZ座標系)における第一パイロットPの頭部位置(Xh1、Yh1、Zh1)及び頭部角度(RLh1、ELh1、AZh1)を含む相対情報を算出する制御を行う。
具体的には、XYZ座標系における3個の光学マーカー32a〜32cのそれぞれの現在の座標位置である時間tn+1の光学マーカー位置情報を得ることで、光学マーカー32a〜32cが固定されている頭部装着型表示装置付ヘルメット30の現在位置(Xh1、Yh1、Zh1)や現在角度(RLh1、ELh1、AZh1)を算出する。
映像表示部41dは、相対情報に基づいて、表示器から映像表示光を出射する制御を行う。これにより、第一パイロットPは表示器による表示映像を視認することができる。
Based on the optical marker position information at time t n + 1 , the relative information calculation unit 41c determines the head position (X h1 , Y h1 , Z h1 ) and head of the first pilot P 1 in the second coordinate system (XYZ coordinate system). Control is performed to calculate relative information including the component angles (RL h1 , EL h1 , AZ h1 ).
Specifically, the head to which the optical markers 32a to 32c are fixed is obtained by obtaining optical marker position information at time t n + 1 which is the current coordinate position of each of the three optical markers 32a to 32c in the XYZ coordinate system. The current position (X h1 , Y h1 , Z h1 ) and current angle (RL h1 , EL h1 , AZ h1 ) of the helmet 30 with a part-mounted display device are calculated.
The video display unit 41d performs control for emitting video display light from the display based on the relative information. Thus, the first pilot P 1 can visually recognize the display image by the display device.

以上のように、光学マーカー32a〜32cとしてLD34とボールレンズ35とを用いても、救難飛行艇1に搭乗する第一パイロットPの頭部の動きを充分に追跡することができる。さらに、レーザ光をボールレンズ35を用いて点光源化することができ、その結果、第一カメラ装置12での光学マーカー32a〜32cの位置の検出精度を向上させることができる。 As described above, it is possible to sufficiently track also the first pilot P 1 of the head movement to board the rescue flying boat 1 by using the LD34 and the ball lens 35 as an optical marker 32 a to 32 c. Further, the laser light can be converted into a point light source using the ball lens 35, and as a result, the detection accuracy of the positions of the optical markers 32a to 32c in the first camera device 12 can be improved.

そして、このような救難飛行艇1では、暗視装置33を取り付けた頭部装着型表示装置付ヘルメット30を装着した第一パイロットPが第一運転席11に搭乗するとともに、暗視装置33を取り付けた頭部装着型表示装置付ヘルメット30を装着した第二パイロットPが第二運転席21に搭乗したときでも、図7に示すような波長(例えば、480nm)のレーザ光を発振するLD34を用いているので、第二パイロットPの視界に第一パイロットPが装着した頭部装着型表示装置付ヘルメット30の光学マーカー32a〜32cが入っても、第二パイロットPの暗視装置33はハレーションを起こすことがない。 In such a rescue flying boat 1, the first pilot P 1 wearing the head-mounted display-equipped helmet 30 to which the night vision device 33 is attached gets on the first driver's seat 11 and the night vision device 33. even when the second pilot P 2 who wears the head-mounted display device with a helmet 30 attached is aboard the second driver's seat 21, which oscillates laser light having a wavelength as shown in FIG. 7 (e.g., 480 nm) because of the use of LD34, well into the second pilot P 2 of the field of view optical marker of the first pilot head-mounted display device with a helmet 30 which P 1 is wearing 32 a to 32 c, the second pilot P 2 dark The visual device 33 does not cause halation.

<他の実施形態>
(1)上述した救難飛行艇1において、同じ波長のレーザ光を発振する3個のLD34を用いる構成としたが、異なる波長のレーザ光を発振する3個のLDを用いるような構成としてもよい。
(2)上述した救難飛行艇1において、光学マーカー32a〜32cは、LD(半導体レーザ)34と、LD34の前方に配置されレーザ光を発散させるボールレンズ(光学素子)35とを有する構成としたが、LD(半導体レーザ)から発振された光を光ファイバ等を介してボールレンズ(光学素子)に導き、その誘導された光をボールレンズで発散させるような構成としてもよい。
図8は、光学マーカー132の断面図であり、図9は、頭部装着型表示装置付ヘルメット130の一例の平面図である。各光学マーカー132は、ヘルメットの後部に取り付けられ図7に示すような波長(例えば、480nm)のレーザ光を発振して出射するLD(半導体レーザ)34と、ヘルメットの外周面に取り付けられレーザ光を発散させるボールレンズ(光学素子)35と、ヘルメット内に埋め込まれLD(半導体レーザ)34とボールレンズ(光学素子)35との間に配置される光ファイバ136とを有する。
図10は、頭部装着型表示装置付ヘルメット230の他の一例の平面図である。各光学マーカー132は、救難飛行艇1に配置され図7に示すような波長(例えば、480nm)のレーザ光を発振して出射するLD(半導体レーザ)34を有する光源装置と、ヘルメットの外周面に取り付けられレーザ光を発散させるボールレンズ(光学素子)35と、LD(半導体レーザ)34とボールレンズ(光学素子)35との間に配置される光ファイバ136とを有する。
なお、図9と図10とでは、1個ボールレンズと1個のLDとを1本の光ファイバで接続するような構成としたが、複数個ボールレンズと1個のLDとを光ファイバで接続するような構成としてもよく、この場合、途中までは1本の光ファイバとなるが、途中で光ファイバが分岐するようにすればよい。
<Other embodiments>
(1) In the rescue flight boat 1 described above, the three LDs 34 that oscillate laser beams with the same wavelength are used. However, the three LDs that oscillate laser beams with different wavelengths may be used. .
(2) In the rescue flight boat 1 described above, the optical markers 32a to 32c include an LD (semiconductor laser) 34 and a ball lens (optical element) 35 that is disposed in front of the LD 34 and emits laser light. However, a configuration may be adopted in which light oscillated from an LD (semiconductor laser) is guided to a ball lens (optical element) via an optical fiber or the like, and the guided light is diverged by the ball lens.
FIG. 8 is a cross-sectional view of the optical marker 132, and FIG. 9 is a plan view of an example of the head-mounted helmet 130 with a display device. Each optical marker 132 is attached to the rear part of the helmet, and an LD (semiconductor laser) 34 that oscillates and emits a laser beam having a wavelength (for example, 480 nm) as shown in FIG. 7 and a laser beam attached to the outer peripheral surface of the helmet. And a ball lens (optical element) 35 that diverges light and an optical fiber 136 that is embedded in a helmet and disposed between an LD (semiconductor laser) 34 and the ball lens (optical element) 35.
FIG. 10 is a plan view of another example of the helmet 230 with a head-mounted display device. Each optical marker 132 is disposed on the rescue flight boat 1 and has a light source device having an LD (semiconductor laser) 34 that oscillates and emits laser light having a wavelength (for example, 480 nm) as shown in FIG. And a ball lens (optical element) 35 for diverging laser light, and an optical fiber 136 disposed between the LD (semiconductor laser) 34 and the ball lens (optical element) 35.
In FIGS. 9 and 10, one ball lens and one LD are connected by one optical fiber. However, a plurality of ball lenses and one LD are connected by an optical fiber. In this case, a single optical fiber is provided until halfway, but the optical fiber may be branched in the middle.

本発明のMT装置は、例えば、乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度を検出するもの等として利用される。   The MT device of the present invention is used, for example, as a device that detects a current position and a current angle of a helmet with a head-mounted display device used in a vehicle or the like.

1 救難飛行艇(モーショントラッカ装置)
12 第一カメラ装置
30 頭部装着型表示装置付ヘルメット(対象物)
32 光学マーカー
34 LD(半導体レーザ)
35 ボールレンズ(光学素子)
41b 光学マーカー位置情報算出部
41c 相対情報算出部
1 rescue flight boat (motion tracker device)
12 First camera device 30 Helmet with head mounted display device (object)
32 Optical marker 34 LD (semiconductor laser)
35 Ball lens (optical element)
41b Optical marker position information calculation unit 41c Relative information calculation unit

Claims (5)

第一座標系が設定された対象物と、
前記第一座標系に位置決めされて対象物に取り付けられた3個以上の光学マーカーと、
第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、
前記光学マーカーは、レーザ光を発振する半導体レーザと、当該半導体レーザの前方に配置され、レーザ光を発散させる光学素子とを有することを特徴とするモーショントラッカ装置。
An object with a first coordinate system, and
Three or more optical markers positioned in the first coordinate system and attached to an object;
A second coordinate system is set, and a camera device that detects a light beam from the optical marker in a stereoscopic view;
An optical marker position information calculating unit that calculates optical marker position information including current positions of three or more optical markers in the second coordinate system based on the detected light beam;
A motion tracker device comprising: a relative information calculation unit that calculates relative information including a current position and a current angle of an object in the second coordinate system based on the optical marker position information;
The optical marker includes a semiconductor laser that oscillates laser light, and an optical element that is disposed in front of the semiconductor laser and diverges the laser light.
前記光学素子は、ボールレンズであることを特徴とする請求項1に記載のモーショントラッカ装置。 The motion tracker device according to claim 1, wherein the optical element is a ball lens. 前記対象物は、搭乗者の頭部に装着されるヘルメットであり、
前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられていることを特徴とする請求項1又は請求項2に記載のモーショントラッカ装置。
The object is a helmet to be worn on a passenger's head,
The motion tracker device according to claim 1, wherein the camera device is attached to a moving body on which the passenger rides.
前記搭乗者は、境界波長よりも長波長の光を増幅する暗視装置を装着しており、
前記半導体レーザは、前記境界波長以下のレーザ光を発振することを特徴とする請求項3に記載のモーショントラッカ装置。
The passenger is wearing a night vision device that amplifies light having a wavelength longer than the boundary wavelength,
The motion tracker device according to claim 3, wherein the semiconductor laser oscillates a laser beam having a wavelength equal to or less than the boundary wavelength.
前記移動体には、複数の搭乗者が搭乗することが可能となっていることを特徴とする請求項3又は請求項4に記載のモーショントラッカ装置。 The motion tracker device according to claim 3, wherein a plurality of passengers can board the moving body.
JP2012019850A 2012-02-01 2012-02-01 Motion tracker device Pending JP2013160513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012019850A JP2013160513A (en) 2012-02-01 2012-02-01 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012019850A JP2013160513A (en) 2012-02-01 2012-02-01 Motion tracker device

Publications (1)

Publication Number Publication Date
JP2013160513A true JP2013160513A (en) 2013-08-19

Family

ID=49172896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012019850A Pending JP2013160513A (en) 2012-02-01 2012-02-01 Motion tracker device

Country Status (1)

Country Link
JP (1) JP2013160513A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5085507A (en) * 1989-12-27 1992-02-04 Texas Instruments Incorporated Device for three dimensional tracking of an object
JPH10511005A (en) * 1990-01-08 1998-10-27 ヘルス リサーチ インコーポレイテッド Submersible lens fiber optic assembly
JP2003168115A (en) * 2001-12-03 2003-06-13 Nippon Telegr & Teleph Corp <Ntt> Method and device of motion capture
JP2010038707A (en) * 2008-08-05 2010-02-18 Shimadzu Corp Motion tracker device
US20110079703A1 (en) * 2009-10-02 2011-04-07 Teledyne Scientific & Imaging, Llc Object tracking system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5085507A (en) * 1989-12-27 1992-02-04 Texas Instruments Incorporated Device for three dimensional tracking of an object
JPH10511005A (en) * 1990-01-08 1998-10-27 ヘルス リサーチ インコーポレイテッド Submersible lens fiber optic assembly
JP2003168115A (en) * 2001-12-03 2003-06-13 Nippon Telegr & Teleph Corp <Ntt> Method and device of motion capture
JP2010038707A (en) * 2008-08-05 2010-02-18 Shimadzu Corp Motion tracker device
US20110079703A1 (en) * 2009-10-02 2011-04-07 Teledyne Scientific & Imaging, Llc Object tracking system

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
EP3268798B1 (en) Dual-mode illuminator for imaging under different lighting conditions
US8384912B2 (en) Wide field of view optical tracking system
US8237101B2 (en) Object tracking system having at least one angle-of-arrival sensor which detects at least one linear pattern on a focal plane array
JP5145832B2 (en) Head-mounted display device and head-mounted display device system
JP4961904B2 (en) Head motion tracker device
JP4924342B2 (en) Motion tracker device
JP5292725B2 (en) Motion tracker device
JP5092279B2 (en) Head motion tracker device and method of using the same
JP5505363B2 (en) Motion tracker device
JP4665872B2 (en) Head motion tracker device
JP4905321B2 (en) Head motion tracker device
JP2009036517A (en) Head motion tracker device
JP2014095557A (en) Motion tracker device
JP5092300B2 (en) Head motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP4656016B2 (en) Motion tracker device
JP4872768B2 (en) Head motion tracker device
JP2013160513A (en) Motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP2007334762A (en) Head motion tracker
JP4784591B2 (en) Motion tracker device
JP2015075350A (en) Motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308