JP2010056661A - Head mounting type video acquiring and displaying device - Google Patents

Head mounting type video acquiring and displaying device Download PDF

Info

Publication number
JP2010056661A
JP2010056661A JP2008217027A JP2008217027A JP2010056661A JP 2010056661 A JP2010056661 A JP 2010056661A JP 2008217027 A JP2008217027 A JP 2008217027A JP 2008217027 A JP2008217027 A JP 2008217027A JP 2010056661 A JP2010056661 A JP 2010056661A
Authority
JP
Japan
Prior art keywords
unit
display
image
video
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008217027A
Other languages
Japanese (ja)
Inventor
Toshikuni Fukushima
利晋 福島
Hiromasa Kobayashi
裕昌 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008217027A priority Critical patent/JP2010056661A/en
Publication of JP2010056661A publication Critical patent/JP2010056661A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head mounting type video acquiring and displaying device which can display a photographed body image taken by an imaging unit, reducing a change of a display region of the photographed body because of difference of a distance to the photographed body. <P>SOLUTION: The head mounting type video acquiring and displaying device connects a frame 3 for mounting the device on a front head part and a display unit 6 arranged in a lower side of eyes when mounting by a supporting unit 5. An observer can directly look the photographed body through a space composed between the frame 3 and the display unit 6. The imaging unit 11, a distance measuring illumination unit 15, a distance measuring illumination light receiving unit 16, etc. are arranged in the frame 3 and the supporting unit 5. The display unit 6 includes a video processing part, a video display part, and right/left eyepiece optical systems. The video processing part carries out processing to cut out at least a part of the image obtained by the imaging unit 11 based on the distance information obtained by distance measuring, and converts it to a display signal for displaying the cut-out image signal in the video display part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体を撮像し、撮像して得られた電子映像を表示する表示頭部装着型映像取得表示装置に関する。   The present invention relates to a display head-mounted image acquisition and display device that images a subject and displays an electronic image obtained by the imaging.

従来より、眼前にLCD等の画像表示部を配置して、画像を観察する頭部装着型映像表示装置が提案され、あるいは製品化されている。   2. Description of the Related Art Conventionally, a head-mounted video display device that arranges an image display unit such as an LCD in front of the eyes and observes an image has been proposed or commercialized.

この頭部装着型映像表示装置には、何れかの映像ソースから供給される映像を表示するだけのもの(観察専用)と、撮像部を備えて該撮像部により撮像した映像を表示するもの(観察および撮像用)と、がある。   This head-mounted image display device only displays an image supplied from any image source (for observation only), and includes an image capturing unit for displaying an image captured by the image capturing unit ( For observation and imaging).

前者の例としては、国際公開番号WO2004/017123に、メガネフレーム形状の本体と、右目用表示装置および左目用表示装置と、を備えて構成される画像表示装置が記載されている。より詳しくは、観察者の視線正面方向には通常のメガネにおいてレンズが配置されるフレーム部分が配設され、右目用表示装置および左目用表示装置はこのフレーム部分の下側に位置して視線を下方向に向けることにより映像を観察することができるようにしたものとなっている。従って、この画像表示装置は、視線を正面側へ向けることにより被写体を直視する(ここに、「直視」とは、透明板や視度調整用のレンズなどを介して観察する場合も含むものとする)ことができ、視線を下側へ向けることにより映像を観察することが可能となるものである。   As an example of the former, International Publication No. WO2004 / 017123 describes an image display device including a spectacle frame-shaped main body, a right-eye display device, and a left-eye display device. More specifically, in the front direction of the observer's line of sight, a frame part in which lenses are arranged in normal glasses is disposed, and the right-eye display device and the left-eye display apparatus are positioned below the frame part to view the line of sight. The video can be observed by pointing downward. Therefore, the image display device directly looks at the subject by directing the line of sight toward the front side (here, “direct viewing” includes the case of observing through a transparent plate, a diopter adjusting lens, etc.). The video can be observed by turning the line of sight downward.

また、後者の例としては、特開平7−168120号公報に、対物レンズを有する撮像部と、単一の画像表示部と、を備えた頭部装着型画像表示装置が記載されている。この頭部装着型画像表示装置は、片眼しか使用しない装着者のためのものであるために、画像表示部が1つのみとなっており、例えば画像表示部が設けられていない空きスペース側に撮像部を配置する構成となっている。   As an example of the latter, Japanese Patent Application Laid-Open No. 7-168120 discloses a head-mounted image display device including an imaging unit having an objective lens and a single image display unit. Since this head-mounted image display device is for a wearer who uses only one eye, there is only one image display unit, for example, an empty space side where no image display unit is provided. It is the structure which arrange | positions an imaging part.

なお、上記各公報の何れにも、画像を撮像することと、撮像した画像を両眼で観察することと、が同時には記載されておらず、これらの構成に被写体を直視することができる構成をさらに加えたものも当然にして記載されていない。
国際公開番号WO2004/017123 特開平7−168120号公報
In each of the above publications, taking an image and observing the taken image with both eyes are not described at the same time, and the configuration allows direct viewing of the subject in these configurations. Of course, nothing is further described.
International Publication Number WO2004 / 017123 JP 7-168120 A

ところで、撮像部から被写体までの距離が変化すると、撮像された画像中の被写体の大きさが変化する(被写体が遠くなれば小さく写り、被写体が近くなれば大きく写る)。さらに、撮像部の光軸とは異なる方向に撮像部から被写体までの距離が変化すると、撮像された画像中の被写体の中心位置がずれることがある。   By the way, when the distance from the imaging unit to the subject changes, the size of the subject in the captured image changes (smaller when the subject is farther, and larger when the subject is closer). Furthermore, when the distance from the imaging unit to the subject changes in a direction different from the optical axis of the imaging unit, the center position of the subject in the captured image may shift.

これに対して、映像を観察する際には、被写体の中心位置が変化しないことが望ましい場合がある。そして、映像を観察する際に、被写体までの距離によることなく一定の大きさで被写体を観察したい場合もある。   On the other hand, when observing an image, it may be desirable that the center position of the subject does not change. Then, when observing an image, there is a case where it is desired to observe the subject with a certain size regardless of the distance to the subject.

本発明は上記事情に鑑みてなされたものであり、撮像された被写体像を、被写体までの距離の違いによる被写体の表示領域の変化を低減して表示することが可能な頭部装着型映像取得表示装置を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and obtains a head-mounted image that can display a captured subject image while reducing changes in the display area of the subject due to a difference in distance to the subject. The object is to provide a display device.

上記の目的を達成するために、本発明の一態様による頭部装着型映像取得表示装置は、観察者の前頭部に装着され得るように構成されたフレームと、上記フレームから下方へ連設された支持部と、上記フレームまたは上記支持部に配設された被写体を撮像するための撮像部と、上記フレームとは別体に設けられていて上記支持部を介して該フレームとの間に観察者の視線を妨げることのない空間を構成するように配設され上記撮像部により撮像して得られた画像信号を表示信号に変換する映像処理部とこの映像処理部により変換された表示信号を電子映像として表示するための映像表示部とこの映像表示部により表示された電子映像を観察者の両眼に向けて投影するためのものであり少なくとも1つの反射面をそれぞれ備える左右の接眼光学系とを有する表示ユニットと、特定距離範囲内にある被写体の距離情報を取得する距離測定部と、を具備し、上記映像処理部は、上記距離測定部から得られる上記距離情報に基づいて、上記撮像部により得られた画像の少なくとも一部を切り出す処理を行い、切り出された画像信号を表示信号に変換するものである。   In order to achieve the above object, a head-mounted image acquisition and display device according to an aspect of the present invention includes a frame configured to be mounted on the frontal part of an observer, and a downward connection from the frame. An imaging unit for imaging the frame or the subject disposed on the support unit, and the frame is provided separately from the frame and interposed between the frame and the frame via the support unit. A video processing unit that is arranged so as to constitute a space that does not obstruct the line of sight of the observer and that converts the image signal obtained by imaging by the imaging unit into a display signal, and the display signal converted by the video processing unit For displaying an image as an electronic image, and for projecting an electronic image displayed by the image display unit toward both eyes of an observer, and left and right eyepiece optics each having at least one reflecting surface And a distance measuring unit that acquires distance information of a subject within a specific distance range, the video processing unit based on the distance information obtained from the distance measuring unit, Processing for cutting out at least a part of the image obtained by the imaging unit is performed, and the cut-out image signal is converted into a display signal.

本発明の頭部装着型映像取得表示装置によれば、撮像された被写体像を、被写体までの距離の違いによる被写体の表示領域の変化を低減して表示することが可能となる。   According to the head-mounted image acquisition and display device of the present invention, it is possible to display a captured subject image while reducing a change in the display area of the subject due to a difference in distance to the subject.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[実施形態1]
図1から図12は本発明の実施形態1を示したものである。
[Embodiment 1]
1 to 12 show Embodiment 1 of the present invention.

まず、図2〜図4を参照して、本実施形態の頭部装着型映像取得表示装置の外観やレイアウトなどについて説明する。ここに、図2は頭部装着型映像取得表示装置を正面斜め上方向から示す斜視図、図3は頭部装着型映像取得表示装置を側方から示す断面図、図4は頭部装着型映像取得表示装置を示す正面図である。   First, with reference to FIGS. 2 to 4, the appearance, layout, and the like of the head-mounted image acquisition / display device of the present embodiment will be described. 2 is a perspective view showing the head-mounted image acquisition / display device from the front obliquely upward direction, FIG. 3 is a sectional view showing the head-mounted image acquisition / display device from the side, and FIG. 4 is a head-mounted image acquisition / display device. It is a front view which shows an image | video acquisition display apparatus.

上述した頭部装着型映像取得表示装置の本体1は、図2に示すように、左右方向に横長のフレーム3と、このフレーム3の左右端部に各連設されたテンプル部4R,4Lと、フレーム3の中央部から下方に連設された支持部5と、この支持部5により中央部上端側を支持されている左右方向に横長の表示ユニット6と、を備えている。   As shown in FIG. 2, the main body 1 of the above-described head-mounted image acquisition and display device includes a horizontally long frame 3 and temple portions 4R and 4L connected to the left and right ends of the frame 3, respectively. The support unit 5 is provided continuously downward from the center of the frame 3, and the horizontally long display unit 6 is supported by the support 5 on the upper end side of the center.

フレーム3は、テンプル部4R,4Lの支持により、装着時に、観察者の前頭部(眼前の上側)に位置するように構成されたものである。このフレーム3の略中央部には、被写体を撮像するための撮像部11が配設されている。さらに、フレーム3の略中央部におけるこの撮像部11の近傍には、撮像部11による被写体の撮像範囲を含む範囲を照明するための照明部12が配設されている。そして、フレーム3の一方の端部、例えば図2および図4に示す左側(観察者の右眼側)の端部から、下方(つまり、観察者の眼がある方向)へ向けて、視線方向測定部たる視線検知用照明部13が延出して設けられている。また、このフレーム3の観察者側には例えば図示しない額パッド等が配設されて、この額パッドを介して、観察者の眼と表示ユニット6との距離が一定に保たれるように構成されている。   The frame 3 is configured to be positioned on the frontal head (upper front of the eye) of the observer when worn by supporting the temple portions 4R and 4L. An image pickup unit 11 for picking up an image of a subject is disposed at a substantially central portion of the frame 3. Further, an illumination unit 12 for illuminating a range including the imaging range of the subject by the imaging unit 11 is disposed in the vicinity of the imaging unit 11 at a substantially central portion of the frame 3. Then, from one end of the frame 3, for example, the left end (observer's right eye side) end shown in FIG. 2 and FIG. A line-of-sight detection illumination unit 13 as a measurement unit is extended and provided. Further, for example, a forehead pad (not shown) is disposed on the viewer side of the frame 3 so that the distance between the viewer's eyes and the display unit 6 is kept constant via the forehead pad. Has been.

テンプル部4R,4Lは、この頭部装着型映像取得表示装置の本体1を装着する際に、先端側を例えば観察者の左右の耳に掛けて用いるようになされたものである。このテンプル部4R,4Lは、フレーム3に対してヒンジ等を介して折り畳み可能に構成されている。従って、非使用時には、頭部装着型映像取得表示装置の本体1をコンパクトに収納することが可能となっている。   The temple portions 4R and 4L are adapted to be used with the front end side hung, for example, on the left and right ears of the observer when the main body 1 of the head-mounted image acquisition and display device is mounted. The temple portions 4R and 4L are configured to be foldable with respect to the frame 3 via hinges or the like. Therefore, when not in use, the main body 1 of the head-mounted image acquisition / display apparatus can be stored compactly.

支持部5は、観察者による直視の視野を妨げることのない空間をフレーム3と表示ユニット6との間に構成するように、表示ユニット6をフレーム3に対して支持するものである。ここに、フレーム3は上述したように観察者の眼前の上側に位置するように配設されるために、表示ユニット6は観察者の眼前の下側に位置するように配置されることになる。   The support unit 5 supports the display unit 6 with respect to the frame 3 so as to form a space between the frame 3 and the display unit 6 that does not hinder the visual field of direct view by the observer. Here, since the frame 3 is disposed so as to be positioned above the eyes of the observer as described above, the display unit 6 is disposed so as to be positioned below the eyes of the observer. .

なお、上述では撮像部11や照明部12をフレーム3に配設したが、これに限らず、何れか一方または両方を例えばこの支持部5に配設しても構わない。   In the above description, the imaging unit 11 and the illumination unit 12 are disposed on the frame 3. However, the present invention is not limited to this, and either one or both may be disposed on the support unit 5, for example.

また、図2〜図4に示す構成例では、支持部5はフレーム3と表示ユニット6とを中央部で連結するものとなっているが、これに限るものではなく、左端部と右端部との何れか一方または両方で連結するものであっても良い。さらにあるいは、中央部と左端部と右端部との内の一以上の箇所でフレーム3と表示ユニット6とを連結するものであっても良い。このように、支持部5は、フレーム3と表示ユニット6とを、観察者の視線を妨げることない位置において連結するものであれば足りる。また、支持部5をどのように配置するかは、フレーム3に対して表示ユニット6を支持する際の剛性や、頭部装着型映像取得表示装置の本体1の軽量化などを勘案して、適宜に設計することが可能である。   Moreover, in the structural example shown in FIGS. 2-4, although the support part 5 connects the flame | frame 3 and the display unit 6 in the center part, it is not restricted to this, A left end part and a right end part Any one or both of them may be connected. Further alternatively, the frame 3 and the display unit 6 may be connected at one or more of the center, left end, and right end. As described above, it is sufficient that the support unit 5 connects the frame 3 and the display unit 6 at a position that does not interfere with the observer's line of sight. Further, how to arrange the support portion 5 is determined in consideration of the rigidity when supporting the display unit 6 with respect to the frame 3 and the weight reduction of the main body 1 of the head-mounted image acquisition display device. It is possible to design appropriately.

そして、支持部5を介して連結されるフレーム3と表示ユニット6との間は、本実施形態においては単なる空間となっているが、この空間部分に直視の視野を妨げることのない透明な部材が配置されていても構わない。ここに、直視の視野を妨げることのない透明な部材としては、観察者の眼を保護するための透明プラスチック板、視度調整用のレンズ、などが幾つかの例として挙げられる。   The space between the frame 3 and the display unit 6 connected via the support portion 5 is merely a space in the present embodiment, but a transparent member that does not obstruct a direct view field in this space portion. May be arranged. Here, as a transparent member that does not disturb the visual field of direct view, a transparent plastic plate for protecting the eyes of an observer, a lens for diopter adjustment, and the like are given as some examples.

上述した支持部5の正面側には、測距用照明部15と測距用照明受光部16とが配設されている。なお、ここでは測距用照明部15や測距用照明受光部16を支持部5に配設したが、これに限らず、何れか一方または両方を例えばフレーム3に配設しても構わない。また、支持部5の観察者の眼側であって、上述した視線検知用照明部13が配設された眼の側には、視線方向測定部たる視線検知部14が配設されている。   A distance measuring illumination unit 15 and a distance measuring illumination light receiving unit 16 are disposed on the front side of the support unit 5 described above. Here, the ranging illumination unit 15 and the ranging illumination light receiving unit 16 are disposed on the support unit 5, but the present invention is not limited thereto, and either one or both may be disposed on the frame 3, for example. . In addition, a line-of-sight detection unit 14 serving as a line-of-sight direction measurement unit is disposed on the eye side of the supporter 5 on the viewer's eye side where the above-described line-of-sight detection illumination unit 13 is disposed.

表示ユニット6は、映像処理部たる画像処理部17、映像表示部18、接眼光学系19が配設されたものである。ここに、接眼光学系19は、図3等に示すように、例えば自由曲面プリズム等の導光光学系(少なくとも1つの反射面を有する光学系)を含んで構成され、軽量化を図りながら高性能な光学性能を得ることができるようになっている。   The display unit 6 includes an image processing unit 17 that is a video processing unit, a video display unit 18, and an eyepiece optical system 19. Here, as shown in FIG. 3 and the like, the eyepiece optical system 19 is configured to include a light guide optical system (an optical system having at least one reflecting surface) such as a free-form surface prism. High-performance optical performance can be obtained.

次に、図1は、頭部装着型映像取得表示装置の電気系の構成を主に示すブロック図である。   Next, FIG. 1 is a block diagram mainly showing the configuration of the electrical system of the head-mounted image acquisition / display apparatus.

この頭部装着型映像取得表示装置は、撮像部11と照明部12と電気制御部21と映像表示部18とを備える本体1と、第2制御装置2と、を有している。   This head-mounted image acquisition and display device includes a main body 1 including an imaging unit 11, an illumination unit 12, an electric control unit 21, and a video display unit 18, and a second control device 2.

撮像部11は、CCDやCMOSあるいはその他の種類の撮像素子と、この撮像素子へ被写体の光学像を結像するための撮像光学系と、を備えている。   The imaging unit 11 includes a CCD, CMOS, or other type of imaging device, and an imaging optical system for forming an optical image of a subject on the imaging device.

照明部12は、例えばLED等の発光素子と、この発光素子により発光された光を被写体へ向けて照明光として照射するための照明光学系と、を備えている。   The illumination unit 12 includes, for example, a light emitting element such as an LED and an illumination optical system for irradiating light emitted from the light emitting element toward the subject as illumination light.

電気制御部21は、第1制御装置であって、カメラI/F部22と、フォーカス調整部23と、AF駆動部24と、上述した映像処理部たる画像処理部17と、上述した視線方向測定部たる視線検知用照明部13と、上述した視線方向測定部たる視線検知部14と、視線方向測定部たる視線方向検出部31と、映像処理部たる切出情報演算部32と、制御部たる撮像部電源制御部33と、制御部たる照明制御部34と、制御部たる映像表示部電源制御部35と、距離測定部たる測距センサ36と、電源入力部38と、を備えている。   The electrical control unit 21 is a first control device, and includes a camera I / F unit 22, a focus adjustment unit 23, an AF drive unit 24, the image processing unit 17 serving as the video processing unit described above, and the line-of-sight direction described above. The line-of-sight detection illumination unit 13 as a measurement unit, the line-of-sight detection unit 14 as a line-of-sight measurement unit, the line-of-sight detection unit 31 as a line-of-sight measurement unit, a cutout information calculation unit 32 as a video processing unit, and a control unit The image pickup unit power control unit 33, an illumination control unit 34 as a control unit, a video display unit power control unit 35 as a control unit, a distance measuring sensor 36 as a distance measurement unit, and a power input unit 38 are provided. .

カメラI/F部22は、撮像部11により撮像して得られた画像信号を画像処理部17とフォーカス調整部23とへ転送するためのインタフェースである。   The camera I / F unit 22 is an interface for transferring an image signal obtained by imaging by the imaging unit 11 to the image processing unit 17 and the focus adjustment unit 23.

フォーカス調整部23は、撮像部11により撮影して得られた画像データ(撮像画像データ)を読み込んで、切出情報演算部32から取得した切出範囲の画像全体をエッジ強調フィルタにより輪郭検出し、全画素の輝度値を算出する。そして、フォーカス調整部23は、AF駆動部24を介して撮像部11の撮像光学系に含まれるフォーカスレンズを前後に移動させ、輝度値のピークを探索しながら、輝度値がピークになるまでフォーカスを調整する。   The focus adjustment unit 23 reads image data (captured image data) obtained by photographing with the imaging unit 11, and detects an outline of the entire image of the cutout range acquired from the cutout information calculation unit 32 using an edge enhancement filter. The luminance values of all the pixels are calculated. Then, the focus adjustment unit 23 moves the focus lens included in the imaging optical system of the imaging unit 11 back and forth via the AF driving unit 24, and focuses until the luminance value reaches the peak while searching for the luminance value peak. Adjust.

AF駆動部24は、上述したように、フォーカス調整部23の制御に基づいて、撮像部11の撮像光学系に含まれるフォーカスレンズを駆動するものである。   As described above, the AF driving unit 24 drives the focus lens included in the imaging optical system of the imaging unit 11 based on the control of the focus adjustment unit 23.

画像処理部17は、倍率調整部25と、表示信号変換部28と、を備えている。これらの内の倍率調整部25は、さらに、切出処理部26と、倍率処理部27と、を備えている。   The image processing unit 17 includes a magnification adjustment unit 25 and a display signal conversion unit 28. Among these, the magnification adjustment unit 25 further includes a cut-out processing unit 26 and a magnification processing unit 27.

切出処理部26は、切出情報演算部32により後述するように演算された切出範囲の情報(例えば、切出中心位置の情報と切り出す領域の大きさの情報)に基づいて、カメラI/F部22を介して入力されるフォーカス調整後の画像信号(撮像画像)の切り出しを行うものである。   The cut-out processing unit 26 is based on the cut-out range information (for example, cut-out center position information and cut-out area size information) calculated by the cut-out information calculating unit 32 as described later. The image signal (captured image) after focus adjustment input via the / F unit 22 is cut out.

倍率処理部27は、切出処理部26により切り出された画像を、映像表示部18に表示するのに適した所定のサイズに拡大/縮小するものである。   The magnification processing unit 27 enlarges / reduces the image cut out by the cut-out processing unit 26 to a predetermined size suitable for displaying on the video display unit 18.

表示信号変換部28は、倍率調整部25により切り出され倍率調整された画像信号を、映像表示部18により表示可能な表示信号に変換するものである。なお、特に図示はしないが、この表示信号は、例えば教育目的などの用途を考慮して、別途の外部モニタ等へも出力可能となっている。   The display signal conversion unit 28 converts the image signal cut out by the magnification adjustment unit 25 and adjusted in magnification into a display signal that can be displayed by the video display unit 18. Although not particularly illustrated, this display signal can be output to a separate external monitor or the like in consideration of applications such as educational purposes.

映像表示部18は、左眼用映像表示素子18Lと右眼用映像表示素子18Rとを備えている。また、上述した接眼光学系19は、図示はしないが、左眼用映像表示素子18Lにより表示された映像を観察者OBSの左眼へ向けて投影するための左眼用接眼光学系と、右眼用映像表示素子18Rにより表示された映像を観察者OBSの右眼へ向けて投影するための右眼用接眼光学系と、を備えている。なお、ここでは、左右一対の映像表示素子18L,18Rを設けているが、左右で同一の映像のみを表示する場合には、1つの映像表示素子を左右で兼用するように構成しても構わない。   The video display unit 18 includes a left-eye video display element 18L and a right-eye video display element 18R. The eyepiece optical system 19 described above, although not shown, has a left eyepiece optical system for projecting the image displayed by the left eye image display element 18L toward the left eye of the observer OBS, A right-eye eyepiece optical system for projecting the image displayed by the eye image display element 18R toward the right eye of the observer OBS. Although a pair of left and right video display elements 18L and 18R are provided here, when only the same video is displayed on the left and right, one video display element may be used on both the left and right. Absent.

視線検知用照明部13は、例えば、光源である赤外発光ダイオード(IRLED)や、このIRLEDから発光された光を略平行光に変換するためのコリメートレンズなどを含んで構成されたものである。   The line-of-sight detection illumination unit 13 includes, for example, an infrared light emitting diode (IRLED) that is a light source, and a collimator lens that converts light emitted from the IRLED into substantially parallel light. .

視線検知部14は、例えば、上述した視線検知用照明部13から投光され観察者OBSの眼で反射された光を集光するシリンドリカルレンズ14a(図5参照)や、このシリンドリカルレンズ14aにより集光された光を電気信号に変換するラインセンサ14b(図5参照)などを含んで構成されたものである。この視線検知部14は、視線検知用照明部13の制御も行うようになっている。   The line-of-sight detection unit 14 is collected by, for example, a cylindrical lens 14a (see FIG. 5) that collects the light projected from the above-described line-of-sight detection illumination unit 13 and reflected by the eyes of the observer OBS, or the cylindrical lens 14a. It is configured to include a line sensor 14b (see FIG. 5) that converts the emitted light into an electrical signal. The line-of-sight detection unit 14 also controls the line-of-sight detection illumination unit 13.

視線方向検出部31は、視線検知部14のラインセンサから出力された信号に基づいて、観察者OBSの視線方向を検出するものである。   The line-of-sight direction detection unit 31 detects the line-of-sight direction of the observer OBS based on a signal output from the line sensor of the line-of-sight detection unit 14.

撮像部電源制御部33は、撮像部11のオン/オフを制御するものである。この撮像部電源制御部33による撮像部11のオン/オフ制御は、各種の要因に基づき行われるが、その要因の1つが、後述するように視線方向検出部31により検出された視線方向となっている。   The imaging unit power supply control unit 33 controls on / off of the imaging unit 11. The on / off control of the image pickup unit 11 by the image pickup unit power supply control unit 33 is performed based on various factors, and one of the factors is the line-of-sight direction detected by the line-of-sight direction detection unit 31 as described later. ing.

照明制御部34は、照明部12のオン/オフや、あるいはこの照明部12による発光量を制御するものである。この照明制御部34による照明部12の制御は、各種の要因に基づき行われるが、その要因の1つが、後述するように視線方向検出部31により検出された視線方向となっている。   The illumination control unit 34 controls on / off of the illumination unit 12 or the amount of light emitted by the illumination unit 12. The illumination control unit 34 controls the illumination unit 12 based on various factors, and one of the factors is the line-of-sight direction detected by the line-of-sight direction detection unit 31 as described later.

映像表示部電源制御部35は、映像表示部18のオン/オフを制御するものである。この映像表示部電源制御部35による映像表示部18の制御は、各種の要因に基づき行われるが、その要因の1つが、後述するように視線方向検出部31により検出された視線方向となっている。   The video display unit power supply control unit 35 controls on / off of the video display unit 18. The control of the video display unit 18 by the video display unit power supply control unit 35 is performed based on various factors, and one of the factors is the gaze direction detected by the gaze direction detection unit 31 as described later. Yes.

測距センサ36は、上述した測距用照明部15と、上述した測距用照明受光部16と、測距部37と、を備えている。   The distance measurement sensor 36 includes the distance measurement illumination unit 15, the distance measurement illumination light receiving unit 16, and the distance measurement unit 37.

測距用照明部15は、例えば、光源である赤外発光ダイオード(IRLED)や、このIRLEDから発光された光を照射するための発光用レンズなどを含んで構成されている。   The distance measuring illumination unit 15 includes, for example, an infrared light emitting diode (IRLED) that is a light source, a light emitting lens for irradiating light emitted from the IRLED, and the like.

測距用照明受光部16は、上述した測距用照明部15から投光され被写体(観察物体)で反射された光を受光する受光用レンズや、この受光用レンズにより集光された光を電気信号に変換する位置検出素子(PSD)などを含んで構成されている。この測距用照明受光部16は、測距用照明部15とは所定距離だけ離隔して配設され、いわゆる三角測量方式により被写体までの距離を検出するものとなっている。   The distance measuring light receiving unit 16 receives the light projected from the distance measuring illumination unit 15 and reflected by the subject (observation object), and the light collected by the light receiving lens. It includes a position detection element (PSD) that converts it into an electrical signal. This distance measuring illumination light receiving unit 16 is disposed at a predetermined distance from the distance measuring illumination unit 15 and detects the distance to the subject by a so-called triangulation method.

測距部37は、測距用照明部15を制御して発光を行わせるとともに、測距用照明受光部16の位置検出素子(PSD)から出力される信号に基づいて、被写体(観察物体)までの距離を測定するものである。   The distance measurement unit 37 controls the distance measurement illumination unit 15 to emit light, and based on a signal output from the position detection element (PSD) of the distance measurement illumination light receiving unit 16, a subject (observation object) It measures the distance to.

なお、ここでは測距センサ36により観察物体OBJまでの距離を測定しているが、測定精度をより向上するために、視線方向検出部31により検出された視線方向の延長上に位置する観察物体OBJの一部分(すなわち、観察者OBSの注視部分)までの距離を測定して距離情報とするようにしても良い。   Here, the distance to the observation object OBJ is measured by the distance measuring sensor 36. However, in order to further improve the measurement accuracy, the observation object located on the extension of the line-of-sight direction detected by the line-of-sight direction detection unit 31 is measured. You may make it measure distance to a part of OBJ (namely, gaze part of observer OBS), and let it be distance information.

切出情報演算部32は、視線方向検出部31から得られた観察者OBSの視線方向の情報と、測距センサ36から得られた被写体の距離情報と、設計時に予め定められている撮像部11の取付位置や取付角度の情報と、に基づいて、視線方向にある被写体部分が中心となり、かつ例えば被写体までの距離によることなく注目部分が常に一定の大きさとして表示されるように、撮像された画像から切り出す範囲(上述したように、例えば、切出中心位置と切り出す領域の大きさ)を演算するものである。   The cut-out information calculation unit 32 includes information on the line-of-sight direction of the observer OBS obtained from the line-of-sight direction detection unit 31, object distance information obtained from the distance measuring sensor 36, and an imaging unit that is determined in advance at the time of design. Based on the information on the attachment position and the attachment angle of 11, the subject portion in the line-of-sight direction is the center, and for example, the attention portion is always displayed as a constant size regardless of the distance to the subject. A range to be cut out from the cut image (for example, as described above, for example, the cut-out center position and the size of the cut-out area) is calculated.

また、第2制御装置2は、バッテリ41を備えた電源部として構成されていて、頭部に装着して用いる本体1をより軽量化するために、本体1とは例えば別体として構成されている。この第2制御装置2は、本体1の電源入力部38へ電源を供給するためのものである。また、この第2制御装置2は、ACコンセント等の外部電源に接続することも可能となっていて、外部電源から得た電力を電気制御部21へ供給したり、あるいはバッテリ41の充電を行ったりすることができるようになっている。   Moreover, the 2nd control apparatus 2 is comprised as a power supply part provided with the battery 41, and in order to reduce the weight of the main body 1 used by mounting | wearing a head, it is comprised as the main body 1, for example as a different body. Yes. The second control device 2 is for supplying power to the power input unit 38 of the main body 1. Further, the second control device 2 can be connected to an external power source such as an AC outlet, and supplies electric power obtained from the external power source to the electric control unit 21 or charges the battery 41. You can do that.

次に、図5は視線検知部14の構成を図4の矢印A方向から示す図、図6は視線検知部14により眼を検出したときの受光出力の様子を示す図である。   Next, FIG. 5 is a diagram showing the configuration of the line-of-sight detection unit 14 from the direction of arrow A in FIG. 4, and FIG.

視線検知部14は、上述したように、シリンドリカルレンズ14aとラインセンサ14bとを備えている。ここに、シリンドリカルレンズ14aは、瞳孔PUPを含む眼からの反射光REFLをラインセンサ14b上に集光するものであり、図2および図3における縦方向(図4における矢印A方向)がレンズ面の軸方向となるように細長の形状に形成されたものである。また、ラインセンサ14bは、レンズ面の軸方向と平行な方向に複数のフォトダイオードを配列したものである。   As described above, the line-of-sight detection unit 14 includes the cylindrical lens 14a and the line sensor 14b. Here, the cylindrical lens 14a collects the reflected light REFL from the eye including the pupil PUP on the line sensor 14b, and the vertical direction in FIGS. 2 and 3 (the direction of arrow A in FIG. 4) is the lens surface. It is formed in an elongated shape so as to be in the axial direction. The line sensor 14b has a plurality of photodiodes arranged in a direction parallel to the axial direction of the lens surface.

このような構成の視線検知部14により、図6の右側に示すような眼を検出したときのラインセンサ14bによる検出結果が、例えば図6の左側に示したようになったものとする。   Assume that the detection result by the line sensor 14b when the eye as shown on the right side of FIG. 6 is detected by the line-of-sight detection unit 14 having such a configuration is as shown on the left side of FIG. 6, for example.

すなわち、眼EYE以外の部分では受光出力が低く、眼EYEの部分で受光出力が立ち上がり、虹彩IRの中心に位置する瞳孔PUPの部分で受光出力がピークとなるような検出結果であったものとする(瞳孔PUPと虹彩IRとではコントラストが異なるために、受光出力に基づくこのような検出が可能である)。このとき、視線方向検出部31は、受光出力のピーク位置が所定位置(例えば中央)である場合には観察者が正面を注視していると検出し、ピーク位置が所定位置よりも上側である場合にはそのずれ量に応じた仰角の上方向を注視していると検出し、ピーク位置が所定位置よりも下側である場合にはそのずれ量に応じた仰角の下方向を注視していると検出するようになっている。   That is, the detection result is such that the light reception output is low in the portion other than the eye EYE, the light reception output rises in the eye EYE portion, and the light reception output peaks in the portion of the pupil PUP located at the center of the iris IR. (The pupil PUP and the iris IR have different contrasts, and such detection based on the received light output is possible). At this time, when the peak position of the light reception output is a predetermined position (for example, the center), the line-of-sight direction detection unit 31 detects that the observer is gazing at the front, and the peak position is above the predetermined position. In such a case, it is detected that the upward direction of the elevation angle according to the amount of deviation is being watched, and when the peak position is below the predetermined position, the downward direction of the elevation angle according to the amount of deviation is closely watched. It is supposed to detect that there is.

なお、この頭部装着型映像取得表示装置を、例えば歯科に使用する場合には、いわゆる横目で被写体を観察することはほとんど考えられず、上下方向の視線を検知するだけで足りる。そこで、本実施形態の図2〜図4に示すように、上下方向の視線を検知するための視線検知用照明部13および視線検知部14を設けたが、用途などに応じて必要な場合には、左右方向の視線を検知するための視線検知用照明部13および視線検知部14をさらに設けてももちろん構わない。   When this head-mounted image acquisition / display apparatus is used, for example, for dentistry, it is almost impossible to observe the subject with a so-called horizontal eye, and it is only necessary to detect the line of sight in the vertical direction. Therefore, as shown in FIGS. 2 to 4 of the present embodiment, the gaze detection illumination unit 13 and the gaze detection unit 14 for detecting the gaze in the vertical direction are provided. Of course, it is possible to further provide a gaze detection illumination unit 13 and a gaze detection unit 14 for detecting a gaze in the left-right direction.

次に、図7はフォーカス調整部23により算出される輝度値の総和とフォーカスレンズ位置との関係を示す線図である。   Next, FIG. 7 is a diagram showing the relationship between the sum of luminance values calculated by the focus adjustment unit 23 and the focus lens position.

フォーカス調整部23は、AF駆動部24を介して焦点位置を少しずつ移動させ、各焦点位置において、カメラI/F部22を介して撮像部11から輝度信号(もしくは、G信号等の輝度信号に相当する信号)をそれぞれ取得し、その総和をコントラストを示す値として算出する。そして、このコントラスト値が最大値となるフォーカスレンズ位置を合焦位置とし、この合焦位置にフォーカスレンズを移動させるように制御するものである。   The focus adjustment unit 23 gradually moves the focal position via the AF driving unit 24, and at each focal position, a luminance signal (or a luminance signal such as a G signal) is output from the imaging unit 11 via the camera I / F unit 22. Are obtained as a value indicating contrast. Then, the focus lens position where the contrast value is the maximum value is set as a focus position, and control is performed so that the focus lens is moved to this focus position.

続いて、図8は、フレーム3と表示ユニット6との間に構成される視界の様子を示す配置図である。   Next, FIG. 8 is a layout diagram showing the state of the field of view formed between the frame 3 and the display unit 6.

頭部装着型映像取得表示装置の構成が、上述した図2〜図4に示したようなものである場合には、上下方向の視界は、観察者の眼EYEから観察したときのフレーム3と表示ユニット6との間に構成される空間の画角(図8に示す視野角αは、この画角の上下方向の角度を示す)により決まることになる。この画角を決定する要因は、フレーム3の下端と表示ユニット6の上端との間の距離や、観察者の眼EYEからフレーム3の下端までの距離および表示ユニット6の上端までの距離などである。   When the configuration of the head-mounted image acquisition / display apparatus is as shown in FIGS. 2 to 4 described above, the vertical field of view is the frame 3 when observed from the observer's eye EYE. The angle of view of the space formed between the display unit 6 (the viewing angle α shown in FIG. 8 indicates the vertical angle of this angle of view). Factors that determine the angle of view are the distance between the lower end of the frame 3 and the upper end of the display unit 6, the distance from the observer's eye EYE to the lower end of the frame 3, and the distance to the upper end of the display unit 6. is there.

そこで、本実施形態の構成においては、垂直方向の視野角αとして例えば15.2°(なお、水平方向の視野角は、右眼の水平右方向には視野を遮るものがなく、かつ左眼の水平左方向には視野を遮るものがないために、左右両眼を合わせれば通常の人間の視野角と同様の180°以上(例えば200°)である。)の角度を確保することができるようにしている。ここに、15.2°の視野角αは、観察者の頭部が垂直になっていて、視線が水平方向を向いているときの視線方向を中心として15.2°であるために、このときには、水平方向上側7.6°、水平方向下側7.6°となる。上述したように、観察者の眼EYEからフレーム3の下端および表示ユニット6の上端までの距離が略一定に保たれるように例えば額パッド等を配置しているために、この距離と、15.2°という垂直方向の視野角αと、に基づいて、フレーム3の下端と表示ユニット6の上端との間の距離を設計時に決定することが可能である。   Therefore, in the configuration of the present embodiment, the viewing angle α in the vertical direction is 15.2 °, for example (the viewing angle in the horizontal direction does not obstruct the viewing field in the horizontal right direction of the right eye, and the left eye Since there is nothing to block the visual field in the horizontal left direction, if the left and right eyes are combined, an angle of 180 ° or more (for example, 200 °) similar to the normal human viewing angle can be secured. I am doing so. Here, the viewing angle α of 15.2 ° is 15.2 ° centered on the viewing direction when the observer's head is vertical and the viewing direction is in the horizontal direction. In some cases, the horizontal upper side is 7.6 ° and the horizontal lower side is 7.6 °. As described above, for example, a forehead pad is arranged so that the distance from the observer's eye EYE to the lower end of the frame 3 and the upper end of the display unit 6 is kept substantially constant. Based on the vertical viewing angle α of 2 °, the distance between the lower end of the frame 3 and the upper end of the display unit 6 can be determined at the time of design.

この頭部装着型映像取得表示装置を、特定用途、例えば歯科に使用する場合には、観察者(この場合には歯科医等)の眼から観察物体である歯牙等までの想定される距離(特定距離範囲)は、最短距離L1=300mm〜最長距離L2=500mmである。そこで、本実施形態の頭部装着型映像取得表示装置も、この最短距離L1および最長距離L2に合わせて設計されている。   When this head-mounted image acquisition and display device is used for a specific application, for example, dentistry, an assumed distance from an eye of an observer (in this case, a dentist, etc.) to a tooth or the like as an observation object ( The specific distance range) is the shortest distance L1 = 300 mm to the longest distance L2 = 500 mm. Therefore, the head-mounted image acquisition / display apparatus of the present embodiment is also designed in accordance with the shortest distance L1 and the longest distance L2.

また、撮像部11は、観察者の眼EYEからの垂直方向の距離Tが典型値30mmとなるように設計されている(図示はしないが、本体1には装着位置調整機構が設けられていて、観察者が最適な位置での装着を行えるように調整可能である)。さらに、撮像部11は、最短距離L1において、撮像光軸Oが視界の中心線(頭部を垂直にして水平方向を見ているときの視線方向(なお、ここでは説明を容易にするために頭部が垂直である場合を例に挙げて説明しているが、もちろん、頭部が斜め上あるいは斜め下に傾いているときには、その傾きに応じて視界の中心線も傾くことはいうまでもない))と交差するようにやや下へ傾けて構成されている。正接(タンジェント)がT/L1=30/300となる角度θは5.7°であるために、撮像光軸Oと視界の中心線とは5.7°をなして交差することになる。   The imaging unit 11 is designed so that the vertical distance T from the observer's eye EYE is a typical value of 30 mm (not shown, but the main body 1 is provided with a mounting position adjusting mechanism). , And can be adjusted so that the observer can wear it in the optimal position). Further, the imaging unit 11 is configured such that, at the shortest distance L1, the imaging optical axis O is the center line of the field of view (the direction of the line of sight when the head is vertical and looking in the horizontal direction (here, for ease of explanation). Although the case where the head is vertical is described as an example, of course, when the head is inclined obliquely upward or obliquely downward, it goes without saying that the center line of the field of view is inclined according to the inclination. Not))) and tilted down slightly to intersect. Since the angle θ at which the tangent is T / L1 = 30/300 is 5.7 °, the imaging optical axis O and the center line of the field of view intersect at 5.7 °.

最短距離L1(300mm)において観察者の視界に入り得る物体の垂直方向の大きさは、L1×2×tan(α/2)=300mm×2×tan(7.6°)=80mmである。そこで、撮像部11の垂直方向の画角δは、最短距離L1から最長距離L2までの何れの位置に大きさ80mmの観察物体OBJがあるときでも、この観察物体OBJを垂直方向の画像内に含み得るように設定されている。これにより、撮像部11に機械的なチルト機構を設けなくても、被写体距離によることなく被写体を撮像することができるようになる。   The vertical size of an object that can enter the observer's field of view at the shortest distance L1 (300 mm) is L1 × 2 × tan (α / 2) = 300 mm × 2 × tan (7.6 °) = 80 mm. Therefore, the angle of view δ in the vertical direction of the imaging unit 11 is such that the observation object OBJ is included in the vertical image regardless of the position of the observation object OBJ having a size of 80 mm from the shortest distance L1 to the longest distance L2. It is set so that it can be included. As a result, the subject can be imaged without depending on the subject distance without providing a mechanical tilt mechanism in the imaging unit 11.

一方、表示ユニット6の接眼光学系19は、主光線PRを観察するときの視線方向が、上述した直視時の視界の中心線よりも角度β=25°下方を向くように構成されている。また、観察する画像の画角は、垂直方向の画角γ=15°(図示はしないが、水平方向の画角=20°)となるように構成されている。   On the other hand, the eyepiece optical system 19 of the display unit 6 is configured such that the line-of-sight direction when observing the principal ray PR is directed downward by the angle β = 25 ° from the above-described center line of the field of view during direct viewing. In addition, the angle of view of the image to be observed is configured to be a vertical angle of view γ = 15 ° (not shown, but a horizontal angle of view = 20 °).

次に、図9は、視線方向が水平方向である場合に、観察者OBSから観察物体OBJまでの距離が変化したときにも、画像を切り出す切出中心位置を一定にするようにした様子を示す図である。ここに、図9(A)は観察者OBS(頭部装着型映像取得表示装置)から観察物体OBJまでの距離が最短距離(上述したように、例えば300mm)であるときの様子を示し、図9(B)は観察者OBSから観察物体OBJまでの距離が中程度の距離(例えば400mm)であるときの様子を示し、図9(C)は観察者OBSから観察物体OBJまでの距離が最長距離(上述したように、例えば500mm)であるときの様子を示している。なお、この図9における符号FPで示される四角枠は、撮像部11による撮像範囲を示している。   Next, FIG. 9 shows a state in which, when the line-of-sight direction is the horizontal direction, the cut-out center position for cutting out the image is made constant even when the distance from the observer OBS to the observation object OBJ changes. FIG. FIG. 9A shows a state where the distance from the observer OBS (head-mounted image acquisition display device) to the observation object OBJ is the shortest distance (for example, 300 mm as described above). 9 (B) shows a state where the distance from the observer OBS to the observation object OBJ is a medium distance (for example, 400 mm), and FIG. 9 (C) shows the longest distance from the observer OBS to the observation object OBJ. A state when the distance is (for example, 500 mm as described above) is shown. In addition, the square frame shown with the code | symbol FP in this FIG. 9 has shown the imaging range by the imaging part 11. FIG.

本実施形態の頭部装着型映像取得表示装置は、上述したように、視線検知を行って観察者OBSの視線方向を検出し、測距を行って観察物体OBJまでの距離を測定している。そして、切出情報演算部32は、検出された視線方向の情報と観察物体OBJまでの距離とに基づいて、撮像部11により撮像されている画像中の、どの部分を観察者OBSが注視しているかを算出する(図9の撮像範囲FP内に示されている十字線の交点が、注視点(図示の例では、歯科における注視歯牙)を示している)。さらに、算出された画像中の注視位置を、切出中心位置CPとして確定するようになっている。   As described above, the head-mounted image acquisition and display apparatus according to the present embodiment performs gaze detection to detect the gaze direction of the observer OBS, and performs distance measurement to measure the distance to the observation object OBJ. . Then, based on the detected information on the line-of-sight direction and the distance to the observation object OBJ, the cut-out information calculation unit 32 gazes at which part of the image captured by the imaging unit 11 is observed by the observer OBS. (The intersection of the cross lines shown in the imaging range FP in FIG. 9 indicates a gazing point (in the example shown, a gazing tooth in dentistry)). Furthermore, the calculated gaze position in the image is determined as the cut-out center position CP.

すなわち、視線方向と撮像部11の撮像光軸Oの方向とは図8に示したように角度θをなして交差しているために、撮像部11により撮像して得られる画像(撮像画像)中の観察物体OBJの上下位置は、観察者OBSから観察物体OBJまでの距離に応じて異なることになる。具体的には、最短距離L1においては水平方向を見ているときの視界の中心線と被写体とが交差する注視点は、撮像画像の中心(撮像画像中の撮像光軸と被写体とが交差する点)に一致する。しかし、被写体距離が最短距離L1から最長距離L2側へ向けて変化する(遠ざかる)と、図9(A)〜図9(C)に示すように、注視点は被写体距離に応じて撮像画像の中心よりも上にずれていくことになる。   That is, since the line-of-sight direction and the direction of the imaging optical axis O of the imaging unit 11 intersect at an angle θ as shown in FIG. 8, an image (captured image) obtained by imaging by the imaging unit 11 The vertical position of the inside observation object OBJ varies depending on the distance from the observer OBS to the observation object OBJ. Specifically, at the shortest distance L1, the gaze point at which the center line of the field of view and the subject intersect when looking in the horizontal direction is the center of the captured image (the captured optical axis in the captured image intersects the subject). Point). However, when the subject distance changes (moves away) from the shortest distance L1 toward the longest distance L2, as shown in FIG. 9 (A) to FIG. 9 (C), the gazing point is determined according to the subject distance. It will be shifted above the center.

そこで、切出情報演算部32は、視線方向の情報および被写体距離の情報に基づいて、表示画像の中心に注視点が位置するように切出中心位置CPを設定することにより、このようなずれを補正するようになっている。   Therefore, the cutout information calculation unit 32 sets such a shift center position CP so that the gazing point is located at the center of the display image based on the information on the line-of-sight direction and the information on the subject distance. Is to be corrected.

続いて、図10は、視線方向が水平方向であって、観察者OBSから観察物体OBJまでの距離が変化したときに、図9に示したように切出中心位置CPを一定にしながら、画像を切り出す範囲を設定する様子を示す図である。上述した図9と同様に、図10(A)は観察者OBSから観察物体OBJまでの距離が最短距離であるときの様子を示し、図10(B)は観察者OBSから観察物体OBJまでの距離が中程度の距離であるときの様子を示し、図10(C)は観察者OBSから観察物体OBJまでの距離が最長距離であるときの様子を示している。   Subsequently, FIG. 10 shows an image while keeping the cutting center position CP constant as shown in FIG. 9 when the line-of-sight direction is horizontal and the distance from the observer OBS to the observation object OBJ changes. It is a figure which shows a mode that the range which cuts out is set. Similarly to FIG. 9 described above, FIG. 10A shows a state where the distance from the observer OBS to the observation object OBJ is the shortest distance, and FIG. 10B shows a state from the observer OBS to the observation object OBJ. FIG. 10C shows a state when the distance is a medium distance, and FIG. 10C shows a state when the distance from the observer OBS to the observation object OBJ is the longest distance.

観察者OBSから観察物体OBJまでの距離、すなわち、頭部装着型映像取得表示装置から観察物体OBJまでの距離が変化すると、撮像画像内における注視位置が変化するだけでなく、さらに、撮像画像内における観察物体OBJの大きさが変化する(すなわち、観察物体OBJは、近くにあるときには大きく撮像され、遠くにあるときには小さく撮像される)。   When the distance from the observer OBS to the observation object OBJ, that is, the distance from the head-mounted image acquisition display device to the observation object OBJ changes, not only the gaze position in the captured image changes, but also in the captured image. The size of the observation object OBJ at the position changes (that is, the observation object OBJ is imaged large when it is close and imaged small when it is far).

本実施形態においては、被写体距離の変化に伴って撮像画像中の観察物体OBJの大きさがこのように変化したとしても、表示画像中における観察物体OBJの大きさは常に略一定となるように倍率処理部27により倍率処理を行うようになっている。そして、この倍率処理部27により処理される画像部分を切り出すのが切出処理部26である。さらに、この切出処理部26により切り出される画像領域の大きさを、測距センサ36から得られる距離情報に基づいて演算するのは、切出情報演算部32である。   In the present embodiment, even if the size of the observation object OBJ in the captured image changes in this manner as the subject distance changes, the size of the observation object OBJ in the display image is always substantially constant. The magnification processing unit 27 performs magnification processing. The cutout processing unit 26 cuts out the image portion processed by the magnification processing unit 27. Further, it is the cutout information calculation unit 32 that calculates the size of the image area cut out by the cutout processing unit 26 based on the distance information obtained from the distance measuring sensor 36.

すなわち、切出情報演算部32は、撮像範囲FP内において、観察物体OBJが最短距離L1にあるときには図10(A)に示すように比較的大きい範囲を切出範囲DAとして設定し、中程度の距離にあるときには図10(B)に示すように中程度の範囲を切出範囲DAとして設定し、最長距離L2にあるときには図10(C)に示すように比較的小さい範囲を切出範囲DAとして設定するようになっている。なお、何れの場合にも、切出範囲DAに対する観察物体OBJの相対的な大きさは一定である。また、この切出範囲DAの最短距離L1におけるサイズを縦DY×横DXとすると、歯科用途における具体的な数値例としてDY=24mm、DX=32mmが挙げられる。   That is, when the observation object OBJ is at the shortest distance L1 within the imaging range FP, the cutout information calculation unit 32 sets a relatively large range as the cutout range DA as shown in FIG. 10B, the medium range is set as the cutout range DA as shown in FIG. 10B, and when it is at the longest distance L2, a relatively small range is set up as shown in FIG. 10C. It is set as DA. In any case, the relative size of the observation object OBJ with respect to the cutout range DA is constant. Further, assuming that the size of the cutout range DA at the shortest distance L1 is vertical DY × horizontal DX, specific numerical examples in dental use include DY = 24 mm and DX = 32 mm.

次に、図11は頭部装着型映像取得表示装置により測距および視線検知を行って撮像画像を切り出して表示する処理を示すフローチャートである。   Next, FIG. 11 is a flowchart showing a process of performing distance measurement and line-of-sight detection by a head-mounted image acquisition and display device and cutting out and displaying a captured image.

この処理を開始すると、測距用照明部15の赤外発光ダイオード(IRLED)を発光させ(ステップS1)、観察物体OBJにより反射された赤外光を測距用照明受光部16の位置検出素子(PSD)により受光して(ステップS2)、測距部37により観察物体OBJまでの距離を算出する(ステップS3)。   When this process is started, the infrared light emitting diode (IRLED) of the distance measuring illumination unit 15 emits light (step S1), and the infrared light reflected by the observation object OBJ is detected by the position detecting element of the distance measuring light receiving unit 16. The light is received by (PSD) (step S2), and the distance to the observation object OBJ is calculated by the distance measuring unit 37 (step S3).

このような観察物体OBJまでの距離測定を行う一方で、頭部装着型映像取得表示装置は、観察者OBSの視線方向の検出を行う(なお、測距と視線方向検知とは、同時であっても構わないし、適宜の順序による順次であっても良い)。すなわち、まず、視線検知用照明部13の赤外発光ダイオード(IRLED)を発光させ(ステップS4)、観察者OBSの眼球により反射された赤外光を視線検知部14のラインセンサにより受光して(ステップS5)、ラインセンサの出力に基づき視線方向検出部31が観察者OBSの視線方向を算出する(ステップS6)。   While measuring the distance to the observation object OBJ, the head-mounted image acquisition and display device detects the line-of-sight direction of the observer OBS (note that the distance measurement and the line-of-sight direction detection are simultaneous. Or may be sequential in an appropriate order). That is, first, the infrared light emitting diode (IRLED) of the line-of-sight detection illumination unit 13 is caused to emit light (step S4), and infrared light reflected by the eyeball of the observer OBS is received by the line sensor of the line-of-sight detection unit 14. (Step S5) Based on the output of the line sensor, the line-of-sight direction detector 31 calculates the line-of-sight direction of the observer OBS (Step S6).

そして、検出された視線方向が、図8に示した視野角α(上述した例においては、水平方向を中心とした15.2°)の範囲内に入っているか否かを判定する(ステップS7)。なお、ここでは便宜上、図8における横方向を水平方向と述べたが、重力方向に対する水平方向である必要はなく、頭部装着型映像取得表示装置が装着されたときに観察者OBSにより直視されていると想定されている方向(頭部装着型映像取得表示装置を設計したときに、そのように想定した方向)であれば良い。   Then, it is determined whether or not the detected line-of-sight direction is within the range of the viewing angle α shown in FIG. 8 (in the above example, 15.2 ° centered on the horizontal direction) (step S7). ). Here, for the sake of convenience, the horizontal direction in FIG. 8 is described as the horizontal direction. However, the horizontal direction is not necessarily the horizontal direction with respect to the direction of gravity, and is directly viewed by the observer OBS when the head-mounted image acquisition display device is mounted. It is only necessary to be in the direction assumed to be (the direction assumed in this way when the head-mounted image acquisition / display apparatus is designed).

このステップS7において、視線方向が視野角αの範囲内に入っていないと判定された場合には、切出情報演算部32は、観察者OBSが表示ユニット6を介して観察物体OBJを観察している状態であると判定して、視線を移動する前の切出中心位置CPと切出範囲DAとをそのまま保持する(ステップS8)。   In step S7, when it is determined that the line-of-sight direction is not within the range of the viewing angle α, the cut-out information calculation unit 32 observes the observation object OBJ via the display unit 6 by the observer OBS. The cut center position CP and the cut range DA before moving the line of sight are held as they are (step S8).

一方、上記ステップS7において、視線方向が視野角αの範囲内に入っていると判定された場合には、切出情報演算部32は、観察者OBSが観察物体OBJを直視で観察している状態であると判定して、撮像画像の切出中心位置CPを、ステップS3により算出された観察物体OBJまでの距離と、ステップS6により算出された視線方向と、に基づき算出する(ステップS9)。   On the other hand, when it is determined in step S7 that the line-of-sight direction is within the range of the viewing angle α, the cut-out information calculation unit 32 observes the observation object OBJ directly by the observer OBS. The cut center position CP of the captured image is calculated based on the distance to the observation object OBJ calculated in step S3 and the line-of-sight direction calculated in step S6 (step S9). .

そして、切出情報演算部32は、切出中心位置CPを基準にして、観察物体OBJまでの距離に基づき切出範囲DAを算出する(ステップS10)。   Then, the cutout information calculation unit 32 calculates the cutout range DA based on the distance to the observation object OBJ with reference to the cutout center position CP (step S10).

このステップS10の処理または上述したステップS8の処理が終了したら、フォーカス調整部23がAF駆動部24を介して撮像部11のレンズのフォーカスを上述したように調整し(ステップS11)、撮像部11により撮像を行って撮像画像を取得する(ステップS12)。   When the processing of step S10 or the processing of step S8 described above is completed, the focus adjustment unit 23 adjusts the focus of the lens of the imaging unit 11 via the AF driving unit 24 as described above (step S11), and the imaging unit 11 To obtain a captured image (step S12).

次に、ステップS8またはステップS10において設定された切出範囲(中心位置および領域の大きさ)となるように切出処理部26により撮像画像の切り出しを行い(ステップS13)、切り出した画像を、映像表示部18の各表示素子の表示領域に合わせた倍率となるように倍率処理部27により処理して(ステップS14)、表示信号変換部28により表示信号に変換した後に映像表示部18の各表示素子に表示する(ステップS15)。なお、上述したように外部モニタ等が接続されているときには、このステップS15において、外部モニタ等への表示も行われる。   Next, the cut-out processing unit 26 cuts out the captured image so that the cut-out range (center position and area size) set in step S8 or step S10 is set (step S13). The magnification processing unit 27 performs processing so as to obtain a magnification that matches the display area of each display element of the video display unit 18 (step S14), and the display signal conversion unit 28 converts the display signal into a display signal. Display on the display element (step S15). When an external monitor or the like is connected as described above, display on the external monitor or the like is also performed in step S15.

このような処理は、動画像表示を行う際に、各フレーム毎に(あるいは複数フレームに1回の割合で)行われる。そして、この頭部装着型映像取得表示装置の電源がオフされるなどしたところで、この処理を終了する。   Such processing is performed for each frame (or at a rate of once per a plurality of frames) when displaying a moving image. Then, when the power of the head-mounted image acquisition / display apparatus is turned off, the process is terminated.

次に、図12は、観察者OBSが観察物体OBJを直視で観察しているときに、より省電力を図るようにする処理例を示すフローチャートである。この図12に示す処理は、図11のステップS7において判断の分岐が行われたときの処理となっている。   Next, FIG. 12 is a flowchart illustrating a processing example for further saving power when the observer OBS is directly observing the observation object OBJ. The process shown in FIG. 12 is a process performed when the determination is branched in step S7 of FIG.

上述した図11の処理においては、観察者OBSが観察物体OBJを直視しているかあるいは映像表示部18を観察しているかに関わらず、映像表示部18、撮像部11、および照明部12をオンにしていることを前提としていた。これに対して、この図12に示す例においては、視線方向やモード設定に応じて適宜にオン/オフを行うことにより、省電力を図るようになっている。   In the process of FIG. 11 described above, the video display unit 18, the imaging unit 11, and the illumination unit 12 are turned on regardless of whether the observer OBS is directly looking at the observation object OBJ or the video display unit 18. It was assumed that it was. On the other hand, in the example shown in FIG. 12, power is saved by appropriately turning on / off in accordance with the line-of-sight direction and mode setting.

すなわち、上記ステップS7において、視線方向が視野角αの範囲内に入っていると判定されると、この頭部装着型映像取得表示装置が映像表示部18の自動オフモードに設定されているか否かを判定する(ステップS21)。ここで、映像表示部18の自動オフモードに設定されていると判定された場合には、映像表示部18をオフする(ステップS22)。なお、このステップS22の処理が行われたときには、図11に示したステップS15においては外部モニタへの表示のみが行われるか、もしくはステップS15の処理がスキップされる。   That is, if it is determined in step S7 that the line-of-sight direction is within the range of the viewing angle α, whether or not the head-mounted image acquisition / display device is set to the automatic off mode of the image display unit 18 is determined. Is determined (step S21). If it is determined that the video display unit 18 is set to the automatic off mode, the video display unit 18 is turned off (step S22). When the process in step S22 is performed, only the display on the external monitor is performed in step S15 shown in FIG. 11, or the process in step S15 is skipped.

このステップS22の処理が終了したら、次に、この頭部装着型映像取得表示装置が撮像部11の自動オフモードに設定されているか否かを判定する(ステップS23)。ここに、観察者OBSが映像表示部18を観察していないときであっても、撮像部11により撮像された画像を別途のモニタ等へ出力して表示し、上述したような教育目的などに用いることが考えられる。このような理由により、映像表示部18のオン/オフと、撮像部11のオン/オフとは、独立して設定することができるようになっている。   When the process of step S22 is completed, it is next determined whether or not the head-mounted image acquisition / display apparatus is set to the automatic off mode of the imaging unit 11 (step S23). Here, even when the observer OBS is not observing the video display unit 18, the image captured by the imaging unit 11 is output and displayed on a separate monitor or the like for educational purposes as described above. It is possible to use it. For this reason, ON / OFF of the video display unit 18 and ON / OFF of the imaging unit 11 can be set independently.

このステップS23において撮像部11の自動オフモードに設定されていると判定された場合には、撮像部11をオフする(ステップS24)。   If it is determined in step S23 that the automatic off mode of the imaging unit 11 is set, the imaging unit 11 is turned off (step S24).

このステップS24の処理が終了したら、次に、この頭部装着型映像取得表示装置が照明部12の自動オフモードに設定されているか否かを判定する(ステップS25)。ここで、照明部12の自動オフモードに設定されていると判定された場合には、照明部12をオフする(ステップS26)。   When the processing in step S24 is completed, it is next determined whether or not the head-mounted image acquisition / display apparatus is set to the automatic off mode of the illumination unit 12 (step S25). Here, when it is determined that the automatic off mode of the illumination unit 12 is set, the illumination unit 12 is turned off (step S26).

一方、ステップS25において照明部12の自動オフモードに設定されていないと判定された場合には、照明部12をオンする(ステップS27)。   On the other hand, if it is determined in step S25 that the illumination unit 12 is not set to the automatic off mode, the illumination unit 12 is turned on (step S27).

これらステップS26またはステップS27の処理が終了したら、図11に示したステップS7の処理へ戻って、視線方向が変化したか否かの検出を行う。   When the process of step S26 or step S27 is completed, the process returns to the process of step S7 shown in FIG. 11 to detect whether or not the line-of-sight direction has changed.

また、ステップS21において、映像表示部18の自動オフモードに設定されていないと判定された場合には、映像表示部18をオンする(ステップS28)。   If it is determined in step S21 that the automatic display mode of the video display unit 18 is not set, the video display unit 18 is turned on (step S28).

このステップS28の処理が終了するか、またはステップS23において撮像部11の自動オフモードに設定されていないと判定された場合には、撮像部11をオンし(ステップS29)、さらに照明部12をオンしてから(ステップS30)、図11に示したステップS9の処理へ移行する。なお、ここでは撮像部11がオンのときには必ず照明部12もオンするようにしているが、環境照明光が十分であるときやより省電力を図りたいときにはこれに限るものではない。   When the process of step S28 ends or when it is determined in step S23 that the image pickup unit 11 is not set to the automatic off mode, the image pickup unit 11 is turned on (step S29), and the illumination unit 12 is turned on. After turning on (step S30), the process proceeds to step S9 shown in FIG. Here, the illumination unit 12 is always turned on when the imaging unit 11 is on, but the present invention is not limited to this when the environment illumination light is sufficient or more power saving is desired.

一方、ステップS7において、視線方向が視野角αの範囲内に入っていないと判定された場合には、映像表示部18をオンし(ステップS31)、撮像部11をオンし(ステップS32)、照明部12をオンしてから(ステップS33)、ステップS8の処理へ移行する。   On the other hand, if it is determined in step S7 that the line-of-sight direction is not within the range of the viewing angle α, the video display unit 18 is turned on (step S31), the imaging unit 11 is turned on (step S32), After turning on the illumination unit 12 (step S33), the process proceeds to step S8.

なお、上述では、検出された視線方向が映像表示部18による表示を観察する方向である場合にはステップS33において照明部12をオンし、映像表示部18による表示を観察する方向外であってかつ照明部12の自動オフモードが設定されていた場合にはステップS26において照明部12をオフするように制御するようにしていた。しかし、このような制御を行うに限るものではない。例えば、検出された視線方向が映像表示部18による表示を観察する方向である場合には照明部12により発光される照明光の光量を撮像部11により撮像を行って映像表示部18により観察するのに適した光量となるように制御し、映像表示部18による表示を観察する方向外である場合には照明部12により発光される照明光の光量を肉眼により被写体を観察を行うのに適した光量となるように制御するようにしても構わない。   In the above description, when the detected line-of-sight direction is the direction in which the display by the video display unit 18 is observed, the illumination unit 12 is turned on in step S33, and the direction is outside the direction in which the display by the video display unit 18 is observed. When the automatic off mode of the illumination unit 12 is set, the illumination unit 12 is controlled to be turned off in step S26. However, the present invention is not limited to such control. For example, when the detected line-of-sight direction is the direction in which the display by the video display unit 18 is observed, the amount of illumination light emitted from the illumination unit 12 is imaged by the imaging unit 11 and observed by the video display unit 18. The amount of illumination light emitted from the illuminating unit 12 is suitable for observing the subject with the naked eye when it is out of the direction of observing the display by the video display unit 18. You may make it control so that it may become the amount of light which became.

このような実施形態1によれば、観察者が本体1を装着した際に、前頭部にフレーム3が配置され、眼前よりも下側に表示ユニット6が配置されて、フレーム3と表示ユニット6との間に視界を妨げない空間が構成されるようにしたために、観察物体の直視と、表示ユニット6を介した観察とを所望に行うことができる。さらに、撮像部11をフレーム3または支持部5に設けているために、撮像して得られた画像を表示ユニット5により観察することが可能となる。   According to the first embodiment, when the observer wears the main body 1, the frame 3 is disposed in the frontal region, the display unit 6 is disposed below the front of the eye, and the frame 3 and the display unit are disposed. Since a space that does not obstruct the field of view is formed between the display object 6 and the object 6, direct observation of the observation object and observation through the display unit 6 can be performed as desired. Furthermore, since the imaging unit 11 is provided on the frame 3 or the support unit 5, an image obtained by imaging can be observed by the display unit 5.

そして、被写体距離に応じて画像の切り出しを制御するようにしたために、観察者の視線と撮像部の撮像光軸とが角度をもって交差していても、被写体距離によることなく被写体の所定部分に対応する画像部分が表示画像中の中心位置となるように切り出しを行うことができる。さらに、被写体距離によることなく、表示画像中の被写体の大きさを一定にすることもできる。このように、被写体距離に応じて画像の切り出しを制御することにより、撮像された被写体像を、被写体距離の違いによる被写体の表示領域の変化を低減して表示することができる。   Since the image clipping is controlled according to the subject distance, even if the observer's line of sight and the imaging optical axis of the imaging unit intersect at an angle, it corresponds to a predetermined part of the subject regardless of the subject distance. The image can be cut out so that the image portion to be centered in the display image. Furthermore, the size of the subject in the display image can be made constant regardless of the subject distance. In this way, by controlling the cutout of the image according to the subject distance, it is possible to display the captured subject image while reducing a change in the display area of the subject due to the difference in the subject distance.

また、視線方向を検知して、視線方向の延長上にある被写体部分に対応する画像部分を切り出そうとする画像の中心位置に決定するようにしたために、被写体距離によることなく、観察者の注視部分を表示画像の中心にすることができる。   Further, since the gaze direction is detected and the image center position corresponding to the subject part on the extension of the gaze direction is determined as the center position of the image, the observer's distance can be determined regardless of the subject distance. The gaze portion can be the center of the display image.

さらに、検知された視線方向に応じて撮像部、映像表示部、照明部の電源を適切にオン/オフし、あるいは照明部の光量を適切に制御するようにしたために、消費電力を効率的に低減することが可能となる。   Furthermore, the power of the imaging unit, the video display unit, and the illumination unit is appropriately turned on / off according to the detected line-of-sight direction, or the light amount of the illumination unit is appropriately controlled, so that the power consumption is efficiently reduced. It becomes possible to reduce.

なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

本発明の実施形態1における頭部装着型映像取得表示装置の電気系の構成を主に示すブロック図。The block diagram which mainly shows the structure of the electric system of the head mounted image | video acquisition display apparatus in Embodiment 1 of this invention. 上記実施形態1における頭部装着型映像取得表示装置を正面斜め上方向から示す斜視図。The perspective view which shows the head mounted image acquisition display apparatus in the said Embodiment 1 from the front diagonally upward direction. 上記実施形態1における頭部装着型映像取得表示装置を側方から示す断面図。FIG. 3 is a cross-sectional view showing the head-mounted image acquisition / display device in Embodiment 1 from the side. 上記実施形態1における頭部装着型映像取得表示装置を示す正面図。FIG. 3 is a front view showing the head-mounted image acquisition / display apparatus according to the first embodiment. 上記実施形態1における視線検知部の構成を図4の矢印A方向から示す図。The figure which shows the structure of the gaze detection part in the said Embodiment 1 from the arrow A direction of FIG. 上記実施形態1において、視線検知部により眼を検出したときの受光出力の様子を示す図。The figure which shows the mode of the light reception output when an eye is detected by the gaze detection part in the said Embodiment 1. FIG. 上記実施形態1において、フォーカス調整部により算出される輝度値の総和とフォーカスレンズ位置との関係を示す線図。FIG. 3 is a diagram illustrating a relationship between a sum of luminance values calculated by a focus adjustment unit and a focus lens position in the first embodiment. 上記実施形態1において、フレームと表示ユニットとの間に構成される視界の様子を示す配置図。In the said Embodiment 1, the arrangement | positioning figure which shows the mode of the visual field comprised between a flame | frame and a display unit. 上記実施形態1において、視線方向が水平方向である場合に、観察者OBSから観察物体OBJまでの距離が変化したときにも、画像を切り出す切出中心位置を一定にするようにした様子を示す図。In the first embodiment, when the line-of-sight direction is the horizontal direction, the cut-out center position for cutting out the image is made constant even when the distance from the observer OBS to the observation object OBJ changes. Figure. 上記実施形態1において、視線方向が水平方向であって、観察者OBSから観察物体OBJまでの距離が変化したときに、図9に示したように切出中心位置CPを一定にしながら、画像を切り出す範囲を設定する様子を示す図。In the first embodiment, when the line-of-sight direction is the horizontal direction and the distance from the observer OBS to the observation object OBJ changes, the image is displayed while keeping the cutting center position CP constant as shown in FIG. The figure which shows a mode that the range to cut out is set. 上記実施形態1における頭部装着型映像取得表示装置により測距および視線検知を行って撮像画像を切り出して表示する処理を示すフローチャート。5 is a flowchart showing processing for performing range finding and line-of-sight detection by the head-mounted image acquisition and display device in Embodiment 1 to cut out and display a captured image. 上記実施形態1において、観察者OBSが観察物体OBJを直視で観察しているときに、より省電力を図るようにする処理例を示すフローチャート。9 is a flowchart illustrating a processing example for further saving power when the observer OBS is directly observing the observation object OBJ in the first embodiment.

符号の説明Explanation of symbols

1…本体
2…第2制御装置
3…フレーム
4R,4L…テンプル部
5…支持部
6…表示ユニット
11…撮像部
12…照明部
13…視線検知用照明部(視線方向測定部)
14…視線検知部(視線方向測定部)
14a…シリンドリカルレンズ
14b…ラインセンサ
15…測距用照明部
16…測距用照明受光部
17…画像処理部(映像処理部)
18…映像表示部
18L…左眼用映像表示素子
18R…右眼用映像表示素子
19…接眼光学系
21…電気制御部(第1制御装置)
22…カメラI/F部
23…フォーカス調整部
24…AF駆動部
25…倍率調整部
26…切出処理部
27…倍率処理部
28…表示信号変換部
31…視線方向検出部(視線方向測定部)
32…切出情報演算部(映像処理部)
33…撮像部電源制御部(制御部)
34…照明制御部(制御部)
35…映像表示部電源制御部(制御部)
36…測距センサ(距離測定部)
37…測距部
38…電源入力部
41…バッテリ
DESCRIPTION OF SYMBOLS 1 ... Main body 2 ... 2nd control apparatus 3 ... Frame 4R, 4L ... Temple part 5 ... Supporting part 6 ... Display unit 11 ... Imaging part 12 ... Illumination part 13 ... Illumination part for gaze detection (gaze direction measurement part)
14 ... Gaze detection unit (gaze direction measurement unit)
DESCRIPTION OF SYMBOLS 14a ... Cylindrical lens 14b ... Line sensor 15 ... Ranging illumination part 16 ... Ranging illumination light-receiving part 17 ... Image processing part (video processing part)
DESCRIPTION OF SYMBOLS 18 ... Video display part 18L ... Video display element for left eyes 18R ... Video display element for right eyes 19 ... Eyepiece optical system 21 ... Electric control part (1st control apparatus)
DESCRIPTION OF SYMBOLS 22 ... Camera I / F part 23 ... Focus adjustment part 24 ... AF drive part 25 ... Magnification adjustment part 26 ... Extraction process part 27 ... Magnification process part 28 ... Display signal conversion part 31 ... Gaze direction detection part (Gaze direction measurement part) )
32. Cutout information calculation unit (video processing unit)
33 ... Imaging unit power supply control unit (control unit)
34 ... Lighting control unit (control unit)
35 ... Video display power supply control unit (control unit)
36 ... Ranging sensor (distance measuring unit)
37 ... Ranging unit 38 ... Power input unit 41 ... Battery

Claims (7)

観察者の前頭部に装着され得るように構成されたフレームと、
上記フレームから下方へ連設された支持部と、
上記フレームまたは上記支持部に配設された、被写体を撮像するための撮像部と、
上記フレームとは別体に設けられていて、上記支持部を介して該フレームとの間に観察者の視線を妨げることのない空間を構成するように配設され、上記撮像部により撮像して得られた画像信号を表示信号に変換する映像処理部と、この映像処理部により変換された表示信号を電子映像として表示するための映像表示部と、この映像表示部により表示された電子映像を観察者の両眼に向けて投影するためのものであり少なくとも1つの反射面をそれぞれ備える左右の接眼光学系と、を有する表示ユニットと、
特定距離範囲内にある被写体の距離情報を取得する距離測定部と、
を具備し、
上記映像処理部は、上記距離測定部から得られる上記距離情報に基づいて、上記撮像部により得られた画像の少なくとも一部を切り出す処理を行い、切り出された画像信号を表示信号に変換するものであることを特徴とする頭部装着型映像取得表示装置。
A frame configured to be worn on the front of the observer;
A support portion continuously provided downward from the frame;
An imaging unit for imaging a subject disposed on the frame or the support unit;
The frame is provided separately from the frame, and is arranged so as to form a space between the frame and the frame that does not obstruct the observer's line of sight. A video processing unit for converting the obtained image signal into a display signal, a video display unit for displaying the display signal converted by the video processing unit as an electronic video, and an electronic video displayed by the video display unit A left and right eyepiece optical system for projecting toward both eyes of an observer, each having at least one reflecting surface, and a display unit,
A distance measurement unit that acquires distance information of a subject within a specific distance range;
Comprising
The video processing unit performs processing for cutting out at least a part of the image obtained by the imaging unit based on the distance information obtained from the distance measuring unit, and converts the cut-out image signal into a display signal. A head-mounted image acquisition and display device characterized by the above.
上記映像処理部は、上記距離測定部から得られる上記距離情報に基づいて、被写体距離によることなく被写体の所定部分に対応する画像部分が表示画像の中心位置となるように、切り出そうとする画像の中心位置を決定して、上記切り出す処理を行うものであることを特徴とする請求項1に記載の頭部装着型映像取得表示装置。   The video processing unit tries to cut out based on the distance information obtained from the distance measuring unit so that an image portion corresponding to a predetermined portion of the subject becomes a center position of the display image without depending on the subject distance. The head-mounted image acquisition and display device according to claim 1, wherein the center position of the image is determined and the cutout process is performed. 上記映像処理部は、上記距離測定部から得られる上記距離情報に基づいて、被写体距離によることなく表示画像における被写体の大きさが一定となるように、切り出そうとする画像の大きさを決定して、上記切り出す処理を行うものであることを特徴とする請求項1または請求項2に記載の頭部装着型映像取得表示装置。   The video processing unit determines the size of the image to be cut out based on the distance information obtained from the distance measuring unit so that the size of the subject in the display image is constant regardless of the subject distance. The head-mounted image acquisition / display apparatus according to claim 1 or 2, wherein the cutting process is performed. 観察者の視線方向を測定する視線方向測定部をさらに具備し、
上記視線方向測定部により測定された視線方向が上記フレームと上記表示ユニットとの間に構成された空間を介して被写体を観察する方向である場合には、上記映像処理部は、上記視線方向の延長上にある被写体部分に対応する画像部分を上記切り出そうとする画像の中心位置に決定して、上記切り出す処理を行うものであることを特徴とする請求項2に記載の頭部装着型映像取得表示装置。
It further comprises a gaze direction measurement unit that measures the gaze direction of the observer,
When the line-of-sight direction measured by the line-of-sight direction measuring unit is a direction for observing a subject through a space formed between the frame and the display unit, the video processing unit 3. The head-mounted type according to claim 2, wherein an image portion corresponding to a subject portion on the extension is determined as a center position of the image to be cut out, and the cut-out processing is performed. Video acquisition display device.
上記視線方向測定部により測定された視線方向が、上記映像表示部による表示を観察する方向である場合には上記撮像部と該映像表示部との両方をオンし、該映像表示部による表示を観察する方向外である場合には該撮像部と該映像表示部との少なくとも一方をオフするように制御する制御部をさらに具備したことを特徴とする請求項4に記載の頭部装着型映像取得表示装置。   When the line-of-sight direction measured by the line-of-sight direction measuring unit is a direction in which the display by the video display unit is observed, both the imaging unit and the video display unit are turned on, and the display by the video display unit is turned on. 5. The head mounted video according to claim 4, further comprising a control unit that controls to turn off at least one of the imaging unit and the video display unit when the direction is outside the viewing direction. Acquisition display device. 被写体を照明するための照明部をさらに具備し、
上記制御部は、さらに、上記視線方向測定部により測定された視線方向が、上記映像表示部による表示を観察する方向である場合には上記照明部をオンし、該映像表示部による表示を観察する方向外である場合には該照明部をオフするように制御するものであることを特徴とする請求項5に記載の頭部装着型映像取得表示装置。
It further includes an illumination unit for illuminating the subject,
The control unit further turns on the illumination unit when the line-of-sight direction measured by the line-of-sight direction measurement unit is a direction for observing the display by the video display unit, and observes the display by the video display unit 6. The head-mounted image acquisition and display device according to claim 5, wherein the head-mounted image acquisition and display device is controlled so as to turn off the illuminating unit when it is out of the direction.
被写体を照明するための照明部をさらに具備し、
上記制御部は、さらに、上記視線方向測定部により測定された視線方向が、上記映像表示部による表示を観察する方向である場合には上記照明部により発光される照明光の光量を上記撮像部により撮像を行って上記映像表示部により観察するのに適した光量となるように制御し、該映像表示部による表示を観察する方向外である場合には該照明部により発光される照明光の光量を肉眼により被写体を観察するのに適した光量となるように制御するものであることを特徴とする請求項5に記載の頭部装着型映像取得表示装置。
It further includes an illumination unit for illuminating the subject,
The control unit further determines the amount of illumination light emitted by the illumination unit when the line-of-sight direction measured by the line-of-sight direction measurement unit is a direction for observing display by the video display unit. Is controlled so that the amount of light is suitable for observation by the video display unit, and when the display by the video display unit is out of the direction for observing, the illumination light emitted by the illumination unit is controlled. 6. The head mounted image acquisition and display device according to claim 5, wherein the light amount is controlled so as to be a light amount suitable for observing a subject with the naked eye.
JP2008217027A 2008-08-26 2008-08-26 Head mounting type video acquiring and displaying device Withdrawn JP2010056661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008217027A JP2010056661A (en) 2008-08-26 2008-08-26 Head mounting type video acquiring and displaying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008217027A JP2010056661A (en) 2008-08-26 2008-08-26 Head mounting type video acquiring and displaying device

Publications (1)

Publication Number Publication Date
JP2010056661A true JP2010056661A (en) 2010-03-11

Family

ID=42072163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008217027A Withdrawn JP2010056661A (en) 2008-08-26 2008-08-26 Head mounting type video acquiring and displaying device

Country Status (1)

Country Link
JP (1) JP2010056661A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024751A (en) * 2014-07-24 2016-02-08 シャープ株式会社 Image display device
JP2016122085A (en) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 Display device and control method of display device
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program
WO2017022872A1 (en) * 2015-08-04 2017-02-09 엘지전자 주식회사 Head mounted display and control method thereof
JP2018532288A (en) * 2015-08-19 2018-11-01 シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. Wearable display device
CN108957761A (en) * 2012-12-18 2018-12-07 精工爱普生株式会社 Display device and its control method, head-mounted display apparatus and its control method
US10628948B2 (en) 2014-07-24 2020-04-21 Japan Science And Technology Agency Image registration device, image registration method, and image registration program
US10989924B2 (en) 2018-02-23 2021-04-27 Samsung Electronics Co., Ltd Head-mounted electronic device
WO2024106376A1 (en) * 2022-11-15 2024-05-23 ヌヴォトンテクノロジージャパン株式会社 Image sensing device, image sensing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108957761A (en) * 2012-12-18 2018-12-07 精工爱普生株式会社 Display device and its control method, head-mounted display apparatus and its control method
CN108957761B (en) * 2012-12-18 2021-08-13 精工爱普生株式会社 Display device and control method thereof, head-mounted display device and control method thereof
JP2016024751A (en) * 2014-07-24 2016-02-08 シャープ株式会社 Image display device
US10628948B2 (en) 2014-07-24 2020-04-21 Japan Science And Technology Agency Image registration device, image registration method, and image registration program
JP2016122085A (en) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 Display device and control method of display device
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program
WO2017022872A1 (en) * 2015-08-04 2017-02-09 엘지전자 주식회사 Head mounted display and control method thereof
US10379362B2 (en) 2015-08-04 2019-08-13 Lg Electronics Inc. Head mounted display and control method thereof
JP2018532288A (en) * 2015-08-19 2018-11-01 シェンジェン ロイオル テクノロジーズ カンパニー リミテッドShenzhen Royole Technologies Co., Ltd. Wearable display device
US10989924B2 (en) 2018-02-23 2021-04-27 Samsung Electronics Co., Ltd Head-mounted electronic device
WO2024106376A1 (en) * 2022-11-15 2024-05-23 ヌヴォトンテクノロジージャパン株式会社 Image sensing device, image sensing method, and program

Similar Documents

Publication Publication Date Title
JP2010056661A (en) Head mounting type video acquiring and displaying device
JP6539654B2 (en) Gaze detection device
JP6159264B2 (en) Eyeglass device and method with adjustable field of view
JP3309615B2 (en) Image observation apparatus and binocular image observation apparatus using the same
KR102091055B1 (en) Head mounted display
US20170318235A1 (en) Head-mounted displaying of magnified images locked on an object of interest
US20090303315A1 (en) Binocular device using beam splitter (bino-view)
FI125445B (en) Blick Control Device
JP5420793B1 (en) Head-mounted display with adjustable image viewing distance
KR20140138620A (en) Head-mounted display with tilt sensor for medical use
JP2003225207A (en) Visual axis detector
KR101650706B1 (en) Device for wearable display
CN110944567B (en) Medical observation device
KR101780669B1 (en) binocular capturing device using single camera
JP2007104036A (en) Display device
JP6379639B2 (en) Glasses wearing parameter measurement imaging device, glasses wearing parameter measuring imaging program
JP2005286927A (en) Transparent indicating device mounted on the head
JP3709921B2 (en) Image providing method and image providing apparatus for patients with eye diseases
JP7485426B1 (en) Head-mounted imaging device and line-of-sight image adjustment method
JP2021044602A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
US20230224561A1 (en) Display apparatus, finder apparatus, and imaging apparatus
JP3225628B2 (en) Eye gaze detection device
JP7246708B2 (en) head mounted display
JP2011039284A (en) Display device
JP2021064928A (en) Electronic device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101