JP2013083994A - Display unit and display method - Google Patents
Display unit and display method Download PDFInfo
- Publication number
- JP2013083994A JP2013083994A JP2012262182A JP2012262182A JP2013083994A JP 2013083994 A JP2013083994 A JP 2013083994A JP 2012262182 A JP2012262182 A JP 2012262182A JP 2012262182 A JP2012262182 A JP 2012262182A JP 2013083994 A JP2013083994 A JP 2013083994A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- unit
- imaging
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどによりユーザに装着された状態で、ユーザの眼の前方で画像表示を行う表示装置と、表示方法に関する。 The present invention relates to a display device and a display method for displaying an image in front of a user's eyes in a state of being worn by a user using, for example, a spectacle-type or head-mounted type mounting unit.
例えば上記各特許文献のように、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザの目の直前に表示部を配置して表示を行う装置が、各種提案されている。 For example, as in each of the above patent documents, various devices have been proposed in which a display unit is arranged in front of the user's eyes and displayed by a spectacle-type or head-mounted mounting unit.
しかしながら従来の装置では、特にユーザの視覚の補助や、視覚能力の拡大という観点で撮像や表示に関する制御を行うものは知られていない。
そこで本発明では、ユーザの視覚の補助や拡張を実現することを目的とする。
However, there is no known device that performs control related to imaging and display particularly from the viewpoint of assisting the user's vision and expanding visual ability.
Therefore, an object of the present invention is to realize user assistance and expansion.
本発明の表示装置は、使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段と、外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信する通信手段と、上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得る画像信号生成手段と、上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行させる制御を行う制御手段とを備える表示装置。 The display device of the present invention is arranged so as to be positioned in front of the user's eyes and performs image display, and a display means capable of setting a screen area for image display to a transparent or translucent through state. A communication means for communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device; and according to the position information An image signal generating means for obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state, and the display means And a control unit that performs control to execute display by the display image signal generated by the image signal generation unit after setting a part of the screen region to the through state.
上記画像信号生成手段は、撮像部と、上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する。
この場合において、 上記撮像部は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向を被写体方向として撮像するようにされた撮像部である。
或いは、上記撮像部は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向とは異なる方向を被写体方向として撮像するようにされた撮像部である。
また上記撮像部は、被写体方向が可変とされた撮像部である。
また上記撮像部が複数設けられている。
また上記撮像部は、撮像素子としてCCDセンサもしくはCMOSセンサを用いて構成されている。
また上記画像信号生成手段は、外部機器から画像信号を受信する受信部を有して構成される。
また上記画像信号生成手段は、供給された画像信号に対する信号処理を行う信号処理部を有して構成される。
The image signal generation unit includes an imaging unit and a signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit.
In this case, the image pickup unit is an image pickup unit configured to pick up an image in a direction that the user visually recognizes through the display unit when the screen area is in a through state.
Alternatively, the imaging unit is an imaging unit configured to capture a direction different from a direction visually recognized by the user through the display unit when the screen area is in a through state as a subject direction.
The imaging unit is an imaging unit whose subject direction is variable.
A plurality of the imaging units are provided.
The imaging unit is configured using a CCD sensor or a CMOS sensor as an imaging element.
Further, the image signal generation means includes a receiving unit that receives an image signal from an external device.
The image signal generating means includes a signal processing unit that performs signal processing on the supplied image signal.
また上記表示手段において、上記画面領域内で親画面領域と子画面領域が設定されて、親画面領域と子画面領域の一方が上記スルー状態、他方が上記表示画像信号による画像表示状態とされる。
また上記表示手段において、上記画面領域が分割され、分割された各領域の一方が上記スルー状態、他方が上記表示画像信号による画像表示状態とされる。
In the display means, a parent screen region and a child screen region are set in the screen region, and one of the parent screen region and the child screen region is in the through state, and the other is in an image display state by the display image signal. .
In the display means, the screen area is divided, and one of the divided areas is set to the through state, and the other is set to the image display state based on the display image signal.
また上記表示画像信号は、近景撮像又は遠景撮像により得られた画像信号である。
また上記表示画像信号は、望遠撮像又は広角撮像により得られた画像信号である。
また上記表示画像信号は、拡大処理又は縮小処理により得られた画像信号である。
また上記表示画像信号は、撮像感度を上昇又は低下させた撮像により得られた画像信号である。
また上記表示画像信号は、赤外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記表示画像信号は、紫外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記表示画像信号は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向とは異なる方向を被写体方向とした撮像により得られた画像信号である。
The display image signal is an image signal obtained by near-field imaging or far-field imaging.
The display image signal is an image signal obtained by telephoto imaging or wide-angle imaging.
The display image signal is an image signal obtained by enlargement processing or reduction processing.
Further, the display image signal is an image signal obtained by imaging with increased or decreased imaging sensitivity.
The display image signal is an image signal obtained by imaging with increased infrared imaging sensitivity.
The display image signal is an image signal obtained by imaging with an increased ultraviolet imaging sensitivity.
The display image signal is an image signal obtained by imaging with a direction different from a direction visually recognized by the user through the display unit when the screen area is in the through state.
また上記画像信号生成手段は、上記撮像部における撮像レンズ系の動作制御により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、上記信号処理部における信号処理により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、外部の撮像装置で撮像された画像信号を上記受信部で受信することで、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、上記信号処理部における信号処理により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
The image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by controlling the operation of the imaging lens system in the imaging unit.
Further, the image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by the signal processing in the signal processing unit.
In addition, the image signal generation unit receives an image signal captured by an external imaging device at the reception unit, so that a scene different from a scene visually recognized by the user when the display unit is in a through state is obtained. A display image signal is obtained.
Further, the image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by the signal processing in the signal processing unit.
本発明の表示方法は、使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段を備えた表示装置の表示方法として、外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信するステップと、上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得るステップと、上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行するステップとを備える。 The display method of the present invention includes a display unit that is arranged so as to be positioned in front of the user's eyes and that can display an image and that can make a screen area for image display transparent or translucent through state. As a display method of the display device provided, a step of communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information corresponding to the position information from the external device And obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state based on information according to the position information; And a step of displaying a display image signal generated by the image signal generation means after setting a part of the screen area to the through state for the display means.
以上の本発明では、使用者(ユーザ)は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどにより本発明の表示装置を装着することで、目の前方に位置する表示手段を視認する状態となる。この表示手段はスルー状態とすることができる。
そして表示手段の画面領域の一部をスルー状態としたうえで画像信号生成手段で生成された表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、表示画像信号の表示により、通常に視認する視覚光景とは異なる光景の画像を見ることができる。例えばスルー状態の領域により前方を見ながら、表示画像信号の表示により、望遠画像、拡大画像、特殊撮像画像、後方の光景の画像などを見ることができる。
つまり、通常の視覚光景と同時に、通常の視覚では見ることのできない光景を見る状態となり、ユーザの視覚能力が拡張された状態となる。
In the above-described present invention, the user (user) can visually recognize the display means located in front of the eyes by wearing the display device of the present invention with, for example, a spectacle-type or head-mounted type mounting unit. Become. This display means can be in a through state.
Then, by causing a part of the screen area of the display means to be in the through state and executing display by the display image signal generated by the image signal generating means, the user can see a normal visual scene in the through state area. The display image signal is displayed as it is, so that an image of a scene different from the visual scene that is normally visually recognized can be seen. For example, a telephoto image, an enlarged image, a special captured image, an image of a rear scene, and the like can be viewed by displaying the display image signal while looking forward in the through state region.
That is, at the same time as the normal visual scene, the user can see a scene that cannot be viewed with normal vision, and the user's visual ability is expanded.
本発明によれば、表示手段の画面領域の一部をスルー状態としたうえで画像信号生成手段で生成された表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、通常に視認する視覚光景とは異なる光景の画像を見ることができ、擬似的にユーザの視覚能力を拡張させる状況を作り出すことができるという効果がある。
また表示手段は、少なくとも画面領域の一部はスルー状態であるため、装着状態のままでも通常の生活に支障がないようにできる。このためユーザの通常の生活の中で、本発明の表示装置の利点を有効に得ることができる。
According to the present invention, a part of the screen area of the display unit is set to the through state, and the display by the display image signal generated by the image signal generation unit is executed. While the sight is visible, an image of a sight different from the visual sight that is normally visually recognized can be seen, and there is an effect that it is possible to create a situation that artificially expands the user's visual ability.
Moreover, since at least a part of the screen area is in the through state, the display means can prevent a normal life from being hindered even when the display unit is in the mounted state. For this reason, the advantages of the display device of the present invention can be obtained effectively in the normal life of the user.
以下、本発明の表示装置、表示方法の実施の形態を、次の順序で説明する。
[1.表示装置の外観例及び外部機器との関連]
[2.表示装置の構成例]
[3.画面上の領域形態]
[4.表示動作例]
[5.動作トリガの例]
[6.実施の形態の効果、変形例及び拡張例]
Hereinafter, embodiments of the display device and the display method of the present invention will be described in the following order.
[1. Example of external appearance of display device and relationship with external device]
[2. Example of configuration of display device]
[3. Area form on screen]
[4. Display operation example]
[5. Example of operation trigger]
[6. Effect, modification and extension of embodiment]
[1.表示装置の外観例及び外部機器との関連]
実施の形態として、図1(a)(b)に眼鏡型ディスプレイとした表示装置1の外観例を示す。表示装置1は、例えば図1(b)のように両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図1(a)のように両耳殻にかけられることでユーザに装着される。
そしてこの表示装置1は、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2、2が配置される構成とされている。この表示部2には、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示部2がスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
[1. Example of external appearance of display device and relationship with external device]
As an embodiment, FIGS. 1A and 1B show an appearance example of a
The
またユーザが装着した状態において、ユーザの前方方向に向けて撮像レンズ3aが配置されている。つまりこの場合、撮像レンズ3aは、表示部2をスルー状態としたときにユーザが表示部2を介して視認する方向を被写体方向として撮像するようにされている。
また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。
In addition, the
Moreover, the
なお図1は一例であり、表示装置1をユーザが装着するための構造は多様に考えられる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また発光部4aを設けない構成も考えられる。
Note that FIG. 1 is an example, and various structures for the user to wear the
A configuration in which the
また図1では撮像レンズ3aがユーザの前方を被写体方向とするように取り付けられているが、撮像レンズ3aが、表示部2をスルー状態としたときにユーザが表示部2を介して視認する方向とは異なる方向を被写体方向として撮像するように取り付けられていても良い。
図2(a)(b)に例を示す。図2(a)(b)の例では、前方には撮像レンズ3aは設けられず、後頭部側に位置することになるユニットに撮像レンズ3a及び発光部4aが設けられている。つまりこの場合、撮像レンズ3aは、ユーザが通常では視認できない後方を撮像するものとされる。
また、図示しないが、撮像レンズ3aは、ユーザの上方、左側方、右側方、足下などを被写体方向とするように取り付けられていてもよい。
In FIG. 1, the
An example is shown in FIGS. In the example of FIGS. 2A and 2B, the
Although not shown, the
また、図1,図2の例では撮像レンズ3aは固定的に取り付けられていることで撮像時の被写体方向は固定(ユーザの前方、又はユーザの後方)であるが、被写体方向を変化させることのできる可動機構を介して撮像レンズ3aを取り付けることで、手動又は自動で撮像時の被写体方向を変化させることができるようにしてもよい。
また、図1,図2では撮像レンズ3aとして1つの撮像機能部を設けるものであるが、複数の撮像レンズ3aを取り付け、複数の撮像機能部を備えるようにしてもよい。
1 and 2, the
1 and 2, one imaging function unit is provided as the
撮像レンズ3aを含む後述する撮像機能系で撮像された画像信号は、所定の処理を経て表示画像信号とされて表示部2に表示される。
この場合、表示部2の画面上では一部の領域がスルー状態とされ、他の領域に表示画像信号に基づく画像表示が行われる。
ところで内部構成例については後述するが、この表示装置1は、外部機器と通信を行う通信機能(図5で述べる通信部26)を備えることも考えられる。
従って、表示部2において表示する表示画像信号のソースは、撮像レンズ3aを含む撮像機能部だけでなく、通信機能部が想定される。つまり外部機器としての他の撮像装置等から送信された画像信号を、通信機能部で受信し、表示部2に表示させることもできる。
An image signal captured by an imaging function system including an
In this case, a part of the area is set to the through state on the screen of the
By the way, although an internal configuration example will be described later, the
Therefore, the source of the display image signal displayed on the
図3は、表示装置1の使用形態を、外部機器との関連において例示したものである。
図3(a)は表示装置1を単体で使用する場合であり、この場合、表示装置1が撮像機能を有していることで、撮像された画像信号をソースとして生成した表示画像信号を表示部2に表示させることができる。
FIG. 3 illustrates a usage pattern of the
FIG. 3A shows a case where the
図3(b)は、表示装置1が通信機能を備え、外部の撮像装置70と通信を行う例である。この場合、表示装置1は、撮像装置70で撮像された画像を受信して表示部2に表示させる。外部の撮像装置70とは、通信機能を備えたビデオカメラ、デジタルスチルカメラなどが想定できるし、また図1のように撮像機能を備えた表示装置1を、或る表示装置1に対して外部の撮像装置1と考えることもできる。
また外部の撮像装置70は、表示装置1を用いるユーザ本人が所有する撮像装置であったり、表示装置1のユーザの知人が所有する撮像装置であったり、或いは画像提供を行う公共或いはサービス企業等の撮像装置であって表示装置1と通信可能とされているものなど多様に考えられる。
FIG. 3B is an example in which the
The
図3(c)は、表示装置1が通信機能、特にインターネット等のネットワーク73を介した通信アクセス機能を備えることで、ネットワーク73で接続される外部の撮像装置70と通信を行う例である。この場合表示装置1は、ネットワーク73を介して撮像画像信号を受信し、その受信した撮像画像信号に基づいた表示画像信号による画像表示を表示部2で実行させる。
FIG. 3C is an example in which the
[2.表示装置の構成例]
図4に表示装置1の内部構成例を示す。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、表示装置1の全体を制御する制御部とされる。
このシステムコントローラ10は内部の動作プログラム及び動作トリガ情報発生部16からの動作トリガに基づいて、表示装置1内の各部の制御を行い、表示部2において所要の画像表示を実行させる。
[2. Example of configuration of display device]
FIG. 4 shows an internal configuration example of the
The
The
表示装置1内では、撮像部3、撮像制御部11、撮像信号処理部15が設けられる。
撮像部3は、図1又は図2に示した撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイなどが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
図1の例の場合は、この撮像部3によってユーザの前方の光景が撮像され、また図2の例の場合は、この撮像部3によってユーザの後方の光景が撮像される。
In the
The imaging unit 3 is configured to perform a focusing operation and a zooming operation on a lens system including the
In the case of the example of FIG. 1, a scene in front of the user is imaged by the imaging unit 3, and in the example of FIG. 2, a scene in the rear of the user is imaged.
撮像信号処理部15は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
The imaging
撮像制御部11は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮像部3,撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズーム、焦点変更などの動作を実行させるための制御(モータ制御)を行うものとされる。
また、上述したように撮像レンズ3aによる被写体方向を可変できる可動機構が設けられている場合は、撮像制御部11はシステムコントローラ10の指示に基づいて、可動機構の動作を制御して撮像部3における撮像レンズ3aの方向を変化させる。
また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部11のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
The imaging control unit 11 controls the operations of the imaging unit 3 and the imaging
Further, as described above, when the movable mechanism that can change the direction of the subject by the
In addition, the imaging control unit 11 includes a timing generator. For the sample hold / AGC circuit and the video A / D converter of the solid-state imaging device and the imaging signal processing unit 11, a signal processing operation is performed by a timing signal generated by the timing generator. To control. In addition, the imaging frame rate can be variably controlled by this timing control.
Further, the imaging control unit 11 controls imaging sensitivity and signal processing in the solid-state imaging device and the imaging
また表示装置1においてユーザに対して表示を行う構成としては、表示部2、表示画像処理部12、表示駆動部13,表示制御部14が設けられる。
撮像部3で撮像され、撮像信号処理部15で処理された撮像信号は表示画像処理部12に供給される。表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された撮像信号に対して各種表示のための処理を実行できる部位とされる。
例えば撮像信号の輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また表示画像処理部12は、撮像信号の一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、モザイク、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理、撮像画像の分割表示のための画像の分離や合成、キャラクタ画像やイメージ画像の生成及び生成した画像を撮像画像に合成する処理なども行うことができる。つまり撮像信号としてのデジタル映像信号に対しての各種処理を行うことができる。
The
The imaging signal imaged by the imaging unit 3 and processed by the imaging
For example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like of the imaging signal can be performed. The display
表示駆動部13は、表示画像処理部12から供給される画像信号を、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示部2の各画素の透過率を制御して、画面全体及び一部をスルー状態とすることもできる。
表示制御部14は、システムコントローラ10の指示に基づいて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。即ち表示画像処理部12に対しては、上記の各種処理を実行させる。また表示駆動部13に対してはスルー状態、画像表示状態の切り換えが行われるように制御する。
The
The
また照明部4と照明制御部18が設けられる。照明部4は、図1、図2に示した発光部4aとその発光部4(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の指示に基づいて、照明部4に発光動作を実行させる。
照明部4における発光部4aが図1又は図2に示したように取り付けられていることで、照明部4は撮像レンズ3aによる被写体方向に対する照明動作を行うことになる。
An
Since the
動作トリガ情報発生部16は、表示部2での画像表示の開始/終了、表示態様の切換などのための動作トリガ情報を発生する。
この動作トリガ情報発生部16は、例えばユーザが操作する操作キーや操作ダイヤルとしての操作子と、その操作子の操作を検知する操作検知機構により構成することができる。即ちユーザの手動操作を各種動作の動作トリガ情報とする場合である。動作トリガ情報発生部16は、ユーザの操作情報を動作トリガ情報としてシステムコントローラ10に供給することで、システムコントローラ10はユーザの操作に応じた表示動作制御を行う。
また、動作トリガ情報発生部16は、ユーザ情報(ユーザの視覚状況、身体の挙動、生体状況等の検知情報)を検知したり、外界情報(表示装置の周囲の状況や、場所、日時、被写体の状況などの検知情報)を検知することができる構成としてもよい。例えばシステムコントローラ10がこれらのユーザ情報や外界情報に基づいて、動作トリガ発生の判断を行うようにしてもよい。なお、ユーザ情報や外界情報についての例は後に述べる。
The operation trigger
The operation trigger
In addition, the operation trigger
図5は、表示装置1としての他の構成例を示すものである。なお、図4と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図5の構成は、図4の構成における撮像機能部位(撮像部3、撮像制御部11、撮像信号処理部15)と、照明部4,照明制御部18を備えず、代わりに通信部26を有する構成とされている。
FIG. 5 shows another configuration example as the
The configuration of FIG. 5 does not include the imaging function part (imaging unit 3, imaging control unit 11, imaging signal processing unit 15),
通信部26は外部機器との間でのデータの送受信を行う。外部機器としては、図2で述べた撮像装置70としての各種の機器が考えられる。
通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
The
The
この図5の例の場合、外部の撮像装置70との間で図3(b)又は図3(c)で述べたように通信を行い、撮像装置70から撮像画像信号を受信する。通信部26は受信した撮像画像信号を表示画像処理部12に供給する。そして表示画像処理部12で処理された画像信号が表示駆動部13に供給され、表示部2で表示される。
In the case of the example in FIG. 5, communication is performed with the
図6は、表示装置1としてのさらに他の構成例を示すものである。なお、図4と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図6の構成は、図4の構成における撮像機能部位(撮像部3、撮像制御部11、撮像信号処理部15)を2系統備えたものである。
即ち撮像部3X、撮像制御部11X、撮像信号処理部15Xによる第1の撮像機能部位と、撮像部3Y、撮像制御部11Y、撮像信号処理部15Yによる第2の撮像機能部位が設けられる。
撮像部3X、3Yは、それぞれが同一の被写体方向で撮像を行うものとされても良いし、それぞれが異なる被写体方向で撮像を行うものとされてもよい。
例えば撮像部3X、3Yは、いずれも前方を撮像するように配置されても良いし、撮像部3Xは前方撮像、撮像部3Yは後方撮像を行うように配置されてもよい。また撮像部3Xは右後方、撮像部3Yは左後方の撮像を行うように配置されてもよいし、撮像部3Xは足下、撮像部3Yは上空の撮像を行うように配置されてもよい。
各撮像機能部位で得られた撮像画像信号は、表示画像処理部12で処理されて表示駆動部13に供給され、表示部2で表示される。
FIG. 6 shows still another configuration example of the
The configuration of FIG. 6 includes two systems of imaging function parts (imaging unit 3, imaging control unit 11, and imaging signal processing unit 15) in the configuration of FIG.
That is, a first imaging functional part by the
The
For example, the
The captured image signal obtained at each imaging function part is processed by the display
以上、図4,図5,図6に表示装置1の構成例を示したが、表示装置1としてはさらに多様な構成例が想定される。
例えば3系統以上の撮像機能部位が設けられることも考えられる。
また1又は複数の撮像機能部位とともに、外部の撮像装置70からの撮像信号を受信する通信部26が設けられる構成も考えられる。
また、撮像機能部位において、撮像部3(撮像レンズ3a)は被写体方向が固定とされる例と被写体方向を変更できるように可動とされる例が考えられるが、複数の撮像機能部位を設ける場合、全てを固定とする構成例、全てを可動とする構成例、一部を固定で一部を可動とする構成例がそれぞれ想定される。
As described above, the configuration example of the
For example, it is conceivable that three or more imaging function parts are provided.
In addition, a configuration in which the
In addition, in the imaging function part, an example in which the imaging unit 3 (
ところで、図4,図5,図6や、その変形例としての構成において、実施の形態となる表示装置1では、表示画像処理部12で処理されて表示駆動部13に供給される画像信号が、最終的に表示部2での表示に供される表示画像信号となる。本例の場合、特に表示画像信号は、表示部3をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像を表示させる信号としている。
表示画像信号としての画像、つまり表示部3をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像がどのように得られるかは多様に考えられる。
例えば撮像部3(3X、3Y)で撮像された画像や通信部26で受信された画像のそのものが、ユーザが表示部2を介して視認する光景とは異なる光景としての画像となる場合もあるし、像信号処理部15,表示画像処理部12で所定の処理が施されることで、ユーザが表示部2を介して視認する光景と同等の画像が異なる光景としての画像となる場合もある。
ユーザが表示部2を介して視認する光景とは異なる光景としての画像の具体例については後述する。
By the way, in FIG.4, FIG.5, FIG.6 or the structure as a modification example, in the
There are various ways of obtaining an image as a display image signal, that is, an image as a scene different from a scene visually recognized by the user through the
For example, the image captured by the imaging unit 3 (3X, 3Y) or the image received by the
A specific example of an image as a scene different from the scene visually recognized by the user via the
また本例では、このような画像の表示を行う場合において、表示部2の画面領域の一部をスルー状態としたうえで、表示画像処理部12から出力される画像信号による表示を行うことを基本とする。即ち、スルー状態の表示部2の一部の領域で画像表示を行うものである。
In this example, when such an image is displayed, a part of the screen area of the
[3.画面上の領域形態]
表示部2の画面上で、画面領域の一部をスルー状態としたうえで、表示画像処理部12から出力される画像信号による表示を行う場合の例を図7,図8に示す。
表示部2において、スルー状態の領域を残したまま画像表示を行う形態としては、画面領域内で親画面領域と子画面領域を設定し、親画面領域と子画面領域の一方をスルー状態、他方を表示画像信号による画像表示状態とする。
或いは、画面領域を分割し、分割した各領域の一方をスルー状態、他方を表示画像信号による画像表示状態とするようにしてもよい。
[3. Area form on screen]
FIGS. 7 and 8 show examples in which a part of the screen area is set to the through state on the screen of the
In the
Alternatively, the screen area may be divided so that one of the divided areas is in a through state and the other is in an image display state by a display image signal.
図7、図8において領域AR1はスルー状態の領域、領域AR2は表示画像信号による画像表示を行っている領域であるとする。
図7(a)は、表示部2の画面領域で、領域AR1内で右下に子画面としての領域AR2を設定し、画像表示を行っている例である。
図7(b)は、表示部2の画面領域で、領域AR1内で左下に子画面としての領域AR2を設定し、画像表示を行っている例である。
図示しないが、このように子画面を設定する場合、領域AR1内の右上、左上、中央、中央右寄り、中央左寄りなど、各種の位置に子画面としての領域AR2を設定することもできる。
図7(c)は、領域AR2としてのサイズを小さくした例である。
図7(d)は、領域AR2としてのサイズを大きくした例である。
図7(e)、表示部2の画面領域で、領域AR1と領域AR2を等分割して左右に分けた例である。
図7(f)、表示部2の画面領域で、領域AR1と領域AR2を等分割して上下に分けた例である。
7 and 8, it is assumed that the area AR1 is an area in a through state, and the area AR2 is an area where image display is performed using a display image signal.
FIG. 7A shows an example in which an image display is performed by setting an area AR2 as a sub-screen at the lower right in the area AR1 in the screen area of the
FIG. 7B shows an example in which an area AR2 as a sub-screen is set in the lower left of the area AR1 in the screen area of the
Although not shown, when the child screen is set in this way, the region AR2 as the child screen can be set at various positions such as upper right, upper left, center, center right, and center left in the region AR1.
FIG. 7C shows an example in which the size of the area AR2 is reduced.
FIG. 7D shows an example in which the size of the area AR2 is increased.
FIG. 7E shows an example in which the area AR1 and the area AR2 are equally divided into left and right in the screen area of the
FIG. 7F shows an example in which the area AR1 and the area AR2 are equally divided into upper and lower parts in the screen area of the
例えば図4、図5の構成において、画像表示を行う場合、この図7(a)〜(f)のような形態で、領域AR1をスルー状態としながら領域AR2に画像表示を行うことが考えられる。
またシステムコントローラ10は、動作トリガ情報発生部16からの情報(例えばユーザの操作情報、ユーザ情報、外界情報等)に基づいて、図7(a)〜(f)どのような領域形態で画像表示を行うかを選択したり、或いはこれらを切り換えるようにしてもよい。例えばユーザの操作等に応じて図7(a)(b)のように子画面とされる領域AR2の位置を変更したり、図7(c)(d)のように領域AR2のサイズを変更したり、図7(e)(f)のように等分割することで、ユーザの好みに合わせることができる。
また、いわゆる表示領域交代として、図7(a)〜(f)における領域AR1を画像表示、領域AR2をスルー状態とするような切り換えを行うことも考えられる。
また、図8(d)に、画面領域全体を領域AR2として表示画像信号による画像表示を行っている例を示しているが、例えば図7(a)〜(f)のような表示状態から、図8(d)のようにスルー状態の領域をなくして全画面で画像表示を行っている状態に切り換えることができるようにしてもよい。
For example, in the configuration of FIGS. 4 and 5, when displaying an image, it is conceivable to display the image in the area AR2 while keeping the area AR1 in the through state in the form as shown in FIGS. .
Further, the
As a so-called display area change, it is also conceivable to perform switching so that the area AR1 in FIGS. 7A to 7F is displayed as an image and the area AR2 is in a through state.
FIG. 8D shows an example in which the entire screen area is displayed as an area AR2, and image display is performed using display image signals. For example, from the display states as shown in FIGS. As shown in FIG. 8D, it may be possible to switch to a state in which image display is performed on the entire screen by eliminating the through state area.
次に図8(a)は、表示部2の画面領域で、領域AR1内で右下と左下に2つの子画面としての領域AR2a、AR2bを設定し、画像表示を行っている例である。
図8(b)は、表示部2の画面領域で、領域AR1の左右に領域AR2a、AR2bを設定し、画像表示を行っている例である。
図8(c)は、表示部2の画面領域で、領域AR1の上下に領域AR2a、AR2bを設定し、画像表示を行っている例である。
例えば図6のように2系統の撮像機能部位を有する場合、これらのような2つの領域AR2a、AR2bで各撮像機能部位での撮像画像に基づく画像表示を行うようにすることが考えられる。
また、領域AR1、AR2a、AR2bを3等分に分割設定しても良い。
また、システムコントローラ10の制御によって領域形態の切換や領域の交代が行われることも図7の場合と同様に想定される。
また、図8(a)(b)(c)の状態から図8(d)のように画面全体で画像表示を行う状態に切り換えることができるようにしてもよい。
Next, FIG. 8A is an example in which two sub-areas AR2a and AR2b are set in the lower right and lower left in the area AR1 in the screen area of the
FIG. 8B shows an example in which the areas AR2a and AR2b are set on the left and right sides of the area AR1 in the screen area of the
FIG. 8C shows an example in which areas AR2a and AR2b are set above and below the area AR1 in the screen area of the
For example, in the case of having two types of imaging function parts as shown in FIG. 6, it is conceivable to perform image display based on the captured images in each imaging function part in these two regions AR2a and AR2b.
Further, the areas AR1, AR2a, AR2b may be divided into three equal parts.
In addition, it is assumed that the switching of the area form and the switching of the areas are performed under the control of the
Also, the state shown in FIGS. 8A, 8B, and 8C may be switched to the state where the image is displayed on the entire screen as shown in FIG. 8D.
なお、複数の撮像機能部位や通信部26などで複数の表示画像ソースを有する場合であっても、そのうちの1つを選択して図7(a)〜(f)のような領域形態で表示させることも考えられる。
また、表示装置1が3つ以上の表示画像ソースを有する構成とされる場合、領域AR2としての領域を3つ以上設定し、それぞれの表示画像ソースからの画像が同時に表示されるようにしてもよい。
また、図1のように表示部2が右眼用と左眼用で2つある場合に、その一方の画面全体をスルー状態とし、他方の画面全体で図8(d)のように画像表示を行うことも考えられる。
Even when there are a plurality of display image sources in a plurality of imaging function parts, the
Further, when the
In addition, when there are two
[4.表示動作例]
上記図4,図5,図6のような構成の本実施の形態の表示装置1では、表示画像処理部12で処理されて表示駆動部13に供給される画像信号が、最終的に表示部2での表示に供される表示画像信号とされ、特にこの表示画像信号は、上記図7,図8で説明したようにスルー状態の領域を残したまま、画面上の一部領域に表示される。また、表示画像信号は、ユーザが表示部2を介して視認する光景(つまりスルー状態で視認する光景)とは異なる光景としての画像を表示させる信号である。
表示画像信号としての画像は、撮像部3(又は3X、3Y)で撮像された画像であったり、通信部26で受信された画像であるが、これらをソースとする表示画像信号を、スルー状態で視認する光景とは異なる光景の画像とし、ユーザが、スルー状態の領域で外界の光景を見ながら、一部領域で表示画像を見ることで視覚を拡張できるようにするものである。
[4. Display operation example]
In the
The image as the display image signal is an image captured by the imaging unit 3 (or 3X, 3Y) or an image received by the
このためのシステムコントローラ10の制御に基づく各種動作例を説明していく。
図9は、システムコントローラ10の制御処理を示している。
ステップF101は、システムコントローラ10が表示制御部14に対して表示部2をスルー状態とする制御処理を示している。例えば表示装置1が電源オンとされた初期段階では、システムコントローラ10はステップF101で表示部2の画面全面をスルー状態に制御する。
表示部2の画面全面をスルー状態にしている期間は、システムコントローラ10はステップF102で表示開始のトリガが発生したか否かを確認している。例えば動作トリガ情報発生部16としてユーザが操作できる操作子を設け、ユーザが所定の操作子の操作を行うことで表示状態を開始させるトリガの発生と判断すればよい。或いは後に例を述べるが、動作トリガ情報発生部16でユーザの状況や外界の状況を検出し、所定の条件に応じて表示を開始させるトリガの発生とシステムコントローラ10が判断することもできる。
Various operation examples based on the control of the
FIG. 9 shows a control process of the
Step F101 indicates a control process in which the
During a period in which the entire screen of the
表示開始トリガがあったと判別した場合は、システムコントローラ10は処理をステップF103に進め、表示画像信号の表示開始制御を行う。即ち撮像部3(又は3X、3Y)で撮像された画像信号や、通信部26で受信された画像信号に基づく表示画像信号が表示部3で表示されるように制御する。またこのとき、例えば図7,図8で述べたように、画面上の一部の領域に画像表示を実行させる。
If it is determined that there has been a display start trigger, the
画像表示を開始させた後、つまり表示部2の画面上で一部がスルー状態の領域とされ一部が画像表示の領域とされている期間は、システムコントローラ10は、ステップF104で表示切換トリガが発生したか否かを監視し、またステップF105で表示終了トリガが発生したか否かを監視する。
After the image display is started, that is, during a period in which a part is a through state area and a part is an image display area on the screen of the
ステップF104での表示切換トリガの発生とは、ユーザ操作、或いはユーザ状況や外界状況によるシステムコントローラ10の判断により、表示画像の切換を行うとシステムコントローラ10が判断することを意味している。
表示画像の切換とは、例えば表示画像内容の切換、領域形態の切換がある。
そして表示画像内容の切換とは、例えば撮像部3でのズーム処理や焦点位置の変更による画像変更、撮像感度の変更による画像変更、撮像信号処理部15での信号処理による画像変更、撮像部3が可動カメラの場合の撮像方向(被写体方向)の変更による画像変更、表示画像処理部12での信号処理による画像変更、複数の表示画像信号のソースを有する場合のソース切換による画像変更など、非常に多様な例が考えられる。
また領域形態の切換とは、親子画面の位置変更や親子画面交代、分割画面の位置変更や領域交代、全画面表示への切換などであり、例えば図7(a)の状態から図7(b)の状態に切り換えたり、図7(a)の状態から図7(e)の状態に切り換えたり、或いは図7(a)の状態から図8(d)の状態に切り換えるなどの制御である。
The occurrence of a display switching trigger in step F104 means that the
The display image switching includes, for example, display image content switching and area mode switching.
The display image content switching includes, for example, zoom processing in the imaging unit 3 and image change by changing the focus position, image change by changing imaging sensitivity, image change by signal processing in the imaging
The switching of the area form includes a change in the position of the parent / child screen, a change in the parent / child screen, a change in the position of the divided screen, a change in the area, a change to the full screen display, and the like, for example, from the state of FIG. ), The state shown in FIG. 7A to the state shown in FIG. 7E, or the state shown in FIG. 7A to the state shown in FIG. 8D.
またステップF105での表示終了トリガについては、例えばユーザが所定の操作子により表示を終了させる操作を行った場合に、システムコントローラ10は表示状態を終了させるトリガの発生と判断すればよいが、ユーザの状況や外界の状況を検出し、所定の条件に応じて表示終了トリガの発生とシステムコントローラ10が判断することもできる。
As for the display end trigger in step F105, for example, when the user performs an operation to end the display with a predetermined operator, the
表示切換トリガ発生と判断した場合は、システムコントローラ10は処理をステップF104からF106に進め、画像表示動作に関しての切換制御を行う。これにより表示部2において一部の領域に表示されている画像の内容、もしくは領域形態の切換が行われる。
システムコントローラ10はステップF106で表示切換に関しての制御を行った後も、ステップF104,F105のトリガ発生の監視を行う。
If it is determined that a display switching trigger has occurred, the
The
表示終了トリガ発生と判断した場合は、システムコントローラ10は処理をステップF105からF101に戻し、表示制御部14に対して、画像表示を終了させると共に表示部2の全面をスルーとする指示を行う。
If it is determined that the display end trigger has occurred, the
ユーザが表示装置1を装着して電源オンとしている期間は、システムコントローラ10は、例えばこの図9のような制御処理を行うことになる。
そしてこの処理においては、ステップF103で画像表示を行い、またステップF106で表示切換を行うが、これらの処理において実現される画像表示例を図10〜図15で述べていく。
なお、図10〜図14では基本的には図4の構成例であって、撮像部3がユーザの前方、つまりスルー状態の領域を介してユーザが視認する光景と同一の方向の光景を撮像するように構成されている場合を想定して説明していく。
During a period in which the user wears the
In this process, image display is performed in step F103 and display switching is performed in step F106. Examples of image display realized in these processes will be described with reference to FIGS.
10 to 14 are basically the configuration example of FIG. 4, and the imaging unit 3 captures a scene in the same direction as the scene visually recognized by the user in front of the user, that is, through the through state area. The description will be made assuming a configuration configured to do so.
図10(a)は表示部2の全面がスルー状態となっている場合を示しているとする。つまり、表示部2は単なる透明の板状体となっており、ユーザが視界光景を透明の表示部2を介して見ている状態である。
図10(b)は、画像表示状態として、例えば撮像部3で撮像した画像を表示部2に表示させた状態である。ここでは領域AR1はスルー状態とし、領域AR2に画像表示を行うようにしている。この場合、撮像部3がユーザの前方を撮像しているものとし、その撮像部3に対してズーム制御が行われて望遠撮像が行われることで、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像(望遠画像)が領域AR2に表示されている。これによりユーザーは、通常の光景をみながら、通常の視覚では見ることのできない望遠画像を楽しむことができる。
なお、ここでは撮像部3の動作により望遠画像が得られる例を挙げたが、逆に広角ズームを実行させることで、近距離の光景が広角に映し出された画像が表示部2に表示されることになる。なお、望遠−広角の制御は、撮像部3におけるズームレンズの駆動制御の他、撮像信号処理部15での信号処理でも可能である。
また図示しないが、いわゆるズーム動作ではなく、システムコントローラ10が撮像部3に焦点位置を可変させるように指示することで、近景、遠景の画像を撮像させ、その画像を表示部2の領域AR2に表示させてもよい。
FIG. 10A shows a case where the entire surface of the
FIG. 10B shows a state in which, for example, an image captured by the imaging unit 3 is displayed on the
Here, an example in which a telephoto image is obtained by the operation of the imaging unit 3 has been described, but conversely, by executing a wide-angle zoom, an image in which a short-distance scene is displayed at a wide angle is displayed on the
Although not shown, the
図11(a)は、表示部2の全面がスルー状態とされている場合を示している。
図11(b)は画像表示状態であり、システムコントローラ10が表示制御部14(表示画像処理部12、表示駆動部13)に対して撮像部3から得られた画像についての拡大処理を指示することにより、図11(b)のように領域AR1はスルー状態とし、領域AR2に拡大画像の表示を行う例である。このように拡大画像として、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることで、ユーザーは、通常の光景をみながら、通常の視覚では見ることのできない画像を見ることができる。
逆に、システムコントローラ10が表示制御部14(表示画像処理部12、表示駆動部13)に対して撮像部3から得られた画像についての縮小処理を実行させ、領域AR2に縮小画像の表示を行うことも考えられる。
FIG. 11A shows a case where the entire surface of the
FIG. 11B shows an image display state, and the
Conversely, the
図12(a)は表示部2の全面がスルー状態とされている場合を示しているが、特に周囲が薄暗い場合を示している。
図12(b)は画像表示状態であり、このように周囲が薄暗い場合に、システムコントローラ10は撮像制御部11(撮像部3,撮像信号処理部15)に対して撮像感度を上げることを指示したり、撮像信号処理部15や表示画像処理部12に対して輝度レベル、コントラスト、シャープネス調整を指示することなどにより、よりはっきりした明るい表示画像信号を得るようにし、それを表示させる。つまり領域AR1はスルー状態とし、領域AR2に輝度を明るさを向上させた画像の表示を行う例である。このように明るさ調整画像として、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることで、ユーザーは、通常の視覚では見ることのできない画像を見ることができる。
なお、照明部4に照明動作を実行させることも、このような撮像を行う場合に好適となる。
また逆に、周囲が明るすぎる場合などに、システムコントローラ10は撮像制御部11(撮像部3,撮像信号処理部15)に対して撮像感度を下げることを指示したり、撮像信号処理部15や表示画像処理部12に対して輝度レベル、コントラスト、シャープネス調整を指示することなどにより、まぶしくない表示画像信号を得るようにし、それを表示させるようにすることも考えられる。
FIG. 12A shows a case where the entire surface of the
FIG. 12B shows an image display state. When the surroundings are dim as described above, the
In addition, it is also suitable when performing such an imaging to make the
Conversely, when the surroundings are too bright, the
図13(a)は、表示部2の全面がスルー状態とされている場合を示しているが、例えばユーザが、子供が寝ている暗い寝室に居る場合などであり、殆ど真っ暗で見えない状況であるとしている。
図13(b)は画像表示状態であり、システムコントローラ10が、撮像制御部11(撮像部3,撮像信号処理部15)に対して赤外線撮像感度の上昇を指示することで、領域AR2に赤外線感度上昇撮像の画像が表示される。即ち暗い部屋で子供の寝顔などを確認できるような画像表示が行われる。これによりユーザーは、通常の視覚では見ることのできない暗視画像を見ることができる。
FIG. 13A shows a case where the entire surface of the
FIG. 13B shows an image display state, and the
図14(a)は、表示部2の全面がスルー状態とされている場合である。
図14(b)は画像表示状態を示すが、システムコントローラ10が、撮像制御部11(撮像部3,撮像信号処理部15)に対して紫外線撮像感度の上昇を指示することで、領域AR2に紫外線感度上昇撮像の画像が表示される。これによりユーザーは、通常の視覚では見ることのできない紫外光成分を表した画像を見ることができる。
FIG. 14A shows a case where the entire surface of the
FIG. 14B shows the image display state, but the
以上の図10〜図14は、図4の構成において撮像部3がユーザの前方を撮像するように配置されている場合の例を述べたが、図15は図4の撮像部3(又は図6の撮像部3X,3Y)がユーザが視認する前方方向とは異なる方向を撮像するように配置されている場合の例を示す。
図15(a)は、表示部2の全面がスルー状態とされている場合である。
撮像部3が例えばユーザの後方を撮像するように配置されている場合、画像表示状態は図15(b)のようになり、領域AR1はスルー状態とされ、領域AR2にユーザの後方を撮像した画像の表示が行われる。
また撮像部3が例えばユーザの上方を撮像するように配置されている場合、画像表示状態は図15(c)のようになり、領域AR1はスルー状態とされ、領域AR2にユーザの上方を撮像した画像の表示が行われる。
これらの場合も、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることになり、ユーザーは、通常の前方の光景をみながら、通常の視覚では見ることのできない方向の画像(後方画像や上方画像など)を見ることができる。
10 to 14 described above have described an example where the imaging unit 3 is arranged so as to capture the front of the user in the configuration of FIG. 4, FIG. 15 illustrates the imaging unit 3 (or FIG. 15) of FIG. 4. 6
FIG. 15A shows a case where the entire surface of the
For example, when the imaging unit 3 is arranged so as to capture the rear of the user, the image display state is as shown in FIG. 15B, the area AR1 is in the through state, and the rear of the user is captured in the area AR2. An image is displayed.
Further, when the imaging unit 3 is arranged so as to capture an image above the user, for example, the image display state is as shown in FIG. 15C, the area AR1 is set to the through state, and the area AR2 is imaged above the user. The displayed image is displayed.
In these cases as well, an image of a scene different from the user's field of view through the area AR1 in the through state is displayed in the area AR2, and the user sees with normal vision while viewing the normal front scene. It is possible to view an image in a direction that cannot be performed (backward image, upper image, etc.).
図15(d)は、図6のように複数の撮像機能部位を備えた構成において、撮像部3X、3Yがそれぞれユーザの右後方と左後方を撮像するように配置される場合の画像表示例である。即ち領域AR1はスルー状態とされ、領域AR2a、AR2bにそれぞれユーザの右後方と左後方を撮像した画像の表示が行われる。
この場合、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2a、AR2bに表示されることになり、ユーザーは、スルー状態の領域AR1での通常の前方の光景に加えて右後方、左後方を視認でき、ほぼ周囲全周を確認できる状態となる。
FIG. 15D shows an image display example in the case where the
In this case, an image of a scene different from the user's field of view through the area AR1 in the through state is displayed in the areas AR2a and AR2b, and the user adds to the normal front scene in the area AR1 in the through state. The right rear and the left rear can be visually confirmed, and the entire circumference can be confirmed.
ここまで各種の表示例を示したが、これらは一例にすぎない。本例においては、撮像部3(3X、3Y),撮像信号処理部15、表示画像処理部12,表示駆動部13、通信部26の各処理や動作を制御することで、多様な表示形態が実現される。
以下、画面上でスルー状態の領域とあわせて表示される画像信号、即ち表示部2をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像表示を行うための表示画像信号の例を挙げていく。
Various display examples have been shown so far, but these are only examples. In this example, various display forms can be obtained by controlling the processes and operations of the imaging unit 3 (3X, 3Y), the imaging
Hereinafter, an image signal displayed together with a through state area on the screen, that is, an image display as a scene different from a scene visually recognized by the user through the
まず図4のような構成で撮像部3がユーザの前方を撮像するように配置されている場合(つまりスルー状態で視認できる光景を撮像する場合)において、撮像部3で得られた撮像信号に基づく表示画像信号例は次のとおりである。
・撮像部3のズーム動作で得られる望遠ズーム画像としての表示画像信号
・撮像部3のズーム動作で得られる広角ズーム画像としての表示画像信号
・撮像部3の焦点制御動作で得られる遠景画像としての表示画像信号
・撮像部3の焦点制御動作で得られる近景画像としての表示画像信号
・撮像部3での撮像フレームレートを変更させて得た高速撮像画像や低速撮像画像などとしての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理での拡大処理を行った表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で得られる縮小処理を行った表示画像信号
・撮像部3での撮像感度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像部3での撮像感度を低下させて明るさを抑えた画像としての表示画像信号
・撮像部3での赤外線撮像感度を上昇させて得た暗視画像としての表示画像信号
・撮像部3での紫外線撮像感度を上昇させて得た画像としての表示画像信号
・撮像部3で特定波長帯域をカットして撮像した画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で輝度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で輝度を低下させて明るさを抑えた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の色信号処理で色合いや雰囲気を変化させた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理でコントラスト、シャープネス等を調整した画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理として、モザイク/輝度反転/ソフトフォーカス/画像内の一部の強調表示/ハイライト表示などの画像エフェクト処理を行って得た画像としての表示画像信号
・以上の各動作又は信号処理の組み合わせにより得た表示画像信号
First, when the imaging unit 3 is arranged to capture the front of the user with the configuration as shown in FIG. 4 (that is, when imaging a scene that can be viewed in the through state), the imaging signal obtained by the imaging unit 3 An example of a display image signal based thereon is as follows.
A display image signal as a telephoto zoom image obtained by a zoom operation of the image pickup unit 3 A display image signal as a wide-angle zoom image obtained by a zoom operation of the image pickup unit 3 A distant view image obtained by a focus control operation of the image pickup unit 3 Display image signal / display image signal as a foreground image obtained by the focus control operation of the imaging unit 3 / display image signal as a high-speed captured image or a low-speed captured image obtained by changing the imaging frame rate at the imaging unit 3 Display image signal subjected to enlargement processing in the signal processing of the imaging signal processing unit 15 or the display image processing unit 12 Display image subjected to reduction processing obtained by the signal processing of the imaging signal processing unit 15 or the display image processing unit 12 Display image signal as an image whose brightness is increased by increasing the imaging sensitivity in the signal / imaging unit 3, and an image whose brightness is suppressed by decreasing the imaging sensitivity in the imaging unit 3 Display image signal / display image signal / imaging as an image obtained by increasing display sensitivity / infrared imaging sensitivity at the imaging unit 3 as a night vision image obtained by increasing the infrared imaging sensitivity at the imaging unit 3 Display image as a display image signal / image pickup signal processing unit 15 or image processing unit 12 or signal processing performed by the display image processing unit 12 to increase the brightness and increase the brightness. By the color signal processing of the display image signal / imaging
撮像部3で、スルー状態において視認できるユーザ正面の光景を撮像する場合は、例えばこれらのような動作や処理で表示画像信号を得ることで、その表示画像信号は、表示部2をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像表示を行うための信号となる。
もちろん、上記列挙したものに限定されるものではなく、撮像部3の動作、撮像信号処理部15の信号処理、表示画像処理部12の信号処理により得られる、「スルー状態とは異なる光景」としての表示画像信号は多様に考えられる。
またズーム処理や拡大/縮小処理の倍率、撮像感度変更時の変更するレベル、輝度信号処理や色信号処理での処理係数など、任意に可変することも考えられる。
When the imaging unit 3 captures a scene in front of the user that can be viewed in the through state, for example, by obtaining a display image signal by such operations and processes, the display image signal is displayed in the through state. When this is done, it becomes a signal for displaying an image as a scene different from the scene visually recognized by the user via the
Of course, the present invention is not limited to the above-described ones. As a “view different from the through state” obtained by the operation of the imaging unit 3, the signal processing of the imaging
Further, it is conceivable that the zoom processing or the magnification / reduction processing magnification, the level to be changed when the imaging sensitivity is changed, the processing coefficient in the luminance signal processing or the color signal processing, and the like can be arbitrarily changed.
一方、図4のような構成で撮像部3がユーザの前方とは異なる方向を撮像するように配置されている場合において、撮像部3で得られた撮像信号に基づく表示画像信号例は次のように考えればよい。
即ち、この場合、撮像部3での通常撮像で得られた撮像画像は、それ自体が既にユーザがスルー状態の表示部2を介して通常に視認する光景とは異なる光景(例えば後方、上方、足下、右方、左方などの光景)の撮像画像であるため、撮像画像信号を、そのまま表示画像信号として表示部2に表示させればよい。
さらに、その場合に上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理、表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
On the other hand, when the imaging unit 3 is arranged to capture a direction different from the front of the user with the configuration as shown in FIG. 4, an example of a display image signal based on the imaging signal obtained by the imaging unit 3 is as follows. I think so.
That is, in this case, the captured image obtained by the normal imaging in the imaging unit 3 is a scene that is different from the scene that the user already normally sees through the
In this case, as listed above, an image signal obtained by adding the imaging operation of the imaging unit 3, the signal processing of the imaging
また、図6のように複数の撮像機能部位を備える場合においても同様に考えることができる。複数の撮像機能部位のうち、前方を撮像する撮像部3が存在する場合は、その撮像画像信号については、上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理、表示画像処理部12での信号処理により異なる光景とした画像信号を表示画像信号とすればよい。
また前方以外の方向を撮像する撮像部3が存在する場合は、その撮像画像信号そのものを表示画像信号としてもよいし、上記列挙したように、撮像部3の撮像動作、撮像信号処理部15の信号処理、表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
The same can be applied to the case where a plurality of imaging function parts are provided as shown in FIG. When there is an imaging unit 3 that images the front among a plurality of imaging functional parts, as for the captured image signal, as described above, the imaging operation of the imaging unit 3 and the signal processing of the imaging
When there is an imaging unit 3 that captures a direction other than the front, the captured image signal itself may be used as a display image signal. As described above, the imaging operation of the imaging unit 3 and the imaging
また撮像方向可変の可動式の撮像部を有する構成の場合も、同様であり、ユーザの前方以外の撮像画像や、撮像部3の撮像動作、撮像信号処理部15の信号処理、表示画像処理部12での信号処理を加えた画像信号を表示画像信号としてもよい。
また可動式の場合、特定の対象を追尾するような可動制御を行うことも考えられる。例えば撮像画像信号についての画像解析を行い、特定対象を検出した場合、撮像画像内での特定対象の動きに合わせて撮像方向を変化させる。このような制御により、ユーザは、特定の対象を追尾する画像を、例えば領域AR2において見ることができる。
The same applies to a configuration having a movable imaging unit whose imaging direction can be changed. The same applies to captured images other than the front of the user, imaging operation of the imaging unit 3, signal processing of the imaging
In the case of a movable type, it is also conceivable to perform a movable control that tracks a specific target. For example, when image analysis is performed on a captured image signal and a specific target is detected, the imaging direction is changed in accordance with the movement of the specific target in the captured image. With such control, the user can view an image tracking a specific target, for example, in the area AR2.
通信部26で受信した外部の撮像装置70の撮像画像を表示させる場合も同様に考えることができる。
即ち、外部の撮像装置70の撮像画像は、それ自体がユーザがスルー状態の表示部2を介して通常に視認する光景とは異なる光景の撮像画像であるため、通信部26で受信した画像信号を、そのまま表示画像信号として表示部2に表示させることで、ユーザに多様な画像を提供できることになる。
もちろんその場合に、上記列挙したうちで表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
例えばユーザからの視界が図10(a)のようにスタジアムで客席からサッカーを観戦している状態にあるときに、スタジアムの別の場所で撮像を行う撮像装置70による映像を、通信部26で受信し、図10(b)のように表示部2の領域AR2に表示させることが考えられるが、例えば監督席近辺に設置された撮像装置70や、審判が装着する小型の撮像装置70などからの映像を受信して、表示部2で表示することで、より興味深く試合観戦を行うことができる。
或いは、リゾート地に設置した撮像装置70や、旅行中の知人が所持する撮像装置70によって撮像した映像を、通信部26で受信し、表示部2の領域AR2に表示させたり、航空機や衛星に設置された撮像装置70で撮像した地上の映像(バードビュー映像)を、通信部26で受信し、表示部2の領域AR2に表示させるなど、多様な例が想定され、このような表示により、ユーザは、通常は見ることのできない風景を楽しむことができる。
The same applies to the case where the captured image of the
That is, since the captured image of the
Of course, in that case, the image signal obtained by adding the signal processing of the display
For example, when the field of view from the user is watching soccer from the audience seats in the stadium as shown in FIG. 10A, the
Alternatively, an image captured by the
[5.動作トリガの例]
上記図9の処理に示したように、システムコントローラ10はステップF102で表示開始トリガ発生と判断することや、ステップF104で表示切換トリガ発生と判断することに応じて表示を実行させる。さらにステップF105で表示終了トリガ発生と判断することで表示動作を終了させる。
そしてこれらの表示動作に関するトリガとしては、ユーザの操作によるものとすればよいが、ユーザの状況や外界の状況を検知し、所定の条件によりシステムコントローラ10がトリガ発生と判断しても良いと述べた。
ここでは、ユーザ状況や外界状況によりトリガ発生の判断を行う例について述べる。
[5. Example of operation trigger]
As shown in the processing of FIG. 9, the
The trigger relating to these display operations may be triggered by the user's operation, but the user's situation or the outside world situation may be detected, and the
Here, an example will be described in which the occurrence of a trigger is determined according to the user situation or the outside world situation.
まずユーザ状況によりトリガ発生と判断する場合、表示装置1は動作トリガ情報発生部16として視覚センサ、加速度センサ、ジャイロ、生体センサなどを設けるようにする。
視覚センサは、ユーザの視覚に関する情報を検出するものとするが、この視覚センサは、一例としては、例えば表示部2の近辺に配置されてユーザの眼部を撮像するようにされた撮像部により形成できる。そして該撮像部が撮像したユーザの眼部の画像をシステムコントローラ10が取り込み、画像解析を行うことで、視線方向、焦点距離、瞳孔の開き具合、眼底パターン、まぶたの開閉などを検出でき、これた基づいてユーザの状況や意志を判定できる。
或いは視覚センサは、表示部2の近辺に配置されてユーザの眼部に光を照射する発光部と、眼部からの反射光を受光する受光部により形成できる。例えば受光信号からユーザの水晶体の厚みを検知することでユーザの眼の焦点距離を検出することも可能である。
First, when it is determined that a trigger is generated according to a user situation, the
The visual sensor detects information related to the user's vision. For example, the visual sensor is provided by, for example, an imaging unit that is arranged in the vicinity of the
Alternatively, the visual sensor can be formed by a light emitting unit that is arranged in the vicinity of the
ユーザの視線方向を検出することで、システムコントローラ10は例えば表示部2に表示された画像においてユーザが注目している部分を判定できる。
またシステムコントローラ10は、ユーザの視線方向を、操作入力として認識することも可能である。例えばユーザが視線を左右に動かすことを、表示装置1に要求する所定の操作入力とするなどである。
ユーザの焦点距離を検出することで、ユーザが注目している光景が遠方か近傍かを判別でき、それに応じてズーム制御、拡大/縮小制御、焦点変更制御などを行うことも可能である。例えばユーザが遠くを見たときに望遠表示を行うなどである。
ユーザの瞳孔の開き具合を検出すれば、スルー状態であれば周囲の明るさの状態、またモニタ表示状態であれば表示している画像に対してユーザが感じているまぶしさ等を判定でき、それに応じて輝度調整、撮像感度調整などを行うことができる。
ユーザの眼底パターンの検出は、例えばユーザの個人認証に用いることができる。眼底パターンは各人に固有のパターンであるため、眼底パターンによって装着したユーザを判定し、そのユーザに適した制御を行うこと、或いは特定のユーザにのみ表示動作を実行できるようにすることなどの制御が可能である。
ユーザのまぶたの開閉動作を検出することで、ユーザが感じているまぶしさや眼の疲れを判定できる。また、まぶたの開閉を、ユーザの意識的な操作入力として認識することも可能である。例えばユーザが3回まばたきをすることを、所定の操作入力と判定するなどである。
By detecting the direction of the user's line of sight, the
The
By detecting the focal length of the user, it is possible to determine whether the scene that the user is paying attention to is far or near, and it is possible to perform zoom control, enlargement / reduction control, focus change control, and the like accordingly. For example, a telephoto display is performed when the user looks far away.
By detecting the degree of pupil opening of the user, it is possible to determine the brightness of the surroundings if it is a through state, the glare that the user feels for the displayed image if it is a monitor display state, Accordingly, brightness adjustment, imaging sensitivity adjustment, and the like can be performed.
The detection of the fundus pattern of the user can be used for personal authentication of the user, for example. Since the fundus pattern is unique to each person, it is possible to determine a user wearing the fundus pattern and perform control suitable for the user, or to perform a display operation only for a specific user. Control is possible.
By detecting the opening / closing operation of the user's eyelids, it is possible to determine the user's feeling of glare or eye fatigue. It is also possible to recognize opening / closing of the eyelid as a user's conscious operation input. For example, it is determined that the user blinks three times as a predetermined operation input.
加速度センサ、及びジャイロは、ユーザの動きに応じた信号を出力する。例えば加速度センサは直線方向の動きを検出し、ジャイロにより回転系の動きや振動を検出する場合に適している。
加速度センサやジャイロの配置位置にもよるが、加速度センサやジャイロによって、ユーザの身体全体もしくは身体の各部の動きを検知できる。
例えば図1のような眼鏡型の表示装置1の内部に取り付けられた場合、つまり加速度センサ及びジャイロがユーザの頭部の動きを検出するものとされた場合は、加速度センサの検出情報は、ユーザの頭部或いは全身の動きとしての加速度情報となり、またジャイロの検出情報はユーザの頭部或いは全身の動きとしての角速度や振動の情報となる。
これによって、ユーザが首から頭部を動かす挙動を検知できる。例えば上方を向いている状態や下方を向いている状態を判定できる。下方を向いているときとは、ユーザが読書など近傍を見ていると判断することも可能である。逆に上方を向いているときは、遠方を見ていると判断することもできる。
またシステムコントローラ10はユーザの首から頭部を動かす挙動を検出したら、それをユーザの意識的な操作と認識することもできる。例えば左に2回首を振ったら、それが所定の操作入力とするなどである。
また加速度センサ及びジャイロによっては、ユーザが静止状態(非歩行状態)であるか、歩行状態であるか、走行状態であるかなどの判断も可能である。また立っている状態から座った場合、或いは立ち上がった場合などの検出も可能である。
また、加速度センサやジャイロが、頭部に装着する装着ユニットとは別体に設けられ、腕や足に取り付けられるようにすれば、腕のみの挙動、足のみの挙動も検知できる。
The acceleration sensor and the gyro output a signal corresponding to the user's movement. For example, an acceleration sensor is suitable for detecting movement in a linear direction and detecting movement and vibration of a rotating system with a gyro.
Although depending on the arrangement position of the acceleration sensor and the gyro, the acceleration sensor and the gyro can detect the movement of the entire body of the user or each part of the body.
For example, when it is mounted inside the eyeglass-
Thereby, it is possible to detect the behavior of the user moving the head from the neck. For example, it is possible to determine a state facing upward or a state facing downward. When facing down, it can be determined that the user is looking in the vicinity, such as reading. Conversely, when looking upward, it can be determined that the user is looking far away.
Further, when the
Depending on the acceleration sensor and the gyro, it is possible to determine whether the user is in a stationary state (non-walking state), a walking state, or a running state. It is also possible to detect when sitting or standing from a standing state.
Further, if the acceleration sensor and the gyro are provided separately from the mounting unit mounted on the head and are attached to the arms and feet, the behavior of only the arms and the behavior of only the feet can be detected.
生体センサは、ユーザの生体情報として例えば心拍情報(心拍数)、脈拍情報(脈拍数)、発汗情報、脳波情報(例えばα波、β波、θ波、δ波の情報)、又は皮膚電気反応、体温、血圧、呼吸活動(例えば呼吸の速さ、深さ、換気量など)等を検出するが、これらの情報からシステムコントローラ10は、ユーザが緊張状態や興奮状態にあること、或いは感情的に穏やかな状態にあること、或いは快適な状態か不快な状態にあることなどを判定できる。
また表示装置1をユーザが装着したことの検知も、生体情報により可能である。例えばシステムコントローラ10は、ユーザが表示装置1を装着していない時には生体情報検知のみをおこなうスタンバイ状態に制御し、生体情報によりユーザが表示装置1を装着したことを検知したら、電源オン状態とすることや、逆にユーザが表示装置1の装着を外したらスタンバイ状態に戻すなどの制御も可能である。
さらに生体センサによる検出情報は、ユーザの個人認証(装着者個人の識別)にも利用できる。
なお生体センサは、例えば眼鏡型の表示装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部において、上記情報を検知できるようにしてもよいし、表示装置1の装着フレーム部分とは別体として、身体の所定箇所に装着されるようにしてもよい。
The biometric sensor is, for example, heartbeat information (heart rate), pulse information (pulse rate), sweating information, brain wave information (for example, information on α wave, β wave, θ wave, and δ wave) or electrodermal reaction as user's biological information. , Body temperature, blood pressure, respiratory activity (for example, breathing speed, depth, ventilation volume, etc.), etc. are detected. From these information, the
Further, it is possible to detect that the user wears the
Furthermore, the detection information by the biosensor can also be used for user personal authentication (identification of the individual wearer).
For example, the biometric sensor may be arranged inside the wearing frame of the glasses-
次に外界の状況を検知する場合においては、表示装置1は、外界情報を取得するための構成として、動作トリガ情報発生部16に周囲環境センサ、撮像対象センサ、GPS受信部、日時計数部、画像解析部を設けたり、通信部26を利用する。
Next, in the case of detecting the situation of the outside world, the
周囲環境センサとしては、照度センサ、温度センサ、湿度センサ、気圧センサ等が想定される。
照度センサによっては、表示装置1の周囲の明るさの情報を検出できる。
また温度センサ、湿度センサ、気圧センサによっては、温度、湿度、気圧或いは天候を判別する情報を得ることができる。
これらの周囲環境センサにより、表示装置1は周囲の明るさや戸外の場合の気象状況などを判定できるため、システムコントローラ10は、これらを外界情報として用いて、周囲の明るさや気象状況に適した表示画像信号の生成動作を実行制御できる。例えば周囲の明るさに応じて画像の輝度レベルを上下させたり、天候状況に応じて画像の雰囲気を変えるなどである。
As the ambient environment sensor, an illuminance sensor, a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
Depending on the illuminance sensor, it is possible to detect the brightness information around the
Depending on the temperature sensor, the humidity sensor, and the atmospheric pressure sensor, information for determining the temperature, humidity, atmospheric pressure, or weather can be obtained.
These ambient environment sensors allow the
撮像対象センサは撮像対象についての情報を検知する。例えば測距センサや焦電センサなどが考えられるが、撮像対象との距離や、撮像対象自体を判定する情報を得ることができる。
撮像対象までの距離を検出することで、システムコントローラ10は、距離に応じた撮像動作、表示動作を実行制御できる。また撮像対象が人などの生体であることを検知することで、撮像対象に応じた表示画像信号の生成動作を実行制御できる。
The imaging target sensor detects information about the imaging target. For example, a distance measuring sensor, a pyroelectric sensor, or the like can be considered, and information for determining the distance to the imaging target or the imaging target itself can be obtained.
By detecting the distance to the imaging target, the
GPS受信部は、現在位置としての緯度・経度の情報を取得する。緯度・経度を検出した場合、地図データベース等を参照することで、現在位置における地点(地点近辺)の情報を得ることができる。例えばシステムコントローラ10が参照できる記録媒体として、例えばHDD(Hard Disk Drive)やフラッシュメモリなどであって比較的大容量の記録媒体を搭載し、これらの記録媒体に地図データベースを記憶させることで、現在位置に関連する情報を取得できる。
また通信部26を有する構成の場合、表示装置1に地図データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや地図データベース内蔵機器にアクセスし、緯度・経度を送信して現在位置に応じた情報を要求し、情報を受信するようにしてもよい。
現在位置に関連する情報としては、現在位置近辺の地名、建造物名、施設名、店名、駅名などの名称情報がある。
また現在位置に関連する情報としては、公園、テーマパーク、コンサートホール、劇場、映画館、スポーツ施設など、建造物の種別を示す情報もある。
また現在位置に関連する情報としては、海岸、海上、河川、山間部、山頂部、森林、湖、平野部など、自然物の種別や名称の情報もある。
また、より詳細な位置についての情報として、例えばテーマパーク内でのエリアや、野球場、サッカー場などでの観戦席のエリア、コンサートホールでの座席のエリアの情報なども現在位置についての情報として取得することができる。
これら、現在位置に関する情報を取得することで、システムコントローラ10は、現在位置や現在地点の近辺の地理的条件や施設などに応じた表示画像信号の生成動作を実行制御したり、特定の場所において表示開始制御或いは表示終了制御を行うなどが可能となる。
The GPS receiver acquires latitude / longitude information as the current position. When the latitude / longitude is detected, it is possible to obtain information on a point (near the point) at the current position by referring to a map database or the like. For example, as a recording medium that can be referred to by the
In the case of the configuration having the
Information related to the current position includes name information such as a place name, a building name, a facility name, a shop name, and a station name near the current position.
Information related to the current position includes information indicating the type of building such as a park, a theme park, a concert hall, a theater, a movie theater, and a sports facility.
Information relating to the current position includes information on the types and names of natural objects such as coasts, seas, rivers, mountains, mountain peaks, forests, lakes, and plains.
In addition, as information about the current position, for example, information on the location in the theme park, the area of the spectator seat in the baseball stadium, the soccer field, the information on the seat area in the concert hall, etc. Can be acquired.
By acquiring the information on the current position, the
日時計数部は例えば年月日時分秒を計数する。この日時計数部によってシステムコントローラ10は、現在時刻、昼夜の別、月、季節などを認識できる。このため、例えば昼夜の別(時刻)に応じた表示画像信号の生成動作や、現在の季節に適した表示画像信号の生成動作などを実行制御できる。
The date / time counting unit counts year / month / day / hour / minute / second, for example. By this date and time counting unit, the
撮像画像を解析する画像解析部を設ければ、撮像画像から撮像対象についての以下のような各種の情報を検出できる。
まず撮像対象の種別として、撮像画像に含まれている人物、動物、自然物、建造物、機器などを判別できる。例えば動物としては、被写体として鳥が撮像されている状況や猫が撮像されている状況等を判別できる。また自然物としては、海、山、樹木、河川、湖、空、太陽、月などを判別できる。建造物としては、家屋、ビル、競技場などを判別できる。機器としては、パーソナルコンピュータ、AV(Audio-Visual)機器、携帯電話機、PDA、ICカード、二次元バーコードなどが撮像対象となっている状況を判別できる。
これら撮像対象の種別は、予め各種別の形状の特徴を設定しておき、撮像画像内に、形状が該当する被写体が含まれているか否かにより判別可能である。
また画像解析部による画像解析によれば、画像の前後フレームの差分検出などの手法で、被写体の動きの検出、例えば素早い動きが画像内も可能である。例えばスポーツ観戦で選手を撮像している際や、走行している自動車等を撮像している場合などに、動きの素早い被写体を撮像しているという状況を検知することができる。
また画像解析部による画像解析によれば、周囲の状況を判定することも可能である。例えば昼夜や天候による明るさの状況を判定できるし、雨の強さなども認識可能である。
If an image analysis unit for analyzing a captured image is provided, the following various types of information about the imaging target can be detected from the captured image.
First, a person, animal, natural object, building, device, or the like included in the captured image can be identified as the type of the imaging target. For example, as an animal, it is possible to determine a situation where a bird is imaged as a subject, a situation where a cat is imaged, and the like. As natural objects, the sea, mountains, trees, rivers, lakes, sky, sun, moon, etc. can be distinguished. As buildings, houses, buildings, and stadiums can be identified. As a device, it is possible to determine a situation in which a personal computer, an AV (Audio-Visual) device, a mobile phone, a PDA, an IC card, a two-dimensional barcode, or the like is an imaging target.
These types of imaging targets can be determined by setting characteristics of various shapes in advance and determining whether or not a subject corresponding to the shape is included in the captured image.
Further, according to the image analysis by the image analysis unit, it is possible to detect the movement of the subject, for example, a quick movement within the image by a method such as detection of a difference between frames before and after the image. For example, it is possible to detect a situation in which a fast-moving subject is being imaged, for example, when a player is imaged during a sporting event or when a moving automobile is being imaged.
Moreover, according to the image analysis by the image analysis unit, it is possible to determine the surrounding situation. For example, it is possible to determine the brightness situation due to day and night or weather, and it is also possible to recognize the intensity of rain.
また、画像解析部による画像解析によれば、人物が被写体となっている場合に、その人物の顔から人物個人を特定する判別も可能である。既に知られているように、人物の顔は、顔の構成要素の相対位置情報として個人特徴データ化することができる。例えば目の中心と鼻との距離ENと目の間隔の距離Edの比(Ed/EN)や、目の中心と口との距離EMと目の間隔の距離Edの比(Ed/EM)は、個人毎に特有となるとともに、髪型や眼鏡等の装着物などによる、外観上の変化の影響を受けない情報である。さらに加齢によっても変化しないことが知られている。
従って、画像解析部は、撮像画像内に或る人物の顔が含まれているときに、その画像を解析すれば上記のような個人特徴データを検出することができる。
撮像画像から個人特徴データを検出した場合、例えばシステムコントローラ10が参照できる記録媒体として、例えばHDD(Hard Disk Drive)やフラッシュメモリなどを搭載し、これらの記録媒体に人物データベースを記憶させておけば、被写体となっている個人の情報を取得できる。或いは、表示装置1に人物データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや人物データベース内蔵機器にアクセスし、個人特徴データを送信して情報を要求し、特定の人物の情報を受信するようにしてもよい。
例えばユーザ自身が、過去に出会った人物の氏名や所属などの人物情報を個人特徴データとともに人物データベースに登録しておけば、或る人物に出会ったとき(撮像されたとき)に、システムコントローラ10は、その人物の情報を検索できる。
また、有名人の情報を個人特徴データとともに登録した人物データベースが用意されていれば、ユーザが有名人に出会ったときに、その人物の情報を検索できる。
Further, according to the image analysis by the image analysis unit, when a person is a subject, it is also possible to identify the person from the person's face. As already known, a person's face can be converted into personal feature data as relative position information of the constituent elements of the face. For example, the ratio between the distance EN between the center of the eye and the nose and the distance Ed between the eyes (Ed / EN) and the ratio between the distance EM between the center of the eye and the mouth and the distance Ed between the eyes (Ed / EM) This information is unique to each individual and is not affected by changes in appearance due to an attachment such as a hairstyle or glasses. Furthermore, it is known that it does not change with aging.
Therefore, the image analysis unit can detect the personal feature data as described above by analyzing the image when a certain person's face is included in the captured image.
When personal feature data is detected from a captured image, for example, an HDD (Hard Disk Drive), a flash memory, or the like is installed as a recording medium that can be referred to by the
For example, if the user himself / herself registers personal information such as the name and affiliation of a person who has met in the past in the person database together with the personal characteristic data, the
Further, if a person database in which celebrity information is registered together with personal characteristic data is prepared, information on the person can be retrieved when the user meets the celebrity.
このような画像解析部による検出情報に基づいて、システムコントローラ10は撮像対象に応じた表示画像信号の生成処理を実行制御できる。例えば特定の対象や特定の人物が撮像されている場合は、その特定の対象をハイライト表示させるような表示画像信号を生成することなどが考えられる。
Based on the detection information by such an image analysis unit, the
通信部26によれば、外界情報として、多様な情報を取得できる。
例えば上述したように表示装置1から送信した緯度・経度、或いは個人特徴データなどに応じて外部機器で検索された情報を取得できる。
また外部機器から天候情報、気温情報、湿度情報など気象に関する情報を取得することができる。
また外部機器から施設の利用情報、施設内での撮像禁止/許可情報、案内情報などを取得することができる。
また外部機器自体の識別情報を取得することができる。例えば所定の通信プロトコルにおいてネットワークデバイスとして識別される機器の種別や機器ID等である。
また外部機器に格納されている画像データ、外部機器で再生或いは表示している画像データ、外部機器で受信している画像データなどを取得することができる。
このような通信部26で取得できる情報に基づいて、システムコントローラ10は表示画像信号の生成処理を実行制御できる。
According to the
For example, as described above, information searched by an external device can be acquired according to latitude / longitude transmitted from the
In addition, weather information such as weather information, temperature information, and humidity information can be acquired from an external device.
In addition, facility usage information, in-facility imaging prohibition / permission information, guidance information, and the like can be acquired from an external device.
Further, identification information of the external device itself can be acquired. For example, the device type or device ID identified as a network device in a predetermined communication protocol.
Further, image data stored in the external device, image data reproduced or displayed on the external device, image data received on the external device, and the like can be acquired.
Based on such information that can be acquired by the
以上の例のような構成要素を動作トリガ情報発生部16として設け、ユーザの状況や外界の状況を検知し、それら状況に応じた表示開始/終了や、表示切換(表示内容の変更や領域形態の切換)を行うようにすることで、ユーザが操作しなくとも、適切或いはおもしろみのある表示動作が実現される。
また、ユーザの状況や外界の状況を検出するための構成例は他にも考えられる。
The constituent elements as in the above example are provided as the operation trigger
In addition, other configuration examples for detecting the user's situation and the outside world situation are conceivable.
[6.実施の形態の効果、変形例及び拡張例]
以上、実施の形態を説明してきたが、実施の形態によれば、表示部2の画面領域の一部をスルー状態としたうえで表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、通常に視認する視覚光景とは異なる光景の画像を見ることができる。例えばスルー状態の領域により前方を見ながら、表示画像信号の表示により、望遠画像、拡大画像、特殊撮像画像、後方の光景の画像などを見ることができる。このため通常の視覚光景と同時に、通常の視覚では見ることのできない光景を見る状態となり、擬似的にユーザの視覚能力を拡張させる状況を作り出すことができる。
また表示部2は、少なくとも画面領域の一部はスルー状態であるため、装着状態のままでも通常の生活に支障がないようにできる。このためユーザの通常の生活の中で、表示装置1の利点を有効に得ることができる。
[6. Effect, modification and extension of embodiment]
As described above, the embodiment has been described. According to the embodiment, a part of the screen area of the
In addition, since at least a part of the screen area is in the through state, the
表示装置1の外観や構成は図1,図2、図4,図5,図6の例に限定されるものではなく、各種の変形例が考えられる。
例えば撮像部3で撮像した画像信号を記録媒体に記録するストレージ部を設けてもよい。
また撮像した画像信号を、通信部26から他の機器に送信する動作を行うようにしてもよい。
The appearance and configuration of the
For example, a storage unit that records an image signal captured by the imaging unit 3 on a recording medium may be provided.
Moreover, you may make it perform the operation | movement which transmits the imaged image signal from the
ストレージ部を設ける場合、ストレージ部で記録媒体から再生したの再生画像を表示画像信号として表示部2に表示させてもよい。
記録媒体から再生されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成して記録媒体に記録した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、記録媒体に記録されたゲームプログラムに基づくゲーム画像など、記録媒体に記録されて表示対象となるあらゆるデータが想定される。
When the storage unit is provided, a reproduced image reproduced from the recording medium in the storage unit may be displayed on the
The data reproduced from the recording medium includes, for example, moving picture contents such as movies and video clips, still picture contents captured by a digital still camera or the like and recorded on the recording medium, data such as electronic books, and a user using a personal computer or the like. Computer-generated data such as image data, text data, spreadsheet data, etc. created and recorded on a recording medium, game data based on a game program recorded on a recording medium, etc. Is assumed.
また通信部26は、外部の撮像装置70からの画像信号を受信するだけでなく、外部のコンテンツソース機器から提供される画像(動画/静止画)を受信して表示部2に表示させるようにすることも考えられる。
コンテンツソース機器とは、例えばビデオ機器、テレビジョンチューナ、ホームサーバ機器等のAV(Audio-Visual)機器や、パーソナルコンピュータ、PDA(Personal Digital Assistant)、携帯電話機などの情報処理装置などが想定できる。このようなコンテンツソース機器も、表示装置1を用いるユーザ本人やその知人が所有する機器であったり、各種コンテンツ提供を行う公共或いはサービス企業等のサーバ機器であるなど多様に考えられる。
コンテンツソース機器から表示装置1に送信されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲーム画像など、表示対象となるあらゆるデータが想定される。
The
Examples of the content source device include an AV (Audio-Visual) device such as a video device, a television tuner, and a home server device, and an information processing device such as a personal computer, a PDA (Personal Digital Assistant), and a mobile phone. Such content source devices can be variously considered, such as devices owned by the user who uses the
Data transmitted from the content source device to the
また撮像時に周囲音声を集音するマイクロホンや、音声を出力するイヤホン型等のスピーカ部が設けられても良い。
また、画像内における文字を認識する文字認識部と、音声合成処理を行う音声合成部を設け、撮像画像に文字が含まれている場合に、音声合成部で、その読み上げ音声の音声信号を生成し、スピーカ部から出力させるようにすることも考えられる。
In addition, a microphone unit that collects ambient sounds during imaging or an earphone type speaker unit that outputs sounds may be provided.
In addition, a character recognition unit that recognizes characters in the image and a speech synthesis unit that performs speech synthesis processing are provided, and when the captured image contains characters, the speech synthesis unit generates a speech signal for the read-out speech However, it is also conceivable to output from the speaker unit.
また表示画像信号は静止画としても良い。例えば撮像部3で所定のトリガのタイミングを静止画撮像を行い、その撮像された静止画像を表示部2に表示させる。
The display image signal may be a still image. For example, the image capturing unit 3 captures a still image at a predetermined trigger timing, and displays the captured still image on the
また、表示装置1として眼鏡型或いは頭部装着型の装着ユニットを有する例を述べたが、本発明の表示装置は、ユーザの眼前で表示を行うことができるように構成されればよく、例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着されるような形態であってもよい。
Moreover, although the example which has a spectacles type or a head mounted type mounting unit was described as the
1 表示装置、2 表示部、3 撮像部、4 照明部、10 システムコントローラ、11 撮像制御部、12 表示画像処理部、13 表示駆動部、14 表示制御部、15 撮像信号処理部、16 動作トリガ情報発生部、26 通信部
DESCRIPTION OF
Claims (5)
外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信する通信手段と、
上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得る画像信号生成手段と、
上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行させる制御を行う制御手段と、
を備える表示装置。 Display means arranged to be positioned in front of the user's eyes and displaying an image, and the screen area for displaying the image can be in a transparent or translucent through state;
Communication means for communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device;
An image signal generating means for obtaining a display image signal as a sight different from a sight visually recognized by the user through the display means when the display means is in a through state based on information according to the position information;
Control means for controlling the display means to execute display by the display image signal generated by the image signal generation means after setting a part of the screen area to the through state;
A display device comprising:
撮像部と、
上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する、
請求項1に記載の表示装置。 The image signal generating means includes
An imaging unit;
A signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit,
The display device according to claim 1.
請求項2に記載の表示装置。 The image signal generation means obtains a display image signal using the image processed by the signal processing unit.
The display device according to claim 2.
上記画像解析部は、上記撮像画像信号に含まれる人物の個人特徴データを検出し、
上記通信手段は、上記個人特徴データを外部の装置に送信して、上記外部の装置から上記個人特徴データに応じた情報を受信し、
上記画像信号生成手段は、上記個人特徴データに応じた情報に基づいて表示画像信号を生成する、
請求項2に記載の表示装置。 Has an image analysis unit,
The image analysis unit detects personal feature data of a person included in the captured image signal,
The communication means transmits the personal characteristic data to an external device, receives information corresponding to the personal characteristic data from the external device,
The image signal generating means generates a display image signal based on information corresponding to the personal feature data;
The display device according to claim 2.
外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信するステップと、
上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得るステップと、
上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行するステップと、
を備える表示方法。 Display method for a display device provided with display means arranged so as to be positioned in front of a user's eyes and capable of displaying a screen region in which the image display is made transparent or semi-transparent As
Communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device;
Obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state based on information according to the position information;
A step of executing display by the display image signal generated by the image signal generation unit after setting a part of the screen area to the through state with respect to the display unit;
A display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262182A JP2013083994A (en) | 2012-11-30 | 2012-11-30 | Display unit and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262182A JP2013083994A (en) | 2012-11-30 | 2012-11-30 | Display unit and display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006281042A Division JP5228307B2 (en) | 2006-10-16 | 2006-10-16 | Display device and display method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014193794A Division JP5971298B2 (en) | 2014-09-24 | 2014-09-24 | Display device and display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013083994A true JP2013083994A (en) | 2013-05-09 |
Family
ID=48529159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012262182A Pending JP2013083994A (en) | 2012-11-30 | 2012-11-30 | Display unit and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013083994A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160006369A (en) * | 2014-07-09 | 2016-01-19 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
KR20160022476A (en) * | 2014-08-19 | 2016-03-02 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
JP2017049868A (en) * | 2015-09-03 | 2017-03-09 | 株式会社東芝 | Wearable terminal, method, and system |
CN107147883A (en) * | 2017-06-09 | 2017-09-08 | 中国科学院心理研究所 | A kind of remote shooting system based on the dynamic control of head |
US10051256B2 (en) | 2016-08-26 | 2018-08-14 | Olympus Corporation | Image observation apparatus |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0226870U (en) * | 1988-08-04 | 1990-02-21 | ||
JP2000284214A (en) * | 1999-03-30 | 2000-10-13 | Suzuki Motor Corp | Device for controlling display means to be mounted on helmet |
JP2001356836A (en) * | 2000-06-16 | 2001-12-26 | Toshiba Corp | Computer system and method for controlling its screen protection and storage medium |
JP2003216982A (en) * | 2002-01-17 | 2003-07-31 | Sony Corp | Device and method for providing information, storage medium, and computer program |
JP2005157317A (en) * | 2003-10-28 | 2005-06-16 | Semiconductor Energy Lab Co Ltd | Display device and communication system |
JP2005172851A (en) * | 2003-12-05 | 2005-06-30 | Sony Corp | Image display apparatus |
JP2005173748A (en) * | 2003-12-09 | 2005-06-30 | Zenrin Co Ltd | Specifying of imaging position of scene image using electronic map data |
JP2006165822A (en) * | 2004-12-03 | 2006-06-22 | Nikon Corp | Electronic camera and program |
JP2006171302A (en) * | 2004-12-15 | 2006-06-29 | Konica Minolta Photo Imaging Inc | Video display device and information providing system |
-
2012
- 2012-11-30 JP JP2012262182A patent/JP2013083994A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0226870U (en) * | 1988-08-04 | 1990-02-21 | ||
JP2000284214A (en) * | 1999-03-30 | 2000-10-13 | Suzuki Motor Corp | Device for controlling display means to be mounted on helmet |
JP2001356836A (en) * | 2000-06-16 | 2001-12-26 | Toshiba Corp | Computer system and method for controlling its screen protection and storage medium |
JP2003216982A (en) * | 2002-01-17 | 2003-07-31 | Sony Corp | Device and method for providing information, storage medium, and computer program |
JP2005157317A (en) * | 2003-10-28 | 2005-06-16 | Semiconductor Energy Lab Co Ltd | Display device and communication system |
JP2005172851A (en) * | 2003-12-05 | 2005-06-30 | Sony Corp | Image display apparatus |
JP2005173748A (en) * | 2003-12-09 | 2005-06-30 | Zenrin Co Ltd | Specifying of imaging position of scene image using electronic map data |
JP2006165822A (en) * | 2004-12-03 | 2006-06-22 | Nikon Corp | Electronic camera and program |
JP2006171302A (en) * | 2004-12-15 | 2006-06-29 | Konica Minolta Photo Imaging Inc | Video display device and information providing system |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160006369A (en) * | 2014-07-09 | 2016-01-19 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
KR102236095B1 (en) | 2014-07-09 | 2021-04-06 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
KR20160022476A (en) * | 2014-08-19 | 2016-03-02 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
KR102269671B1 (en) | 2014-08-19 | 2021-06-25 | 에스케이플래닛 주식회사 | Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer |
JP2017049868A (en) * | 2015-09-03 | 2017-03-09 | 株式会社東芝 | Wearable terminal, method, and system |
US10051256B2 (en) | 2016-08-26 | 2018-08-14 | Olympus Corporation | Image observation apparatus |
CN107147883A (en) * | 2017-06-09 | 2017-09-08 | 中国科学院心理研究所 | A kind of remote shooting system based on the dynamic control of head |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5228307B2 (en) | Display device and display method | |
US9772686B2 (en) | Imaging display apparatus and method | |
JP5119636B2 (en) | Display device and display method | |
JP5162928B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6137113B2 (en) | Display device, display method, and program | |
JP5664677B2 (en) | Imaging display device and imaging display method | |
JP2008083289A (en) | Imaging display apparatus, and imaging display method | |
JP2013174898A (en) | Imaging display device, and imaging display method | |
JP2013083994A (en) | Display unit and display method | |
JP5971298B2 (en) | Display device and display method | |
JP2013034237A (en) | Image processor, image processing method and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140624 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140924 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20141002 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20141219 |