JP5272827B2 - Head mounted display - Google Patents
Head mounted display Download PDFInfo
- Publication number
- JP5272827B2 JP5272827B2 JP2009066514A JP2009066514A JP5272827B2 JP 5272827 B2 JP5272827 B2 JP 5272827B2 JP 2009066514 A JP2009066514 A JP 2009066514A JP 2009066514 A JP2009066514 A JP 2009066514A JP 5272827 B2 JP5272827 B2 JP 5272827B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- head
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 26
- 238000003384 imaging method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 14
- 210000003128 head Anatomy 0.000 description 53
- 230000003287 optical effect Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 7
- 239000013307 optical fiber Substances 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B26/00—Optical devices or arrangements for the control of light using movable or deformable optical elements
- G02B26/08—Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
- G02B26/10—Scanning systems
- G02B26/105—Scanning systems with one or more pivoting mirrors or galvano-mirrors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
Description
本発明は、ヘッドマウントディスプレイに関する。 The present invention relates to a head mounted display.
従来、画像表示装置の一つとして、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像をユーザに視認させるようにした表示手段を備えるヘッドマウントディスプレイが知られている。 2. Description of the Related Art Conventionally, as one of image display devices, a head-mounted display having a display unit that makes image light according to image information incident on the user's eyes and allows the user to visually recognize the image according to the image information is known. ing.
かかるヘッドマウントディスプレイは、文字通り頭部に装着するものであり、ハンズフリーで画像を視認できる特性があり、持ち運びに適している。 Such a head-mounted display is literally worn on the head, has a characteristic of visually recognizing a hand-free image, and is suitable for carrying.
そこで、かかる特性をより活かすために、操作キーなどの操作を不要とすることによってユーザの操作負担をなくした表示装置が提案されている。 Therefore, in order to make better use of such characteristics, there has been proposed a display device that eliminates the operation burden of the user by eliminating the operation of operation keys and the like.
例えば、ユーザの目の前方に位置するように配置されて画像の表示を行う表示手段と、外界情報を取得する撮像手段などの外界情報取得手段と、この外界情報取得手段で取得された情報に基づいて、上記表示手段の動作を制御する制御手段とを備えるものがある(例えば特許文献1を参照)。 For example, display means for displaying an image arranged so as to be positioned in front of the user's eyes, external world information acquisition means such as an imaging means for acquiring external world information, and information acquired by the external world information acquisition means On the basis of the above, there is a control means for controlling the operation of the display means (see, for example, Patent Document 1).
かかる構成により、撮像手段(外界情報取得手段)により取得した画像情報などから、外界情報として撮像した対象物が何であるかを識別し、識別したものと所定の情報とを関連付けることで、操作キーなどを操作することなく、ヘッドマウントディスプレイに所定の動作を行わせることが可能となる。 With such a configuration, the operation key is identified by identifying what is the object imaged as external information from the image information acquired by the imaging means (external world information acquisition means), and associating the identified object with predetermined information. It is possible to cause the head mounted display to perform a predetermined operation without operating the above.
しかしながら、撮像した画像情報から、この撮像された対象物が何であるかを確実に識別することは難しく、誤動作を引き起こすおそれが多々あった。 However, it is difficult to reliably identify what the captured object is from the captured image information, and there are many possibilities of causing malfunctions.
そこで、ハンズフリーでより確実に所望する操作を行うことのできるヘッドマウントディスプレイが望まれている。 Therefore, there is a demand for a head-mounted display that can perform a desired operation more reliably and hands-free.
上記目的を達成するために、請求項1に記載の発明は、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像を表示する表示手段を備えたヘッドマウントディスプレイにおいて、前記ユーザの視野方向の所定範囲を撮像する撮像手段と、前記ユーザの頭部の角度を検出する頭部状態検出手段と、前記撮像手段により撮像した画像と前記検出した前記ユーザの頭部の角度とにより前記ユーザの視野方向にある当該ユーザの身体の部位を特定する部位特定手段と、前記部位特定手段により特定したユーザの身体の部位の情報に応じた操作を実行する制御処理手段と、を備える構成とした。
In order to achieve the above object, the invention according to
また、請求項2に記載の発明は、請求項1に記載のヘッドマウントディスプレイにおいて、前記部位特定手段により特定した前記ユーザの身体の部位の状態を判定する部位状態判定手段を備え、前記制御処理手段は、前記部位特定手段で特定した部位に対応する操作のうち前記部位状態判定手段により判定した前記部位の状態に応じた操作を実行することを特徴とする。
The invention according to
また、請求項3に記載の発明は、請求項2に記載のヘッドマウントディスプレイにおいて、前記部位状態判定手段は、前記部位特定手段により特定した前記ユーザの身体の部位の状態として、前記ユーザの身体の部位にユーザの手が接触又は近接した状態か否かを判定することを特徴とする。 According to a third aspect of the present invention, in the head-mounted display according to the second aspect, the part state determining unit is configured to use the user's body as the state of the part of the user's body specified by the part specifying unit. It is characterized in that it is determined whether or not the user's hand is in contact with or close to the part.
また、請求項4に記載の発明は、請求項3に記載のヘッドマウントディスプレイにおいて、前記部位状態判定手段は、前記ユーザの手に装着された装着具を検出することによって、前記ユーザの手の位置を検出することを特徴とする。 According to a fourth aspect of the present invention, in the head-mounted display according to the third aspect, the part state determination means detects a mounting tool mounted on the user's hand, thereby detecting the user's hand. The position is detected.
また、請求項5に記載の発明は、請求項2〜4のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記ユーザの身体の部位に操作の情報を関連付けたテーブルを記憶した記憶手段を備え、前記制御処理手段は、前記部位状態判定手段により判定した前記部位に応じた操作の情報を前記テーブルが記憶された記憶手段から読み出して、当該操作を実行することを特徴とする。
The invention according to
また、請求項6に記載の発明は、請求項5に記載のヘッドマウントディスプレイにおいて、前記テーブルに情報を記憶した操作は、前記表示手段への画像の表示処理に対する操作であることを特徴とする。
The invention according to
また、請求項7に記載の発明は、請求項6に記載のヘッドマウントディスプレイにおいて、前記ユーザの身体の部位の状態に操作の情報を関連付けた第2のテーブルを記憶した第2記憶手段を備え、前記制御処理手段は、前記第2のテーブルに基づき、前記ユーザの身体の部位の状態に応じて、さらに前記表示手段への画像の表示処理に対する操作を実行することを特徴とする。
The invention according to claim 7 is the head-mounted display according to
また、請求項8に記載の発明は、請求項5〜7のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記部位特定手段により特定したユーザの身体の部位に応じて、操作情報を前記テーブルに設定することを特徴とする。 According to an eighth aspect of the present invention, in the head mounted display according to any one of the fifth to seventh aspects, the operation information is stored in the table according to a part of the user's body specified by the part specifying unit. It is characterized by setting to.
また、請求項9に記載の発明は、請求項5〜8のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記撮像手段による撮像画像から前記ユーザの身体の部位を特定する情報を抽出して、前記テーブルに記憶するキャリブレーション手段を備えたことを特徴とする
The invention according to
また、請求項10に記載の発明は、請求項1〜9のいずれか1項に記載のヘッドマウントディスプレイにおいて、前記表示手段は、前記画像光を外光と共にユーザの眼に入射させ、外景と重ねて画像を表示可能としたことを特徴とする。 According to a tenth aspect of the present invention, in the head-mounted display according to any one of the first to ninth aspects, the display means causes the image light to enter the user's eyes together with external light, It is characterized in that images can be displayed in an overlapping manner.
本発明によれば、ユーザの頭部の角度を検出する頭部状態検出手段を備え、撮像手段により撮像した画像と、検出したユーザの頭部の角度とによりユーザの身体の部位を特定し、特定したユーザの身体の部位の情報に応じた操作を実行するため、ハンズフリーによる動作をより確実に実行させることが可能となる。また、身体の部位と記憶したい情報を関連させて記憶することは非常に有効な記憶術であり、身体の部位と操作させたい情報とを関連付けて記憶することは容易であるため、希望する操作を行うために身体の部位を特定する際に、ユーザは迷ったり、間違えたりすることなくスムーズにその特定を行うことができる。したがって、ユーザは、メニューやガイダンスに頼ることなくハンズフリーによる操作を確実にすばやく実行させることができる。 According to the present invention, the head state detection means for detecting the angle of the user's head is provided, and the body part of the user is specified by the image captured by the imaging means and the detected angle of the user's head, Since the operation according to the identified information on the body part of the user is executed, it is possible to more reliably execute the hands-free operation. In addition, it is a very effective memory technique to store the body part and the information to be stored in association with each other, and it is easy to store the body part and the information to be operated in association with each other. When the body part is specified for performing the operation, the user can perform the specification smoothly without getting lost or mistaken. Therefore, the user can surely and quickly execute the hands-free operation without depending on the menu or the guidance.
以下、本実施形態に係るヘッドマウントディスプレイ(以下、「HMD:Head Mount Display」という。)の一例について、図面を参照して説明する。 Hereinafter, an example of a head mounted display (hereinafter referred to as “HMD: Head Mount Display”) according to the present embodiment will be described with reference to the drawings.
[1.HMDの概要]
図1に示すように、本実施形態に係るHMDは、外光400の一部が少なくともユーザ100のいずれかの眼101に到達する状態で、画像情報に応じた画像光500をハーフミラー10で反射させてユーザ100の眼101に投射し、当該ユーザ100に表示画像200を外景と重ねて視認させるシースルー型の表示部1を表示手段として備えている。
[1. Overview of HMD]
As shown in FIG. 1, the HMD according to the present embodiment uses the
図2に示すように、HMDは、ユーザ100の頭部102に装着される略眼鏡形状とした装着部11に取り付けられた筐体13と接続ケーブル52を介して当該筐体13と接続されたコントロールユニット3とを備えている。そして、本実施形態に係るHMDの表示部1は、後に詳述するように筐体13に収納された投影ユニット1aとコントロールユニット3に収納配設された光源ユニット1bとから構成される。
As shown in FIG. 2, the HMD is connected to the
したがって、図2に示すように、コントロールユニット3をポケットなどに収納してHMDを頭部102に装着すれば、ユーザ100は、ハンズフリーの状態で持ち運び可能であり、室内、屋外を問わず、外景を見ながら様々な表示画像200を視認することができる。
Therefore, as shown in FIG. 2, if the
このように、本実施形態に係るHMDは、画像信号に基づいて生成した画像光を2次元的に走査し、その走査された画像光をユーザの眼に投射して網膜上に結像させる網膜走査型であって、なおかつ、画像光を外光と共にユーザの眼に入射させ、画像を外景と重ねて表示するシースルー型としている。しかし、画像情報に応じた画像光をユーザの眼に入射させ、前記画像情報に応じた画像を表示する表示手段を備えたヘッドマウントディスプレイであれば、その構成は何ら限定されるものではない。 As described above, the HMD according to the present embodiment two-dimensionally scans the image light generated based on the image signal, projects the scanned image light onto the user's eyes, and forms an image on the retina. The scanning type is a see-through type in which image light is incident on the user's eyes together with external light, and the image is displayed superimposed on the external scene. However, the configuration of the head-mounted display is not limited as long as the head-mounted display includes a display unit that causes image light according to the image information to enter the user's eyes and displays the image according to the image information.
また、本実施形態に係るHMDは、ユーザ100の視野方向の所定範囲を撮像する撮像手段としてのCCDカメラ2を備えている。
Further, the HMD according to the present embodiment includes a
CCDカメラ2は、図1及び図2に示すように、表示部1の筐体13に取り付けられる小型のものであり、ユーザ100の視野範囲を撮像することができ、この撮像データを解析することにより、ユーザ100がどの方向に顔を向けているかを判定することが可能になっている。また、CCDカメラ2のシャッタを切ることで、ユーザ100は、撮像した画像を表示画像200として表示部1により表示させて視認することもできる。
As shown in FIGS. 1 and 2, the
なお、表示画像200の画像情報は、CCDカメラ2で撮像した撮像画像のファイルの他、主にパーソナルコンピュータ(以下「PC」と呼ぶ)などにより作成されたコンテンツデータ、あるいはPCを介してインターネットサイトやCD−ROMやDVD−ROMなどの記録媒体から取得されたコンテンツデータであり、静止画のみならず、例えば映画などのような動画の表示も可能である。そのために、本実施形態に係るHMDはイヤホン9を用いて音声データを再生することもできる。
Note that the image information of the
また、本実施形態に係るHMDは、ユーザ100の頭部102の角度を検出する頭部状態検出手段としての角度センサ4を備えている。角度センサは地磁気を利用した磁気センサ、重力方向を検知する傾斜センサ、ジャイロセンサなどが単独あるいは組み合わせて用いられる。
Further, the HMD according to the present embodiment includes an
この角度センサ4は、図1に示すように、筐体13の内部に設けられており、ユーザ100の頭部102の傾きを三次元的に検出することができる。すなわち、頭部102がどの方向にどの程度傾いているかを、上下方向角度θ、水平方向角度φで決定することができる。
As shown in FIG. 1, the
このように、本実施形態におけるHMDは、CCDカメラ2で撮像した撮像画像のファイルやPCを介して取得したコンテンツデータなどの画像情報に応じた画像を表示することが可能であり、電源投入すると、図2に示すように、表示画像200として、先ずメニュー画面が表示され、カメラモードと閲覧モードとのいずれかを選択できるようになっている。カメラモードでは撮像画像の表示や保存を行え、閲覧モードではコンテンツデータの再生、停止などが行える。
As described above, the HMD in the present embodiment can display an image according to image information such as a file of a captured image captured by the
そして、いずれのモードを選択するかを、角度センサ4を用いて、ユーザ100の頭部102の傾きなどの検出によるハンズフリーで行えるようにしている。本実施形態では、表示部1により表示された選択枝からの選択する場合や、同じく表示された設問に「Yes」と答える意思表示に対応する場合について、例えば、Yesの意思表示は、「ユーザは自分の腹部に手を当ててその手を見る」、Noの意志表示は、「ユーザは手を頭の前方に挙げた状態で手を見る」などが予め設定されている。
Then, which mode is selected can be performed hands-free by detecting the tilt of the
さらに、本実施形態に係るHMDは、上述したCCDカメラ2及び角度センサ4に加え、CCDカメラ2により撮像した画像と、角度センサ4により検出したユーザ100の頭部102の角度とによりユーザ100の視野方向にある当該ユーザ100の身体の部位(以下、単に「身体部位」という場合もある)を特定する部位特定手段と、この部位特定手段により特定したユーザ100の身体の部位の情報に応じた操作を実行する制御処理手段とを備えている。
Furthermore, in addition to the
すなわち、ユーザ100は、操作キーなどを操作することなく、自分の身体の部位を見つめるだけで、HMDに所定の動作を正確に行わせることが可能となっている。
That is, the
部位特定手段及び制御処理手段としての機能は、図3に示すように、実質的にはHMD全体を制御する制御部30が担っている。なお、この制御部30は、後に詳述するが、図示するように記憶手段を備えており、この記憶手段には、ユーザ100の身体の部位に操作の情報を関連付けたテーブルが記憶されている。ここで、操作とは、表示部1への画像の表示処理に対する操作であり、表示、保存、消去、さらに動画などであれば再生、停止などのコマンドを含む概念である。
As shown in FIG. 3, the function as the part specifying unit and the control processing unit is substantially performed by the
また、ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルが記憶された第2記憶手段を備えており、制御部30は、この第2のテーブルに基づき、ユーザ100の身体の部位の状態に応じて、さらに表示部1への画像の表示処理に対する操作を実行するようにしている。なお、記憶手段及び第2記憶手段は、いずれも後に詳述するフラッシュROM42などがその機能を担う。
Moreover, the
かかる構成により、本実施形態に係るHMDでは、ユーザ100が自分の身体の一部、例えば、手や腕や肘、あるいは膝などを見ると、その見た身体の部位を腕なら腕、肘なら肘と特定し、特定した部位に応じた操作、例えばカメラモードであれば、CCDカメラ2で撮像した画像を表示画像200として表示したり、あるいは身体に関連付けて保存したりすることができる。また、閲覧モードであれば、動画の再生あるいは停止などを行うことができる。
With this configuration, in the HMD according to the present embodiment, when the
例えばカメラモードの場合であれば、ファイルを保存する記憶手段上の仮想フォルダと身体の部位とを、予め関連付けさせてテーブル化して記憶しておけば、図2に示すような風景をCCDカメラ2で撮像すると、制御部30(制御処理手段)は、「この画像を保存しますか?」のメッセージとともに撮像画像を表示画像200として表示部1により表示させる。
For example, in the case of the camera mode, if the virtual folder on the storage means for storing the file and the body part are associated with each other in advance and stored in a table, a landscape as shown in FIG. Then, the control unit 30 (control processing means) causes the
この撮像画像を、肘に関連付けさせて保存したい場合、ユーザ100は頭部102を動かして自分の肘を正視する。
When it is desired to store the captured image in association with the elbow, the
そうすると、ユーザ100が撮像した風景の画像(現在の表示画像200)が、記憶手段の所定領域、すなわち、この場合は仮想的に規定された肘フォルダに記憶されるのである。
Then, the landscape image (current display image 200) captured by the
何らかのものを身体の一部と関連付けて記憶するのは記憶術としてもポピュラーであるため、例えばこの場合の風景の画像などの保存先は肘フォルダである、といったことをユーザ100は記憶しやすい。したがって、この画像を呼び出す場合もユーザ100は容易に肘フォルダから探し出すことができる。当然ながら、肘フォルダの他に、腕フォルダ、手フォルダなどのように、ファイル保存先を、ユーザ100の身体の複数の部位と関連付けておくことができる。
Since storing something in association with a part of the body is also popular as a memory technique, the
撮像画像をハンズフリーにより保存操作する場合についてより詳しく説明する。例えば、図2に示した風景をCCDカメラ2で撮像したとすると、図4(a)に示すように、制御部30(制御処理手段)は、「この画像09001.JPGを保存しますか?」のメッセージとともに撮像画像を表示画像200として表示部1により表示させる。
The case where the captured image is stored in a hands-free manner will be described in more detail. For example, when the landscape shown in FIG. 2 is imaged by the
本実施形態におけるCCDカメラ2は、ユーザ100の視野方向のうち、正視方向を中心とした範囲を撮像可能に取付けられているため、ユーザ100が肘フォルダを選択しようとして肘を正視した場合、図4(a)に示すように、ユーザ100の肘が画像中心となるような撮像画像を得られる。
The
また、制御部30(制御処理手段)は、先ず、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかを判定し、これによって、ユーザ100の身体の部位のうちいずれの部位近傍に顔面が向いているかを判定するようにしている。これにより、CCDカメラ2で撮像された肘の画像が自分の肘か他人の肘かを頭部の方向で区別でき、誤動作を防止することができる。
In addition, the control unit 30 (control processing means) first determines how much the
つまり、この場合のユーザ100が見つめている身体部位は「左腕の中央部分」であると絞られることになる。そして、制御部30は、撮像画像のデータに含まれる各画素のRGB値から色温度を算出し、画像の中央に設定された規定領域250内において、同規定領域250の中央に位置する画素の色温度をサンプルし、サンプルした色温度に対して所定の許容差範囲内の色温度の画素が集合した領域の輪郭から部位形状を認識し、予め各身体の部位を示す形状として記憶しておいた複数のモデル形状のいずれに相当するかを判定し、「肘」を示すモデル形状に相当すると判定された場合、制御部30は、ユーザ100は「肘」を見ていると判定するのである。
In other words, the body part that the
なお、例えば、腕などが露出している場合であれば、肌色を示す色温度の画素が集合した領域の面積(以下、「肌色面積」とも呼ぶ)が、予め各身体の部位を示す面積値として記憶しておいた複数のモデル面積のいずれに相当するかを判定し、「肘」を示すモデル面積に相当すると判定された場合、制御部30は、ユーザ100は「肘」を見ていると判定することもできる。
For example, in the case where the arm or the like is exposed, the area of a region in which pixels of color temperature indicating skin color are gathered (hereinafter also referred to as “skin color area”) is an area value indicating each body part in advance. It is determined which one of the plurality of model areas stored as is equivalent to the model area indicating “elbow”, and when it is determined that the model area corresponds to “elbow”, the
そして、その判定状態が所定時間(例えば2秒)連続した場合、制御部30は、フラッシュROMなどの記憶手段に規定された領域(肘フォルダに相当)に画像ファイルを記憶する(保存する)。
When the determination state continues for a predetermined time (for example, 2 seconds), the
そして、制御部30は、図4(b)に示すように、表示部1により、「肘フォルダに画像09001.JPGを保存しました」のメッセージが含まれる表示画像200を表示させ、ユーザ100に撮像した画像が保存されたことを報知する。
Then, as shown in FIG. 4B, the
また、制御部30は、前記部位特定手段により特定したユーザ100の身体の部位の状態を判定する部位状態判定手段としても機能する(図3)。つまり、制御部30が制御処理手段として機能する場合、部位特定手段で特定した部位に対応する操作のうち、当該部位状態判定手段により判定した部位の状態に応じた操作を実行するのである。したがって、HMDのハンズフリーによる操作をより確実に行わせることが可能になるとともに、操作の種類を多岐にわたらせることができる。
The
ここで、部位の状態とは、例えば、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態が含まれている。
Here, the state of the part includes, for example, a state where the hand of the
身体の部位にユーザ100の手が接触又は近接した状態を判定するには、例えば、身体の部位として認識するために検出していた部位形状に、さらに接触又は近接した手の形状が加わることによって形状が変化したことを検出して判定することができる。また、肌色面積で部位を検出していた場合、肌色面積に、さらに接触又は近接した手によって肌色面積が増加したことを検出して判定することもできる。
In order to determine the state in which the hand of the
例えば、これまでにユーザ100がCCDカメラ2で撮像した複数の画像ファイルが、前述したように、複数のフォルダ(肘フォルダ、腕フォルダ、手フォルダなど)毎にカテゴリー別に保存されているとする。
For example, it is assumed that a plurality of image files captured by the
ユーザ100が、所望する画像ファイルを表示させたい場合、例えば、それが人物画像であって、それが手フォルダに保存されているとする。その場合、図5(a)に示すように、ユーザ100が自分自身の手(ここでは左手)を見ると、制御部30は、手に関連付けられて記憶されている複数の画像ファイルをサムネイル化して表示部1により表示するとともに、図示するように、例えば画像の枠を太くしたりするなどして、順次、強調表示していく。
When the
表示したい画像ファイルが強調表示された際に、ユーザ100は、図5(b)に示すように、見つめていた左手に右手を添える。すなわち、左手に右手が重なる状態となって身体の部位の状態が変化する。
When the image file to be displayed is highlighted, the
制御部30では、一つの手を示す輪郭形状に他の手の輪郭が加わり、全体の形状が変化したことにより、現在表示中が画像ファイルが選択されたと判定し、その判定結果に応じて、図示するように、当該画像ファイルを表示画像200の全領域に表示するのである。
In the
また、ユーザ100の身体の部位、あるいはその部位の状態に応じた操作を実行するために、制御部30は、CCDカメラ2による撮像画像からユーザ100の身体の部位を特定する情報を抽出して、テーブルに記憶するキャリブレーション手段を備えている(図3)。
In addition, in order to execute an operation corresponding to the body part of the
すなわち、身体の部位とこの部位に応じた操作の情報とがデフォルトで設定されていたとしても、実際にHMDを用いるユーザ100の骨格や体質、さらには姿勢などによっては、身体の部位を見る際の頭部102の角度はそれぞれ異なると考えられる。そこで、HMDを使用するに先立って、キャリブレーションを行うようにしている。このようにキャリブレーションを行うようにしたため、ユーザ100の個体差などにも対応でき、ハンズフリーによる操作の精度を高めることができる。
In other words, even if the body part and the operation information corresponding to this part are set by default, depending on the skeleton, constitution, posture, etc. of the
図6にキャリブレーション済みのデータテーブルの一例を示している。これは、撮像画像のファイルを保存する仮想フォルダと身体の部位とを、キャリブレーションを行うことによって予め関連付けさせたテーブルであり、後述するフラッシュROM42に記憶されている。ここでは、身体の部位の一例として、「左腕」、「左肘」、「左手」を用いるようにした場合としており、図4に示すように、左腕を前方に突き出し、肘を中心に略直角に曲げた状態のときの「腕」、「肘」、「手」を特定できるようにしている。
FIG. 6 shows an example of a calibrated data table. This is a table in which a virtual folder for storing a captured image file and a body part are associated in advance by performing calibration, and is stored in a
図6で示すテーブルには、ユーザ100が実際に前述した姿勢のときの「腕」、「肘」、「手」を見るために頭部102を動かしたときの角度センサ4の検出値と、その頭部角度においてCCDカメラ2が撮像した撮像画像とが、頭部角度、パターン画像として身体の部位(「腕」、「肘」、「手」)に関連付けられる。なお、本実施形態では、角度センサ4からの検出値は、θ(上下方向角度)、φ(水平方向角度)として得ることができる。
In the table shown in FIG. 6, the detection value of the
ところで、このテーブルでは、「肘」が肘フォルダに対応し、画像カテゴリーとして風景画像が割り付けられている(図4参照)。同じように、「手」は手フォルダに対応して画像カテゴリーとしては人物画像が割り付けられ(図5参照)、「腕」は腕フォルダに対応して画像カテゴリーとしてはその他画像が割り付けられている。 By the way, in this table, “elbow” corresponds to the elbow folder, and landscape images are assigned as image categories (see FIG. 4). Similarly, “hand” is assigned a human image as an image category corresponding to the hand folder (see FIG. 5), and “arm” is assigned another image as an image category corresponding to the arm folder. .
また、図7に示すテーブルは、ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルに相当するものであり、これも後述するフラッシュROM42に記憶されている。この第2のテーブルには、図示するように、ユーザ100の一方(ここでは左方)の「腕」、「手」、「肘」にユーザ100の他方の手が接触又は近接した状態がパターン画像として関連付けられている。そして、それぞれの対応コマンドとしては、撮像画像の全体表示が対応付けられている。
The table shown in FIG. 7 corresponds to a second table in which operation information is associated with the state of the body part of the
こうして、前述したように、カメラモードにおいて、例えばCCDカメラ2で撮像して保存しておいた所定の人物画像を表示させたい場合、ユーザ100は「手」を見ることで手フォルダ内の複数の人物画像がサムネイルで表示され、所望する人物画像が強調表示されたときに、その手にユーザ100の他の手を添えた状態にすると、図7に示すテーブルを参照した制御部30は、該当する人物画像を、表示画像200として表示領域全体に表示するのである。
Thus, as described above, in the camera mode, for example, when a predetermined person image captured and stored by the
ところで、図7からも分かるように、本実施形態では、ユーザ100の身体の部位の状態を判定する場合、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態か否かを判定するものとして説明した。
By the way, as can be seen from FIG. 7, in this embodiment, when determining the state of the body part of the
このように、ユーザ100の身体の部位の状態を判定することで、ユーザ100が見ている身体部位の特定だけで行える操作の数よりも多くの操作を正確に行うことも可能となる効果がある。
Thus, by determining the state of the body part of the
また、ユーザ100の身体の部位の状態を判定してユーザ100が見ている身体部位を正確に特定するとした場合、ユーザ100の手に装着された装着具110を検出することによってユーザ100の手の位置を検出することにより、当該身体部位を正確に特定することもできる。
Further, when the state of the body part of the
例えば、図8に示すように、ユーザ100は右手の指に、認識しやすい特定の色の装着具110を嵌めておく。そして、ユーザ100が肘を見つめ、かつ肘に手を置いた場合、CCDカメラ2が撮像した画像の中央に設定された規定領域250内には装着具110が位置しているため、CPU40は、装着具110による特定の色の画素領域を認識することができる。
For example, as shown in FIG. 8, the
したがって、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかが判定され、ユーザ100が見つめている身体部位が「左腕の中央部分」であると絞られ、さらに、特定の色の画素が所定面積だけ集合した領域が画面の座標中央に位置することが検出されると、制御部30は、腕の中央部分のその中央、すなわち、肘をユーザ100は見ていると判定することができる。
Therefore, it is determined how much the
このように、ユーザ100の手に装着された装着具110を検出することによってユーザ100の手の位置を検出すれば、ユーザ100が見ている身体部位を正確に特定することができる。なお、装着具11としては、図示するような指輪タイプのみならず、手に装着できるものであれば何でもよく、手袋なども含まれる。
Thus, if the position of the hand of the
こうして、本実施形態によれば、ユーザ100は本実施形態に係るHMDを装着し、カメラモードを選択した場合は、CCDカメラ2で撮像した画像の表示や保存の操作を、ハンズフリーで正確に行うことが可能となる。
Thus, according to the present embodiment, when the
[2.HMDの電気的構成及び光学的構成を含む具体的構成] [2. Specific configuration including electrical configuration and optical configuration of HMD]
ここで、HMDの外観構成、電気的構成及び光学的構成を含むより具体的構成について詳細に説明する。 Here, a more specific configuration including the external configuration, electrical configuration, and optical configuration of the HMD will be described in detail.
(HMDの外観)
図9にHMDの外観構成を示す。図示するように、HMDは、ユーザ100の頭部102に装着される装着部11に取り付けられた筐体13と、光ファイバケーブル50や電送ケーブル51や音声ケーブル99などからなる接続ケーブル52を介して当該筐体13と接続されたコントロールユニット3とを備えている。そして、筐体13に収納された投影ユニット1aと、コントロールユニット3に収納配設された光源ユニット1bとから表示部1を構成している。なお、装着部11は略眼鏡形状とした支持部材からなり、あたかも眼鏡のようにして簡単に装着することができ、装着したときに、投影ユニット1aを収納した筐体13がユーザ100の顔面左前方に位置するようにしている。
(HMD appearance)
FIG. 9 shows an external configuration of the HMD. As shown in the figure, the HMD is connected to the
本実施形態における筐体13は、装着部11をユーザ100の頭部102へ装着したとき、ユーザ100の左眼部分と左側こめかみ部分とを被覆するような平面視略L字形状に形成されている。そして、この筐体13の上面13a側にCCDカメラ2を配設し、電送ケーブル51を介してコントロールユニット3の制御部30に接続している。CCDカメラ2は、ユーザ100が当該ユーザ100の手や腕や脚などの身体を正視したときに、その視線が捉えた身体の部位に焦点が合わせられるように光軸が合わせられている。さらに、このCCDカメラ2は、図示しないシャッタボタンを備えており、このシャッタボタンの操作により撮像することができる。なお、コントロールユニット3に撮像用の操作ボタンを設け、その撮像ボタンを押すことで手動撮像させても良い。
The
また、図示するように、筐体13の先端側には、左の眼101の前方に位置するようにハーフミラー10が取り付けられており、外光400をハーフミラー10から透過させてユーザ100の左の眼101に入射させ、画像光500はハーフミラー10で反射させてユーザ100の眼101に入射させるようにしている(図1参照)。また、当然ながら、外光400は右の眼101にも入射している。したがって、ユーザ100は、両眼101,101を開けている場合は当然のこと、右の眼101を閉じた状態であっても、表示画像200を見ながら外界を見ることができる。
Further, as shown in the figure, the
コントロールユニット3は、ユーザ100が衣服のポケットなどに収納して携行可能であり(図2参照)、ケース表面には電源スイッチ7と電源ランプ8とが設けられている。また、このコントロールユニット3内に光源ユニット1bとともに収納配設された制御部30は、通信I/F39を介して画像情報などを外部のPCなどから取得可能となっている。そして、取得した画像情報などを、光源ユニット1bの画像信号供給回路6に送信している。なお、PCなどの外部機器との接続は無線、有線いずれでも可能である。
The
光源ユニット1bの画像信号供給回路6では、取得した画像情報を画素単位で強度変調して画像光500を形成し、この画像光500を、光ファイバケーブル50を介して投影ユニット1aへ伝送し、投影ユニット1aでは、伝送された画像光500を走査してユーザ100にコンテンツ画像200を視認させることができる。
The image
また、制御部30に設けた音声回路45では、PCなどから取得したコンテンツデータに含まれる音声データを音声信号に変換して、音声ケーブル99を介してイヤホン9に伝送可能としている。
The
図10はHMDの電気的構成及び光学的構成を示したブロック図、図11は制御部の構成を示したブロック図である。図10及び図11に示すように、HMDは表示部1、CCDカメラ2、角度センサ4及びイヤホン9を備えており、表示部1は、前述したように装着部11に設けられた投影ユニット1aと、コントロールユニット3に配設された光源ユニット1bとから構成されている。
FIG. 10 is a block diagram showing the electrical configuration and optical configuration of the HMD, and FIG. 11 is a block diagram showing the configuration of the control unit. As shown in FIGS. 10 and 11, the HMD includes a
このコントロールユニット3には、HMD全体の動作を統括制御する制御部30も配設されており、光源ユニット1bは、この制御部30から供給される画像信号Sから画像情報を画素単位で読み出し、読み出した画素単位の画像情報に基づいてR(赤色),G(緑色),B(青色)の各色毎に強度変調されたレーザ光を生成して出射するようになっている。
The
なお、光源ユニット1bをコントロールユニット3内に設けるのではなく、投影ユニット1a内に設けるようにしてもよい。また、本実施形態では表示部1として2次元的に走査したレーザ光をユーザ100の眼101に入射し網膜101b上に画像を投影する網膜走査型の表示部を例に挙げて説明するが、これに限らず、例えば、液晶型の表示部を用いることもできる。液晶型の表示部としては、例えば、透過型液晶パネルに光源からの光を照射してこの液晶パネルを透過した光を画像光としてユーザの眼に入射する透過型のものや、反射型液晶パネルに光源からの光を照射してこの液晶パネルを反射した光を画像光としてユーザの眼に入射する反射型のものがある。
The
(光源ユニット1b)
光源ユニット1bには、画像を合成するための要素となる信号等を発生する画像信号供給回路6が設けられている。PCから供給される画像データが制御部30に入力されると、制御部30はその画像データに基づいて画像信号Sを生成して画像信号供給回路6に送る。画像信号供給回路6は、画像信号Sに基づいて、表示画像200を形成するための要素となる各信号を画素単位で生成する。すなわち、画像信号供給回路6からは、R(赤色)画像信号60r,G(緑色)画像信号60g,B(青色)画像信号60bが生成されて出力される。また、画像信号供給回路6は、水平走査部80で使用される水平駆動信号61と、垂直走査部90で使用される垂直駆動信号62とをそれぞれ出力する。
(
The
また、光源ユニット1bには、画像信号供給回路6から画素単位で出力されるR画像信号60r、G画像信号60g、B画像信号60bの各画像信号60r,60g,60bをもとに、それぞれ強度変調されたレーザ光(「光束」とも呼ぶ。)である画像光500を出射するように、Rレーザ63,Gレーザ64,Bレーザ65をそれぞれ駆動するためのRレーザドライバ66,Gレーザドライバ67,Bレーザドライバ68が設けられている。各レーザ63,64,65は、例えば、半導体レーザや高調波発生機構付き固体レーザとして構成することが可能である。なお、半導体レーザを用いる場合は駆動電流を直接変調して、レーザ光の強度変調を行うことができるが、固体レーザを用いる場合は、各レーザそれぞれに外部変調器を備えてレーザ光の強度変調を行う必要がある。
The
さらに、光源ユニット1bは、各レーザ63,64,65より出射されたレーザ光を平行光にコリメートするように設けられたコリメート光学系71,72,73と、このコリメートされたレーザ光を合波するためのダイクロイックミラー74,75,76と、合波されたレーザ光を光ファイバケーブル50に導く結合光学系77とが設けられている。
Furthermore, the
従って、各レーザ63,64,65から出射したレーザ光は、コリメート光学系71,72,73によってそれぞれ平行化された後に、ダイクロイックミラー74,75,76に入射される。その後、これらのダイクロイックミラー74,75,76により、各レーザ光が波長に関して選択的に反射・透過される。そして、これら3つのダイクロイックミラー74,75,76にそれぞれ入射した3原色のレーザ光は、波長選択的に反射または透過して結合光学系77に達し、集光されて光ファイバケーブル50へ出力される。
Therefore, the laser beams emitted from the
(投影ユニット1a)
光源ユニット1bとユーザ100の眼101との間に位置する投影ユニット1aには、光源ユニット1bで生成され、光ファイバケーブル50を介して出射されるレーザ光を平行光化するコリメート光学系79と、このコリメート光学系79で平行光化されたレーザ光を画像表示のために水平方向に往復走査する水平走査部80と、水平走査部80で水平方向に走査されたレーザ光を垂直方向に走査する垂直走査部90と、水平走査部80と垂直走査部90との間に設けられた第1リレー光学系85と、このように水平方向と垂直方向に走査されたレーザ光を瞳孔101aへ出射するための第2リレー光学系95とが設けられている。
(
The
水平走査部80及び垂直走査部90は、光ファイバケーブル50から入射されたレーザ光を画像としてユーザ100の網膜101bに投影可能な状態にするために、水平方向と垂直方向に走査して走査光束とする光学系であり、水平走査部80は、レーザ光を水平方向に走査するため偏向面を有する共振型の偏向素子81と、この偏向素子81を共振させて偏向素子81の偏向面を揺動させる駆動信号を水平駆動信号61に基づいて発生する水平走査駆動回路82を備えている。
The
一方、垂直走査部90は、レーザ光を垂直方向に走査するため偏向面を有する非共振型の偏向素子91と、この偏向素子91の偏向面を非共振状態で揺動させる駆動信号を垂直駆動信号62に基づいて発生する垂直走査制御回路92とを備え、表示すべき画像の1フレームごとに、画像を形成するためのレーザ光を最初の水平走査線から最後の水平走査線に向かって垂直に走査する。ここで「水平走査線」とは、水平走査部80による水平方向への1走査を意味する。
On the other hand, the
なお、偏向素子81,91は、ここではガルバノミラーを用いることとするが、レーザ光を走査するようにその偏向面(反射面)を揺動又は回転させられるものであれば、圧電駆動、電磁駆動、静電駆動等いずれの駆動方式によるものであってもよい。また、本実施形態においては、水平走査部80に共振タイプの偏向素子を用い、垂直走査部90を非共振タイプの偏向素子を用いることとしているが、これに限らず、例えば、垂直走査系に共振タイプの偏向素子を用いてもよく、どちらも非共振タイプの偏向素子としてもよい。
Here, galvanometer mirrors are used as the
また、水平走査部80と垂直走査部90との間でレーザ光を中継する第1リレー光学系85は、偏向素子81の偏向面によって水平方向に走査されたレーザ光を偏向素子91の偏向面に収束させる。そして、このレーザ光が偏向素子91の偏向面によって垂直方向に走査され、正の屈折力を持つ2つのレンズ95a,95bが直列配置された第2リレー光学系95を介して、眼101の前方に位置させたハーフミラー10で反射されてユーザ100の瞳孔101aに入射し、網膜101b上に画像信号Sに応じた表示画像200が投影される。これにより、ユーザ100はこのように瞳孔101aに入射する画像光500であるレーザ光を、表示画像200として認識する(図1及び図2参照)。
Further, the first relay optical system 85 that relays the laser light between the
なお、第2リレー光学系95においては、レンズ95aによって、それぞれのレーザ光がそのレーザ光の中心線を相互に略平行にされ、かつそれぞれ収束レーザ光に変換される。そして、レンズ95bによってそれぞれほぼ平行なレーザ光となると共に、これらのレーザ光の中心線がユーザ100の瞳孔101aに収束するように変換される。
In the second relay optical system 95, the respective laser beams are made substantially parallel to each other by the
(制御部30)
制御部30は、その内部に記憶されている制御プログラムにしたがって後述する所定の処理を実行することによって、前述した頭部状態検出手段、部位特定手段、制御処理手段、部位状態判別手段、及びキャリブレーション手段等として機能する。
(Control unit 30)
The
図11に示すように、制御部30は、各コントローラ31,32,36と、各VRAM(Video Random Access Memory)33,37と、周辺機器インターフェース(図中「I/F」と示し、以下「I/F」とも呼ぶ)38と、通信I/F39とを備えている。
As shown in FIG. 11, the
主コントローラ31は、CPU(Central Processing Unit)40と、プログラムROM(Read Only Memory)41と、不揮発性メモリであるフラッシュROM(フラッシュメモリ)42と、RAM(Random Access Memory)43とを備えており、これらはデータ通信用のバスにそれぞれ接続され、このデータ通信用のバスを介して、角度センサ4からの頭部角度などをはじめとする各種情報の送受信を行う。
The
CPU40は、プログラムROM41に記憶されている制御プログラムを実行することにより、主コントローラ31として、HMDを構成する各部を動作させて、当該HMDが備える各種機能を実行させる演算処理装置である。
The
また、フラッシュROM42は、CCDカメラ2などから出力される画像データや、HMDの動作制御に必要な各種テーブルや表示画像200の輝度の設定値などを記憶する。フラッシュROM42に記憶されたテーブルとしては、図6、図7、さらに後述する図18及び図19に示すように、ユーザの身体の部位や当該部位の状態に操作の情報を関連付けたテーブルなどが含まれる。
The
そして、CPU40は、CCDカメラ2により撮像した画像と角度センサ4により検出したユーザ100の頭部102の角度とにより、当該ユーザ100の視野方向にある当該ユーザ100の身体の部位を特定することが可能となっている。
Then, the
HMD用コントローラ32は、主コントローラ31からの要求に応じて表示手段である表示部1を制御し、主コントローラ31によりHMD用VRAM33に記憶された画像データに基づいた画像信号Sを表示部1に供給する。表示部1は、HMD用コントローラ32から画像信号Sが入力されると、この画像信号Sに基づいて強度変調した各色のレーザ光を生成及び走査してユーザ100の眼101に出射し、ユーザ100の網膜101bに画像信号Sに応じた画像を投影する。こうして、主コントローラ31は、画像を表示させる制御を行う。
The
カメラ用コントローラ36は、撮像手段であるCCDカメラ2を制御し、カメラ用VRAM37は、CCDカメラ2から出力される画像データを一時的に記憶する。主コントローラ31は、CCDカメラ2から出力される画像データをカメラ用VRAM37を介してHMD用VRAM33に出力することにより、CCDカメラ2から出力される画像データを主コントローラ31で取得することができる。
The camera controller 36 controls the
主コントローラ31は、ユーザ100の視野方向にある当該ユーザ100自身の身体の部位を特定するために、カメラ用コントローラ36を介してCCDカメラ2を制御し、ユーザ100の視野範囲のうち、ユーザ100の顔に正対する方向にある対象物が、表示部1による画像の表示領域の略中心位置となるようにCCDカメラ2により撮像させ、CCDカメラ2から出力される画像データをカメラ用VRAM37を介して取得する。これによって、主コントローラ31は、CCDカメラ2によって撮像された画像を取得することができる。
The
そして、主コントローラ31は、先ず、前述したように、角度センサ4の検出値により、頭部102がどの方向にどれだけ傾いているかを判定し、これによって、ユーザ100の身体の部位のうちいずれの部位近傍に顔面が向いているかを判定する。すなわち、頭部102の傾きによって、ユーザ100が見つめている身体部位を、例えば「左腕の中央部分」あるいは「左腕の先端部分」であるというように絞るのである。
First, as described above, the
そして、CCDカメラ2によって撮像された画像を解析して部位形状を検出するとともに、予め記憶しておいたモデル形状と比較することによって、ユーザ100の身体部位を検出できるようにしている。また、部位形状を検出することにより、ユーザ100の身体の部位に接触又は近接する手についても認識することができる。なお、CCDカメラ2によって撮像された画像の処理をするために主コントローラ31内に別途画像処理部をハードウェアで構成することにより画像処理を高速に行うこともできる。
The body shape of the
周辺機器I/F38は、電源スイッチ7やコンテンツ表示スイッチやランプ類等(図示せず)の周辺機器5を主コントローラ31に接続するためのインターフェースである。例えば、電源スイッチ7やコンテンツ表示スイッチやランプ類が周辺機器I/F38に接続されたとき、主コントローラ31は、電源スイッチ7やコンテンツ表示スイッチ等のスイッチ類からの操作情報を周辺機器I/F38から受け取り、周辺機器I/F38を介してランプ類の点灯情報をランプ類に供給する。
The peripheral device I /
通信I/F39は、主コントローラ31とPCとを通信可能に制御する。主コントローラ31は、例えば、通信I/F39を介して画像データの供給をPCに要求し、PCから通信I/F39を介して供給された画像データに基づいた画像信号SをHMD用コントローラ32により表示部1に供給する。
The communication I /
なお、上述においては、撮像手段としてCCDカメラ2を用いることとしたが、これに限られず、CMOSカメラなどを用いてもよい。
In the above description, the
[3.HMDにおける制御処理]
ここで、カメラモードを選択した場合の動作を実現させるための制御部30による処理の一例について、図12〜図14を参照して説明する。図12はキャリブレーションの処理の流れを示す説明図、図13はカメラモードの処理の一例である撮像処理の流れを示す説明図、図14は同じくカメラモードの処理の一例である画像データの表示処理の流れを示した説明図である。なお、各処理においては、HMDの電源スイッチ7は既にオン操作されており、電源スイッチ7がオン操作された後の初期設定処理などは全て完了していることとしている。また、図13及び図14の処理では、既にカメラモードが選択された場合としている(図2参照)。
[3. Control processing in HMD]
Here, an example of processing by the
(キャリブレーション)
キャリブレーションが開始されると、図12に示すように、主コントローラ31のCPU40は、表示部1により、身体の特定の部位(ここでは左肘、左手、左腕のいずれか)を見て所定の決定トリガーを入力するようにユーザ100に対して指示コメントを表示する(ステップS101)。ユーザ100は、指示された身体の部位を見るとともに、例えばコントロールユニット3に設けた決定トリガーとしての操作ボタン(図示せず)を押すなどして決定トリガーを入力することになる。なお、ボタン操作に代えて角度センサ4を利用し、この角度センサ4が検出したユーザ100の頭部102の傾きが所定の傾きとなったことを決定トリガーとすることもできる。
(Calibration)
When calibration is started, as shown in FIG. 12, the
次いで、CPU40は、ユーザ100が入力した決定トリガーを取得する(ステップS102)。
Next, the
次いで、CPU40は、決定トリガーが入力されたときの頭の傾きのデータ、すなわち角度センサ4が検出したデータ値と、決定トリガーが入力されたときのCCDカメラ2による撮像データとを、ステップS101で見るように指示した身体の部位の名称と関連付けてテーブルに記憶する(ステップS103)。
Next, the
そして、ステップS104において、CPU40は設定すべき必要な身体の部位に対して全て関連付けを行ったか否かを判定し、全て終えるまで、必要な身体の部位に対する関連付け処理を繰り返し、全ての関連付けを終えるとキャリブレーションの処理を終了する。こうして、図6に示すテーブルが生成されることになる。
In step S104, the
(撮像処理)
次に、カメラモードの処理の一例として、CCDカメラ2による撮像処理について、図13を参照しながら説明する。図13に示すように、CPU40は、CCDカメラ2のシャッタ操作がなされたか否かを判定する(ステップS201)。
(Imaging processing)
Next, imaging processing by the
シャッタ操作がなされた場合(ステップS201:Yes)、CPU40は、図4(a)に示すように、撮った画像を表示部1により表示させる(ステップS202)。このとき、画像の保存をするか否かを尋ねるメッセージも表示させる。
When the shutter operation is performed (step S201: Yes), the
ユーザ100は、この画像を保存すると決めた場合、画像を記憶(保存)させたい身体の部位を見る。本実施形態では、前述したように、風景は肘(肘フォルダ)に、人物は手(手フォルダ)に、その他であれば腕(腕フォルダ)に記憶するようにしている。このように、その被写体のカテゴリー別に画像を保存すると、後に画像を検索しやすい。
When the
ステップS203において、CPU40は、ユーザ100が見ている身体部位を特定する。すなわち、角度センサ4の検出値からユーザ100の頭部102の傾きを検出し、検出した頭の傾きから、ユーザ100が見ていると推定される身体部位を絞り込むとともに、頭部102に装着されたCCDカメラ2による撮像データを取得して、絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報をフラッシュROM42のテーブルから取得する。
In step S203, the
次に、CPU40は、CCDカメラ2による撮像画像の状態から、特定した部位が所定時間(例えば2秒)見続けられているか否かを判定する(ステップS204)。例えば、撮像データに所定時間変化がない場合、CPU40はユーザ100の視線が固定されていると判定するのである。
Next, the
CPU40は、特定された部位が所定時間(例えば2秒)見続けられていると判定した場合(ステップS204:Yes)はステップS205へ、見続けられていないと判定した場合(ステップS204:No)はステップS206へ処理を移す。
When the
ステップS205では、特定された部位に関連付けられたフォルダに撮像画像のファイルを保存する。すなわち、フラッシュROM42の所定領域に記憶する。
In step S205, the captured image file is stored in a folder associated with the identified part. That is, it is stored in a predetermined area of the
一方、例えば撮像した画像をユーザ100が気に入らない場合などは、特定部位から視線を外せばよい。その場合、ステップS204においては、CPU40は、特定部位は見続けられていないと判定し、撮像画像のファイルを削除するか否かのコメントを表示部1により表示させる(ステップS206)。
On the other hand, for example, when the
そして、CPU40は、角度センサ4の検出値から、ユーザ100の頭部102が上下に振れたと判定した場合(ステップS206:Yes)、撮像画像のファイルを削除する(ステップS207)。他方、ユーザ100の頭部102が左右に振れたと判定した場合(ステップS206:No)、CPU40は処理をステップS203に移す。このとき、CPU40は、「保存する場所を2秒以上見続けてください」などのコメントを表示部1に表示させるとよい。
If the
こうして、ユーザ100はCCDカメラ2で撮像した画像をボタン操作あるいはスイッチ操作などをすることなく、ハンズフリーで保存させることが可能となる。特に、保存先を身体の一部と関連付けているので、保存先のフォルダを記憶しやすい。
In this way, the
(画像データの表示処理)
次に、同じくカメラモードの処理の一例として、CCDカメラ2で既に撮像して、身体に関連付けたフォルダに保存されている画像データを表示する処理について、図14を参照しながら説明する。
(Image data display processing)
Next, as an example of processing in the camera mode, processing for displaying image data already captured by the
ユーザ100により選択されたカメラモードが開始されると、図14に示すように、CPU40は、角度センサ4の検出値からユーザ100の頭部102の傾きを検出する(ステップS301)。そして、CPU40は、検出した頭の傾きから、ユーザ100が見ていると推定される身体部位を絞り込む(ステップS302)。さらに、CPU40は、頭部102に装着されたCCDカメラ2から撮像データを取得する(ステップS303)。このステップS301〜S303の流れについては、そのステップの順番は必ずしも限定されるものではない。
When the camera mode selected by the
次に、CPU40は、絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報がフラッシュROM42のテーブルにあるか否かを判定する(ステップS304)。テーブルにないと判定された場合(ステップS304:No)、CPU40は処理をステップS301に移す。すなわち、テーブルに身体部位があると判定されるまでユーザ100は頭部102の傾きを微調整したりすることにより、ステップS301〜S304の処理が繰り返される。
Next, the
絞り込まれた身体部位と撮像された画像とが一致する身体部位の情報がフラッシュROM42のテーブルにあると判定されると(ステップS304:Yes)、検出された身体部位に対応する画像(情報)を表示する(ステップS305)。 If it is determined that there is information on the body part in which the narrowed body part and the captured image match in the table of the flash ROM 42 (step S304: Yes), an image (information) corresponding to the detected body part is displayed. It is displayed (step S305).
具体的には、図5(a)に示したように、例えば身体部位が手(例えば左手)の場合であれば、仮想フォルダである手フォルダに記憶されている人物画像の一覧をサムネイル表示する。このとき身体部位が肘の場合であれば風景画像が、身体部位が腕の場合であればその他のカテゴリーの画像がサムネイル表示される。しかも、CPU40は、サムネイル表示中、一つずつ順次強調表示する。
Specifically, as shown in FIG. 5A, for example, if the body part is a hand (for example, the left hand), a list of person images stored in the hand folder which is a virtual folder is displayed as a thumbnail. . At this time, if the body part is an elbow, a landscape image is displayed as a thumbnail, and if the body part is an arm, images of other categories are displayed as thumbnails. Moreover, the
サムネイルの中から、表示したい画像を選択するにあたって、ユーザ100は、表示した画像が強調表示されたタイミングで画像のカテゴリーに関連付けられている身体部位に手(例えば右手)を差し出して接触又は近接させる。
In selecting an image to be displayed from among the thumbnails, the
ステップS306において、CPU40は、このときの右手が身体部位に接触、あるいは近接したか否か、すなわち、左手の輪郭形状に右手の輪郭形状が重なったことで身体部位の状態が変化したか否かを判定する。また、手の場合であれば、右手の肌色領域がCCDカメラ2により撮像されて、肌色面積が増加したか否かを判定して、身体部位の状態が変化したか否かを判定することもできる。
In step S306, the
このステップS306の処理において、右手が身体部位に接触、あるいは近接したと判定されない場合(ステップS306:No)、CPU40は処理をステップS305に戻す。このとき、表示部1により、ユーザ100に対して「右手の位置を前後左右に少しずらしてみてください。」などのメッセージを表示できるようにしておくことが好ましい。
In the process of step S306, when it is not determined that the right hand is in contact with or close to the body part (step S306: No), the
他方、右手が身体部位に接触、あるいは近接したと判定された場合(ステップS306:Yes)、CPU40は、このタイミングで強調表示していたサムネイルに相当する画像、すなわちユーザ100が選択した画像全体を表示部1により表示させ(ステップS307)、この画像表示処理を終了する。
On the other hand, when it is determined that the right hand is in contact with or close to the body part (step S306: Yes), the
こうして、ユーザ100は所望する画像を、特別にボタン操作あるいはスイッチ操作などをすることなく、ハンズフリーで表示させることが可能となる。また、ステップS301〜S307の処理を繰り返すことで、画像表示を連続して行える。
In this way, the
このように、本実施形態に係るHMDでは、カメラモードを選択した後は、撮像した画像の保存操作、また保存した画像を呼び出して表示部1により表示させる操作を、ボタンやスイッチ操作などを行うことなく、ハンズフリーにて行うことが可能となる。
As described above, in the HMD according to the present embodiment, after the camera mode is selected, the operation for saving the captured image, or the operation for calling the saved image and displaying it on the
(HMDの使用形態の一例)
次に、ユーザ100が閲覧モードを選択した場合について簡単に説明する。ここでは、映画などのような動画コンテンツを鑑賞する場合としている。
(Example of usage form of HMD)
Next, a case where the
図15〜図17は、HMDの閲覧モードにおける使用形態の一例を示す説明図である。図15に示すように、例えば電車などの中で映画を鑑賞しようとした場合、ユーザ100は、図16(a)に示すように、表示部1により表示されている表示画像200内のメニューから閲覧モードを選択する。このときの選択も、前述したように、頭部102の傾きを角度センサ4で検出することによってハンズフリーで行うことができる。
15 to 17 are explanatory diagrams illustrating examples of usage patterns in the browsing mode of the HMD. As shown in FIG. 15, for example, when a user tries to watch a movie on a train or the like, the
また、閲覧モードにあっては、身体の部位と関連付けたフラッシュROM42上の仮想フォルダに1つのタイトルが保存されていることとしている。したがって、例えば、肘フォルダに保存されている映画を見る場合は、ユーザ100は図16(b)に示すように、自分の左手の肘を所定時間(例えば2秒)正視する。
In the browsing mode, one title is stored in a virtual folder on the
すると、先のカメラモードの処理において説明したように、制御部30は、ユーザ100の頭部102の傾きと、画像の中央に設定された規定領域250内における肌色面積とからユーザ100が「肘」を見ていると判定し、肘フォルダに保存されている映画タイトル(例えば「七人の用心棒」)を表示部1により表示する。
Then, as described in the previous camera mode process, the
その映画タイトルが所望する映画であれば、図17に示すように、ユーザ100は、再生コマンドが割り付けられている腕を所定時間(例えば2秒)見つめる。すると、映画「七人の用心棒」が表示部1により再生される。
If the movie title is a desired movie, as shown in FIG. 17, the
このように、本実施形態に係るHMDを用いれば、電車の中であっても、横の客などから覗かれたりすることなく、所望の映画などのコンテンツなどを楽しむことができる。しかも、ハンズフリーで再生や停止ができるため、吊革などに掴まって立っている場合でも表示部1の操作に支障を来すことがない。
As described above, by using the HMD according to the present embodiment, it is possible to enjoy content such as a desired movie without being looked at by a side customer or the like even on a train. In addition, since it can be played back or stopped hands-free, it does not hinder the operation of the
ところで、この閲覧モードにおいても、カメラモード同様にキャリブレーションを行っている。すなわち、身体の部位と、この部位に応じた操作の情報とを、HMDを実際に使用するユーザ100の体格などの特徴に合わせるようにしている。
By the way, in this browsing mode, calibration is performed as in the camera mode. That is, the body part and the operation information corresponding to this part are matched with features such as the physique of the
図18は、キャリブレーション済みのデータテーブルの一例、図19に示すものはユーザ100の身体の部位の状態に操作コマンドを関連付けた第2のテーブルの一例であり、いずれもフラッシュROM42に記憶されている。
FIG. 18 shows an example of a calibrated data table, and FIG. 19 shows an example of a second table in which operation commands are associated with the state of the body part of the
図18に示すように、映画タイトルで示される動画ファイルを保存する仮想フォルダと身体の部位とが、キャリブレーションを行うことによって予め関連付けられている。身体の部位の一例としては、ここでも「腕」、「肘」、「手」を用いており、図16(b)に示すように、左腕を前方に突き出し、肘を中心に略直角に曲げた状態のときの「腕」、「肘」、「手」が特定できるようにしている。 As shown in FIG. 18, a virtual folder that stores a moving image file indicated by a movie title and a body part are associated in advance by performing calibration. As an example of the body part, “arms”, “elbows”, and “hands” are also used here. As shown in FIG. 16B, the left arm is projected forward and bent at a substantially right angle around the elbow. The “arm”, “elbow”, and “hand” in the state of being touched can be specified.
また、この図18で示したテーブルには、ユーザ100が実際に前述した姿勢のときの「腕」、「肘」、「手」を見るために頭部102を動かしたときの角度センサ4の検出値と、その頭部角度においてCCDカメラ2が撮像した撮像画像とが、頭部角度、パターン画像として身体の部位(「腕」、「肘」、「手」)に関連付けられている。
Further, in the table shown in FIG. 18, the
ところで、このテーブルでは、「肘」が肘フォルダに対応し、動画ファイルとしては映画「七人の用心棒」が割り付けられている。また、「手」は手フォルダに対応しており、動画ファイルとしては映画「荒野のおくりびと」が割り付けられ、「腕」は腕フォルダに対応して動画ファイルとしては映画「鰆四十浪」が割り付けられている。 By the way, in this table, “elbow” corresponds to the elbow folder, and the movie “seven bouncers” is assigned as the moving image file. Also, “Hand” corresponds to the hand folder, and the movie “Wild Wilderness” is assigned as the movie file, and “Arm” corresponds to the arm folder, and the movie “鰆 40” is the movie file. Is assigned.
また、図19に示すテーブルでは、ユーザ100の身体の部位の状態に操作コマンドが関連付けられており、図示するように、「腕」は再生コマンド、「肘」は停止コマンド、「手」に関しては一時停止コマンドが関連付けられている。
In the table shown in FIG. 19, the operation command is associated with the state of the body part of the
したがって、映画を再生中、ユーザ100は、手を見つめたり、肘や腕を見つめたりすることによって映画の再生に関する操作をハンズフリーで行うことができる。
Therefore, during playback of a movie, the
このように、本実施形態によれば、ユーザ100は本実施形態に係るHMDを装着し、閲覧モードを選択した場合は、映画の鑑賞など関する操作をハンズフリーで正確に行うことが可能となる。
As described above, according to the present embodiment, when the
なお、本実施形態における閲覧モードでは、映画などの動画ファイルを鑑賞(閲覧)することとしたが、勿論静止画像の閲覧であってもよい。 In the viewing mode according to the present embodiment, a movie file such as a movie is viewed (viewed), but of course, still image viewing may be performed.
上述してきた本実施形態によれば、以下の効果が期待できる。 According to the embodiment described above, the following effects can be expected.
(1)画像情報に応じた画像光500をユーザ100の眼に入射させ、前記画像情報に応じた表示画像200を表示する表示部1(表示手段)を備えたHMDにおいて、ユーザ100の視野方向の所定範囲を撮像するCCDカメラ2(撮像手段)と、ユーザ100の頭部102の角度を検出する角度センサ4(頭部状態検出手段)と、CCDカメラ2により撮像した画像と前記検出したユーザ100の頭部102の角度とによりユーザ100の視野方向にある当該ユーザ100の身体の部位(例えば、腕、肘、手など)を特定し、特定したユーザ100の身体の部位の情報に応じた操作を実行する制御部30(部位特定手段、制御処理手段として機能する)を備えているため、表示された表示画像200をハンズフリーで楽しめるHMDの操作を、視認するときと同じように、様々な操作についてもハンズフリーで確実に実行させることができる。
(1) The viewing direction of the
(2)前記制御部30は、特定したユーザ100の身体の部位の状態を判定する部位状態判定手段としても機能し、特定した部位に対応する操作のうち、判定した部位の状態に応じた操作を実行するようにしたため、ハンズフリー操作をより確実に行わせることが可能になるとともに、操作の種類を多岐にわたらせることも可能となる。
(2) The
(3)前記制御部30は、特定したユーザ100の身体の部位の状態として、ユーザ100の身体の部位にユーザ100の手が接触又は近接した状態か否かを判定することとしたので、身体部位を正確に特定することができる。
(3) Since the
(4)前記制御部30は、ユーザ100の手に装着された装着具110を検出することによって、ユーザ100の手の位置を検出することとしたので、簡単な制御で身体部位を正確に特定することが可能となる。
(4) Since the
(5)ユーザ100の身体の部位に操作の情報を関連付けたテーブルを記憶したフラッシュROM42など(記憶手段)を備え、前記制御部30は、判定した部位に応じた操作の情報を前記テーブルが記憶されたフラッシュROM42などから読み出して、当該操作を実行するようにしたため、制御部30は複雑な演算などが不要で処理の高速化が図れるとともに、制御部30のCPU40への負荷の軽減を図ることもできる。
(5) A
(6)前記テーブルに情報を記憶した操作は、表示部1への表示画像200の表示処理に対する操作としたため、HMDとしての使い勝手が良好となる。
(6) Since the operation storing information in the table is an operation for the display processing of the
(7)ユーザ100の身体の部位の状態に操作の情報を関連付けた第2のテーブルをフラッシュROM42(第2記憶手段)に記憶し、制御部30は、前記第2のテーブルに基づき、ユーザ100の身体の部位の状態に応じて、さらに表示部1への表示画像200の表示処理に対する操作を実行することとしたため、HMDとしての使い勝手を良好としながら、制御部30は複雑な演算などが不要で処理の高速化が図れるとともに、制御部30のCPU40への負荷の軽減を図ることもできる。
(7) A second table in which operation information is associated with the state of the body part of the
(8)前記制御部30が部位特定手段として特定したユーザ100の身体の部位に応じて、操作情報を前記テーブルに設定することとしたため、様々な操作を正確かつ高速に処理することが可能となる。
(8) Since the operation information is set in the table according to the body part of the
(9)前記制御部30は、前記CCDカメラ2による撮像画像からユーザ100の身体の部位を特定する情報を抽出して、前記テーブルに記憶するキャリブレーション手段として機能するため、ユーザ100の個体差などに対応でき、ハンズフリーによる操作の精度を高めることができる。
(9) Since the
(10)前記表示部1は、画像光500を外光400と共にユーザ100の眼101に入射させ、外景と重ねて表示画像200を表示可能としたため、当該HMDを装着したままでも何ら支障なく移動したりすることができ、しかも、移動した先々で表示部1をハンズフリーによって操作することができる。
(10) The
以上、実施形態を通して本発明を説明してきたが、本発明はこれらに限定されるものではない。例えば、HMDの操作に関連付けられる身体部位としては腕、肘、手を例に挙げて説明したが、これらに代えて、あるいは加えて、膝や足などを用いることもできる。また、上述した各効果は、本実施形態から生じる効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 As mentioned above, although this invention has been demonstrated through embodiment, this invention is not limited to these. For example, the body parts associated with the operation of the HMD have been described by taking arms, elbows, and hands as examples. However, instead of or in addition to these, knees and legs can be used. Moreover, each effect mentioned above only enumerated the effect which arises from this embodiment, and the effect by this invention is not limited to what was described in this embodiment.
1 表示部(表示手段)
1a 投影ユニット
1b 光源ユニット
2 CCDカメラ(撮像手段)
3 コントロールユニット
4 角度センサ(頭部状態検出手段)
30 制御部(部位特定手段、部位状態判定手段、制御処理手段、キャリブレーション手段)
31 主コントローラ
40 CPU
42 フラッシュROM(記憶手段、第2記憶手段)
100 ユーザ
102 頭部
1 Display section (display means)
3
30 control unit (part specifying means, part state determining means, control processing means, calibration means)
31
42 Flash ROM (storage means, second storage means)
100
Claims (10)
前記ユーザの視野方向の所定範囲を撮像する撮像手段と、
前記ユーザの頭部の角度を検出する頭部状態検出手段と、
前記撮像手段により撮像した画像と前記検出した前記ユーザの頭部の角度とにより前記ユーザの視野方向にある当該ユーザの身体の部位を特定する部位特定手段と、
前記部位特定手段により特定したユーザの身体の部位の情報に応じた操作を実行する制御処理手段と、を備えたヘッドマウントディスプレイ。 In a head-mounted display having display means for causing image light according to image information to enter a user's eye and displaying an image according to the image information.
Imaging means for imaging a predetermined range in the user's visual field direction;
Head state detecting means for detecting an angle of the user's head;
A part specifying means for specifying a part of the user's body in the visual field direction of the user based on the image picked up by the image pickup means and the detected angle of the head of the user;
And a control processing unit that performs an operation according to information on a part of the user's body specified by the part specifying unit.
前記制御処理手段は、前記部位特定手段で特定した部位に対応する操作のうち前記部位状態判定手段により判定した前記部位の状態に応じた操作を実行することを特徴とする請求項1に記載のヘッドマウントディスプレイ。 Comprising a part state determining means for determining the state of the part of the user's body specified by the part specifying means;
2. The control processing unit according to claim 1, wherein the control processing unit executes an operation according to a state of the part determined by the part state determination unit among operations corresponding to the part specified by the part specifying unit. Head mounted display.
前記制御処理手段は、前記部位状態判定手段により判定した前記部位に応じた操作の情報を前記テーブルが記憶された記憶手段から読み出して、当該操作を実行することを特徴とする請求項2〜4のいずれか1項に記載のヘッドマウントディスプレイ。 Storage means for storing a table in which operation information is associated with the body part of the user;
5. The control processing unit reads out information on an operation corresponding to the part determined by the part state determination unit from a storage unit in which the table is stored, and executes the operation. The head mounted display of any one of these.
前記制御処理手段は、前記第2のテーブルに基づき、前記ユーザの身体の部位の状態に応じて、さらに前記表示手段への画像の表示処理に対する操作を実行することを特徴とする請求項6に記載のヘッドマウントディスプレイ。 Second storage means storing a second table in which operation information is associated with the state of the body part of the user;
The control processing means further executes an operation for an image display process on the display means according to a state of a body part of the user based on the second table. The described head mounted display.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009066514A JP5272827B2 (en) | 2009-03-18 | 2009-03-18 | Head mounted display |
PCT/JP2010/054585 WO2010107072A1 (en) | 2009-03-18 | 2010-03-17 | Head-mounted display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009066514A JP5272827B2 (en) | 2009-03-18 | 2009-03-18 | Head mounted display |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010218405A JP2010218405A (en) | 2010-09-30 |
JP5272827B2 true JP5272827B2 (en) | 2013-08-28 |
Family
ID=42739731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009066514A Expired - Fee Related JP5272827B2 (en) | 2009-03-18 | 2009-03-18 | Head mounted display |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5272827B2 (en) |
WO (1) | WO2010107072A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9335547B2 (en) | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
JP5821464B2 (en) * | 2011-09-22 | 2015-11-24 | セイコーエプソン株式会社 | Head-mounted display device |
JP2013206412A (en) * | 2012-03-29 | 2013-10-07 | Brother Ind Ltd | Head-mounted display and computer program |
EP2863382A4 (en) * | 2012-06-18 | 2016-02-24 | Sony Corp | Image display device, image display program, and image display method |
JP5904887B2 (en) * | 2012-06-27 | 2016-04-20 | 株式会社オプティム | Message transmission system, message transmission method, and program |
JP6260613B2 (en) * | 2013-02-22 | 2018-01-17 | ソニー株式会社 | Head mounted display system, head mounted display, head mounted display control program, image display method, and image display apparatus |
JP5962547B2 (en) * | 2013-03-08 | 2016-08-03 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2014141504A1 (en) | 2013-03-11 | 2014-09-18 | Necソリューションイノベータ株式会社 | Three-dimensional user interface device and three-dimensional operation processing method |
JP6169462B2 (en) * | 2013-09-30 | 2017-07-26 | 株式会社Nttドコモ | Information processing apparatus and information processing method |
US10386637B2 (en) * | 2014-01-15 | 2019-08-20 | Maxell, Ltd. | Information display terminal, information display system, and information display method |
JP6065960B2 (en) * | 2015-10-08 | 2017-01-25 | セイコーエプソン株式会社 | Head-mounted display device |
JP6308249B2 (en) * | 2016-07-14 | 2018-04-11 | セイコーエプソン株式会社 | Head-mounted display device and method |
US10955971B2 (en) | 2016-10-27 | 2021-03-23 | Nec Corporation | Information input device and information input method |
JP7301615B2 (en) * | 2019-06-17 | 2023-07-03 | キヤノン株式会社 | Electronic equipment and its control method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (en) * | 1994-04-22 | 1996-01-12 | Canon Inc | Display device |
JP2000148381A (en) * | 1998-11-05 | 2000-05-26 | Telecommunication Advancement Organization Of Japan | Input image processing method, input image processor and recording medium on which input image processing program has been recorded |
JP2004013326A (en) * | 2002-06-04 | 2004-01-15 | Canon Inc | Image processor and its control method, computer program and computer readable storage medium |
JP4927631B2 (en) * | 2006-06-27 | 2012-05-09 | パナソニック株式会社 | Display device, control method therefor, program, recording medium, and integrated circuit |
JP4883774B2 (en) * | 2006-08-07 | 2012-02-22 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
-
2009
- 2009-03-18 JP JP2009066514A patent/JP5272827B2/en not_active Expired - Fee Related
-
2010
- 2010-03-17 WO PCT/JP2010/054585 patent/WO2010107072A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9335547B2 (en) | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
US9921646B2 (en) | 2013-03-25 | 2018-03-20 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
Also Published As
Publication number | Publication date |
---|---|
WO2010107072A1 (en) | 2010-09-23 |
JP2010218405A (en) | 2010-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5272827B2 (en) | Head mounted display | |
CN107430278B (en) | User-based context sensitive hologram response | |
KR102179142B1 (en) | Wearable food nutrition feedback system | |
US9767524B2 (en) | Interaction with virtual objects causing change of legal status | |
US9967487B2 (en) | Preparation of image capture device in response to pre-image-capture signal | |
CN103984097B (en) | Head-mounted display apparatus, the control method of head-mounted display apparatus and image display system | |
JP2023517073A (en) | Devices, methods, and graphical user interfaces for providing computer-generated experiences | |
JP6149403B2 (en) | Display device and control method of display device | |
JP6277673B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6094305B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
KR20150114977A (en) | Projection optical system for coupling image light to a near-eye display | |
JP2017016056A (en) | Display system, display device, display device control method, and program | |
JPH086708A (en) | Display device | |
JP6554948B2 (en) | Display device, display device control method, and program | |
JP2011070458A (en) | Head-mounted display and imaging data using system including the same head-mounted display | |
KR20170135762A (en) | Gaze detection system | |
JP6303274B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6638392B2 (en) | Display device, display system, display device control method, and program | |
US20240020371A1 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
JP6740613B2 (en) | Display device, display device control method, and program | |
JP2018042004A (en) | Display device, head-mounted type display device, and method for controlling display device | |
JP6304415B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US10990197B2 (en) | Display system, control program for information processing device, and method for controlling information processing device | |
WO2023203923A1 (en) | Head-mounted information processing device, information processing method, recording medium | |
JP6669183B2 (en) | Head mounted display and control method of head mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130429 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5272827 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |