JP6488661B2 - Head-mounted display device, display system, head-mounted display device control method, and computer program - Google Patents
Head-mounted display device, display system, head-mounted display device control method, and computer program Download PDFInfo
- Publication number
- JP6488661B2 JP6488661B2 JP2014232342A JP2014232342A JP6488661B2 JP 6488661 B2 JP6488661 B2 JP 6488661B2 JP 2014232342 A JP2014232342 A JP 2014232342A JP 2014232342 A JP2014232342 A JP 2014232342A JP 6488661 B2 JP6488661 B2 JP 6488661B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- moving image
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
Description
本発明は、頭部装着型表示装置の技術に関する。 The present invention relates to a head-mounted display device.
頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。 A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device is used, for example, by generating image light using a liquid crystal display and a light source, and guiding the generated image light to a user's eye using a projection optical system or a light guide plate Make the person visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.
特許文献1には、所定の範囲に静止している静止物体に対して超音波を照射することで、超音波を照射した超音波センサーから静止物体までの距離情報を取得し、距離情報に基づいて静止物体の立体像を取得する物体の自動認識方法が開示されている。また、特許文献2には、ゴルフクラブのヘッドに慣性センサーのデータを取得するセンサーユニットが搭載され、使用者が当該ゴルフクラブをスイングすると、当該ゴルフクラブと無線通信によって接続されている解析処理装置が慣性センサーによって取得されたデータを解析するゴルフクラブの解析システムが開示されている。
In
しかし、特許文献1に記載された技術では、1つの静止した物体の立体像を認識することしかできず、動いている物体や複数の物体の立体像を認識したいという課題があった。また、特許文献2に記載された技術では、センサーユニットが搭載されたゴルフクラブの慣性のデータは取得できるものの、センサーが搭載されていない物体についての動きなどのデータが取得できず、これらのデータを取得したいという課題があった。そのほか、従来の頭部装着型表示装置においては、使い勝手の向上等が望まれていた。
However, the technique described in
本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。 The present invention has been made to solve the above-described problems, and can be realized as the following forms.
(1)本発明の一形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、外景の中から第1の対象を検出する検出部と;前記外景を透過可能で、画像を表示可能な画像表示部と;検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備える。この形態の頭部装着型表示装置によれば、使用者は、透過して視認できる実物に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などを向上させることができる。 (1) According to one aspect of the present invention, a transmissive head-mounted display device is provided. The head-mounted display device includes: a detection unit that detects a first object from an outside scene; an image display unit that can transmit the outside scene and display an image; and the detected first object A display image setting unit that causes the image display unit to display a first moving image that is an associated moving image. According to the head-mounted display device of this embodiment, the user can perform work and the like while visually recognizing the moving image displayed in conformity with the real thing that can be seen through. Efficiency etc. can be improved.
(2)上記形態の頭部装着型表示装置において、前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示してもよい。この形態の頭部装着型表示装置によれば、使用者は、実物の位置に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などをさらに向上させることができる。 (2) In the head mounted display device of the above aspect, the display image setting unit may display the first moving image in association with the detected position of the first target. According to this form of the head-mounted display device, the user can perform work while visually recognizing the moving image displayed in accordance with the actual position, so the efficiency of the user's work, etc. Can be further improved.
(3)上記形態の頭部装着型表示装置において、前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出してもよい。この形態の頭部装着型表示装置によれば、第1の対象を画像として検出するため、第1の対象の検出の精度を向上させることができる。 (3) In the head-mounted display device of the above aspect, the detection unit may capture the outside scene and detect the first target from the captured image. According to this form of the head-mounted display device, since the first object is detected as an image, the accuracy of detection of the first object can be improved.
(4)上記形態の頭部装着型表示装置において、前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像であってもよい。この形態の頭部装着型表示装置によれば、使用者は、作業の推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。 (4) In the head-mounted display device of the above aspect, the first moving image may be a moving image related to a work performed on the detected first object. According to this form of the head-mounted display device, the user can more easily recognize the recommended operation of the work, and the efficiency of the user's work is further improved.
(5)上記形態の頭部装着型表示装置において、前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し;前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、適宜、状況に適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。 (5) In the head-mounted display device of the above aspect, the detection unit detects a second target different from the first target from the outside scene; the display image setting unit is configured to display the image If the second target is detected while the first moving image is displayed on the display unit, the first moving image associated with the second target is used instead of the first moving image. A second moving image that is a moving image different from the first moving image may be displayed on the image display unit. According to the head-mounted display device of this aspect, the user can be made to visually recognize an image suitable for the situation as appropriate, so that the user's convenience is further improved.
(6)上記形態の頭部装着型表示装置において、さらに;外部の音声を取得する音声取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に加えて、使用者は、第1の動画像を操作できるため、使用者の使い勝手がさらに向上する。 (6) The head-mounted display device according to the above aspect further includes: an audio acquisition unit that acquires external audio; the display image setting unit includes the detected first object and the acquired audio Based on this combination, the first moving image may be displayed on the image display unit. According to the head-mounted display device of this form, in addition to the detected first object, the user can operate the first moving image, so that the usability of the user is further improved.
(7)上記形態の頭部装着型表示装置において、さらに;前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備えてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、第1の動画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。 (7) In the head-mounted display device according to the above aspect, further, when the first moving image is displayed on the image display unit, a sound associated with the first moving image is output. An audio output unit may be provided. According to this form of the head-mounted display device, the user can be made to recognize information by voice in addition to the first moving image, and the user can more visually and auditorily. Information can be recognized and user convenience is improved.
(8)上記形態の頭部装着型表示装置において、さらに;使用者の生体情報を取得する生体情報取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に、取得された使用者の生体情報も加えた動画像を使用者に視認させることができ、使用者の利便性がさらに向上する。 (8) The head mounted display device according to the above aspect further includes: a biological information acquisition unit that acquires biological information of the user; the display image setting unit is acquired as the detected first object. The first moving image may be displayed on the image display unit based on the biological information of the user. According to this form of the head-mounted display device, the user can visually recognize a moving image obtained by adding the acquired biological information of the user to the detected first target, which is convenient for the user. Is further improved.
(9)上記形態の頭部装着型表示装置において、前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせであってもよい。この形態の頭部装着型表示装置によれば、複数の要素によって種々の動画像が選択されるため、使用者は、種々の動画像から簡単に所望の動画像を選択できる。 (9) In the head-mounted display device of the above aspect, the association between the first object and the first moving image is performed by detecting the type of the first object and the movement of the first object. A combination of at least one of the position of the first object and the orientation of the first object in the outside scene and the first moving image. According to the head-mounted display device of this aspect, since various moving images are selected by a plurality of elements, the user can easily select a desired moving image from various moving images.
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。 A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.
例えば、本発明の一形態は、検出部と、画像表示部と、表示画像設定部と、3つの要素の内の一つまたは二つ以上を備えた装置として実現可能である。すなわち、この装置は、検出部を有していてもよく、有していなくてもよい。また、装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、表示画像設定部を有していてもよく、有していなくてもよい。検出部は、例えば、外景の中から第1の対象を検出してもよい。画像表示部は、例えば、前記外景を透過可能で、画像を表示可能であってもよい。表示画像設定部は、例えば、検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。 For example, an embodiment of the present invention can be realized as a device including a detection unit, an image display unit, a display image setting unit, and one or more of three elements. That is, this apparatus may or may not have the detection unit. Further, the apparatus may or may not have an image display unit. The apparatus may or may not have a display image setting unit. For example, the detection unit may detect the first target from the outside scene. For example, the image display unit may be capable of transmitting the outside scene and displaying an image. For example, the display image setting unit may cause the image display unit to display a first moving image that is a moving image associated with the detected first target. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, it is possible to solve at least one of various problems such as improvement and simplification of the operability of the device, integration of the device, and improvement of convenience of the user who uses the device. it can. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示システム、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。 The present invention can also be realized in various forms other than the head-mounted display device. For example, a display system, a head-mounted display device control method, an information system having a head-mounted display device, a head-mounted display device control method, a computer program for realizing the information system, and the computer program The present invention can be realized in the form of a recorded recording medium and a data signal including the computer program and embodied in a carrier wave.
A.第1実施形態:
A−1.頭部装着型表示装置(HMD)の構成:
図1は、頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。
A. First embodiment:
A-1. Configuration of head mounted display (HMD):
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD 100). The
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。
The
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
The
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
The
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
The right
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。
The
カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。そのため、カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
The
マイク63は、外部の音声を取得する。マイク63は、使用者が画像表示部20を装着した際の右表示駆動部22における使用者と対向する側の反対側(外側)に配置されている。なお、マイク63は、請求項における音声取得部に相当する。
The
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
The
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46の反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
The
制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
The
図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、操作部135と、無線通信部132と、シナリオデータベース138(シナリオDB138)と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。
FIG. 2 is a block diagram functionally showing the configuration of the
電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、コンテンツサーバー、テレビ、パーソナルコンピューターといった他の機器との間で無線通信を行なう。
The
記憶部120は、ROMやRAM等によって構成されている。記憶部120のROMには、種々のコンピュータープログラムが格納されている。後述するCPU140は、記憶部120のROMから各種コンピュータープログラムを読み取り、記憶部120のRAMに格納することで、各種コンピュータープログラムを実行する。
The
シナリオDB138は、AR(Augmented Reality)画像を含む複数の動画であるARシナリオを記憶している。本実施形態におけるARシナリオは、カメラ61の撮像画像の中から予め設定された特定の対象物が検出されると、画像表示部20に表示されるAR画像や、イヤホン32,34を介して出力される音声を含む動画である。他の実施形態では、単に、何らかの動画を含むデータをARシナリオとしてみなすこともでき、ARシナリオに含まれる動画としては、テキスト画像のポップアップ等であってもよい。シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶している。分類されたカテゴリーとしては、例えば、料理、家電の取扱、スケジュール管理などがある。なお、HMD100は、シナリオDB138に記憶されたARシナリオだけではなく、無線通信部132を介して、他の装置から受信するARシナリオを実行することもできる。
The
CPU140は、記憶部120のROMに格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、表示画像設定部165、および、物体認識部168として機能する。
The
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。なお、画像光を生成することを「画像を表示する」ともいう。
The
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
The
画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を画像表示部20の受信部53,54へと送信する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
The
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63によって取得された音声を、制御信号として表示画像設定部165に送信する。
The
物体認識部168は、パターンマッチングや統計的識別法によって、カメラ61の撮像画像の中から、シナリオDB138に記憶されている複数のARシナリオに対応付けられている特定の対象の画像である第1の対象の画像を検出する。本実施形態では、シナリオDB138に記憶された複数のARシナリオを分類したカテゴリーが選択された後に、物体認識部168は、選択されたカテゴリーに含まれるARシナリオに対応付けられている第1の対象の画像を検出する。以降では、撮像画像の中から、特定の対象の画像が検出されることを、単に、特定の対象が検出されるともいう。なお、物体認識部168は、実行されているARシナリオの状況などに応じて、第1の対象とは異なる特定の対象である第2の対象や第3の対象等も撮像画像の中から検出する。物体認識部168は、撮像画像の中から第1の対象を検出すると、検出した第1の対象と、検出した第1の対象に対応付けられたARシナリオと、の情報を表示画像設定部165へと送信する。なお、カメラ61および物体認識部168は、請求項における検出部に相当する。また、第1の対象に対応付けられたARシナリオは、請求項における第1の動画像に相当する。他の実施形態では、物体認識部168は、撮像画像の中から、無線通信部132によって他の装置から受信したARシナリオに対応付けられた第1の対象を検出してもよいし、インターフェイス180を介して接続されたUSBメモリ等に記憶されたARシナリオに対応付けられた第1の対象を検出してもよい。なお、無線通信部132は、請求項における受信部に相当する。また、無線通信部132によって通信する他の装置は、請求項における記憶装置に相当する。
The
また、物体認識部168は、HMD100が何らかのARシナリオを実行しているときに、カメラ61の撮像画像の中から、第1の対象とは異なる特定の対象である第2の対象を検出することもできる。第2の対象は、第1の対象に対応付けられたARシナリオとは異なるARシナリオに対応付けられている。物体認識部168は、撮像画像の中から第2の対象を検出すると、表示画像設定部165に、検出した第2の対象と第2の対象に対応付けられているARシナリオの情報を送信する。
Further, the
CPU140は、物体認識部168から送信された情報に基づいて、撮像画像の中から検出された特定の対象物に対応付けられたARシナリオを実行する。ARシナリオが実行されると、表示画像設定部165は、実行されるARシナリオに含まれる画像等を光学像表示部26,28に表示させる。表示画像設定部165は、ARシナリオに含まれる少なくとも1つのAR画像を、撮像画像の中から検出された特定の対象物の位置や向きに関連付けて画像表示部20に表示させる。ARシナリオには、検出される特定の対象物について優先度が設定されており、表示画像設定部165は、検出された特定の対象物の内、設定された優先度が高い特定の対象物に対応付けられた画像を優先的に光学像表示部26,28に表示させる。
Based on the information transmitted from the
CPU140は、何らかのARシナリオを実行しているときに、物体認識部168が第2の対象を検出すると、実行しているARシナリオとは異なる第2の対象に対応付けられた別のARシナリオを実行する。表示画像設定部165は、第2の対象が撮像画像の中から検出されると、実行されていたARシナリオに含まれる画像に代えて別のARシナリオに含まれる画像を光学像表示部26,28に表示させる。なお、第2の対象に対応付けられたARシナリオは、請求項における第2の動画像に相当する。
When the
音声処理部170は、イヤホン32,34を介して、別のARシナリオに含まれる音声信号に基づく音声を出力する。また、音声処理部170は、イヤホン32,34を介して、ARシナリオに含まれる音声信号に基づく音声を出力する。音声処理部170は、マイク63から取得した音声に基づいて、各種処理を行なう。例えば、ARシナリオに選択肢が含まれる場合には、音声処理部170は、取得した音声に基づいて、選択肢の中から1つの選択肢を選択したりする。
The
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。
The
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、マイク63と、を備えている。
The
右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。
The right
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160および表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The receiving
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。
The right projection
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。
The left
図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。
FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The
A−2.ARシナリオ実行処理:
図4は、ARシナリオ実行処理のフローチャートである。ARシナリオ実行処理は、CPU140が撮像画像の中から検出した対象に応じたARシナリオを実行する処理である。ARシナリオ実行処理では、初めに、CPU140は、操作部135がARシナリオを実行する所定の操作を受け付けたか否かを判定する(ステップS11)。本実施形態では、CPU140は、シナリオDB138に記憶されて分類されたARシナリオのカテゴリーを使用者に選択させるための画像を光学像表示部26,28に表示させる。CPU140は、ARシナリオを実行するための所定の操作として、光学像表示部26,28に表示させたARシナリオのカテゴリーの選択を受け付けたか否かを判定する。所定の操を受け付けていないと判定された場合には(ステップS11:NO)、CPU140は、ARシナリオ実行処理を終了する。なお、本実施形態では、ARシナリオのカテゴリーとして、「料理」が選択された場合について説明する。
A-2. AR scenario execution processing:
FIG. 4 is a flowchart of the AR scenario execution process. The AR scenario execution process is a process for executing an AR scenario corresponding to a target detected by the
ステップS11の処理において、CPU140は、ARシナリオを実行する所定の操作を受け付けたと判定した場合には(ステップS11:YES)、カメラ61を介して、外景を撮像する(ステップS13)。次に、物体認識部168は、カメラ61が撮像した外景の撮像画像の中から、シナリオDB138に記憶されたARシナリオに対応付けられた特定の対象としての第1の対象の画像(以下、単に「第1の対象」ともいう)を検出する(ステップS15)。物体認識部168は、撮像画像の中から第1の対象を検出しない場合には(ステップS15:NO)、引き続き、撮像画像の中から第1の対象の検出を待機する(ステップS15)。撮像画像の中から第1の対象が検出された場合には(ステップS15:YES)、CPU140は、第1の対象に対応付けられている複数のARシナリオがあるか否かを判定する(ステップS17)。第1の対象に対応付けられている複数のARシナリオがあると判定された場合には(ステップS17:YES)、表示画像設定部165は、複数のARシナリオから1つのARシナリオを選択させるための選択画像を光学像表示部26,28に表示させて、使用者に1つのARシナリオを選択させる(ステップS19)。CPU140は、使用者によって実行する1つのARシナリオが選択されたと判定した場合(ステップS19)、選択されたARシナリオを実行する(ステップS21)。また、CPU140は、ステップS17の処理において複数のARシナリオがないと判定した場合には(ステップS17:NO)、自動的に1つのARシナリオを実行する。(ステップS21)。なお、以降では、実行する1つの当該ARシナリオを第1シナリオとも呼ぶ。
In the process of step S11, if the
図5は、複数のARシナリオから実行される第1シナリオを選択するときに使用者が視認する視野VRを示す説明図である。図5には、光学像表示部26,28を透過して使用者に視認される外景SCと、光学像表示部26,28に表示された選択画像IMG1と矢印画像CS3とが示されている。選択画像IMG1および矢印画像CS3は、光学像表示部26,28において、画像を表示できる最大の領域である画像表示最大領域PN内に表示される。外景SCには、まな板BCと、板BCの上に載っている魚FSとが含まれる。魚FSの頭部から尾にかけての体の表面には、複数のうろこFSCが張り付いている。なお、本実施形態では、魚FSの種類は、鯛である。表示画像設定部165は、検出された魚FSと選択された「料理」のARシナリオのカテゴリーとに基づいて、魚FSに対応付けられた複数のARシナリオの候補を選択画像IMG1として画像表示最大領域PNに表示させる。図5の選択画像IMG1に示すように、魚FSに対応付けられたARシナリオの候補は、「1.三枚おろし」と「2.塩焼き」と「3.姿煮」とである。表示画像設定部165は、検出された魚FSの位置に関わらず、画像表示最大領域PNにおける固定の位置に選択画像IMG1を表示させる。操作部135が使用者の操作を受け付けることで、矢印画像CS3が画像表示最大領域PN内を移動する。矢印画像CS3が選択画像IMG1のいずれかの選択肢に重複した状態で操作部135が決定操作を受け付けると、CPU140は、実行する1つのARシナリオを選択する。なお、他の実施形態では、マイク63が音声入力を受け付けることで、選択画像IMG1のいずれかの選択肢が選択されてもよい。本実施形態では、第1シナリオとして「1.三枚おろし」が選択された場合について説明する。なお、図5および以降の図では、便宜上、画像表示最大領域PNを示しているものの、破線で示した画像表示最大領域PNの外枠は、使用者には視認されない。
FIG. 5 is an explanatory diagram showing a visual field VR visually recognized by the user when selecting a first scenario executed from a plurality of AR scenarios. FIG. 5 shows an external scene SC that is visible to the user through the optical
ARシナリオが実行されると、表示画像設定部165は、ARシナリオに含まれるAR画像を、物体認識部168によって特定された第1の対象の位置や向きに対応付けて画像表示最大領域PNに表示させる(ステップS23)。物体認識部168は、撮像画像の中の魚FSに対してパターンマッチングを行なうことで、撮像画像の中における魚FSが占める領域や座標の位置を特定する。物体認識部168は、特定した領域や座標の位置に基づいて、魚FSの頭の位置と尾の位置とを特定することで、撮像画像における魚FSの向きを特定する。表示画像設定部165は、特定された撮像画像の中の魚FSにおける予め定められた1つの座標に対応付けて、画像表示最大領域PN内に画像を表示させる。なお、本実施形態のARシナリオは、主に、HMD100の使用者の動作を支援する動画である。そのため、シナリオDB138に記憶されたARシナリオに含まれる動画は、使用者に促したい推奨動作である場合が多い。表示画像設定部165が画像表示部20に表示させた動画と同等の動作が使用者によって行なわれたと撮像画像によって判断した場合には、CPU140は、実行している第1シナリオを終了する、または、別のARシナリオを実行する。
When the AR scenario is executed, the display
図6は、ARシナリオに含まれるAR画像が画像表示最大領域PNに表示されたときに使用者が視認する視野VRを示す説明図である。図6には、シナリオDB138の中から「料理」のARシナリオのカテゴリーが選択された場合に、第1対象としての魚FSに対応付けられた「うろこ取り」のAR画像である画像AR1が表示されたときの視野VRが示されている。図6に示すように、画像表示最大領域PNに画像AR1が表示されるため、使用者は、光学像表示部26,28を透過する板BCおよび魚FSを含む外景SCを視認すると同時に、画像表示最大領域PNに表示された画像AR1を視認する。表示画像設定部165は、物体認識部168によって特定された魚FSの頭部と尾とを往復する画像AR1の動画を画像表示最大領域PN内に表示させる。画像AR1は、使用者にうろこ取りで魚FSのうろこを取る動作を支援する動画である。図6に示した矢印画像CS1は、画像AR1の頭と尾とを往復するイメージを示しており、矢印画像CS1が画像表示最大領域PN内に表示されるわけではない。なお、本実施形態では、カメラ61の画角と使用者が視認する視野VRとが同じになるように設定されている。
FIG. 6 is an explanatory diagram showing a visual field VR visually recognized by the user when an AR image included in the AR scenario is displayed in the image display maximum area PN. In FIG. 6, when the AR scenario category “cooking” is selected from the
図4のステップS23において、魚FSの位置や向きに対応付けられて画像AR1が画像表示最大領域PNに表示されると、物体認識部168は、画像AR1を含む実行されている「うろこ取り」のARシナリオが推奨する動作を使用者が行なったか否かを判定する(ステップS25)。物体認識部168は、「うろこ取り」の動作を使用者が行なったか否かの判定を、撮像画像の中から実物のうろこ取りの検出と、実物のうろこ取りの動きとに基づいて行なう。具体的な判定方法は、撮像画像の中から画像AR1に相当する実物のうろこ取りが検出され、検出された実物のうろこ取りが魚FSの頭部から尾までを予め設定された回数往復したか否かを検出することで判定する。
In step S23 of FIG. 4, when the image AR1 is displayed in the image display maximum area PN in association with the position and orientation of the fish FS, the
ステップS25の処理において、物体認識部168は、実行されている第1シナリオが推奨する動作を使用者が行なっていないと判定した場合には(ステップS25:NO)、物体認識部168は、撮像画像の中から、第1シナリオとは異なるARシナリオである第2シナリオに対応付けられた第2の対象の画像(以下、単に「第2の対象」とも呼ぶ)を検出する(ステップS27)。撮像画像の中から第2の対象が検出された場合には(ステップS27:YES)、CPU140は、第2の対象に対応付けられた第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、第2シナリオに含まれるAR画像を、検出された第2の対象の位置や向きに対応付けて、画像表示最大領域PN内に表示させる(ステップS23)。
In the process of step S25, when the
図7は、撮像画像の中から第2の対象が検出されて第2シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図7には、ARシナリオが促す「うろこ取り」の推奨動作が終了していない状態で、第2の対象としての包丁KNが撮像画像の中から検出された場合に、使用者の視野VRが示されている。視野VRには、光学像表示部26,28を透過した外景SCに加えて、第2シナリオに含まれるAR画像であるうろこ取りの画像AR2およびテキスト画像TX1が含まれている。表示画像設定部165は、第2シナリオに含まれるAR画像として、包丁KNではなく、うろこ取りによって魚FSのうろこを取る動作を促す文字で表したテキスト画像TX1と、うろこ取りの画像AR2と、を画像表示最大領域PNに表示させる。表示画像設定部165は、テキスト画像TX1および画像AR1の画像表示最大領域PNにおける表示位置を、検出された第2の対象である包丁KNの位置や向きに対応付けて表示させる。そのため、第1シナリオで魚FSの位置に対応付けられ表示されるうろこ取りの画像AR1と、第2シナリオで包丁KNの位置に対応付けられて表示されるうろこ取りの画像AR2とは、画像表示最大領域PNにおいて異なる位置に表示される。なお、音声処理部170は、表示画像設定部165によるテキスト画像TX1の表示に合わせて、イヤホン32,34を介してテキスト画像TX1の文字と同じ音声を出力してもよい。
FIG. 7 is an explanatory diagram showing the visual field VR visually recognized by the user when the second scenario is executed by detecting the second target from the captured image. FIG. 7 shows that the user's visual field VR is displayed when the knife KN as the second object is detected from the captured image in a state where the recommended operation of “scaling” that the AR scenario prompts has not ended. It is shown. The visual field VR includes a scaly image AR2 and a text image TX1, which are AR images included in the second scenario, in addition to the outside scene SC transmitted through the optical
図4のステップS23の処理において、包丁KNの位置に対応付けられてテキスト画像TX1および画像AR2が画像表示最大領域PNに表示されると、物体認識部168は、第2シナリオが使用者に推奨する動作が行なわれたか否かを判定する(ステップS25)。物体認識部168は、図7のテキスト画像TX1に従って使用者が包丁KNではなく、画像AR2に示すうろこ取りを持ったことを検出した場合に、第2シナリオの推奨動作が行なわれたと判定する。推奨動作が行なわれた判定された場合には(ステップS25:YES)、物体認識部168は、撮像画像の中から選択されたカテゴリーのARシナリオに対応付けられた特定の対象の画像を検出しているか否かを判定する(ステップS31)。物体認識部168は、撮像画像の中に第1の対象としての魚FSを検出しているため(ステップS31:YES)、ステップS17,19の処理を行なわれた後、第1の対象に対応付けられた第1シナリオを実行する(ステップS21)。表示画像設定部165は、第1シナリオに含まれるうろこ取りの画像AR1を魚FSの位置に対応付けて画像表示最大領域PNに表示させ(ステップS25)、物体認識部168は、第1シナリオの推奨動作である魚FSのうろこ取りが終了したか否かを判定する(ステップS25)。物体認識部168は、検出したうろこ取りが所定の回数(例えば、20回)以上、魚FSの頭部と尾との間を往復した場合には、第1シナリオの推奨動作であるうろこ取りが使用者に行なわれたと判定する。なお、うろこ取りの推奨動作が行なわれたか否かの判定は、種々変形可能であり、例えば、魚FSの表面のうろこを画像認識することで、判定されてもよい。
In the process of step S23 in FIG. 4, when the text image TX1 and the image AR2 are displayed in the maximum image display area PN in association with the position of the knife KN, the
物体認識部168は、推奨動作である魚FSのうろこ取りが終了したと判定した場合には(ステップS25:YES)、撮像画像の中から、その他のARシナリオに対応付けられた特定の対象を検出する(ステップS31)。撮像画像の中からその他の対象が検出されない場合には(ステップS31:NO)、CPU140は、その他のシナリオを実行するか否かを判定する(ステップS33)。CPU140は、操作部135が受け付けた操作やマイク63が取得した音声などによって、シナリオDB138に記憶されたARシナリオ以外のARシナリオ(例えば、無線通信部132を介して取得したARシナリオ)の実行など受け付ける。
If the
ステップS33の処理において、CPU140は、無線通信部132を介してその他のARシナリオを受信し、操作部135が受け付けた操作によって受信したARシナリオを実行すると判定した場合には(ステップS33:YES)、物体認識部168は、撮像画像の中から実行するARシナリオに対応付けられた特定の対象である第3の対象を検出する(ステップS15)。なお、ここでいう第3の対象は、第1の対象と同じである。第3の対象が検出されると(ステップS15:YES)、CPU140は、ステップS17以降の処理を行なう。なお、第3の対象は、請求項における第1の対象に相当する。
In the process of step S33, when the
本実施形態では、うろこ取りが終了した魚FSが第3の対象として検出され、魚FSを3枚におろすことを使用者の動作推奨とする第3の対象に対応付けられたARシナリオが実行される。なお、以降では、第3の対象に対応付けられたARシナリオを、単に、第3シナリオとも呼ぶ。 In the present embodiment, the fish FS whose scale has been removed is detected as the third target, and the AR scenario associated with the third target in which the user recommends that the fish FS be lowered to three is executed. Is done. Hereinafter, the AR scenario associated with the third target is also simply referred to as a third scenario.
図8は、撮像画像の中から第3の対象が検出されて第3シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図8には、第3の対象として、うろこ取りが終了した魚FSを含む外景SCが示されている。また、図8に示すように、使用者の右手RHが包丁KNを持ち、使用者の左手LHが魚FSの頭部を押さえている。物体認識部168が第3の対象を検出すると、表示画像設定部165は、実行される第3シナリオに含まれる包丁のAR画像である画像AR3と、推奨動作を示すテキスト画像TX2とを画像表示最大領域PNに表示させる。画像AR3およびテキスト画像TX2は、第3の対象としての魚FSに対応付けられて画像表示最大領域PNに表示される。そのため、テキスト画像TX2が表示される位置は、図7における包丁KNに対応付けられたテキスト画像TX1の位置とは異なる。テキスト画像TX2は、魚FSを3枚におろす推奨動作を促す第3シナリオにおいて、初めに、魚FSの内臓を取り出すことを使用者に促す文字画像である。物体認識部168によって検出された第3の対象やその他の対象に基づいて、表示画像設定部165は、実行される第3シナリオに含まれる画像を画像表示最大領域PNに表示する。また、同様に、音声処理部170は、イヤホン32,34を介して、実行される第3シナリオに含まれる音声を出力する。
FIG. 8 is an explanatory diagram illustrating a visual field VR visually recognized by the user when a third target is detected from the captured image and the third scenario is executed. FIG. 8 shows an outside scene SC that includes a fish FS that has been scaled off as a third object. Further, as shown in FIG. 8, the user's right hand RH has a knife KN, and the user's left hand LH holds the head of the fish FS. When the
図9は、第3シナリオが終了した後に実行される第4シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図9には、魚FSを三枚におろす第3シナリオの動作推奨が使用者によって完了した後に、撮像画像の中から三枚におろされた魚FSのそれぞれが第4の対象として検出されて、第4の対象に対応付けられたARシナリオである第4シナリオが実行されたときに使用者が視認する視野VRが示されている。物体認識部168は、第4シナリオが実行されると、第4シナリオに含まれるAR画像の矢印画像CS2と、三枚におろされた魚FSに対する処理を使用者に選択させるためのテキスト画像TX3とを画像表示最大領域PNに表示させる。テキスト画像TX3および矢印画像CS2は、三枚におろされた魚FSのそれぞれの切身CB1,CB2および中骨MBを検出すると、画像表示最大領域PNに表示される。物体認識部168は、テキスト画像TX3および矢印画像CS2が表示される位置を、切身CB1,CB2および中骨MBの位置や向きとは関係なく、画像表示最大領域PNにおける固定の位置に表示させる。テキスト画像TX3は、切身CB1と切身CB2と中骨MBとに対する処理として、保存と刺身と昆布締めとを使用者に選択させるための画像である。操作部135が使用者の操作を受け付けることで、テキスト画像TX3のいずれかの選択肢(例えば、1.切身CB1)が選択されると、CPU140は、選択された選択肢に対応付けられた画像および音声を出力させる。また、マイク63が音声入力を受け付けることで、テキスト画像TX3のいずれかの選択肢が選択されてもよい。
FIG. 9 is an explanatory diagram showing the visual field VR visually recognized by the user when the fourth scenario executed after the third scenario is completed. In FIG. 9, after the recommendation of the operation of the third scenario for dropping the fish FS into three sheets is completed by the user, each of the fish FS dropped into the three sheets is detected as the fourth target from the captured image. The visual field VR visually recognized by the user when the fourth scenario that is the AR scenario associated with the fourth target is executed is shown. When the fourth scenario is executed, the
図10は、図9のテキスト画像TX3の内の選択肢が選択された後に使用者が視認する視野VRを示す画像である。図10には、図9のテキスト画像TX3において、処理される対象として「1.切身CB1」が選択され、切身CB1の処理として、「3.昆布締め」が選択された場合に、画像表示最大領域PNに表示されるAR画像である画像AR4とテキスト画像TX4とが示されている。表示画像設定部165は、実行されているARシナリオの具体的な処理を示すテキスト画像TX4を、画像表示最大領域PNにおける固定の位置に表示させる。また、表示画像設定部165は、使用者に選択されると共に物体認識部168によって撮像画像の中から検出された切身CB1の位置と向きに対応付けて、昆布締めに使用される昆布のAR画像を画像AR4として画像表示最大領域PN内に表示させる。これにより、HMD100は、使用者に対して、切身CB1に昆布締めに必要な処理を推奨動作として認識させることができる。
FIG. 10 is an image showing the visual field VR visually recognized by the user after an option in the text image TX3 of FIG. 9 is selected. In FIG. 10, when “1. fillet CB1” is selected as the processing target in the text image TX3 of FIG. 9 and “3. kelp fastening” is selected as the processing of the fillet CB1, the maximum image display is shown. An image AR4 that is an AR image displayed in the region PN and a text image TX4 are shown. The display
図4のステップS25において、推奨動作として第4シナリオの昆布締めの処理が切身CB1に行なわれると(ステップS25:YES)、物体認識部168は、その他の対象を撮像画像の中から検出する(ステップS31)。その他の対象が検出されない場合に(ステップS31:NO)、CPU140は、その他のARシナリオをもう実行しないと判定した場合には(ステップS33:NO)、AR実行処理を終了する。
In step S25 of FIG. 4, when the kelp tightening process of the fourth scenario is performed on the fillet CB1 as a recommended operation (step S25: YES), the
以上説明したように、第1実施形態のHMD100では、物体認識部168がカメラ61の撮像画像の中から第1の対象を検出し、表示画像設定部165は、第1の対象に対応付けられた魚FSのうろこ取りの推奨動作の第1シナリオ実行される場合に、検出されたFS魚の位置に対応付けてうろこ取りの画像AR1を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、外景SCに含まれる複数の物体の内から1つの物体を検出して、検出した物体の位置に対応付けた画像を表示する。これにより、使用者は、実物の位置に合わせて表示される画像を視認しながら、作業等を行なうことができるため、使用者が行なう作業を支援し、使用者の作業の効率性などを向上させることができる。
As described above, in the
また、第1実施形態のHMD100では、物体認識部168は、画像として第1の対象である魚FSを検出するため、魚FSを検出する精度を向上させることができる。
Further, in the
また、第1実施形態のHMD100では、第1の対象としての魚FSに対応付けられたうろこ取りの画像AR1は、魚FSに対して行なわれるうろこ取りの推奨動作に関連する動画であるため、使用者は、推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。
In the
また、第1実施形態のHMD100では、物体認識部168が撮像画像の中から第2の対象としての包丁KNを検出した場合に、表示画像設定部165は、実行される第2シナリオに含まれるテキスト画像TX1およびうろこ取りの画像AR2を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、検出される物体に優先度が設定されており、複数のARシナリオに対応付けられた複数の特定の対象物が検出されても、検出された特定の対象物に設定された優先度に基づいて、画像表示最大領域PNに表示される画像が変更される。これにより、使用者に対して、状況の最も適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。
In the
また、第1実施形態のHMD100では、表示画像設定部165は、マイク63が取得した音声に基づいて、三枚におろされた魚FSの切身CB1に対して受け付けた処理に対応付けて、テキスト画像TX4および画像AR4を画像表示最大領域PNに表示される。そのため、第1実施形態のHMD100では、検出された特定の対象物に加えて、使用者は、音声によっても画像表示最大領域PNに表示させる画像を操作できるため、使用者の使い勝手がさらに向上する。
Moreover, in HMD100 of 1st Embodiment, the display
また、第1実施形態のHMD100では、音声処理部170は、第1シナリオが実行されている場合に、第2の対象としての包丁KNが検出されると、画像表示最大領域PNに表示されるテキスト画像TX1の文字と同じ音声を出力する。そのため、第1実施形態のHMD100では、使用者に対して、画像表示最大領域PNに表示される画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。
Further, in the
B.第2実施形態:
B−1.HMDの構成:
図11は、第2実施形態のHMD100aの構成を機能的に示すブロック図である。第2実施形態のHMD100aでは、第1実施形態のHMD100と比較して、生体情報取得センサー90と、CPU140aの生体情報処理部169と、を備える点が異なり、その他の構成については同じである。生体情報取得センサー90は、制御部10および画像表示部20とは別体で形成されたセンサーである。生体情報取得センサー90は、使用者の生体情報を取得する。本実施形態では、生体情報取得センサー90は、腕時計型のセンサーであり、使用者の手首に装着された状態で、ひずみゲージによるひずみ検出によって、現時点での使用者の筋力を測定する。生体情報取得センサー90は、取得した使用者の筋力の測定データを制御部10aのCPU140aへと送信する。取得された生体情報を処理する。生体情報処理部169は、取得された使用者の筋力の測定データに基づいて、実行されるARシナリオに含まれる各種処理を実行する。
B. Second embodiment:
B-1. HMD configuration:
FIG. 11 is a block diagram functionally showing the configuration of the
B−2.ARシナリオ実行処理:
第2実施形態では、自動車のタイヤの交換を推奨動作とするARシナリオ(以下、単に、「タイヤ交換シナリオ」とも呼ぶ)について、ARシナリオ実行処理について説明する。第2実施形態では、第1実施形態のARシナリオ実行処理(図4)における処理の内、異なる処理であるステップS21以降の処理について説明する。
B-2. AR scenario execution processing:
In the second embodiment, an AR scenario execution process will be described for an AR scenario (hereinafter, also simply referred to as “tire replacement scenario”) in which replacement of a tire of a vehicle is a recommended operation. In the second embodiment, a process after step S21 which is a different process among the processes in the AR scenario execution process (FIG. 4) of the first embodiment will be described.
図12は、第1の対象が検出されてタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図12には、第1対象としてのタイヤTRの画像が撮像画像の中から検出された場合に、CPU140aによってARシナリオとしてのタイヤ交換シナリオが実行され、表示画像設定部165がAR画像である画像AR5が画像表示最大領域PNに表示されたときに視野VRが示されている。外景SCに含まれるタイヤTRは、4箇所のボルトBTによって自動車の本体に固定されている。画像AR5は、工具としての六角レンチを表す工具画像ARRと、工具画像ARRを持っている腕画像ARHと、腕画像ARHの手首に装着されている筋力センサー画像ARSと、から構成されている。すなわち、画像AR5は、使用者に、筋力センサーを装着した腕で六角レンチにてタイヤTRのボルトBTを外すことを推奨動作とする画像である。表示画像設定部165は、検出されたタイヤTRのボルトBTの位置に対応付けて画像AR5の内の工具画像ARRを画像表示最大領域PNに表示させる。また、表示画像設定部165は、画像AR5の内の腕画像ARHおよび筋力センサー画像ARSを、工具画像ARRに対応付けて画像表示最大領域PNに表示させる。腕画像ARHの表示部には、工具を回すために推奨とされる筋力の数値が表示される。表示される数値(80)は、パーセンテージ(%)の単位であり、予め、HMD100の使用者の筋力とひずみゲージとの関係が設定された上で、推奨される数値である。
FIG. 12 is an explanatory diagram showing the visual field VR visually recognized by the user when the first object is detected and the tire replacement scenario is executed. In FIG. 12, when an image of the tire TR as the first object is detected from the captured image, the tire replacement scenario as the AR scenario is executed by the
タイヤ交換シナリオが実行され(図4のステップS23)、タイヤ交換シナリオに対応付けられた画像AR5が画像表示最大領域PNに表示されると(図4のステップS23)、物体認識部168は、タイヤ交換シナリオの推奨動作が終了したか否かを判定する(ステップS25)。
When the tire replacement scenario is executed (step S23 in FIG. 4) and the image AR5 associated with the tire replacement scenario is displayed in the image display maximum area PN (step S23 in FIG. 4), the
図13は、タイヤ交換シナリオが実行されているときに第2の対象が検出された場合に使用者が視認する視野VRを示す説明図である。図13には、タイヤ交換シナリオが実行されている場合に、第2の対象が検出された場合に、画像表示最大領域PNに表示されるテキスト画像TX5と画像AR5,AR6とが示されている。第2実施形態における第2の対象は、実物の六角レンチである工具RNと足LGとが所定の位置関係として検出された状態である。図13では、画像AR5の内の工具画像ARRは、実物の工具RNと重なっている。物体認識部168が実物の工具RNに使用者の足LGが接触している位置関係を検出した場合に、表示画像設定部165は、画像AR5に加えて、テキスト画像TX5および画像AR6を画像表示最大領域PNに表示させる。テキスト画像TX5は、足LGで工具RNを回転させることの禁止を促す文字画像である。また、画像AR6は、テキスト画像TX5の内容を強調するための「×」を示すAR画像である。表示画像設定部165は、画像AR6を、検出された工具RNと足LGとの接触位置に対応させて画像表示最大領域PN内に表示させる。
FIG. 13 is an explanatory diagram showing the visual field VR visually recognized by the user when the second target is detected when the tire replacement scenario is being executed. FIG. 13 shows a text image TX5 and images AR5 and AR6 displayed in the image display maximum area PN when the second target is detected when the tire replacement scenario is executed. . The second object in the second embodiment is a state in which the tool RN and the foot LG, which are real hex wrenches, are detected as a predetermined positional relationship. In FIG. 13, the tool image ARR in the image AR5 overlaps with the actual tool RN. When the
タイヤ交換シナリオの推奨動作が終了していない場合に(図4のステップS25:NO)、第2の対象としての工具RNおよび足LGが検出されると(ステップS27:YES)、CPU140aは、タイヤ交換を足ではなく腕を使って行なう推奨動作のARシナリオである第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、図13に示すように、画像表示最大領域PN内に画像AR5に加えて、画像AR6およびテキスト画像TX5を表示させる(ステップS23)。第2シナリオの推奨動作に従って、足LGが検出されなくなった場合には(ステップS25:YES)、タイヤTRが検出されるため(ステップS31:YES)、CPU140aは、タイヤ交換シナリオを実行する(ステップS21)。その後、表示画像設定部165は、画像AR5を画像表示最大領域PNに表示させる(ステップS23)。
When the recommended operation of the tire replacement scenario has not ended (step S25 in FIG. 4: NO), when the tool RN and the foot LG as the second target are detected (step S27: YES), the
図14は、第1の対象が検出されたタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図14には、画像表示最大領域PNに、図12と同様の画像AR5が表示され、かつ、実物の使用者の腕HDと、腕HDの手首に装着された筋力センサーSSと、腕HDが持っている工具RNと、テキスト画像TX6とを含む視野VRが示されている。図14に示すように、画像AR5の内の工具画像ARRと実物の工具RNとの位置関係と、腕画像ARHと腕HDとの位置関係とは異なる。換言すれば、使用者の腕HDおよび工具RNのそれぞれは、推奨動作として表示された画像AR5と重複しておらず、物体認識部168は、使用者にタイヤ交換シナリオの推奨動作が行なわれていないと判定する。物体認識部168は、撮像画像の中における複数のボルトBTの位置と大きさとによって、タイヤTRの位置や向きを特定する。そのため、物体認識部168は、特定したタイヤTRのボルトBTに対して、実物の工具RNが正しい位置に挿入されているか否かを判定できる。表示画像設定部165は、検出された工具RNが正しい位置に挿入されていないと判定されると、工具RNをボルトBTに対して正しい位置に挿入する動作を促すテキスト画像TX6を画像表示最大領域PNに表示させる。なお、図14では、工具RNが正しい位置に挿入されていないため、使用者は工具RNを回転させることができず、筋力センサーSSの数値は0(%)と表示されている。
FIG. 14 is an explanatory diagram showing a visual field VR visually recognized by the user when the tire replacement scenario in which the first target is detected is executed. In FIG. 14, the image AR5 similar to that in FIG. 12 is displayed in the image display maximum area PN, and the arm HD of the actual user, the strength sensor SS attached to the wrist of the arm HD, and the arm HD are displayed. A field of view VR including the tool RN that it has and the text image TX6 is shown. As shown in FIG. 14, the positional relationship between the tool image ARR and the actual tool RN in the image AR5 is different from the positional relationship between the arm image ARH and the arm HD. In other words, each of the user's arm HD and the tool RN does not overlap with the image AR5 displayed as the recommended action, and the
使用者がテキスト画像TX6に従い、工具RNがボルトBTに対して正しい位置に挿入されると、表示画像設定部165が画像AR5を非表示にして、生体情報処理部169は、生体情報取得センサー90としての筋力センサーSSの筋力の数値を検出する。生体情報処理部169は、筋力センサーSSによって取得された値が80%を中心とする75%から85%までの間の数値以外で、工具RNが回されているか否かを判定する。当該数値の間で工具RNが回されていると判定した場合には、表示画像設定部165は、80%の筋力で工具RNを回転させるように促すテキスト画像を画像表示最大領域PNに表示させる。生体情報処理部169が80%の筋力で工具RNが回転させられていると判定すると、表示画像設定部165がテキスト画像を非表示にして、表示画像設定部165は、別のボルトBTを外すAR画像を画像表示最大領域PNに表示させる。以上のような動作が繰り返されると、CPU140aは、タイヤ交換シナリオを終了する。
When the user follows the text image TX6 and the tool RN is inserted at the correct position with respect to the bolt BT, the display
以上説明したように、第2実施形態のHMD100aでは、生体情報取得センサー90によって検出された使用者の筋力に基づいて、表示画像設定部165は、画像表示最大領域PNに画像を表示させる。そのため。第2実施形態のHMD100aでは、撮像画像の中に検出された特定の対象物に、取得された使用者の生体情報も加えた画像を使用者に視認させることができ、使用者の利便性がさらに向上する。
As described above, in the
C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.
C−1.変形例1:
上記実施形態では、撮像画像の中から検出される第1の対象は、1つの物体であったが、これに限られず、複数の物体などであってもよい。例えば、物体認識部168は、第1の対象として、撮像画像の中から複数の物体の位置も含めた組み合わせを検出してもよい。また、物体認識部168は、同じ特定の対象であっても、特定の対象が特定の動きをしている場合にのみ、第1の対象として、検出してもよい。また、物体認識部168は、複数の特定の対象を検出して、複数の特定の対象の内から使用者が1つの特定の対象を選択することで、選択された特定の対象を第1の対象として検出してもよい。
C-1. Modification 1:
In the above embodiment, the first target detected from the captured image is a single object, but is not limited to this, and may be a plurality of objects. For example, the
上記第1実施形態では、第2の対象としての包丁KNが検出された場合に、実行するARシナリオとして第2シナリオへと変更されたが、第1シナリオから他のシナリオへの変更については、種々変形可能である。例えば、「うろこ取り」の第1シナリオが実行されているときに、実物のうろこ取りが検出されても、実物のうろこ取りの位置や動きが、矢印画像CS1と大きく異なる場合に、CPU140は、第2の対象が検出されたとして、別のARシナリオを実行してもよい。
In the first embodiment, when the knife KN as the second object is detected, the AR scenario to be executed is changed to the second scenario. However, the change from the first scenario to another scenario is as follows. Various modifications are possible. For example, when the actual scale removal is detected when the first scenario of “scale removal” is being executed, if the actual scale removal position or movement is significantly different from the arrow image CS1, the
上記実施形態では、パターンマッチング等の画像認識により、撮像画像の中から第1の対象を検出されたが、第1の対象が検出される方法については、これに限られず、種々変形可能である。例えば、物体認識部168は、撮像画像に対する画像認識ではなく、デプスセンサーなどを用いて、TOF(Time-of-Flight)方法などによって、デプスセンサーから第1の対象までの距離を測定することで、第1の対象を検出してもよい。
In the above embodiment, the first target is detected from the captured image by image recognition such as pattern matching. However, the method for detecting the first target is not limited to this, and various modifications can be made. . For example, the
撮像画像の中から検出される特定の対象物の画像は、上記実施形態の例に限られず、種々変形可能である。例えば、特定の対象物は、撮像画像の中から検出される実物であれば、ARシナリオに対応付けられることができる。特定の対象物は、上記実施形態のように、人が持ち運ぶことで移動可能な魚FSであってもよいし、移動不可能な建造物などであってもよい。また、特定の対象物は、時間の経過によって規則的な移動をする太陽などであってもよい。また、請求項における第1の対象と第1の動画像とが対応付けられているとは、外景SCから特定の対象物として何らかの対象物が検出されることで、検出された特定の対象物のARシナリオが実行されることを含む。第1の対象と第1の動画像とが対応付けられているには、例えば、撮像画像の中から特定の対象物の画像が検出されることやデプスセンサーなどによって外景SCから特定の形状が検出されることやデプスセンサーによって画像表示部20から特定の距離に何らかの対象が検出されることで、ARシナリオが実行されることが含まれる。
The image of the specific object detected from the captured image is not limited to the example in the above embodiment, and can be variously modified. For example, a specific object can be associated with an AR scenario if it is a real object detected from a captured image. The specific object may be a fish FS that can be moved by being carried by a person as in the above-described embodiment, or may be a structure that cannot be moved. The specific object may be the sun that moves regularly over time. In addition, the first object and the first moving image in the claims are associated with each other when a certain object is detected as a specific object from the outside scene SC. The AR scenario is executed. The first object and the first moving image are associated with each other, for example, when a specific object image is detected from the captured image, or a specific shape is formed from the outside scene SC by a depth sensor or the like. It includes that the AR scenario is executed by detecting or detecting a certain object at a specific distance from the
上記実施形態では、シナリオDB138のカテゴリーが選択された後に、選択されたカテゴリーに含まれるARシナリオの第1の対象が撮像画像の中から検出されたが、第1の対象となるARシナリオの設定については、種々変形可能である。例えば、物体認識部168は、ARシナリオをカテゴリーに分類せずに、全てのARシナリオに対応付けられた第1の対象を撮像画像の中から検出してもよい。
In the above embodiment, after the category of the
第1の対象に対応付けてARシナリオを実行する方法については、上記実施形態の例に限られず、種々変形可能である。例えば、シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶するだけでなく、撮像画像における第1の対象の位置、第1の対象の動き、検出された特定の対象の順番、撮像画像における第1の対象の向き、これらと取得した外部の音声との組み合わせのテーブルを記憶していてもよい。例えば、撮像画像の中から検出された1つの特定の対象物が検出され、かつ、検出された特定の対象物の所定の時間内に予め設定された動作が検出された場合に、CPU140は、シナリオDB138に対応付けて記憶されたARシナリオを実行してもよい。また、第1の対象として、ホールケーキが検出され、かつ、外部音声としての「8等分」や「6等分」が取得されたときに、ケーキをカットするナイフと、検出されたケーキに対して切り込む位置と、がAR画像として表示されるARシナリオが実行されてもよい。この変形例では、複数の要素によって種々のARシナリオが選択されるため、使用者は、種々のARシナリオから簡単に所望のARシナリオを選択できる。
The method of executing the AR scenario in association with the first target is not limited to the example of the above embodiment, and various modifications can be made. For example, the
上記実施形態では、特定の対象が検出された場合に、1つのARシナリオが実行されたが、必ずしも、実行されるARシナリオは、1つに限られず、複数であってもよい。例えば、CPU140は、第1の対象に対応付けられたARシナリオを全て実行した上で、その後に検出された第1の対象と異なる特定の対象に基づいて、実行していた複数のARシナリオから、実行するARシナリオをいくつかに限定してもよい。
In the above embodiment, one AR scenario is executed when a specific target is detected. However, the number of AR scenarios to be executed is not necessarily limited to one, and may be plural. For example, the
上記実施形態では、第1の対象に対応付けられた複数のARシナリオがある場合に、操作部135が受け付けた操作に基づいて、1つのARシナリオが選択されたが、複数のARシナリオから1つのARシナリオを選択する方法については、種々変形可能である。例えば、CPU140は、第1の対象に対応付けられた複数のARシナリオがある場合に、最近実行されたARシナリオを、実行する第1シナリオとして選択してもよい。
In the above embodiment, when there are a plurality of AR scenarios associated with the first target, one AR scenario is selected based on the operation received by the
請求項における動画像とは、静止画の組み合わせであるパラパラ漫画なども含み、同じ画像でもサイズが異なるように変化する動画も含む。動画像とは、時間の経過に伴い全く変化しない静止画像以外の広い概念のことをいい、複数の静止画像の組み合わせが変化する画像も含む。 The moving image in the claims includes a flip cartoon that is a combination of still images, and also includes a moving image that changes in size even in the same image. A moving image refers to a wide concept other than a still image that does not change at all over time, and includes an image in which a combination of a plurality of still images changes.
また、ARシナリオに含まれる画像としては、種々変形可能であり、RGBデータを変化させることで、半透明のAR画像や二次元の画像として生成してもよい。例えば、図6に示す例において、「うろこ取り」の画像AR1に対して、うろこ取りを持つ半透明の人の手の画像が、うろこ取りの画像AR1と同時に画像表示最大領域PNに表示されてもよい。この変形例では、ARシナリオを実行している使用者がうろこ取りの持ち方などがわからない場合に、うろこ取りの画像AR1と対応付けて半透明の人の手の画像を画像表示最大領域PNに表示させることで、使用者の利便性が向上する。 The image included in the AR scenario can be variously modified and may be generated as a translucent AR image or a two-dimensional image by changing RGB data. For example, in the example shown in FIG. 6, an image of a translucent person having a scale removal is displayed in the maximum image display area PN at the same time as the scale removal image AR1 with respect to the “scale removal” image AR1. Also good. In this modification, when the user who is executing the AR scenario does not know how to hold the scale, the image of the translucent person's hand is associated with the scale removal image AR1 in the image display maximum area PN. By displaying, the convenience for the user is improved.
上記実施形態では、カメラ61の画角と光学像表示部26,28を透過して使用者が視認する視野とは、対応するように予め設定されていたが、必ずしも対応するように設定されている必要はなく、これらの設定については、種々変形可能である。例えば、操作部135が操作を受け付けることで、カメラ61の画角が変更されてもよい。また、CPU140は、画像表示最大領域PNにキャリブレーション用の画像を表示させて、所定の操作を使用者に促すことで、カメラ61の画角を調整してもよい。
In the above embodiment, the angle of view of the
上記第2実施形態では、生体情報取得センサー90として、筋力センサーSSを例に挙げて説明したが、種々変形可能である。例えば、生体情報取得センサー90は、使用者の脈拍や発汗状態などを取得するセンサーであってもよい。生体情報取得センサー90は、赤外線を腕に発光させて、反射光を検出することで、血液の流れについて波形を取得することもできる。
In the second embodiment, the muscular force sensor SS has been described as an example of the biological
上記第2実施形態では、筋力センサーSSが表示する推奨の筋力の数値が80%であったが、これらの値については、種々変形可能である。例えば、筋力センサーSSではなく、トルクレンチと筋力とを関連付けることにより、筋力センサーSSが取得したひずみに基づいて、いくつのトルクが工具RNにかかっているかが表示されてもよい。 In the second embodiment, the recommended strength value displayed by the strength sensor SS is 80%. However, these values can be variously modified. For example, the number of torques applied to the tool RN may be displayed based on the strain acquired by the muscle force sensor SS by associating the muscle force with a torque wrench instead of the muscle force sensor SS.
上記第2実施形態では、生体情報取得センサー90としての筋力センサーSSの使用について、一例を挙げて説明したが、生体情報取得センサー90の設定については、種々変形可能である。例えば、使用者の握力、腕等を回す動作、トルクレンチやゴルフクラブを握ったとき状態において、予め複数回の計測がされ、これらの計測から得られた最大値や平均値と、筋力センサーSSなどと関連付けられているARシナリオと、の関係が設定されてもよい。さらに具体的には、特定のARシナリオで使用される生体情報取得センサー90および工具が決まっている場合には、予め、当該工具を使用した場合の計測を行なわれ、ARシナリオに反映させることで、CPU140は、ARシナリオを実行する使用者に「コツ」なども含めた作業支援の画像等を認識させることができる。
In the second embodiment, the use of the muscle force sensor SS as the biological
C−2.変形例2:
上記実施形態では、ARシナリオの推奨動作の終了の判定は、撮像画像の中から検出された人の動き等によって行なわれたが、種々変形可能である。例えば、物体認識部168が所定の動作を検出することで、推奨動作の終了を判定するのではなく、マイク63が取得した音声(例えば、「終了しました」)によって判定されてもよい。
C-2. Modification 2:
In the above embodiment, the end of the recommended operation of the AR scenario is determined based on the movement of a person detected from the captured image, but various modifications can be made. For example, instead of determining the end of the recommended operation by detecting a predetermined operation by the
上記実施形態では、上記実施形態では、第1シナリオが実行されているときに、第2の対象が検出されると、第2シナリオが実行される態様であったが、第1シナリオと第2シナリオとの関係については、このような関係に限られず、種々変形可能である。例えば、第1シナリオと第2シナリオとを合わせて、1つの複合されたARシナリオとして取り扱われてもよい。この場合、CPU140は、1つのARシナリオを実行しているときに、上記実施形態における第2の対象が検出された場合には、実行しているARシナリオにおいて分岐したとも言い換えることができる。
上記実施形態では、第2の対象が検出された場合に、第2シナリオが実行されたが、必ずしも第2シナリオが実行される必要はない。例えば、CPU140は、第1の対象を検出して第1シナリオを実行しているときに、第1シナリオに対応付けられていない特定の対象物を検出しなくてもよい。
In the above embodiment, in the above embodiment, the second scenario is executed when the second target is detected when the first scenario is executed. The relationship with the scenario is not limited to such a relationship, and various modifications can be made. For example, the first scenario and the second scenario may be combined and handled as one combined AR scenario. In this case, if the second target in the above embodiment is detected while executing one AR scenario, the
In the above embodiment, the second scenario is executed when the second object is detected, but the second scenario is not necessarily executed. For example, when detecting the first target and executing the first scenario, the
上記実施形態では、表示画像設定部165は、検出された第1対象としての魚FSの位置などに対応付けてAR画像を画像表示最大領域PNに表示させたが、画像を表示させる位置については、種々変形可能である。例えば、表示画像設定部165は、特定の対象物が検出された場合に、特定の対象物の位置に関わらず、画像表示最大領域PNとの関係において、AR画像を表示させる位置を設定してもよい。
In the above embodiment, the display
上記実施形態では、使用者の作業を支援するARシナリオとして、魚FSの調理方法やタイヤTRの交換を例に挙げて説明したが、これらに限られず、種々変形可能である。例えば、工場の特定の作業を支援するARシナリオであってもよいし、ゴルフなどのスポーツにおけるスポーツ用具の使い方をレクチャーするARシナリオであってもよい。 In the above embodiment, the AR scenario for supporting the user's work has been described by taking the cooking method of the fish FS and the replacement of the tire TR as examples. However, the present invention is not limited to these, and various modifications are possible. For example, it may be an AR scenario that supports specific work in a factory, or an AR scenario that lectures how to use sports equipment in sports such as golf.
上記実施形態では、マイク63、イヤホン32,34、音声処理部170がHMD100の構成に含まれていたが、必ずしも必要ではなく、マイク63等がなくてもよい。
In the above embodiment, the
C−3.変形例3:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、カメラ61が画像表示部20に配置されたが、カメラ61が画像表示部20とは別体に構成され、外景SCを撮像できてもよい。また、制御部10の構成するCPU140や電源130が画像表示部20に全て搭載されたHMD100であってもよい。このHMD100では、画像表示部20と別体で構成されるコントローラーがないため、より小型化できる。また、制御部10と画像表示部20とのそれぞれに、CPU140が搭載されることで、制御部10がコントローラー単体として使用され、画像表示部20が表示装置単体として使用されてもよい。
C-3. Modification 3:
In the above embodiment, the
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMD100に対して本発明を適用することも可能である。また、画像表示最大領域PNは、各画素に形成されたMEMSシャッターを開閉するMEMSシャッター方式のディスプレイによって構成されてもよい。
For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to the laser retinal
また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。また、HMD100の代わりに、使用者の頭部に装着されるのではなく、双眼鏡のように使用者が手で位置を固定するハンドヘルドディスプレイが画像表示装置として用いられてもよい。また、HMD100は、両眼タイプの光学透過型であるとしているが、本発明は、例えば、ビデオ透過型といった他の形式の頭部装着型表示装置にも同様に適用可能である。
Further, for example, the
また、HMD100は、他の装置から受信した画像信号に基づく画像を表示するためだけの表示装置と用いられてもよい。具体的には、デスクトップ型のPCのモニターに相当する表示装置として用いられ、例えば、デスクトップ型のPCから画像信号を受信することで、画像表示部20の画像表示最大領域PNに画像が表示されてもよい。
Moreover, HMD100 may be used with the display apparatus only for displaying the image based on the image signal received from the other apparatus. Specifically, it is used as a display device corresponding to a desktop PC monitor. For example, by receiving an image signal from a desktop PC, an image is displayed in the maximum image display area PN of the
また、HMD100は、システムの一部として機能するように用いられてもよい。例えば、航空機を含むシステムの一部の機能を実行するための装置としてHMD100が用いられてもよいし、HMD100が用いられるシステムとしては、航空機を含むシステムに限られず、自動車や自転車など含むシステムであってもよい。
Moreover, HMD100 may be used so that it may function as a part of system. For example, the
また、イヤホンは耳掛け型やヘッドバンド型が採用されてもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載される頭部装着型表示装置として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。 The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-mounted display device mounted on a vehicle such as an automobile or an airplane. For example, it may be configured as a head-mounted display device built in a body protective device such as a helmet.
C−4.変形例4:
上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16を省略したり、方向キー16やトラックパッド14に加えて、操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
C-4. Modification 4:
The configuration of the
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34は、適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。
As the image display unit, instead of the
図15は、変形例におけるHMDの外観構成を示す説明図である。図15(A)の例の場合、図1に示したHMD100との違いは、画像表示部20xが、右光学像表示部26に代えて右光学像表示部26xを備える点と、左光学像表示部28に代えて左光学像表示部28xを備える点とである。右光学像表示部26xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の左眼の斜め上に配置されている。図15(B)の例の場合、図1に示したHMD100との違いは、画像表示部20yが、右光学像表示部26に代えて右光学像表示部26yを備える点と、左光学像表示部28に代えて左光学像表示部28yを備える点とである。右光学像表示部26yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。
FIG. 15 is an explanatory diagram showing an external configuration of an HMD in a modified example. 15A, the difference from the
また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。
In the above-described embodiment, the
また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。 In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.
また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。
Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the
本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン(音声出力部)
34…左イヤホン(音声出力部)
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(検出部)
63…マイク(音声取得部)
90…生体情報取得センサー(生体情報取得部)
100…HMD
120…記憶部
130…電源
132…無線通信部(受信部)
135…操作部
138…シナリオDB
140…CPU
150…オペレーティングシステム
160…画像処理部
165…表示画像設定部
168…物体認識部(検出部)
169…生体情報処理部(生体情報取得部)
170…音声処理部(音声取得部、音声出力部)
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
IMG1…選択画像
OA…外部機器
SC…外景
BC…まな板
HD…腕
LE…左眼
RE…右眼
LG…足(第2の対象)
RH…右手
LH…左手
IL…照明光
PL…画像光
EL…端部
PN…画像表示最大領域
KN…包丁(第2の対象)
RN…工具(第2の対象)
AP…先端部
VR…視野
TR…タイヤ(第1の対象)
ER…端部
SS…筋力センサー(生体情報取得部)
FS…魚(第1の対象)
BT…ボルト(第1の対象)
CB1,CB2…切身
MB…中骨
AR1,AR2,AR3,AR4,AR5,AR6…画像
CS1,CS2,CS3…矢印画像
TX1,TX2,TX3,TX4,TX5,TX6…テキスト画像
ARH…腕画像
ARR…工具画像
ARS…筋力センサー画像
DESCRIPTION OF
34 ... Left earphone (voice output unit)
DESCRIPTION OF
63 ... Microphone (voice acquisition unit)
90 ... Biometric information acquisition sensor (Biometric information acquisition unit)
100 ... HMD
120:
135 ...
140 ... CPU
DESCRIPTION OF
169 ... Biological information processing unit (biological information acquisition unit)
170 ... Audio processing unit (audio acquisition unit, audio output unit)
180 ... interface 190 ...
242 ... Left LCD
251 ... Right projection
RH ... Right hand LH ... Left hand IL ... Illumination light PL ... Image light EL ... End PN ... Maximum image display area KN ... Knife (second object)
RN ... Tool (second target)
AP ... tip portion VR ... visual field TR ... tire (first object)
ER ... end SS ... muscle force sensor (biological information acquisition unit)
FS ... Fish (first target)
BT ... Bolt (first target)
CB1, CB2 ... fillet MB ... middle bone AR1, AR2, AR3, AR4, AR5, AR6 ... image CS1, CS2, CS3 ... arrow image TX1, TX2, TX3, TX4, TX5, TX6 ... text image ARH ... arm image ARR ... Tool image ARS ... Muscle sensor image
Claims (12)
外景の中から第1の対象を検出する検出部と、
前記外景を透過可能で、画像を表示可能な画像表示部と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備え、
前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、頭部装着型表示装置。 A transmissive head-mounted display device,
A detection unit for detecting a first object from the outside scene;
An image display unit capable of transmitting the outside scene and displaying an image;
A display image setting unit that displays a first moving image that is a moving image associated with the detected first object on the image display unit,
The detection unit detects a second object different from the first object from the outside scene,
When the second target is detected when the first moving image is displayed on the image display unit, the display image setting unit replaces the first moving image with the second moving image. A head-mounted display device that causes a second moving image, which is a moving image different from the first moving image associated with the target, to be displayed on the image display unit.
前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示する、頭部装着型表示装置。 The head-mounted display device according to claim 1,
The display image setting unit is a head-mounted display device that displays the first moving image in association with the detected position of the first target.
前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出する、頭部装着型表示装置。 The head-mounted display device according to claim 1 or 2,
The detection unit is a head-mounted display device that images the outside scene and detects the first target from the captured images.
前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像である、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 3,
The head-mounted display device, wherein the first moving image is a moving image related to a work performed on the detected first object.
外部の音声を取得する音声取得部を備え、
前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4, further comprising:
It has an audio acquisition unit that acquires external audio,
The display image setting unit is a head-mounted display device that displays the first moving image on the image display unit based on a combination of the detected first target and the acquired sound.
前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備える、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 5, further comprising:
A head-mounted display device comprising an audio output unit that outputs audio associated with the first moving image when the first moving image is displayed on the image display unit.
使用者の生体情報を取得する生体情報取得部を備え、
前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 6, further comprising:
A biometric information acquisition unit for acquiring biometric information of the user;
The display image setting unit displays the first moving image on the image display unit based on the detected first target and the acquired biological information of the user. apparatus.
前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせである、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 7,
The first object and the first moving image are associated with each other by detecting the type of the first object, the movement of the first object, the position of the first object in the outside scene, and the first object. A head-mounted display device that is a combination of at least one of the orientations of one object and the first moving image.
前記検出部は、前記第1の対象および前記第2の対象を含む複数の特定の対象物を検出し、
前記表示画像設定部は、検出された前記複数の特定の対象物のうち設定された優先度が高い特定の対象物に対応付けられた動画像を優先的に前記画像表示部に表示させる、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 8,
The detection unit detects a plurality of specific objects including the first object and the second object,
The display image setting unit is configured to preferentially display a moving image associated with a specific object having a high priority set among the plurality of detected specific objects on the image display unit. Part-mounted display device.
前記記憶装置は、
動画像を記憶する記憶部と、
記憶された前記動画像を前記頭部装着型表示装置へと送信する送信部と、を備え、
前記頭部装着型表示装置は、
外景の中から第1の対象を検出する検出部と、
前記外景を透過可能で、画像を表示可能な画像表示部と、
検出された前記第1の対象に対応付けられ、前記記憶装置に記憶された前記動画像である第1の動画像を受信する受信部と、
前記第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備え、
前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、表示システム。 A display system having a storage device and a transmissive head-mounted display device,
The storage device
A storage unit for storing moving images;
A transmission unit for transmitting the stored moving image to the head-mounted display device,
The head-mounted display device is
A detection unit for detecting a first object from the outside scene;
An image display unit capable of transmitting the outside scene and displaying an image;
A receiving unit that receives the first moving image that is the moving image that is associated with the detected first object and stored in the storage device;
A display image setting unit for displaying the first moving image on the image display unit,
The detection unit detects a second object different from the first object from the outside scene,
When the second target is detected when the first moving image is displayed on the image display unit, the display image setting unit replaces the first moving image with the second moving image. A display system for causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
外景の中から第1の対象を検出する検出工程と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定工程と、を備え、
前記検出工程は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定工程は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、制御方法。 A control method for a transmissive head-mounted display device having an image display unit capable of transmitting an outside scene and displaying an image,
A detection step of detecting a first object from the outside scene;
A display image setting step of causing the image display unit to display a first moving image that is a moving image associated with the detected first object,
The detection step detects a second object different from the first object from the outside scene,
In the display image setting step, when the second moving object is detected while the first moving image is displayed on the image display unit, the second moving image is used instead of the first moving image. A control method for causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
外景の中から第1の対象を検出する検出機能と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定機能と、をコンピューターに実現させ、
前記検出機能は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出する機能を含み、
前記表示画像設定機能は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる機能を含む、コンピュータープログラム。 A computer program for a transmissive head-mounted display device having an image display unit capable of transmitting an outside scene and displaying an image,
A detection function for detecting the first object from the outside scene;
Causing the computer to realize a display image setting function for causing the image display unit to display a first moving image that is a moving image associated with the detected first object;
The detection function includes a function of detecting a second object different from the first object from the outside scene,
When the second target is detected while the first moving image is being displayed on the image display unit, the display image setting function replaces the first moving image with the second moving image. A computer program including a function of causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014232342A JP6488661B2 (en) | 2014-11-17 | 2014-11-17 | Head-mounted display device, display system, head-mounted display device control method, and computer program |
CN201510623115.0A CN105607253B (en) | 2014-11-17 | 2015-09-25 | Head-mounted display device, control method, and display system |
US14/919,231 US9746914B2 (en) | 2014-11-17 | 2015-10-21 | Head mounted display, display system, control method of head mounted display, and computer program |
US15/657,937 US10185388B2 (en) | 2014-11-17 | 2017-07-24 | Head mounted display, display system, control method of head mounted display, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014232342A JP6488661B2 (en) | 2014-11-17 | 2014-11-17 | Head-mounted display device, display system, head-mounted display device control method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016096488A JP2016096488A (en) | 2016-05-26 |
JP6488661B2 true JP6488661B2 (en) | 2019-03-27 |
Family
ID=56070423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014232342A Active JP6488661B2 (en) | 2014-11-17 | 2014-11-17 | Head-mounted display device, display system, head-mounted display device control method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6488661B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6783618B2 (en) * | 2016-10-18 | 2020-11-11 | 株式会社日立システムズ | Information display device and its processing control method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165531A (en) * | 2003-12-01 | 2005-06-23 | Canon Inc | Information apparatus, its control method and program |
JP5293025B2 (en) * | 2008-09-11 | 2013-09-18 | ブラザー工業株式会社 | Head mounted display |
JP5104679B2 (en) * | 2008-09-11 | 2012-12-19 | ブラザー工業株式会社 | Head mounted display |
JP5168161B2 (en) * | 2009-01-16 | 2013-03-21 | ブラザー工業株式会社 | Head mounted display |
JP5195537B2 (en) * | 2009-03-09 | 2013-05-08 | ブラザー工業株式会社 | Head mounted display |
JP5141672B2 (en) * | 2009-11-30 | 2013-02-13 | ブラザー工業株式会社 | Head mounted display device and image sharing system using head mounted display device |
JP6076099B2 (en) * | 2013-01-18 | 2017-02-08 | オリンパス株式会社 | Glasses-type operating device and glasses-type operating system |
JP6299067B2 (en) * | 2013-02-14 | 2018-03-28 | セイコーエプソン株式会社 | Head-mounted display device and method for controlling head-mounted display device |
JP6089898B2 (en) * | 2013-04-09 | 2017-03-08 | ソニー株式会社 | Image processing apparatus and storage medium |
-
2014
- 2014-11-17 JP JP2014232342A patent/JP6488661B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016096488A (en) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10185388B2 (en) | Head mounted display, display system, control method of head mounted display, and computer program | |
US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
US10133344B2 (en) | Head mounted display apparatus | |
US11176681B2 (en) | Image processing apparatus, control method for image processing apparatus, and computer program | |
US10140768B2 (en) | Head mounted display, method of controlling head mounted display, and computer program | |
US9547372B2 (en) | Image processing device and head mounted display apparatus including the same | |
JP6155622B2 (en) | Display device, head-mounted display device, display device control method, and head-mounted display device control method | |
JP6421543B2 (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP6600945B2 (en) | Head-mounted display device, head-mounted display device control method, and computer program | |
JP6492673B2 (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP2018142168A (en) | Head mounted type display device, program, and control method for head mounted type display device | |
JP2017091433A (en) | Head-mounted type display device, method of controlling head-mounted type display device, and computer program | |
JP6364735B2 (en) | Display device, head-mounted display device, display device control method, and head-mounted display device control method | |
JP6358038B2 (en) | Head-mounted display device, method for controlling head-mounted display device, computer program | |
JP6620420B2 (en) | Head-mounted display device, display system, head-mounted display device control method, and computer program | |
JP2019012537A (en) | Head mounted display device and computer program | |
JP6488661B2 (en) | Head-mounted display device, display system, head-mounted display device control method, and computer program | |
US9866823B2 (en) | Head mounted display device, control method for head mounted display device, and computer program | |
JP2017134630A (en) | Display device, control method of display device, and program | |
JP2018085595A (en) | Head-mounted display device and method for controlling the same | |
JP6287399B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP2018092206A (en) | Head-mounted display, program, and method for controlling head-mounted display | |
JP2019053714A (en) | Head mounted display device and control method for head mounted display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6488661 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |