JP6488661B2 - Head-mounted display device, display system, head-mounted display device control method, and computer program - Google Patents

Head-mounted display device, display system, head-mounted display device control method, and computer program Download PDF

Info

Publication number
JP6488661B2
JP6488661B2 JP2014232342A JP2014232342A JP6488661B2 JP 6488661 B2 JP6488661 B2 JP 6488661B2 JP 2014232342 A JP2014232342 A JP 2014232342A JP 2014232342 A JP2014232342 A JP 2014232342A JP 6488661 B2 JP6488661 B2 JP 6488661B2
Authority
JP
Japan
Prior art keywords
image
unit
display
moving image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014232342A
Other languages
Japanese (ja)
Other versions
JP2016096488A (en
Inventor
青沼 正志
正志 青沼
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014232342A priority Critical patent/JP6488661B2/en
Priority to CN201510623115.0A priority patent/CN105607253B/en
Priority to US14/919,231 priority patent/US9746914B2/en
Publication of JP2016096488A publication Critical patent/JP2016096488A/en
Priority to US15/657,937 priority patent/US10185388B2/en
Application granted granted Critical
Publication of JP6488661B2 publication Critical patent/JP6488661B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Description

本発明は、頭部装着型表示装置の技術に関する。   The present invention relates to a head-mounted display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。   A head-mounted display device (Head Mounted Display, HMD) that is a display device mounted on the head is known. The head-mounted display device is used, for example, by generating image light using a liquid crystal display and a light source, and guiding the generated image light to a user's eye using a projection optical system or a light guide plate Make the person visually recognize the virtual image. There are two types of head-mounted display devices: a transmission type in which the user can visually recognize the outside scene in addition to a virtual image, and a non-transmission type in which the user cannot visually recognize the outside scene. The transmissive head-mounted display device includes an optical transmissive type and a video transmissive type.

特許文献1には、所定の範囲に静止している静止物体に対して超音波を照射することで、超音波を照射した超音波センサーから静止物体までの距離情報を取得し、距離情報に基づいて静止物体の立体像を取得する物体の自動認識方法が開示されている。また、特許文献2には、ゴルフクラブのヘッドに慣性センサーのデータを取得するセンサーユニットが搭載され、使用者が当該ゴルフクラブをスイングすると、当該ゴルフクラブと無線通信によって接続されている解析処理装置が慣性センサーによって取得されたデータを解析するゴルフクラブの解析システムが開示されている。   In Patent Document 1, information on the distance from an ultrasonic sensor irradiated with ultrasonic waves to a stationary object is obtained by irradiating ultrasonic waves to a stationary object that is stationary within a predetermined range, and based on the distance information. An automatic object recognition method for obtaining a three-dimensional image of a stationary object is disclosed. Further, Patent Document 2 includes an analysis processing device in which a sensor unit that acquires inertial sensor data is mounted on a golf club head, and is connected to the golf club by wireless communication when the user swings the golf club. Discloses a golf club analysis system for analyzing data acquired by inertial sensors.

特開平8−75418号公報JP-A-8-75418 特開2011−60462号公報JP 2011-60462 A

しかし、特許文献1に記載された技術では、1つの静止した物体の立体像を認識することしかできず、動いている物体や複数の物体の立体像を認識したいという課題があった。また、特許文献2に記載された技術では、センサーユニットが搭載されたゴルフクラブの慣性のデータは取得できるものの、センサーが搭載されていない物体についての動きなどのデータが取得できず、これらのデータを取得したいという課題があった。そのほか、従来の頭部装着型表示装置においては、使い勝手の向上等が望まれていた。   However, the technique described in Patent Document 1 can only recognize a three-dimensional image of one stationary object, and has a problem of recognizing a moving object or a plurality of objects. Further, in the technique described in Patent Document 2, although data of inertia of a golf club equipped with a sensor unit can be obtained, data such as movement of an object not equipped with a sensor cannot be obtained. There was a problem of wanting to get. In addition, in the conventional head-mounted display device, improvement in usability has been desired.

本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。   The present invention has been made to solve the above-described problems, and can be realized as the following forms.

(1)本発明の一形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、外景の中から第1の対象を検出する検出部と;前記外景を透過可能で、画像を表示可能な画像表示部と;検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備える。この形態の頭部装着型表示装置によれば、使用者は、透過して視認できる実物に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などを向上させることができる。 (1) According to one aspect of the present invention, a transmissive head-mounted display device is provided. The head-mounted display device includes: a detection unit that detects a first object from an outside scene; an image display unit that can transmit the outside scene and display an image; and the detected first object A display image setting unit that causes the image display unit to display a first moving image that is an associated moving image. According to the head-mounted display device of this embodiment, the user can perform work and the like while visually recognizing the moving image displayed in conformity with the real thing that can be seen through. Efficiency etc. can be improved.

(2)上記形態の頭部装着型表示装置において、前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示してもよい。この形態の頭部装着型表示装置によれば、使用者は、実物の位置に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などをさらに向上させることができる。 (2) In the head mounted display device of the above aspect, the display image setting unit may display the first moving image in association with the detected position of the first target. According to this form of the head-mounted display device, the user can perform work while visually recognizing the moving image displayed in accordance with the actual position, so the efficiency of the user's work, etc. Can be further improved.

(3)上記形態の頭部装着型表示装置において、前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出してもよい。この形態の頭部装着型表示装置によれば、第1の対象を画像として検出するため、第1の対象の検出の精度を向上させることができる。 (3) In the head-mounted display device of the above aspect, the detection unit may capture the outside scene and detect the first target from the captured image. According to this form of the head-mounted display device, since the first object is detected as an image, the accuracy of detection of the first object can be improved.

(4)上記形態の頭部装着型表示装置において、前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像であってもよい。この形態の頭部装着型表示装置によれば、使用者は、作業の推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。 (4) In the head-mounted display device of the above aspect, the first moving image may be a moving image related to a work performed on the detected first object. According to this form of the head-mounted display device, the user can more easily recognize the recommended operation of the work, and the efficiency of the user's work is further improved.

(5)上記形態の頭部装着型表示装置において、前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し;前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、適宜、状況に適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。 (5) In the head-mounted display device of the above aspect, the detection unit detects a second target different from the first target from the outside scene; the display image setting unit is configured to display the image If the second target is detected while the first moving image is displayed on the display unit, the first moving image associated with the second target is used instead of the first moving image. A second moving image that is a moving image different from the first moving image may be displayed on the image display unit. According to the head-mounted display device of this aspect, the user can be made to visually recognize an image suitable for the situation as appropriate, so that the user's convenience is further improved.

(6)上記形態の頭部装着型表示装置において、さらに;外部の音声を取得する音声取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に加えて、使用者は、第1の動画像を操作できるため、使用者の使い勝手がさらに向上する。 (6) The head-mounted display device according to the above aspect further includes: an audio acquisition unit that acquires external audio; the display image setting unit includes the detected first object and the acquired audio Based on this combination, the first moving image may be displayed on the image display unit. According to the head-mounted display device of this form, in addition to the detected first object, the user can operate the first moving image, so that the usability of the user is further improved.

(7)上記形態の頭部装着型表示装置において、さらに;前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備えてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、第1の動画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。 (7) In the head-mounted display device according to the above aspect, further, when the first moving image is displayed on the image display unit, a sound associated with the first moving image is output. An audio output unit may be provided. According to this form of the head-mounted display device, the user can be made to recognize information by voice in addition to the first moving image, and the user can more visually and auditorily. Information can be recognized and user convenience is improved.

(8)上記形態の頭部装着型表示装置において、さらに;使用者の生体情報を取得する生体情報取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に、取得された使用者の生体情報も加えた動画像を使用者に視認させることができ、使用者の利便性がさらに向上する。 (8) The head mounted display device according to the above aspect further includes: a biological information acquisition unit that acquires biological information of the user; the display image setting unit is acquired as the detected first object. The first moving image may be displayed on the image display unit based on the biological information of the user. According to this form of the head-mounted display device, the user can visually recognize a moving image obtained by adding the acquired biological information of the user to the detected first target, which is convenient for the user. Is further improved.

(9)上記形態の頭部装着型表示装置において、前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせであってもよい。この形態の頭部装着型表示装置によれば、複数の要素によって種々の動画像が選択されるため、使用者は、種々の動画像から簡単に所望の動画像を選択できる。 (9) In the head-mounted display device of the above aspect, the association between the first object and the first moving image is performed by detecting the type of the first object and the movement of the first object. A combination of at least one of the position of the first object and the orientation of the first object in the outside scene and the first moving image. According to the head-mounted display device of this aspect, since various moving images are selected by a plurality of elements, the user can easily select a desired moving image from various moving images.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、検出部と、画像表示部と、表示画像設定部と、3つの要素の内の一つまたは二つ以上を備えた装置として実現可能である。すなわち、この装置は、検出部を有していてもよく、有していなくてもよい。また、装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、表示画像設定部を有していてもよく、有していなくてもよい。検出部は、例えば、外景の中から第1の対象を検出してもよい。画像表示部は、例えば、前記外景を透過可能で、画像を表示可能であってもよい。表示画像設定部は、例えば、検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, an embodiment of the present invention can be realized as a device including a detection unit, an image display unit, a display image setting unit, and one or more of three elements. That is, this apparatus may or may not have the detection unit. Further, the apparatus may or may not have an image display unit. The apparatus may or may not have a display image setting unit. For example, the detection unit may detect the first target from the outside scene. For example, the image display unit may be capable of transmitting the outside scene and displaying an image. For example, the display image setting unit may cause the image display unit to display a first moving image that is a moving image associated with the detected first target. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, it is possible to solve at least one of various problems such as improvement and simplification of the operability of the device, integration of the device, and improvement of convenience of the user who uses the device. it can. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示システム、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, a display system, a head-mounted display device control method, an information system having a head-mounted display device, a head-mounted display device control method, a computer program for realizing the information system, and the computer program The present invention can be realized in the form of a recorded recording medium and a data signal including the computer program and embodied in a carrier wave.

頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of a head mounting type display apparatus (HMD). HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. ARシナリオ実行処理のフローチャートである。It is a flowchart of AR scenario execution processing. 複数のARシナリオから実行される第1シナリオを選択するときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when selecting the 1st scenario performed from several AR scenarios. ARシナリオに含まれるAR画像が光学像表示部に表示されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when AR image contained in AR scenario is displayed on the optical image display part. 撮像画像の中から第2の対象が検出されて第2シナリオが実行されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when a 2nd target is detected from a captured image and a 2nd scenario is performed. 撮像画像の中から第3の対象が検出されて第3シナリオが実行されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when a 3rd target is detected from a captured image and a 3rd scenario is performed. 第3シナリオが終了した後に実行される第4シナリオが実行されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when the 4th scenario performed after the 3rd scenario is complete | finished is performed. 図9のテキスト画像の内の選択肢が選択された後に使用者が視認する視野を示す画像である。It is an image which shows the visual field which a user visually recognizes after the choice in a text image of Drawing 9 is chosen. 第2実施形態のHMDの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of HMD of 2nd Embodiment. 第1の対象が検出されてタイヤ交換シナリオが実行されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when a 1st object is detected and a tire exchange scenario is performed. タイヤ交換シナリオが実行されているときに第2の対象が検出された場合に使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when a 2nd object is detected when the tire replacement scenario is performed. 第1の対象が検出されたタイヤ交換シナリオが実行されたときに使用者が視認する視野を示す説明図である。It is explanatory drawing which shows the visual field which a user visually recognizes when the tire replacement scenario in which the 1st object was detected is performed. 変形例におけるHMDの外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of HMD in a modification.

A.第1実施形態:
A−1.頭部装着型表示装置(HMD)の構成:
図1は、頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。
A. First embodiment:
A-1. Configuration of head mounted display (HMD):
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD 100). The HMD 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 according to the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time visually recognize an outside scene. In this specification, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control unit 10 (controller 10) that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a microphone 63. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。   The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。そのため、カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。   The camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20. Therefore, the camera 61 captures an outside scene that is an external scenery in the direction of the user's line of sight in a state where the user wears the image display unit 20 on the head, and acquires a captured image that is the captured image. The camera 61 is a monocular camera, but may be a stereo camera.

マイク63は、外部の音声を取得する。マイク63は、使用者が画像表示部20を装着した際の右表示駆動部22における使用者と対向する側の反対側(外側)に配置されている。なお、マイク63は、請求項における音声取得部に相当する。   The microphone 63 acquires external sound. The microphone 63 is disposed on the opposite side (outside) of the right display driving unit 22 when facing the user in the right display driving unit 22 when the user wears the image display unit 20. The microphone 63 corresponds to the sound acquisition unit in the claims.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 that are connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46の反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits to each other is provided on each of the end of the main body cord 48 opposite to the connecting member 46 and the control unit 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control unit 10, the control unit 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control unit 10. The lighting unit 12 notifies the operation state of the HMD 100 according to the light emission state. The operation state of the HMD 100 includes, for example, power ON / OFF. For example, an LED is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、操作部135と、無線通信部132と、シナリオデータベース138(シナリオDB138)と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. As shown in FIG. 2, the control unit 10 includes a storage unit 120, a power supply 130, an operation unit 135, a wireless communication unit 132, a scenario database 138 (scenario DB 138), a CPU 140, an interface 180, and a transmission unit. 51 (Tx51) and a transmitter 52 (Tx52). The operation unit 135 receives an operation by the user and includes an enter key 11, a display switch key 13, a track pad 14, a luminance switch key 15, a direction key 16, a menu key 17, and a power switch 18.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、コンテンツサーバー、テレビ、パーソナルコンピューターといった他の機器との間で無線通信を行なう。   The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with other devices such as a content server, a television, and a personal computer in accordance with a predetermined wireless communication standard such as a wireless LAN or Bluetooth.

記憶部120は、ROMやRAM等によって構成されている。記憶部120のROMには、種々のコンピュータープログラムが格納されている。後述するCPU140は、記憶部120のROMから各種コンピュータープログラムを読み取り、記憶部120のRAMに格納することで、各種コンピュータープログラムを実行する。   The storage unit 120 is configured by a ROM, a RAM, or the like. Various computer programs are stored in the ROM of the storage unit 120. The CPU 140 to be described later executes various computer programs by reading various computer programs from the ROM of the storage unit 120 and storing them in the RAM of the storage unit 120.

シナリオDB138は、AR(Augmented Reality)画像を含む複数の動画であるARシナリオを記憶している。本実施形態におけるARシナリオは、カメラ61の撮像画像の中から予め設定された特定の対象物が検出されると、画像表示部20に表示されるAR画像や、イヤホン32,34を介して出力される音声を含む動画である。他の実施形態では、単に、何らかの動画を含むデータをARシナリオとしてみなすこともでき、ARシナリオに含まれる動画としては、テキスト画像のポップアップ等であってもよい。シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶している。分類されたカテゴリーとしては、例えば、料理、家電の取扱、スケジュール管理などがある。なお、HMD100は、シナリオDB138に記憶されたARシナリオだけではなく、無線通信部132を介して、他の装置から受信するARシナリオを実行することもできる。   The scenario DB 138 stores an AR scenario that is a plurality of moving images including an AR (Augmented Reality) image. The AR scenario in the present embodiment is output via the AR image displayed on the image display unit 20 or the earphones 32 and 34 when a predetermined target object is detected from the captured image of the camera 61. It is a moving image that includes audio. In another embodiment, data including any moving image may be regarded as an AR scenario. The moving image included in the AR scenario may be a text image pop-up or the like. The scenario DB 138 stores a plurality of AR scenarios classified into several categories. Examples of classified categories include cooking, home appliance handling, and schedule management. Note that the HMD 100 can execute not only the AR scenario stored in the scenario DB 138 but also an AR scenario received from another device via the wireless communication unit 132.

CPU140は、記憶部120のROMに格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、表示画像設定部165、および、物体認識部168として機能する。   The CPU 140 reads out and executes a computer program stored in the ROM of the storage unit 120, thereby operating the operating system 150 (OS 150), the display control unit 190, the sound processing unit 170, the image processing unit 160, and the display image setting unit 165. , And the object recognition unit 168.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。なお、画像光を生成することを「画像を表示する」ともいう。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light. Note that generating image light is also referred to as “displaying an image”.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を画像表示部20の受信部53,54へと送信する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 acquires an image signal included in the content, and transmits the acquired image signal to the reception units 53 and 54 of the image display unit 20 via the transmission units 51 and 52. Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63によって取得された音声を、制御信号として表示画像設定部165に送信する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example. In addition, the audio processing unit 170 transmits the audio acquired by the microphone 63 to the display image setting unit 165 as a control signal.

物体認識部168は、パターンマッチングや統計的識別法によって、カメラ61の撮像画像の中から、シナリオDB138に記憶されている複数のARシナリオに対応付けられている特定の対象の画像である第1の対象の画像を検出する。本実施形態では、シナリオDB138に記憶された複数のARシナリオを分類したカテゴリーが選択された後に、物体認識部168は、選択されたカテゴリーに含まれるARシナリオに対応付けられている第1の対象の画像を検出する。以降では、撮像画像の中から、特定の対象の画像が検出されることを、単に、特定の対象が検出されるともいう。なお、物体認識部168は、実行されているARシナリオの状況などに応じて、第1の対象とは異なる特定の対象である第2の対象や第3の対象等も撮像画像の中から検出する。物体認識部168は、撮像画像の中から第1の対象を検出すると、検出した第1の対象と、検出した第1の対象に対応付けられたARシナリオと、の情報を表示画像設定部165へと送信する。なお、カメラ61および物体認識部168は、請求項における検出部に相当する。また、第1の対象に対応付けられたARシナリオは、請求項における第1の動画像に相当する。他の実施形態では、物体認識部168は、撮像画像の中から、無線通信部132によって他の装置から受信したARシナリオに対応付けられた第1の対象を検出してもよいし、インターフェイス180を介して接続されたUSBメモリ等に記憶されたARシナリオに対応付けられた第1の対象を検出してもよい。なお、無線通信部132は、請求項における受信部に相当する。また、無線通信部132によって通信する他の装置は、請求項における記憶装置に相当する。   The object recognizing unit 168 is a first image that is a specific target associated with a plurality of AR scenarios stored in the scenario DB 138 from images captured by the camera 61 by pattern matching or statistical identification. Detect the target image. In the present embodiment, after a category in which a plurality of AR scenarios stored in the scenario DB 138 are classified is selected, the object recognition unit 168 includes the first target associated with the AR scenario included in the selected category. Detect the image. Hereinafter, detecting an image of a specific target from a captured image is simply referred to as detecting a specific target. The object recognizing unit 168 also detects a second target, a third target, and the like, which are specific targets different from the first target, from the captured image according to the status of the AR scenario being executed. To do. When the object recognition unit 168 detects the first target from the captured image, the display image setting unit 165 displays information about the detected first target and the AR scenario associated with the detected first target. Send to. The camera 61 and the object recognition unit 168 correspond to the detection unit in the claims. The AR scenario associated with the first object corresponds to the first moving image in the claims. In other embodiments, the object recognition unit 168 may detect the first target associated with the AR scenario received from the other device by the wireless communication unit 132 from the captured image, or the interface 180. A first target associated with an AR scenario stored in a USB memory or the like connected via the network may be detected. The wireless communication unit 132 corresponds to a receiving unit in the claims. Further, another device that communicates with the wireless communication unit 132 corresponds to a storage device in the claims.

また、物体認識部168は、HMD100が何らかのARシナリオを実行しているときに、カメラ61の撮像画像の中から、第1の対象とは異なる特定の対象である第2の対象を検出することもできる。第2の対象は、第1の対象に対応付けられたARシナリオとは異なるARシナリオに対応付けられている。物体認識部168は、撮像画像の中から第2の対象を検出すると、表示画像設定部165に、検出した第2の対象と第2の対象に対応付けられているARシナリオの情報を送信する。   Further, the object recognition unit 168 detects a second target that is a specific target different from the first target from the captured image of the camera 61 when the HMD 100 is executing some AR scenario. You can also. The second object is associated with an AR scenario different from the AR scenario associated with the first object. When the object recognizing unit 168 detects the second target from the captured image, the object recognizing unit 168 transmits to the display image setting unit 165 information on the detected second target and the AR scenario associated with the second target. .

CPU140は、物体認識部168から送信された情報に基づいて、撮像画像の中から検出された特定の対象物に対応付けられたARシナリオを実行する。ARシナリオが実行されると、表示画像設定部165は、実行されるARシナリオに含まれる画像等を光学像表示部26,28に表示させる。表示画像設定部165は、ARシナリオに含まれる少なくとも1つのAR画像を、撮像画像の中から検出された特定の対象物の位置や向きに関連付けて画像表示部20に表示させる。ARシナリオには、検出される特定の対象物について優先度が設定されており、表示画像設定部165は、検出された特定の対象物の内、設定された優先度が高い特定の対象物に対応付けられた画像を優先的に光学像表示部26,28に表示させる。   Based on the information transmitted from the object recognition unit 168, the CPU 140 executes an AR scenario associated with a specific object detected from the captured image. When the AR scenario is executed, the display image setting unit 165 causes the optical image display units 26 and 28 to display images and the like included in the executed AR scenario. The display image setting unit 165 causes the image display unit 20 to display at least one AR image included in the AR scenario in association with the position and orientation of a specific target detected from the captured image. In the AR scenario, a priority is set for a specific object to be detected, and the display image setting unit 165 sets a specific object having a high priority among the detected specific objects. The associated image is preferentially displayed on the optical image display units 26 and 28.

CPU140は、何らかのARシナリオを実行しているときに、物体認識部168が第2の対象を検出すると、実行しているARシナリオとは異なる第2の対象に対応付けられた別のARシナリオを実行する。表示画像設定部165は、第2の対象が撮像画像の中から検出されると、実行されていたARシナリオに含まれる画像に代えて別のARシナリオに含まれる画像を光学像表示部26,28に表示させる。なお、第2の対象に対応付けられたARシナリオは、請求項における第2の動画像に相当する。   When the object recognition unit 168 detects the second target while executing some AR scenario, the CPU 140 selects another AR scenario associated with the second target different from the AR scenario being executed. Run. When the second target is detected from the captured image, the display image setting unit 165 replaces the image included in the AR scenario that has been executed with the image included in another AR scenario, the optical image display unit 26, 28. The AR scenario associated with the second object corresponds to the second moving image in the claims.

音声処理部170は、イヤホン32,34を介して、別のARシナリオに含まれる音声信号に基づく音声を出力する。また、音声処理部170は、イヤホン32,34を介して、ARシナリオに含まれる音声信号に基づく音声を出力する。音声処理部170は、マイク63から取得した音声に基づいて、各種処理を行なう。例えば、ARシナリオに選択肢が含まれる場合には、音声処理部170は、取得した音声に基づいて、選択肢の中から1つの選択肢を選択したりする。   The sound processing unit 170 outputs sound based on a sound signal included in another AR scenario via the earphones 32 and 34. In addition, the sound processing unit 170 outputs sound based on the sound signal included in the AR scenario via the earphones 32 and 34. The sound processing unit 170 performs various processes based on the sound acquired from the microphone 63. For example, when the AR scenario includes an option, the voice processing unit 170 selects one option from the options based on the acquired voice.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a storage device that stores an AR scenario, a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、マイク63と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a microphone 63.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160および表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the control signals transmitted from the image processing unit 160 and the display control unit 190. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit 54 (Rx54), a left backlight control unit 202 (left BL control unit 202) and a left backlight 222 (left BL222) that function as a light source, and a left LCD that functions as a display element. A control unit 212 and a left LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 3, the backlight system is adopted in the present embodiment, but the image light may be emitted using a front light system or a reflection system.

A−2.ARシナリオ実行処理:
図4は、ARシナリオ実行処理のフローチャートである。ARシナリオ実行処理は、CPU140が撮像画像の中から検出した対象に応じたARシナリオを実行する処理である。ARシナリオ実行処理では、初めに、CPU140は、操作部135がARシナリオを実行する所定の操作を受け付けたか否かを判定する(ステップS11)。本実施形態では、CPU140は、シナリオDB138に記憶されて分類されたARシナリオのカテゴリーを使用者に選択させるための画像を光学像表示部26,28に表示させる。CPU140は、ARシナリオを実行するための所定の操作として、光学像表示部26,28に表示させたARシナリオのカテゴリーの選択を受け付けたか否かを判定する。所定の操を受け付けていないと判定された場合には(ステップS11:NO)、CPU140は、ARシナリオ実行処理を終了する。なお、本実施形態では、ARシナリオのカテゴリーとして、「料理」が選択された場合について説明する。
A-2. AR scenario execution processing:
FIG. 4 is a flowchart of the AR scenario execution process. The AR scenario execution process is a process for executing an AR scenario corresponding to a target detected by the CPU 140 from the captured image. In the AR scenario execution process, first, the CPU 140 determines whether or not the operation unit 135 has received a predetermined operation for executing the AR scenario (step S11). In the present embodiment, the CPU 140 causes the optical image display units 26 and 28 to display images for allowing the user to select the AR scenario category stored and classified in the scenario DB 138. The CPU 140 determines whether or not the selection of the category of the AR scenario displayed on the optical image display units 26 and 28 has been accepted as a predetermined operation for executing the AR scenario. When it is determined that the predetermined operation has not been accepted (step S11: NO), the CPU 140 ends the AR scenario execution process. In the present embodiment, a case where “cooking” is selected as the category of the AR scenario will be described.

ステップS11の処理において、CPU140は、ARシナリオを実行する所定の操作を受け付けたと判定した場合には(ステップS11:YES)、カメラ61を介して、外景を撮像する(ステップS13)。次に、物体認識部168は、カメラ61が撮像した外景の撮像画像の中から、シナリオDB138に記憶されたARシナリオに対応付けられた特定の対象としての第1の対象の画像(以下、単に「第1の対象」ともいう)を検出する(ステップS15)。物体認識部168は、撮像画像の中から第1の対象を検出しない場合には(ステップS15:NO)、引き続き、撮像画像の中から第1の対象の検出を待機する(ステップS15)。撮像画像の中から第1の対象が検出された場合には(ステップS15:YES)、CPU140は、第1の対象に対応付けられている複数のARシナリオがあるか否かを判定する(ステップS17)。第1の対象に対応付けられている複数のARシナリオがあると判定された場合には(ステップS17:YES)、表示画像設定部165は、複数のARシナリオから1つのARシナリオを選択させるための選択画像を光学像表示部26,28に表示させて、使用者に1つのARシナリオを選択させる(ステップS19)。CPU140は、使用者によって実行する1つのARシナリオが選択されたと判定した場合(ステップS19)、選択されたARシナリオを実行する(ステップS21)。また、CPU140は、ステップS17の処理において複数のARシナリオがないと判定した場合には(ステップS17:NO)、自動的に1つのARシナリオを実行する。(ステップS21)。なお、以降では、実行する1つの当該ARシナリオを第1シナリオとも呼ぶ。   In the process of step S11, if the CPU 140 determines that a predetermined operation for executing the AR scenario has been received (step S11: YES), the CPU 140 images the outside scene via the camera 61 (step S13). Next, the object recognizing unit 168 selects a first target image (hereinafter simply referred to as a specific target) associated with the AR scenario stored in the scenario DB 138 from the captured images of the outside scene captured by the camera 61. (Also referred to as “first object”) is detected (step S15). If the object recognition unit 168 does not detect the first target from the captured image (step S15: NO), the object recognition unit 168 continues to wait for detection of the first target from the captured image (step S15). When the first target is detected from the captured image (step S15: YES), the CPU 140 determines whether or not there are a plurality of AR scenarios associated with the first target (step S15). S17). When it is determined that there are a plurality of AR scenarios associated with the first target (step S17: YES), the display image setting unit 165 selects one AR scenario from the plurality of AR scenarios. Are displayed on the optical image display units 26 and 28, and the user is allowed to select one AR scenario (step S19). If the CPU 140 determines that one AR scenario to be executed by the user has been selected (step S19), the CPU 140 executes the selected AR scenario (step S21). If the CPU 140 determines that there are not a plurality of AR scenarios in the process of step S17 (step S17: NO), it automatically executes one AR scenario. (Step S21). Hereinafter, one AR scenario to be executed is also referred to as a first scenario.

図5は、複数のARシナリオから実行される第1シナリオを選択するときに使用者が視認する視野VRを示す説明図である。図5には、光学像表示部26,28を透過して使用者に視認される外景SCと、光学像表示部26,28に表示された選択画像IMG1と矢印画像CS3とが示されている。選択画像IMG1および矢印画像CS3は、光学像表示部26,28において、画像を表示できる最大の領域である画像表示最大領域PN内に表示される。外景SCには、まな板BCと、板BCの上に載っている魚FSとが含まれる。魚FSの頭部から尾にかけての体の表面には、複数のうろこFSCが張り付いている。なお、本実施形態では、魚FSの種類は、鯛である。表示画像設定部165は、検出された魚FSと選択された「料理」のARシナリオのカテゴリーとに基づいて、魚FSに対応付けられた複数のARシナリオの候補を選択画像IMG1として画像表示最大領域PNに表示させる。図5の選択画像IMG1に示すように、魚FSに対応付けられたARシナリオの候補は、「1.三枚おろし」と「2.塩焼き」と「3.姿煮」とである。表示画像設定部165は、検出された魚FSの位置に関わらず、画像表示最大領域PNにおける固定の位置に選択画像IMG1を表示させる。操作部135が使用者の操作を受け付けることで、矢印画像CS3が画像表示最大領域PN内を移動する。矢印画像CS3が選択画像IMG1のいずれかの選択肢に重複した状態で操作部135が決定操作を受け付けると、CPU140は、実行する1つのARシナリオを選択する。なお、他の実施形態では、マイク63が音声入力を受け付けることで、選択画像IMG1のいずれかの選択肢が選択されてもよい。本実施形態では、第1シナリオとして「1.三枚おろし」が選択された場合について説明する。なお、図5および以降の図では、便宜上、画像表示最大領域PNを示しているものの、破線で示した画像表示最大領域PNの外枠は、使用者には視認されない。   FIG. 5 is an explanatory diagram showing a visual field VR visually recognized by the user when selecting a first scenario executed from a plurality of AR scenarios. FIG. 5 shows an external scene SC that is visible to the user through the optical image display units 26 and 28, and a selection image IMG1 and an arrow image CS3 displayed on the optical image display units 26 and 28. . The selected image IMG1 and the arrow image CS3 are displayed in the image display maximum area PN, which is the maximum area in which an image can be displayed, in the optical image display units 26 and 28. The outside scene SC includes a cutting board BC and a fish FS placed on the board BC. A plurality of scales FSC are attached to the body surface from the head to the tail of the fish FS. In the present embodiment, the type of fish FS is salmon. Based on the detected fish FS and the category of the selected “cooking” AR scenario, the display image setting unit 165 displays a plurality of AR scenario candidates associated with the fish FS as the selected image IMG1. Display in the area PN. As shown in the selection image IMG1 in FIG. 5, the AR scenario candidates associated with the fish FS are “1. Three pieces of grated”, “2. Salt grilled” and “3. The display image setting unit 165 displays the selected image IMG1 at a fixed position in the image display maximum area PN regardless of the position of the detected fish FS. When the operation unit 135 receives a user operation, the arrow image CS3 moves in the image display maximum area PN. When the operation unit 135 receives a determination operation in a state where the arrow image CS3 overlaps with any option of the selection image IMG1, the CPU 140 selects one AR scenario to be executed. In another embodiment, any option of the selection image IMG1 may be selected when the microphone 63 receives a voice input. In the present embodiment, a case will be described in which “1. In FIG. 5 and the subsequent drawings, the image display maximum area PN is shown for convenience, but the outer frame of the image display maximum area PN indicated by the broken line is not visually recognized by the user.

ARシナリオが実行されると、表示画像設定部165は、ARシナリオに含まれるAR画像を、物体認識部168によって特定された第1の対象の位置や向きに対応付けて画像表示最大領域PNに表示させる(ステップS23)。物体認識部168は、撮像画像の中の魚FSに対してパターンマッチングを行なうことで、撮像画像の中における魚FSが占める領域や座標の位置を特定する。物体認識部168は、特定した領域や座標の位置に基づいて、魚FSの頭の位置と尾の位置とを特定することで、撮像画像における魚FSの向きを特定する。表示画像設定部165は、特定された撮像画像の中の魚FSにおける予め定められた1つの座標に対応付けて、画像表示最大領域PN内に画像を表示させる。なお、本実施形態のARシナリオは、主に、HMD100の使用者の動作を支援する動画である。そのため、シナリオDB138に記憶されたARシナリオに含まれる動画は、使用者に促したい推奨動作である場合が多い。表示画像設定部165が画像表示部20に表示させた動画と同等の動作が使用者によって行なわれたと撮像画像によって判断した場合には、CPU140は、実行している第1シナリオを終了する、または、別のARシナリオを実行する。   When the AR scenario is executed, the display image setting unit 165 associates the AR image included in the AR scenario with the position and orientation of the first target specified by the object recognition unit 168 in the image display maximum region PN. It is displayed (step S23). The object recognizing unit 168 performs pattern matching on the fish FS in the captured image, thereby specifying the region and coordinate position occupied by the fish FS in the captured image. The object recognizing unit 168 specifies the direction of the fish FS in the captured image by specifying the head position and the tail position of the fish FS based on the specified region and coordinate position. The display image setting unit 165 displays an image in the image display maximum area PN in association with one predetermined coordinate of the fish FS in the specified captured image. The AR scenario of the present embodiment is mainly a moving image that supports the operation of the user of the HMD 100. Therefore, in many cases, the moving image included in the AR scenario stored in the scenario DB 138 is a recommended operation that the user wants to prompt. If the captured image determines that the display image setting unit 165 has performed an operation equivalent to the moving image displayed on the image display unit 20 by the user, the CPU 140 ends the first scenario being executed, or Execute another AR scenario.

図6は、ARシナリオに含まれるAR画像が画像表示最大領域PNに表示されたときに使用者が視認する視野VRを示す説明図である。図6には、シナリオDB138の中から「料理」のARシナリオのカテゴリーが選択された場合に、第1対象としての魚FSに対応付けられた「うろこ取り」のAR画像である画像AR1が表示されたときの視野VRが示されている。図6に示すように、画像表示最大領域PNに画像AR1が表示されるため、使用者は、光学像表示部26,28を透過する板BCおよび魚FSを含む外景SCを視認すると同時に、画像表示最大領域PNに表示された画像AR1を視認する。表示画像設定部165は、物体認識部168によって特定された魚FSの頭部と尾とを往復する画像AR1の動画を画像表示最大領域PN内に表示させる。画像AR1は、使用者にうろこ取りで魚FSのうろこを取る動作を支援する動画である。図6に示した矢印画像CS1は、画像AR1の頭と尾とを往復するイメージを示しており、矢印画像CS1が画像表示最大領域PN内に表示されるわけではない。なお、本実施形態では、カメラ61の画角と使用者が視認する視野VRとが同じになるように設定されている。   FIG. 6 is an explanatory diagram showing a visual field VR visually recognized by the user when an AR image included in the AR scenario is displayed in the image display maximum area PN. In FIG. 6, when the AR scenario category “cooking” is selected from the scenario DB 138, an image AR <b> 1 that is an AR image of “scale” that is associated with the fish FS as the first target is displayed. The field of view VR when it is done is shown. As shown in FIG. 6, since the image AR1 is displayed in the image display maximum area PN, the user visually recognizes the outside scene SC including the plate BC and the fish FS that pass through the optical image display units 26 and 28, and at the same time, the image The image AR1 displayed in the maximum display area PN is visually recognized. The display image setting unit 165 displays the moving image of the image AR1 that reciprocates between the head and tail of the fish FS specified by the object recognition unit 168 in the image display maximum region PN. The image AR1 is a moving image that assists the user to remove the scale of the fish FS by removing the scale. The arrow image CS1 shown in FIG. 6 shows an image that reciprocates between the head and tail of the image AR1, and the arrow image CS1 is not displayed in the image display maximum area PN. In the present embodiment, the angle of view of the camera 61 and the visual field VR visually recognized by the user are set to be the same.

図4のステップS23において、魚FSの位置や向きに対応付けられて画像AR1が画像表示最大領域PNに表示されると、物体認識部168は、画像AR1を含む実行されている「うろこ取り」のARシナリオが推奨する動作を使用者が行なったか否かを判定する(ステップS25)。物体認識部168は、「うろこ取り」の動作を使用者が行なったか否かの判定を、撮像画像の中から実物のうろこ取りの検出と、実物のうろこ取りの動きとに基づいて行なう。具体的な判定方法は、撮像画像の中から画像AR1に相当する実物のうろこ取りが検出され、検出された実物のうろこ取りが魚FSの頭部から尾までを予め設定された回数往復したか否かを検出することで判定する。   In step S23 of FIG. 4, when the image AR1 is displayed in the image display maximum area PN in association with the position and orientation of the fish FS, the object recognition unit 168 performs “scale removal” including the image AR1. It is determined whether or not the user has performed an operation recommended by the AR scenario (step S25). The object recognition unit 168 determines whether or not the user has performed the “scale removal” operation based on the detection of the actual scale removal from the captured image and the movement of the actual scale removal. A specific determination method is that the actual scale removal corresponding to the image AR1 is detected from the captured image, and the detected scale removal has reciprocated from the head to the tail of the fish FS a predetermined number of times. Judgment is made by detecting whether or not.

ステップS25の処理において、物体認識部168は、実行されている第1シナリオが推奨する動作を使用者が行なっていないと判定した場合には(ステップS25:NO)、物体認識部168は、撮像画像の中から、第1シナリオとは異なるARシナリオである第2シナリオに対応付けられた第2の対象の画像(以下、単に「第2の対象」とも呼ぶ)を検出する(ステップS27)。撮像画像の中から第2の対象が検出された場合には(ステップS27:YES)、CPU140は、第2の対象に対応付けられた第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、第2シナリオに含まれるAR画像を、検出された第2の対象の位置や向きに対応付けて、画像表示最大領域PN内に表示させる(ステップS23)。   In the process of step S25, when the object recognition unit 168 determines that the user does not perform the action recommended by the first scenario being executed (step S25: NO), the object recognition unit 168 A second target image (hereinafter, also simply referred to as “second target”) associated with a second scenario that is an AR scenario different from the first scenario is detected from the images (step S27). When the second target is detected from the captured image (step S27: YES), the CPU 140 executes the second scenario associated with the second target (step S29). When the second scenario is executed, the display image setting unit 165 displays the AR image included in the second scenario in the image display maximum area PN in association with the detected position and orientation of the second target. (Step S23).

図7は、撮像画像の中から第2の対象が検出されて第2シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図7には、ARシナリオが促す「うろこ取り」の推奨動作が終了していない状態で、第2の対象としての包丁KNが撮像画像の中から検出された場合に、使用者の視野VRが示されている。視野VRには、光学像表示部26,28を透過した外景SCに加えて、第2シナリオに含まれるAR画像であるうろこ取りの画像AR2およびテキスト画像TX1が含まれている。表示画像設定部165は、第2シナリオに含まれるAR画像として、包丁KNではなく、うろこ取りによって魚FSのうろこを取る動作を促す文字で表したテキスト画像TX1と、うろこ取りの画像AR2と、を画像表示最大領域PNに表示させる。表示画像設定部165は、テキスト画像TX1および画像AR1の画像表示最大領域PNにおける表示位置を、検出された第2の対象である包丁KNの位置や向きに対応付けて表示させる。そのため、第1シナリオで魚FSの位置に対応付けられ表示されるうろこ取りの画像AR1と、第2シナリオで包丁KNの位置に対応付けられて表示されるうろこ取りの画像AR2とは、画像表示最大領域PNにおいて異なる位置に表示される。なお、音声処理部170は、表示画像設定部165によるテキスト画像TX1の表示に合わせて、イヤホン32,34を介してテキスト画像TX1の文字と同じ音声を出力してもよい。   FIG. 7 is an explanatory diagram showing the visual field VR visually recognized by the user when the second scenario is executed by detecting the second target from the captured image. FIG. 7 shows that the user's visual field VR is displayed when the knife KN as the second object is detected from the captured image in a state where the recommended operation of “scaling” that the AR scenario prompts has not ended. It is shown. The visual field VR includes a scaly image AR2 and a text image TX1, which are AR images included in the second scenario, in addition to the outside scene SC transmitted through the optical image display units 26 and 28. The display image setting unit 165 does not use the kitchen knife KN as the AR image included in the second scenario, but a text image TX1 represented by characters for encouraging the fish FS to take the scale by removing the scale, and the scale removing image AR2. Is displayed in the maximum image display area PN. The display image setting unit 165 displays the display positions of the text image TX1 and the image AR1 in the image display maximum area PN in association with the detected position and orientation of the knife KN that is the second target. Therefore, the scale removal image AR1 displayed in association with the position of the fish FS in the first scenario and the scale removal image AR2 displayed in association with the position of the kitchen knife KN in the second scenario are displayed as images. They are displayed at different positions in the maximum area PN. Note that the voice processing unit 170 may output the same voice as the characters of the text image TX1 via the earphones 32 and 34 in accordance with the display of the text image TX1 by the display image setting unit 165.

図4のステップS23の処理において、包丁KNの位置に対応付けられてテキスト画像TX1および画像AR2が画像表示最大領域PNに表示されると、物体認識部168は、第2シナリオが使用者に推奨する動作が行なわれたか否かを判定する(ステップS25)。物体認識部168は、図7のテキスト画像TX1に従って使用者が包丁KNではなく、画像AR2に示すうろこ取りを持ったことを検出した場合に、第2シナリオの推奨動作が行なわれたと判定する。推奨動作が行なわれた判定された場合には(ステップS25:YES)、物体認識部168は、撮像画像の中から選択されたカテゴリーのARシナリオに対応付けられた特定の対象の画像を検出しているか否かを判定する(ステップS31)。物体認識部168は、撮像画像の中に第1の対象としての魚FSを検出しているため(ステップS31:YES)、ステップS17,19の処理を行なわれた後、第1の対象に対応付けられた第1シナリオを実行する(ステップS21)。表示画像設定部165は、第1シナリオに含まれるうろこ取りの画像AR1を魚FSの位置に対応付けて画像表示最大領域PNに表示させ(ステップS25)、物体認識部168は、第1シナリオの推奨動作である魚FSのうろこ取りが終了したか否かを判定する(ステップS25)。物体認識部168は、検出したうろこ取りが所定の回数(例えば、20回)以上、魚FSの頭部と尾との間を往復した場合には、第1シナリオの推奨動作であるうろこ取りが使用者に行なわれたと判定する。なお、うろこ取りの推奨動作が行なわれたか否かの判定は、種々変形可能であり、例えば、魚FSの表面のうろこを画像認識することで、判定されてもよい。   In the process of step S23 in FIG. 4, when the text image TX1 and the image AR2 are displayed in the maximum image display area PN in association with the position of the knife KN, the object recognition unit 168 recommends the second scenario to the user. It is determined whether or not an operation has been performed (step S25). The object recognizing unit 168 determines that the recommended operation of the second scenario has been performed when it is detected according to the text image TX1 in FIG. 7 that the user has the scale removal shown in the image AR2 instead of the knife KN. If it is determined that the recommended operation has been performed (step S25: YES), the object recognition unit 168 detects a specific target image associated with the AR scenario of the category selected from the captured images. It is determined whether or not (step S31). Since the object recognition unit 168 detects the fish FS as the first target in the captured image (step S31: YES), the object recognition unit 168 corresponds to the first target after the processing of steps S17 and S19 is performed. The attached first scenario is executed (step S21). The display image setting unit 165 displays the scale removal image AR1 included in the first scenario in the image display maximum area PN in association with the position of the fish FS (step S25), and the object recognition unit 168 displays the first scenario. It is determined whether or not the scoring of the fish FS, which is the recommended action, has been completed (step S25). The object recognizing unit 168 performs the scale removal, which is the recommended action of the first scenario, when the detected scale removal has reciprocated between the head and tail of the fish FS a predetermined number of times (for example, 20 times) or more. It is determined that it was performed by the user. Note that the determination as to whether or not the recommended operation for removing the scale has been performed can be variously modified. For example, the determination may be made by recognizing the scale on the surface of the fish FS.

物体認識部168は、推奨動作である魚FSのうろこ取りが終了したと判定した場合には(ステップS25:YES)、撮像画像の中から、その他のARシナリオに対応付けられた特定の対象を検出する(ステップS31)。撮像画像の中からその他の対象が検出されない場合には(ステップS31:NO)、CPU140は、その他のシナリオを実行するか否かを判定する(ステップS33)。CPU140は、操作部135が受け付けた操作やマイク63が取得した音声などによって、シナリオDB138に記憶されたARシナリオ以外のARシナリオ(例えば、無線通信部132を介して取得したARシナリオ)の実行など受け付ける。   If the object recognition unit 168 determines that the scoring of the fish FS, which is the recommended action, has ended (step S25: YES), the object recognition unit 168 selects a specific target associated with another AR scenario from the captured image. It detects (step S31). When no other target is detected from the captured image (step S31: NO), the CPU 140 determines whether to execute another scenario (step S33). The CPU 140 executes an AR scenario other than the AR scenario stored in the scenario DB 138 (for example, an AR scenario acquired via the wireless communication unit 132) by an operation received by the operation unit 135, a voice acquired by the microphone 63, or the like. Accept.

ステップS33の処理において、CPU140は、無線通信部132を介してその他のARシナリオを受信し、操作部135が受け付けた操作によって受信したARシナリオを実行すると判定した場合には(ステップS33:YES)、物体認識部168は、撮像画像の中から実行するARシナリオに対応付けられた特定の対象である第3の対象を検出する(ステップS15)。なお、ここでいう第3の対象は、第1の対象と同じである。第3の対象が検出されると(ステップS15:YES)、CPU140は、ステップS17以降の処理を行なう。なお、第3の対象は、請求項における第1の対象に相当する。   In the process of step S33, when the CPU 140 receives another AR scenario via the wireless communication unit 132 and determines to execute the AR scenario received by the operation accepted by the operation unit 135 (step S33: YES). The object recognition unit 168 detects a third target that is a specific target associated with the AR scenario to be executed from the captured image (step S15). The third target here is the same as the first target. When the third target is detected (step S15: YES), the CPU 140 performs the processing after step S17. Note that the third object corresponds to the first object in the claims.

本実施形態では、うろこ取りが終了した魚FSが第3の対象として検出され、魚FSを3枚におろすことを使用者の動作推奨とする第3の対象に対応付けられたARシナリオが実行される。なお、以降では、第3の対象に対応付けられたARシナリオを、単に、第3シナリオとも呼ぶ。   In the present embodiment, the fish FS whose scale has been removed is detected as the third target, and the AR scenario associated with the third target in which the user recommends that the fish FS be lowered to three is executed. Is done. Hereinafter, the AR scenario associated with the third target is also simply referred to as a third scenario.

図8は、撮像画像の中から第3の対象が検出されて第3シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図8には、第3の対象として、うろこ取りが終了した魚FSを含む外景SCが示されている。また、図8に示すように、使用者の右手RHが包丁KNを持ち、使用者の左手LHが魚FSの頭部を押さえている。物体認識部168が第3の対象を検出すると、表示画像設定部165は、実行される第3シナリオに含まれる包丁のAR画像である画像AR3と、推奨動作を示すテキスト画像TX2とを画像表示最大領域PNに表示させる。画像AR3およびテキスト画像TX2は、第3の対象としての魚FSに対応付けられて画像表示最大領域PNに表示される。そのため、テキスト画像TX2が表示される位置は、図7における包丁KNに対応付けられたテキスト画像TX1の位置とは異なる。テキスト画像TX2は、魚FSを3枚におろす推奨動作を促す第3シナリオにおいて、初めに、魚FSの内臓を取り出すことを使用者に促す文字画像である。物体認識部168によって検出された第3の対象やその他の対象に基づいて、表示画像設定部165は、実行される第3シナリオに含まれる画像を画像表示最大領域PNに表示する。また、同様に、音声処理部170は、イヤホン32,34を介して、実行される第3シナリオに含まれる音声を出力する。   FIG. 8 is an explanatory diagram illustrating a visual field VR visually recognized by the user when a third target is detected from the captured image and the third scenario is executed. FIG. 8 shows an outside scene SC that includes a fish FS that has been scaled off as a third object. Further, as shown in FIG. 8, the user's right hand RH has a knife KN, and the user's left hand LH holds the head of the fish FS. When the object recognition unit 168 detects the third target, the display image setting unit 165 displays an image AR3 that is an AR image of a knife included in the third scenario to be executed and a text image TX2 that indicates a recommended action. The maximum area PN is displayed. The image AR3 and the text image TX2 are displayed in the image display maximum area PN in association with the fish FS as the third target. Therefore, the position where the text image TX2 is displayed is different from the position of the text image TX1 associated with the knife KN in FIG. The text image TX2 is a character image that prompts the user to take out the internal organs of the fish FS first in the third scenario that prompts the recommended action of reducing the fish FS to three. Based on the third target or other target detected by the object recognition unit 168, the display image setting unit 165 displays an image included in the third scenario to be executed in the image display maximum region PN. Similarly, the sound processing unit 170 outputs sound included in the third scenario to be executed via the earphones 32 and 34.

図9は、第3シナリオが終了した後に実行される第4シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図9には、魚FSを三枚におろす第3シナリオの動作推奨が使用者によって完了した後に、撮像画像の中から三枚におろされた魚FSのそれぞれが第4の対象として検出されて、第4の対象に対応付けられたARシナリオである第4シナリオが実行されたときに使用者が視認する視野VRが示されている。物体認識部168は、第4シナリオが実行されると、第4シナリオに含まれるAR画像の矢印画像CS2と、三枚におろされた魚FSに対する処理を使用者に選択させるためのテキスト画像TX3とを画像表示最大領域PNに表示させる。テキスト画像TX3および矢印画像CS2は、三枚におろされた魚FSのそれぞれの切身CB1,CB2および中骨MBを検出すると、画像表示最大領域PNに表示される。物体認識部168は、テキスト画像TX3および矢印画像CS2が表示される位置を、切身CB1,CB2および中骨MBの位置や向きとは関係なく、画像表示最大領域PNにおける固定の位置に表示させる。テキスト画像TX3は、切身CB1と切身CB2と中骨MBとに対する処理として、保存と刺身と昆布締めとを使用者に選択させるための画像である。操作部135が使用者の操作を受け付けることで、テキスト画像TX3のいずれかの選択肢(例えば、1.切身CB1)が選択されると、CPU140は、選択された選択肢に対応付けられた画像および音声を出力させる。また、マイク63が音声入力を受け付けることで、テキスト画像TX3のいずれかの選択肢が選択されてもよい。   FIG. 9 is an explanatory diagram showing the visual field VR visually recognized by the user when the fourth scenario executed after the third scenario is completed. In FIG. 9, after the recommendation of the operation of the third scenario for dropping the fish FS into three sheets is completed by the user, each of the fish FS dropped into the three sheets is detected as the fourth target from the captured image. The visual field VR visually recognized by the user when the fourth scenario that is the AR scenario associated with the fourth target is executed is shown. When the fourth scenario is executed, the object recognizing unit 168 causes the arrow image CS2 of the AR image included in the fourth scenario and the text image TX3 to allow the user to select processing for the fish FS dropped in three sheets. Are displayed in the maximum image display area PN. The text image TX3 and the arrow image CS2 are displayed in the image display maximum area PN when the respective fillets CB1 and CB2 and the middle bone MB of the fish FS put down are detected. The object recognizing unit 168 displays the position where the text image TX3 and the arrow image CS2 are displayed at a fixed position in the image display maximum region PN regardless of the positions and orientations of the fillets CB1 and CB2 and the middle bone MB. The text image TX3 is an image for allowing the user to select storage, sashimi, and kelp fastening as processing for the fillet CB1, fillet CB2, and the middle bone MB. When any one of the text image TX3 (for example, 1. fillet CB1) is selected by the operation unit 135 receiving the user's operation, the CPU 140 displays an image and sound associated with the selected option. Is output. In addition, any option of the text image TX3 may be selected by the microphone 63 receiving a voice input.

図10は、図9のテキスト画像TX3の内の選択肢が選択された後に使用者が視認する視野VRを示す画像である。図10には、図9のテキスト画像TX3において、処理される対象として「1.切身CB1」が選択され、切身CB1の処理として、「3.昆布締め」が選択された場合に、画像表示最大領域PNに表示されるAR画像である画像AR4とテキスト画像TX4とが示されている。表示画像設定部165は、実行されているARシナリオの具体的な処理を示すテキスト画像TX4を、画像表示最大領域PNにおける固定の位置に表示させる。また、表示画像設定部165は、使用者に選択されると共に物体認識部168によって撮像画像の中から検出された切身CB1の位置と向きに対応付けて、昆布締めに使用される昆布のAR画像を画像AR4として画像表示最大領域PN内に表示させる。これにより、HMD100は、使用者に対して、切身CB1に昆布締めに必要な処理を推奨動作として認識させることができる。   FIG. 10 is an image showing the visual field VR visually recognized by the user after an option in the text image TX3 of FIG. 9 is selected. In FIG. 10, when “1. fillet CB1” is selected as the processing target in the text image TX3 of FIG. 9 and “3. kelp fastening” is selected as the processing of the fillet CB1, the maximum image display is shown. An image AR4 that is an AR image displayed in the region PN and a text image TX4 are shown. The display image setting unit 165 displays a text image TX4 indicating specific processing of the AR scenario being executed at a fixed position in the image display maximum area PN. In addition, the display image setting unit 165 selects the AR image of the kombu used for the kelp tightening in association with the position and orientation of the fillet CB1 that is selected by the user and detected from the captured image by the object recognition unit 168. Is displayed in the image display maximum area PN as an image AR4. Thereby, HMD100 can make a user recognize the process required for kelp tightening as recommended operation to fillet CB1.

図4のステップS25において、推奨動作として第4シナリオの昆布締めの処理が切身CB1に行なわれると(ステップS25:YES)、物体認識部168は、その他の対象を撮像画像の中から検出する(ステップS31)。その他の対象が検出されない場合に(ステップS31:NO)、CPU140は、その他のARシナリオをもう実行しないと判定した場合には(ステップS33:NO)、AR実行処理を終了する。   In step S25 of FIG. 4, when the kelp tightening process of the fourth scenario is performed on the fillet CB1 as a recommended operation (step S25: YES), the object recognition unit 168 detects other targets from the captured image ( Step S31). When no other target is detected (step S31: NO), the CPU 140 ends the AR execution process when determining that the other AR scenario is not to be executed anymore (step S33: NO).

以上説明したように、第1実施形態のHMD100では、物体認識部168がカメラ61の撮像画像の中から第1の対象を検出し、表示画像設定部165は、第1の対象に対応付けられた魚FSのうろこ取りの推奨動作の第1シナリオ実行される場合に、検出されたFS魚の位置に対応付けてうろこ取りの画像AR1を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、外景SCに含まれる複数の物体の内から1つの物体を検出して、検出した物体の位置に対応付けた画像を表示する。これにより、使用者は、実物の位置に合わせて表示される画像を視認しながら、作業等を行なうことができるため、使用者が行なう作業を支援し、使用者の作業の効率性などを向上させることができる。   As described above, in the HMD 100 of the first embodiment, the object recognition unit 168 detects the first target from the captured image of the camera 61, and the display image setting unit 165 is associated with the first target. When the first scenario of the recommended operation for removing the scales of the fish FS is executed, the scaled image AR1 is displayed in the maximum image display area PN in association with the position of the detected FS fish. Therefore, in the HMD 100 of the first embodiment, one object is detected from among a plurality of objects included in the outside scene SC, and an image associated with the detected position of the object is displayed. As a result, the user can work while visually recognizing the image displayed in accordance with the actual position, thereby supporting the work performed by the user and improving the efficiency of the user's work. Can be made.

また、第1実施形態のHMD100では、物体認識部168は、画像として第1の対象である魚FSを検出するため、魚FSを検出する精度を向上させることができる。   Further, in the HMD 100 of the first embodiment, the object recognition unit 168 detects the fish FS that is the first target as an image, so that the accuracy of detecting the fish FS can be improved.

また、第1実施形態のHMD100では、第1の対象としての魚FSに対応付けられたうろこ取りの画像AR1は、魚FSに対して行なわれるうろこ取りの推奨動作に関連する動画であるため、使用者は、推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。   In the HMD 100 according to the first embodiment, the scale removal image AR1 associated with the fish FS as the first target is a moving image related to the recommended action for scale removal performed on the fish FS. The user can more easily recognize the recommended action, and the efficiency of the user's work is further improved.

また、第1実施形態のHMD100では、物体認識部168が撮像画像の中から第2の対象としての包丁KNを検出した場合に、表示画像設定部165は、実行される第2シナリオに含まれるテキスト画像TX1およびうろこ取りの画像AR2を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、検出される物体に優先度が設定されており、複数のARシナリオに対応付けられた複数の特定の対象物が検出されても、検出された特定の対象物に設定された優先度に基づいて、画像表示最大領域PNに表示される画像が変更される。これにより、使用者に対して、状況の最も適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。   In the HMD 100 of the first embodiment, the display image setting unit 165 is included in the second scenario to be executed when the object recognition unit 168 detects the knife KN as the second target from the captured image. The text image TX1 and the scale removal image AR2 are displayed in the image display maximum area PN. Therefore, in the HMD 100 of the first embodiment, the priority is set for the detected object, and even if a plurality of specific objects associated with a plurality of AR scenarios are detected, the detected specific object is detected. Based on the priority set for the object, the image displayed in the image display maximum area PN is changed. Thereby, since the user can visually recognize the image most suitable for the situation, the usability of the user is further improved.

また、第1実施形態のHMD100では、表示画像設定部165は、マイク63が取得した音声に基づいて、三枚におろされた魚FSの切身CB1に対して受け付けた処理に対応付けて、テキスト画像TX4および画像AR4を画像表示最大領域PNに表示される。そのため、第1実施形態のHMD100では、検出された特定の対象物に加えて、使用者は、音声によっても画像表示最大領域PNに表示させる画像を操作できるため、使用者の使い勝手がさらに向上する。   Moreover, in HMD100 of 1st Embodiment, the display image setting part 165 matches with the process received with respect to the fillet CB1 of the fish FS put down by three based on the audio | voice which the microphone 63 acquired, and a text The image TX4 and the image AR4 are displayed in the image display maximum area PN. Therefore, in the HMD 100 according to the first embodiment, in addition to the detected specific object, the user can operate an image to be displayed in the image display maximum area PN by voice, so that the user's usability is further improved. .

また、第1実施形態のHMD100では、音声処理部170は、第1シナリオが実行されている場合に、第2の対象としての包丁KNが検出されると、画像表示最大領域PNに表示されるテキスト画像TX1の文字と同じ音声を出力する。そのため、第1実施形態のHMD100では、使用者に対して、画像表示最大領域PNに表示される画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。   Further, in the HMD 100 of the first embodiment, when the first scenario is executed, the voice processing unit 170 displays the knife KN as the second target in the image display maximum area PN. The same voice as the character of the text image TX1 is output. Therefore, in HMD100 of 1st Embodiment, in addition to the image displayed on the image display maximum area | region PN, a user can be made to recognize information also by audio | voice, and a user is more by visual and auditory sense. A lot of information can be recognized, and the convenience for the user is improved.

B.第2実施形態:
B−1.HMDの構成:
図11は、第2実施形態のHMD100aの構成を機能的に示すブロック図である。第2実施形態のHMD100aでは、第1実施形態のHMD100と比較して、生体情報取得センサー90と、CPU140aの生体情報処理部169と、を備える点が異なり、その他の構成については同じである。生体情報取得センサー90は、制御部10および画像表示部20とは別体で形成されたセンサーである。生体情報取得センサー90は、使用者の生体情報を取得する。本実施形態では、生体情報取得センサー90は、腕時計型のセンサーであり、使用者の手首に装着された状態で、ひずみゲージによるひずみ検出によって、現時点での使用者の筋力を測定する。生体情報取得センサー90は、取得した使用者の筋力の測定データを制御部10aのCPU140aへと送信する。取得された生体情報を処理する。生体情報処理部169は、取得された使用者の筋力の測定データに基づいて、実行されるARシナリオに含まれる各種処理を実行する。
B. Second embodiment:
B-1. HMD configuration:
FIG. 11 is a block diagram functionally showing the configuration of the HMD 100a of the second embodiment. The HMD 100a of the second embodiment is different from the HMD 100 of the first embodiment in that it includes a biological information acquisition sensor 90 and a biological information processing unit 169 of the CPU 140a, and the other configurations are the same. The biological information acquisition sensor 90 is a sensor formed separately from the control unit 10 and the image display unit 20. The biometric information acquisition sensor 90 acquires the biometric information of the user. In the present embodiment, the biological information acquisition sensor 90 is a wristwatch-type sensor, and measures the user's current muscular strength by strain detection using a strain gauge while being worn on the wrist of the user. The biometric information acquisition sensor 90 transmits the acquired measurement data of the muscular strength of the user to the CPU 140a of the control unit 10a. The acquired biometric information is processed. The biological information processing unit 169 performs various processes included in the AR scenario to be executed based on the acquired measurement data of the user's muscle strength.

B−2.ARシナリオ実行処理:
第2実施形態では、自動車のタイヤの交換を推奨動作とするARシナリオ(以下、単に、「タイヤ交換シナリオ」とも呼ぶ)について、ARシナリオ実行処理について説明する。第2実施形態では、第1実施形態のARシナリオ実行処理(図4)における処理の内、異なる処理であるステップS21以降の処理について説明する。
B-2. AR scenario execution processing:
In the second embodiment, an AR scenario execution process will be described for an AR scenario (hereinafter, also simply referred to as “tire replacement scenario”) in which replacement of a tire of a vehicle is a recommended operation. In the second embodiment, a process after step S21 which is a different process among the processes in the AR scenario execution process (FIG. 4) of the first embodiment will be described.

図12は、第1の対象が検出されてタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図12には、第1対象としてのタイヤTRの画像が撮像画像の中から検出された場合に、CPU140aによってARシナリオとしてのタイヤ交換シナリオが実行され、表示画像設定部165がAR画像である画像AR5が画像表示最大領域PNに表示されたときに視野VRが示されている。外景SCに含まれるタイヤTRは、4箇所のボルトBTによって自動車の本体に固定されている。画像AR5は、工具としての六角レンチを表す工具画像ARRと、工具画像ARRを持っている腕画像ARHと、腕画像ARHの手首に装着されている筋力センサー画像ARSと、から構成されている。すなわち、画像AR5は、使用者に、筋力センサーを装着した腕で六角レンチにてタイヤTRのボルトBTを外すことを推奨動作とする画像である。表示画像設定部165は、検出されたタイヤTRのボルトBTの位置に対応付けて画像AR5の内の工具画像ARRを画像表示最大領域PNに表示させる。また、表示画像設定部165は、画像AR5の内の腕画像ARHおよび筋力センサー画像ARSを、工具画像ARRに対応付けて画像表示最大領域PNに表示させる。腕画像ARHの表示部には、工具を回すために推奨とされる筋力の数値が表示される。表示される数値(80)は、パーセンテージ(%)の単位であり、予め、HMD100の使用者の筋力とひずみゲージとの関係が設定された上で、推奨される数値である。   FIG. 12 is an explanatory diagram showing the visual field VR visually recognized by the user when the first object is detected and the tire replacement scenario is executed. In FIG. 12, when an image of the tire TR as the first object is detected from the captured image, the tire replacement scenario as the AR scenario is executed by the CPU 140a, and the display image setting unit 165 is an image that is an AR image. The visual field VR is shown when AR5 is displayed in the image display maximum area PN. The tire TR included in the outside scene SC is fixed to the vehicle body by four bolts BT. The image AR5 includes a tool image ARR representing a hexagon wrench as a tool, an arm image ARH having the tool image ARR, and a muscle force sensor image ARS attached to the wrist of the arm image ARH. That is, the image AR5 is an image that recommends the user to remove the bolt BT of the tire TR with a hexagon wrench with an arm on which the muscle force sensor is attached. The display image setting unit 165 displays the tool image ARR in the image AR5 in the image display maximum region PN in association with the detected position of the bolt BT of the tire TR. Further, the display image setting unit 165 displays the arm image ARH and the muscle force sensor image ARS in the image AR5 in the image display maximum area PN in association with the tool image ARR. On the display portion of the arm image ARH, a numerical value of muscle strength recommended for turning the tool is displayed. The displayed numerical value (80) is a unit of percentage (%), and is a recommended numerical value after the relationship between the muscular strength of the user of the HMD 100 and the strain gauge is set in advance.

タイヤ交換シナリオが実行され(図4のステップS23)、タイヤ交換シナリオに対応付けられた画像AR5が画像表示最大領域PNに表示されると(図4のステップS23)、物体認識部168は、タイヤ交換シナリオの推奨動作が終了したか否かを判定する(ステップS25)。   When the tire replacement scenario is executed (step S23 in FIG. 4) and the image AR5 associated with the tire replacement scenario is displayed in the image display maximum area PN (step S23 in FIG. 4), the object recognition unit 168 It is determined whether or not the recommended operation for the exchange scenario has been completed (step S25).

図13は、タイヤ交換シナリオが実行されているときに第2の対象が検出された場合に使用者が視認する視野VRを示す説明図である。図13には、タイヤ交換シナリオが実行されている場合に、第2の対象が検出された場合に、画像表示最大領域PNに表示されるテキスト画像TX5と画像AR5,AR6とが示されている。第2実施形態における第2の対象は、実物の六角レンチである工具RNと足LGとが所定の位置関係として検出された状態である。図13では、画像AR5の内の工具画像ARRは、実物の工具RNと重なっている。物体認識部168が実物の工具RNに使用者の足LGが接触している位置関係を検出した場合に、表示画像設定部165は、画像AR5に加えて、テキスト画像TX5および画像AR6を画像表示最大領域PNに表示させる。テキスト画像TX5は、足LGで工具RNを回転させることの禁止を促す文字画像である。また、画像AR6は、テキスト画像TX5の内容を強調するための「×」を示すAR画像である。表示画像設定部165は、画像AR6を、検出された工具RNと足LGとの接触位置に対応させて画像表示最大領域PN内に表示させる。   FIG. 13 is an explanatory diagram showing the visual field VR visually recognized by the user when the second target is detected when the tire replacement scenario is being executed. FIG. 13 shows a text image TX5 and images AR5 and AR6 displayed in the image display maximum area PN when the second target is detected when the tire replacement scenario is executed. . The second object in the second embodiment is a state in which the tool RN and the foot LG, which are real hex wrenches, are detected as a predetermined positional relationship. In FIG. 13, the tool image ARR in the image AR5 overlaps with the actual tool RN. When the object recognizing unit 168 detects a positional relationship in which the user's foot LG is in contact with the actual tool RN, the display image setting unit 165 displays the text image TX5 and the image AR6 in addition to the image AR5. The maximum area PN is displayed. The text image TX5 is a character image that prompts prohibition of rotating the tool RN with the foot LG. The image AR6 is an AR image indicating “x” for emphasizing the content of the text image TX5. The display image setting unit 165 displays the image AR6 in the image display maximum area PN in correspondence with the detected contact position between the tool RN and the foot LG.

タイヤ交換シナリオの推奨動作が終了していない場合に(図4のステップS25:NO)、第2の対象としての工具RNおよび足LGが検出されると(ステップS27:YES)、CPU140aは、タイヤ交換を足ではなく腕を使って行なう推奨動作のARシナリオである第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、図13に示すように、画像表示最大領域PN内に画像AR5に加えて、画像AR6およびテキスト画像TX5を表示させる(ステップS23)。第2シナリオの推奨動作に従って、足LGが検出されなくなった場合には(ステップS25:YES)、タイヤTRが検出されるため(ステップS31:YES)、CPU140aは、タイヤ交換シナリオを実行する(ステップS21)。その後、表示画像設定部165は、画像AR5を画像表示最大領域PNに表示させる(ステップS23)。   When the recommended operation of the tire replacement scenario has not ended (step S25 in FIG. 4: NO), when the tool RN and the foot LG as the second target are detected (step S27: YES), the CPU 140a A second scenario, which is an AR scenario of a recommended action in which the exchange is performed using the arm instead of the foot, is executed (step S29). When the second scenario is executed, the display image setting unit 165 displays the image AR6 and the text image TX5 in addition to the image AR5 in the image display maximum area PN as shown in FIG. 13 (step S23). When the leg LG is no longer detected according to the recommended action of the second scenario (step S25: YES), the tire TR is detected (step S31: YES), so the CPU 140a executes the tire replacement scenario (step S31). S21). Thereafter, the display image setting unit 165 displays the image AR5 in the image display maximum area PN (step S23).

図14は、第1の対象が検出されたタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図14には、画像表示最大領域PNに、図12と同様の画像AR5が表示され、かつ、実物の使用者の腕HDと、腕HDの手首に装着された筋力センサーSSと、腕HDが持っている工具RNと、テキスト画像TX6とを含む視野VRが示されている。図14に示すように、画像AR5の内の工具画像ARRと実物の工具RNとの位置関係と、腕画像ARHと腕HDとの位置関係とは異なる。換言すれば、使用者の腕HDおよび工具RNのそれぞれは、推奨動作として表示された画像AR5と重複しておらず、物体認識部168は、使用者にタイヤ交換シナリオの推奨動作が行なわれていないと判定する。物体認識部168は、撮像画像の中における複数のボルトBTの位置と大きさとによって、タイヤTRの位置や向きを特定する。そのため、物体認識部168は、特定したタイヤTRのボルトBTに対して、実物の工具RNが正しい位置に挿入されているか否かを判定できる。表示画像設定部165は、検出された工具RNが正しい位置に挿入されていないと判定されると、工具RNをボルトBTに対して正しい位置に挿入する動作を促すテキスト画像TX6を画像表示最大領域PNに表示させる。なお、図14では、工具RNが正しい位置に挿入されていないため、使用者は工具RNを回転させることができず、筋力センサーSSの数値は0(%)と表示されている。   FIG. 14 is an explanatory diagram showing a visual field VR visually recognized by the user when the tire replacement scenario in which the first target is detected is executed. In FIG. 14, the image AR5 similar to that in FIG. 12 is displayed in the image display maximum area PN, and the arm HD of the actual user, the strength sensor SS attached to the wrist of the arm HD, and the arm HD are displayed. A field of view VR including the tool RN that it has and the text image TX6 is shown. As shown in FIG. 14, the positional relationship between the tool image ARR and the actual tool RN in the image AR5 is different from the positional relationship between the arm image ARH and the arm HD. In other words, each of the user's arm HD and the tool RN does not overlap with the image AR5 displayed as the recommended action, and the object recognition unit 168 performs the recommended action of the tire change scenario to the user. Judge that there is no. The object recognition unit 168 identifies the position and orientation of the tire TR based on the position and size of the plurality of bolts BT in the captured image. Therefore, the object recognition unit 168 can determine whether or not the actual tool RN is inserted at the correct position with respect to the specified bolt BT of the tire TR. When the display image setting unit 165 determines that the detected tool RN is not inserted at the correct position, the display image setting unit 165 displays the text image TX6 that prompts the operation of inserting the tool RN at the correct position with respect to the bolt BT. Display on PN. In FIG. 14, since the tool RN is not inserted at the correct position, the user cannot rotate the tool RN, and the numerical value of the muscle force sensor SS is displayed as 0 (%).

使用者がテキスト画像TX6に従い、工具RNがボルトBTに対して正しい位置に挿入されると、表示画像設定部165が画像AR5を非表示にして、生体情報処理部169は、生体情報取得センサー90としての筋力センサーSSの筋力の数値を検出する。生体情報処理部169は、筋力センサーSSによって取得された値が80%を中心とする75%から85%までの間の数値以外で、工具RNが回されているか否かを判定する。当該数値の間で工具RNが回されていると判定した場合には、表示画像設定部165は、80%の筋力で工具RNを回転させるように促すテキスト画像を画像表示最大領域PNに表示させる。生体情報処理部169が80%の筋力で工具RNが回転させられていると判定すると、表示画像設定部165がテキスト画像を非表示にして、表示画像設定部165は、別のボルトBTを外すAR画像を画像表示最大領域PNに表示させる。以上のような動作が繰り返されると、CPU140aは、タイヤ交換シナリオを終了する。   When the user follows the text image TX6 and the tool RN is inserted at the correct position with respect to the bolt BT, the display image setting unit 165 hides the image AR5, and the biometric information processing unit 169 includes the biometric information acquisition sensor 90. The value of the muscular strength of the muscular strength sensor SS is detected. The biological information processing unit 169 determines whether or not the tool RN is turned except for a value acquired by the muscle force sensor SS other than a value between 75% and 85% centered on 80%. When it is determined that the tool RN is rotated between the numerical values, the display image setting unit 165 displays a text image that prompts the user to rotate the tool RN with 80% strength in the image display maximum area PN. . When the biological information processing unit 169 determines that the tool RN is rotated with 80% muscle strength, the display image setting unit 165 hides the text image, and the display image setting unit 165 removes another bolt BT. The AR image is displayed in the image display maximum area PN. When the above operation is repeated, the CPU 140a ends the tire replacement scenario.

以上説明したように、第2実施形態のHMD100aでは、生体情報取得センサー90によって検出された使用者の筋力に基づいて、表示画像設定部165は、画像表示最大領域PNに画像を表示させる。そのため。第2実施形態のHMD100aでは、撮像画像の中に検出された特定の対象物に、取得された使用者の生体情報も加えた画像を使用者に視認させることができ、使用者の利便性がさらに向上する。   As described above, in the HMD 100a of the second embodiment, the display image setting unit 165 displays an image in the image display maximum region PN based on the user's muscle strength detected by the biological information acquisition sensor 90. for that reason. In the HMD 100a according to the second embodiment, the user can visually recognize an image obtained by adding the acquired biological information of the user to the specific object detected in the captured image, which is convenient for the user. Further improve.

C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C. Variation:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

C−1.変形例1:
上記実施形態では、撮像画像の中から検出される第1の対象は、1つの物体であったが、これに限られず、複数の物体などであってもよい。例えば、物体認識部168は、第1の対象として、撮像画像の中から複数の物体の位置も含めた組み合わせを検出してもよい。また、物体認識部168は、同じ特定の対象であっても、特定の対象が特定の動きをしている場合にのみ、第1の対象として、検出してもよい。また、物体認識部168は、複数の特定の対象を検出して、複数の特定の対象の内から使用者が1つの特定の対象を選択することで、選択された特定の対象を第1の対象として検出してもよい。
C-1. Modification 1:
In the above embodiment, the first target detected from the captured image is a single object, but is not limited to this, and may be a plurality of objects. For example, the object recognition unit 168 may detect a combination including the positions of a plurality of objects from the captured image as the first target. Further, the object recognition unit 168 may detect the same specific target as the first target only when the specific target moves in a specific manner. In addition, the object recognition unit 168 detects a plurality of specific targets, and the user selects one specific target from among the plurality of specific targets, so that the selected specific target is the first specific target. You may detect as a target.

上記第1実施形態では、第2の対象としての包丁KNが検出された場合に、実行するARシナリオとして第2シナリオへと変更されたが、第1シナリオから他のシナリオへの変更については、種々変形可能である。例えば、「うろこ取り」の第1シナリオが実行されているときに、実物のうろこ取りが検出されても、実物のうろこ取りの位置や動きが、矢印画像CS1と大きく異なる場合に、CPU140は、第2の対象が検出されたとして、別のARシナリオを実行してもよい。   In the first embodiment, when the knife KN as the second object is detected, the AR scenario to be executed is changed to the second scenario. However, the change from the first scenario to another scenario is as follows. Various modifications are possible. For example, when the actual scale removal is detected when the first scenario of “scale removal” is being executed, if the actual scale removal position or movement is significantly different from the arrow image CS1, the CPU 140 As the second target is detected, another AR scenario may be executed.

上記実施形態では、パターンマッチング等の画像認識により、撮像画像の中から第1の対象を検出されたが、第1の対象が検出される方法については、これに限られず、種々変形可能である。例えば、物体認識部168は、撮像画像に対する画像認識ではなく、デプスセンサーなどを用いて、TOF(Time-of-Flight)方法などによって、デプスセンサーから第1の対象までの距離を測定することで、第1の対象を検出してもよい。   In the above embodiment, the first target is detected from the captured image by image recognition such as pattern matching. However, the method for detecting the first target is not limited to this, and various modifications can be made. . For example, the object recognizing unit 168 measures the distance from the depth sensor to the first target by a TOF (Time-of-Flight) method or the like by using a depth sensor instead of image recognition for the captured image. The first target may be detected.

撮像画像の中から検出される特定の対象物の画像は、上記実施形態の例に限られず、種々変形可能である。例えば、特定の対象物は、撮像画像の中から検出される実物であれば、ARシナリオに対応付けられることができる。特定の対象物は、上記実施形態のように、人が持ち運ぶことで移動可能な魚FSであってもよいし、移動不可能な建造物などであってもよい。また、特定の対象物は、時間の経過によって規則的な移動をする太陽などであってもよい。また、請求項における第1の対象と第1の動画像とが対応付けられているとは、外景SCから特定の対象物として何らかの対象物が検出されることで、検出された特定の対象物のARシナリオが実行されることを含む。第1の対象と第1の動画像とが対応付けられているには、例えば、撮像画像の中から特定の対象物の画像が検出されることやデプスセンサーなどによって外景SCから特定の形状が検出されることやデプスセンサーによって画像表示部20から特定の距離に何らかの対象が検出されることで、ARシナリオが実行されることが含まれる。   The image of the specific object detected from the captured image is not limited to the example in the above embodiment, and can be variously modified. For example, a specific object can be associated with an AR scenario if it is a real object detected from a captured image. The specific object may be a fish FS that can be moved by being carried by a person as in the above-described embodiment, or may be a structure that cannot be moved. The specific object may be the sun that moves regularly over time. In addition, the first object and the first moving image in the claims are associated with each other when a certain object is detected as a specific object from the outside scene SC. The AR scenario is executed. The first object and the first moving image are associated with each other, for example, when a specific object image is detected from the captured image, or a specific shape is formed from the outside scene SC by a depth sensor or the like. It includes that the AR scenario is executed by detecting or detecting a certain object at a specific distance from the image display unit 20 by the depth sensor.

上記実施形態では、シナリオDB138のカテゴリーが選択された後に、選択されたカテゴリーに含まれるARシナリオの第1の対象が撮像画像の中から検出されたが、第1の対象となるARシナリオの設定については、種々変形可能である。例えば、物体認識部168は、ARシナリオをカテゴリーに分類せずに、全てのARシナリオに対応付けられた第1の対象を撮像画像の中から検出してもよい。   In the above embodiment, after the category of the scenario DB 138 is selected, the first target of the AR scenario included in the selected category is detected from the captured image. However, the setting of the AR scenario that is the first target is set. Various modifications can be made. For example, the object recognizing unit 168 may detect the first target associated with all AR scenarios from the captured image without classifying the AR scenarios into categories.

第1の対象に対応付けてARシナリオを実行する方法については、上記実施形態の例に限られず、種々変形可能である。例えば、シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶するだけでなく、撮像画像における第1の対象の位置、第1の対象の動き、検出された特定の対象の順番、撮像画像における第1の対象の向き、これらと取得した外部の音声との組み合わせのテーブルを記憶していてもよい。例えば、撮像画像の中から検出された1つの特定の対象物が検出され、かつ、検出された特定の対象物の所定の時間内に予め設定された動作が検出された場合に、CPU140は、シナリオDB138に対応付けて記憶されたARシナリオを実行してもよい。また、第1の対象として、ホールケーキが検出され、かつ、外部音声としての「8等分」や「6等分」が取得されたときに、ケーキをカットするナイフと、検出されたケーキに対して切り込む位置と、がAR画像として表示されるARシナリオが実行されてもよい。この変形例では、複数の要素によって種々のARシナリオが選択されるため、使用者は、種々のARシナリオから簡単に所望のARシナリオを選択できる。   The method of executing the AR scenario in association with the first target is not limited to the example of the above embodiment, and various modifications can be made. For example, the scenario DB 138 not only stores a plurality of AR scenarios classified into some categories, but also stores the position of the first target in the captured image, the movement of the first target, and the order of the detected specific target. The table of the direction of the 1st object in a picked-up image and the combination of these and the acquired external sound may be memorized. For example, when one specific object detected from the captured image is detected and a preset operation of the detected specific object within a predetermined time is detected, the CPU 140 The AR scenario stored in association with the scenario DB 138 may be executed. Further, as a first object, when a whole cake is detected and “8 equals” or “6 equals” as an external sound is acquired, a knife for cutting the cake and the detected cake An AR scenario may be executed in which the position to be cut is displayed as an AR image. In this modification, various AR scenarios are selected depending on a plurality of elements, so that the user can easily select a desired AR scenario from various AR scenarios.

上記実施形態では、特定の対象が検出された場合に、1つのARシナリオが実行されたが、必ずしも、実行されるARシナリオは、1つに限られず、複数であってもよい。例えば、CPU140は、第1の対象に対応付けられたARシナリオを全て実行した上で、その後に検出された第1の対象と異なる特定の対象に基づいて、実行していた複数のARシナリオから、実行するARシナリオをいくつかに限定してもよい。   In the above embodiment, one AR scenario is executed when a specific target is detected. However, the number of AR scenarios to be executed is not necessarily limited to one, and may be plural. For example, the CPU 140 executes all of the AR scenarios associated with the first target, and then executes a plurality of AR scenarios based on a specific target that is different from the first target detected after that. The AR scenario to be executed may be limited to several.

上記実施形態では、第1の対象に対応付けられた複数のARシナリオがある場合に、操作部135が受け付けた操作に基づいて、1つのARシナリオが選択されたが、複数のARシナリオから1つのARシナリオを選択する方法については、種々変形可能である。例えば、CPU140は、第1の対象に対応付けられた複数のARシナリオがある場合に、最近実行されたARシナリオを、実行する第1シナリオとして選択してもよい。   In the above embodiment, when there are a plurality of AR scenarios associated with the first target, one AR scenario is selected based on the operation received by the operation unit 135. The method for selecting one AR scenario can be variously modified. For example, when there are a plurality of AR scenarios associated with the first target, the CPU 140 may select the recently executed AR scenario as the first scenario to be executed.

請求項における動画像とは、静止画の組み合わせであるパラパラ漫画なども含み、同じ画像でもサイズが異なるように変化する動画も含む。動画像とは、時間の経過に伴い全く変化しない静止画像以外の広い概念のことをいい、複数の静止画像の組み合わせが変化する画像も含む。   The moving image in the claims includes a flip cartoon that is a combination of still images, and also includes a moving image that changes in size even in the same image. A moving image refers to a wide concept other than a still image that does not change at all over time, and includes an image in which a combination of a plurality of still images changes.

また、ARシナリオに含まれる画像としては、種々変形可能であり、RGBデータを変化させることで、半透明のAR画像や二次元の画像として生成してもよい。例えば、図6に示す例において、「うろこ取り」の画像AR1に対して、うろこ取りを持つ半透明の人の手の画像が、うろこ取りの画像AR1と同時に画像表示最大領域PNに表示されてもよい。この変形例では、ARシナリオを実行している使用者がうろこ取りの持ち方などがわからない場合に、うろこ取りの画像AR1と対応付けて半透明の人の手の画像を画像表示最大領域PNに表示させることで、使用者の利便性が向上する。   The image included in the AR scenario can be variously modified and may be generated as a translucent AR image or a two-dimensional image by changing RGB data. For example, in the example shown in FIG. 6, an image of a translucent person having a scale removal is displayed in the maximum image display area PN at the same time as the scale removal image AR1 with respect to the “scale removal” image AR1. Also good. In this modification, when the user who is executing the AR scenario does not know how to hold the scale, the image of the translucent person's hand is associated with the scale removal image AR1 in the image display maximum area PN. By displaying, the convenience for the user is improved.

上記実施形態では、カメラ61の画角と光学像表示部26,28を透過して使用者が視認する視野とは、対応するように予め設定されていたが、必ずしも対応するように設定されている必要はなく、これらの設定については、種々変形可能である。例えば、操作部135が操作を受け付けることで、カメラ61の画角が変更されてもよい。また、CPU140は、画像表示最大領域PNにキャリブレーション用の画像を表示させて、所定の操作を使用者に促すことで、カメラ61の画角を調整してもよい。   In the above embodiment, the angle of view of the camera 61 and the visual field that the user sees through the optical image display units 26 and 28 are set in advance to correspond to each other. There is no need for these settings, and various modifications can be made to these settings. For example, the angle of view of the camera 61 may be changed by the operation unit 135 receiving an operation. Further, the CPU 140 may adjust the angle of view of the camera 61 by displaying a calibration image in the maximum image display area PN and prompting the user to perform a predetermined operation.

上記第2実施形態では、生体情報取得センサー90として、筋力センサーSSを例に挙げて説明したが、種々変形可能である。例えば、生体情報取得センサー90は、使用者の脈拍や発汗状態などを取得するセンサーであってもよい。生体情報取得センサー90は、赤外線を腕に発光させて、反射光を検出することで、血液の流れについて波形を取得することもできる。   In the second embodiment, the muscular force sensor SS has been described as an example of the biological information acquisition sensor 90, but various modifications can be made. For example, the biological information acquisition sensor 90 may be a sensor that acquires a user's pulse, sweating state, and the like. The biological information acquisition sensor 90 can also acquire a waveform of the blood flow by emitting infrared light to the arm and detecting reflected light.

上記第2実施形態では、筋力センサーSSが表示する推奨の筋力の数値が80%であったが、これらの値については、種々変形可能である。例えば、筋力センサーSSではなく、トルクレンチと筋力とを関連付けることにより、筋力センサーSSが取得したひずみに基づいて、いくつのトルクが工具RNにかかっているかが表示されてもよい。   In the second embodiment, the recommended strength value displayed by the strength sensor SS is 80%. However, these values can be variously modified. For example, the number of torques applied to the tool RN may be displayed based on the strain acquired by the muscle force sensor SS by associating the muscle force with a torque wrench instead of the muscle force sensor SS.

上記第2実施形態では、生体情報取得センサー90としての筋力センサーSSの使用について、一例を挙げて説明したが、生体情報取得センサー90の設定については、種々変形可能である。例えば、使用者の握力、腕等を回す動作、トルクレンチやゴルフクラブを握ったとき状態において、予め複数回の計測がされ、これらの計測から得られた最大値や平均値と、筋力センサーSSなどと関連付けられているARシナリオと、の関係が設定されてもよい。さらに具体的には、特定のARシナリオで使用される生体情報取得センサー90および工具が決まっている場合には、予め、当該工具を使用した場合の計測を行なわれ、ARシナリオに反映させることで、CPU140は、ARシナリオを実行する使用者に「コツ」なども含めた作業支援の画像等を認識させることができる。   In the second embodiment, the use of the muscle force sensor SS as the biological information acquisition sensor 90 has been described with an example. However, the setting of the biological information acquisition sensor 90 can be variously modified. For example, when the user grips, moves his arm, etc., or grips a torque wrench or golf club, multiple measurements are made in advance, and the maximum and average values obtained from these measurements and the strength sensor SS The relationship between the AR scenario and the AR scenario associated with the above may be set. More specifically, when the biological information acquisition sensor 90 and the tool used in a specific AR scenario are determined, the measurement when the tool is used is performed in advance and reflected in the AR scenario. The CPU 140 can allow the user who executes the AR scenario to recognize the work support image including the “knack” and the like.

C−2.変形例2:
上記実施形態では、ARシナリオの推奨動作の終了の判定は、撮像画像の中から検出された人の動き等によって行なわれたが、種々変形可能である。例えば、物体認識部168が所定の動作を検出することで、推奨動作の終了を判定するのではなく、マイク63が取得した音声(例えば、「終了しました」)によって判定されてもよい。
C-2. Modification 2:
In the above embodiment, the end of the recommended operation of the AR scenario is determined based on the movement of a person detected from the captured image, but various modifications can be made. For example, instead of determining the end of the recommended operation by detecting a predetermined operation by the object recognizing unit 168, the determination may be made by the voice (for example, “finished”) acquired by the microphone 63.

上記実施形態では、上記実施形態では、第1シナリオが実行されているときに、第2の対象が検出されると、第2シナリオが実行される態様であったが、第1シナリオと第2シナリオとの関係については、このような関係に限られず、種々変形可能である。例えば、第1シナリオと第2シナリオとを合わせて、1つの複合されたARシナリオとして取り扱われてもよい。この場合、CPU140は、1つのARシナリオを実行しているときに、上記実施形態における第2の対象が検出された場合には、実行しているARシナリオにおいて分岐したとも言い換えることができる。
上記実施形態では、第2の対象が検出された場合に、第2シナリオが実行されたが、必ずしも第2シナリオが実行される必要はない。例えば、CPU140は、第1の対象を検出して第1シナリオを実行しているときに、第1シナリオに対応付けられていない特定の対象物を検出しなくてもよい。
In the above embodiment, in the above embodiment, the second scenario is executed when the second target is detected when the first scenario is executed. The relationship with the scenario is not limited to such a relationship, and various modifications can be made. For example, the first scenario and the second scenario may be combined and handled as one combined AR scenario. In this case, if the second target in the above embodiment is detected while executing one AR scenario, the CPU 140 can also be said to be branched in the AR scenario being executed.
In the above embodiment, the second scenario is executed when the second object is detected, but the second scenario is not necessarily executed. For example, when detecting the first target and executing the first scenario, the CPU 140 may not detect a specific target that is not associated with the first scenario.

上記実施形態では、表示画像設定部165は、検出された第1対象としての魚FSの位置などに対応付けてAR画像を画像表示最大領域PNに表示させたが、画像を表示させる位置については、種々変形可能である。例えば、表示画像設定部165は、特定の対象物が検出された場合に、特定の対象物の位置に関わらず、画像表示最大領域PNとの関係において、AR画像を表示させる位置を設定してもよい。   In the above embodiment, the display image setting unit 165 displays the AR image in the image display maximum region PN in association with the detected position of the fish FS as the first target, but the position where the image is displayed is displayed. Various modifications are possible. For example, the display image setting unit 165 sets a position for displaying an AR image in relation to the image display maximum region PN regardless of the position of the specific object when the specific object is detected. Also good.

上記実施形態では、使用者の作業を支援するARシナリオとして、魚FSの調理方法やタイヤTRの交換を例に挙げて説明したが、これらに限られず、種々変形可能である。例えば、工場の特定の作業を支援するARシナリオであってもよいし、ゴルフなどのスポーツにおけるスポーツ用具の使い方をレクチャーするARシナリオであってもよい。   In the above embodiment, the AR scenario for supporting the user's work has been described by taking the cooking method of the fish FS and the replacement of the tire TR as examples. However, the present invention is not limited to these, and various modifications are possible. For example, it may be an AR scenario that supports specific work in a factory, or an AR scenario that lectures how to use sports equipment in sports such as golf.

上記実施形態では、マイク63、イヤホン32,34、音声処理部170がHMD100の構成に含まれていたが、必ずしも必要ではなく、マイク63等がなくてもよい。   In the above embodiment, the microphone 63, the earphones 32 and 34, and the sound processing unit 170 are included in the configuration of the HMD 100. However, the microphone 63 and the like are not necessarily required.

C−3.変形例3:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、カメラ61が画像表示部20に配置されたが、カメラ61が画像表示部20とは別体に構成され、外景SCを撮像できてもよい。また、制御部10の構成するCPU140や電源130が画像表示部20に全て搭載されたHMD100であってもよい。このHMD100では、画像表示部20と別体で構成されるコントローラーがないため、より小型化できる。また、制御部10と画像表示部20とのそれぞれに、CPU140が搭載されることで、制御部10がコントローラー単体として使用され、画像表示部20が表示装置単体として使用されてもよい。
C-3. Modification 3:
In the above embodiment, the operation unit 135 is formed in the control unit 10, but the mode of the operation unit 135 can be variously modified. For example, a mode in which a user interface that is the operation unit 135 is provided separately from the control unit 10 may be used. In this case, the operation unit 135 is separate from the control unit 10 in which the power supply 130 and the like are formed. Therefore, the operation unit 135 can be reduced in size and user operability is improved. Further, although the camera 61 is disposed in the image display unit 20, the camera 61 may be configured separately from the image display unit 20 and can capture the outside scene SC. Alternatively, the HMD 100 in which the CPU 140 and the power supply 130 that are included in the control unit 10 are all mounted in the image display unit 20 may be used. The HMD 100 can be further downsized because there is no controller configured separately from the image display unit 20. Further, by mounting the CPU 140 on each of the control unit 10 and the image display unit 20, the control unit 10 may be used as a single controller and the image display unit 20 may be used as a single display device.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMD100に対して本発明を適用することも可能である。また、画像表示最大領域PNは、各画素に形成されたMEMSシャッターを開閉するMEMSシャッター方式のディスプレイによって構成されてもよい。   For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image light generation unit may use LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like instead of the LCD. Further, for example, the present invention can be applied to the laser retinal projection type HMD 100. The image display maximum area PN may be configured by a MEMS shutter type display that opens and closes a MEMS shutter formed in each pixel.

また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。また、HMD100の代わりに、使用者の頭部に装着されるのではなく、双眼鏡のように使用者が手で位置を固定するハンドヘルドディスプレイが画像表示装置として用いられてもよい。また、HMD100は、両眼タイプの光学透過型であるとしているが、本発明は、例えば、ビデオ透過型といった他の形式の頭部装着型表示装置にも同様に適用可能である。   Further, for example, the HMD 100 may be a head mounted display in which the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit does not completely cover the user's eyes. The HMD 100 may be a so-called monocular type head mounted display. Further, instead of being mounted on the user's head instead of the HMD 100, a handheld display in which the user fixes the position by hand like binoculars may be used as the image display device. Although the HMD 100 is a binocular optical transmission type, the present invention can be similarly applied to other types of head-mounted display devices such as a video transmission type.

また、HMD100は、他の装置から受信した画像信号に基づく画像を表示するためだけの表示装置と用いられてもよい。具体的には、デスクトップ型のPCのモニターに相当する表示装置として用いられ、例えば、デスクトップ型のPCから画像信号を受信することで、画像表示部20の画像表示最大領域PNに画像が表示されてもよい。   Moreover, HMD100 may be used with the display apparatus only for displaying the image based on the image signal received from the other apparatus. Specifically, it is used as a display device corresponding to a desktop PC monitor. For example, by receiving an image signal from a desktop PC, an image is displayed in the maximum image display area PN of the image display unit 20. May be.

また、HMD100は、システムの一部として機能するように用いられてもよい。例えば、航空機を含むシステムの一部の機能を実行するための装置としてHMD100が用いられてもよいし、HMD100が用いられるシステムとしては、航空機を含むシステムに限られず、自動車や自転車など含むシステムであってもよい。   Moreover, HMD100 may be used so that it may function as a part of system. For example, the HMD 100 may be used as a device for executing a part of functions of a system including an aircraft, and the system in which the HMD 100 is used is not limited to a system including an aircraft, but is a system including an automobile or a bicycle. There may be.

また、イヤホンは耳掛け型やヘッドバンド型が採用されてもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載される頭部装着型表示装置として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。   The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-mounted display device mounted on a vehicle such as an automobile or an airplane. For example, it may be configured as a head-mounted display device built in a body protective device such as a helmet.

C−4.変形例4:
上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16を省略したり、方向キー16やトラックパッド14に加えて、操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
C-4. Modification 4:
The configuration of the HMD 100 in the above embodiment is merely an example and can be variously modified. For example, the direction key 16 provided in the control unit 10 may be omitted, or another operation interface such as an operation stick may be provided in addition to the direction key 16 and the track pad 14. Moreover, the control part 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.

また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34は、適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。   As the image display unit, instead of the image display unit 20 worn like glasses, another type of image display unit such as an image display unit worn like a hat may be adopted. Further, the earphones 32 and 34 can be omitted as appropriate. Moreover, in the said embodiment, although LCD and a light source are utilized as a structure which produces | generates image light, it replaces with these and you may employ | adopt other display elements, such as an organic EL display.

図15は、変形例におけるHMDの外観構成を示す説明図である。図15(A)の例の場合、図1に示したHMD100との違いは、画像表示部20xが、右光学像表示部26に代えて右光学像表示部26xを備える点と、左光学像表示部28に代えて左光学像表示部28xを備える点とである。右光学像表示部26xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の左眼の斜め上に配置されている。図15(B)の例の場合、図1に示したHMD100との違いは、画像表示部20yが、右光学像表示部26に代えて右光学像表示部26yを備える点と、左光学像表示部28に代えて左光学像表示部28yを備える点とである。右光学像表示部26yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。   FIG. 15 is an explanatory diagram showing an external configuration of an HMD in a modified example. 15A, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and the left optical image. It is a point provided with the left optical image display part 28x instead of the display part 28. The right optical image display unit 26x is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the right eye of the user when the HMD 100x is mounted. Similarly, the left optical image display unit 28x is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely above the left eye of the user when the HMD 100x is worn. In the example of FIG. 15B, the difference from the HMD 100 shown in FIG. 1 is that the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and the left optical image. It is a point provided with the left optical image display part 28y instead of the display part 28. The right optical image display unit 26y is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28y is formed smaller than the optical member of the above-described embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can be realized as an HMD 100 in an uncovered mode.

また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。   In the above-described embodiment, the HMD 100 may guide the image light representing the same image to the left and right eyes of the user to make the user visually recognize the two-dimensional image, or may display different images on the left and right eyes of the user. The image light to be represented may be guided to make the user visually recognize the three-dimensional image.

また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。   In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, in the above-described embodiment, the image processing unit 160 and the sound processing unit 170 are realized by the CPU 140 reading and executing a computer program, but these functional units may be realized by a hardware circuit. Good.

また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。   In addition, when part or all of the functions of the present invention are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, a hard disk, etc. It also includes an external storage device fixed to the computer.

また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   Moreover, in the said embodiment, as shown in FIG. 1 and FIG. 2, the control part 10 and the image display part 20 are formed as a separate structure, However, about the structure of the control part 10 and the image display part 20, about. However, the present invention is not limited to this, and various modifications are possible. For example, all of the components formed in the control unit 10 may be formed inside the image display unit 20 or a part thereof may be formed. In addition, the power source 130 in the above embodiment may be formed independently and replaceable, or the configuration formed in the control unit 10 may be overlapped and formed in the image display unit 20. For example, the CPU 140 shown in FIG. 2 may be formed in both the control unit 10 and the image display unit 20, or a function performed by the CPU 140 formed in the control unit 10 and the CPU formed in the image display unit 20. May be configured separately.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン(音声出力部)
34…左イヤホン(音声出力部)
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(検出部)
63…マイク(音声取得部)
90…生体情報取得センサー(生体情報取得部)
100…HMD
120…記憶部
130…電源
132…無線通信部(受信部)
135…操作部
138…シナリオDB
140…CPU
150…オペレーティングシステム
160…画像処理部
165…表示画像設定部
168…物体認識部(検出部)
169…生体情報処理部(生体情報取得部)
170…音声処理部(音声取得部、音声出力部)
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
IMG1…選択画像
OA…外部機器
SC…外景
BC…まな板
HD…腕
LE…左眼
RE…右眼
LG…足(第2の対象)
RH…右手
LH…左手
IL…照明光
PL…画像光
EL…端部
PN…画像表示最大領域
KN…包丁(第2の対象)
RN…工具(第2の対象)
AP…先端部
VR…視野
TR…タイヤ(第1の対象)
ER…端部
SS…筋力センサー(生体情報取得部)
FS…魚(第1の対象)
BT…ボルト(第1の対象)
CB1,CB2…切身
MB…中骨
AR1,AR2,AR3,AR4,AR5,AR6…画像
CS1,CS2,CS3…矢印画像
TX1,TX2,TX3,TX4,TX5,TX6…テキスト画像
ARH…腕画像
ARR…工具画像
ARS…筋力センサー画像
DESCRIPTION OF SYMBOLS 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switching key 14 ... Trackpad 15 ... Luminance switching key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive unit 23 ... Left holding unit 24 ... Left display drive unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone (audio output unit)
34 ... Left earphone (voice output unit)
DESCRIPTION OF SYMBOLS 40 ... Connection part 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Main body code 51, 52 ... Transmission part 53, 54 ... Reception part 61 ... Camera (detection part)
63 ... Microphone (voice acquisition unit)
90 ... Biometric information acquisition sensor (Biometric information acquisition unit)
100 ... HMD
120: Storage unit 130 ... Power source 132 ... Wireless communication unit (reception unit)
135 ... operation unit 138 ... scenario DB
140 ... CPU
DESCRIPTION OF SYMBOLS 150 ... Operating system 160 ... Image processing part 165 ... Display image setting part 168 ... Object recognition part (detection part)
169 ... Biological information processing unit (biological information acquisition unit)
170 ... Audio processing unit (audio acquisition unit, audio output unit)
180 ... interface 190 ... display control unit 201 ... right backlight control unit 202 ... left backlight control unit 211 ... right LCD control unit 212 ... left LCD control unit 221 ... right backlight 222 ... left backlight 241 ... right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate IMG1 ... Selected image OA ... External device SC ... Outside view BC ... Cutting board HD ... Arm LE ... Left eye RE ... Right eye LG ... Foot (Second target)
RH ... Right hand LH ... Left hand IL ... Illumination light PL ... Image light EL ... End PN ... Maximum image display area KN ... Knife (second object)
RN ... Tool (second target)
AP ... tip portion VR ... visual field TR ... tire (first object)
ER ... end SS ... muscle force sensor (biological information acquisition unit)
FS ... Fish (first target)
BT ... Bolt (first target)
CB1, CB2 ... fillet MB ... middle bone AR1, AR2, AR3, AR4, AR5, AR6 ... image CS1, CS2, CS3 ... arrow image TX1, TX2, TX3, TX4, TX5, TX6 ... text image ARH ... arm image ARR ... Tool image ARS ... Muscle sensor image

Claims (12)

透過型の頭部装着型表示装置であって、
外景の中から第1の対象を検出する検出部と、
前記外景を透過可能で、画像を表示可能な画像表示部と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備え、
前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
A transmissive head-mounted display device,
A detection unit for detecting a first object from the outside scene;
An image display unit capable of transmitting the outside scene and displaying an image;
A display image setting unit that displays a first moving image that is a moving image associated with the detected first object on the image display unit,
The detection unit detects a second object different from the first object from the outside scene,
When the second target is detected when the first moving image is displayed on the image display unit, the display image setting unit replaces the first moving image with the second moving image. A head-mounted display device that causes a second moving image, which is a moving image different from the first moving image associated with the target, to be displayed on the image display unit.
請求項1に記載の頭部装着型表示装置であって、
前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The display image setting unit is a head-mounted display device that displays the first moving image in association with the detected position of the first target.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出する、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2,
The detection unit is a head-mounted display device that images the outside scene and detects the first target from the captured images.
請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像である、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3,
The head-mounted display device, wherein the first moving image is a moving image related to a work performed on the detected first object.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
外部の音声を取得する音声取得部を備え、
前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4, further comprising:
It has an audio acquisition unit that acquires external audio,
The display image setting unit is a head-mounted display device that displays the first moving image on the image display unit based on a combination of the detected first target and the acquired sound.
請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備える、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 5, further comprising:
A head-mounted display device comprising an audio output unit that outputs audio associated with the first moving image when the first moving image is displayed on the image display unit.
請求項1から請求項6までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
使用者の生体情報を取得する生体情報取得部を備え、
前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 6, further comprising:
A biometric information acquisition unit for acquiring biometric information of the user;
The display image setting unit displays the first moving image on the image display unit based on the detected first target and the acquired biological information of the user. apparatus.
請求項1から請求項7までのいずれか一項に記載の頭部装着型表示装置であって、
前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせである、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 7,
The first object and the first moving image are associated with each other by detecting the type of the first object, the movement of the first object, the position of the first object in the outside scene, and the first object. A head-mounted display device that is a combination of at least one of the orientations of one object and the first moving image.
請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
前記検出部は、前記第1の対象および前記第2の対象を含む複数の特定の対象物を検出し、
前記表示画像設定部は、検出された前記複数の特定の対象物のうち設定された優先度が高い特定の対象物に対応付けられた動画像を優先的に前記画像表示部に表示させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 8,
The detection unit detects a plurality of specific objects including the first object and the second object,
The display image setting unit is configured to preferentially display a moving image associated with a specific object having a high priority set among the plurality of detected specific objects on the image display unit. Part-mounted display device.
記憶装置と透過型の頭部装着型表示装置と有する表示システムであって、
前記記憶装置は、
動画像を記憶する記憶部と、
記憶された前記動画像を前記頭部装着型表示装置へと送信する送信部と、を備え、
前記頭部装着型表示装置は、
外景の中から第1の対象を検出する検出部と、
前記外景を透過可能で、画像を表示可能な画像表示部と、
検出された前記第1の対象に対応付けられ、前記記憶装置に記憶された前記動画像である第1の動画像を受信する受信部と、
前記第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備え、
前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、表示システム。
A display system having a storage device and a transmissive head-mounted display device,
The storage device
A storage unit for storing moving images;
A transmission unit for transmitting the stored moving image to the head-mounted display device,
The head-mounted display device is
A detection unit for detecting a first object from the outside scene;
An image display unit capable of transmitting the outside scene and displaying an image;
A receiving unit that receives the first moving image that is the moving image that is associated with the detected first object and stored in the storage device;
A display image setting unit for displaying the first moving image on the image display unit,
The detection unit detects a second object different from the first object from the outside scene,
When the second target is detected when the first moving image is displayed on the image display unit, the display image setting unit replaces the first moving image with the second moving image. A display system for causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
外景を透過可能で画像を表示可能な画像表示部を有する透過型の頭部装着型表示装置の制御方法であって、
外景の中から第1の対象を検出する検出工程と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定工程と、を備え、
前記検出工程は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
前記表示画像設定工程は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、制御方法。
A control method for a transmissive head-mounted display device having an image display unit capable of transmitting an outside scene and displaying an image,
A detection step of detecting a first object from the outside scene;
A display image setting step of causing the image display unit to display a first moving image that is a moving image associated with the detected first object,
The detection step detects a second object different from the first object from the outside scene,
In the display image setting step, when the second moving object is detected while the first moving image is displayed on the image display unit, the second moving image is used instead of the first moving image. A control method for causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
外景を透過可能で画像を表示可能な画像表示部を有する透過型の頭部装着型表示装置のためのコンピュータープログラムであって、
外景の中から第1の対象を検出する検出機能と、
検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定機能と、をコンピューターに実現させ、
前記検出機能は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出する機能を含み、
前記表示画像設定機能は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる機能を含む、コンピュータープログラム。
A computer program for a transmissive head-mounted display device having an image display unit capable of transmitting an outside scene and displaying an image,
A detection function for detecting the first object from the outside scene;
Causing the computer to realize a display image setting function for causing the image display unit to display a first moving image that is a moving image associated with the detected first object;
The detection function includes a function of detecting a second object different from the first object from the outside scene,
When the second target is detected while the first moving image is being displayed on the image display unit, the display image setting function replaces the first moving image with the second moving image. A computer program including a function of causing the image display unit to display a second moving image that is a moving image different from the first moving image associated with the target.
JP2014232342A 2014-11-17 2014-11-17 Head-mounted display device, display system, head-mounted display device control method, and computer program Active JP6488661B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014232342A JP6488661B2 (en) 2014-11-17 2014-11-17 Head-mounted display device, display system, head-mounted display device control method, and computer program
CN201510623115.0A CN105607253B (en) 2014-11-17 2015-09-25 Head-mounted display device, control method, and display system
US14/919,231 US9746914B2 (en) 2014-11-17 2015-10-21 Head mounted display, display system, control method of head mounted display, and computer program
US15/657,937 US10185388B2 (en) 2014-11-17 2017-07-24 Head mounted display, display system, control method of head mounted display, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014232342A JP6488661B2 (en) 2014-11-17 2014-11-17 Head-mounted display device, display system, head-mounted display device control method, and computer program

Publications (2)

Publication Number Publication Date
JP2016096488A JP2016096488A (en) 2016-05-26
JP6488661B2 true JP6488661B2 (en) 2019-03-27

Family

ID=56070423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014232342A Active JP6488661B2 (en) 2014-11-17 2014-11-17 Head-mounted display device, display system, head-mounted display device control method, and computer program

Country Status (1)

Country Link
JP (1) JP6488661B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6783618B2 (en) * 2016-10-18 2020-11-11 株式会社日立システムズ Information display device and its processing control method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165531A (en) * 2003-12-01 2005-06-23 Canon Inc Information apparatus, its control method and program
JP5293025B2 (en) * 2008-09-11 2013-09-18 ブラザー工業株式会社 Head mounted display
JP5104679B2 (en) * 2008-09-11 2012-12-19 ブラザー工業株式会社 Head mounted display
JP5168161B2 (en) * 2009-01-16 2013-03-21 ブラザー工業株式会社 Head mounted display
JP5195537B2 (en) * 2009-03-09 2013-05-08 ブラザー工業株式会社 Head mounted display
JP5141672B2 (en) * 2009-11-30 2013-02-13 ブラザー工業株式会社 Head mounted display device and image sharing system using head mounted display device
JP6076099B2 (en) * 2013-01-18 2017-02-08 オリンパス株式会社 Glasses-type operating device and glasses-type operating system
JP6299067B2 (en) * 2013-02-14 2018-03-28 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP6089898B2 (en) * 2013-04-09 2017-03-08 ソニー株式会社 Image processing apparatus and storage medium

Also Published As

Publication number Publication date
JP2016096488A (en) 2016-05-26

Similar Documents

Publication Publication Date Title
US10185388B2 (en) Head mounted display, display system, control method of head mounted display, and computer program
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10133344B2 (en) Head mounted display apparatus
US11176681B2 (en) Image processing apparatus, control method for image processing apparatus, and computer program
US10140768B2 (en) Head mounted display, method of controlling head mounted display, and computer program
US9547372B2 (en) Image processing device and head mounted display apparatus including the same
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP6421543B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP2018142168A (en) Head mounted type display device, program, and control method for head mounted type display device
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP6364735B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP6358038B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6620420B2 (en) Head-mounted display device, display system, head-mounted display device control method, and computer program
JP2019012537A (en) Head mounted display device and computer program
JP6488661B2 (en) Head-mounted display device, display system, head-mounted display device control method, and computer program
US9866823B2 (en) Head mounted display device, control method for head mounted display device, and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP2018085595A (en) Head-mounted display device and method for controlling the same
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2018092206A (en) Head-mounted display, program, and method for controlling head-mounted display
JP2019053714A (en) Head mounted display device and control method for head mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190211

R150 Certificate of patent or registration of utility model

Ref document number: 6488661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150