JP6186689B2 - 映像表示システム - Google Patents

映像表示システム Download PDF

Info

Publication number
JP6186689B2
JP6186689B2 JP2012213016A JP2012213016A JP6186689B2 JP 6186689 B2 JP6186689 B2 JP 6186689B2 JP 2012213016 A JP2012213016 A JP 2012213016A JP 2012213016 A JP2012213016 A JP 2012213016A JP 6186689 B2 JP6186689 B2 JP 6186689B2
Authority
JP
Japan
Prior art keywords
video
head
user
display device
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012213016A
Other languages
English (en)
Other versions
JP2014066927A (ja
Inventor
小林 伸一
伸一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012213016A priority Critical patent/JP6186689B2/ja
Priority to US14/010,998 priority patent/US20140085203A1/en
Publication of JP2014066927A publication Critical patent/JP2014066927A/ja
Application granted granted Critical
Publication of JP6186689B2 publication Critical patent/JP6186689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明は、映像表示システムおよび頭部装着型表示装置に関する。
頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型(光学透過型およびビデオ透過型)と、使用者が外景を視認できない非透過型との2つのタイプがある。
従来、例えばレース会場の種々の場所や各車両上にカメラを設置し、設置された複数のカメラにより撮影された複数の映像を非透過型の頭部装着型表示装置に送信し、頭部装着型表示装置において使用者がユーザーインターフェースを介して選択した映像を表示する映像表示システムが知られている(例えば、特許文献1参照)。
特表2002−539701号公報 特開平7−95561号公報
上記従来の映像表示システムは、使用者の利便性の点で向上の余地があった。例えば、上記従来の映像表示システムでは、頭部装着型表示装置において複数の映像から1つの映像を選択して表示する場合に、使用者は1つの映像を選択する操作を行う必要があり、煩わしい場合があった。また、上記従来の映像表示システムでは、映像の選択が使用者に委ねられているため、必ずしも使用者の状態に応じた好ましい映像が選択されるとは限らなかった。また、上記従来の映像表示システムは、非透過型の頭部装着型表示装置を用いるものであり、虚像に加えて外景も視認可能な透過型の頭部装着型表示装置を用いることについて何ら考慮されていなかった。そのほか、従来の映像表示システムや当該システムを構成する頭部装着型表示装置においては、その小型化や、低コスト化、省資源化、製造の容易化、使い勝手の向上等が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
本発明の一形態は情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムである。この映像表示システムにおいて、前記情報装置は、前記頭部装着型表示装置の使用者が視認する事象が行われている特定の施設に対応する映像を前記頭部装着型表示装置に配信する映像配信部を有する。前記頭部装着型表示装置は、使用者の頭の動きを検出する動き検出部を有し、前記動きを表す動き情報に基づき選択された前記映像を虚像として使用者に視認させる。前記頭部装着型表示装置は、さらに、前記動き情報を前記情報装置に送信する情報送信部を有する。前記情報装置は、さらに、前記特定の施設内に位置する前記頭部装着型表示装置から前記動き情報を受信する情報受信部を有する。前記映像配信部は、前記特定の施設に対応する複数の前記映像から前記動き情報に基づき少なくとも1つの前記映像を選択し、選択された前記映像を前記動き情報の送信元の前記頭部装着型表示装置に配信する。前記複数の映像は、前記特定の施設内の物体を撮影した映像である。前記頭部装着型表示装置は、さらに、現在位置を検出する位置検出部を有する。前記情報送信部は、前記現在位置を表す位置情報を前記情報装置に送信する。前記映像配信部は、前記動き情報と前記位置情報とに基づき映像を選択する。
この形態の映像表示システムによれば、情報装置の映像配信部が、動き情報に基づき少なくとも1つの映像を選択し、選択された映像を動き情報の送信元の頭部装着型表示装置に配信するため、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、使用者の利便性を高めることができる。
本発明の他の形態は、情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムである。この映像表示システムにおいて、前記情報装置は、前記頭部装着型表示装置の使用者が視認する事象が行われている特定の施設に対応する映像を前記頭部装着型表示装置に配信する映像配信部を有する。前記頭部装着型表示装置は、使用者の頭の動きを検出する動き検出部と、現在位置を検出する位置検出部と、前記特定の施設内において、前記情報装置から、前記特定の施設に対応する複数の前記映像を受信する映像受信部と、前記動きを表す動き情報と前記現在位置を表す位置情報とに基づき、前記複数の映像から使用者に視認させる映像を選択する映像選択部と、を有する。前記複数の映像は、前記特定の施設内の物体を撮影した映像である。
この形態の映像表示システムによれば、頭部装着型表示装置の映像選択部が、動き情報に基づき映像を選択し、選択された映像が使用者に視認されるため、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、使用者の利便性を高めることができる。
その他、本発明は、以下の形態としても実現することが可能である。
(1)本発明の一形態によれば、情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムが提供される。この映像表示システムにおいて、前記情報装置は、特定の地理的領域に対応する映像を前記頭部装着型表示装置に配信する映像配信部を有し、前記頭部装着型表示装置は、使用者の頭の動きを検出する動き検出部を有し、前記動きを表す動き情報に基づき選択された前記映像を虚像として使用者に視認させる。この形態の映像表示システムによれば、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、選択された映像を使用者に視認させることができるため、使用者の利便性を高めることができる。
(2)上記形態の映像表示システムにおいて、前記頭部装着型表示装置は、前記動き情報を前記情報装置に送信する情報送信部を有し、前記情報装置は、前記特定の地理的領域内に位置する前記頭部装着型表示装置から前記動き情報を受信する情報受信部を有し、前記映像配信部は、前記特定の地理的領域に対応する複数の前記映像から前記動き情報に基づき少なくとも1つの前記映像を選択し、選択された前記映像を前記動き情報の送信元の前記頭部装着型表示装置に配信するとしてもよい。この形態の映像表示システムによれば、情報装置の映像配信部が、動き情報に基づき少なくとも1つの映像を選択し、選択された映像を動き情報の送信元の頭部装着型表示装置に配信するため、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、使用者の利便性を高めることができる。
(3)上記形態の映像表示システムにおいて、前記複数の映像は、所定の期間に前記特定の地理的領域内の物体を撮影した映像であるリプレイ映像を含み、前記映像配信部は、前記動き情報が表す前記使用者の頭の動きが予め設定された閾値以上である場合に、前記動き情報に基づき決定される期間に対応する前記リプレイ映像を選択するとしてもよい。この形態の映像表示システムによれば、動き情報に基づき決定される期間に対応するリプレイ映像が選択されて頭部装着型表示装置に配信されるため、閾値以上の使用者の頭の動きがあったときのリプレイ映像を使用者に視認させることができ、使用者の利便性をさらに高めることができる。
(4)上記形態の映像表示システムにおいて、前記リプレイ映像は、他の映像と比較して、前記頭部装着型表示装置の使用者の視野における中心に近い位置に視認される映像であるとしてもよい。この形態の映像表示システムによれば、閾値以上の使用者の頭の動きがあったときのリプレイ映像を使用者の視野の中心に近い位置に視認させることができ、使用者の利便性をさらに高めることができる。
(5)上記形態の映像表示システムにおいて、前記リプレイ映像は、他の映像と比較して、前記頭部装着型表示装置の使用者の視野において、大きく表示されることと、強調表示されることと、所定のマークが付加されることと、の少なくとも1つの特徴を有する映像であるとしてもよい。この形態の映像表示システムによれば、閾値以上の使用者の頭の動きがあったときのリプレイ映像を目立つように使用者に視認させることができ、使用者の利便性をさらに高めることができる。
(6)上記形態の映像表示システムにおいて、前記映像配信部は、前記動き情報が表す前記使用者の頭の動きが予め設定された閾値以上である場合に、所定の期間、前記動き情報の送信元の前記頭部装着型表示装置への映像の配信を停止するとしてもよい。この形態の映像表示システムによれば、閾値以上の使用者の頭の動きがあったとき、使用者の視野に虚像を視認させず、視野の広い領域で直接外景を視認させることができ、使用者の利便性をさらに高めることができる。
(7)上記形態の映像表示システムにおいて、前記複数の映像は、前記特定の地理的領域内の物体を撮影した映像であり、前記頭部装着型表示装置は、さらに、現在位置を検出する位置検出部を有し、前記情報送信部は、前記現在位置を表す位置情報を前記サーバー装置に送信し、前記映像配信部は、前記動き情報と前記位置情報とに基づき映像を選択するとしてもよい。この形態の映像表示システムによれば、使用者の状態に応じた好ましい映像が選択され、選択された映像を使用者に視認させることができるため、使用者の利便性を高めることができる。
(8)上記形態の映像表示システムにおいて、前記映像配信部は、前記動き情報と前記位置情報とに基づき推定される前記頭部装着型表示装置の使用者の視線とは所定値以上異なる角度で物体を撮影した映像を選択するとしてもよい。この形態の映像表示システムによれば、推定される使用者の視線とは所定値以上異なる角度で物体を撮影した映像を使用者に視認させることができるため、使用者の利便性を高めることができる。
(9)上記形態の映像表示システムにおいて、前記映像配信部は、前記動き情報と前記位置情報とに基づき推定される前記頭部装着型表示装置の使用者の視野における所定範囲の外に位置する物体を撮影した映像を選択するとしてもよい。この形態の映像表示システムによれば、推定される使用者の視野における所定範囲の外に位置する物体を撮影した映像を使用者に視認させることができるため、使用者の利便性を高めることができる。
(10)上記形態の映像表示システムにおいて、前記頭部装着型表示装置は、前記特定の地理的領域内において、前記情報装置から、前記特定の地理的領域に対応する複数の前記映像を受信する映像受信部と、前記動き情報に基づき、前記複数の映像から使用者に視認させる映像を選択する映像選択部と、を有するとしてもよい。この形態の映像表示システムによれば、頭部装着型表示装置の映像選択部が、動き情報に基づき映像を選択し、選択された映像が使用者に視認されるため、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、使用者の利便性を高めることができる。
(11)本発明の他の形態によれば、特定の地理的領域に対応する映像を配信する情報装置から配信された前記映像を虚像として使用者に視認させる透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、使用者の頭の動きを検出する動き検出部を有し、前記動きを表す動き情報に基づき選択された前記映像を虚像として使用者に視認させる。この形態の頭部装着型表示装置によれば、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択され、選択された映像を使用者に視認させることができるため、使用者の利便性を高めることができる。
(12)本発明の他の形態によれば、情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムが提供される。この映像表示システムにおいて、前記頭部装着型表示装置は、現在位置を検出する位置検出部と、前記現在位置を表す位置情報を前記情報装置に送信する情報送信部と、を有し、前記情報装置は、特定の地理的領域内に位置する前記頭部装着型表示装置から前記位置情報を受信する情報受信部と、前記特定の地理的領域に対応する複数の映像から前記位置情報に基づき少なくとも1つの前記映像を選択し、選択された前記映像を前記位置情報の送信元の前記頭部装着型表示装置に配信する映像配信部と、を有する。この形態の映像表示システムによれば、情報装置の映像配信部が、位置情報に基づき少なくとも1つの映像を選択し、選択された映像を位置情報の送信元の頭部装着型表示装置に配信するため、頭部装着型表示装置の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の位置に応じた好ましい映像が選択され、使用者の利便性を高めることができる。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部又は全部を解決するため、あるいは、本明細書に記載された効果の一部又は全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部又は全部を解決するため、あるいは、本明細書に記載された効果の一部又は全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部又は全部を上述した本発明の他の形態に含まれる技術的特徴の一部又は全部と組み合わせて、本発明の独立した一形態とすることも可能である。
本発明は、映像表示システム以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置、情報装置、コンテンツサーバー、これらの装置・サーバーの制御方法、その制御方法を実現するコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
本発明の第1実施形態における映像表示システム1000の概略構成を示す説明図である。 頭部装着型表示装置100の外観構成を示す説明図である。 頭部装着型表示装置100の構成を機能的に示すブロック図である。 画像光生成部によって画像光が射出される様子を示す説明図である。 使用者に認識される虚像の一例を示す説明図である。 自動映像選択処理の流れを示すフローチャートである。 自動映像選択処理の概要を示す説明図である。 第2実施形態における自動映像選択処理の流れを示すフローチャートである。 第2実施形態における自動映像選択処理の概要を示す説明図である。
A.第1実施形態:
図1は、本発明の第1実施形態における映像表示システム1000の概略構成を示す説明図である。本実施形態の映像表示システム1000は、野球場BSに適用されるシステムである。図1に示す例では、野球場BSのグラウンドGRの周囲に設けられたスタンドSTで、頭部装着型表示装置100(詳細は後述する)を装着した観客SPが野球の試合を観戦している。
映像表示システム1000は、コンテンツサーバー300を備える。コンテンツサーバー300は、CPU310と、記憶部320と、無線通信部330と、映像入力インターフェイス340とを有する。記憶部320は、例えば、ROM、RAM、DRAM、ハードディスク等によって構成されている。CPU310は、記憶部320に格納されたコンピュータープログラムを読み出して実行することにより、情報受信部312、映像処理部314、映像配信部316として機能する。無線通信部330は、無線LANやブルートゥースといった所定の無線通信規格に則って、野球場BS内に存在する頭部装着型表示装置100との間で無線通信を行う。なお、コンテンツサーバー300と頭部装着型表示装置100との間の無線通信は、コンテンツサーバー300に接続された別装置としての通信装置(例えば無線LANアクセスポイント)を介して実行されるとしてもよい。この場合には、コンテンツサーバー300の無線通信部330は省略可能である。また、コンテンツサーバー300は、直接に、または、通信装置を介して、野球場BS内に存在する頭部装着型表示装置100と無線通信できる限りにおいて、野球場BSの内外の任意の場所に設置することができる。
野球場BSには、野球場BS内の種々の物体(グラウンドGR、選手、スタンドST、観客、スコアボードSB等)を撮影する複数のカメラCaが設置されている。例えば、図1の例では、野球場BSのバックネット裏付近にカメラCa4が設置されており、内野席付近にカメラCa3,Ca5が設置されており、外野席付近にカメラCa1,Ca2,Ca6が設置されている。野球場BSにおけるカメラCaの設置台数や配置は、任意に変更可能である。各カメラCaとコンテンツサーバー300とは、ケーブルおよび必要により中継装置を介して接続されており、各カメラCaにより撮影された映像は、コンテンツサーバー300の映像入力インターフェイス340に入力される。コンテンツサーバー300の映像処理部314は、入力された映像に対して必要により圧縮等の処理を実行し、各カメラCaのリアルタイム映像として記憶部320に格納する。リアルタイム映像は、頭部装着型表示装置100に対する実質的な生放送用の映像である。また、映像処理部314は、入力映像からリプレイ映像を作成して、記憶部320に格納する。リプレイ映像は、現在より前の所定期間のシーン(ハイライトシーン)を表す映像である。また、本実施形態では、記憶部320に、選手に関する情報(選手名、所属チーム名、ポジション、成績等)や野球場BSに関する情報(球場名、収容人数、観客数、気象状況等)が予め格納されている。なお、各カメラCaとコンテンツサーバー300との接続は、有線ではなく無線によるものとしてもよい。
図2は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10と、を備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241,242や投写光学系251,252等を含む(図3参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図3参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、使用者の眼の側とは反対側方向の外景(外部の景色)を撮像し、外景画像を取得する。本実施形態におけるカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
制御部10は、頭部装着型表示装置100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、頭部装着型表示装置100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源の状態を切り替える。
図3は、頭部装着型表示装置100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18に対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えばコンテンツサーバー300といった他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛生からの信号を受信することにより、自身の現在位置を検出する。
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、音声処理部170、表示制御部190、観戦支援部142として機能する。
画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づき、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを生成し、接続部40を介してこれらの信号を画像表示部20に供給する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に、1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、図示しないPLL(Phase Locked Loop)回路等を利用してクロック信号PCLKを生成する。
画像処理部160は、同期信号が分離されたアナログ画像信号を、図示しないA/D変換回路等を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データData(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。観戦支援部142は、使用者による野球場BSでの野球の試合の観戦を支援するためのアプリケーションプログラムである。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、9軸センサー66とを備えている。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。制御部10の観戦支援部142は、GPSモジュール134により検出された制御部10の現在位置を表す位置情報や、9軸センサー66により検出された使用者の頭の動きを表す動き情報を、無線通信部132を介してコンテンツサーバー300に供給する。このとき、観戦支援部142は、請求項における情報送信部として機能する。
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。
図4は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表す有効な画像光PLへと変調する。左側についても同様である。なお、図4のように、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。
図5は、使用者に認識される虚像の一例を示す説明図である。図5には、図1に示す観客SP1の視野VRを例示している。頭部装着型表示装置100の使用者(観客SP)の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認する。また、使用者の視野VRのうち、虚像VIが表示された部分以外については、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。図5に示す例では、外景SCは、野球場BS内の風景である。なお、本実施形態の頭部装着型表示装置100では、使用者は、視野VRの内、虚像VIの部分についても、虚像VIの背後に外景SCを視認可能である。
本実施形態では、頭部装着型表示装置100の使用者(観客SP)が野球場BS内で所定のアプリケーションプログラムを起動すると、CPU140が観戦支援部142(図3)として機能し、観戦支援部142の機能により図5に示す虚像VIが表示される。すなわち、観戦支援部142は、無線通信部132を介してコンテンツサーバー300に映像を要求し、要求に応じてコンテンツサーバー300から配信された映像に基づき虚像VIを表示させる。図5に示した虚像VIは、野球場BSに関する情報(球場名、観客数、気象状況等)を表す部分虚像VI1や、メニューを表す部分虚像VI2、選手に関する情報(選手名、チーム名、ポジション、成績等)を表す部分虚像VI3、VI4を含んでいる。選手に関する情報を表す映像や野球場BSに関する情報を表す映像は、特定の地理的領域としての野球場BSに対応する映像と言える。なお、虚像VIの一部または全部は、予め頭部装着型表示装置100の記憶部120に格納された映像に基づき表示されるとしてもよい。
メニューを表す部分虚像VI2は、映像を選択するための複数のアイコンと、買い物をするための複数のアイコンとを含んでいる。例えば、使用者が制御部10のタッチパッド14や十字キー16を操作して、買い物をするための複数のアイコンの1つ(例えば、ビールアイコン)を選択すると、観戦支援部142は、図示しない物販サーバーに対し、選択されたアイコンに対応する品物の購入要求を、GPSモジュール134で検出された現在位置を表す位置情報と共に送信する。物販サーバーは、受信した購入要求を、当該品物を取り扱う売店の端末に転送する。売店の販売員は、端末に転送された購入要求に応じて、要求された品物を位置情報により特定される席まで配達する。
部分虚像VI2における映像選択のための複数のアイコンは、カメラを選択するためのアイコンと、リプレイ映像を選択するためのアイコンと、選手を選択するためのアイコンと、自動選択のアイコンとが含まれている。例えば、使用者が、選手を選択するためのアイコンを選択すると共に、対象選手を選択する操作を行うと、頭部装着型表示装置100の観戦支援部142は、無線通信部132を介して、選手を特定する情報をコンテンツサーバー300に送信する。対象選手を選択する操作は、制御部10のタッチパッド14や十字キー16を用いて行われる。あるいは、この操作は、使用者が特定の選手に視線を向けたときの9軸センサー66の検出値を用いて自動的に行われるとしてもよい。コンテンツサーバー300の映像配信部316は、受信した情報により特定される選手情報映像を選択して記憶部320から読み出し、読み出された映像を無線通信部330を介して頭部装着型表示装置100に配信する。頭部装着型表示装置100の観戦支援部142は、配信された映像を虚像VIとして表示させる。
また例えば、使用者が所望のカメラ(例えば、図1のカメラCa1(センターカメラ))に対応するボタンを選択すると、頭部装着型表示装置100の観戦支援部142は、無線通信部132を介して、選択されたカメラを特定する情報をコンテンツサーバー300に送信する。コンテンツサーバー300の映像配信部316は、受信した情報により特定されるカメラにより撮影されたリアルタイム映像を選択して記憶部320から読み出し、読み出された映像を無線通信部330を介して頭部装着型表示装置100に配信する。頭部装着型表示装置100の観戦支援部142は、配信された映像を虚像VIとして表示させる。このようにして、使用者は、好みの角度やズーム状態の映像を虚像VIとして視認することができる。
同様に、使用者がリプレイボタンを選択すると、頭部装着型表示装置100の観戦支援部142は、無線通信部132を介して、リプレイ映像の要求をコンテンツサーバー300に送信する。コンテンツサーバー300の映像配信部316は、リプレイ映像を選択して記憶部320から読み出し、読み出された映像を無線通信部330を介して頭部装着型表示装置100に配信する。制御部10の観戦支援部142は、配信された映像を虚像VIとして表示させる。
また、使用者が自動ボタンを選択すると、以下に説明する自動映像選択処理が開始される。自動映像選択処理は、コンテンツサーバー300が自動的に映像を選択して頭部装着型表示装置100に配信し、頭部装着型表示装置100が配信された映像を表示する処理である。図6は、自動映像選択処理の流れを示すフローチャートである。また、図7は、自動映像選択処理の概要を示す説明図である。図7(a)には、観客SP1がスタンドSTの内野席で野球の試合を観戦している様子を示している。一般に、野球の試合では、図7(a)に示すように、観客SPはピッチャーとキャッチャーとの間(バッテリー)付近に視線を向けていることが多い。
自動映像選択処理が開始されると、頭部装着型表示装置100の観戦支援部142は、無線通信部132を介して映像自動選択要求をコンテンツサーバー300に送信する(ステップS120)。このとき、観戦支援部142は、GPSモジュール134で検出された現在位置を表す位置情報もコンテンツサーバー300に送信する。映像自動選択要求を受信したコンテンツサーバー300の映像配信部316は、スタンドSTの各位置(または各領域、以下同様)に応じて予め設定されたデフォルト映像を記憶部320から読み出し、読み出された映像を無線通信部330を介して頭部装着型表示装置100に配信する(ステップS210)。頭部装着型表示装置100の観戦支援部142は、配信されたデフォルト映像を無線通信部132を介して受信し、デフォルト映像を虚像VIとして表示させる(ステップS130)。
本実施形態では、スタンドSTの各位置からの視線とは所定値以上異なる角度で物体を撮影した映像が、デフォルト映像として設定されている。例えば図7(a)のように、スタンドSTの内野席の位置に対応するデフォルト映像として、図1のカメラCa1(センターカメラ)により撮影されたリアルタイム映像が設定されている。この場合には、観客SP1の視野VRにおいて、センターカメラにより撮影されたリアルタイム映像の虚像VIが視認される。このようにデフォルト映像が設定されると、観客SPは、直接視認する外景SCとは角度の異なる映像を虚像VIとして視認することができるため、観戦をより楽しむことができる。なお、使用者の視線とは所定値以上異なる角度で物体を撮影した映像とは、視線方向と撮影のためのカメラの光軸方向とのなす角度が所定値以上であることを意味する。この所定値は、任意に設定可能であるが、例えば、使用者の直接的な視野を補完するという観点から、15度以上であることが好ましく、30度以上であることがより好ましく、45度以上であることがさらに好ましい。また、図7(a)に示すように、デフォルト映像の虚像VIは、観客SPの視野VRの中心から比較的遠い位置の比較的小さい領域に視認される。そのため、観客SPの視野VRにおいて、直接視認する外景SCが大部分を締め、虚像VIは視野VRの周縁部の小領域を締めるに過ぎず、虚像VIによって観戦の臨場感が損なわれることを極力抑制することができる。
頭部装着型表示装置100の観戦支援部142は、予め設定された閾値以上の使用者の頭の動き(以下、「大きな頭の動きMO」と呼ぶ)が9軸センサー66によって検出されたか否かを監視する(ステップS140)。大きな頭の動きMOが検出されると、観戦支援部142は、大きな頭の動きMOが検出されたことをコンテンツサーバー300に通知する(ステップS160)。この通知は、使用者の頭の動きを表す動き情報に該当する。コンテンツサーバー300の情報受信部312が、無線通信部330を介して上記通知を受信すると、映像配信部316は、通知の送信元の頭部装着型表示装置100への映像の配信を停止する(ステップS220)。これにより、頭部装着型表示装置100の使用者には虚像VIが視認されなくなる。図7(b)には、バッターが打ったボールが外野方向に飛んだため、観客SP1が頭を外野方向に向けて大きく動かした様子を示している。上述した閾値は、観客SPがこのような頭の大きな動きMOを行った際に9軸センサー66で検出される検出値が当該閾値を超えるように設定されている。そのため、図7(b)の場合には、コンテンツサーバー300から頭部装着型表示装置100への映像配信が停止され、観客SP1の視野VRに虚像VIが含まれなくなる。
一般に、スポーツ観戦時に観客SPが頭を大きく動かすのは、何らかの見るべき重要なプレイ(例えば、バッターがバットでボールを捉えたプレイ)が行われた場合が多いと考えられる。このようなプレイの際には、観客SPは、プレイを直接見ることを希望すると考えられる。本実施形態では、観客SPの大きな頭の動きMOが検出されると、コンテンツサーバー300から頭部装着型表示装置100への映像配信が停止され、観客SPの視野VRに虚像VIが含まれなくなるため、虚像VIに遮られることなく見るべき重要なプレイを大きな視野VR内に視認することができる。このように、本実施形態の映像表示システム1000では、使用者の利便性を高めることができる。
コンテンツサーバー300の映像配信部316は、頭部装着型表示装置100からの通知受領から予め設定された時間が経過したか否かを監視する(ステップS230)。この時間は、種目毎の特性(例えば、ワンプレイに要する平均時間)に応じて適宜設定される。予め設定された時間が経過するまでは、コンテンツサーバー300による頭部装着型表示装置100への映像配信は停止されている。予め設定された時間が経過すると、上記通知に基づきリプレイ対象の期間を決定し、決定された期間のリプレイ映像を記憶部320から読み出し、読み出された映像を頭部装着型表示装置100に配信する(ステップS240)。本実施形態では、頭部装着型表示装置100からの通知が受領されたタイミングを含む所定の長さの期間が、リプレイ対象の期間として決定される。このように期間が設定されると、コンテンツサーバー300により選択されるリプレイ映像は、観客SPの大きな頭の動きMOが検出されたタイミングを含む期間の映像となるため、見るべき重要なプレイのリプレイ映像となる。本実施形態では、頭部装着型表示装置100からの通知受領から予め設定された時間が経過すると、見るべき重要なプレイは完了し、使用者は当該プレイのリプレイ映像の観賞を希望している状態にあると想定し、このようなリプレイ映像の配信を行うものとしている。
頭部装着型表示装置100の観戦支援部142は、配信されたリプレイ映像を受信し、受信されたリプレイ映像を虚像VIとして表示させる(ステップS170)。図7(c)には、使用者の視野VRにおいてリプレイ映像の虚像VIが視認されている様子を示している。リプレイ映像の虚像VIは、上述したデフォルト映像の虚像VIと比較して、観客SPの視野VRにおける中心により近い位置のより大きい領域に視認される。そのため、観客SPは、見るべき重要なプレイのリプレイ映像を視野VRの中央の大きな領域に視認することができる。このように、本実施形態の映像表示システム1000では、使用者の利便性をさらに高めることができる。
コンテンツサーバー300は、リプレイ映像の配信が完了すると、再度、デフォルト映像の配信を開始する(ステップS210)。以降は、上述の各ステップが繰り返し実行される。
以上説明したように、本実施形態の映像表示システム1000における自動映像選択処理では、野球場BS内に存在する頭部装着型表示装置100の9軸センサー66によって大きな頭の動きMOが検出されると、頭部装着型表示装置100の観戦支援部142は、大きな頭の動きMOが検出されたことを表す動き情報をコンテンツサーバー300に送信する。動き情報を受信したコンテンツサーバー300の映像配信部316は、動き情報に基づきリプレイ映像を選択して頭部装着型表示装置100に配信する。そのため、本実施形態の映像表示システム1000では、頭部装着型表示装置100の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択されて頭部装着型表示装置100により表示されるため、使用者の利便性を高めることができる。
B.第2実施形態:
図8は、第2実施形態における自動映像選択処理の流れを示すフローチャートである。また、図9は、第2実施形態における自動映像選択処理の概要を示す説明図である。図9(a)には、図7(a)と同様に、観客SP1がスタンドSTの内野席で野球の試合を観戦している様子を示している。
自動映像選択処理が開始されると、頭部装着型表示装置100の観戦支援部142(図3)は、GPSモジュール134に現在位置を検出させると共に(ステップS122)、9軸センサー66に使用者の顔の向きを検出させ(ステップS132)、現在位置を表す位置情報と顔向きを表す動き情報とを無線通信部132を介してコンテンツサーバー300に送信する(ステップS142)。
位置情報および動き情報を受信したコンテンツサーバー300の映像配信部316は、位置情報および動き情報に基づき、頭部装着型表示装置100に配信すべき映像を選択し、選択された映像を記憶部320から読み出して頭部装着型表示装置100に配信する(ステップS212)。頭部装着型表示装置100の観戦支援部142は、コンテンツサーバー300から配信された映像を無線通信部132を介して受信し、受信された映像を虚像VIとして表示させる(ステップS152)。
本実施形態では、コンテンツサーバー300の映像配信部316は、頭部装着型表示装置100の現在位置を特定する位置情報と頭部装着型表示装置100の使用者の顔向きを特定する動き情報とに基づき、頭部装着型表示装置100の使用者の視線を推定し、推定された視線とは所定値以上異なる角度で物体を撮影した映像を、頭部装着型表示装置100に配信すべき映像として選択する。この所定値は、上記第1実施形態と同様にして予め設定される。例えば、図9(a)に示す例では、観客SP1の位置および顔向きから推定される視線の向きは、観客SP1の位置からバッテリー付近に向かう向きである。そのため、映像配信部316は、推定された視線とは所定値以上異なる角度で物体を撮影した映像、例えばバックネット裏のカメラCa4(図1)からスコアボードSBを撮影した映像を、配信すべき画像として選択する。このように選択された映像が観客SP1の装着する頭部装着型表示装置100に配信されると、図9(a)に示すように、観客SP1の視野VRに、スコアボードSBを撮影した映像が虚像VIとして視認される。これにより、観客SP1は、選手のプレイを外景SCとして直接視認しつつ、スコアボードSBを虚像VIとして視認することができる。このように、本実施形態の映像表示システム1000では、使用者の利便性を高めることができる。
頭部装着型表示装置100の観戦支援部142は、映像の受信後、所定時間が経過したか否かを監視する(ステップS162)。所定時間が経過すると、観戦支援部142は、再度、現在位置の検出(ステップS122)および使用者の顔の向きの検出(ステップS132)を行い、位置情報と動き情報とをコンテンツサーバー300に送信する(ステップS142)。位置情報および動き情報を受信したコンテンツサーバー300の映像配信部316は、新たに受信した位置情報および動き情報に基づき、頭部装着型表示装置100に配信すべき映像を選択して頭部装着型表示装置100に配信する(ステップS212)。例えば、観客SP1が、図9(a)に示す状態から図9(b)に示すようにスコアボードSBの方向に頭を向ける動きMOを行った場合には、映像配信部316は、観客SP1の視線とは所定値以上異なる角度で物体を撮影した映像、例えば観客SP1の現在位置付近のカメラCa5(図1)からバッテリー方向を撮影した映像を、配信すべき画像として選択する。このように選択された映像が観客SP1の装着する頭部装着型表示装置100に配信されると、観客SP1の視野VRに、観客SP1の現在位置付近からグラウンドGRを撮影した映像が虚像VIとして視認される。これにより、観客SP1は、スコアボードSBを外景SCとして直接視認しつつ、バッテリー方向を向いたときに想定される視野VRに相当する映像を虚像VIとして視認することができる。このように、本実施形態の映像表示システム1000では、使用者の利便性を高めることができる。
また、その後、観客SP1が図9(b)に示す状態から頭を動かして、図9(c)に示すようにバッテリー付近に視線を戻した場合には、映像配信部316は、観客SP1の視線とは所定値以上異なる角度で物体を撮影した映像、例えばバックネット裏のカメラCa4からスコアボードSBを撮影した映像を、配信すべき画像として選択する。このように選択された映像が観客SP1の装着する頭部装着型表示装置100に配信されると、観客SP1の視野VRの状態は、スコアボードSB方向を向くように頭を動かす前の状態(図9(a)に示した状態)に戻る。
以上説明したように、第2実施形態の映像表示システム1000における自動映像選択処理では、頭部装着型表示装置100のGPSモジュール134によって現在位置が検出されると共に9軸センサー66によって頭の向きが検出されると、頭部装着型表示装置100の観戦支援部142は、位置情報と動き情報とをコンテンツサーバー300に送信する。位置情報および動き情報を受信したコンテンツサーバー300の映像配信部316は、位置情報および動き情報に基づき頭部装着型表示装置100に配信すべき映像を選択する。具体的には、コンテンツサーバー300の映像配信部316は、動き情報および位置情報に基づき推定される頭部装着型表示装置100の使用者の視線とは所定値以上異なる角度で物体を撮影した映像を、頭部装着型表示装置100に配信すべき映像として選択する。そのため、第2実施形態の映像表示システム1000では、頭部装着型表示装置100の使用者が映像を選択するための煩わしい操作を行うことなく、使用者の状態に応じた好ましい映像が選択されて頭部装着型表示装置100により表示されるため、使用者の利便性を高めることができる。
C.変形例:
この発明は上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C1.変形例1:
上記実施形態では、映像表示システム1000は、野球場BSに適用されるとしているが、他の地理的領域にも適用可能である。他の地理的領域としては、例えば、他の種目の競技場(例えばサッカー場)や、博物館、展示会会場、コンサート会場、演劇場が挙げられる。映像表示システム1000を他の種目の競技場やコンサート会場、演劇場に適用する場合に、上述した第1実施形態のように、使用者の頭の大きな動きMOが検出されると映像の配信を停止したり、その後にリプレイ映像を配信したりすることにより、使用者の利便性を向上させることができる。また、映像表示システム1000を他の種目の競技場やコンサート会場、演劇場、博物館、展示会会場に適用する場合に、上述した第2実施形態のように、推定される使用者の視線とは所定値以上異なる角度で物体を撮影した映像を配信することにより、使用者の利便性を向上させることができる。
また、上記実施形態における自動映像選択処理では、使用者の視野VRに1つの領域から構成された虚像VIが視認されるとしているが、使用者の視野VRに2つ以上の領域から構成された虚像VIが視認されるとしてもよい。例えば、図7(a)の例において、使用者の視野VRの左下隅付近の領域に右上隅付近の領域を加えた2つの領域から構成される虚像VIが視認されるとしてもよい。このように、2つ以上の領域から構成された虚像VIが視認される場合にも、各領域に配置すべき映像が動き情報や位置情報に基づき選択されるとしてもよい。また、このような場合に、虚像VIを構成する各領域に、互いに異なる角度の映像が配置されるとしてもよいし、互いにズーム状態の異なる映像が配置されるとしてもよい。
C2.変形例2:
上記実施形態では、コンテンツサーバー300が、複数の映像の中から頭部装着型表示装置100に配信すべき映像を選択するとしているが、これに代えて、コンテンツサーバー300から複数の映像が頭部装着型表示装置100に配信され、頭部装着型表示装置100が、配信された映像の中から虚像VIとして使用者に視認させる映像を選択するとしてもよい。頭部装着型表示装置100による映像の選択は、上述した実施形態におけるコンテンツサーバー300による映像の選択と同様に実行可能である。
C3.変形例3:
上記実施形態における頭部装着型表示装置100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた十字キー16やタッチパッド14の一方を省略したり、十字キー16やタッチパッド14に加えてまたは十字キー16やタッチパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34やカメラ61、GPSモジュール134は適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。また、上記実施形態では、使用者の頭の動きを検出するセンサーとして9軸センサー66を利用しているが、これに代えて、加速度センサー、角速度センサー、地磁気センサーの内の1つまたは2つから構成されたセンサーを利用するとしてもよい。また、上記実施形態では、頭部装着型表示装置100の位置を検出するセンサーとしてGPSモジュール134を利用しているが、これに代えて、他の位置検出センサーを利用するとしてもよい。また、野球場BSの各席に頭部装着型表示装置100が備え付けられており、各頭部装着型表示装置100にはその位置を特定する位置情報が予め記憶されているとしてもよい。また、上記実施形態では、頭部装着型表示装置100は、両眼タイプの光学透過型であるとしているが、本発明は、例えばビデオ透過型や単眼タイプといった他の形式の頭部装着型表示装置にも同様に適用可能である。
また、上記実施形態において、頭部装着型表示装置100は、使用者の左右の眼に同じ画像を表す画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表す画像光を導いて使用者に三次元画像を視認させるとしてもよい。
また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。
C4.変形例4:
上記第1実施形態では、スタンドSTの各位置からの視線とは所定値以上異なる角度で物体を撮影した映像がデフォルト映像として設定されているが、他の映像がデフォルト映像として設定されているとしてもよい。例えば、スタンドSTの各位置からの視線と同一または類似の角度の映像が、デフォルト映像として設定されているとしてもよい。あるいは、デフォルト映像は、スタンドSTの位置とは無関係に設定されているとしてもよい。また、野球場BSに対応する映像の内、野球場BS内の物体を撮影した映像以外の映像(例えば選手情報映像)が、デフォルト映像として設定されているとしてもよい。なお、頭部装着型表示装置100に配信すべき映像の選択のために頭部装着型表示装置100の現在位置を表す位置情報が必要ない場合には、必ずしも頭部装着型表示装置100からコンテンツサーバー300への位置情報の送信が行われる必要はない。
また、上記第1実施形態では、観客SPの大きな頭の動きMOが検出されると、頭部装着型表示装置100からコンテンツサーバー300への通知が行われ、通知を受けたコンテンツサーバー300が頭部装着型表示装置100へのデフォルト映像の配信を停止するものとしているが、これに代えて、デフォルト映像の配信が継続されるとしてもよい。この場合にも、通知から所定時間経過に配信映像をデフォルト映像からリプレイ映像に切り換えることにより、観客SPに、見るべき重要なプレイのリプレイ映像を大きな領域に視認させることができ、使用者の利便性を高めることができる。
また、上記第1実施形態では、観客SPの大きな頭の動きMOが検出されると、頭部装着型表示装置100からコンテンツサーバー300への通知が行われ、通知を受けたコンテンツサーバー300が頭部装着型表示装置100への映像の配信を停止するものとしているが、これに代えて、観客SPの大きな頭の動きMOが検出されると、頭部装着型表示装置100自身が虚像VIを非表示にするものとしてもよい。すなわち、頭部装着型表示装置100は、コンテンツサーバー300から映像の配信を受けつつ、配信された映像を虚像VIとして表示しないものとしてもよい。この場合においても、頭部装着型表示装置100からコンテンツサーバー300への通知が行われることにより、コンテンツサーバー300は、所定時間経過後に、デフォルト映像に代えてリプレイ映像を頭部装着型表示装置100に配信することができる。頭部装着型表示装置100は、リプレイ映像が配信されると、配信された映像を虚像VIとして表示する。このようにしても、観客SPに、見るべき重要なプレイを虚像VIに遮られることなく大きな視野VR内に視認させた後、見るべき重要なプレイのリプレイ映像を大きな領域に視認させることができるため、使用者の利便性を高めることができる。
また、上記第1実施形態では、頭部装着型表示装置100において観客SPの大きな頭の動きMOが検出されると、大きな頭の動きMOが検出されたことが頭部装着型表示装置100からコンテンツサーバー300に通知されるとしているが、これに代えて、頭部装着型表示装置100の9軸センサー66の検出値がコンテンツサーバー300に継続的に送信され、コンテンツサーバー300によって観客SPの大きな頭の動きMOがあったか否かが判定されるとしてもよい。9軸センサー66の検出値は、使用者の頭の動きを表す動き情報に該当する。この場合にも、コンテンツサーバー300が、観客SPの大きな頭の動きMOがあったと判定すると、デフォルト映像の配信を停止すると共に、所定時間経過にリプレイ映像の配信を行うことにより、観客SPに、見るべき重要なプレイを虚像VIに遮られることなく大きな視野VR内に視認させた後、見るべき重要なプレイのリプレイ映像を大きな領域に視認させることができるため、使用者の利便性を高めることができる。
また、上記第1実施形態では、頭部装着型表示装置100からの通知(動き情報)が受領されたタイミングを含む所定の長さの期間が、リプレイ対象の期間として決定されるが、リプレイ対象の期間の決定方法はこれに限られない。例えば、上記通知が使用者の頭の大きな動きを検出したタイミングを特定する情報を含む場合には、このタイミングを含む所定の長さの期間が、リプレイ対象の期間として決定されるとしてもよい。
また、上記第1実施形態では、リプレイ映像の虚像VIは、デフォルト映像の虚像VIと比較して、観客SPの視野VRにおける中心により近い位置のより大きい領域に視認されるとしているが、リプレイ映像の虚像VIの視認態様はこれに限られない。例えば、リプレイ映像の虚像VIは、デフォルト映像の虚像VIと比較して、観客SPの視野VRにおける中心により近い位置に視認されるが、その領域の大きさはデフォルト映像の場合と比較して同じあるいは小さいとしてもよい。また、リプレイ映像の虚像VIは、デフォルト映像の虚像VIと比較して、観客SPの視野VRにおけるより大きい領域に視認されるが、視野VRの中心からその領域までの距離はデフォルト映像の場合と比較して同じあるいは遠いとしてもよい。また、リプレイ映像の虚像VIは、デフォルト映像の虚像VIと比較して、観客SPの視野VRにおいて強調表示されるとしてもよい。強調表示としては、例えば、他の領域より明るく表示したり、目立つ枠(太い枠や複雑な形状の枠、周囲に対してコントラストの高い色で表された枠等)で囲まれた領域に表示したり、動きのある領域に表示したりすること等が挙げられる。また、リプレイ映像の虚像VIは、観客SPの視野VRにおいて、デフォルト映像の虚像VIには付加されていない所定のマークが付加されるとしてもよい。所定のマークとしては、リプレイ映像であることを示すマークやタグ、動きのあるマーク等が挙げられる。
C5.変形例5:
上記第2実施形態では、コンテンツサーバー300の映像配信部316は、位置情報と動き情報とに基づき推定された使用者の視線とは所定値以上異なる角度で物体を撮影した映像を、頭部装着型表示装置100に配信すべき映像として選択するとしているが、映像選択の方法はこれに限られない。例えば、映像配信部316は、位置情報と動き情報とに基づき使用者の視野を推定し、推定された使用者の視野の外に位置する物体を撮影した映像を選択するとしてもよい。このようにすれば、使用者は、外景SCとして直接視認している物体とは異なる物体の映像を虚像VIとして視認することができる。あるいは、映像配信部316は、推定された使用者の視野における所定範囲(例えば中心付近の範囲)の外に位置する物体を撮影した映像を選択するとしてもよい。このようにすれば、使用者は、視野VRの上記所定範囲において外景SCとして直接視認している物体とは異なる物体の映像を虚像VIとして視認することができる。
C6.変形例6:
上記実施形態では、大きな頭の動きMOが検出されたことの通知(動き情報)に基づき、配信される映像が選択されるとしているが、動き情報は用いられず、GPSモジュール134で検出された現在位置を表す位置情報に基づき、配信される映像が選択されるとしてもよい。例えば、野球場BSを複数エリア(例えばAエリアからJエリアまでの10エリア)に分け、位置情報に基づき、そのエリアに最適な映像(例えば、ホームランの場面の映像、自分の視界からは見えない遠くにいる選手の背番号の映像、選手の名前の映像、ストライクの場面の映像、控えの選手の行動の映像〉が選択されて配信されるとしてもよい。なお、位置情報は、GPSモジュール134で検出される必要はなく、他の方法で検出されるとしてもよい。例えば、カメラ61で座席番号を認識させることで、より詳細な位置情報を検出するとしてもよい。このようにすれば、注文した物品の確実な配達、周辺情報の提供、効果的な広告宣伝が可能である。
C7.変形例7:
上記実施形態では、映像の配信にコンテンツサーバー300が用いられているが、映像を配信できる情報装置であれば、コンテンツサーバー300以外の情報装置が用いられてもよい。例えば、カメラCaにより撮影された映像を録画することなく、電波・通信回線などの媒体でリアルタイムに頭部装着型表示装置100に配信する場合には、そのような配信機能を備えたカメラCa(またはカメラCaと配信装置とから構成されるシステム)が映像を配信する情報装置として機能する。
C8.変形例8:
上記実施形態において、例えば大きな動きが検出されて表示映像を切り換える際に、バックライトなどの表示輝度を変化させることで、シースルー度合いを変化させるとしてもよい。例えば、バックライトの輝度を上げると虚像VIが強調され、バックライトの輝度を下げると外景SCが強調される。
また、上記実施形態において、例えば大きな動きが検出されたときに、表示映像を切り換えるのではなく、表示されていた映像の大きさや位置を変更するものとしてもよい。例えば、表示映像を変更せず、ワイプ表示のように画面片隅に映像を残しておき、頭の動きに合わせて、その映像を拡大・縮小できるようにしてもよい。
C9.変形例9:
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
また、例えば、ヘッドマウントディスプレイは、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、ヘッドマウントディスプレイは、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。
また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。
10…制御部
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
61…カメラ
66…9軸センサー
100…頭部装着型表示装置
110…入力情報取得部
120…記憶部
130…電源
132…無線通信部
134…GPSモジュール
140…CPU
142…観戦支援部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
221…右バックライト
222…左バックライト
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
300…コンテンツサーバー
310…CPU
312…情報受信部
314…映像処理部
316…映像配信部
320…記憶部
330…無線通信部
340…映像入力インターフェイス
1000…映像表示システム

Claims (4)

  1. 情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムであって、
    前記情報装置は、前記頭部装着型表示装置の使用者が視認する事象が行われている特定の施設に対応する映像を前記頭部装着型表示装置に配信する映像配信部を有し、
    前記頭部装着型表示装置は、使用者の頭の動きを検出する動き検出部を有し、前記動きを表す動き情報に基づき選択された前記映像を虚像として使用者に視認させ、
    前記頭部装着型表示装置は、さらに、前記動き情報を前記情報装置に送信する情報送信部を有し、
    前記情報装置は、さらに、前記特定の施設内に位置する前記頭部装着型表示装置から前記動き情報を受信する情報受信部を有し、
    前記映像配信部は、前記特定の施設に対応する複数の前記映像から前記動き情報に基づき少なくとも1つの前記映像を選択し、選択された前記映像を前記動き情報の送信元の前記頭部装着型表示装置に配信し、
    前記複数の映像は、前記特定の施設内の物体を撮影した映像であり、
    前記頭部装着型表示装置は、さらに、現在位置を検出する位置検出部を有し、
    前記情報送信部は、前記現在位置を表す位置情報を前記情報装置に送信し、
    前記映像配信部は、前記動き情報と前記位置情報とに基づき映像を選択する、映像表示システム。
  2. 請求項に記載の映像表示システムであって、
    前記映像配信部は、前記動き情報と前記位置情報とに基づき推定される前記頭部装着型表示装置の使用者の視線とは所定値以上異なる角度で物体を撮影した映像を選択する、映像表示システム。
  3. 請求項に記載の映像表示システムであって、
    前記映像配信部は、前記動き情報と前記位置情報とに基づき推定される前記頭部装着型表示装置の使用者の視野における所定範囲の外に位置する物体を撮影した映像を選択する、映像表示システム。
  4. 情報装置と、前記情報装置から配信された映像を虚像として使用者に視認させる透過型の頭部装着型表示装置と、を備える映像表示システムであって、
    前記情報装置は、前記頭部装着型表示装置の使用者が視認する事象が行われている特定の施設に対応する映像を前記頭部装着型表示装置に配信する映像配信部を有し、
    前記頭部装着型表示装置は、
    使用者の頭の動きを検出する動き検出部と、
    現在位置を検出する位置検出部と、
    前記特定の施設内において、前記情報装置から、前記特定の施設に対応する複数の前記映像を受信する映像受信部と、
    前記動きを表す動き情報と前記現在位置を表す位置情報とに基づき、前記複数の映像から使用者に視認させる映像を選択する映像選択部と、を有し、
    前記複数の映像は、前記特定の施設内の物体を撮影した映像である、映像表示システム。
JP2012213016A 2012-09-26 2012-09-26 映像表示システム Active JP6186689B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012213016A JP6186689B2 (ja) 2012-09-26 2012-09-26 映像表示システム
US14/010,998 US20140085203A1 (en) 2012-09-26 2013-08-27 Video image display system and head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012213016A JP6186689B2 (ja) 2012-09-26 2012-09-26 映像表示システム

Publications (2)

Publication Number Publication Date
JP2014066927A JP2014066927A (ja) 2014-04-17
JP6186689B2 true JP6186689B2 (ja) 2017-08-30

Family

ID=50338347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012213016A Active JP6186689B2 (ja) 2012-09-26 2012-09-26 映像表示システム

Country Status (2)

Country Link
US (1) US20140085203A1 (ja)
JP (1) JP6186689B2 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5993127B2 (ja) * 2011-10-25 2016-09-14 オリンパス株式会社 頭部装着型表示装置、情報端末、プログラム、情報記憶媒体、画像処理システム、頭部装着型表示装置の制御方法及び情報端末の制御方法
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US10180573B2 (en) * 2012-09-26 2019-01-15 Raontech Inc. Micro display appatatus
US20140125702A1 (en) * 2012-10-15 2014-05-08 Fairways 360, Inc. System and method for generating an immersive virtual environment using real-time augmentation of geo-location information
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9626015B2 (en) 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
JP6307627B2 (ja) 2014-03-14 2018-04-04 株式会社ソニー・インタラクティブエンタテインメント 空間感知を備えるゲーム機
WO2015142071A1 (en) * 2014-03-21 2015-09-24 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
US9600723B1 (en) * 2014-07-03 2017-03-21 Google Inc. Systems and methods for attention localization using a first-person point-of-view device
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
JP6390260B2 (ja) * 2014-08-15 2018-09-19 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP6133252B2 (ja) * 2014-09-24 2017-05-24 ソフトバンク株式会社 画像提供システム及びプログラム
KR20170064535A (ko) * 2014-10-03 2017-06-09 세이코 엡슨 가부시키가이샤 두부 장착형 표시 장치 및 그의 제조 방법, 그리고 컴퓨터 프로그램을 갖는 컴퓨터 판독 가능 기록 매체
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
WO2016143744A1 (ja) * 2015-03-12 2016-09-15 日本精機株式会社 ヘッドマウントディスプレイ装置
JP6443677B2 (ja) 2015-03-12 2018-12-26 日本精機株式会社 ヘッドマウントディスプレイ装置
JP2016206495A (ja) * 2015-04-24 2016-12-08 セイコーエプソン株式会社 回折光学素子の製造方法、回折光学素子及び画像表示装置
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
FR3038073B1 (fr) * 2015-06-25 2018-08-03 Atos Se Dispositif de vision augmentee pour le spectacle vivant
US11245939B2 (en) * 2015-06-26 2022-02-08 Samsung Electronics Co., Ltd. Generating and transmitting metadata for virtual reality
JPWO2017002642A1 (ja) * 2015-06-30 2018-04-26 シャープ株式会社 情報機器及び表示処理方法
JP2017049762A (ja) 2015-09-01 2017-03-09 株式会社東芝 システム及び方法
KR101703924B1 (ko) * 2015-09-22 2017-02-07 하태진 관람위치 변경이 가능한 가상현실안경을 포함하는 가상현실 시스템
US10764528B2 (en) 2016-01-27 2020-09-01 Lg Electronics Inc. Mobile terminal and control method thereof
CA3016604A1 (en) 2016-03-12 2017-09-21 Philipp K. Lang Devices and methods for surgery
US10976809B2 (en) * 2016-03-14 2021-04-13 Htc Corporation Interaction method for virtual reality
JP6450890B2 (ja) * 2016-07-06 2019-01-09 株式会社オプティム 画像提供システム、画像提供方法、およびプログラム
JP6938123B2 (ja) * 2016-09-01 2021-09-22 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6407225B2 (ja) * 2016-09-30 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
RU2644125C1 (ru) * 2016-11-30 2018-02-07 Эдуард Борисович Попов Персональный видео - гид
US10416757B2 (en) * 2016-12-08 2019-09-17 Raymond Maurice Smit Telepresence system
US11751944B2 (en) 2017-01-16 2023-09-12 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
KR101839522B1 (ko) * 2017-02-21 2018-03-16 주식회사 와이젯 빔 추적을 이용한 무선 송수신 시스템
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
JP2018081697A (ja) * 2017-11-27 2018-05-24 株式会社東芝 システム及びウェアラブル端末
JP2019102907A (ja) * 2017-11-30 2019-06-24 キヤノン株式会社 設定装置、設定方法、及びプログラム
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
WO2020213088A1 (ja) * 2019-04-17 2020-10-22 楽天株式会社 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP7315388B2 (ja) * 2019-06-28 2023-07-26 株式会社Nttドコモ 情報処理装置
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11297285B2 (en) * 2020-03-27 2022-04-05 Sean Solon Pierce Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
CN115240820A (zh) * 2021-04-23 2022-10-25 中强光电股份有限公司 穿戴式装置及基于环境调整显示状态的方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202281A (ja) * 1995-01-30 1996-08-09 Olympus Optical Co Ltd 頭部装着型映像表示装置システム
JPH09298729A (ja) * 1996-05-01 1997-11-18 Tietech Co Ltd ケーブルテレビにおける放映方式及びその端末表示装置
JP2000333161A (ja) * 1999-05-21 2000-11-30 Hitachi Denshi Ltd 監視用cctvシステム
US7383563B1 (en) * 1999-12-29 2008-06-03 Intel Corporation Automatic channel switching
US7796162B2 (en) * 2000-10-26 2010-09-14 Front Row Technologies, Llc Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers
JP3653463B2 (ja) * 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
JP2002271815A (ja) * 2001-03-08 2002-09-20 Mixed Reality Systems Laboratory Inc 鑑賞システム及びその制御方法
NL1018198C2 (nl) * 2001-06-01 2002-12-03 Tno Head mounted display inrichting.
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
JP5125779B2 (ja) * 2008-06-04 2013-01-23 株式会社ニコン ヘッドマウントディスプレイ装置
JP5622510B2 (ja) * 2010-10-01 2014-11-12 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
US10440402B2 (en) * 2011-01-26 2019-10-08 Afterlive.tv Inc Method and system for generating highlights from scored data streams
US9330499B2 (en) * 2011-05-20 2016-05-03 Microsoft Technology Licensing, Llc Event augmentation with real-time information

Also Published As

Publication number Publication date
US20140085203A1 (en) 2014-03-27
JP2014066927A (ja) 2014-04-17

Similar Documents

Publication Publication Date Title
JP6186689B2 (ja) 映像表示システム
JP6375591B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
JP6107276B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP5884576B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
CN103984097B (zh) 头戴式显示装置、头戴式显示装置的控制方法以及图像显示***
JP6845111B2 (ja) 情報処理装置および画像表示方法
JP6459380B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6094305B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP2016004340A (ja) 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6268778B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6135162B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
JP2015177404A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6252002B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6331374B2 (ja) 頭部装着型表示装置
JP2015087523A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
KR20170134147A (ko) 디스플레이 컨트롤러, 전자 기기, 및 가상 현실 장치
JP6369583B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6582374B2 (ja) 表示装置およびその制御方法、並びにコンピュータープログラム
JP6273677B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6136162B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6304415B2 (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
JP2016142966A (ja) 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP6217772B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R150 Certificate of patent or registration of utility model

Ref document number: 6186689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150