JP6524917B2 - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
JP6524917B2
JP6524917B2 JP2015558739A JP2015558739A JP6524917B2 JP 6524917 B2 JP6524917 B2 JP 6524917B2 JP 2015558739 A JP2015558739 A JP 2015558739A JP 2015558739 A JP2015558739 A JP 2015558739A JP 6524917 B2 JP6524917 B2 JP 6524917B2
Authority
JP
Japan
Prior art keywords
image
real world
unit
area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015558739A
Other languages
English (en)
Other versions
JPWO2015111283A1 (ja
Inventor
山本 祐輝
祐輝 山本
河本 献太
献太 河本
今 孝安
孝安 今
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015111283A1 publication Critical patent/JPWO2015111283A1/ja
Application granted granted Critical
Publication of JP6524917B2 publication Critical patent/JP6524917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Description

本明細書で開示する技術は、ユーザーの頭部や顔部に装着して画像の視聴に利用される画像表示装及び画像表示方法に関する。
頭部又は顔部に装着して画像の視聴に利用される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎に画像表示部が配置され、虚像光学系により表示画像の拡大虚像を形成することで、ユーザーは臨場感のある画像を観察することができる。ヘッド・マウント・ディスプレイの人気は極めて高い。今後量産が進めば、携帯電話やスマートフォン、携帯ゲーム機のように普及し、1人が1台のヘッド・マウント・ディスプレイを所持するようになるかもしれない。
ヘッド・マウント・ディスプレイは、頭部に装着した際に、ユーザーの眼を直接覆うように構成されている。言い換えれば、ヘッド・マウント・ディスプレイは、遮光性があり、画像視聴時に没入感が増す。虚像光学系を用いて表示画面を拡大投影して、適当な画角となる拡大虚像としてユーザーに観察させるとともに、ヘッドフォンで多チャンネルを再現すれば、映画館で視聴するような臨場感を再現することができる(例えば、特許文献1を参照のこと)。一方、透過性のヘッド・マウント・ディスプレイも存在し、ユーザーが頭部に装着して画像を表示している間も、画像越しに外景を眺める(すなわち、シースルー)ことができる(例えば、特許文献2を参照のこと)。
遮光性並びに透過性のいずれのタイプにせよ、ヘッド・マウント・ディスプレイは、装着したユーザーの視覚や聴覚を制限する。このため、ユーザーは現実世界から閉ざされ、外界で起きている事象に対する反応が遅くなることが懸念される。
本明細書で開示する技術の目的は、ユーザーの頭部や顔部に装着して画像の視聴に利用される、優れた画像表示装置及び画像表示方法を提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
表示部と、
現実世界の画像を取得する現実世界画像取得部と、
現実世界の画像を表示する領域を指定する領域指定部と、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
を具備する、頭部又は顔部に装着する画像表示装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の画像表示装置の前記表示部は、前記画像表示装置を頭部又は顔部に装着するユーザーの眼の位置に配設され、また、前記ユーザーの視線方向を撮影する撮影部をさらに備えている。そして、前記現実世界画像取得部は、前記撮影部が撮影する現実世界の画像を取得するように構成されている。
本願の請求項3に記載の技術によれば、請求項1に記載の画像表示装置は、仮想世界の画像を生成する仮想世界画像生成部と、前記領域指定部が指定した領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成部をさらに備えている。そして、前記画像生成部は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて、前記表示部に表示する画像を生成するように構成されている。
本願の請求項4に記載の技術によれば、請求項3に記載の画像表示装置の前記領域指定部は、ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定するように構成されている。
本願の請求項5に記載の技術によれば、請求項4に記載の画像表示装置の前記画像生成部は、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御するように構成されている。
本願の請求項6に記載の技術によれば、請求項5に記載の画像表示装置の前記画像生成部は、ユーザーが領域を指定する操作を行なってから一定時間が経過すると、前記対応領域を現実世界の画像RIから仮想世界の画像RVに切り替え、又は、徐々に仮想世界の画像RVに戻すように構成されている。
本願の請求項7に記載の技術によれば、請求項4に記載の画像表示装置は、ユーザーが入力操作を行なう入力部をさらに備えている。そして、前記領域指定部は、前記入力部に対するユーザーの操作に基づいて、現実世界の画像を表示する領域を指定するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載の画像表示装置の前記入力部はタッチパネルである。そして、前記領域指定部は、前記タッチパネルをユーザーが触れた場所に対応する領域を指定するように構成されている。
本願の請求項9に記載の技術によれば、請求項8に記載の画像表示装置の前記タッチパネルは、前記表示部の表示画面の背面に配設されている。
本願の請求項10に記載の技術によれば、請求項4に記載の画像表示装置の前記領域指定部は、ユーザーのジェスチャー操作に基づいて、現実世界の画像を表示する領域を指定するように構成されている。
本願の請求項11に記載の技術によれば、請求項4に記載の画像表示装置の前記領域指定部は、現実世界の画像と仮想世界の画像の境界に対するユーザーの操作に応じて、現実世界の画像を表示する領域を変更するように構成されている。
本願の請求項12に記載の技術によれば、請求項1に記載の画像表示装置は、現実世界のオブジェクトを検出するオブジェクト検出部と、前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算部をさらに備えている。そして、前記画像生成部は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なうように構成されている。
本願の請求項13に記載の技術によれば、請求項12に記載の画像表示装置の前記オブジェクト検出部は、ユーザーの身体の一部、又は、あらかじめ決められた現実世界の物体を検出するように構成されている。
本願の請求項14に記載の技術によれば、請求項12に記載の画像表示装置の前記オブジェクト検出部は、前記画像表示装置から一定距離以内にある現実世界の物体を検出するように構成されている。
本願の請求項15に記載の技術によれば、請求項12に記載の画像表示装置の前記画像生成部は、前記オブジェクト検出部がオブジェクトを検出してからの経過時間に基づいて現実世界の画像の混合率を制御するように構成されている。
本願の請求項16に記載の技術によれば、請求項12に記載の画像表示装置の前記領域指定部は、オブジェクトの現在位置が現実世界の3次元モデルMIと仮想世界Vの境界に重なることを条件として、境界を操作するように構成されている。
また、本願の請求項17に記載の技術は、
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法である。
また、本願の請求項18に記載の技術は、
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
仮想世界の画像を生成する仮想世界画像生成ステップと、
前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法である。
また、本願の請求項19に記載の技術は、
現実世界の画像を取得する現実世界画像取得ステップと、
現実世界のオブジェクトを検出するオブジェクト検出ステップと、
検出したオブジェクトの仮想世界の3次元モデルVの対応領域RVを指定する領域指定ステップと、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算ステップと、
仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なって画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、を有する画像表示方法である。
本明細書で開示する技術によれば、ユーザーの頭部や顔部に装着して画像の視聴に利用され、且つ、ユーザーが外界で起きている事象を観察することができる、優れた画像表示装置及び画像表示方法を提供することができる。
本明細書で開示する技術によれば、画像表示装置は、仮想世界の画像に、カメラなどで撮影された現実世界の画像を混合して表示するように構成されている。したがって、画像表示装置を頭部又は顔部に装着したユーザーは、画像が表示されている間も、外界すなわち現実世界を観察することができる。また、本明細書で開示する技術を適用した画像表示装置は、視聴中の画像すなわち仮想世界への没入感を損なうことなく、現実世界とのインタラクションが可能になる。また、画像表示装置を頭部又は顔部に装着したユーザーは、仮想世界へ没入した状態で現実世界の身体運動を行なっても、現実世界を観察することができるので、身体運動に起因する物理的損害などの危険性を低減することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、ヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示した図である。 図2は、図1に示したヘッド・マウント・ディスプレイ100を装着したユーザーを上方から眺めた様子を示した図である。 図3は、ヘッド・マウント・ディスプレイ100の内部構成例を示した図である。 図4は、ユーザーの脳内で融像される表示画像上で、視線の中心線とカーソルと操作する指が一直線上に並ぶようにカーソルを置く様子を示した図である。 図5は、ユーザーがタッチパネル315を用いて現実世界の画像を表示する領域を指定する様子を示した図である。 図6は、表示部309が表示する仮想世界の画像601のうち、ユーザーの操作により指定された領域602が現実世界の画像に差し替えられている様子を示した図である。 図7は、ヘッド・マウント・ディスプレイ100が表示領域の一部の領域を現実世界の画像に差し替えて表示するための機能的構成を示した図である 図8は、仮想世界のレンダリング結果Vと、ユーサーが指定した領域に対応領域の画像RVを例示した図である。 図9は、外側カメラ312が撮影する現実世界の画像Iと、ユーザーが指定した領域に対応する領域の画像RIを例示した図である。 図10は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えた表示画像を例示した図である。 図11は、ヘッド・マウント・ディスプレイ100が表示領域の一部の領域を現実世界の画像に差し替えて表示するための処理手順を示したフローチャートである 図12は、ユーザーが現実世界を表示したい領域1201の境界を指示した指先を動かして領域1202に拡大する様子を示した図である。 図13は、ユーザーが現実世界を表示したい領域1301の境界を指示した指先を動かして領域1302に縮小する様子を示した図である。 図14は、ヘッド・マウント・ディスプレイ100が現実世界に存在するオブジェクトの3次元モデルを仮想世界に配置した画像を表示するための機能的構成を示した図である。 図15は、現実世界で特定のオブジェクトを検出する様子を例示した図である。 図16は、検出したオブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、仮想空間Vの対応領域RVを計算する様子を例示した図である。 図17は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリングした結果を例示した図である。 図18は、ヘッド・マウント・ディスプレイ100が現実世界に存在するオブジェクトの3次元モデルを仮想世界に配置した画像を表示するための処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用したヘッド・マウント・ディスプレイ100を頭部に装着しているユーザーを正面から眺めた様子を示している。
ヘッド・マウント・ディスプレイ100は、ユーザーが頭部又は顔部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与えることができる。また、シースルーのタイプとは相違し、ヘッド・マウント・ディスプレイ100を装着したユーザーは現実世界の風景を直接眺めることはできない。但し、ユーザーの視線方向の風景を撮影する外側カメラ312を装備し、その撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができる。勿論、ビデオ・シースルー画像に対し、AR画像などの仮想的な表示画像を重ね合わせて見せることができる。また、表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。
図1に示すヘッド・マウント・ディスプレイ100は、帽子形状に類似した構造体であり、装着したユーザーの左右の眼を直接覆うように構成されている。ヘッド・マウント・ディスプレイ100本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネル(図1では図示しない)が配設されている。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。
ヘッド・マウント・ディスプレイ100本体前面のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ312が設置されている。また、ヘッド・マウント・ディスプレイ100本体の左右の両端付近にそれぞれマイクロフォン103L、103Rが設置されている。左右ほぼ対称的にマイクロフォン103L、103Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
また、ヘッド・マウント・ディスプレイ100本体の外側には、ユーザーが指先などを使ってタッチ入力することができるタッチパネル315が配設されている。図示の例では、左右一対のタッチパネル315を備えているが、単一又は3以上のタッチパネル315を備えていてもよい。
図2には、図1に示したヘッド・マウント・ディスプレイ100を装着したユーザーを上方から眺めた様子を示している。図示のヘッド・マウント・ディスプレイ100は、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネル104L、104Rを持つ。表示パネル104L、104Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。左右の表示パネル104L、104Rの前方には、虚像光学部101L、101Rがそれぞれ配設されている。虚像光学部101L、101Rは、表示パネル104L、104Rの表示画像の拡大虚像をそれぞれユーザーの左右の瞳に結像する。ユーザーは、左右の拡大虚像を脳内で融像して観察することになる。また、眼の高さや眼幅にはユーザー毎に個人差があるため、左右の各表示系と装着したユーザーの眼とを位置合わせする必要がある。図2に示す例では、右眼用の表示パネルと左眼用の表示パネルの間に眼幅調整機構105を装備している。
図3には、ヘッド・マウント・ディスプレイ100の内部構成例を示している。以下、各部について説明する。
制御部301は、ROM(Read Only Memory)301AやRAM(Random Access Memory)301Bを備えている。ROM301A内には、制御部301で実行するプログラム・コードや各種データを格納している。制御部301は、ROM301Aや記憶部306(後述)からRAM301Bへロードしたプログラムを実行することで、画像の表示制御を始め、ヘッド・マウント・ディスプレイ100全体の動作を統括的にコントロールする。ROM301Aに格納するプログラムやデータとして、動画像再生などの画像の表示制御プログラムや、表示画像を視聴中のユーザーに現実世界とのインタラクションを可能にするインタラクション制御プログラム、当該ヘッド・マウント・ディスプレイ100に固有の識別情報、当該ヘッド・マウント・ディスプレイ100を使用するユーザーのユーザー属性情報などを挙げることができる。
入力インターフェース(IF)部302は、キーやボタン、スイッチなど、ユーザーが入力操作を行なう1以上の操作子(いずれも図示しない)を備え、操作子を介したユーザーの指示を受け付けて、制御部301に出力する。また、入力インターフェース部302は、リモコン受信部303で受信したリモコン・コマンドからなるユーザーの指示を受け付けて、制御部301に出力する。
また、入力インターフェース部302は、ヘッド・マウント・ディスプレイ100本体の外側に配設されているタッチパネル315に対してユーザーが指先でタッチ操作を行なうと、タッチされた指先位置の座標データなどの入力情報を制御部301に出力する。例えば、ヘッド・マウント・ディスプレイ100本体の前面で、ちょうど表示部309の表示画像(虚像光学部310越しに観察される拡大虚像)の背面にタッチパネル315を配置すると、ユーザーは表示画像上を指先で触れるような感覚でタッチ操作を行なうことができる。
状態情報取得部304は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報を取得する機能モジュールである。状態情報取得部304は、自ら状態情報を検出するための各種センサーを装備していてもよいし、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して状態情報を取得するようにしてもよい。
状態情報取得部304は、ユーザーの頭部動作を追跡するために、例えばユーザーの頭部の位置及び姿勢の情報又は姿勢の情報を取得する。ユーザーの頭部動作を追跡するために、状態情報取得部304は、例えば3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。また、状態情報取得部304は、GPS(Global Positioning System)センサー、ドップラー・センサー、赤外線センサー、電波強度センサーなどのいずれか1つ又は2以上のセンサーをさらに組み合わせて用いてもよい。また、状態情報取得部304は、位置姿勢情報の取得に、携帯電話基地局情報やPlaceEngine(登録商標)情報(無線LANアクセスポイントからの電測情報)など、各種インフラストラクチャーから提供される情報をさらに組み合わせて用いるようにしてもよい。図3に示す例では、頭部動作追跡のための状態取得部304は、ヘッド・マウント・ディスプレイ100に内蔵されるが、ヘッド・マウント・ディスプレイ100に外付けされるアクセサリー部品などで構成するようにしてもよい。後者の場合、外付け接続される状態取得部304は、頭部の姿勢情報を例えば回転マトリックスの形式で表現し、Bluetooth(登録商標)通信などの無線通信やUSB(Universal Serial Bus)のような高速な有線インフェース経由でヘッド・マウント・ディスプレイ100本体に送信する。
また、状態情報取得部304は、上述したユーザーの頭部動作の追跡の他に、当該ヘッド・マウント・ディスプレイ100を装着したユーザーの状態情報として、例えば、ユーザーの作業状態(ヘッド・マウント・ディスプレイ100の装着の有無)や、ユーザーの行動状態(静止、歩行、走行などの移動状態、手や指先によるジェスチャー、瞼の開閉状態、視線方向、瞳孔の大小)、精神状態(ユーザーが表示画像を観察中に没頭若しくは集中しているかなどの感動度、興奮度、覚醒度、感情や情動など)、さらには生理状態を取得する。また、状態情報取得部304は、これらの状態情報をユーザーから取得するために、外側カメラ312や、機械スイッチなどからなる装着センサー、ユーザーの顔を撮影する内側カメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温又は気温を検知する温度センサー、発汗センサー、脈拍センサー、筋電位センサー、眼電位センサー、脳波センサー、呼気センサー、ガス・イオン濃度センサーなどの各種の状態センサー、タイマー(いずれも図示しない)を備えていてもよい。
環境情報取得部316は、当該ヘッド・マウント・ディスプレイ100本体、又は当該ヘッド・マウント・ディスプレイ100を装着したユーザーを取り巻く環境に関する情報を取得する機能モジュールである。ここで言う環境に関する情報として、音、風量、気温、気圧、雰囲気(煙、濃霧や、当該ヘッド・マウント・ディスプレイ100又はユーザーが浴びる電磁波(紫外線、ブルーライト、電波)、熱線(赤外線)、放射線、大気中の一酸化炭素や二酸化炭素、酸素、窒素化合物(ニコチン)、大気中を漂う窒素酸化物(NOx)や炭化水素(揮発性有機化合物(VOC:Volatile Organic Compounds)あるいはこれらが紫外線の影響により光化学反応を起こして生成された光化学スモッグ、粒子状物質、花粉、ハウスダストなどの粉塵、アスベストなどの有害化学物質)、その他の環境因子を挙げることができる。環境情報取得部316は、環境情報を検出するために、音センサーや風量センサーを始めとして各種環境センサーを装備していてもよい。前述したマイクロフォンや外側カメラ312を環境センサーに含めることもできる。あるいは、環境情報取得部316は、これらのセンサー類の一部又は全部を備えた外部機器(例えば、ユーザーが身に付けているスマートフォンや腕時計、その他の多機能端末)から通信部305(後述)を介して環境情報を取得するようにしてもよい。
外側カメラ312は、例えばヘッド・マウント・ディスプレイ100本体前面のほぼ中央に配置され(図1を参照のこと)、周囲画像を撮影することができる。ユーザーは、入力インターフェース部302を介した入力操作や、内側カメラや筋電位センサーなどで認識される瞳孔の大小や音声入力を通じて、外側カメラ312のズームを調整することができるものとする。また、状態情報取得部304で取得したユーザーの視線方向に合わせて外側カメラ312のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ312でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影することができる。外側カメラ312の撮影画像を、表示部309に表示出力することができ、また、撮影画像を通信部305から送信したり記憶部306に保存したりすることもできる。
外側カメラ312は、視差情報を利用して、周囲画像の3次元情報を取得できるように、外側カメラ312を複数台のカメラで構成することがより好ましい。また、1台のカメラでも、SLAM(Simultaneous Localization and Mapping)画像認識を用いて、カメラを移動させながら撮影を行ない、時間的に前後する複数のフレーム画像を用いて視差情報を算出し(例えば、特許文献3を参照のこと)、算出した視差情報から周囲画像の3次元情報を取得することもできる。
外側カメラ312は、3次元情報を取得できることから、距離センサーとしても利用することができる。あるいは、例えば物体からの反射信号を検出するPSD(Position Sensitive Detector)など安価なデバイスからなる距離センサーを外側カメラ312と併用するようにしてもよい。外側カメラ312や距離センサーは、ヘッド・マウント・ディスプレイ100を装着するユーザーの身***置、姿勢、形状を検出するために使用することができる。
通信部305は、外部機器との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。外部機器として、ユーザーがヘッド・マウント・ディスプレイ100を使用する際の視聴コンテンツを供給するコンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)や、スマートフォンなどの多機能端末、ゲーム機、ストリーミング・サーバーを挙げることができる。また、制御部301は、外部機器への送信データを通信部305から送出する。
通信部305の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信方式に応じて、通信部305を構成することができる。通信方式は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信やBLE(Bluetooth(登録商標) Low Energy)通信、ANTなどの超低消費電力無線通信、IEEE802.11sなどで規格化されたメッシュ・ネットワークなどを挙げることができる。あるいは、通信部305は、例えばW−CDMA(Wideband Code Division Multiple Access)、LTE(Long Term Evolution)などの標準規格に従って動作する、セルラー無線送受信機であってもよい。
記憶部306は、SSD(Solid State Drive)などで構成される大容量記憶装置である。記憶部306は、制御部301で実行するアプリケーション・プログラムや各種データを記憶している。例えば、ユーザーがヘッド・マウント・ディスプレイ100を使用して、視聴するコンテンツを記憶部306に格納する。
画像処理部307は、制御部301から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部309の画面に合わせた解像度に変換する。そして、表示駆動部308は、表示部309の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部309は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイ、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される表示パネルを有する。虚像光学部310は、表示部309の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。
なお、表示部309で出力する表示画像として、コンテンツ再生装置(ブルーレイ・ディスク又はDVDプレイヤー)やスマートフォンなどの多機能端末、ゲーム機、ストリーミング・サーバーから供給される商用コンテンツ(仮想世界)、外側カメラ312の撮影画像(現実世界)などを挙げることができる。
音声処理部313は、制御部301から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部314は、音声処理後の音声を外部出力、並びにマイクロフォン(前述)からの音声入力を行なう。
図1〜図2に示したようなヘッド・マウント・ディスプレイ100は、遮光性、すなわち、装着したユーザーの眼を覆う。そして、表示部309には、映画などの動画像コンテンツや、コンピューター・グラフィックスなどで表現された画像を表示する。虚像光学部310は、表示部309の表示画像を拡大投影して、適当な画角となる拡大虚像としてユーザーに観察させ、例えば映画館で視聴しているような臨場感を再現する。ユーザーは、表示部309に表示される仮想世界に没入体験することができる。
しかしながら、ユーザーは、仮想世界に没入する際に、現実世界とのインタラクションが失われてしまうことが懸念される。ユーザーの身体は現実世界に存在するにも拘らず、視覚や聴覚など一部の知覚だけが仮想世界を体験することになると、ユーザーは心理的抵抗感を受ける。また、ユーザーは、視覚や聴覚が仮想世界に向けられているので、現実世界の物体との接触や衝突などを感知し難くなり、物理的損害を被る危険性がある。勿論、遮光性ではなく、透過性のヘッド・マウント・ディスプレイにおいても、ユーザーは仮想世界にある程度は引き込まれるので、心理的抵抗感や物理的損害の危険性の問題は同様にある。
そこで、本実施形態では、ヘッド・マウント・ディスプレイ100は、映画やコンピューター・グラフィックスなどの仮想世界の画像を表示部309で表示している際に、外側カメラ312で撮影する外界すなわち現実世界の画像を混合するようにしている。したがって、ユーザーは、仮想世界の画像に混合された現実世界の画像を眺めることで、現実世界を知覚し、現実世界と適切なインタラクションを行ない、心理的抵抗感を軽減するとともに、現実世界の物体との衝突などによる物理的損害を回避することができる。
第1の実施例では、ヘッド・マウント・ディスプレイ100は、仮想世界の画像を表示している表示部309の表示領域のうち、ユーザーが指定した一部の領域を、外側カメラ312で撮影する現実世界の画像に差し替えて表示する。
表示部309で表示する画像(虚像光学部310を介してユーザーの瞳で観察される画像)は、商用コンテンツの再生画像などの仮想世界の情報と、外側カメラ312で撮影された現実世界の情報が組み合わされたものである。したがって、ユーザーは、コンテンツの表現する仮想世界に没入した状態を中断することなく、連続的に周囲環境(自分の近傍で現実に起きている事象)を把握することができる。表示される現実世界の画像は、基本的には外側カメラ312で撮影されるライブ画像であるが、記憶部306に一旦記憶された録画画像であってもよい。
なお、ユーザーが指定した領域に現実世界の画像が表示されるのは一時的である。例えばユーザーが領域の指定を解除する明示的な操作により、表示部309の表示領域全体を仮想世界の画像に戻すようにしてもよい。あるいは、ユーザーが領域を指定してから一定時間が経過すると現実世界の画像から仮想世界の画像に切り替えるようにしてもよいし、徐々に(例えば、現実世界の画像と仮想世界の画像の混合率を変化させながら)仮想世界の画像に戻すようにしてもよい。時間の経過により元の仮想世界の画像に戻すのは、ユーザーが操作を行なってから一定時間が経つと、もはやユーザーは現実世界の表示を必要としなくなると考えられるからである。
また、ユーザーが現実世界の画像を表示する領域を指定する方法は任意である。例えば、入力インターフェース部302に含まれるボタンをユーザーが操作して、現実世界に差し替える領域を指定するようにしてもよい。例えば、十字キーの操作に従って、現実世界に差し替える領域を上下左右に移動させるようにしてもよい。あるいは、タッチパネル315に対してユーザーが指先でタッチ操作した場所に対応する領域を現実世界に差し替えるようにしてもよい。あるいは、ユーザーが手などを使って行なうジェスチャーを外側カメラ312で撮影して、ジェスチャーで指示された領域を現実世界に差し替えるようにしてもよい。
例えば、ヘッド・マウント・ディスプレイ100本体の前面で、ちょうど表示部309の表示画像(虚像光学部310越しに観察される拡大虚像)の背面にタッチパネル315を配置すると、ユーザーは表示画像上を指先で触れるような感覚でタッチ操作を行なうことができる。より具体的には、タッチパネル315を触れた場所に相当する位置にカーソルを表示する場合、図4に示すように、(ユーザーの脳内で融像される拡大虚像を観察する)視線の中心線401と指先でタッチする場所402が一直線上に並ぶようにカーソル403を置くようにすると、ユーザーは、表示画像を背面から直接触れるような感覚で、表示領域上の所望する場所を指示することができる(例えば、特許文献4を参照のこと)。
図5には、ユーザーがタッチパネル315を用いて現実世界の画像を表示する領域を指定する様子を示している。表示部309が仮想世界の画像のみを表示している状態で、ユーザーは、参照番号501、502で示すように、表示部309の背面にあるタッチパネル315上で指先を移動させ、現実世界を表示したい場所503を指定する。
図6には、表示部309が表示する仮想世界の画像601のうち、図5に示したユーザーの操作により指定された領域602内が外側カメラ312で撮影した現実世界の画像に差し替えられている様子を示している。表示部309で表示する画像は、仮想世界の情報と現実世界の情報が組み合わされたものである。したがって、ユーザーは、コンテンツの表現する仮想世界に没入した状態を中断することなく、連続的に周囲環境(自分の近傍で現実に起きている事象)を把握することができる。
図7には、ヘッド・マウント・ディスプレイ100が表示領域の一部の領域を現実世界の画像に差し替えて表示するための機能的構成を示している。
仮想世界画像生成部701は、例えば記憶部306にあらかじめ記憶され、又は、通信部305で外部から受信する仮想世界の情報に基づいて、表示部309で表示する仮想世界のレンダリング結果Vを計算する。
現実世界画像取得部702は、外側カメラ312で撮影する画像などに基づいて、ユーザーの周囲の現実世界の画像Iを取得する。
領域指定部703は、ユーザーによるタッチパネル315の操作や(図5を参照のこと)、入力インターフェース部302の操作、ジェスチャー入力などに基づいて、表示部309の表示画面のうち、現実世界の画像情報を表示すべき領域を指定する。
領域画像生成部704は、領域指定部703で指定された領域に対応する現実世界の画像RIと、仮想世界の画像RVを計算する。そして、画像差し替え部705は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えた画像を合成する。合成された画像は、表示部309に表示される。
なお、上記の各機能ブロック701〜705は、例えば制御部301が実行するプログラムにより実現されるが、専用のハードウェアとして構成することもできる。
図8には、仮想世界のレンダリング結果Vと、ユーサーが指定した領域に対応領域の画像RVを例示している。また、図9には、外側カメラ312が撮影する現実世界の画像Iと、ユーザーが指定した領域に対応する領域の画像RIを例示している。また、図10には、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えた表示画像を例示している。
図11には、ヘッド・マウント・ディスプレイ100が表示領域の一部の領域を現実世界の画像に差し替えて表示するための処理手順をフローチャートの形式で示している。
仮想世界画像生成部701は、仮想世界のレンダリング結果Vを計算する(ステップS1101)。仮想世界の情報は、例えば記憶部306にあらかじめ記憶され、又は、通信部305で外部から受信することによって用意される。
また、仮想世界のレンダリング処理と並行して、領域指定部703は、ユーザーからの操作に基づいて現実世界の表示領域を指定する(ステップS1102)。上述したように、ユーザーは、タッチパネル315の操作や(図5を参照のこと)、入力インターフェース部302の操作、ジェスチャー入力などによって、現実世界の表示領域を指定することができる。
また、仮想世界のレンダリング処理やユーザーから現実世界の表示領域が指定されている間、現実世界画像取得部702は、外側カメラ312で撮影する画像などから、ユーザーの周囲すなわち現実世界の画像Iを取得する(ステップS1103)。
次いで、領域画像生成部704は、ステップS1102で指定された領域に対応する現実世界の撮影画像RIと、仮想世界の画像RVを計算する(ステップS1104)。
そして、画像差し替え部705は、ステップS1101で計算した仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて、仮想世界の画像に現実世界の画像を混合した画像を生成する(ステップS1105)。生成された画像は、表示部309で表示される(ステップS1106)。
ユーザーが指定した領域に現実世界の画像RIが表示されるのは一時的である。例えばユーザーが領域の指定を解除する明示的な操作により、表示部309の表示領域全体を仮想世界の画像に戻すようにしてもよい。あるいは、ユーザーが領域を指定してから一定時間が経過すると仮想世界の画像RVに切り替えるようにしてもよいし、徐々に(例えば、現実世界の画像RIと仮想世界の画像RVの混合率を変化させながら)仮想世界の画像RVに戻すようにしてもよい。時間の経過により元の仮想世界の画像に戻すのは、ユーザーが操作を行なってから一定時間が経つと、もはやユーザーは現実世界の表示を必要としなくなると考えられるからである。
そして、表示部309で仮想世界の画像の表示を継続するときには(ステップS1107のNo)、ステップS1101に戻り、上述した処理を繰り返し実行する。
なお、現実世界の画像RIを表示している期間中は、ステップS1102で、現実世界の表示領域が随時更新される。例えば、ユーザーが現実世界を表示したい領域602の境界を指示した指先を動かすと、ステップS1102ではタッチパネル315が指先を移動した位置を読み取り、図12に示すように領域1201から領域1202に拡大したり、逆に、図13に示すように領域1301から領域1302に縮小したりすることができる。ユーザーは、現実世界の状況をより知りたくなると、図12に示すような操作により現実世界の画像を表示する領域を拡大すればよく、現実世界の状況が重要でなくなると、図13に示すような操作により現実世界の画像を表示する領域を縮退させて、仮想世界を表示する領域をより広くすることかできる。
上述したように、第1の実施例に係るヘッド・マウント・ディスプレイ100によれば、ユーザーは、仮想世界への没入感を損なうことなく、現実世界とのインタラクションが可能になる。このようなヘッド・マウント・ディスプレイ100を装着したユーザーは、仮想世界へ没入することに対する心理的抵抗感を減らすことができる。また、ユーザーは、仮想世界へ没入した状態であっても、現実世界の身体運動に起因する物理的損害などの危険性を減らすことができる。
第2の実施例では、ヘッド・マウント・ディスプレイ100は、3次元的な仮想世界の中に、現実世界に存在する特定のオブジェクトの3次元モデルを配置させた画像を表示する。第1の実施例では、仮想世界の表示画像の一部に(子画面のように)現実世界の画像が重畳されるのに対し、第2の実施例では、表示画像全体が仮想世界の画像であるという点で相違する。第2の実施例では、現実世界のオブジェクトに対応する3次元モデルが、仮想世界の画像内のオブジェクトとして表示される。3次元モデルは、現実世界の情報であるが、オブジェクトが3次元モデル化されたものであり、仮想世界の表示画像と親和性が高い。
ここで言う現実世界のオブジェクトは、例えば右手など、ヘッド・マウント・ディスプレイ100を装着しているユーザーの身体の一部である。あるいは、ユーザーの知人など特定の人物、ペットなどの特定の動物、移動体、静止物など、現実世界のさまざまなオブジェクトの3次元モデルを仮想世界の中に配置して表示するようにしてもよい。仮想世界に配置するオブジェクトは、固定であってもよいし、逐次ユーザーが選択できるようにしてもよい。ヘッド・マウント・ディスプレイ100は、現実世界のオブジェクトを、外側カメラ312や距離センサーを用いて検出すると、追跡して、その3次元モデルを仮想世界の中に配置してレンダリング処理を行なう。
また、ヘッド・マウント・ディスプレイ100から一定距離以内にある現実世界のすべての物体を自動的にオブジェクトとして検出して、その3次元モデルMIを仮想世界の中に配置して表示するようにしてもよい。例えば、ユーザーがコップなどの物体を持つ手をヘッド・マウント・ディスプレイ100に近づけると、オブジェクトとして自動的に検出され、その手がヘッド・マウント・ディスプレイ100から一定距離以内にある間は追跡して、その3次元モデルMIを仮想世界の中に配置して表示し続ける。手が一定距離から外れると、検出されなくなり、その3次元モデルMIの表示も消滅する。3次元モデルMIの表示を瞬時に消滅させるのではなく、距離に応じて透明度を少しずつ高め、自動的に元の仮想世界のみの表示にするようにしてもよい。一定距離から外れたオブジェクトの表示をユーザーは必要としなくなると考えられるからである。
第2の実施例では、表示部309で表示する画像(虚像光学部310を介してユーザーの瞳で観察される画像)は、商用コンテンツの再生画像などの仮想世界の情報と、外側カメラ312で撮影された現実世界の情報を3次元モデル化したものが組み合わされたものである。したがって、ユーザーは、コンテンツの表現する仮想世界に没入した状態を中断することなく、連続的に周囲環境(自分の近傍で現実に起きている事象)を把握することができる。3次元モデルは、基本的には外側カメラ312で撮影されるライブ画像に映っている現時差世界のオブジェクト基づいて生成されるが、記憶部306に一旦記憶された録画画像に映っている現時差世界のオブジェクト基づいて生成されるものであってもよい。
第1の実施例では、2次元的な画像処理で仮想世界の情報と現実世界の情報を組み合わせるのに対し、第2の実施例では、3次元的なレンダリング処理で仮想世界の情報と現実世界の情報を組み合わせるという相違がある。勿論、第2の実施例でも、現実世界の2次元的な表示と3次元的な表示の機能を組み合わせるようにしてもよい。
なお、オブジェクトを検出した場所に対応する領域に現実世界の画像が表示されるのは一時的である。例えば、現実世界でオブジェクトを検出しなくなると(オブジェクトが視界から消える、又は、見失う)、仮想世界の表示画像からオブジェクトに対応する3次元モデルを消滅させるようにしてもよいし、現実世界のオブジェクトに対応する3次元モデルを徐々に(例えば、現実世界の画像と仮想世界の画像の混合率を変化させながら)透明にしていき、元の仮想世界だけの画像に戻すようにしてもよい。オブジェクトが見えなくなると、もはやユーザーは現実世界の表示を必要としなくなると考えられるからである。あるいはユーザーが領域の指定を解除する明示的な操作により、表示部309の表示領域全体を仮想世界の画像に戻すようにしてもよい。
図14には、ヘッド・マウント・ディスプレイ100が現実世界に存在するオブジェクトを3次元モデル化して仮想世界に配置した画像を表示するための機能的構成を示している。
オブジェクト検出部1401は、外側カメラ312の撮影画像の認識処理や距離センサーの検出信号などに基づいて、ユーザーの身体の一部など特定のオブジェクトを現実世界で検出する。また、ヘッド・マウント・ディスプレイ100から一定距離以内にある現実世界のすべての物体を自動的にオブジェクトとして検出してもよい。
現実世界画像取得部1402は、外側カメラ312で撮影する画像などに基づいて、オブジェクト検出部1401が検出するオブジェクトを含む現実世界の画像を取得する。
3次元モデル計算部1403は、オブジェクト検出部1401による検出結果と、現実世界画像取得部1402が取得した現実世界の画像に基づいて、検出したオブジェクトを含む所定の範囲の3次元モデルMIを生成する。また、3次元モデル計算部1403は、オブジェクト検出部1401がオブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する。
仮想世界画像生成部1404は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なう。そして、レンダリングされた画像は表示部309に表示される。
なお、上記の各機能ブロック1401〜1404は、例えば制御部301が実行するプログラムにより実現されるが、専用のハードウェアとして構成することもできる。
図15には、参照番号1501で示すように、オブジェクト検出部1401がユーザーの身体の一部など特定のオブジェクトを現実世界で検出する様子を例示している。外側カメラ312は、オブジェクト検出部1401が検出するオブジェクトを含む現実世界の画像を撮影している。図15に示す例では、現実世界において、テーブル上に置かれた、ユーザーが右手で掴んだペットボトルが、オブジェクト検出部1401により検出される。
図16には、参照番号1601で示すように、3次元モデル計算部1403が、オブジェクト検出部1401が検出したオブジェクトを含む所定の範囲の3次元モデルMIを生成する様子を例示している。図示の例では、ユーザーの右手と右手で掴んだペットボトルが3次元モデル化された画像MIが生成される。また、図16には、参照番号1602で示すように、3次元モデル計算部1403が、オブジェクト検出部1401がオブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する様子を例示している。
図17には、仮想世界画像生成部1404が、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリングした結果を例示している。図示の例では、仮想空間Vの3次元モデル画像に、ユーザーの右手と右手で掴んだペットボトルが3次元モデル化された画像MIが重畳されている。
なお、図15〜図17に示した例では、オブジェクトの3次元モデルMIの仮想空間V内の対応領域RVの手前には仮想オブジェクトは存在しないので、図17に示したように3次元モデルMIはすべて表示されるが、現実世界のオブジェクト(図15〜図17に示した例では、ペットボトル)よりも手前に仮想オブジェクトが存在する場合には3次元モデルMIはその仮想オブジェクトに隠れて表示されることになる。
図18には、ヘッド・マウント・ディスプレイ100が現実世界に存在するオブジェクトの3次元モデルを仮想世界に配置した画像を表示するための処理手順をフローチャートの形式で示している。
オブジェクト検出部1401は、外側カメラ312の撮影画像の認識処理や距離センサーの検出信号などに基づいて、ユーザーの身体の一部など特定のオブジェクトを現実世界で検出する(ステップS1801)。
ステップS1801では、オブジェクト検出部1401は、ヘッド・マウント・ディスプレイ100から一定距離以内にある現実世界のすべての物体を自動的に検出するようにしてもよい。例えば、ユーザーがコップなどの物体を持つ手をヘッド・マウント・ディスプレイ100に近づけると、オブジェクトとして自動的に検出し、一定距離以内にある間は追跡する。また、手が一定距離から外れると、オブジェクト検出部1401は検出しなくなり、追跡を止める。
また、オブジェクト検出部1401によるオブジェクトの検出処理と並行して、現実世界画像取得部1402は、外側カメラ312で撮影する画像などに基づいて、オブジェクト検出部1401が検出するオブジェクトを含む現実世界の画像を取得する(ステップS1802)。
そして、3次元モデル計算部1403は、オブジェクト検出部1401による検出結果と、現実世界画像取得部1402が取得した現実世界の画像に基づいて、検出したオブジェクトを含む所定の範囲の3次元モデルMIを生成する(ステップS1803)。
また、3次元モデル計算部1403は、オブジェクト検出部1401がオブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する(ステップS1804)。
次いで、仮想世界画像生成部1404は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトを含む所定範囲の3次元モデルMIを配置した3次元モデルMMを計算して(ステップS1805)、3次元も出るMMのレンダリング処理を行なう(ステップS1806)。そして、レンダリングされた画像は表示部309に表示される(ステップS1807)。
そして、表示部309で仮想世界の画像の表示を継続するときには(ステップS1808のNo)、ステップS1801に戻り、上述した処理を繰り返し実行する。
なお、現実世界のオブジェクトの3次元モデルMIを表示している期間中は、ステップS1801で、現実世界でオブジェクトが移動するのに伴って、仮想空間Vに3次元モデルMIを配置する対応領域RVが随時更新される。また、オブジェクトの現在位置が、表示部309に表示されている現実世界の3次元モデルMIと仮想世界Vの境界に重なることを条件として、境界を操作するようにしてもよい。あるいは、ユーザーの特定のジェスチャーを認識することで、境界を操作できる状態へ移行してもよい。
上述したように、第2の実施例に係るヘッド・マウント・ディスプレイ100によれば、ユーザーは、仮想世界への没入感を損なうことなく、現実世界とのインタラクションが可能になる。このようなヘッド・マウント・ディスプレイ100を装着したユーザーは、仮想世界へ没入することに対する心理的抵抗感を減らすことができる。また、ユーザーは、仮想世界へ没入した状態であっても、現実世界の身体運動に起因する物理的損害などの危険性を減らすことができる。
特開2012−141461号公報 特開2012−42654号公報 特開2008−304268号公報 特開2013−258573号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、本明細書で開示する技術を遮光性のヘッド・マウント・ディスプレイに適用した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。透過性のヘッド・マウント・ディスプレイや、ヘッド・アップ・ディスプレイ、カメラ付きのスマートフォン、多機能端末など、現実世界の画像と仮想世界の画像を表示する機能を備えたさまざまなタイプの画像表示装置に対して、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)表示部と、
現実世界の画像を取得する現実世界画像取得部と、
現実世界の画像を表示する領域を指定する領域指定部と、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
を具備する、頭部又は顔部に装着する画像表示装置。
(2)前記表示部は、前記画像表示装置を頭部又は顔部に装着するユーザーの眼の位置に配設され、
前記ユーザーの視線方向を撮影する撮影部をさらに備え、
前記現実世界画像取得部は、前記撮影部が撮影する現実世界の画像を取得する、
上記(1)に記載の画像表示装置。
(3)仮想世界の画像を生成する仮想世界画像生成部と、
前記領域指定部が指定した領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成部をさらに備え、
前記画像生成部は、仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて、前記表示部に表示する画像を生成する、
上記(1)又は(2)のいずれかに記載の画像表示装置。
(4)前記領域指定部は、ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(3)に記載の画像表示装置。
(5)前記画像生成部は、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御する、
上記(4)に記載の画像表示装置。
(6)前記画像生成部は、ユーザーが領域を指定する操作を行なってから一定時間が経過すると、前記対応領域を現実世界の画像RIから仮想世界の画像RVに切り替え、又は、徐々に仮想世界の画像RVに戻す、
上記(5)に記載の画像表示装置。
(7)ユーザーが入力操作を行なう入力部をさらに備え、
前記領域指定部は、前記入力部に対するユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(8)前記入力部はタッチパネルであり、
前記領域指定部は、前記タッチパネルをユーザーが触れた場所に対応する領域を指定する、
上記(7)に記載の画像表示装置。
(9)前記タッチパネルは、前記表示部の表示画面の背面に配設される、
上記(8)に記載の画像表示装置。
(10)前記領域指定部は、ユーザーのジェスチャー操作に基づいて、現実世界の画像を表示する領域を指定する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(11)前記領域指定部は、現実世界の画像と仮想世界の画像の境界に対するユーザーの操作に応じて、現実世界の画像を表示する領域を変更する、
上記(4)乃至(6)のいずれかに記載の画像表示装置。
(12)現実世界のオブジェクトを検出するオブジェクト検出部と、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算部と、
をさらに備え、
前記画像生成部は、仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なう、
上記(1)又は(2)のいずれかに記載の画像表示装置。
(13)前記オブジェクト検出部は、ユーザーの身体の一部、又は、あらかじめ決められた現実世界の物体を検出する、
上記(12)に記載の画像表示装置。
(14)前記オブジェクト検出部は、前記画像表示装置から一定距離以内にある現実世界の物体を検出する、
上記(12)に記載の画像表示装置。
(15)前記画像生成部は、前記オブジェクト検出部がオブジェクトを検出してからの経過時間に基づいて現実世界の画像の混合率を制御する、
上記(12)乃至(14)のいずれかに記載の画像表示装置。
(16)前記領域指定部は、オブジェクトの現在位置が現実世界の3次元モデルMIと仮想世界Vの境界に重なることを条件として、境界を操作する、
上記(12)乃至(15)のいずれかに記載の画像表示装置。
(17)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
前記指定された領域に基づいて、仮想画像内に現実世界の画像を混合して画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。
(18)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界の画像を表示する領域を指定する領域指定ステップと、
仮想世界の画像を生成する仮想世界画像生成ステップと、
前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
を有する画像表示方法。
(19)現実世界の画像を取得する現実世界画像取得ステップと、
現実世界のオブジェクトを検出するオブジェクト検出ステップと、
検出したオブジェクトの仮想世界の3次元モデルVの対応領域RVを指定する領域指定ステップと、
前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルMIを生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域RVを計算する3次元モデル計算ステップと、
仮想世界の3次元モデルVの対応領域RVに、オブジェクトの3次元モデルMIを配置した3次元モデルMMを計算して、レンダリング処理を行なって画像を生成する画像生成ステップと、
生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、を有する画像表示方法。
100…ヘッド・マウント・ディスプレイ
101L、101R…虚像光学部
103L、103R…マイクロフォン、104L、104R…表示パネル
105…眼幅調整機構
301…制御部、301A…ROM、301B…RAM
302…入力インターフェース部、303…リモコン受信部
304…状態情報取得部、305…通信部、306…記憶部
307…画像処理部、308…表示駆動部
309…表示部、310…虚像光学部、312…外側カメラ
313…音声処理部、314…音声入出力部、
315…タッチパネル、316…環境情報取得部
701…仮想世界画像生成部、702…現実世界画像取得部
703…領域指定部、704…領域画像生成部、705…画像差し替え部
1401…オブジェクト検出部、1402…現実世界画像取得部
1403…3次元モデル計算部、1404…仮想世界画像生成部

Claims (17)

  1. 表示部と、
    現実世界の画像を取得する現実世界画像取得部と、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定部と、
    仮想画像内に前記領域指定部が指定した領域に対応する現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
    仮想世界の画像を生成する仮想世界画像生成部と、
    前記領域指定部が指定した領域に対応する現実世界の画像R I と仮想世界の画像R V を計算する領域画像生成部をさらに備え、
    を具備
    前記画像生成部は、仮想世界のレンダリング結果Vの対応領域の画像R V を現実世界の対応領域の画像R I に差し替えて、前記表示部に表示する画像を生成する、
    頭部又は顔部に装着する画像表示装置。
  2. 表示部と、
    現実世界の画像を取得する現実世界画像取得部と、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定部と、
    仮想画像内に前記領域指定部が指定した領域に対応する現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
    を具備し、
    前記画像生成部は、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御する、
    頭部又は顔部に装着する画像表示装置。
  3. 前記表示部は、前記画像表示装置を頭部又は顔部に装着するユーザーの眼の位置に配設され、
    前記ユーザーの視線方向を撮影する撮影部をさらに備え、
    前記現実世界画像取得部は、前記撮影部が撮影する現実世界の画像を取得する、
    請求項1又は2のいずれかに記載の画像表示装置。
  4. 前記画像生成部は、ユーザーが領域を指定する操作を行なってから一定時間が経過すると、前記対応領域を現実世界の画像R I から仮想世界の画像R V に切り替え、又は、徐々に仮想世界の画像R V に戻す、
    請求項に記載の画像表示装置。
  5. ユーザーが入力操作を行なう入力部をさらに備え、
    前記領域指定部は、前記入力部に対するユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する、
    請求項1乃至のいずれかに記載の画像表示装置。
  6. 前記入力部はタッチパネルであり、
    前記領域指定部は、前記タッチパネルをユーザーが触れた場所に対応する領域を指定する、
    請求項に記載の画像表示装置。
  7. 前記タッチパネルは、前記表示部の表示画面の背面に配設される、
    請求項6に記載の画像表示装置。
  8. 前記領域指定部は、ユーザーのジェスチャー操作に基づいて、現実世界の画像を表示する領域を指定する、
    請求項1乃至4のいずれかに記載の画像表示装置。
  9. 前記領域指定部は、現実世界の画像と仮想世界の画像の境界に対するユーザーの操作に応じて、現実世界の画像を表示する領域を変更する、
    請求項1乃至のいずれかに記載の画像表示装置。
  10. 表示部と、
    現実世界の画像を取得する現実世界画像取得部と、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定部と、
    仮想画像内に前記領域指定部が指定した領域に対応する現実世界の画像を混合して、前記表示部に表示する画像を生成する画像生成部と、
    現実世界のオブジェクトを検出するオブジェクト検出部と、
    前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルM I を生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域R V を計算する3次元モデル計算部と、
    を具備し、
    前記画像生成部は、仮想世界の3次元モデルVの対応領域R V に、オブジェクトの3次元モデルM I を配置した3次元モデルM M を計算して、レンダリング処理を行なう、
    頭部又は顔部に装着する画像表示装置。
  11. 前記オブジェクト検出部は、ユーザーの身体の一部、又は、あらかじめ決められた現実世界の物体を検出する、
    請求項10に記載の画像表示装置。
  12. 前記オブジェクト検出部は、前記画像表示装置から一定距離以内にある現実世界の物体を検出する、
    請求項10に記載の画像表示装置。
  13. 前記画像生成部は、前記オブジェクト検出部がオブジェクトを検出してからの経過時間に基づいて現実世界の画像の混合率を制御する、
    請求項10乃至12のいずれかに記載の画像表示装置。
  14. 前記領域指定部は、オブジェクトの現在位置が現実世界の3次元モデルM I と仮想世界Vの境界に重なることを条件として、境界を操作する、
    請求項10乃至13のいずれかに記載の画像表示装置。
  15. 現実世界の画像を取得する現実世界画像取得ステップと、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定ステップと、
    仮想画像内に前記領域指定ステップにおいて指定した領域に対応する現実世界の画像を混合して画像を生成する画像生成ステップと、
    生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
    を有し、
    前記画像生成ステップでは、ユーザーが領域を指定する操作を行なってからの経過時間に基づいて現実世界の画像の混合率を制御する、
    画像表示方法。
  16. 現実世界の画像を取得する現実世界画像取得ステップと、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定ステップと、
    仮想画像内に前記領域指定ステップにおいて指定した領域に対応する現実世界の画像を混合して画像を生成する画像生成ステップと、
    生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
    現実世界のオブジェクトを検出するオブジェクト検出ステップと、
    前記現実世界画像取得部が取得した現実世界の画像に基づいて前記オブジェクトを含む所定の範囲の3次元モデルM I を生成するとともに、前記オブジェクトを検出した場所に対応する仮想空間Vの領域R V を計算する3次元モデル計算ステップと、
    を有し、
    前記画像生成ステップでは、仮想世界の3次元モデルVの対応領域R V に、オブジェクトの3次元モデルM I を配置した3次元モデルM M を計算して、レンダリング処理を行なう、
    画像表示方法。
  17. 現実世界の画像を取得する現実世界画像取得ステップと、
    ユーザーの操作に基づいて、現実世界の画像を表示する領域を指定する領域指定ステップと、
    仮想世界の画像を生成する仮想世界画像生成ステップと、
    前記領域指定ステップにおいて指定された領域に対応する現実世界の画像RIと仮想世界の画像RVを計算する領域画像生成ステップと、
    仮想世界のレンダリング結果Vの対応領域の画像RVを現実世界の対応領域の画像RIに差し替えて画像を生成する画像生成ステップと、
    生成した画像をユーザーの眼の位置に配設された表示部で表示する表示ステップと、
    を有する画像表示方法。
JP2015558739A 2014-01-23 2014-11-11 画像表示装置及び画像表示方法 Active JP6524917B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014010582 2014-01-23
JP2014010582 2014-01-23
PCT/JP2014/079812 WO2015111283A1 (ja) 2014-01-23 2014-11-11 画像表示装置及び画像表示方法

Publications (2)

Publication Number Publication Date
JPWO2015111283A1 JPWO2015111283A1 (ja) 2017-03-23
JP6524917B2 true JP6524917B2 (ja) 2019-06-05

Family

ID=53681105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015558739A Active JP6524917B2 (ja) 2014-01-23 2014-11-11 画像表示装置及び画像表示方法

Country Status (6)

Country Link
US (1) US10134189B2 (ja)
EP (2) EP3410264B1 (ja)
JP (1) JP6524917B2 (ja)
KR (1) KR102332326B1 (ja)
CN (2) CN109828671B (ja)
WO (1) WO2015111283A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501471B2 (en) 2020-02-07 2022-11-15 Casio Computer Co., Ltd. Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
EP2996017B1 (en) * 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
JP6340301B2 (ja) 2014-10-22 2018-06-06 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、携帯情報端末、画像処理装置、表示制御プログラム、表示制御方法、及び表示システム
JP6618260B2 (ja) * 2015-02-19 2019-12-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2016191950A1 (zh) * 2015-05-29 2016-12-08 深圳市柔宇科技有限公司 显示调节的方法及头戴式显示设备
CN110275619A (zh) * 2015-08-31 2019-09-24 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
WO2017039308A1 (en) * 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
JP6675209B2 (ja) * 2016-01-20 2020-04-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびユーザガイド提示方法
JP6232649B2 (ja) * 2016-02-18 2017-11-22 国立大学法人名古屋大学 仮想空間表示システム
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
US10025376B2 (en) 2016-04-27 2018-07-17 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US9851792B2 (en) 2016-04-27 2017-12-26 Rovi Guides, Inc. Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
JP6968800B2 (ja) * 2016-04-27 2021-11-17 ロヴィ ガイズ, インコーポレイテッド 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
CN106200881A (zh) * 2016-06-29 2016-12-07 乐视控股(北京)有限公司 一种数据展示方法及装置与虚拟现实设备
US10191541B2 (en) * 2016-06-30 2019-01-29 Sony Interactive Entertainment Inc. Augmenting virtual reality content with real world content
CN106383578B (zh) * 2016-09-13 2020-02-04 网易(杭州)网络有限公司 虚拟现实***、虚拟现实交互装置及方法
US10642345B2 (en) * 2016-10-18 2020-05-05 Raytheon Company Avionics maintenance training
US20190335115A1 (en) * 2016-11-29 2019-10-31 Sharp Kabushiki Kaisha Display control device, head-mounted display, and control program
CN106774869B (zh) * 2016-12-08 2020-05-19 广州大西洲科技有限公司 一种实现虚拟现实的方法、装置及虚拟现实头盔
CN107980220A (zh) * 2016-12-22 2018-05-01 深圳市柔宇科技有限公司 头戴式显示设备及其视觉辅助方法
JP6969577B2 (ja) * 2017-01-20 2021-11-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN108496107A (zh) * 2017-03-28 2018-09-04 深圳市柔宇科技有限公司 头戴式显示设备及其显示切换方法
CN107172414A (zh) * 2017-04-20 2017-09-15 北京安云世纪科技有限公司 一种虚拟现实头戴显示器设备及其处理信息的方法
GB2555501B (en) 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
CN107179876B (zh) * 2017-06-30 2023-08-25 吴少乔 基于虚拟现实***的人机交互装置
KR102077665B1 (ko) * 2017-09-26 2020-04-07 에이케이엔코리아 주식회사 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
WO2019067470A1 (en) 2017-09-29 2019-04-04 Zermatt Technologies Llc PHYSICAL LIMIT DETECTOR
CN111201796A (zh) * 2017-10-04 2020-05-26 Vid拓展公司 定制的360度媒体观看
JP2021043476A (ja) * 2017-12-26 2021-03-18 株式会社Nttドコモ 情報処理装置
DE102018207653A1 (de) * 2018-05-16 2019-11-21 Siemens Aktiengesellschaft Anzeigegerät zum Darstellen virtueller Realität mit einer berührungsempfindlichen Bedieneinheit; Anzeigesystem; Bediensystem
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US10600246B2 (en) 2018-06-15 2020-03-24 Microsoft Technology Licensing, Llc Pinning virtual reality passthrough regions to real-world locations
US10520739B1 (en) 2018-07-11 2019-12-31 Valve Corporation Dynamic panel masking
CN110163977B (zh) * 2018-07-13 2024-04-12 腾讯数码(天津)有限公司 多世界虚拟场景中的虚拟通道渲染方法及装置
JP6739847B2 (ja) * 2018-09-12 2020-08-12 株式会社アルファコード 画像表示制御装置および画像表示制御用プログラム
US10776954B2 (en) 2018-10-08 2020-09-15 Microsoft Technology Licensing, Llc Real-world anchor in a virtual-reality environment
US20200111256A1 (en) * 2018-10-08 2020-04-09 Microsoft Technology Licensing, Llc Real-world anchor in a virtual-reality environment
KR102145852B1 (ko) 2018-12-14 2020-08-19 (주)이머시브캐스트 카메라 기반의 혼합현실 글래스 장치 및 혼합현실 디스플레이 방법
DE102019135676A1 (de) * 2018-12-26 2020-07-02 Htc Corporation Objektverfolgungssystem und objektverfolgungsverfahren
US11064255B2 (en) * 2019-01-30 2021-07-13 Oohms Ny Llc System and method of tablet-based distribution of digital media content
US11265487B2 (en) * 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
WO2021048985A1 (ja) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、及び、プログラム
CN112562088A (zh) * 2019-09-26 2021-03-26 苹果公司 基于用户移动来呈现环境
US11842449B2 (en) * 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement
JP7023005B2 (ja) * 2019-10-24 2022-02-21 克己 横道 情報処理システム、情報処理方法およびプログラム
EP3926588A1 (en) 2020-06-19 2021-12-22 Alpine Electronics, Inc. Image displaying apparatus and method of displaying image data on a vr display device, particularly disposed in a vehicle
KR102543899B1 (ko) * 2020-08-27 2023-06-20 네이버랩스 주식회사 헤드업 디스플레이 및 그 제어방법
US11595636B1 (en) * 2021-08-23 2023-02-28 At&T Intellectual Property I, L.P. Enhanced emotive engagement with volumetric content
US11960082B2 (en) 2022-07-13 2024-04-16 Htc Corporation Virtual reality system and object detection method applicable to virtual reality system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4724476B2 (ja) * 2004-09-07 2011-07-13 キヤノン株式会社 情報処理方法及び装置
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
JP2008096868A (ja) * 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
US20120050140A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display control
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
KR20130067450A (ko) * 2011-12-14 2013-06-24 한국전자통신연구원 현장적용형 증강현실 기반 작업 가이드용 모듈 일체형 안전모 장치 및 이를 이용한 응용 서비스 제공방법
JP5938977B2 (ja) * 2012-03-23 2016-06-22 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US9116666B2 (en) * 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
JP5580855B2 (ja) * 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
JP5953963B2 (ja) 2012-06-13 2016-07-20 ソニー株式会社 頭部装着型映像表示装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实***中基于虚拟模型预处理的虚实遮挡处理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501471B2 (en) 2020-02-07 2022-11-15 Casio Computer Co., Ltd. Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device

Also Published As

Publication number Publication date
EP3098689A1 (en) 2016-11-30
EP3098689B1 (en) 2019-04-03
CN105992986A (zh) 2016-10-05
CN109828671A (zh) 2019-05-31
CN109828671B (zh) 2022-02-22
US20160379413A1 (en) 2016-12-29
KR102332326B1 (ko) 2021-11-30
CN105992986B (zh) 2019-03-12
EP3410264A1 (en) 2018-12-05
EP3410264B1 (en) 2020-08-26
WO2015111283A1 (ja) 2015-07-30
KR20160111904A (ko) 2016-09-27
EP3098689A4 (en) 2017-09-20
JPWO2015111283A1 (ja) 2017-03-23
US10134189B2 (en) 2018-11-20

Similar Documents

Publication Publication Date Title
JP6524917B2 (ja) 画像表示装置及び画像表示方法
JP6079614B2 (ja) 画像表示装置及び画像表示方法
JP6525010B2 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
KR102316327B1 (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US11170580B2 (en) Information processing device, information processing method, and recording medium
JP6428268B2 (ja) 画像表示装置及び画像表示方法、並びに画像表示システム
KR102340665B1 (ko) 프라이버시 스크린
JP6558839B2 (ja) 媒介現実
US20150044662A1 (en) Acceleration sensation presentation device, acceleration sensation presentation method, and acceleration sensation presentation system
JPWO2016013272A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
KR20180010845A (ko) Hmd 및 그 hmd의 제어 방법
JPWO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230221833A1 (en) Methods for displaying user interface elements relative to media content
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240104819A1 (en) Representations of participants in real-time communication sessions
US20240103686A1 (en) Methods for controlling and interacting with a three-dimensional environment
TW201908951A (zh) 虛擬實境即時導覽方法及系統
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R151 Written notification of patent or utility model registration

Ref document number: 6524917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151