JP2019028368A - レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法 - Google Patents

レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法 Download PDF

Info

Publication number
JP2019028368A
JP2019028368A JP2017150052A JP2017150052A JP2019028368A JP 2019028368 A JP2019028368 A JP 2019028368A JP 2017150052 A JP2017150052 A JP 2017150052A JP 2017150052 A JP2017150052 A JP 2017150052A JP 2019028368 A JP2019028368 A JP 2019028368A
Authority
JP
Japan
Prior art keywords
mounted display
image
head mounted
frame data
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017150052A
Other languages
English (en)
Inventor
健一郎 横田
Kenichiro Yokota
健一郎 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017150052A priority Critical patent/JP2019028368A/ja
Priority to PCT/JP2018/028107 priority patent/WO2019026765A1/ja
Priority to US16/630,225 priority patent/US11119319B2/en
Publication of JP2019028368A publication Critical patent/JP2019028368A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ヘッドマウントディスプレイを装着したユーザは3D酔いを感じることがある。
【解決手段】レンダリング装置200から伝送される画像を表示するヘッドマウントディスプレイ100を提供する。姿勢センサ64は、ヘッドマウントディスプレイ100の姿勢を検出する。HDMI送受信部90は、ヘッドマウントディスプレイ100に表示すべき画像のフレームデータと、画像のフレームデータに同期して伝送されるヘッドマウントディスプレイ100の予測姿勢情報とを受信する。リプロジェクション部60は、姿勢センサ64により検出された最新の姿勢情報と予測姿勢情報の差分にもとづいてヘッドマウントディスプレイ100の最新の姿勢に合うように画像のフレームデータを補正する。
【選択図】図3

Description

この発明は、ヘッドマウントディスプレイのための画像伝送技術および画像補正技術に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。また、ヘッドマウントディスプレイに仮想現実(Virtual Reality)の映像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度見渡せる全周囲の仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
このようにヘッドマウントディスプレイにヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイに表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイのVR酔いに対処するための画像伝送技術および画像補正技術を提供することにある。
上記課題を解決するために、本発明のある態様のレンダリング装置は、ヘッドマウントディスプレイから受け取った姿勢情報をもとに遅延時間経過後の前記ヘッドマウントディスプレイの姿勢を予測し、予測姿勢情報を出力する予測部と、前記ヘッドマウントディスプレイの予測姿勢情報にもとづいてヘッドマウントディスプレイに表示すべき画像を生成する画像生成部と、前記ヘッドマウントディスプレイの前記予測姿勢情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送する送信部とを含む。
本発明の別の態様は、ヘッドマウントディスプレイである。このヘッドマウントディスプレイは、レンダリング装置から伝送される画像を表示するヘッドマウントディスプレイであって、前記ヘッドマウントディスプレイの姿勢情報を検出するセンサと、前記ヘッドマウントディスプレイに表示すべき画像のフレームデータと、前記画像のフレームデータに同期して伝送される前記ヘッドマウントディスプレイの予測姿勢情報とを受信する受信部と、前記センサにより検出された最新の姿勢情報と前記予測姿勢情報の差分にもとづいて前記ヘッドマウントディスプレイの最新の姿勢に合うように前記画像のフレームデータを補正するリプロジェクション部とを含む。
本発明のさらに別の態様は、画像伝送方法である。この方法は、ヘッドマウントディスプレイから受け取った姿勢情報をもとに遅延時間経過後の前記ヘッドマウントディスプレイの姿勢を予測し、予測姿勢情報を出力する予測ステップと、前記ヘッドマウントディスプレイの予測姿勢情報にもとづいてヘッドマウントディスプレイに表示すべき画像を生成する画像生成ステップと、前記ヘッドマウントディスプレイの前記予測姿勢情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送する送信ステップとを含む。
本発明のさらに別の態様は、画像補正方法である。この方法は、レンダリング装置から伝送されるヘッドマウントディスプレイに表示すべき画像を補正する画像補正方法であって、前記ヘッドマウントディスプレイに表示すべき画像のフレームデータと、前記画像のフレームデータに同期して伝送される前記ヘッドマウントディスプレイの予測姿勢情報とを受信する受信ステップと、前記ヘッドマウントディスプレイの最新の姿勢情報を検出する検出ステップと、前記最新の姿勢情報と前記予測姿勢情報の差分にもとづいて前記ヘッドマウントディスプレイの最新の姿勢に合うように前記画像のフレームデータを補正するリプロジェクションステップとを含む。
本発明のさらに別の態様もまた、画像補正方法である。この方法は、レンダリング装置からヘッドマウントディスプレイに画像を伝送しリプロジェクションを施す画像補正方法であって、前記レンダリング装置が、前記ヘッドマウントディスプレイに表示すべき画像を描画する際に前提とした情報であってヘッドマウントディスプレイにおけるリプロジェクションに必要な情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送するステップと、前記ヘッドマウントディスプレイが、前記画像のフレームデータに同期して伝送されたリプロジェクションに必要な情報を前記画像のフレームデータに適用して前記画像のフレームデータを補正するリプロジェクションステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、ヘッドマウントディスプレイのVR酔いに対処することができる。
ヘッドマウントディスプレイの外観図である。 本実施の形態に係る画像転送システムの構成図である。 ヘッドマウントディスプレイの機能構成図である。 本実施の形態に係るレンダリング装置の機能構成図である。 ヘッドマウントディスプレイに表示される全周囲画像を説明する図である。 ヘッドマウントディスプレイに表示される全周囲画像に遅れが生じる理由を説明する図である。 動的メタデータをフレームデータとは別の伝送路で伝送する方法を説明する図である。 動的メタデータをフレームデータに同期させて同一の伝送路で伝送する方法を説明する図である。 ヘッドマウントディスプレイとレンダリング装置によるリプロジェクション処理を説明するシーケンス図である。 マルチレゾルーションシェーディングの分割領域を説明する図である。 図11(a)〜図11(c)は、グラフィックスプロセッシングユニットの負荷に応じてマルチレゾルーションシェーディングの分割領域の大きさが変化する様子を説明する図である。 中心窩レンダリングにおける凝視領域を説明する図である。 図13(a)〜図13(c)は、凝視点の移動に応じて中心窩レンダリングの凝視領域の位置が変化する様子を説明する図である。 図14(a)〜図14(c)は、マルチレゾルーションシェーディングに凝視追跡を組み合わせた場合に分割領域の位置が変化する様子を説明する図である。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの凝視方向、瞳孔の動き、瞬きなどを検出することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像転送システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェースでレンダリング装置200に接続される。
本実施の形態では、ヘッドマウントディスプレイ100とレンダリング装置200の間のデータ伝送路300はHDMI伝送路である。
HDMI2.1規格には動的HDR(High Dynamic Range)と呼ばれる機能があり、映像の動的メタデータ(Dynamic Metadata)を参照してシーンに応じてフレーム毎に輝度や色の深度を最適に調整した映像を生成することができる。HDMI2.1規格では動的メタデータは、シーンの最大輝度、平均輝度、最小輝度など動的HDRに必要な情報を映像に同期させて伝送することができる。
本実施の形態では、レンダリング装置200が映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報を動的メタデータに含め、動的メタデータを映像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
ヘッドマウントディスプレイ100とレンダリング装置200の通信インタフェースは、動的メタデータを映像と同期させて伝送できるものであれば、HDMIに限られない。
レンダリング装置200の一例はゲーム機である。レンダリング装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをレンダリング装置200に提供してもよい。ヘッドマウントディスプレイ100は、レンダリング装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
ヘッドマウントディスプレイ100に表示される映像は、あらかじめカメラで撮影された映像の他、ゲーム映像のようなコンピュータグラフィックスによる映像であってもよい。また、ネットワーク経由で配信される遠隔地のライブ映像であってもよい。
図3は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を送受信する。HDMI送受信部90がレンダリング装置200から受け取るフレームデータには動的メタデータが関連づけられており、動的メタデータにはレンダリング装置200が当該フレームデータの描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報L2が含まれる。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1は、通信制御部40または外部入出力端子インタフェース70を介してレンダリング装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をレンダリング装置200に送信してもよい。レンダリング装置200は、受信したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1から、映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、ヘッドマウントディスプレイ100の予測位置・姿勢情報L2を前提としてヘッドマウントディスプレイ100に表示されるべき画像を描画する。
姿勢センサ64は、レンダリング装置200から描画データを受け取った際、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62に与える。位置・姿勢差分計算部62は、レンダリング装置200が描画の際に前提とした予測位置・姿勢情報L2をHDMI送受信部90から受け取る。位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求め、リプロジェクション部60に与える。ここで、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLは、一般にはヘッドマウントディスプレイ100の位置情報と姿勢情報の両方が異なるが、位置情報と姿勢情報のいずれか一方のみが異なる場合もあることに留意する。
リプロジェクション部60は、HDMI送受信部90がレンダリング装置200から受け取った描画データに対して差分ΔLにもとづいた補正をかけることにより、リプロジェクションを実行し、リプロジェクション後の描画データを制御部10に与える。制御部10は、リプロジェクション後の描画データを出力インタフェース30に供給してディスプレイに表示させる。
図4は、本実施の形態に係るレンダリング装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
レンダリング装置200の少なくとも一部の機能をヘッドマウントディスプレイ100に実装してもよい。あるいは、レンダリング装置200の少なくとも一部の機能を、ネットワークを介してレンダリング装置200に接続されたサーバに実装してもよい。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をヘッドマウントディスプレイ100から取得する。
遅延時間取得部220は、ある時刻での視点位置から視線方向に見える画像を描画してからヘッドマウントディスプレイ100に表示するまでに要する遅延時間を取得する。この遅延時間には描画処理に要する時間の他、画像データを伝送するのに要する時間が含まれる。遅延時間取得部220は、3次元描画ハードウェア性能と伝送路の伝送遅延にもとづいて遅延時間を求める。
位置・姿勢予測部230は、遅延時間取得部220により求められた遅延時間の間の位置および姿勢の変化量を予測する。位置・姿勢予測部230は、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進速度や角速度に遅延時間を乗じることで位置および姿勢の変化量を求めることができる。位置・姿勢予測部230は、現在の位置・姿勢情報L1に遅延時間の間の位置および姿勢の変化量を加算することにより遅延時間経過後の位置・姿勢情報L2を予測し、予測位置・姿勢情報L2を視点・視線設定部240とメタデータ生成部270に供給する。
視点・視線設定部240は、位置・姿勢予測部230により取得されたヘッドマウントディスプレイ100の予測位置・姿勢情報L2を用いて、ユーザの視点位置および視線方向を更新する。
画像生成部250は、画像記憶部260から画像データを読み出し、視点・視線設定部240によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える画像を生成し、HDMI送受信部280に与える。ここで、画像データは、事前に作成された動画または静止画コンテンツであってもよく、レンダリングされたコンピュータグラフィックスであってもよい。
メタデータ生成部270は、位置・姿勢予測部230から予測位置・姿勢情報L2を取得し、フレームデータに関連づけるべき動的メタデータに予測位置・姿勢情報L2を埋め込み、動的メタデータをHDMI送受信部280に供給する。
HDMI送受信部280は、画像生成部250からフレームデータを受け取り、メタデータ生成部270から予測位置・姿勢情報L2が埋め込まれた動的メタデータを受け取る。HDMI送受信部280は、HDMIにしたがってフレームデータに動的メタデータを同期させ、フレームデータと動的メタデータをヘッドマウントディスプレイ100に伝送する。
図5は、ヘッドマウントディスプレイ100に表示される全周囲画像500を説明する図である。全周囲画像500に対して、ユーザが左前方を向いている場合、ヘッドマウントディスプレイ100aの方向で画角150aの範囲にある画像510aが表示され、ユーザが首を回して右前方を向いている場合、ヘッドマウントディスプレイ100bの方向で画角150bの範囲にある画像510bが表示される。
このように頭部の動きに応じてヘッドマウントディスプレイ100に表示される全周囲画像を見る視点位置と視線方向も変わるため、全周囲画像に対する没入感を高めることができる。
図6は、ヘッドマウントディスプレイ100に表示される全周囲画像に遅れが生じる理由を説明する図である。ユーザが首を回して右前方を向いた場合、ヘッドマウントディスプレイ100bの方向で画角150bの範囲にある画像510bを生成し、ヘッドマウントディスプレイ100に表示するが、画像510bの表示の時点では、既にヘッドマウントディスプレイ100bの位置と回転が符号150cで示すように変化している。そのため、本来は画角150cの範囲で見える画像をヘッドマウントディスプレイ100cに表示する必要があるが、実際に生成されて表示される画像は、少し前の時点のヘッドマウントディスプレイ100bの方向で画角150bの範囲で見える画像となってしまう。この時間差によるずれのため、ユーザが見ている方向とは少しずれた画像がヘッドマウントディスプレイ100に表示され、ユーザはある種の「酔い」を感じることがある。
このように、ヘッドマウントディスプレイ100の回転を検知し、次の描画範囲を確定し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われているとすると、CPUが十分高速であったとしても、ヘッドマウントディスプレイ100の回転を検知してから画像を出力するまでに1フレーム分の遅れが生じる。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
さらに、レンダリング装置200で描画された画像をデータ伝送路300でヘッドマウントディスプレイ100に伝送する際にもレイテンシが生じる。
そこで、生成された画像に対してリプロジェクション処理を行うことで人間がずれを感知しにくいようにしている。レンダリング装置200が遅延時間経過後のヘッドマウントディスプレイ100の位置・姿勢情報を予測して描画を行うこともリプロジェクションの一種であるが、本実施の形態では、レンダリング装置200が描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報と、レンダリング装置200により描画された画像をヘッドマウントディスプレイ100で表示する際のヘッドマウントディスプレイ100の最新の位置・姿勢情報とのずれを補償するための画像の補正処理をリプロジェクションと呼ぶ。
具体的には描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報とヘッドマウントディスプレイ100の最新の位置・姿勢情報の差分を求め、ヘッドマウントディスプレイ100の最新の位置・姿勢情報に合うように画像を補正する処理であり、画像変換やフレーム補間などの技術が用いられる。
レンダリング装置200は、リプロジェクションに必要な情報を動的メタデータとして画像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報はレンダリング装置200がもっているため、レンダリング装置200からヘッドマウントディスプレイ100にフレーム毎に動的メタデータとして伝送しなければ、ヘッドマウントディスプレイ100側ではわからない。そこで、レンダリング装置200は、ヘッドマウントディスプレイ100の予測位置・姿勢情報を動的メタデータに埋め込み、動的メタデータをフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。ヘッドマウントディスプレイ100の予測位置・姿勢情報は、リプロジェクションに必要なデータの一例であり、リプロジェクションに必要な情報であればそれ以外の情報を動的メタデータに埋め込んでヘッドマウントディスプレイ100に伝送してもよい。
ここで、フレームデータとは別に動的メタデータを伝送すると、フレームデータと動的メタデータを関連づけることができず、フレームデータに動的メタデータを適用することができない。比較のため、図7を参照して、動的メタデータをフレームデータと関連付けることなく、別々に伝送する方法を説明し、その後、図8を参照して、動的メタデータをフレームデータに同期させて伝送する方法を説明する。
図7は、動的メタデータをフレームデータとは別の伝送路で伝送する方法を説明する図である。
フレームデータはHDMI伝送路で伝送される。各フレームデータの直前には垂直ブランキング信号VBlankが挿入される。ここでは、N番目のフレームデータ600の直前にVBlank602が挿入され、(N+1)番目のフレームデータ610の直前にVBlank612が挿入される。
各フレームデータに適用すべき動的メタデータは一例としてUSB伝送路で伝送される。USB接続以外に、たとえば無線通信でメタデータを伝送してもよい。N番目のフレームデータ600に適用すべきN番目の動的メタデータ604、(N+1)番目のフレームデータ610に適用すべき(N+1)番目の動的メタデータ614がUSB伝送路で伝送されるが、これらの動的メタデータ604、614はフレームデータ600、610には同期していない。そのため、ヘッドマウントディスプレイ100が動的メタデータ604、614を受け取ってもいずれのフレームデータ600、610に適用させればよいかわからない。
図8は、動的メタデータをフレームデータに同期させて同一の伝送路で伝送する方法を説明する図である。
フレームデータと動的メタデータはHDMI伝送路で伝送される。各フレームデータの直前には垂直ブランキング信号VBlankが挿入されるが、垂直ブランキング信号VBlankにメタデータが挿入される。ここでは、N番目のフレームデータ600の直前にVBlank602が挿入され、VBlank602にN番目の動的メタデータ604が挿入される。また、(N+1)番目のフレームデータ610の直前にVBlank612が挿入され、VBlank612に(N+1)番目の動的メタデータ614が挿入される。
このように各フレームデータ600、610の垂直ブランキング信号VBlankに各フレームデータ600、610に適用すべき各動的メタデータ604、614を挿入して同一のHDMI伝送路で伝送すれば、各フレームデータ600、610に各動的メタデータ604、614が同期するため、ヘッドマウントディスプレイ100は各動的メタデータ604、614を対応する各フレームデータ600、610に正しく適用することができる。
HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべき動的メタデータを挿入して伝送することが検討されている。動的メタデータにヘッドマウントディスプレイ100の予測位置・姿勢情報を埋め込めば、レンダリング装置200が利用したヘッドマウントディスプレイ100の予測位置・姿勢情報をフレームデータに同期させてヘッドマウントディスプレイ100に伝送することができる。ここではHDMI2.1規格のVBlank信号に動的メタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号に動的メタデータを挿入して伝送すればよい。
図9は、ヘッドマウントディスプレイ100とレンダリング装置200によるリプロジェクション処理を説明するシーケンス図である。
ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1を検出する(S10)。ヘッドマウントディスプレイ100は現在の位置・姿勢情報L1をレンダリング装置200に通知する(S12)。
レンダリング装置200は、ヘッドマウントディスプレイ100とレンダリング装置200の間の伝送遅延とレンダリング装置200における描画にかかる処理遅延により発生する遅延時間を求める。レンダリング装置200の位置・姿勢予測部230は、現在の位置・姿勢情報L1から、遅延時間を経過した後のヘッドマウントディスプレイ100の位置・姿勢情報L2を予測する(S14)。
レンダリング装置200の画像生成部250は、予測位置・姿勢情報L2にもとづいてヘッドマウントディスプレイ100を装着したユーザに見える画像を描画する(S16)。
レンダリング装置200のHDMI送受信部280は、描画されたフレームデータに予測位置・姿勢情報L2を動的メタデータとして関連づけてヘッドマウントディスプレイ100に伝送する(S18)。
レンダリング装置200からフレームデータを受け取ると、ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求める(S20)。
リプロジェクション部60は、差分ΔLにもとづいてフレームデータにリプロジェクション処理を施し、最新の位置・姿勢情報L3に合った画像を生成する(S22)。
上記の説明では、動的メタデータに予測位置・姿勢情報L2を埋め込み、フレームデータに同期させて伝送したが、一般的にはリプロジェクションに必要な情報を動的メタデータに埋め込んで伝送する。以下、リプロジェクションを用いた実施例を挙げて、動的メタデータに埋め込むべき他の情報を説明する。
図10は、マルチレゾルーションシェーディングの分割領域を説明する図である。ヘッドマウントディスプレイ100に映像を表示する場合、画像にレンズ歪みの補正をかける必要があり、画像の中央領域は解像度が維持されるが、視野の端の領域は圧縮されて解像度が落ちる。そこで、画像の中央領域400は高解像度で描画し、それ以外の周辺領域は低解像度で描画することで描画処理の負荷を低減するマルチレゾルーションシェーディング(Multi-Resolution Shading)と呼ばれる方法がある。ヘッドマウントディスプレイ100では左目用画像と右目用画像のそれぞれにおいてマルチレゾルーションシェーディングが行われるが、ここでは片方の目の画像について図示している。
レンダリング装置200がマルチレゾルーションシェーディングにより描画した画像をヘッドマウントディスプレイ100に伝送し、ヘッドマウントディスプレイ100のリプロジェクション部60が最新の位置・姿勢情報L3に合わせて画像に対してリプロジェクションを実行する。ヘッドマウントディスプレイ100は、画像に対してリプロジェクションを実行する際、マルチレゾルーションシェーディングにおいて画像がどのように分割されて複数の解像度で描画されたかを知る必要がある。画像に対してリプロジェクションを施す際に分割領域毎の解像度の違いを考慮しなければならないからである。
そこで、レンダリング装置200は、予測位置・姿勢情報L2以外に、マルチレゾルーションシェーディングにおける分割領域の情報を動的メタデータに含めてフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
図11(a)〜図11(c)は、グラフィックスプロセッシングユニット(GPU)の負荷に応じてマルチレゾルーションシェーディングの分割領域の大きさが変化する様子を説明する図である。GPUの負荷が小さい場合、図11(a)に示すように高解像度で描画する中央領域を広げるが(符号402)、GPUの負荷が高まるにつれて、図11(b)、図11(c)に示すように中央領域402の狭くしていく(符号404、406)。このようにGPUの負荷に応じて分割領域の大きさが変化する場合、動的に変化する分割領域の範囲情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図12は、中心窩レンダリングにおける凝視領域を説明する図である。ユーザの凝視追跡(Gaze Tracking)を行い、凝視点を中心とする領域を高解像度で描画し、周囲を低解像度で描画することで描画処理の負荷を低減する中心窩レンダリング(Foveated Rendering)と呼ばれる方法がある。凝視点を中心とする中央領域410は高解像で描画し、中央領域410の外側の周辺領域420は中解像度で描画し、周辺領域420のさらに外側は低解像度で描画する。
レンダリング装置200が中心窩レンダリングにより描画した画像をヘッドマウントディスプレイ100に伝送し、ヘッドマウントディスプレイ100のリプロジェクション部60が最新の位置・姿勢情報L3に合わせて画像に対してリプロジェクションを実行する。ヘッドマウントディスプレイ100は、画像に対してリプロジェクションを実行する際、中心窩レンダリングにおける凝視領域の情報が必要になる。そこで、レンダリング装置200は、予測位置・姿勢情報L2以外に、中心窩レンダリングにおける凝視領域の情報、具体的には凝視点の位置と凝視領域の円の半径の情報を動的メタデータに含めてフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。
図13(a)〜図13(c)は、凝視点の移動に応じて中心窩レンダリングの凝視領域の位置が変化する様子を説明する図である。凝視点が左下にある場合、図13(a)に示すように凝視領域は左下にあり(中央領域412、周辺領域422)、凝視点が正面にある場合、図13(b)に示すように凝視領域は正面にあり(中央領域414、周辺領域424)、凝視点が右上にある場合、図13(c)に示すように凝視領域は右上にある(中央領域416、周辺領域426)。このように凝視点の位置に応じて凝視領域の位置が変化する場合、動的に変化する凝視領域の位置情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図11(a)〜図11(c)と同様、GPUの負荷に応じて中心窩レンダリングの凝視領域の大きさが変化する場合、すなわち、GPUの負荷が小さい場合は凝視領域を広げ、GPUの負荷が高まるにつれて凝視領域を狭くする場合、動的に変化する凝視領域の範囲情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
図14(a)〜図14(c)は、マルチレゾルーションシェーディングに凝視追跡を組み合わせた場合に分割領域の位置が変化する様子を説明する図である。凝視点が左下にある場合、図14(a)に示すように高解像度で描画する注視領域432は左下にあり、凝視点が正面にある場合、図14(b)に示すように注視領域434は正面にあり、凝視点が右上にある場合、図14(c)に示すように注視領域436は右上にある。このように凝視点の位置に応じて注視領域の位置が変化する場合、動的に変化する注視領域の位置情報をフレーム毎に動的メタデータに含めてヘッドマウントディスプレイ100に伝送する。
以上述べたように、本実施の形態のレンダリング装置200によれば、リプロジェクションに必要な情報を動的メタデータとして画像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送することができる。ヘッドマウントディスプレイ100は、動的メタデータからリプロジェクションに必要な情報を抽出し、画像のフレームデータにリプロジェクションを施すことができる。これにより、ヘッドマウントディスプレイ100を装着したユーザのVR酔いを防ぐことができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 60 リプロジェクション部、 62 位置・姿勢差分計算部、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 90 HDMI送受信部、 100 ヘッドマウントディスプレイ、 200 レンダリング装置、 210 位置・姿勢取得部、 220 遅延時間取得部、 230 位置・姿勢予測部、 240 視点・視線設定部、 250 画像生成部、 260 画像記憶部、 270 メタデータ生成部、 280 HDMI送受信部、 300 データ伝送路、 500 全周囲画像。

Claims (10)

  1. ヘッドマウントディスプレイから受け取った姿勢情報をもとに遅延時間経過後の前記ヘッドマウントディスプレイの姿勢を予測し、予測姿勢情報を出力する予測部と、
    前記ヘッドマウントディスプレイの予測姿勢情報にもとづいてヘッドマウントディスプレイに表示すべき画像を生成する画像生成部と、
    前記ヘッドマウントディスプレイの前記予測姿勢情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送する送信部とを含むことを特徴とするレンダリング装置。
  2. 前記送信部は、前記ヘッドマウントディスプレイの前記予測姿勢情報を各フレームの同期信号にメタデータとして挿入して伝送することを特徴とする請求項1に記載のレンダリング装置。
  3. レンダリング装置から伝送される画像を表示するヘッドマウントディスプレイであって、
    前記ヘッドマウントディスプレイの姿勢情報を検出するセンサと、
    前記ヘッドマウントディスプレイに表示すべき画像のフレームデータと、前記画像のフレームデータに同期して伝送される前記ヘッドマウントディスプレイの予測姿勢情報とを受信する受信部と、
    前記センサにより検出された最新の姿勢情報と前記予測姿勢情報の差分にもとづいて前記ヘッドマウントディスプレイの最新の姿勢に合うように前記画像のフレームデータを補正するリプロジェクション部とを含むことを特徴とするヘッドマウントディスプレイ。
  4. 前記受信部は、各フレームの同期信号にメタデータとして挿入して伝送された前記予測姿勢情報を受信することを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5. 前記メタデータには、処理負荷または凝視点の移動に応じて動的に変化するマルチレゾルーションシェーディングの分割領域の位置または大きさの情報が含まれ、
    前記リプロジェクション部は、マルチレゾルーションシェーディングの分割領域の位置または大きさの情報を参照して前記画像のフレームデータを補正することを特徴とする請求項4に記載のヘッドマウントディスプレイ。
  6. 前記メタデータには、処理負荷または凝視点の移動に応じて動的に変化する中心窩レンダリングの凝視領域の位置または大きさの情報が含まれ、
    前記リプロジェクション部は、中心窩レンダリングの凝視領域の位置または大きさの情報を参照して前記画像のフレームデータを補正することを特徴とする請求項4に記載のヘッドマウントディスプレイ。
  7. ヘッドマウントディスプレイから受け取った姿勢情報をもとに遅延時間経過後の前記ヘッドマウントディスプレイの姿勢を予測し、予測姿勢情報を出力する予測ステップと、
    前記ヘッドマウントディスプレイの予測姿勢情報にもとづいてヘッドマウントディスプレイに表示すべき画像を生成する画像生成ステップと、
    前記ヘッドマウントディスプレイの前記予測姿勢情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送する送信ステップとを含むことを特徴とする画像伝送方法。
  8. レンダリング装置から伝送されるヘッドマウントディスプレイに表示すべき画像を補正する画像補正方法であって、
    前記ヘッドマウントディスプレイに表示すべき画像のフレームデータと、前記画像のフレームデータに同期して伝送される前記ヘッドマウントディスプレイの予測姿勢情報とを受信する受信ステップと、
    前記ヘッドマウントディスプレイの最新の姿勢情報を検出する検出ステップと、
    前記最新の姿勢情報と前記予測姿勢情報の差分にもとづいて前記ヘッドマウントディスプレイの最新の姿勢に合うように前記画像のフレームデータを補正するリプロジェクションステップとを含むことを特徴とする画像補正方法。
  9. レンダリング装置からヘッドマウントディスプレイに画像を伝送しリプロジェクションを施す画像補正方法であって、
    前記レンダリング装置が、前記ヘッドマウントディスプレイに表示すべき画像を描画する際に前提とした情報であってヘッドマウントディスプレイにおけるリプロジェクションに必要な情報を前記画像のフレームデータに同期させて前記ヘッドマウントディスプレイに伝送するステップと、
    前記ヘッドマウントディスプレイが、前記画像のフレームデータに同期して伝送されたリプロジェクションに必要な情報を前記画像のフレームデータに適用して前記画像のフレームデータを補正するリプロジェクションステップとを含むことを特徴とする画像補正方法。
  10. レンダリング装置から伝送されるヘッドマウントディスプレイに表示すべき画像を補正するプログラムであって、
    ヘッドマウントディスプレイに表示すべき画像のフレームデータに同期して伝送される前記ヘッドマウントディスプレイの予測姿勢情報と前記ヘッドマウントディスプレイの最新の姿勢情報の差分を計算する差分計算機能と、
    前記差分にもとづいて前記ヘッドマウントディスプレイの最新の姿勢に合うように前記画像のフレームデータを補正するリプロジェクション機能をコンピュータに実現させることを特徴とするプログラム。
JP2017150052A 2017-08-02 2017-08-02 レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法 Pending JP2019028368A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017150052A JP2019028368A (ja) 2017-08-02 2017-08-02 レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法
PCT/JP2018/028107 WO2019026765A1 (ja) 2017-08-02 2018-07-26 レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法
US16/630,225 US11119319B2 (en) 2017-08-02 2018-07-26 Rendering device, head-mounted display, image transmission method, and image correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150052A JP2019028368A (ja) 2017-08-02 2017-08-02 レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法

Publications (1)

Publication Number Publication Date
JP2019028368A true JP2019028368A (ja) 2019-02-21

Family

ID=65233153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150052A Pending JP2019028368A (ja) 2017-08-02 2017-08-02 レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法

Country Status (3)

Country Link
US (1) US11119319B2 (ja)
JP (1) JP2019028368A (ja)
WO (1) WO2019026765A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109847361A (zh) * 2019-02-27 2019-06-07 腾讯科技(深圳)有限公司 运动状态的同步方法和装置、存储介质、电子装置
JPWO2020261617A1 (ja) * 2019-06-27 2020-12-30
JP2021015156A (ja) * 2019-07-10 2021-02-12 株式会社ソニー・インタラクティブエンタテインメント 画像表示装置、画像表示システムおよび画像表示方法
WO2021065628A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像データ転送装置、画像処理方法、および画像データ転送方法
WO2022215245A1 (ja) * 2021-04-09 2022-10-13 三菱電機株式会社 情報収集装置、サーバ、および、情報収集方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US11070778B2 (en) * 2019-02-14 2021-07-20 Facebook Technologies, Llc Multi-projector display architecture
US11960086B2 (en) 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method
US20220113543A1 (en) * 2019-02-22 2022-04-14 Sony Interactive Entertainment Inc. Head-mounted display and image display method
US10997773B2 (en) 2019-06-13 2021-05-04 Facebook Technologies, Llc Dynamic tiling for foveated rendering
US10712817B1 (en) * 2019-06-27 2020-07-14 Tobii Ab Image re-projection for foveated rendering
WO2021055256A1 (en) * 2019-09-17 2021-03-25 Akalana Management Llc Optical systems with lens-based static foveation
US10970811B1 (en) * 2019-09-23 2021-04-06 Facebook Technologies, Llc Axis based compression for remote rendering
JP7498553B2 (ja) 2019-09-30 2024-06-12 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像表示システム、画像データ転送装置、および画像処理方法
JP2021067877A (ja) * 2019-10-25 2021-04-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ヘッドマウントディスプレイ、および画像表示方法
US11176637B2 (en) 2019-12-03 2021-11-16 Facebook Technologies, Llc Foveated rendering using eye motion
US11303875B2 (en) * 2019-12-17 2022-04-12 Valve Corporation Split rendering between a head-mounted display (HMD) and a host computer
US11195498B2 (en) * 2020-01-15 2021-12-07 Charter Communications Operating, Llc Compensating for latency in a streaming virtual reality environment
CN113289330B (zh) * 2020-02-21 2023-12-08 华为技术有限公司 渲染方法和装置
TWI730639B (zh) 2020-02-25 2021-06-11 大立光電股份有限公司 成像鏡頭模組與電子裝置
US20230139216A1 (en) 2020-03-30 2023-05-04 Sony Interactive Entertainment Inc. Image display system, image processing device, and image display method
CN113835225B (zh) * 2020-06-24 2023-08-08 宏碁股份有限公司 头戴式显示装置及应用该装置的画面显示方法
US11353700B2 (en) 2020-10-07 2022-06-07 Industrial Technology Research Institute Orientation predicting method, virtual reality headset and non-transitory computer-readable medium
US20220207834A1 (en) * 2020-12-30 2022-06-30 Heinrich Fink Optimizing motion-to-photon latency in mobile augmented reality systems
WO2023013130A1 (ja) * 2021-08-05 2023-02-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003339A (ja) * 2011-06-16 2013-01-07 Canon Inc 画像表示システム及びその制御方法
WO2015068656A1 (ja) * 2013-11-11 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2017022717A (ja) * 2014-06-26 2017-01-26 パナソニックIpマネジメント株式会社 表示装置及び表示方法
JP2017517025A (ja) * 2014-04-05 2017-06-22 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 複数のレンダーターゲット内でアクティブカラーサンプルカウントを変更することによりスクリーンの位置によって有効解像度を変動させること

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4857196B2 (ja) 2007-05-31 2012-01-18 キヤノン株式会社 頭部装着型表示装置、及びその制御方法
JP5047090B2 (ja) 2008-07-31 2012-10-10 キヤノン株式会社 システム
US11714487B2 (en) * 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003339A (ja) * 2011-06-16 2013-01-07 Canon Inc 画像表示システム及びその制御方法
WO2015068656A1 (ja) * 2013-11-11 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2017517025A (ja) * 2014-04-05 2017-06-22 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 複数のレンダーターゲット内でアクティブカラーサンプルカウントを変更することによりスクリーンの位置によって有効解像度を変動させること
JP2017022717A (ja) * 2014-06-26 2017-01-26 パナソニックIpマネジメント株式会社 表示装置及び表示方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109847361A (zh) * 2019-02-27 2019-06-07 腾讯科技(深圳)有限公司 运动状态的同步方法和装置、存储介质、电子装置
CN109847361B (zh) * 2019-02-27 2020-11-10 腾讯科技(深圳)有限公司 运动状态的同步方法和装置、存储介质、电子装置
JPWO2020261617A1 (ja) * 2019-06-27 2020-12-30
WO2020261617A1 (ja) * 2019-06-27 2020-12-30 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理用集積回路、および画像処理方法
JP2021015156A (ja) * 2019-07-10 2021-02-12 株式会社ソニー・インタラクティブエンタテインメント 画像表示装置、画像表示システムおよび画像表示方法
JP7377014B2 (ja) 2019-07-10 2023-11-09 株式会社ソニー・インタラクティブエンタテインメント 画像表示装置、画像表示システムおよび画像表示方法
WO2021065628A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像データ転送装置、画像処理方法、および画像データ転送方法
WO2022215245A1 (ja) * 2021-04-09 2022-10-13 三菱電機株式会社 情報収集装置、サーバ、および、情報収集方法

Also Published As

Publication number Publication date
US11119319B2 (en) 2021-09-14
WO2019026765A1 (ja) 2019-02-07
US20200132996A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
US11119319B2 (en) Rendering device, head-mounted display, image transmission method, and image correction method
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US10257492B2 (en) Image encoding and display
US10306202B2 (en) Image encoding and display
WO2017208957A1 (ja) 画像生成装置、画像生成システム、および画像生成方法
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
WO2019082794A1 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP6391423B2 (ja) 画像生成装置、画像抽出装置、画像生成方法、および画像抽出方法
US11003408B2 (en) Image generating apparatus and image generating method
WO2019098198A1 (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
WO2020129115A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
TWI755636B (zh) 虛擬實境影像播放方法及使用其之程式
WO2019086893A1 (en) Content generation apparatus and method
US11100716B2 (en) Image generating apparatus and image generation method for augmented reality
JP7047085B2 (ja) 画像生成装置、画像生成方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210525