JP2021525911A - マルチサーバクラウド仮想現実(vr)ストリーミング - Google Patents

マルチサーバクラウド仮想現実(vr)ストリーミング Download PDF

Info

Publication number
JP2021525911A
JP2021525911A JP2020566269A JP2020566269A JP2021525911A JP 2021525911 A JP2021525911 A JP 2021525911A JP 2020566269 A JP2020566269 A JP 2020566269A JP 2020566269 A JP2020566269 A JP 2020566269A JP 2021525911 A JP2021525911 A JP 2021525911A
Authority
JP
Japan
Prior art keywords
frames
rendering
environment
node
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020566269A
Other languages
English (en)
Other versions
JP7273068B2 (ja
Inventor
ハグランド トルゲイル
ハグランド トルゲイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Publication of JP2021525911A publication Critical patent/JP2021525911A/ja
Priority to JP2023073069A priority Critical patent/JP2023100769A/ja
Application granted granted Critical
Publication of JP7273068B2 publication Critical patent/JP7273068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/226Characteristics of the server or Internal components of the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/16Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

分割階層グラフィックプロセッサシステムは、ネットワークを介して受信されたクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、VR環境内でプリミティブを生成するマスタノードを含む。グラフィックプロセッサシステムは、VR環境内の位置から取り込まれたVR環境への複数のビューに対するプリミティブに基づいて、レンダリングを実行するレンダリングノードを含み、ビューは、VR環境のグリッドマップに対応する。レンダリングノードの各々は、クライアントデバイスへの対応するビューのフレームの対応するシーケンスをレンダリングし、符号化し、及びストリーミングする。プロセッサシステムは、VR環境を構築するために使用されるオブジェクトに対する入力ジオメトリを記憶するアセットライブラリを含み、アセットライブラリ内のオブジェクトは、マスタノード及び複数のレンダリングノードによってアクセス可能である。【選択図】図3

Description

本開示は、コンピュータ生成画像に関し、特に、コンピュータ生成グラフィックのリアルタイムなレンダリングに関する。
レンダリングパイプラインにおける仮想現実(VR)シーンのコンピュータレンダリングは、中央処理装置(CPU)及びグラフィックプロセシングユニット(GPU)リソースを必要とする。VRシーンは、広範囲な視覚範囲にわたってレンダリングされることがあるが、その視覚範囲のわずかな部分のみが表示される。加えて、VRシーンは、従来のシーンよりも複雑になることがあり、また、ユーザによるモーションシックネス(VR酔い、ゲーム酔い、あるいは乗物酔い)を回避するために、画像処理に対して、一層高いフレームレートを必要とすることがある。
VRシーンは、例えば、キューブの面上の所与の位置からVRシーンを投影するために使用されるキューブマップとして生成されることがある。キューブは、そこからビューが生成される位置を取り囲む。特に、キューブマップの各々の面は、VR環境内のその位置についての対応するビューに対してVRシーンをレンダリングすることによって生成される。キューブマップビューアは、VR環境への所与のビューポイントに対して1つ以上のビューを混合する。
典型的には、CPU及びGPUの両方を含む単一のコンピューティングリソースは、キューブマップに対してビューのレンダリングを実行するために使用される。しかしながら、コンピューティングリソースは、ユーザにおいてモーションシックネスを生じさせることなくVRシーンを処理可能とするためには、処理電力の点で何らかのコスト節約手段を実装することが必要となる場合がある。例えば、VR環境へのユーザのビューポイントの生成に用いられないキューブマップのビューは、ビューポイントの生成に用いられるそれらのビューよりも低解像度で生成され得る。すなわち、ユーザがVR環境への280〜40度(前方の)の範囲の間で(例えば、キャラクタの位置に対応する)視認している場合、次いで、180度(後方の)に対応するキューブマップビューは、低解像度においてレンダリングされる。しかしながら、ユーザがVR環境の他の領域を視認するために物理的に頭の向きを変えるとき(例えば、180度に向かって後方に回転させる)、ヘッドマウントディスプレイ(HMD)上で表示されるビューは、高解像度画像から生成される。その場合、ユーザは、高解像度のビューから、より低解像度のビューに移るときにモーションシックネスの影響を大きく受けることがある。
本開示の実施形態はこのような背景の下になされたものである。
本開示の実施形態は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するためのクラウドシステムにおいて実装された分割階層グラフィックプロセッサシステムに関する。例えば、分割階層グラフィックプロセッサシステムは、別個のレンダリングノード/サーバ上でグリッドマップの各々の面の生成を通じて実装されるように、VRコンテンツのストリーミングを実行するように構成され、レンダリングノードは、アプリケーションロジックを実行する(例えば、ゲーミングアプリケーションを実行する)マスタノードによって制御される。いくつかの本開示の発明的実施形態が以下で説明される。
1つの実施形態では、クラウドシステムにおいて実装された分割階層グラフィックプロセッサシステムは、ネットワークを介して受信されたユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、VR環境内の複数のオブジェクトに対して複数のプリミティブを生成するマスタノードを含む。グラフィックプロセッサシステムは、VR環境内の位置から取り込まれたVR環境への複数のビューに対する複数のプリミティブに基づいて、レンダリングを実行する複数のレンダリングノードを含み、複数のビューは、VR環境のグリッドマップに対応し、レンダリングノードの各々は、クライアントデバイスへの対応するビューのフレームの対応するシーケンスをレンダリングし、符号化し、及びストリーミングする。グラフィックプロセッサシステムは、VR環境を構築するために使用される複数のオブジェクトに対する入力ジオメトリを記憶するアセットライブラリを含み、アセットライブラリ内の複数のオブジェクトは、マスタノード及び複数のレンダリングノードによってアクセス可能である。
1つの実施形態では、クラウドシステムの分割階層グラフィックプロセッサシステムを使用してグラフィック処理を実行する方法が開示される。方法は、クラウドシステムのマスタノードにおいて、ユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、VRアプリケーションのVR環境内の複数のオブジェクトに対して複数のプリミティブを生成することを含む。方法は、VR環境内の位置から取り込まれたVR環境への複数のビューに対する複数のプリミティブに基づいて、複数のレンダリングノードにおいてフレームの複数のシーケンスをレンダリングすることを含み、複数のビューは、VR環境のグリッドマップに対応し、フレームの対応するシーケンスは、対応するビューと関連付けられている。方法は、複数のオブジェクトに対する入力ジオメトリをアセットライブラリに記憶することを含み、複数のオブジェクトは、VR環境を構築するために使用され、アセットライブラリ内の複数のオブジェクトは、マスタノード及び複数のレンダリングノードによってアクセス可能である。方法は、各々のレンダリングノードにおいてフレームの対応するシーケンスを符号化することを含む。方法は、各々のレンダリングノードからクライアントデバイスに、フレームの対応するシーケンスをストリーミングすることを含む。
別の実施形態では、非一時的コンピュータ可読媒体は、クラウドシステムの分割階層グラフィックプロセッサシステムを使用してグラフィック処理を実行するためのコンピュータプログラムを記憶している。コンピュータ可読媒体は、クラウドシステムのマスタノードにおいて、ユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、VRアプリケーションのVR環境内の複数のオブジェクトに対して複数のプリミティブを生成するためのプログラム命令を含む。コンピュータ可読媒体は、VR環境内の位置から取り込まれたVR環境への複数のビューに対する複数のプリミティブに基づいて、複数のレンダリングノードにおいてフレームの複数のシーケンスをレンダリングするためのプログラム命令を含み、複数のビューは、VR環境のグリッドマップに対応し、フレームの対応するシーケンスは、対応するビューと関連付けられている。コンピュータ可読媒体は、複数のオブジェクトに対する入力ジオメトリをアセットライブラリに記憶するためのプログラム命令を含み、複数のオブジェクトは、VR環境を構築するために使用され、アセットライブラリ内の複数のオブジェクトは、マスタノード及び複数のレンダリングノードによってアクセス可能である。コンピュータ可読媒体は、各々のレンダリングノードにおいてフレームの対応するシーケンスを符号化するためのプログラム命令を含む。コンピュータ可読媒体は、各々のレンダリングノードから、フレームの対応するシーケンスをストリーミングするためのプログラム命令を含む。
本開示の他の態様は、本開示の原理を例として示す、添付図面を併用して以下の詳細な説明から明らかになるであろう。
添付図面を併用して以下の説明を参照することによって、開示を最良に理解することができる。
本開示の1つの実施形態に従った、クラウドシステムの複数のサーバ及び/または計算ノードを使用して生成されるVRコンテンツを対話型の経験(あるいはインタラクティブな経験)に提供するように構成されたシステムを示し、いくつかの入力制御がハンドヘルドコントローラを介して提供されてもよく、いくつかの入力制御がカメラを通じて実装されるように、身体部分の追跡を通じて管理されてもよい。 本開示の1つの実施形態に従った、クラウドシステムの複数のサーバ及び/または計算ノードを使用して生成されるVRコンテンツを対話型の経験に提供するように構成されたシステムを示し、編集するためのいくつかの入力制御がハンドヘルドコントローラを介して提供されてもよく、いくつかの入力制御がカメラを通じて実装されるように、身体部分の追跡を通じて管理されてもよく、カメラは、また、HMDにデータを送信するRFエミッタのビーム追跡を目的として、HMDの移動を追跡する。 本開示の1つの実施形態に従った、クラウドシステムの複数のサーバ及び/または計算ノードを使用して生成されるVRコンテンツを対話型の経験に提供するように構成されたシステムを示し、編集するためのいくつかの入力制御がハンドヘルドコントローラを介して提供されてもよく、いくつかの入力制御が磁気源を介して部分的に実装されるように、身体部分の磁気追跡を介して管理されてもよい。 開示の実施形態に従った、ビデオゲームを実行し、クラウドシステムの複数のサーバ及び/または計算ノードを使用して生成されるVRコンテンツを表示することと連動したHMDの機能を概念的に示す。 本開示の1つの実施形態に従った、分割階層グラフィックプロセッサシステムを実装するためにクラウドシステムの複数のサーバ及び/または計算ノードを使用した、クラウドシステムにおけるVRコンテンツの生成を示すデータフローチャートである。 本開示の1つの実施形態に従った、キューブマップの6個の面に対してビューを生成する6個のレンダリングノードと、ゲーミングアプリケーションのロジックを実行し、レンダリングノードの同期を管理するためのマスタノードとを含む、クラウドシステムの複数のサーバ及び/または計算ノード使用した、クラウドシステムにおけるVRコンテンツの生成を示すデータフローチャートである。 本開示の1つの実施形態に従った、グラフィックパイプラインを実装するように構成された分割階層プロセッサシステムを示し、分割階層は、中央処理装置(CPU)及び/またはグラフィックプロセシングユニット(GPU)の機能を実行して、ゲームロジックを実行し、グリッドマップの面の各々に対して画像フレームを独立してレンダリングするよう、クラウドシステムの複数のサーバ及び/または計算ノードにわたって実装される。 本開示の1つの実施形態に従った、クラウドシステムの複数のサーバ及び/または計算ノードを使用してグラフィックパイプラインを実装する方法におけるステップを示すフローチャートである。 本開示の1つの実施形態に従った、クラウドシステムの複数のサーバ及び/または計算ノードを使用してグラフィックパイプラインを実装するコンピュータシステム、ハイパーバイザシステムを示す。 開示の実施形態に従った、本開示の様々な実施形態の態様を実行するために使用することができる実施例のデバイスの構成要素を示す。 開示の様々な実施形態に従った、ゲームシステムのブロック図である。
以下の詳細な説明は、例示を目的として多くの特定の詳細を包含するが、当業者は、以下の詳細への多くの変形及び変更が本開示の範囲内にあることを認識するであろう。したがって、以下で説明される本開示の態様は、この説明に続く特許請求の範囲への一般性を失うことなく、また限定を課すことなく示される。
概して、本開示の様々な実施形態は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するための、クラウドシステムにおいて実装された分割階層グラフィックプロセッサシステムについてのシステム及び方法を説明する。例えば、分割階層グラフィックプロセッサシステムは、別個のレンダリングノード/サーバ上でのグリッドマップの各々の面の生成を通じて実装されるように、VRコンテンツのストリーミングを実行するように構成される。特に、分割階層グラフィックプロセッサシステムは、クラウドシステム上で複数のサーバ/計算ノードを含む。例えば、マスタノードは、ゲームロジックを稼働させるように構成される。マスタノードはまた、複数のレンダリングノードの演算を同期してもよく(例えば、同期パケットを通じて)、複数のレンダリングノードの各々は、グリッドマップの対応するビューに対してビデオフレームをレンダリングする。1つの実装形態では、マスタノード及びレンダリングノードは、通信を目的として、サーバラックに配置される。加えて、マルチサーバシステムが1つのラック内で実装されることを理由に、同期は、レンダリングノードの間に内在する。従来のVRシステムは、処理電力がグラフィック処理及び/またはレンダリングの全てを実行する単一のハードウェアシステムに制限されることを理由に、VRシーンの全ての角度を処理するために、解像度品質を犠牲にする必要がある(例えば、グリッドマップの視認されていない面を、相対的に低い解像度でレンダリングする)。すなわち、ユーザが従来のシステムを使用して空間内でHMDを回転させるにつれて、ディスプレイは、低解像度と高解像度との間で切り替えるビューを表示しており、それによって、ユーザにおいてモーションシックネスを生じさせる。一方、本開示の実施形態は、ユーザのVR環境への最新のビューポイントを生成するためにどのビューが使用されるかに関わらず、最高解像度におけるグリッドマップの各々の面のビューの生成をもたらす。すなわち、本開示の実施形態は、分割アーキテクチャがグラフィックパイプラインを実装することに起因して、クラウドシステムにおいて実行エンジン(例えば、ゲーミング及び/または対話型VRアプリケーションを実行する)に追加のCPU及び/またはGPUリソースを与えることができる。グリッドマップの面に対応する全てのビューの最高解像度におけるレンダリングを少なくとももたらすようCPU及び/またはGPUリソースが増大することにより、1つの利点は、ユーザのモーションシックネスを減少させることを含む。例えば、ユーザに提示される画像は、特に、ユーザがVR環境の異なるビューを視認するために空間内でHMDを回転させるにつれて、高解像度にあるままであり、その結果、低解像度及び高解像度のビューの間で切り替えが存在しない。本開示のいくつかの発明的実施形態が以下で説明される。
以下、様々な実施形態の上記全体的な理解により、実施形態の実施例の詳細を様々な図面を参照して説明する。
明細書全体を通じて、「ゲーミングアプリケーション」とは、入力コマンドの実行を通じて命令されるいずれかのタイプの対話型アプリケーション(インタラクティブアプリケーション)を表すことを意味する。例示のみを目的として、対話型アプリケーションは、ゲーミング、文書処理、ビデオゲーム処理などのためのアプリケーションを含む。更に、ビデオゲーム及びゲーミングアプリケーションという用語は、交換可能である。
図1Aは、開示の実施形態に従った、VRシーンまたは環境(例えば、ゲーミングアプリケーションの対話型ゲームプレイ)とのユーザ対話をもたらすシステムを示す。HMD102を装着したユーザ100が示され、HMD102は、眼鏡、ゴーグル、またはヘルメットと同様の形式で装着され、対話型ゲーミングアプリケーションからのビデオゲームまたは対話型アプリケーションからの他のコンテンツをユーザ100に表示するように構成される。HMD102は、ユーザの目に近接して、表示機構を提供することにより、ユーザに非常に没入感のある体験をもたらす。よって、HMD102は、ユーザの視野の大部分または全体でさえも占有するユーザの目の各々に表示領域をもたらすことができる。
1つの実施形態では、HMD102は、コンピュータまたはゲームコンソール106に接続されてもよい。コンピュータ106への接続は、有線または無線であってもよい。いくつかの実装形態では、HMD102はまた、HMD102及びコンピュータ106の両方が接続されるネットワーク112を介してなど、代替的な機構またはチャネルを通じてコンピュータを通信してもよい。コンピュータ106は、それらに限定されないが、ゲーミングコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シンクライアント、セットトップボックス、メディアストリーミングデバイスなどを含む、本分野において既知のいずれかの汎用または特殊目的コンピュータであってもよい。1つの実施形態では、コンピュータ106は、ゲーミングアプリケーション及び/または対話型VRアプリケーションを実行し、HMD102によるレンダリングのためにゲーミングまたはVRアプリケーションからビデオ及び音声を出力するように構成されてもよい。コンピュータ106は、ゲーミングアプリケーションを実行することに制限されないが、HMD102によるレンダリングのためにVRコンテンツ191を出力する、対話型アプリケーションを実行するようにも構成されてもよい。
別の実施形態では、コンピュータ106は、ネットワークを通じたクラウドシステム114またはバックエンドサーバシステムとの通信において、シンクライアントとして機能する。そのようにして、クラウドシステム114は、ユーザ102によってプレイされるゲーミングアプリケーション及び/または対話型VRアプリケーションを維持及び実行する。ローカルコンピュータ106は、HMD102、コントローラ104、及びカメラ108からクラウドシステム114に入力を送信し、クラウドシステム114は入力を処理して、実行しているゲーミング及び/またはVRアプリケーションのゲーム状態に影響を与える。ビデオデータ、音声データ、及び触覚フィードバックデータなど、実行しているアプリケーションからの出力は、コンピュータ106に送信される。コンピュータ106は更に、送信の前にデータを処理してもよく、または関連するデバイスにデータを直接送信してもよい。例えば、ビデオ及び音声ストリームは、HMD102に提供されるのに対し、触覚フィードバックデータは、コントローラ104に提供される、振動フィードバックコマンドを生成するために使用される。
1つの実施形態では、クラウドシステムは、VRコンテンツのマルチサーバクラウドVRストリーミング実行するための分割階層グラフィックプロセッサシステムを実装するように構成される。例えば、クラウドシステム114は、マスタノード310及び複数のレンダリングノード320を含む実行エンジン300(例えば、ゲーミングエンジン)を含む。マスタノード310は、ゲーミング及び/または対話型VRアプリケーションを実行するとき、シミュレーションを実行すること、スクリプトを稼働させること、及びレンダリングを実行するために必要な入力(例えば、プリミティブ)をグラフィックエンジンに提供することなど、CPU機能を実行するように構成される。マスタノード310はまた、レンダリングノードの同期を実行してもよい。複数のレンダリングノード320は、グリッドマップの各々の面に対してフレームのレンダリングを実行するように構成される。例えば、6個の面を有するキューブマップに対し、6個のレンダリングノードは、キューブマップ面の各々に対してビューを生成するために使用され、各々のレンダリングノードは、キューブマップの対応するビューに対して画像及び/またはビデオフレームを生成する。
ユーザ100は、ゲーミング及び/または対話型VRアプリケーションに対して入力を提供するようコントローラ104を動作させてもよい。コンピュータ106への接続は、有線または無線であってもよい。加えて、カメラ108は、ユーザ100が位置する対話型環境の1つ以上の画像を捕捉するように構成されてもよい。それらの捕捉された画像は、ユーザ100、ユーザの一部(例えば、入力コマンドについてのハンドジェスチャを追跡する)、HMD102、及びコントローラ104の位置及び移動を判定するよう分析されてもよい。1つの実施形態では、コントローラ104は、その位置及び方位を判定するために追跡することができる、ライトまたは他のマーカ要素を含む。加えて、HMD102は、HMD102の位置及び方位を判定するために追跡することができる1つ以上のライトを含んでもよい。カメラ108によって部分的に実装されるような追跡機能性は、コントローラ104及び/またはユーザ100の身体部分(例えば、手)の移動を通じて生成される入力コマンドをもたらす。カメラ108は、対話型環境からのサウンドを捕捉する1つ以上のマイクロフォンを含んでもよい。マイクロフォンアレイによって捕捉されたサウンドは、サウンド源の位置を識別するよう処理されてもよい。識別された位置からのサウンドは、識別された位置からでない他のサウンドを排除するために選択的に利用または処理されてもよい。更に、カメラ108は、複数の画像捕捉デバイス(例えば、カメラの双眼写真)、IRカメラ、奥行カメラ、及びそれらの組み合わせを含むように定義されてもよい。
1つの実施形態では、HMD102、コントローラ104、及びカメラ108はそれ自体、クラウドシステム114と通信するようネットワーク150に接続するネットワーク化されたデバイスであってもよい。例えば、コンピュータ106は、ビデオゲーム処理を実行しないが、ネットワークトラフィックの通過を容易にする、ルータなどのローカルネットワークデバイスであってもよい。HMD102、コントローラ104、及びカメラ(すなわち、画像捕捉デバイス)108によるネットワークへの接続は、有線または無線であってもよい。
更なる別の実施形態では、コンピュータ106は、ゲーミングアプリケーションの部分を実行してもよく、ゲーミングアプリケーションの残りの部分は、クラウドシステム114上で実行されてもよい。他の実施形態では、ゲーミングアプリケーションの部分は、HMD102上でも実行されてもよい。例えば、コンピュータ106からゲーミング及び/または対話型VRアプリケーションをダウンロードする要求は、クラウドシステム114によってサービス提供されてもよい。要求がサービス提供される間、クラウドシステム114は、ゲーミング及び/または対話型VRアプリケーションの部分を実行してもよく、HMD102上でのレンダリングのためにコンピュータ106にゲームコンテンツを提供してもよい。コンピュータ106は、ネットワーク150を介してクラウドシステム114と通信してもよい。ゲーミングアプリケーションがコンピュータ106上でダウンロードされる間、HMD102、コントローラ104、及びカメラ108から受信された入力は、クラウドシステム114に送信される。クラウドシステム114は、実行しているゲーミング及び/または対話型VRアプリケーションのゲーム状態に影響を与えるよう入力を処理する。ビデオデータ、音声データ、及び触覚フィードバックデータなど、実行しているゲーミング及び/または対話型VRアプリケーションからの出力は、それぞれのデバイスへの前方送信のためにコンピュータ106に送信される。
ゲーミング及び/または対話型VRアプリケーションがコンピュータ106に完全にダウンロードされると、コンピュータ106は、ゲーミング及び/または対話型VRアプリケーションを実行してもよく、それからクラウドシステム114上で中断された、ゲーミング及び/または対話型VRアプリケーションのゲームプレイを再開してもよい。HMD102、コントローラ104、及びカメラ108からの入力は、コンピュータ106によって処理され、HMD102、コントローラ104、及びカメラ108から受信された入力に応答して、ゲーミングアプリケーションのゲーム状態が調節される。そのような実施形態では、コンピュータ106におけるゲーミング及び/または対話型VRアプリケーションのゲーム状態は、クラウドシステム114におけるゲーム状態と同期される。同期は、コンピュータ106及びクラウドシステム114の両方においてゲーミング及び/または対話型VRアプリケーションの状態を最新に維持するよう周期的に行われてもよい。コンピュータ106は、関連するデバイスに出力データを直接送信してもよい。例えば、ビデオ及び音声ストリームは、HMD102に提供されるのに対し、触覚フィードバックデータは、コントローラ104に提供される、振動フィードバックコマンドを生成するために使用される。
図1Bは、本開示の1つの実施形態に従った、VRコンテンツを対話型の経験に提供するように構成されたシステムを示し、VRコンテンツは、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するための分割階層グラフィックプロセッサシステムを使用して生成される。特に、システム(例えば、HMD102、コンピュータ106、及び/またはクラウド114)は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するように構成される。前に説明されたように、クラウドシステム114は、マスタノード310(例えば、シミュレーション、ゲームロジックを実行し、スクリプトを稼働させ、プリミティブを生成し、同期を実行するなど)及び複数のレンダリングノード320を含む実行エンジン300(例えば、ゲーミングエンジン)を含み、複数のレンダリングノードの各々は、グリッドマップの対応する面に対してフレームをレンダリングする(ビューを生成する)ように構成される。図1Bは、例えば、RF信号を介してHMD102にデータを配信するように構成された送信機/受信機(送受信機)110を追加しており、図1Aにおいて説明されたシステムと類似している。送受信機110は、ゲーミングアプリケーションからHMD102にビデオ及び音声を送信し、そこにレンダリングするように構成される(有線接続または無線接続によって)。1つの実施形態では、送受信機110は、データスループットを最適化する目的により(例えば、情報の効率的な送信)ビームフォーミングまたはビームステアリングに対して構成される。加えて、送受信機110は、3Dデジタルコンテンツの画像、ビデオ、及び音声を送信するように構成される。この実装形態では、任意選択のカメラ108は、本開示の1つの実施形態に従って、送受信機110がHMD102へのそのRF電力(RF放射パターンを通じて配信されるような)の大部分をビームステアリングすることができるように(データを配信することを目的として)、HMD102の移動を追跡するように構成されてもよい。すなわち、HMDの位置が送受信機110への空間内で、及び送受信機110に関連して知られると、その情報は、送受信機がHMD102の方向においてその送信電力の大部分を方向付ける(例えば、ビームステアリング)ことが可能であるように、送受信機にフィードバックされる。HMD102はまた、サイドチャネルまたはセカンダリチャネル191を介してコンピュータ106と通信し、有線または無線(例えば、Bluetooth(登録商標)、Wi−Fiなど)通信経路のいずれかを介して、HMD102との間で情報を受け渡しするように構成される。
図1Cは、本開示の1つの実施形態に従った、VRコンテンツを対話型の経験に提供するように構成されたシステムを示し、VRコンテンツは、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するために分割階層グラフィックプロセッサシステムを使用して生成される。特に、システム(例えば、HMD102、コンピュータ106、及び/またはクラウド114)は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するように構成される。前に説明されたように、クラウドシステム114は、マスタノード310(例えば、シミュレーション、ゲームロジックを実行し、スクリプトを稼働させ、プリミティブを生成し、同期を実行するなど)と、複数のレンダリングノード320とを含む実行エンジン300を含み、複数のレンダリングノード320の各々は、グリッドマップの対応する面に対してフレームをレンダリングする(ビューを生成する)ように構成される。図1Cは、HMD102、コントローラ104(例えば、インタフェースコントローラとして構成された)、または磁気センサ/アンテナにより構成されたいずれかのオブジェクト(例えば、グローブ、指などの身体部分上に位置するストライプなど)の磁気追跡(あるいはマグネットトラッキングMT:magnet tracking)を可能にするよう磁場を放射するように構成された磁気源116を追加しており、図1Aにおいて説明されたシステムと類似している。例えば、磁気センサは、誘導素子であってもよい。特に、磁気センサは、磁気源116によって放射されるような磁場(例えば、強度、方位)を検出するように構成されてもよい。磁気センサから収集された情報は、入力コマンドを提供するためになど、HMD102、コントローラ104、及び他のインタフェースオブジェクトなどの位置及び/または方位を判定及び追跡するために使用されてもよい。実施形態では、磁気追跡は、HMD102、コントローラ104、及び/または他のインタフェースオブジェクト内でカメラ108及び/またはセンサを通じて実行される追跡と組み合わされる。
いくつかの実装形態では、インタフェースオブジェクト(例えば、コントローラ104)は、HMD102に対して追跡される。例えば、HMD102は、インタフェースオブジェクトを含む画像を捕捉した外側に面したカメラを含んでもよい。他の実施形態では、HMD102は、インタフェースオブジェクトなどの外部オブジェクトを追跡するために使用されるIRエミッタを含んでもよい。すなわち、HMD102は、信号192(例えば、IRエミッタ、磁気センサなど)を通じてコントローラ104を独立して追跡して、HMD102へのインタフェースオブジェクト(例えば、コントローラ104)の相対位置を判定するように構成される。例えば、捕捉された画像は、ローカル環境内のインタフェースオブジェクトの位置/方位及び/または移動を判定するように、HMD102に関して、かつHMD102の既知の位置/方位を使用して、インタフェースオブジェクトの位置/方位を判定するよう分析されてもよい。
ユーザ100が、HMD102において表示された、ゲーミングアプリケーションの仮想現実シーン、または対話型VR環境の仮想現実シーンと相互作用する方式は、変化してもよく、インタフェースオブジェクト(例えば、コントローラ104)に加えて他のインタフェースデバイスが使用されてもよい。例えば、様々な種類の片手コントローラと共に両手コントローラ104が使用されてもよい。いくつかの実装形態では、コントローラ104自体が、コントローラに含まれるライトを追跡し、またはコントローラ104と関連付けられた形状、センサ、及び慣性データを追跡することによって追跡されてもよい。それらの様々なタイプのコントローラ104、または単純に、1つ以上のカメラ及び磁気センサによって行われ、及び捕捉されたハンドジェスチャさえも使用して、HMD102上で提示された仮想現実ゲーミング環境と相互作用し、それを制御し、それを操作し、それと対話し、及びそれに参加することが可能である。
図2は、VRコンテンツ291の表示と連動「したHMD102の機能を概念的に示し、VRコンテンツは、ネットワークを介してVRコンテンツを配信するバックエンドクラウドシステムにおいて生成される。VRコンテンツは、例えば、ゲーミングアプリケーション及び/または対話型VRアプリケーションから生成されてもよい。特に、クラウドシステムは、HMD102へのVRコンテンツのマルチサーバクラウドVRストリーミングを実行するための分割階層グラフィックプロセッサシステム、及び/またはHMD102上での表示のためのローカルコンピュータ106を含んでもよい。例えば、クラウドシステムは、マスタノード(例えば、シミュレーション、ゲームロジックを実行し、スクリプトを稼働させ、プリミティブを生成し、同期を実行するなど)と、複数のレンダリングノードとを含む実行エンジン(例えば、ゲーミングエンジン)を含んでもよく、複数のレンダリングノードの各々は、グリッドマップの対応する面に対してフレームをレンダリングする(ビューを生成する)ように構成される。
いくつかの実施形態では、HMD102は、VRコンテンツを独立して生成するように構成されてもよい。他の実施形態では、VRコンテンツエンジン220は、HMD102に通信可能に結合されたコンピュータ106(図示せず)上で、及び/またはHMD102との組み合わせで実行されている。コンピュータは、HMDに対してローカルであってもよく(例えば、ローカルエリアネットワークの一部)、またはリモートに位置してもよく(例えば、ワイドエリアネットワーク、クラウドネットワークなどの一部)、ネットワークを介してアクセスされてもよい。HMD102とコンピュータ106との間の通信は、有線または無線接続プロトコルに準拠してもよい。
実施例では、アプリケーションを実行するVRコンテンツエンジン220は、ゲーミングアプリケーション及び/または対話型VRアプリケーションを実行するビデオゲームエンジンであってもよく、ゲーミングアプリケーションのゲーム状態を更新する入力を受信するように構成される。図2の以下の説明は、簡潔さ及び明確さを目的として、ゲーミング及び/または対話型VRアプリケーションを実行するVRコンテンツエンジン220のコンテキスト内で説明され、VRコンテンツ291を生成することが可能ないずれかのアプリケーションの実行を表すことが意図される。前に説明されたように、VRコンテンツエンジンは、ローカルゲームコンソール上で、HMD102自体の上で、またはそれらのいずれかの組み合わせで、バックエンドクラウドシステムにおいて実装されてもよい。ゲーミングアプリケーションのゲーム状態は、オブジェクトの存在及び位置、仮想環境の条件、イベントのトリガリング、ユーザプロファイル、ビュー視点など、最新のゲームプレイの様々な態様を定義するビデオゲームの様々なパラメータの値によって少なくとも部分的に定義されてもよい。
示される実施形態では、VRコンテンツエンジン220は、例として、コントローラ入力261、音声入力262、及び動き入力263を受信する。コントローラ入力261は、ハンドヘルドゲーミングコントローラ104(例えば、Sony DUALSHOCK(登録商標)4無線コントローラ、Sony PlayStation(登録商標)Move動きコントローラ)またはウェアラブルグローブインタフェースコントローラなどのウェアラブルコントローラなど、HMD102とは別個のゲーミングコントローラの動作から定義されてもよい。例として、コントローラ入力261は、指向性入力、ボタン押下、トリガ活性化、移動、ジェスチャ、またはゲーミングコントローラの動作から処理される他の種類の入力を含んでもよい。音声入力262は、HMD102のマイクロフォン251から、または画像捕捉デバイス208もしくはそうでなければローカルシステム環境内に含まれるマイクロフォンから処理されてもよい。動き入力263は、HMD102に含まれる動きセンサ259から、またはHMD102の画像を捕捉するような画像捕捉デバイス108から処理されてもよい。例えば、ゲーミングアプリケーションを実行するケースでは、VRコンテンツエンジン220は、ビデオゲームのゲーム状態を更新するようゲームエンジンとして動作するコンテンツエンジン220の構成に従って処理される入力を受信する。エンジン220は、ユーザに提示されるコンテンツを定義するよう、ゲーム状態データを処理する様々なレンダリングモジュールにゲーム状態データを出力する。
示される実施形態では、ビデオレンダリングモジュール283は、HMD102上で提示するためにビデオストリームをレンダリングするよう定義される。例えば、ビデオレンダリングは、グラフィックパイプラインの機能を実行してもよい。ビデオレンダリング283の構成要素及び/または機能は、CPUもしくはGPU内で、またはそれらの組み合わせで実行されてもよい。
1つの実施形態では、1つ以上のデコーダ330は、クラウドシステム(例えば、バックエンドゲーミング及び/または対話型VRアプリケーションサーバ)によってレンダリングされた、符号化されたフレームを受信するように構成される。デコーダ330は、符号化されたフレームを、それらの元の状態及び/もしくは未処理状態、またはいくつかの同様の状態に再度復号するように構成される。前に、フレームは、ネットワーク(例えば、インターネット)を通じた効率的な送信のために符号化されており(圧縮を適用する)、符号化されたフレームのストリームは、グリッドマップ(例えば、6個の面を有するキューブマップ)の各々の面に対して生成される。デコーダの各々は、グリッドマップの対応する面に対して生成されたフレームを復号する。復号した後、復号されたフレームは、1つ以上のバッファ335に記憶される。例えば、グリッドマップの面に対応する復号されたフレームの各々のストリームは、対応するバッファに記憶されてもよい。または、グリッドマップの複数の面に対応する複数のストリームは、1つのバッファに記憶されてもよく、各々のストリームは、バッファから独立してアクセスされてもよい。キューブマップビューア450は、グリッドマップからのビューのうちの1つ以上(例えば、グリッドマップの1つ以上の面)を混合して、VRシーンへのユーザの最新の視点を生成するように構成される。
HMD102内の光学系270のレンズは、VRコンテンツ291を視認するように構成される。ディスプレイスクリーン1304は、HMD102がユーザによって装着されるとき、光学系270のレンズがディスプレイスクリーン1304とユーザの目260との間にあるように、光学系270のレンズの背後に配置される。そのようにして、ビデオストリームは、ディスプレイスクリーン/プロジェクタ機構1304によって提示されてもよく、ユーザの目260によって光学系270を通じて視認されてもよい。HMDユーザは、HMDを装着することによって、対話型VRコンテンツ291(例えば、VRビデオソース、ビデオゲームコンテンツなど)と対話することを選択してもよい。ビデオゲームからの対話型仮想現実(VR)シーンは、HMDのディスプレイスクリーン1304上でレンダリングされてもよい。そのようにして、ゲーム開発の間、HMD102は、ユーザが対話型VRシーンを編集及びレビューすることを可能にする。また、ゲームプレイの間(編集をレビューすることを含むように)、HMDは、ユーザがユーザの目に近接してHMDの表示機構を供給することによって、ゲームプレイに完全に没入することを可能にする。コンテンツをレンダリングするためのHMDのディスプレイスクリーン内で定義された表示領域は、ユーザの視野の大部分または全体でさえも占有することがある。典型的には、各々の目は、1つ以上のディスプレイスクリーンを視認している光学系270の関連するレンズによって支持される。
音声レンダリングモジュール282は、ユーザによって傾聴するための音声ストリームをレンダリングするように構成される。1つの実施形態では、音声ストリームは、HMD102と関連付けられたスピーカ152を通じて出力される。スピーカ152がオープンエアスピーカ、ヘッドフォン、または音声を提示することが可能ないずれかの他の種類のスピーカの形式を取ってもよいことが認識されるべきである。
1つの実施形態では、凝視追跡センサ265は、ユーザの凝視を追跡することを可能にするようHMD102に含まれる。1つの凝視追跡センサ265のみが含まれるが、ユーザの凝視を追跡するために、1つよりも多い凝視追跡センサが採用されてもよいことに留意されるべきである。凝視追跡センサ265は、カメラ、光学センサ、赤外線センサ、EMG(筋電図検査)センサ、光学反射器センサ、距離センサ、及びオプティカルフローセンサ、ドップラセンサ、並びにマイクロフォンなどのうちの1つ以上であってもよい。概して、センサ265は、目の移動方向における変化、加速、及び速度など、急速な目の移動を検出するように構成されてもよい。例えば、凝視追跡カメラは、ユーザの凝視方向を判定するよう分析される、ユーザの目の画像を追跡する。1つの実施形態では、ユーザの凝視方向に関する情報は、ビデオレンダリングに影響を与えるために利用されてもよい。例えば、ユーザの目が特定の方向を見ていると判定される場合、次いで、その方向についてのビデオレンダリングは、優先されてもよく、または強調されてもよい。ユーザの凝視方向は、ヘッドマウントディスプレイに対して、ユーザが位置付けられる実環境に対して、及び/または仮想環境、ヘッドマウントディスプレイ上でレンダリングされる仮想環境に対して定義されてもよいことが認識されるべきである。凝視方向がHMDのスクリーンに対して定義されてもよいので、凝視方向は、スクリーン上の位置に変換されてもよい。
広義に言うと、凝視追跡センサ265によって捕捉された画像の分析は、単独で考慮されるとき、HMD102に対するユーザの凝視方向を提供する。しかしながら、HMD102の追跡された位置及び方位との組み合わせで考慮されるとき、ユーザの現実世界の凝視方向も、HMD102の位置及び方位がユーザの頭の位置及び方位と同義であるとして判定されてもよい。すなわち、ユーザの現実世界の凝視方向は、ユーザの目の位置的な移動を追跡すること、並びにHMD102の位置と向きを追跡することから判定されてもよい。仮想環境のビューがHMD102上でレンダリングされるとき、仮想環境内でユーザの仮想世界の凝視方向を判定するよう適用して、ユーザの現実世界の凝視方向を判定してもよい。
加えて、触知フィードバックモジュール281は、コントローラ104など、HMD102またはHMDユーザによって操作される別のデバイスのいずれかに含まれる触知フィードバックハードウェアに信号を提供するように構成される。触知フィードバックは、振動フィードバック、温度フィードバック、圧力フィードバックなど、様々な種類の触知感覚の形式を取ってもよい。
図3は、本開示の1つの実施形態に従った、分割階層グラフィックプロセッサシステムを実装するためにクラウドシステム114の複数のサーバ及び/または計算ノードを使用した、クラウドシステムにおけるVRコンテンツの生成を示すデータフローチャートである。概して、クラウドシステム114は、グリッドマップの複数の面の各々に対してフレームをレンダリング及び符号化することを含むよう、ゲーミングアプリケーション及び/またはVR対話型アプリケーションを実行し、各々の面は、所与の位置に対するVR環境へのビューに対応する。符号化されたフレームは、復号、混合、及び表示のために、ネットワーク150を介してクライアントデバイス106にストリーミングされる。
クラウドシステム114は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するように構成された分割階層グラフィックプロセッサシステムを含む。特に、分割階層グラフィックプロセッサシステムは、マスタノード310及び複数のレンダリングノード320など、クラウドシステム114上の複数のサーバ/計算ノードを含む。
マスタノードは、ゲームロジック、アプリケーションロジックを稼働させること、アプリケーションにおいてスクリプトを実行すること、VRアプリケーションのVR環境/世界内で提供されるオブジェクトのシミュレーションを実行することなど、ゲーミングアプリケーション及び/または対話型VRアプリケーションを実行するように構成される。例えば、マスタノードは、オブジェクトのシミュレーションを実行するように構成されたシミュレーションモデラ301を含んでもよい。例えば、マスタノードは、入力データの所与のセットに対してオブジェクトに反して自然のまたは定義された物理的法則(例えば、自然のまたはゲーム特有法則、ルール、スクリプトなど)のシミュレーションを適用するように構成された物理シミュレーションモデラを含んでもよい。加えて、マスタノード310は、アプリケーションにおいて提供されるスクリプト(例えば、物理的法則を適用し、特定の脚色された世界についてのゲーミング物理的法則を適用するスクリプトなど)を実行するためのスクリプトエンジン302を含んでもよい。概して、マスタノード310は、図5に関連して以下で説明されるように、グラフィックパイプラインのCPU機能を実行するように構成される。例えば、マスタノードは、VRアプリケーションのVR環境/シーン内の複数のオブジェクトに対して複数のプリミティブ(図示せず)を生成するよう、ネットワーク150を介して受信されたユーザのクライアントデバイス106からの入力(例えば、制御入力303)に応答して、対話型VRアプリケーションを実行するように構成される。
特に、クラウドシステム114は、VR環境内の位置から取り込まれたVR環境への複数のビューに対する複数のプリミティブに基づいて、レンダリングを実行するように構成された複数のレンダリングノード320を含む。例えば、各々のレンダリングノードは、クライアントデバイスへのストリーミングのためにビデオフレームのシーケンスを作成するよう、ラスタライズ、フラグメントシェーディング、出力統合、フレームバッファリングなどのレンダリング演算を実行するように構成される。
更に、分割階層グラフィックプロセッサシステムは、VR環境を構築するために使用される複数のオブジェクトに対して入力ジオメトリ505を記憶するように構成されたアセットライブラリ350を含む。対応する入力ジオメトリによって表されるようなオブジェクトは、マスタノード310及び複数のレンダリングノード320によってアクセス可能である。特に、マスタノードは、入力ジオメトリ及び制御入力303に基づいて、オブジェクトに対してプリミティブを生成する。レンダリングノードの各々は、マスタノードの出力(例えば、物理シミュレーションの適用の後のオブジェクトの動き)に基づいて、オブジェクト(入力ジオメトリによって表されるような)のレンダリングを実行する。
分割階層のために、ビューに対するビデオフレームのシーケンスの各々は、最高解像度(例えば、フル解像度)においてレンダリングされる。複数のビューは、その位置に対するVR環境のグリッドマップに対応する。1つの実施形態では、レンダリングノードの各々は、グリッドマップの対応するビューに対してビデオフレームをレンダリングする。例えば、レンダリングノード1(320a)は、グリッドマップの対応するビューに対してビデオフレーム323aのシーケンスを生成するように構成されたレンダラ321aを含む。同様に、レンダリングノード2(320b)は、グリッドマップの対応するビューに対してビデオフレーム323bのシーケンスを生成するように構成されたレンダラ321bを含み、レンダリングノード3(320c)は、グリッドマップの対応するビューに対してビデオフレーム323cのシーケンスを生成するように構成されたレンダラ321cを含み、...そして、レンダリングノードn(320n)は、グリッドマップの対応するビューに対してビデオフレーム323nのシーケンスを生成するように構成されたレンダラ321nを含む。
更に、複数のレンダリングノード320の各々は、フレームのその対応するストリームを符号化する。概して、符号化は、ネットワーク150を介してストリーミングされるように、通信の効率性のためにビデオフレームのシーケンスを圧縮するよう実行される。例えば、レンダリングノード1(320a)は、符号化されたフレーム323a’のシーケンスを生成するように構成されたエンコーダ322aを含み、レンダリングノード2(320b)は、符号化されたフレーム323b’のシーケンスを生成するように構成されたエンコーダ322bを含み、レンダリングノード3(320c)は、符号化されたフレーム323c’のシーケンスを生成するように構成されたエンコーダ322cを含み、レンダリングノードn(320n)は、符号化されたフレーム323n’のシーケンスを生成するように構成されたエンコーダ322nを含む。
符号化されたフレームのシーケンスの各々(グリッドマップのビューに対応する各々のシーケンス)は、ネットワーク150を介してクライアントデバイス106のデコーダ330にストリーミングされる。ストリーミングされるフレームの対応するシーケンス内のフレームは各々、識別子(例えば、インデックス番号)と関連付けられてもよく、フレームの1つ以上のシーケンス及びVR環境への視点に基づいて、VR環境の3Dビューとして復号され、及び組み立てられるように構成されてもよい。1つの実施形態では、符号化されたフレームのシーケンスは、単方向ブロードキャスト(例えば、UDP、ユニティUDP、マルチキャストなど)を介してクライアントデバイスにストリーミングされる。クライアントデバイスは、複数のレンダリングノードから受信された符号化されたストリームを復号及びバッファリングするように構成された1つ以上のデコーダを含む。例えば、1つの実施形態では、デコーダは、複数のデコーダに分割される。1つの実装形態では、1つのデコーダは、1対1で対応するエンコーダから配信されるフレームを復号するよう割り当てられる。もちろん、他の実施形態では、1つのデコーダは、フレームの1つ以上の符号化されたシーケンスを復号することができる。例えば、レンダリングノード1(320a)から、符号化されたフレーム323a’のシーケンスは、経路380aを通じてクライアントデバイス106のデコーダ330−aにストリーミングされる。デコーダ330−aは、VRシーンのグリッドマップの第1のビューに対応することができる、フレーム323aのシーケンスを生成するよう、符号化されたフレーム323a’を復号し、符号化されたフレーム323a’をその元の状態または未処理状態(もしくは、いくつかの同様の状態)に戻すよう動作する。同様の機能性が符号化されたフレームの他のシーケンスの各々に対して実行される。特に、レンダリングノード2(320b)から、符号化されたフレーム323b’のシーケンスは、グリッドマップの第2のビューに対応することができる、復号されたフレーム323bのシーケンスを生成するよう、経路380bを通じてデコーダ330−bにストリーミングされる。また、レンダリングノード3(320c)から、符号化されたフレーム323c’のシーケンスは、グリッドマップの第3のビューに対応することができる、復号されたフレーム323cのシーケンスを生成するよう、経路380cを通じてデコーダ330−cにストリーミングされる。処理は、レンダリングノードn(320n)からを含む、符号化されたフレームの各々のシーケンスに対して継続し、符号化されたフレーム323n’のシーケンスは、グリッドマップの第3のビューに対応することができる、復号されたフレーム323nのシーケンスを生成するよう、経路380nを通じてデコーダ330−nにストリーミングされる。
更に、復号した後、フレームの復号されたシーケンスは、1つ以上のバッファ335に記憶される。例えば、グリッドマップの第1のビューに対応するフレーム323aの復号されたシーケンスは、第1のバッファ335−aに記憶され、グリッドマップの第2のビューに対応するフレーム323bの復号されたシーケンスは、第2のバッファ335−bに記憶され、グリッドマップの第3のビューに対応するフレーム323cの復号されたシーケンスは、第3のバッファ335−cに記憶され、...グリッドマップのn番目のビューに対応するフレーム323nの復号されたシーケンスは、n番目のバッファ335−nに記憶される。所与の位置に対するVR環境への対応するビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいて、クライアントデバイスは、VR環境を見ているユーザに対応する最新の視点を生成するように構成される。
1つの実施形態では、マスタノードはまた、複数のレンダリングノードの演算を同期させてもよく(例えば、同期パケットを通じて)、複数のレンダリングノードの各々は、グリッドマップの対応するビューに対してビデオフレームをレンダリングする。別の実装形態では、マスタノード及びレンダリングノードが通信のためにサーバラック370に配置されるとき、ラック内の通信経路の構成により、通信の同期と共にグリッドマップの各々の面に対するフレームのレンダリングを実現することができる。例えば、マスタノードによってプリミティブを複数のレンダリングノードの各々にブロードキャストすることによってなど(例えば、UDP、ユニティUDP、マルチキャストなど)、レンダリングノードの各々への通信が同時に達成される。更なる別の実施形態では、レンダリングノードにおけるタイムスタンプの適用を通じて同期を達成することができる。特に、レンダリングノードの各々は、フレームの対応するシーケンスのフレームにタイムスタンプまたはフレーム番号を付加するように構成される。タイムスタンプは、クライアントデバイスにおけるフレームの異なるシーケンスからのフレームの同期のために利用される。例えば、クライアントデバイスは、同一または同様のタイムスタンプを有するフレームのみを混合及び/または表示してもよい。
図4は、本開示の1つの実施形態に従った、キューブマップの6個の面に対してビューを生成する6個のレンダリングノードと、ゲーミングアプリケーションのゲームロジックを実行し、レンダリングノードの同期を管理するためのマスタノードとを含む、複数のサーバ及び/または計算ノードを使用した、クラウドシステム114におけるVRコンテンツの生成を示すデータフローチャートである。実行エンジン(例えば、ゲーミングエンジン)300内で実装されるような分割階層グラフィックプロセッサシステムの構成は、マスタノード310及び複数のレンダリングノード320など、クラウドシステム(例えば、クラウドシステム114)上の複数のサーバ/計算ノードを含む。
具体的には、図4は、グリッドマップに基づいてVRコンテンツのマルチサーバクラウドVRストリーミングを実行するように構成された、図3の汎用分割階層グラフィックプロセッサシステムの1つの実装形態である。特に、図4は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するために、6個の面を有するキューブマップ410に対してビューをレンダリングするように構成された分割階層グラフィックプロセッサシステムを示す。分割階層グラフィックプロセッサシステムは、前に説明されたように、マスタノード310及び複数のレンダリングノード320を含む。
特に、マスタノード310は、前に説明されたように、ゲーミングアプリケーション及び/または対話型VRアプリケーションを実行するように構成される。例えば、マスタノード310は、ゲームロジック、アプリケーションロジックを実行させ、スクリプトを実行し、オブジェクトのシミュレーションを実行する(例えば、自然のまたはユーザによって定義された物理的法則のシミュレーションをオブジェクトに適用するように構成された物理シミュレーションモデラを実行する)、などである。概して、マスタノード310は、クライアントデバイス106からの入力に応答して、グラフィックパイプラインのCPU機能を実行して、対話型VRアプリケーションを実行するように構成される。マスタノードは、VR環境内のオブジェクトに対して複数のプリミティブを生成する。
また、複数のレンダリングノード320は、VR環境内の位置から取り込まれたVR環境への複数のビューに対するプリミティブに基づいて、レンダリングを実行するように構成される。ビューは、キューブマップ410の各々の面に対応する。特に、各々のレンダリングノードは、ラスタライズ、フラグメントシェーディング、出力統合、フレームバッファリングなど、対応するビューに対してビデオフレームのシーケンスを生成するレンダリング演算を実行するように構成される。ビデオフレームのシーケンスは、クライアントデバイスにストリーミングされる。ストリーミングする前に、複数のレンダリングノード320の各々は、ネットワーク150を介してクライアント106にストリーミングされるように、通信の効率性のために、ビデオフレームのシーケンスを圧縮するよう、フレームのその対応するストリームを符号化する。
クライアント106上で、デコーダ330は、符号化されたフレームのシーケンスのストリームを受信する。デコーダ330は、複数のレンダリングノード320から受信された符号化されたストリームを復号及びバッファリングする(バッファ335に記憶する)ように構成される。例えば、1つの実施形態では、デコーダは、複数のデコーダに分割される。1つの実装形態では、1つのデコーダは、1対1で対応するエンコーダから配信されるフレームを復号するよう割り当てられる。例えば、デコーダ330−1は、エンコーダ320−1と対にされ、デコーダ330−2は、エンコーダ320−2と対にされ、デコーダ330−3は、エンコーダ320−3と対にされ、デコーダ330−4は、エンコーダ320−4と対にされ、デコーダ330−5は、エンコーダ320−5と対にされ、デコーダ330−6は、エンコーダ320−6と対にされる。もちろん、他の実施形態では、1つのデコーダは、フレームの1つ以上の符号化されたシーケンスを復号することができる。
特に、図4は、キューブマップの各々の面に対する符号化及び復号処理を示す。例えば、レンダリングノード320−1は、第1のビューを生成し、第1のビュー(例えば、上方ビュー410a)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−1に第1のビューを符号化及びストリーミングし、レンダリングノード320−2は、第2のビューを生成し、第2のビュー(例えば、前方ビュー410b)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−2に第2のビューを符号化及びストリーミングし、レンダリングノード320−3は、第3のビューを生成し、第3のビュー(例えば、左ビュー410c)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−3に第3のビューを符号化及びストリーミングし、レンダリングノード320−4は、第4のビューを生成し、第4のビュー(例えば、下方ビュー410d)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−4に第4のビューを符号化及びストリーミングし、レンダリングノード320−5は、第5のビューを生成し、第5のビュー(例えば、右ビュー410e)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−5に第5のビューを符号化及びストリーミングし、レンダリングノード320−6は、第6のビューを生成し、第6のビュー(例えば、後方ビュー410f)を表示する準備ができたフレームの符号化されたシーケンスを復号及びバッファリングするデコーダ330−6に第6のビューを符号化及びストリーミングする。
示されるように、キューブマップのビューの各々に対応するフレームの復号されたストリームは、1つ以上のバッファ335にバッファリングされる。ビューは、キューブマップビューア450によって呼び出されるときに表示する準備ができている。特に、キューブマップビューア450は、VR環境内の所与の位置に対してユーザの視点に対する最新のビューを生成するように構成される。最新のビューは、キューブマップのビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいている。例えば、例として、ユーザの視点は、左ビュー410c、前方ビュー410b、及び下方ビュー410dの一部分を含んでもよい。そのようにして、ユーザの最新のビューは、それらの3つのビューの組み合わせであり、キューブマップビューア450は、視点(POV)420を生成するよう、左ビュー、前方ビュー、及び下方ビューの組み合わせ、及び/または混合するように構成される。
図5は、本開示の1つの実施形態に従った、レンダリングパイプライン500を実装するように構成された分割階層プロセッサシステムを示す。特に、分割階層プロセッサシステムは、クラウドシステムの複数のサーバ及び/または計算ノードにわたって実装され、CPU及び/またはGPUの機能を実行し、ゲーミングアプリケーション及び/またはVRアプリケーションに対してロジックを実行し、レンダリングを実行する。グリッドマップの面の各々に対する画像フレームは、前に説明されたように、独立してレンダリングされる。レンダリングパイプライン500において示される処理は、グリッドマップの面の1つのビューと関連して実行される。レンダリングパイプライン500は、前に説明されたように、HMD102、コンピュータ106、及びクラウドゲーミングサーバ114内で単独でまたは組み合わせで実装されてもよい。
レンダリングパイプライン500は、3D(三次元)ポリゴンレンダリング処理を使用して画像をレンダリングする一般的処理の例示である。レンダリングされた画像に対するレンダリングパイプライン500は、画素の各々に対する対応する色情報をディスプレイ(例えば、HMD)に出力し、色情報は、テクスチャ及びシェーディング(例えば、色、シャドーイングなど)を表すことができる。レンダリングパイプライン500は、図1A〜図1C及び図3〜図4に関連して前に説明されたように、クラウドシステムにおいて分割階層プロセッサシステム内で実装可能である。
レンダリングパイプライン500は、オブジェクトアニメーションを実行するように構成され、マスタノード310において計算シェーダ506を含み、及びレンダリングノード320の1つを表すプログラム可能シェーダを含む。プログラム可能シェーダは、頂点データを処理することを含むレンダリングを行い、頂点をプリミティブ(例えば、ポリゴン)に組み立て、ディスプレイに対してプリミティブからフラグメントを生成するようラスタライズを実行し、次いで、各々のフラグメントに対して色及び奥行値を計算すると共に、画素ごとにフラグメントを混合して表示用のフレームバッファに記憶するように構成される。マスタノード310において計算シェーダ506によって実行される演算(例えば、アニメーションのための)は、CPUまたはGPUのいずれかにおいて実行されてもよいが、例示を目的として、CPUにおいて実行されると示される。レンダリングノード320としてプログラム可能シェーダによって実行される演算は、一般に、より良好な性能及び効率性のためにGPUにおける実行に対してより良好に適合される。
示されるように、レンダリングパイプライン500は、3D環境内のオブジェクトに対応する入力ジオメトリ505を受信する。例えば、入力ジオメトリ505は、3Dゲーミング世界内の頂点、及び頂点の各々に対応する情報を含んでもよい。ゲーミング世界内の所与のオブジェクトは、頂点によって定義されるポリゴン(例えば、三角形)を使用して表されてもよく、対応するポリゴンの表面は次いで、最終的なエフェクト(例えば、色、テクスチャなど)を達成するよう、レンダリングパイプライン500の残りの部分を通じて(例えば、レンダリングノード320を通じて)処理される。頂点属性は、法線(例えば、どの方向が頂点に関して明るいか)、色(例えば、RGB−赤、緑、及び青の三色など)、並びにテクスチャ座標/マッピング情報を含んでもよい。例示を容易にするために、3Dゲーミング世界に対する入力ジオメトリは、マスタノード310の計算シェーダ506に入力されると示されるが、ジオメトリも区分化されてもよく、その結果、パーティクルシステムに対するジオメトリが計算シェーダに入力され、残りのジオメトリがレンダリングノード320としてプログラム可能シェーダの頂点シェーダ510に入力される。例えば、入力ジオメトリは、シェーダの間で共有することができる頂点バッファに入力されてもよい。
特に、マスタノード310における計算シェーダ506は、オブジェクトに及ぼした力及び/またはオブジェクトによって印加された力(重力など外物理力など、及び移動を生じさせるオブジェクトの内力)に応じて、フレームからフレームにオブジェクトアニメーション/シミュレーションを実行する(オブジェクト及び/またはパーティクルの動きを計算するなど)。概して、第1のフレームから後続のフレームに、マスタノード310における計算シェーダ506は、オブジェクトをアニメ化し、またはオブジェクトに動きをもたらす演算を実行する。特に、レンダリングされた各々のフレームに対し、オブジェクトのアニメーションは、離散時間ステップにおいて(例えば、フレームごとに)更新される(例えば、位置、向き、速度など)。例えば、アニメーション/シミュレーションモジュール507は、オブジェクトにアニメーションまたは移動をもたらし(例えば、物理特性の適用を通じて)、特に、離散時間ステップにおいて(例えば、フレームごとに)移動をもたらす(例えば、オブジェクトのオブジェクト位置または頂点を更新することによって)ように構成される。CPUとしての役割を果たすマスタノード310における計算シェーダ506は次いで、レンダリングノード320によって実行されるポリゴン頂点に対する描画コマンドを発行する。
計算シェーダ506の出力は、オブジェクトのプリミティブ(例えば、頂点、ポリゴンなど)を含んでもよい。GPU構成内で実装されるように、残りの構成要素(例えば、出力マージャ及びフレームバッファを含む、ラスタライザ、フラグメントシェーダ、及びレンダラ)はアイドル状態であり、その結果、計算シェーダ506の出力は次いで、レンダリングを含むより従来のGPU演算を実行するよう、配信され、及び/またはレンダリングノード320としてのプログラム可能シェーダと共有される。もちろん、CPUの実装形態では、マスタノード310は、計算シェーダ506及びオブジェクトシミュレーションモジュール507のみを含むよう簡易化されてもよい。
特に、計算シェーダ506によって生成されたアニメーション結果は、頂点バッファに記憶されてもよく、頂点バッファは次いで、ポリゴン頂点をレンダリングする目的として、ディスプレイ(例えば、HMDの)上でのポリゴン頂点の投影及び投影されたポリゴンのテッセレーションを実行するように構成されたレンダリングノード320によってアクセスされる。すなわち、レンダリングノード320は、レンダリングするとき、3D仮想環境内のオブジェクトを構成するポリゴン及び/またはプリミティブを更に築き上げ、シーンに対する照明に応じた、ポリゴンに対する照明、シャドーイング、及びシェーディング計算を実行することを含むように構成されてもよい。
具体的には、アニメ化されたオブジェクトは、レンダリングノード320によって実行された演算を使用して、フレームからフレームに描かれてもよい。特に、マスタノードの計算シェーダ506からのアニメーション結果は、頂点バッファに記憶され、頂点バッファは次いで、レンダリングノード320に入力される(例えば、頂点シェーダ510によってアクセスされるように)。頂点バッファ内の値は、グラフィックパイプライン500のステージの間で共有されてもよい。特に、頂点シェーダ510は、前に説明されたように、入力ジオメトリ505を直接受信し、及び計算シェーダ506から入力ジオメトリ505を受信し、3Dシーン内のオブジェクトを構成するポリゴンまたはプリミティブを構築する。頂点シェーダ510は更に、計算シェーダ506によって完了されない場合に、アニメ化されたオブジェクトに対してプリミティブを構築してもよい。すなわち、頂点シェーダ510は、ゲーミング世界内に配置されるように、プリミティブを使用してオブジェクトを築き上げてもよい。例えば、頂点シェーダ510は、シーンに対する照明に応じた、ポリゴンに対する照明及びシャドーイング計算を実行するように構成されてもよい。プリミティブは、頂点プロセッサ510によって出力され、グラフィックパイプライン500の次のステージに配信される。クリッピングなどの追加の演算も頂点プロセッサ510によって実行されてもよい(例えば、ゲーミング世界内の視認位置によって定義されるように、視認錐台から外側にあるプリミティブを識別及び無視する)。
頂点プロセッサ510によって出力されたプリミティブは、ラスタライザ520にフィードされ、ラスタライザ520は、3Dゲーミング世界内の視認位置(例えば、カメラ位置、ユーザの目の位置など)によって定義される二次元(2D)画像平面にシーン内のオブジェクトを投影するように構成される。単純化したレベルにおいて、ラスタライザ520は、各々のプリミティブを検査し、どの画素が対応するプリミティブによって影響を与えられるかを判定する。特に、ラスタライザ520は、プリミティブを画素のサイズにされたフラグメントに区分化し、各々のフラグメントは、ディスプレイ内の画素及び/またはレンダリング視点(例えば、カメラビュー)と関連付けられた参照平面に対応する。すなわち、プリミティブのフラグメンテーションは、プリミティブを画素のサイズにされたフラグメントに分解するために使用されてもよく、各々のフラグメントは、ディスプレイ内の画素及び/またはレンダリング視点と関連付けられた参照平面に対応する。クリッピング(視認錐台から外側にあるフラグメントを識別及び無視する)並びに参照位置へのカリング(より近いオブジェクトによって閉塞されたフラグメントを無視する)などの追加の演算もラスタライザ520によって実行されてもよい。
そのコアにおけるフラグメントプロセッサ530は、プリミティブの色及び輝度が利用可能な照明によりどのように変化するかを判定するよう、フラグメントに対してシェーディング演算を実行する。例えば、フラグメントプロセッサ530は、各々のフラグメントに対して奥行、色、法線、及びテクスチャ座標(例えば、テクスチャ詳細)を判定してもよく、更に、フラグメントに対して適切なレベルの光、暗がり、及び色を判定してもよい。特に、フラグメントプロセッサ530は、色及び他の属性(例えば、視認位置からの距離に対するz−奥行、透過性に対するα値)を含む、各々のフラグメントの特徴を計算する。加えて、フラグメントプロセッサ530は、対応するフラグメントに影響を与える利用可能な照明に基づいて、照明効果をフラグメントに適用する。更に、フラグメントプロセッサ530は、各々のフラグメントに対してシャドーイング効果を適用してもよい。フラグメントプロセッサ530の出力は、処理されたフラグメント(例えば、シャドーイングを含むためのテクスチャ及びシェーディング情報)を含み、レンダリングパイプライン500の次のステージに配信される。
出力統合構成要素540は、各々の対応する画素に貢献し、及び/または影響を与えるフラグメントに応じて、各々の画素の特徴を計算する。すなわち、3Dゲーミング世界内の全てのプリミティブのフラグメントは、表示のために2D色画素に組み合わされる。例えば、対応する画素に対してテクスチャ及びシェーディング情報に貢献するフラグメントは、レンダリングパイプライン500における次のステージに配信される画素に対する最終的な色値を出力するよう組み合わされる。出力統合構成要素540は、フラグメントプロセッサ530から判定されたフラグメント及び/または画素の間の値の任意選択の混合を実行してもよい。すなわち、1つ以上のフラグメントは、画像を表示するとき、対応する画素の色に貢献することがあることに留意することが重要である。例えば、所与の画素に対し、3D仮想環境内の全てのプリミティブのフラグメントは、表示のために画素に組み合わされる。そのようにして、対応する画素に対する全体的なテクスチャ及びシェーディング情報は、画素に対する最終的な色値を出力するよう組み合わされる。
各々の画素に対するそれらの色値は、フレームバッファ550に記憶されてもよく、フレームバッファ550は、フレームごとにシーンの対応する画像を表示するとき、対応する画素への従来のGPUパイプラインにおいて走査されてもよい。しかしながら、フレームのシーケンスをディスプレイに配信するのではなく、本発明の実施形態では、レンダリングノード320は、グリッドマップ(例えば、キューブマップ)の特定のビュー/面に対してフレームをレンダリングし、そのシーケンスを符号化し(例えば、エンコーダ335を通じて)、次いで、フレームの符号化されたシーケンスをクライアントデバイスにストリーミングするように構成される。そのレンダリングノードからのレンダリングされたフレームは、ユーザに対して表示された(例えば、HMDにおいて)最新の視点に寄与することも、しないこともある。しかしながら、グリッドマップの1つ以上のビューに対応するフレームの1つ以上のシーケンスに基づいて、クライアントデバイスのキューブマップビューア(図4を参照)を通じてなど、最新の視点が生成されてもよい。
ゲーミングコンソール、HMD、及びクラウドゲーミングサーバの様々なモジュールの詳細な説明により、ここでは、本開示の1つの実施形態に従った、クラウドシステムの分割階層グラフィックプロセッサシステムを使用してグラフィック処理を実行する方法は、図6のフローチャート600に関連して説明される。前に説明されたように、フローチャート600は、CPU及び/またはGPUの機能を実行して、ゲーミングアプリケーション及び/または対話型VRアプリケーションに対してロジックを実行し、レンダリングを実行するよう、クラウドシステムの複数のサーバ及び/または計算ノードにわたって分割階層プロセッサシステムを実装することに関与する演算の処理及びデータフローを示す。特に、フローチャート600の方法は、図1〜図5のマスタノード310及び複数のレンダリングノード320によって少なくとも部分的に実行されてもよい。
610において、方法は、ユーザのクライアントデバイスからの入力に応答して、クラウドシステムのマスタノードにおいてVRアプリケーションを実行して、VRアプリケーションのVR環境内の複数のオブジェクトに対して複数のプリミティブを生成することを含む。特に、マスタノードは、前に説明されたように、ゲーミングアプリケーション及び/または対話型VRアプリケーションを実行するように構成される。例えば、マスタノード310は、ゲームロジック及び/またはアプリケーションロジックを稼働させること、スクリプトを実行すること、オブジェクトのシミュレーションを実行すること(例えば、自然のもしくはユーザにより定義された物理的法則のシミュレーションをオブジェクトに適用するように構成された物理シミュレーションモデラを実行する)などを含む、クライアントデバイスからの入力に応答してCPU機能を実行するように構成される。マスタノードは、VR環境内のオブジェクトに対して複数のプリミティブを生成する。
620において、方法は、VR環境内の位置から取り込まれたVR環境への複数のビューに対する複数のプリミティブに基づいて、複数のレンダリングノードにおいてフレームの複数のシーケンスをレンダリングすることを含む。例えば、複数のビューは、VR環境のグリッドマップの面に対応し、対応するフレームのシーケンスは、対応するビューと関連付けられる。特に、各々のレンダリングノードは、ラスタライズ、フラグメントシェーディング、出力統合、フレームバッファリングなど、対応するビューに対してビデオフレームのシーケンスを生成するレンダリング演算を実行するように構成される。
更なる他の実施形態では、各々のノードは、特定の機能を実行するように構成される。例えば、グリッドマップの面のレンダリングを実行する代わりに、ノードは、集中的に計算する特定のコンピュータ機能性を実行するよう割り当てられる。専用ノードにおいてコンピュータ機能性を実行することによって、残りのノード(例えば、マスタノード)は、集中的に計算する機能性を実行するためにそのリソースを費やす必要なく、他の重要な機能性を自由に実行することができる。
630において、方法は、複数のオブジェクトに対する入力ジオメトリをアセットライブラリに記憶することを含み、アセットライブラリ内の複数のオブジェクトは、マスタノード及び複数のレンダリングノードによってアクセス可能である。対応する入力ジオメトリによって表されるような複数のオブジェクトは、VR環境を構築するために使用される。入力ジオメトリ及び制御入力に基づいて、マスタノードは、オブジェクトシミュレーションを適用した後など、オブジェクトに対してプリミティブを生成する。レンダリングノードは、マスタノードからの出力(例えば、物理シミュレーションの適用の後のオブジェクトの動き)に基づいて、オブジェクト(入力ジオメトリによって表されるような)のレンダリングを実行する。1つの実施形態では、マスタノード及びレンダリングノードは、サーバラック内で構成され、そのようにして、マスタノードからのプリミティブをレンダリングノードの各々にブロードキャストすることによって、通信空間内で同期が達成される。
640において、方法は、各々のレンダリングノードにおいて、フレームの対応するシーケンスを符号化することを含む。符号化は、ネットワークを介してクライアントデバイスにストリーミングされるように、通信の効率性のためにビデオフレームのシーケンスを圧縮するよう実行される。650において、符号化の後、方法は、各々のレンダリングノードからクライアントデバイスにフレームの対応するシーケンスをストリーミングすることを含み、フレームの各々の対応するシーケンスは、グリッドマップの面またはビューに対応する。クライアントデバイスは、符号化されたフレームのシーケンスの各々を復号し、呼び出されるときの表示のために、符号化されたフレームの復号されたシーケンスを複数のバッファに記憶するように構成される。加えて、クライアントデバイスは、VR環境のグリッドマップのビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいて、VR環境内の所与の位置において視点を生成するように構成される。
図7は、本開示の様々な実施形態の態様を実行するために使用することができる実施例のデバイス700の構成要素を示す。特に、図7は、本開示の1つの実施形態に従った、CPU及び/またはGPUの機能を実行して、ゲーミングアプリケーション及び/または対話型VRアプリケーションに対してロジックを実行し、レンダリングを実行するよう、クラウドシステムの複数のサーバ及び/または計算ノードにわたって分割階層プロセッサシステムを実装するコンピュータシステムを示す。1つの実装形態では、図7は、クラウドシステムの複数のサーバ及び/または計算ノードにわたって分割階層プロセッサシステムを実装するために適切な例示的なハードウェアシステムを示す。他の実施形態では、コンピュータシステムは、クラウドサービス内で仮想マシン(VM)として実装されてもよい。例えば、クラウドサービスは、計算能力及び仮想記憶を提供するため、1つ以上のVMをサポートする仮想化層を含んでもよい。仮想化層は、仮想化空間の外側でアクセス可能な、下層のハードウェア及び物理データストレージを利用する。このブロック図は、開示の1つの実施形態を実施するのに適切な、デバイス700を示し、デバイス700は、サーバコンピュータ、仮想化コンピュータ、パーソナルコンピュータ、ビデオゲームコンソール、パーソナルデジタルアシスタント、または他のデジタルデバイスをであってよく、またそれらを組み込むことができてもよい。デバイス700は、ソフトウェアアプリケーション及び任意選択でオペレーティングシステムを稼働させる中央処理装置(CPU)702を含む。CPU702は、1つ以上の同種または異種の処理コアから構成されてもよい。例えば、CPU702は、1つ以上の処理コアを有する1つ以上の汎用マイクロプロセッサである。更なる実施形態は、前に説明されたように、メディア及び対話型エンターテインメントアプリケーション、またはディスプレイを視認しているユーザと関連して定義されたサッカードの間及び/もしくはサッカードの終了時のユーザの目(複数可)の凝視方向と関連付けられたディスプレイ上のランディングポイントの予測をもたらすように構成されたアプリケーションなど、高度に並列し、及び計算集中的なアプリケーションに特に適合したマイクロプロセッサアーキテクチャを有する1つ以上のCPUを使用して実装されてもよい。
メモリ704は、CPU702による使用のためにアプリケーション及びデータを記憶する。ストレージ706は、アプリケーション及びデータに対する不揮発性ストレージ及び他のコンピュータ可読媒体を提供し、固定ディスクドライブ、取り外し可能ディスクドライブ、フラッシュメモリデバイス、及びCD−ROM、DVD−ROM、Blu−ray(登録商標)、HD−DVD、または他の光学記憶デバイス、ならびに信号伝送及び記憶媒体を含んでもよい。ユーザ入力デバイス708は、1人以上のユーザからのユーザ入力をデバイス700に通信し、ユーザ入力デバイス708の例は、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、スチルレコーダ/カメラもしくはビデオレコーダ/カメラ、ジェスチャを認識する追跡デバイス、及び/またはマイクロフォンを含んでもよい。ネットワークインタフェース714は、デバイス700が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、ローカルエリアネットワーク、及びインターネットなどのワイドエリアネットワークにわたる有線または無線通信を含んでもよい。音声プロセッサ712は、CPU702、メモリ704、及び/またはストレージ706によって提供される命令及び/またはデータから、アナログまたはデジタル音声出力を生成するように適合される。CPU702、メモリ704、データストレージ706、ユーザ入力デバイス708、ネットワークインタフェース710、及び音声プロセッサ712を含むデバイス700の構成要素は、1つ以上のデータバス722を介して接続される。
グラフィックサブシステム714は更に、データバス722及びデバイス700の構成要素と接続される。グラフィックサブシステム714は、グラフィックプロセシングユニット(GPU)716及びグラフィックメモリ718を含む。グラフィックメモリ718は、出力画像の各々の画素に対する画素データを記憶するために使用される表示メモリ(例えばフレームバッファ)を含む。グラフィックメモリ718は、GPU716と同一のデバイスに統合されてもよく、GPU716と別個のデバイスとして接続されてもよく、及び/またはメモリ704内で実装されてもよい。画素データは、CPU702からグラフィックメモリ718に直接提供されてもよい。代わりに、CPU702は、所望の出力画像を定義するデータ及び/または命令をGPU716に提供し、データ及び/または命令をGPU716に提供し、GPU716は、そこから1つ以上の出力画像の画素データを生成する。所望の出力画像を定義するデータ及び/または命令は、メモリ704及び/またはグラフィックメモリ718に記憶されてもよい。1つの実施形態では、GPU716は、シーンに対するジオメトリ、照明、シェーディング、テクスチャリング、動き、及び/またはカメラパラメータを定義する命令及びデータから、出力画像の画素データを生成する3Dレンダリング能力を含む。GPU716は更に、シェーダプログラムを実行することが可能な1つ以上のプログラム可能実行ユニットを含んでもよい。
グラフィックサブシステム714は、ディスプレイデバイス710に表示され、または投影システム740によって投影されるよう、グラフィックメモリ718から画像用の画素データを周期的に出力する。ディスプレイデバイス710は、CRT、LCD、プラズマ、及びOLEDディスプレイを含む、デバイス700からの信号に応答して、視覚情報を表示することが可能な任意のデバイスであってもよい。デバイス700は、ディスプレイデバイス710に、例えば、アナログ信号またはデジタル信号を提供することができる。
図7に示されるように。デバイス700は、VRコンテンツのマルチサーバクラウドVRストリーミングを実行するための分割階層グラフィックプロセッサシステムを実装するように構成されてもよい。例えば、デバイス700は、クラウドシステム内で構成されてもよく、マスタノード310及び複数のレンダリングノード320を更に含む実行エンジン300(例えば、ゲーミングエンジン)を含む。マスタノード310は、シミュレーションを実行すること、スクリプトを稼働させること、レンダリングを実行するためにグラフィックエンジンに必要な入力(例えば、プリミティブ)を提供することなど、ゲーミング及び/または対話型VRアプリケーションを実行するときにCPU機能を実行するように構成される。複数のレンダリングノード320は、グリッドマップの各々の面に対してフレームのレンダリングを実行するように構成される。
本明細書で説明される実施形態は、任意のタイプのクライアントデバイス上で実行されてもよいことが理解されるべきである。いくつかの実施形態では、クライアントデバイスは、ヘッドマウントディスプレイ(HMD)、または投影システムである。図8では、開示の実施形態に従った、ヘッドマウントディスプレイ102の構成要素を例示する図が示される。HMD102は、ユーザがディスプレイを視認していること、及び後の更新動作においてGPUに予測されるランディングポイントを提供することに関連して定義されるサッカードの間、及び/またはサッカードの終了時に、ユーザの目(複数可)の凝視方向と関連付けられたHMDのディスプレイ上のランディングポイントを予測するように構成されてもよい。
ヘッドマウントディスプレイ102は、プログラム命令を実行するプロセッサ800を含む。メモリ802は、記憶を目的として設けられ、揮発性メモリ及び不揮発性メモリの両方を含んでもよい。ユーザが視認することができる視覚的インタフェースを提供するディスプレイ804が含まれる。ヘッドマウントディスプレイ102の電源として、バッテリ806が設けられる。動き検出モジュール808は、磁力計810A、加速度計812、及びジャイロスコープ814など、様々な種類の動き検知ハードウェアのいずれかを含んでもよい。
加速度計は、加速度及び重力誘起反力を測定するデバイスである。様々な方向の加速の大きさ及び方向を検出するために、単軸モデル及び多軸モデルが利用可能である。加速度計を使用して、傾き、振動、及び衝撃が感知される。1つの実施形態では、3つの加速度計812は、2つの角度(世界空間ピッチ及び世界空間ロール)についての絶対基準を与える、重力の方向を提供するために使用される。
磁力計は、ヘッドマウントディスプレイ付近の磁場の強度及び方向を測定する。1つの実施形態では、3つの磁力計810Aは、ヘッドマウントディスプレイ内で使用され、世界空間のヨー角度についての絶対基準を保証する。1つの実施形態では、磁力計は、±80マイクロステラの地磁場にわたるように設計される。磁気計は金属の影響を受け、実際のヨーに対して単調なヨー測定を提供する。磁場は環境内の金属により歪むことがあり、これによりヨー測定に歪みが生じる。必要に応じて、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を使用して、較正することができる。1つの実施形態では、加速度計812は、ヘッドマウントディスプレイ102の傾斜及び方位角を取得するために、磁力計810Aと共に使用される。
ジャイロスコープは、角運動量の原理に基づいて、配向を測定または維持するためのデバイスである。1つの実施形態では、3つのジャイロスコープ814は、慣性検知に基づいて、それぞれの軸(x、y、及びz)にわたる動きに関する情報を提供する。ジャイロスコープは、高速回転の検出に役立つ。しかしながら、ジャイロスコープは、絶対基準が存在しないと、時間の経過と共にドリフトすることがある。これは、周期的にジャイロスコープを再設定することを必要とし、再設定は、オブジェクトの視覚追跡、加速度計、磁力計などに基づいた位置/方位判定など、他の利用可能な情報を使用して行われてもよい。
カメラ816は、実環境の画像及び画像ストリームを捕捉するために設けられる。後面カメラ(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時にユーザから離れる方向を向くカメラ)と、前面カメラ(ユーザがヘッドマウントディスプレイ102のディスプレイを見ている時にユーザ側を向くカメラ)とを含む複数のカメラが、ヘッドマウントディスプレイ102に含まれてもよい。加えて、実環境内のオブジェクトの奥行情報を検知するために、奥行カメラ818がヘッドマウントディスプレイ102に含まれてもよい。
1つの実施形態では、HMDの前面に統合されたカメラは、安全に関する警告が提供するために使用されてもよい。例えば、ユーザが壁またはオブジェクトに接近している場合、ユーザに警告が与えられ得る。1つの実施形態では、室内の物理的オブジェクトの外観をユーザに提供して、ユーザにそれらの存在を警告することができる。外観は、例えば仮想環境におけるオーバーレイであってもよい。いくつかの実施形態では、例えば床にオーバーレイされた参照マーカのビューが、HMDユーザに提供されてもよい。例えば、マーカは、ユーザがゲームをプレイしている部屋の中心の場所の基準を、ユーザに提供してもよい。これは、例えば部屋の中の壁または他のオブジェクトに衝突しないようにユーザが移動すべき場所の視覚情報を、ユーザに提供してもよい。ユーザがHMDを装着してゲームをプレイする、またはHMDでコンテンツを操縦する時、安全性を高めるために、触覚的警告、及び/または音声警告も、ユーザに提供することができる。
ヘッドマウントディスプレイ102は、音声出力を提供するスピーカ252を含む。また、周囲環境からの音、ユーザによって行われた発話などを含む実環境からの音声を捕捉するために、マイクロフォン251が含まれてもよい。ヘッドマウントディスプレイ102は、ユーザに触知フィードバックを提供する触知フィードバックモジュール281を含む。1つの実施形態では、触知フィードバックモジュール281は、触知フィードバックをユーザに提供するように、ヘッドマウントディスプレイ102の動き及び/または振動を引き起こすことが可能である。
LED826は、ヘッドマウントディスプレイ102の状態の視覚的インジケータとして提供される。例えば、LEDは、バッテリレベル、電源オンなどを示してもよい。ヘッドマウントディスプレイ102がメモリカードからの情報を読み出し、メモリカードに情報を書き込むことを可能にするために、カードリーダ828が提供される。周辺デバイスの接続、または他のポータブルデバイス、コンピュータなどの他のデバイスへの接続を可能にするインタフェースの1つの実施例として、USBインタフェース830が含まれる。ヘッドマウントディスプレイ102の様々な実施形態では、ヘッドマウントディスプレイ102のより良い接続性を可能にするために、様々な種類のインタフェースのいずれかが含まれてもよい。
無線ネットワーク技術を介してインターネットへの接続を可能にするために、Wi−Fiモジュール832が含まれる。また、ヘッドマウントディスプレイ102は、他のデバイスへの無線接続を可能にするために、Bluetoothモジュール834を含む。また、他のデバイスへの接続のために通信リンク836が含まれてもよい。1つの実施形態では、通信リンク836は、無線通信のために赤外線伝送を利用する。他の実施形態では、通信リンク836は、他のデバイスとの通信のために各種の無線または有線伝送プロトコルのいずれかを利用してもよい。
入力ボタン/センサ838は、ユーザに入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの様々な種類の入力インタフェースのうちのいずれかが含まれてもよい。超音波技術を介した他のデバイスとの通信を促進するために、超音波通信モジュール840が、ヘッドマウントディスプレイ102に含まれてもよい。
バイオセンサ842は、ユーザからの生理学的データの検出を可能にするために含まれる。1つの実施形態では、生体センサ842は、ユーザの皮膚を通してユーザの生体電気信号を検出するために、1つ以上の乾電極を含む。
3次元の物理的環境に配置されたエミッタ(例えば赤外線基地局)からの信号に応答するために、光センサ844が含まれる。ゲームコンソールは、光センサ844及びエミッタからの情報を分析して、ヘッドマウントディスプレイ102に関連する位置及び向きの情報を判定する。
更に、凝視追跡システム820が含まれ、これは、ユーザの凝視追跡を可能にするように構成される。例えば、システム820は、ユーザの目の画像を捕捉する凝視追跡カメラ(例えば、センサ)を含んでもよく、捕捉された画像は次いで、ユーザの凝視方向を判定するために分析される。1つの実施形態では、ユーザの凝視方向に関する情報は、ビデオレンダリングに影響を与えるように、及び/またはサッカード間またはサッカードの終了時にユーザの凝視が方向付けられる方へのディスプレイ上のランディングを予測するために使用されてもよい。また、例えば、中心窩レンダリングによるより詳細な高解像度、中心窩領域に表示されるパーティクルシステム効果の高解像度、中心窩領域の外側に表示されるパーティクルシステム効果の低解像度、またはユーザが見ている領域のより高速な更新を提供することにより、凝視方向のビデオレンダリングは、優先されてもよいまたは強調されてもよい。
ヘッドマウントディスプレイ102の前述の構成要素は、ヘッドマウントディスプレイ102に含まれてもよい単なる例示的な構成要素として説明されている。本開示の様々な実施形態では、ヘッドマウントディスプレイ102は、上記の様々な構成要素の一部を含んでもよいし、または含まなくてもよい。本明細書で説明される本開示の態様を簡易にするために、ここでは記述されていないが当技術分野では既知の他の構成要素が、ヘッドマウントディスプレイ102の実施形態には更に含まれてもよい。
本開示の様々な実施形態では、様々な対話型機能を提供するために、前述のヘッドマウントデバイスが、ディスプレイに表示される対話型アプリケーションと併せて利用されてもよいことが、当業者には理解されよう。本明細書で説明される例示的な実施形態は、限定としてではなく、単に実施例として提供される。
現在の実施形態のゲームへのアクセス提供など、広範囲な地域にわたり配信されるアクセスサービスは、多くの場合、クラウドコンピューティングを使用することに留意されたい。クラウドコンピューティングは、動的に拡張縮小可能で多くの場合仮想化されたリソースがインターネットを介したサービスとして提供される、コンピューティング様式である。ユーザは、ユーザをサポートする「クラウド」の技術的インフラストラクチャのエキスパートである必要はない。クラウドコンピューティングは、Infrastructure as a Service(IaaS)、Platform as a Service(PaaS)、及びSoftware as a Service(SaaS)などの異なるサービスに分類することができる。クラウドコンピューティングサービスは、多くの場合、ビデオゲームなどの共通のアプリケーションを、ウェブブラウザからアクセスするオンラインで提供するが、ソフトウェア及びデータは、クラウド内のサーバに記憶される。クラウドという用語は、コンピュータネットワーク図におけるインターネットの描かれ方に基づいたインターネットの隠喩として使われ、複雑なインフラストラクチャを隠し持つことの抽象的概念である。
ゲーム処理サーバ(GPS)(または単純に「ゲームサーバ」)は、ゲームクライアントにより、シングルプレイヤ及びマルチプレイヤのビデオゲームをプレイするために使用される。インターネット上でプレイされる大抵のビデオゲームは、ゲームサーバへの接続を介して作動する。通常、ゲームは、プレイヤからデータを収集し、収集したデータを他のプレイヤに配信する専用サーバアプリケーションを使用する。これは、ピアツーピア構成よりも効率的かつ効果的であるが、サーバアプリケーションをホストする別個のサーバが必要となる。別の実施形態では、GPSは、プレイヤ及びそれぞれのゲームプレイデバイスの間の通信を確立し、集中型GPSに依存せずに情報を交換する。
専用GPSは、クライアントとは無関係に稼働するサーバである。このようなサーバは、通常、データセンタに配置された専用ハードウェア上で稼働し、より多くの帯域幅及び専用処理能力を提供する。専用サーバは、大抵のPCベースマルチプレイヤゲームのゲームサーバをホストするのに、好ましい方法である。大規模なマルチプレイヤオンラインゲームは、ゲームタイトルを所有するソフトウェア会社が通常ホストする専用サーバ上で作動し、専用サーバがコンテンツを制御及び更新することを可能にする。
ユーザは、少なくともCPU、ディスプレイ、及びI/Oを含むクライアントデバイスにより、リモートサービスにアクセスする。クライアントデバイスは、PC、携帯電話、ネットブック、PDAなどであってもよい。1つの実施形態では、ゲームサーバ上で実行されるネットワークは、クライアントによって使用されるデバイスのタイプを認識し、採用される通信方法を調整する。別の事例では、クライアントデバイスは、HTMLなどの標準的な通信方法を使用して、インターネットを介してゲームサーバ上のアプリケーションにアクセスする。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な一般消費者向け電気製品、小型コンピュータ、及びメインフレームコンピュータなどを含む様々なコンピュータシステム構成により実施されてもよい。本開示はまた、有線ベースネットワークまたは無線ネットワークを介してリンクされたリモート処理デバイスによりタスクが行われる分散型コンピューティング環境においても、実施することができる。
所与のビデオゲームまたはゲームアプリケーションは、特定のプラットフォーム及び特定の関連コントローラデバイス用に開発されてもよいことを、理解されたい。しかしながら、このようなゲームが、本明細書において提示されるようなゲームクラウドシステムを介して利用可能となる場合、ユーザは、異なるコントローラデバイスでビデオゲームにアクセスすることができる。例えば、あるゲームは、ゲームコンソール及びその関連コントローラ用に開発された可能性があるが、ユーザは、キーボード及びマウスを利用してパーソナルコンピュータから、クラウドベースバージョンのゲームにアクセスすることができる。このようなシナリオでは、入力パラメータ設定により、ユーザが利用可能なコントローラデバイス(この事例ではキーボード及びマウス)により生成されてもよい入力から、ビデオゲームの実行で受入れ可能な入力へ、マッピングが定義されてもよい。
別の実施例では、ユーザは、タブレットコンピューティングデバイス、タッチスクリーンスマートフォン、または他のタッチスクリーン駆動デバイスを介して、クラウドゲームシステムにアクセスすることができる。この場合、クライアントデバイス及びコントローラデバイスは、同一のデバイス内に共に統合され、検出されたタッチスクリーン入力/ジェスチャにより入力が提供される。このようなデバイスでは、入力パラメータ設定により、ビデオゲームのゲーム入力に対応する特定のタッチスクリーン入力が定義されてもよい。例えば、ユーザがタッチしてゲーム入力を生成することができるタッチスクリーン上の位置を示すために、ビデオゲームの実行中に、ボタン、方向パッド、または他の種類の入力要素が、表示またはオーバーレイされてもよい。特定の方向のスワイプまたは特定のタッチ動作などのジェスチャも、ゲーム入力として検出されてもよい。1つの実施形態では、タッチスクリーン上での制御操作にユーザを慣れさせるために、例えばビデオゲームのゲームプレイを始める前に、ゲームプレイのタッチスクリーンを介して入力を提供する方法を示すチュートリアルが、ユーザに提供されてもよい。
いくつかの実施形態では、クライアントデバイスは、コントローラデバイスの接続ポイントとして機能する。すなわち、コントローラデバイスは、無線接続または有線接続を介してクライアントデバイスと通信し、コントローラデバイスからクライアントデバイスへ入力を送信する。今度はクライアントデバイスが、これらの入力を処理し、次いで入力データを、ネットワークを介して(例えばルータなどのローカルネットワークデバイスを介してアクセスされる)、クラウドゲームサーバへ送信してもよい。しかしながら、別の実施形態では、コントローラ自体が、このような入力をまずクライアントデバイスを通して通信する必要なく、ネットワークを介して入力を直接クラウドゲームサーバに通信する能力を有するネットワークデバイスであってもよい。例えば、コントローラは、ローカルネットワークデバイス(前述のルータなど)に接続して、クラウドゲームサーバとデータを送受信することができる。従って、クライアントデバイスは依然として、クラウドベースのビデオゲームからのビデオ出力を受信して、それをローカルディスプレイにレンダリングする必要はあるが、コントローラがクライアントデバイスを迂回して、ネットワークを介して直接クラウドゲームサーバに入力を送信することを可能にすることにより、入力待機時間が削減されてもよい。
1つの実施形態では、ネットワーク化されたコントローラ及びクライアントデバイスは、特定の種類の入力を直接コントローラからクラウドゲームサーバへ、及び他の種類の入力をクライアントデバイスを介して送信するように構成することができる。例えば、コントローラ自体とは別の任意の追加のハードウェアまたは処理に依存しない検出による入力は、クライアントデバイスを迂回して、ネットワークを介して直接コントローラからクラウドゲームサーバへ送信することができる。このような入力には、ボタン入力、ジョイスティック入力、埋込型動作検出入力(例えば加速度計、磁力計、ジャイロスコープ)などが含まれてもよい。しかしながら、追加のハードウェアを利用する、またはクライアントデバイスによる処理を要する入力は、クライアントデバイスによりクラウドゲームサーバへ送信されてもよい。これには、クラウドゲームサーバへ送信する前にクライアントデバイスにより処理されてもよい、ゲーム環境から取り込まれたビデオまたは音声が含まれてもよい。更に、コントローラの位置及び動作を検出するために、コントローラの動作検出ハードウェアからの入力が、取り込まれたビデオと併せてクライアントデバイスにより処理され、処理された入力はその後、クライアントデバイスによりクラウドゲームサーバへ通信される。様々な実施形態によるコントローラデバイスも、クライアントデバイスから、または直接クラウドゲームサーバから、データ(例えばフィードバックデータ)を受信してもよいことを理解されたい。
図9は、本開示の様々な実施形態従った、ゲームシステム900のブロック図である。ゲームシステム900は、ネットワーク915を介して1つ以上のクライアント910に対し、シングルプレイヤモードまたはマルチプレイヤモードなどで、ビデオストリームを提供するように構成される。ゲームシステム900は典型的には、ビデオサーバシステム920及び任意選択のゲームサーバ925を含む。ビデオサーバシステム920は、最小限のサービス品質で1つ以上のクライアント910にビデオストリームを提供するように構成される。例えば、ビデオサーバシステム920は、ビデオゲームの状態またはビデオゲーム内の視点を変更するゲームコマンドを受信し、この状態変更を反映させた更新済ビデオストリームを、最小の遅延時間でクライアント910に提供してもよい。ビデオサーバシステム920は、未だ定義されていないフォーマットを含む、多種多様な代替ビデオフォーマットでビデオストリームを提供するように構成されてもよい。更に、ビデオストリームは、多種多様なフレームレートでユーザに提示されるように構成されたビデオフレームを含んでもよい。通常のフレームレートは、毎秒30フレーム、毎秒80フレーム、及び毎秒820フレームである。しかしながら、本開示の代替的実施形態には、より高いまたはより低いフレームレートが含まれる。
本明細書で個別に910A、910Bなどと称されるクライアント910には、ヘッドマウントディスプレイ、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、無線デバイス、デジタルパッド、スタンドアロンデバイス、ハンドヘルドゲームプレイデバイス及び/または同様のものが含まれてもよい。通常、クライアント910は、符号化された(すなわち圧縮された)ビデオストリームを受信し、ビデオストリームを復号化し、得られたビデオをユーザ、例えばゲームのプレイヤに提示するように構成される。符号化されたビデオストリームを受信し、及び/またはビデオストリームを復号化する処理は通常、クライアントの受信バッファに個々のビデオフレームを記憶することを含む。ビデオストリームは、クライアント910に統合されたディスプレイ、またはモニタもしくはテレビなどの別個のデバイス上で、ユーザに提示されてもよい。クライアント910は、任意選択で、2人以上のゲームプレイヤをサポートするように構成される。例えば、ゲームコンソールは、2人、3人、4人以上の同時プレイヤに対応するように構成されてもよい。これらのプレイヤのそれぞれは、別個のビデオストリームを受信してもよい、または単一のビデオストリームが、各プレイヤのために特別に生成された、例えば各プレイヤの視点に基づいて生成されたフレームの領域を含んでもよい。クライアント910は、任意選択で地理的に分散される。ゲームシステム900に含まれるクライアントの数は、1つまたは2つから、数千、数万、またはそれ以上まで、幅広く異なり得る。本明細書で使用される用語「ゲームプレイヤ」は、ゲームをプレイする人を指すために用いられ、用語「ゲームプレイデバイス」は、ゲームをプレイするのに使用されるデバイスを指すために用いられる。いくつかの実施形態では、ゲームプレイデバイスは、協働してユーザにゲーム体験を届ける複数のコンピューティングデバイスを指してもよい。例えば、ゲームコンソール及びHMDは、ビデオサーバシステム920と協働して、HMDを通して見るゲームを配信してもよい。1つの実施形態では、ゲームコンソールは、ビデオサーバシステム920からビデオストリームを受信し、ゲームコンソールは、レンダリングのためにHMDに対し、ビデオストリームまたはビデオストリームの更新を転送する。
クライアント910は、ネットワーク915を介してビデオストリームを受信するように構成される。ネットワーク915は、電話ネットワーク、インターネット、無線ネットワーク、電力線ネットワーク、ローカルエリアネットワーク、広域ネットワーク、及プライベートネットワーク及び/または同様のものを含む任意の種類の通信ネットワークであってもよい。典型的な実施形態では、ビデオストリームは、TCP/IPまたはUDP/IPなどの標準プロトコルを介して通信される。あるいは、ビデオストリームは、独自の規格を介して通信される。
クライアント910の典型的な例には、プロセッサと、不揮発性メモリと、ディスプレイと、復号化ロジックと、ネットワーク通信機能と、入力デバイスとを備えるパーソナルコンピュータが挙げられる。復号化ロジックには、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体に記憶されたソフトウェアが含まれてもよい。ビデオストリームを復号化(及び符号化)するシステムは、当技術分野において周知のものであり、使用される特定の符号化方式に応じて異なる。
クライアント910は、必須ではないが、受信したビデオを修正するように構成されたシステムを更に含んでもよい。例えば、クライアントは、1つのビデオをもう1つのビデオ上にオーバーレイする、ビデオを切り取る及び/または同様のことなど、更なるレンダリングを実行するように構成されてもよい。例えば、クライアント910は、Iフレーム、Pフレーム、及びBフレームなどの様々な種類のビデオフレームを受信し、これらのフレームを処理して、ユーザに表示するための画像にするように構成されてもよい。いくつかの実施形態では、クライアント910のメンバは、ビデオストリームに対する更なるレンダリング、シェーディング、3Dへの変換、または同様の動作を実行するように構成される。クライアント910のメンバは任意選択で、複数の音声ストリームまたはビデオストリームを受信するように構成される。クライアント910の入力デバイスには、例えば、片手用ゲームコントローラ、両手用ゲームコントローラ、ジェスチャ認識システム、凝視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動作及び/または位置感知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、開発中の入力デバイス、及び/または同様のものが含まれてもよい。
クライアント910によって受信されたビデオストリーム(及び任意選択でオーディオストリーム)は、ビデオサーバシステム920によって生成され、提供される。本明細書の別の箇所で更に説明されるように、このビデオストリームは、ビデオフレームを含む(及び音声ストリームは音声フレームを含む)。ビデオフレームは、ユーザに表示される画像に有意義に寄与するように構成される(例えばビデオフレームは、好適なデータ構造の画素情報を含む)。本明細書で使用される用語「ビデオフレーム」は、ユーザに示される画像に寄与する、例えば作用するように構成された情報を主に含むフレームを指すために使用される。「ビデオフレーム」に関する本明細書の教示のほとんどは、「音声フレーム」にも適用することができる。
クライアント910は、典型的には、ユーザからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変化させる、あるいはゲームプレイに作用するように構成されたゲームコマンドを含んでもよい。ゲームコマンドは、入力デバイスを使用して受信することができ、及び/またはクライアント910上で実行されるコンピューティング命令により自動的に生成されてもよい。受信したゲームコマンドは、クライアント910からネットワーク915を介してビデオサーバシステム920及び/またはゲームサーバ925に通信される。例えば、いくつかの実施形態では、ゲームコマンドは、ビデオサーバシステム920を介してゲームサーバ925に通信される。いくつかの実施形態では、ゲームコマンドの別個のコピーは、クライアント910からゲームサーバ925及びビデオサーバシステム920に通信される。ゲームコマンドの通信は、任意選択でコマンドの識別に依存する。ゲームコマンドは、任意選択で、クライアント910Aに音声ストリームまたはビデオストリームを提供するために使用される経路または通信チャネルとは異なる経路または通信チャネルを介して、クライアント910Aから通信される。
ゲームサーバ925は、任意選択で、ビデオサーバシステム920とは異なるエンティティによって運営される。例えば、ゲームサーバ925は、マルチプレイヤゲームのパブリッシャによって運営されてもよい。この例では、ビデオサーバシステム920は、任意選択で、ゲームサーバ925によってクライアントとして見られ、任意選択で、ゲームサーバ925の視点からは従来技術のゲームエンジンを実行する従来技術のクライアントであると見えるように構成される。ビデオサーバシステム920とゲームサーバ925との間の通信は、任意選択で、ネットワーク915を介して行われる。このように、ゲームサーバ925は、ゲームステート情報を複数のクライアントに送信する従来技術のマルチプレイヤゲームサーバとすることができ、この複数のクライアントのうちの1つがゲームサーバシステム920である。ビデオサーバシステム920は、ゲームサーバ925の複数のインスタンスと同時に通信するように構成されてもよい。例えば、ビデオサーバシステム920は、異なるユーザに複数の異なるビデオゲームを提供するように構成されてもよい。これらの異なるビデオゲームのそれぞれは、異なるゲームサーバ925によりサポートされてもよく、及び/または異なるエンティティにより発行されてもよい。いくつかの実施形態では、ビデオサーバシステム920の地理的に分散されたいくつかのインスタンスは、複数の異なるユーザにゲームビデオを提供するように構成される。ビデオサーバシステム920のこれらのインスタンスのそれぞれは、ゲームサーバ925の同一のインスタンスと通信してもよい。ビデオサーバシステム920と1つ以上のゲームサーバ925との間の通信は、任意選択で、専用の通信チャネルを介して行われる。例えば、ビデオサーバシステム920は、これらの2つのシステム間の通信に専用の高帯域幅チャネルを介してゲームサーバ925に接続されてもよい。
ビデオサーバシステム920は、少なくともビデオソース930、I/Oデバイス945、プロセッサ950、及び非一時的ストレージ955を含む。ビデオサーバシステム920は、1つのコンピューティングデバイスを含んでもよく、または複数のコンピューティングデバイス間に分散されてもよい。これらのコンピューティングデバイスは任意選択で、ローカルエリアネットワークなどの通信システムを介して接続される。
ビデオソース930は、例えばストリーミングビデオ、または動画を形成する一連のビデオフレームといった、ビデオストリームを提供するように構成される。いくつかの実施形態では、ビデオソース930は、ビデオゲームエンジン及びレンダリングロジックを含む。ビデオゲームエンジンは、プレイヤからゲームコマンドを受信し、受信したコマンドに基づいてビデオゲームの状態の複製を維持するように構成される。このゲーム状態は、ゲーム環境内のオブジェクトの位置、並びに通常は視点を含む。ゲーム状態はまた、オブジェクトの特性、画像、色、及び/またはテクスチャリングも含んでもよい。
ゲーム状態は通常、ゲームルールと共に、移動、方向転換、攻撃、焦点の設定、対話、使用、及び/または同種のことのゲームコマンドに基づいて、維持される。ゲームエンジンの一部は任意選択で、ゲームサーバ925内に配置される。ゲームサーバ925は、地理的に分散されたクライアントを使用する複数のプレイヤから受信したゲームコマンドに基づき、ゲームのステートのコピーを維持してもよい。これらの場合、ゲームステートは、ゲームサーバ925によってビデオソース930に提供され、そこでゲームステートのコピーが記憶され、レンダリングが実行される。ゲームサーバ925は、ネットワーク915を介してクライアント910から直接ゲームコマンドを受信してもよく、及び/またはビデオサーバシステム920を介してゲームコマンドを受信してもよい。
ビデオソース930は、典型的には、レンダリングロジック、例えば、ハードウェア、ファームウェア、及び/またはストレージ955などのコンピュータ可読媒体上に記憶されたソフトウェアなどを含む。このレンダリングロジックは、ゲーム状態に基づいて、ビデオストリームのビデオフレームを作成するように構成される。レンダリングロジックの全てまたは一部は、任意選択で、グラフィック処理ユニット(GPU)内に配置される。レンダリングロジックは通常、ゲーム状態及び視点に基づいて、オブジェクト間の3次元空間的関係を判定し、及び/または好適なテクスチャリングなどを適用するように構成された処理段階を含む。レンダリングロジックは未処理ビデオを生成し、未処理ビデオは次いで、通常、クライアント910に通信する前に符号化される。例えば、未処理ビデオは、Adobe Flash(登録商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、realvideo、またはmp3などに従って、符号化されてもよい。符号化処理は、リモートデバイス上のデコーダに配信するために任意選択でパッケージ化されたビデオストリームを生成する。ビデオストリームは、フレームサイズ及びフレームレートによって特徴付けられる。典型的なフレームサイズには、800×600、1280×720(例えば720p)、1024×768が挙げられるが、任意の他のフレームサイズも使用されてもよい。フレームレートは、1秒あたりのビデオフレームの数である。ビデオストリームは、様々な種類のビデオフレームを含んでもよい。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上の全てのマクロブロック/画素を更新する情報を含み、一方、Pフレームは、その部分集合を更新する情報を含む。Pフレームは通常、Iフレームよりデータサイズが小さい。本明細書において使用される用語「フレームサイズ」は、フレーム内の画素数を指すことを意味する。用語「フレームデータサイズ」は、フレームを記憶するのに必要なバイト数を指すために使用される。
他の実施形態では、ビデオソース930は、カメラなどのビデオ記録デバイスを含む。このカメラを使用して、コンピュータゲームのビデオストリームに含めることができる遅延ビデオまたはライブビデオが生成されてもよい。結果得られるビデオストリームには、レンダリングされた画像と、スチルカメラまたはビデオカメラを使用して記録された画像との両方が、任意選択で含まれる。ビデオソース930はまた、ビデオストリームに含めるために事前に記録したビデオを記憶するように構成されたストレージデバイスも含んでもよい。ビデオソース930はまた、例えば人といったオブジェクトの動作または位置を検出するように構成された動作または位置感知デバイスと、検出された動作及び/または位置に基づいてゲーム状態を判定し、またはビデオを生成するように構成されたロジックとを含んでもよい。
ビデオソース930は、任意選択で、他のビデオ上に配置されるように構成されたオーバーレイを提供するように構成される。例えば、これらのオーバーレイには、コマンドインタフェース、ログイン指示、ゲームプレイヤへのメッセージ、他のゲームプレイヤの画像、他のゲームプレイヤのビデオフィード(例えばウェブカメラビデオ)が含まれてもよい。クライアント910Aがタッチスクリーンインタフェースまたは凝視検出インタフェースを含む実施形態では、オーバーレイには、仮想キーボード、ジョイスティック、タッチパッド及び/または同様のものが含まれてもよい。オーバーレイの1つの実施例では、プレイヤの声が音声ストリームにオーバーレイされる。ビデオソース930は任意選択で、1つ以上の音声源を更に含む。
ビデオサーバシステム920が複数のプレイヤからの入力に基づいてゲーム状態を維持するように構成された実施形態では、ビューの位置及び方向を含む視点は、各プレイヤで異なり得る。ビデオソース930は、任意選択で、各プレイヤの視点に基づいて、別個のビデオストリームを各プレイヤに提供するように構成される。更に、ビデオソース930は、異なるフレームサイズ、フレームデータサイズ、及び/または符号化をクライアント910のそれぞれに提供するように構成されてもよい。ビデオソース930は、任意選択で、3Dビデオを提供するように構成される。
I/Oデバイス945は、ビデオサーバシステム920が、ビデオ、コマンド、情報の要求、ゲームステート、凝視情報、デバイスの動き、デバイスの位置、ユーザの動き、クライアント識別子、プレイヤ識別子、ゲームコマンド、セキュリティ情報、オーディオ、及び/または同様のものなどの情報を送信及び/または受信するように構成される。I/Oデバイス945は通常、ネットワークカードまたはモデムなどの通信ハードウェアを含む。I/Oデバイス945は、ゲームサーバ925、ネットワーク915、及び/またはクライアント910と通信するように構成される。
プロセッサ950は、本明細書で論述されるビデオサーバシステム920の様々な構成要素内に含まれるロジック、例えばソフトウェアを実行するように構成される。例えば、プロセッサ950は、ビデオソース930、ゲームサーバ925及び/またはクライアントクォリファイア960の機能を実行するためにソフトウェア命令を使用してプログラムされてもよい。ビデオサーバシステム920は、任意選択で、プロセッサ950の2つ以上のインスタンスを含む。プロセッサ950はまた、ビデオサーバシステム920が受信したコマンドを実行するように、または本明細書において論述されるゲームシステム900の様々な要素の動作を調整するように、ソフトウェア命令でプログラムされてもよい。プロセッサ950は、1つ以上のハードウェアデバイスを含んでもよい。プロセッサ950は、電子プロセッサである。
ストレージ955は、非一時的なアナログ及び/またはデジタルストレージデバイスを含む。例えば、ストレージ955は、ビデオフレームを記憶するように構成されたアナログストレージデバイスを含んでもよい。ストレージ955は、例えばハードドライブ、光学ドライブ、またはソリッドステートストレージといったコンピュータ可読デジタルストレージを含んでもよい。ストレージ955は、ビデオフレーム、人工フレーム、ビデオフレームと人工フレームの両方を含むビデオストリーム、音声フレーム、及び/または音声ストリームなどを(例えば好適なデータ構造またはファイルシステムで)記憶するように構成される。ストレージ955は、任意選択で、複数のデバイス間に分散される。いくつかの実施形態では、ストレージ955は、本明細書の他の箇所で論じられるビデオソース930のソフトウェア構成要素を記憶するように構成される。これらの構成要素は、必要に応じてプロビジョニングできるように準備された形式で記憶されてもよい。
ビデオサーバシステム920は、任意選択で、クライアントクォリファイア960を更に含む。クライアントクォリファイア960は、クライアント910Aまたは910Bなどのクライアントの能力をリモートで判定するように構成される。これらの能力は、クライアント910A自体の能力と、クライアント910Aとビデオサーバシステム920との間の1つ以上の通信チャネルの能力との両方を含むことができる。例えば、クライアントクォリファイア960は、ネットワーク915を介して通信チャネルをテストするように構成されてもよい。
クライアントクォリファイア960は、クライアント910Aの能力を手動または自動で判定する(例えば、発見する)ことができる。手動判定は、クライアント910Aのユーザと通信して、ユーザに能力を提供するように依頼することを含む。例えば、いくつかの実施形態では、クライアントクォリファイア960は、クライアント910Aのブラウザ内に画像、テキスト、及び/または同様のものを表示するように構成される。1つの実施形態では、クライアント910Aは、ブラウザを含むHMDである。別の実施形態では、クライアント910Aは、HMD上に表示されてもよいブラウザを有するゲームコンソールである。表示されるオブジェクトは、ユーザに、クライアント910Aのオペレーティングシステム、プロセッサ、ビデオデコーダの種類、ネットワーク接続の種類、ディスプレイの解像度などの情報を入力するように要求する。ユーザによって入力された情報は、クライアントクォリファイア960に返信される。
自動判定は、例えば、クライアント910A上のエージェントの実行によって、及び/またはクライアント910Aへのテストビデオの送信によって行われてもよい。エージェントは、ウェブページに埋め込まれた、またはアドオンとしてインストールされたジャバスクリプトなどのコンピューティング命令を含んでもよい。エージェントは、任意選択で、クライアントクォリファイア960により提供される。様々な実施形態では、エージェントは、クライアント910Aの処理電力、クライアント910Aの復号及び表示能力、クライアント910Aとビデオサーバシステム920との間の通信チャネルの遅延時間の信頼性及び帯域幅、クライアント910Aの表示方式、クライアント910A上に存在するファイアウォール、クライアント910Aのハードウェア、クライアント910A上で実行されるソフトウェア、クライアント910A内のレジストリエントリ、並びに/または同様のものを発見することができる。
クライアントクォリファイア960は、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体上に記憶されたソフトウェアを含む。クライアントクォリファイア960は、任意選択で、ビデオサーバシステム920の1つ以上の他の要素とは別個のコンピューティングデバイス上に配置される。例えば、いくつかの実施形態では、クライアントクォリファイア960は、クライアント910とビデオサーバシステム920の2つ以上のインスタンスとの間の通信チャネルの特性を判定するように構成される。これらの実施形態では、クライアントクォリファイアによって見出された情報を使用して、ビデオサーバシステム920のどのインスタンスがクライアント910のうちの1つにストリーミングビデオを供給するのに最も適しているかを判定することができる。
VRコンテンツのマルチサーバクラウドVRストリーミングを実行するための分割階層グラフィックプロセッサシステムを実装するために特定の実施形態が提供されてきたが、これらは、限定としてではなく例として説明されている。本開示を読んだ当業者は、本開示の趣旨及び範囲に含まれる追加の実施形態を実現するであろう。
本明細書で定義される様々な実施形態は、本明細書で開示される様々な特徴を使用する特定の実施態様に組み合わされてもよい、または組み立てられ得ることを、理解されたい。従って、提供される実施例は、いくつかの可能な実施例にすぎず、様々な要素を組み合わせることでより多くの実施態様を定義することが可能な様々な実施態様に限定されない。いくつかの実施例では、いくつかの実施態様は、開示されたまたは同等の実施態様の趣旨から逸脱することなく、より少ない要素を含んでもよい。
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのまたはプログラム可能な一般消費者向け電気製品、小型コンピュータ、及びメインフレームコンピュータなどを含む様々なコンピュータシステム構成により実施されてもよい。本開示の実施形態はまた、有線ベースまたは無線のネットワークを介してリンクされるリモート処理デバイスによりタスクが行われる分散型コンピューティング環境においても、実施することができる。
前述の実施形態を念頭に置いて、本開示の実施形態は、コンピュータシステムに記憶されたデータを伴う様々なコンピュータ実施動作を用い得ることを、理解されたい。これらの動作は、物理量の物理的操作を要する動作である。本開示の実施形態の一部を形成する、本明細書で説明される動作のうちのいずれも、有用な機械動作である。開示の実施形態はまた、これらの動作を実行するためのデバイスまたは装置に関する。装置は、必要な目的のために特別に構築されてもよい、または装置は、コンピュータに記憶されたコンピュータプログラムにより選択的に起動または構成される汎用コンピュータであってもよい。具体的には、様々な汎用機械を、本明細書の教示に従って書かれたコンピュータプログラムと共に使用することができる、あるいは、必要な動作を実行するためにより専門的な装置を構築するほうがより好都合である場合もある。
本開示は、コンピュータ可読媒体上のコンピュータ可読コードとして具体化することもできる。コンピュータ可読媒体は、データを記憶することができ、その後コンピュータシステムによって読み取ることができる任意のデータ記憶デバイスである。コンピュータ可読媒体の例には、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、並びに他の光学式データ記憶デバイス及び非光学式データ記憶デバイスが含まれる。コンピュータ可読媒体には、コンピュータ可読コードが分散方式で記憶及び実行されるように、ネットワーク接続されたコンピュータシステム上に分散されたコンピュータ可読有形媒体が含まれてもよい。
方法動作は特定の順序で説明されたが、オーバーレイ動作の処理が所望の方法で実行される限り、動作間に他の維持管理動作が実行されてもよく、または動作がわずかに異なる時間に起こるように調整されてもよく、またはシステム内に動作を分散することで、様々な処理関連間隔で処理動作が起こることを可能にしてもよいことを、理解されたい。
前述の開示は、理解を明確にするためにある程度詳細に説明されたが、添付の特許請求の範囲内で特定の変更及び修正を実施できることは明らかであろう。従って、本実施形態は、限定ではなく例示としてみなされるべきであり、本開示の実施形態は、本明細書に提供される詳細に限定されるものではなく、添付の特許請求の範囲内及び均等物内で変更されてもよい。

Claims (25)

  1. クラウドシステムにおける分割階層グラフィックプロセッサシステムであって、
    ネットワークを介して受信されたユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、VR環境内の複数のオブジェクトに対して複数のプリミティブを生成するマスタノードを有し、
    前記VR環境内の位置から取り込まれた前記VR環境への複数のビューに対する前記複数のプリミティブに基づいて、レンダリングを実行する複数のレンダリングノードを有し、前記複数のビューは、前記VR環境のグリッドマップに対応し、前記レンダリングノードの各々は、前記クライアントデバイスへの対応するビューのフレームの対応するシーケンスをレンダリングし、符号化し、及びストリーミングするものであり、
    前記VR環境を構築するために使用される前記複数のオブジェクトに対する入力ジオメトリを記憶するアセットライブラリを有し、前記アセットライブラリ内の前記複数のオブジェクトは、前記マスタノード及び前記複数のレンダリングノードによってアクセス可能である、分割階層グラフィックプロセッサシステム。
  2. ストリーミングされるフレームの前記対応するシーケンス内のフレームは各々、識別子と関連付けられ、フレームの1つ以上のシーケンス及び前記VR環境への視点に基づいて、前記VR環境の3Dビューとして復号され、及び組み立てられるように構成されている、請求項1に記載の分割階層グラフィックプロセッサシステム。
  3. 前記マスタノードは、前記複数のレンダリングノードの各々に前記複数のプリミティブを同時にブロードキャストするように構成されている、請求項1に記載の分割階層グラフィックプロセッサシステム。
  4. 前記グリッドマップは、前記複数のビューに対応する6個の面を含むキューブマップを含む、請求項1に記載の分割階層グラフィックプロセッサシステム。
  5. 各々のレンダリングノードは、前記グリッドマップの対応するビューを1対1の関係でのレンダリング専用となる、請求項1に記載の分割階層グラフィックプロセッサシステム。
  6. 前記マスタノードは、自然のまたは定義された物理的法則のシミュレーションを前記複数のオブジェクトに適用するための物理シミュレーションモデラを含む、請求項1に記載の分割階層グラフィックプロセッサシステム。
  7. 各々のレンダリングノードは、ラスタライズ、フラグメントシェーディング、出力統合、及びフレームバッファリングを実行するように構成されている、請求項1に記載の分割階層グラフィックプロセッサシステム。
  8. 前記クライアントデバイスは、前記複数のレンダリングノードから受信された前記符号化されたストリームを復号及びバッファリングするように構成された1つ以上のデコーダを含み、
    前記クライアントデバイスは、前記VR環境へのビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいて、前記VR環境内の前記位置において視点を生成するように構成されている、請求項1に記載の分割階層グラフィックプロセッサシステム。
  9. 前記レンダリングノードの各々は、前記クライアントデバイスにおけるフレームの異なるシーケンスからのフレームの同期のために、フレームの対応するシーケンスのフレームにタイムスタンプまたはフレーム番号を付加するように構成されている、請求項1に記載の分割階層グラフィックプロセッサシステム。
  10. 前記レンダリングノードの各々は、UDPブロードキャストにおいて、対応するビューのフレームの前記対応するシーケンスを前記クライアントデバイスにストリーミングする、請求項1に記載の分割階層グラフィックプロセッサシステム。
  11. 前記レンダリングノードの各々は、フル解像度において前記対応するビューのフレームの前記対応するシーケンスを生成する、請求項1に記載の分割階層グラフィックプロセッサシステム。
  12. クラウドシステムの分割階層グラフィックプロセッサシステムを使用してグラフィック処理を実行する方法であって、
    クラウドシステムのマスタノードにおいて、ユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、前記VRアプリケーションのVR環境内の複数のオブジェクトに対して複数のプリミティブを生成し、
    前記VR環境内の位置から取り込まれた前記VR環境への複数のビューに対する前記複数のプリミティブに基づいて、複数のレンダリングノードにおいてフレームの複数のシーケンスをレンダリングし、前記複数のビューは、前記VR環境のグリッドマップに対応し、フレームの対応するシーケンスは、対応するビューと関連付けられているものであり、
    前記複数のオブジェクトに対する入力ジオメトリをアセットライブラリに記憶し、前記複数のオブジェクトは、前記VR環境を構築するために使用され、前記アセットライブラリ内の前記複数のオブジェクトは、前記マスタノード及び前記複数のレンダリングノードによってアクセス可能であり、
    各々のレンダリングノードにおいてフレームの対応するシーケンスを符号化し、
    各々のレンダリングノードから前記クライアントデバイスに、フレームの対応するシーケンスをストリーミングする、方法。
  13. 前記マスタノードから前記複数のレンダリングノードの各々に、前記複数のプリミティブを同時にブロードキャストする、請求項12に記載の方法。
  14. 前記グリッドマップは、前記複数のビューに対応する6個の面を含むキューブマップを含み、
    各々のレンダリングノードは、前記グリッドマップの対応するビューを1対1の関係でのレンダリング専用となる、請求項12に記載の方法。
  15. 前記マスタノードにおいて、自然のまたは定義された物理的法則のシミュレーションを前記複数のオブジェクトに適用する物理シミュレーションを実行する、請求項12に記載の方法。
  16. 対応するビューに対して各々のレンダリングノードにおいて、ラスタライズ、フラグメントシェーディング、出力統合、及びフレームバッファリングを実行する、請求項12に記載の方法。
  17. 前記クライアントデバイスは、
    前記符号化されたフレームのシーケンスの各々を復号し、
    呼び出されたときの表示のために、前記符号化されたフレームの復号されたシーケンスを複数のバッファに記憶し、
    前記VR環境へのビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいて、前記位置において視点を生成するように構成されている、請求項12に記載の方法。
  18. 前記クライアントデバイスにおけるフレームの異なるシーケンスからのフレームの同期のために、フレームの対応するシーケンスのフレームにタイムスタンプまたはフレーム番号を付加する、請求項12に記載の方法。
  19. クラウドシステムの分割階層グラフィックプロセッサシステムを使用してグラフィック処理を実行するためのコンピュータプログラムを記憶した非一時的コンピュータ可読媒体であって、前記コンピュータ可読媒体は、
    クラウドシステムのマスタノードにおいて、ユーザのクライアントデバイスからの入力に応答して、仮想現実(VR)アプリケーションを実行し、前記VRアプリケーションのVR環境内の複数のオブジェクトに対して複数のプリミティブを生成するためのプログラム命令を有し、
    前記VR環境内の位置から取り込まれた前記VR環境への複数のビューに対する前記複数のプリミティブに基づいて、複数のレンダリングノードにおいてフレームの複数のシーケンスをレンダリングするためのプログラム命令を有し、前記複数のビューは、前記VR環境のグリッドマップに対応し、フレームの対応するシーケンスは、対応するビューと関連付けられたものであり、
    前記複数のオブジェクトに対する入力ジオメトリをアセットライブラリに記憶するためのプログラム命令を有し、前記複数のオブジェクトは、前記VR環境を構築するために使用され、前記アセットライブラリ内の前記複数のオブジェクトは、前記マスタノード及び前記複数のレンダリングノードによってアクセス可能であり、
    各々のレンダリングノードにおいてフレームの対応するシーケンスを符号化するためのプログラム命令を有し、
    各々のレンダリングノードから、フレームの対応するシーケンスをストリーミングするためのプログラム命令を有する、コンピュータ可読媒体。
  20. 前記マスタノードから前記複数のレンダリングノードの各々に、前記複数のプリミティブを同時にブロードキャストするためのプログラム命令を更に有する、請求項19に記載のコンピュータ可読媒体。
  21. 前記グリッドマップは、前記複数のビューに対応する6個の面を含むキューブマップを含み、
    各々のレンダリングノードは、前記グリッドマップの対応するビューを1対1の関係でのレンダリング専用となる、請求項19に記載のコンピュータ可読媒体。
  22. 前記マスタノードにおいて、自然のまたは定義された物理的法則のシミュレーションを前記複数のオブジェクトに適用する物理シミュレーションを実行するためのプログラム命令を更に備える、請求項19に記載のコンピュータ可読媒体。
  23. 対応するビューに対して各々のレンダリングノードにおいて、ラスタライズ、フラグメントシェーディング、出力統合、及びフレームバッファリングを実行するためのプログラム命令を更に備える、請求項19に記載のコンピュータ可読媒体。
  24. 前記クライアントデバイスは、
    前記符号化されたフレームのシーケンスの各々を復号し、
    呼び出されたときの表示のために、前記符号化されたフレームの復号されたシーケンスを複数のバッファに記憶し、
    前記VR環境へのビューの符号化されたフレームの1つ以上の復号されたシーケンスに基づいて、前記位置において視点を生成するように構成されている、請求項19に記載のコンピュータ可読媒体。
  25. 前記クライアントデバイスにおけるフレームの異なるシーケンスからのフレームの同期のために、フレームの対応するシーケンスのフレームにタイムスタンプまたはフレーム番号を付加するためのプログラム命令を更に有する、請求項19に記載のコンピュータ可読媒体。
JP2020566269A 2018-05-30 2019-03-22 マルチサーバクラウド仮想現実(vr)ストリーミング Active JP7273068B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023073069A JP2023100769A (ja) 2018-05-30 2023-04-27 マルチサーバクラウド仮想現実(vr)ストリーミング

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/993,064 2018-05-30
US15/993,064 US11232532B2 (en) 2018-05-30 2018-05-30 Multi-server cloud virtual reality (VR) streaming
PCT/US2019/023621 WO2019231525A1 (en) 2018-05-30 2019-03-22 Multi-server cloud virtual reality (vr) streaming

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023073069A Division JP2023100769A (ja) 2018-05-30 2023-04-27 マルチサーバクラウド仮想現実(vr)ストリーミング

Publications (2)

Publication Number Publication Date
JP2021525911A true JP2021525911A (ja) 2021-09-27
JP7273068B2 JP7273068B2 (ja) 2023-05-12

Family

ID=66041774

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020566269A Active JP7273068B2 (ja) 2018-05-30 2019-03-22 マルチサーバクラウド仮想現実(vr)ストリーミング
JP2023073069A Pending JP2023100769A (ja) 2018-05-30 2023-04-27 マルチサーバクラウド仮想現実(vr)ストリーミング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023073069A Pending JP2023100769A (ja) 2018-05-30 2023-04-27 マルチサーバクラウド仮想現実(vr)ストリーミング

Country Status (6)

Country Link
US (3) US11232532B2 (ja)
EP (1) EP3804340A1 (ja)
JP (2) JP7273068B2 (ja)
KR (2) KR102606469B1 (ja)
CN (1) CN112470483B (ja)
WO (1) WO2019231525A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2555378B (en) * 2016-10-18 2021-06-09 Virtually Live Switzerland Gmbh HMD delivery system and method
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
KR102138977B1 (ko) * 2018-10-10 2020-07-28 민코넷주식회사 클라우드 컴퓨터를 이용한 게임 플레이 동영상 제공 시스템
US11625806B2 (en) * 2019-01-23 2023-04-11 Qualcomm Incorporated Methods and apparatus for standardized APIs for split rendering
US11328471B2 (en) * 2019-05-24 2022-05-10 Nvidia Corporation Fine grained interleaved rendering applications in path tracing for cloud computing environments
US11159776B2 (en) * 2019-08-16 2021-10-26 At&T Intellectual Property I, L.P. Method for streaming ultra high definition panoramic videos
CN111179437B (zh) * 2019-12-30 2023-08-08 上海曼恒数字技术股份有限公司 一种Cloud VR无连接串流***及连接方法
GB2594714B (en) * 2020-05-04 2022-12-07 Createc Robotics Ltd Virtual view generation
US11350138B2 (en) * 2020-05-20 2022-05-31 Sony Corporation Managing a multi-view event comprising several streams, stream buffers, and rendering onto a single canvas
US11637913B2 (en) * 2020-07-15 2023-04-25 Stryker Corporation Automatic correspondence of encoders and decoders to video ports
EP3958574A1 (en) * 2020-08-19 2022-02-23 XRSpace CO., LTD. Method and system for rendering virtual environment
CN114640670B (zh) * 2020-11-30 2023-07-21 中移(成都)信息通信科技有限公司 虚拟现实vr信息共享的方法、装置及设备
CN112835621B (zh) * 2021-01-13 2024-04-02 西安飞蝶虚拟现实科技有限公司 跨平台虚拟现实资源处理方法及处理***
WO2022159630A1 (en) * 2021-01-22 2022-07-28 Zinn Labs, Inc. Gaze sensors and display elements for detection of gaze vectors and user control at headset
US11599338B2 (en) * 2021-06-18 2023-03-07 Qingdao Pico Technology Co., Ltd. Model loading method and apparatus for head-mounted display device, and head-mounted display device
CN113476830A (zh) * 2021-07-26 2021-10-08 西安万像电子科技有限公司 云游戏数据处理方法、装置、游戏终端及处理器
KR102669261B1 (ko) * 2021-10-15 2024-05-28 (주)이머시브캐스트 클라우드 xr 기반의 프로그램 가상화 방법
CN113645484B (zh) * 2021-10-16 2021-12-21 成都中科合迅科技有限公司 基于图形处理器的数据可视化加速渲染方法
US20230117444A1 (en) * 2021-10-19 2023-04-20 Microsoft Technology Licensing, Llc Ultra-low latency streaming of real-time media
US11962867B2 (en) 2021-11-04 2024-04-16 Tencent America LLC Asset reusability for lightfield/holographic media
US20230308846A1 (en) * 2022-02-08 2023-09-28 Meta Platforms Technologies, Llc Systems and methods for multicast communication for ar/vr system
TWI807860B (zh) * 2022-06-14 2023-07-01 啟雲科技股份有限公司 虛擬實境網路表演者系統及電腦程式產品
CN115190156B (zh) * 2022-07-05 2023-03-21 深圳市弘南科通信设备有限公司 一种双网数据传输方法及虚拟现实***
US20240108984A1 (en) * 2022-09-29 2024-04-04 Sony Interactive Entertainment Inc. Game asset optimization over network at optimizer server
CN116563085B (zh) * 2023-07-06 2023-09-01 湖南马栏山视频先进技术研究院有限公司 一种离线渲染的大规模并行处理方法及***
CN117472188B (zh) * 2023-12-07 2024-04-19 联通沃音乐文化有限公司 Vr姿态信息控制装置与方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US20160171743A1 (en) * 2007-10-29 2016-06-16 Julian Michael Urbach Efficiently implementing and displaying independent 3-dimensional interactive viewports of a virtual world on multliple client devices
JP2018501532A (ja) * 2014-10-02 2018-01-18 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 密結合ロジックおよび物理的シミュレーションを用いた3dグラフィックエディタにおけるオートメーションのプログラミング
WO2018011054A1 (en) * 2016-07-15 2018-01-18 Koninklijke Kpn N.V. Streaming virtual reality video

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120205B2 (en) * 2002-01-15 2006-10-10 Jawad Ahmed Salehi Method and system for multiple-shift code acquisition of optical orthogonal codes in optical CDMA systems
US7068722B2 (en) * 2002-09-25 2006-06-27 Lsi Logic Corporation Content adaptive video processor using motion compensation
WO2004044694A2 (en) * 2002-11-07 2004-05-27 Flytecomm, Inc. Advanced travel management system
US8717301B2 (en) * 2005-08-01 2014-05-06 Sony Corporation Information processing apparatus and method, and program
CN101197647A (zh) * 2006-12-13 2008-06-11 四川川大智胜软件股份有限公司 多通道实时三维视景渲染显示方法
US8605863B1 (en) * 2008-03-18 2013-12-10 Avaya Inc. Method and apparatus for providing state indication on a telephone call
US20090265661A1 (en) * 2008-04-14 2009-10-22 Gary Stephen Shuster Multi-resolution three-dimensional environment display
US9454847B2 (en) * 2009-02-24 2016-09-27 Google Inc. System and method of indicating transition between street level images
US9521392B2 (en) * 2010-12-21 2016-12-13 Broadcom Corporation Method and system for frame rate conversion of 3D frames
WO2012100219A1 (en) * 2011-01-20 2012-07-26 Zoll Medical Corporation Systems and methods for collection, organization and display of ems information
US8854491B2 (en) * 2011-06-05 2014-10-07 Apple Inc. Metadata-assisted image filters
US20130070051A1 (en) * 2011-09-20 2013-03-21 Cheng-Tsai Ho Video encoding method and apparatus for encoding video data inputs including at least one three-dimensional anaglyph video, and related video decoding method and apparatus
US9892298B2 (en) * 2012-02-06 2018-02-13 Cognex Corporation System and method for expansion of field of view in a vision system
WO2013154522A2 (en) * 2012-04-09 2013-10-17 Empire Technology Development Llc Processing load distribution
GB2506727A (en) 2012-07-30 2014-04-09 Nvidia Corp Server-rendering of graphics for remote client
EP2711670B1 (en) * 2012-09-21 2019-01-30 NavVis GmbH Visual localisation
US9123168B2 (en) * 2013-01-30 2015-09-01 Qualcomm Incorporated Output ordering of domain coordinates for tessellation
CA2885501C (en) * 2014-03-20 2023-12-19 Nanjing Yuyan Information Technology Ltd. Efficient software for transcoding to hevc on multi-core processors
US20150301708A1 (en) * 2014-04-21 2015-10-22 VMIX Media, Inc. Video Editing Graphical User Interface
KR102632421B1 (ko) * 2014-09-03 2024-02-01 네버마인드 캐피탈 엘엘씨 콘텐트를 캡처, 스트리밍, 및/또는 재생하기 위한 방법들 및 장치
GB2534136A (en) * 2015-01-12 2016-07-20 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10044800B2 (en) * 2015-10-11 2018-08-07 Microsoft Technology Licensing, Llc Synchronization scheme for physics simulations
US10310266B2 (en) * 2016-02-10 2019-06-04 Advanced Micro Devices, Inc. Method and system for streaming information in wireless virtual reality
US10319071B2 (en) * 2016-03-23 2019-06-11 Qualcomm Incorporated Truncated square pyramid geometry and frame packing structure for representing virtual reality video content
US10068366B2 (en) 2016-05-05 2018-09-04 Nvidia Corporation Stereo multi-projection implemented using a graphics processing pipeline
US10447430B2 (en) * 2016-08-01 2019-10-15 Sony Interactive Entertainment LLC Forward error correction for streaming data
JP6620079B2 (ja) * 2016-09-08 2019-12-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理方法およびコンピュータプログラム
US10379611B2 (en) 2016-09-16 2019-08-13 Intel Corporation Virtual reality/augmented reality apparatus and method
US10410376B1 (en) * 2016-09-26 2019-09-10 Amazon Technologies, Inc. Virtual reality media content decoding of portions of image frames
US10412412B1 (en) * 2016-09-30 2019-09-10 Amazon Technologies, Inc. Using reference-only decoding of non-viewed sections of a projected video
US10356417B2 (en) * 2016-09-30 2019-07-16 Intel Corporation Method and system of video coding using projected motion vectors
US10917564B2 (en) * 2016-10-12 2021-02-09 Qualcomm Incorporated Systems and methods of generating and processing files for partial decoding and most interested regions
CN106780769B (zh) * 2016-12-23 2020-11-13 太炫科技(南京)有限公司 一种减少近距离对象遮挡的三维模型绘制***及绘制方法
US20180192022A1 (en) * 2017-01-03 2018-07-05 Black Sails Technology Inc. Method and System for Real-time Rendering Displaying Virtual Reality (VR) On Mobile Using Head-Up Display Devices
CN109214248B (zh) * 2017-07-04 2022-04-29 阿波罗智能技术(北京)有限公司 用于识别无人驾驶车辆的激光点云数据的方法和装置
CN117056892A (zh) * 2017-08-23 2023-11-14 维萨国际服务协会 虚拟现实中对访问私有数据的安全授权

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US20160171743A1 (en) * 2007-10-29 2016-06-16 Julian Michael Urbach Efficiently implementing and displaying independent 3-dimensional interactive viewports of a virtual world on multliple client devices
JP2018501532A (ja) * 2014-10-02 2018-01-18 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 密結合ロジックおよび物理的シミュレーションを用いた3dグラフィックエディタにおけるオートメーションのプログラミング
WO2018011054A1 (en) * 2016-07-15 2018-01-18 Koninklijke Kpn N.V. Streaming virtual reality video

Also Published As

Publication number Publication date
KR102472152B1 (ko) 2022-11-30
KR20210018870A (ko) 2021-02-18
JP7273068B2 (ja) 2023-05-12
US11232532B2 (en) 2022-01-25
US20190370926A1 (en) 2019-12-05
EP3804340A1 (en) 2021-04-14
JP2023100769A (ja) 2023-07-19
US20220188964A1 (en) 2022-06-16
CN112470483A (zh) 2021-03-09
KR102606469B1 (ko) 2023-11-30
KR20220164072A (ko) 2022-12-12
US11636568B2 (en) 2023-04-25
WO2019231525A1 (en) 2019-12-05
CN112470483B (zh) 2023-02-03
US20230260073A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
JP7273068B2 (ja) マルチサーバクラウド仮想現実(vr)ストリーミング
US10740951B2 (en) Foveal adaptation of particles and simulation models in a foveated rendering system
US11210807B2 (en) Optimized shadows in a foveated rendering system
EP3265864B1 (en) Tracking system for head mounted display
US11222444B2 (en) Optimized deferred lighting in a foveated rendering system
JP6959365B2 (ja) 中心窩レンダリングシステムにおけるシャドーの最適化及びメッシュスキンの適応
JP7050883B2 (ja) 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル
US11107183B2 (en) Adaptive mesh skinning in a foveated rendering system
JP7503122B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230427

R150 Certificate of patent or registration of utility model

Ref document number: 7273068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150