CN103918011B - 渲染***、渲染服务器及其控制方法 - Google Patents

渲染***、渲染服务器及其控制方法 Download PDF

Info

Publication number
CN103918011B
CN103918011B CN201280054294.5A CN201280054294A CN103918011B CN 103918011 B CN103918011 B CN 103918011B CN 201280054294 A CN201280054294 A CN 201280054294A CN 103918011 B CN103918011 B CN 103918011B
Authority
CN
China
Prior art keywords
screen
rendering
rendered
server
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280054294.5A
Other languages
English (en)
Other versions
CN103918011A (zh
Inventor
岩崎哲史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Holdings Co Ltd
Original Assignee
Square Enix Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Holdings Co Ltd filed Critical Square Enix Holdings Co Ltd
Publication of CN103918011A publication Critical patent/CN103918011A/zh
Application granted granted Critical
Publication of CN103918011B publication Critical patent/CN103918011B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/538Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for performing operations on behalf of the game client, e.g. rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/08Bandwidth reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

待显示的屏幕的渲染处理在第一装置与第二装置之间进行划分和执行。所述第一装置基于用于确定所述待显示的屏幕的被渲染内容的信息生成第一屏幕,在所述第一屏幕上,对在所述待显示的屏幕上将要渲染的渲染对象中的一些渲染对象进行渲染。所述第二装置生成第二屏幕,在所述第二屏幕上,对渲染对象(在所述待显示的屏幕上所述将要渲染的渲染对象中的所述一些渲染对象除外)进行渲染。所述第一装置从所述第二装置接收所述第二屏幕,并且通过使所述第一屏幕和所述第二屏幕组合而生成所述待显示的屏幕。

Description

渲染***、渲染服务器及其控制方法
技术领域
本发明涉及一种渲染***、渲染服务器、其控制方法、程序以及记录媒体,且确切地说涉及一种用于通过在经由网络连接的多个装置之间共享渲染处理而生成一个屏幕的技术。
背景技术
能够进行网络连接的个人计算机(PC)等客户端装置已变得越来越普遍。随着该装置的普遍使用,因特网的网络人口也不断增加。使用因特网的各种服务近来已被开发用于网络用户,并且还提供游戏等娱乐服务。
用于网络用户的服务中的一者是多用户在线网络游戏,例如,MMORPG(大型的多玩家在线角色扮演游戏)。在多用户在线网络游戏中,用户将其正在使用的客户端装置连接到提供游戏的服务器,由此与使用连接到服务器上的另一客户端装置的另一用户玩对战游戏或团队游戏。
在一般的多用户在线网络游戏中,每个客户端装置将游戏渲染所必需的数据发送到服务器/从服务器接收游戏渲染所必需的数据。客户端装置使用渲染所必需的接收数据执行渲染处理并且将生成的游戏屏幕呈现到连接到客户端装置上的显示装置,由此向用户提供游戏屏幕。用户通过操作输入界面已输入的信息被发送到服务器且用于在服务器中计算处理或被传输到连接到服务器上的另一客户端装置。
然而,使客户端装置能够执行渲染处理的一些网络游戏需要用户使用具有足够渲染性能的PC或专用游戏机。因此,网络游戏(一个内容)的用户数目取决于该内容所需的客户端装置的性能。当然,高性能装置非常昂贵且可以拥有该装置的用户数目是有限的。也就是说,增加需要高渲染性能的游戏(例如,提供漂亮图形的游戏)的用户数目是非常困难的。
然而近年来,还提供用户可玩而不需要取决于处理能力(例如,客户端装置的渲染性能)的游戏。在第2009/138878号国际公开案中所述的游戏中,服务器获取在客户端装置中所引起的操作信息,且将使用该信息通过执行渲染处理而获得的游戏屏幕提供给客户端装置。
上述第2009/138878号国际公开案描述了服务器对将要提供给客户端装置的游戏屏幕进行渲染,且将渲染的游戏屏幕传递到客户端装置。也就是说,客户端装置可以通过接收及回放由服务器中执行的渲染处理生成的游戏屏幕而显示该游戏屏幕。然而,迄今为止未披露在多个装置之间共享渲染处理的实用方法。
发明内容
考虑上述常规问题而提出本发明。本发明提供一种渲染***、渲染服务器、其控制方法、程序以及记录媒体,其通过在多个装置之间共享渲染处理而有效地执行对一个屏幕的渲染处理。
在本发明的第一方面,本发明提供一种渲染***,所述渲染***在第一装置与第二装置之间划分和执行在显示构件上待显示的屏幕的渲染处理,所述第一装置包括:第一渲染构件,用于基于用于确定待显示的屏幕的被渲染内容的信息生成第一屏幕,在所述第一屏幕上对在待显示的屏幕上将要渲染的渲染对象中的一些渲染对象进行渲染;屏幕接收构件,用于接收由第二装置生成的第二屏幕且在所述第二屏幕上对渲染对象进行渲染(在待显示的屏幕上将要渲染的渲染对象中的一些渲染对象除外);以及组合构件,用于通过使由第一渲染构件生成的第一屏幕和由屏幕接收构件接收的第二屏幕组合来生成待显示的屏幕,且所述第二装置包括:第二渲染构件,用于基于用于确定被渲染内容的信息生成第二屏幕;以及屏幕传输构件,用于将由第二渲染构件生成的第二屏幕传输到第一装置。
在本发明的第二方面,本发明提供一种渲染服务器,用于对在待显示屏幕上将要渲染的渲染对象中的一些渲染对象进行渲染,所述待显示屏幕显示在连接到客户端装置的显示构件上,所述服务器包括:渲染构件,用于基于确定待显示的屏幕的被渲染内容所需的信息生成供应屏幕(providing screen),在所述供应屏幕上对一些渲染对象进行渲染;以及传输构件,用于将由渲染构件生成的供应屏幕传输到客户端装置。
从以下参考附图的示例性实施例的描述中,本发明的其他特征变得显而易见。
附图说明
图1是示出根据本发明实施例的渲染***的***配置的图;
图2是示出根据本发明实施例的PC 100的功能布置的框图;
图3是示出根据本发明实施例的渲染服务器200的功能布置的框图;
图4是例示通过根据本发明实施例的渲染服务器200执行的游戏处理的流程图;
图5是例示通过根据本发明实施例的渲染服务器200执行的服务器端渲染处理的流程图;
图6是例示通过根据本发明实施例的PC 100执行的屏幕生成处理的流程图;
图7是根据本发明实施例的用于说明与背景对象的渲染相联系的背景纹理与背景模型之间的关系的图;
图8是根据本发明实施例的用于确定背景纹理的表;以及
图9是根据本发明实施例的用于说明针对第二屏幕生成的掩模数据的图。
具体实施方式
下文中将参考附图来详细描述本发明的示范性实施例。应注意,下文将进行描述的一个实施例将说明其中本发明作为渲染***的实例应用于PC 100和渲染服务器200的实例。在此实施例中,与通过渲染服务器200执行的游戏程序相关联的屏幕的渲染处理以包含在屏幕中的渲染对象为单位在PC 100与渲染服务器200之间进行划分。然而,本发明适用于任意的装置和***,所述装置和***可以执行与一个屏幕相关联的渲染处理,同时在多个装置之间划分渲染处理。
<渲染***的配置>
图1示出根据本发明实施例的渲染***的***配置。
如图1所示,PC 100和渲染服务器200经由因特网等网络300连接。在此实施例中,在通过渲染服务器200执行的游戏程序中,与屏幕(与游戏程序(游戏屏幕)相关联)有关的渲染处理被处理,同时在PC 100与渲染服务器200之间进行划分。
具体而言,对于一个屏幕,PC 100经由网络300从渲染服务器200接收确定屏幕的被渲染内容所需的信息,并且生成第一屏幕,在所述第一屏幕上,对包含在屏幕中的渲染对象的背景对象(与场景的背景相对应)进行渲染。
在三维场景(例如,游戏屏幕)的渲染处理中,风景的渲染对象(例如,山、云等)以及远离相机(视点)的类似者并非总是通过将纹理应用到单个三维模型中而进行渲染。实际上,这些渲染对象被制备为,例如,二维图像的纹理并且被呈现。这是出于减少渲染处理的计算量的目的。另外,这是由使用三维模型的低必要性引起的,因为远距离的对象难以进行三维识别。也就是说,在渲染处理中,远距离风景等背景可以通过仅将背景的纹理应用到简单的三维模型上来表示。因此,用于背景对象的渲染处理并不需要较高的渲染性能。也就是说,背景对象的渲染可以通过具有普通渲染性能的GPU来执行,所述GPU能够渲染简单的三维模型。因此,在此实施例的渲染***中,背景对象的渲染被分配到PC 100,所述PC 100具有渲染性能低于渲染服务器200的GPU。
渲染服务器200生成第二屏幕,在所述第二屏幕上,对渲染对象(前景对象)而不是包含在屏幕中的彼等者的背景对象进行渲染,并且经由网络300将生成的第二屏幕传输到PC 100。随后,PC 100通过使接收到的第二屏幕和生成的第一屏幕组合而生成待显示的游戏屏幕,并且将生成的游戏屏幕输出到连接的显示装置。
如上所述,在此实施例的渲染***中,对于一个屏幕的渲染处理,包含在屏幕中的渲染对象被分类为背景对象和前景对象,并且对渲染对象的每一者的渲染处理在两个装置之间(PC 100与渲染服务器200)进行划分。由相应装置渲染的屏幕被组合且随后最终生成屏幕,在所述屏幕上对所有渲染对象进行渲染。
应注意,在此实施例中,PC 100被描述为连接到渲染服务器200上的客户端,但本发明不限于此种特定实施例。例如,连接到渲染服务器200上的客户端装置是具有渲染处理能力的装置,例如,家用游戏机、便携式游戏机、移动电话、PDA、平板电脑。
<PC 100的布置>
图2是示出根据本发明实施例的PC 100的功能布置的框图。
CPU 101控制包含在PC 100中的相应块的操作。具体而言,CPU 101通过读出记录在(例如)ROM 102或记录媒体106中的屏幕生成处理或类似者的操作程序、将读出程序提取到RAM 103上,以及执行提取的程序来控制相应块的操作。
ROM 102是,例如,可重写的非易失性存储器。ROM 102存储信息,所述信息例如,除在PC 100中的相应块的操作程序外还包含需要用于相应块的操作的常数。
RAM 103是易失性存储器。RAM 103不仅用作操作程序的提取区域,而且还用作用于临时存储中间数据的存储区域,所述中间数据是在包含在PC 100中的相应块的操作期间的输出以及类似者。
GPU 104生成将要显示在显示单元108(稍后将进行描述)上的游戏屏幕。作为游戏屏幕的渲染区域的视频存储器(VRAM)105连接到GPU 104上。此外,GPU 104具有GPU存储器(未图示)。在从CPU 101接收渲染指令时,GPU 104获取与该渲染指令相关联的渲染对象的数据并且将获取的数据存储在GPU存储器中。随后,GPU 104根据渲染指令渲染在连接的VRAM 105上的渲染对象。在此实施例中,GPU 104生成第一屏幕,在所述第一屏幕上,仅对包含在待显示的游戏屏幕中的渲染对象的背景对象进行渲染。
记录媒体106是,例如,HDD或SSD等的记录装置,所述装置可拆卸地连接到PC 100上。在此实施例中,假设除屏幕生成处理或类似者的操作程序外,记录媒体106还从渲染服务器200记录将要在游戏屏幕上进行渲染的渲染对象的接收到的模型数据(或顶点数据和线连接数据)。在此实施例中,PC 100对包含在待显示的游戏屏幕中的渲染对象的背景对象进行渲染。在此实施例中,通过将远景纹理应用到天球模型上而对背景对象进行渲染。因此,此实施例的记录媒体106记录天球模型,所述天球模型从渲染服务器200中被接收并且用于背景对象的渲染处理中。
应注意,此实施例的以下描述将在以下假设下给出:用于背景对象的渲染的天球模型从渲染服务器200被分配到PC 100。然而本发明并不限于此。也就是说,用于背景对象的渲染的天球模型的数据可以被提前记录在PC 100中,或者可以使用PC 100中的渲染处理中的原始设置针对每个帧而生成。以下描述将在以下假设下给出:通过将背景纹理应用到天球模型上而对背景对象进行渲染。然而,天球模型除外的模型可以用作背景纹理所应用的模型。
通信单元107是包含在PC 100中的通信接口。通信单元107执行与经由网络300连接的另一装置(例如,渲染服务器200)的数据通信。当PC 100传输数据时,通信单元107将数据转换成在其本身与网络300或传输目标装置之间指定的数据传输格式,并且将数据传输到传输目标装置。此外,当PC 100接收数据时,通信单元107将经由网络300接收到的数据转换成可以通过PC 100读取的任意数据格式,并且将转换的数据存储在(例如)RAM 103中。
应注意,此实施例的以下描述将在以下假设下给出:PC 100和渲染服务器200经由网络300连接。然而,可以容易地预期,例如,PC 100和渲染服务器200可以使用缆线直接连接。或者,PC 100和渲染服务器200可以经由另一个装置连接。
显示单元108是,例如,LCD监视器等显示装置,所述显示装置连接到PC 100上。显示单元108将用于显示输入游戏屏幕的控制显示在显示区域上。应注意,显示单元108可以是内置于PC 100(例如,膝上型PC)中的显示装置,或者可以是使用缆线外部连接到PC 100上的显示装置。
操作输入单元109是,例如,鼠标、键盘以及包含在PC 100中的游戏板等的用户接口。当操作输入单元109检测到用户已在用户接口上进行操作时,所述操作输入单元将与该操作对应的控制信号输出到CPU 101。
<渲染服务器200的布置>
图3是示出根据本发明实施例的渲染服务器200的功能布置的框图。
服务器CPU 201控制包含在渲染服务器200中的相应块的操作。具体而言,服务器CPU 201通过读出记录在(例如)服务器ROM 202或服务器记录媒体206中的游戏处理和服务器端渲染处理的操作程序、将读出程序提取到服务器RAM 203上,以及执行提取的程序来控制相应块的操作。
服务器ROM 202是,例如,可重写的非易失性存储器。服务器ROM 202存储信息,所述信息例如,除服务器端的渲染处理以及类似者的操作程序外还有包含需要用于在渲染服务器200中的相应块的操作的常数。
服务器RAM 203是易失性存储器。服务器RAM 203不仅用作操作程序的提取区域,而且还用作用于临时存储中间数据的存储区域,所述中间数据是在包含在渲染服务器200中的相应块的操作期间的输出以及类似者。
服务器GPU 204生成屏幕(第二屏幕),在所述屏幕上,对渲染对象而不是包含在游戏屏幕中的彼等者的背景对象进行渲染,所述渲染对象与将要显示在PC 100的显示单元108上的游戏屏幕相关联。服务器VRAM 205连接到服务器GPU 204上。在从服务器CPU 201接收渲染指令时,服务器GPU 204接收与该渲染指令相关联的渲染对象的数据并且将获取的数据存储在GPU存储器中。当服务器GPU 204在连接的服务器VRAM 205上执行渲染时,所述服务器GPU 204将渲染对象提取到GPU存储器上,并且将提取的渲染对象写在服务器VRAM205上。
服务器记录媒体206是,例如,HDD等记录装置,所述装置可拆卸地连接到渲染服务器200上。在此实施例中,假设服务器记录媒体206记录模型数据、光源信息以及用于在渲染处理中生成屏幕的类似者。应注意,记录在服务器记录媒体206中的模型数据与记录在PC100的记录媒体106中的模型数据相同。
服务器通信单元207是包含在渲染服务器200中的通信接口。在此实施例中,服务器通信单元207与经由网络300连接的另一装置(例如,PC 100)执行数据通信。应注意,服务器通信单元207根据如通信单元107中的通信规范执行数据格式转换。
<游戏处理>
下文将参考图4所示的流程图详细描述此实施例的渲染***的基本游戏处理,所述基本游戏处理在具有前述布置的渲染服务器200上执行。与此流程图对应的处理可以在服务器CPU 201读出记录在(例如)服务器ROM 202中的对应处理程序、将读出的程序提取到服务器RAM 203上,以及执行提取的程序时实施。应注意,以下描述将在以下假设在给出:例如,当与由渲染服务器200提供的游戏内容对应的应用执行在PC 100上,且用户登录渲染服务器200时,开始此游戏处理。对于游戏的每个帧重复执行此游戏处理。
应注意,由此实施例的渲染服务器200提供的游戏内容通过使用指示出与游戏屏幕对应的相机的位置和方向的信息(相机参数)对三维场景进行渲染而提供游戏屏幕。假设包含在与此实施例的游戏内容相关联的三维场景中的渲染对象可以被分类成背景对象和前景对象。此外,假设背景对象可以通过将背景纹理应用到如上所述的简单三维模型上进行渲染。
服务器CPU 201在步骤S401中确定限定游戏屏幕的相机的位置和方向是否已发生变化。具体而言,服务器CPU 201确定服务器通信单元207是否接收用以改变相机的位置和方向的操作输入的信息,该输入在PC 100上执行。如果服务器CPU 201确定相机的位置和方向已发生变化,那么服务器CPU 201将过程前进到步骤S402;否则,服务器CPU 201将过程前进到步骤S403。
在步骤S402中,基于接收到的用以改变相机的位置和方向的操作输入的信息,服务器CPU 201更新指示出相机的位置和方向的信息(渲染相机参数),该信息被存储在,例如,服务器RAM 203中。
在步骤S403中,服务器CPU 201规定待渲染的游戏屏幕的背景纹理。如上所述,在此实施例的渲染***中,分别用于背景对象和前景对象的渲染过程分别在PC 100与渲染服务器200之间进行划分和执行。在这些渲染过程中,由于PC 100经分配以执行背景对象的渲染过程,因此在此步骤中,服务器CPU 201规定在PC 100中用于背景对象的渲染的背景纹理。
(背景纹理和背景模型)
下文将参考附图描述用于背景对象的渲染的背景纹理与背景模型之间的关系,背景对象的渲染在此实施例的渲染***的PC 100上执行。
如上所述,在三维场景的渲染处理中,通过将背景纹理应用到简单模型上,背景通常被渲染为背景对象。尽管在此实施例中模型(背景模型)具有多种形状,背景纹理被应用到每个所述模型上,但是使用天球模型700,如图7所示,所述天球模型位于作为一个视点的相机701的位置的中心。应用到天球模型的背景纹理是以360°表示整个圆周的纹理。例如,当基于待操作的角色的位置和方向确定相机位置时,纹理包括围绕待操作的角色的全部背景。因此,当确定相机的方向时,与根据此方向的整个圆周背景纹理的区域对应的图像702在屏幕上被渲染为背景。在这种情况下,包含在背景纹理中的风景图以及类似者根据天球的半径歪曲,以使得当从位于天球模型的中心处的相机观看时,能够准备地表达,例如,建筑物的轮廓以及山的脊线。
应注意,由于整个圆周背景纹理被应用到位于相机中心的天球模型上,因此当仅发生相机的旋转时,CPU 101不需要更新背景纹理。此外,当远景被呈现表示为背景时,CPU101不需要更新背景纹理,即使其对应于待操作角色的移动改变相机的位置和方向。也就是说,由于相对于从相机到表示为背景的位置的距离,相机的移动距离非常小,因此CPU 101不需要更新背景纹理,以在背景的视觉方面未显示变化。事实上,尽管相机位置包含在特定场中,但是通常可以将相同的背景纹理应用到背景对象。
另一方面,背景纹理在以下情况下发生变化。例如,当在游戏内容中表示时间的流逝时,背景纹理可根据(例如)在内容中表示的时区(上午、白天、晚上等等;例如,如果实际时间中的一小时被分配为内容中的一天,那么在每个时间段分别对时区进行分配,所述时间段通过将实际时间中的一小时相等地划分成三份而进行限定)变化。此外,当相机在风景(例如,从山到森林)被表示为发生变化的场之间移动时,可改变背景内容。此外,在从相机到表示为背景的位置的距离大于预定距离(例如,中距离)的场中,背景纹理可对应于相机的移动(例如,当相机的移动量不小于预定值时)进行更新。
以此方式,在此步骤中,服务器CPU 201根据渲染相机参数规定用于PC 100中的背景对象的渲染的背景纹理。具体而言,服务器CPU 201涉及存储在,例如,服务器记录媒体206中的背景纹理确定表格,并且根据相机参数获取背景纹理的信息。背景纹理确定表格(例如)在图8中示出。
如图8所示,背景纹理确定表格存储以下参数:
●纹理ID;
●相机所定位的场;
●基于内容的时区;以及
●纹理存储位置。
服务器CPU 201读出存储在服务器RAM 203中的渲染相机参数,并且根据相机位置的信息规定包括相机的场。服务器CPU 201涉及当前基于内容的时区,并且根据背景纹理确定表格规定用于PC 100中的背景对象的渲染的背景纹理。
应注意,此实施例的以下描述将在以下假设下给出:为了简单起见,背景对象的被渲染内容通过仅改变背景纹理而变化。然而,可以在不改变背景纹理的情况下表示出从相机到表示为背景的位置的距离中的变化。例如,背景与相机之间的距离变化可以通过改变天球模型的半径来表示,背景纹理被应用到所述天球模型。具体而言,为了表示对背景的存取,增加天球模型的半径以放大包含在待渲染的屏幕中的背景的图像。
在步骤S404中,服务器CPU 201将在步骤S403中规定的背景纹理、作为三维模型的天球模型(应用有背景纹理)以及渲染相机参数传输到PC 100。具体而言,服务器CPU 201从服务器RAM 203或服务器记录媒体206读出这些信息,将这些消息传递到服务器通信单元207,并且控制服务器通信单元207以将这些消息传输到PC 100。
应注意,当如上所述渲染相机参数中的相机位置位于预定场内时,待渲染的游戏屏幕的背景纹理不会变化。因此,在此步骤中仅可以传输渲染相机参数。也就是说,不需要对于每个帧传输背景纹理和天球模型。例如,在相机位置移动到背景纹理将发生变化的场中时,或者当相机位置的变化量不小于预定量时,可以传输背景纹理和天球模型。或者,背景纹理和天球模型可以预定的帧间隙传输。
在步骤S405中,服务器CPU 201执行服务器端渲染处理以生成第二屏幕,在所述第二屏幕上,根据存储在服务器RAM 203中的渲染相机参数对包含在游戏屏幕中的渲染对象的前景对象,而不是背景对象,进行渲染。
(服务器端渲染处理)
下文中将参考图5中所示的流程图详细描述由此实施例的渲染服务器200执行的服务器端渲染处理。
在步骤S501中,服务器CPU 201规定包含在待渲染的游戏屏幕中的渲染对象(前景对象)。具体而言,服务器CPU 201从服务器RAM 203中读出渲染相机参数,并且涉及在由渲染相机参数限定的世界中的渲染范围的信息。随后,服务器CPU 201基于(例如)分布在所述世界中的渲染对象的布局位置的信息,规定包含在渲染范围内的渲染对象。
应注意,分布在所述世界中的渲染对象的布局位置可以取决于时间变化(例如,将要在PC 100处进行操作的角色的移动指令)而针对每个帧加以变化。也就是说,假设服务器CPU 201针对每个帧更新渲染对象的布局位置的信息,并且随后在此步骤中规定包含在游戏屏幕中的渲染对象。
在步骤S502中,服务器CPU 201根据由预定渲染顺序确定方法确定的渲染顺序选择待渲染的渲染对象。随后,服务器CPU 201将与渲染对象相关的渲染指令传递到服务器GPU 204。此外,服务器CPU 201读出渲染对象的模型数据(或顶点数据和线连接数据)和纹理数据、游戏屏幕中的光源数据,以及来自服务器记录媒体206的渲染对象的位置/旋转信息参数,并且将这些数据传递到服务器GPU 204。
在步骤S503中,在服务器CPU 201的控制下,服务器GPU 204根据选定的渲染对象的位置/旋转信息参数使存储在GPU存储器中的模型数据移动和旋转。具体而言,服务器GPU204限定空间坐标,其与用于选定的渲染对象的相应顶点的位置/旋转信息参数相对应。
在步骤S504中,在服务器CPU 201的控制下,服务器GPU 204使用存储在GPU存储器中的纹理数据,将纹理映射应用到已在步骤S503中进行移动和旋转的模型数据的相应多边形上。
在步骤S505中,服务器GPU 204将考虑光源数据的阴影处理应用到已在步骤S504中应用纹理映射的渲染对象的模型上,并且在服务器CPU 201的控制下而在服务器VRAM205的帧缓冲器上对该模型进行渲染。
服务器CPU 201在步骤S506中确定通过服务器GPU 204将包含在渲染范围内的所有前景对象渲染到服务器VRAM 205上是否完成。如果服务器CPU 201确定已完成将所有渲染对象渲染到服务器VRAM 205上,那么服务器CPU 201将过程前进到步骤S507;否则,服务器CPU 201将过程返回到步骤S502。
在步骤S507中,服务器GPU 204在服务器CPU 201的控制下生成与生成的第二屏幕相对应的掩模数据。具体而言,如图9所示,由于没有背景对象在第二屏幕900上进行渲染,所述第二屏幕通过上述过程在服务器VRAM 205上进行渲染,直到步骤S506为止,因此屏幕中的像素包括未进行渲染的像素901。在此实施例中,当PC 100执行屏幕生成处理(下文将进行描述)时,通过使通过渲染背景对象获得的第一屏幕与第二屏幕组合而生成最终显示在PC 100中的显示装置上的游戏屏幕。在这种情况下,在第二屏幕上进行渲染的前景对象被覆盖在其上的背景对象经过渲染的第一屏幕上。
因此,在此实施例中,渲染服务器200生成第二屏幕的掩模数据910并且将该掩模数据传输到PC 100,如图9所示,以便向PC 100通知像素,其中没有前景对象在第二屏幕上进行渲染。在掩模数据中,像素值指示出用于组合的第二图像的不透明值(阿尔法值)。例如,每个像素的像素值被标准化到0至1的范围。也就是说,在像素901的位置处的像素值为“0”,任何前景对象在该位置处都未在前景对象的渲染处理中进行渲染。且在像素902的位置处的像素值为“1”,任何前景对象在该位置处都进行渲染。应注意,当前景对象包括半透明对象时,掩模数据可参考相应像素的阿尔法值集合生成。
以此方式,通过执行此实施例的服务器端渲染处理,渲染服务器200生成第二屏幕,在所述第二屏幕上,对包含在提供到PC 100的游戏屏幕中的渲染对象的背景对象除外的前景对象进行渲染。尽管取决于待提供的游戏内容,但是对于被渲染为前景对象的渲染对象,通常需要执行大量的计算负载处理,例如,模型数据的移动或旋转处理及纹理化和描影法的应用,如上所述。通过在渲染服务器200上执行前景对象的这些渲染处理,此实施例的渲染***在PC 100与渲染服务器200之间达到渲染过程的负载平衡。
在掩模数据的生成完成之后,服务器CPU 201终止服务器端渲染处理并且将过程返回到游戏处理。
在步骤S406中,服务器CPU 201将第二屏幕及与第二屏幕相对应的掩模数据传输到PC 100。具体而言,服务器CPU 201从服务器VRAM 205读出第二屏幕和掩模数据,将它们传递到服务器通信单元207,并控制服务器通信单元207以将第二屏幕和掩模数据传输到PC100。在传输之后,服务器CPU 201终止与当前帧相关联的游戏处理。
<屏幕生成处理>
下文中将参考图6中所示的流程图实际描述用于生成游戏屏幕的屏幕生成处理,该处理由此实施例的PC 100执行。对应于此流程图的处理可在CPU 101读出记录在(例如)记录媒体106中的对应的处理程序、将读出程序提取到RAM 103上,并且执行提取的程序时实施。应注意,以下描述将在以下假设下给出:此屏幕生成处理是在用户输入与由PC 100处的渲染服务器200提供的游戏内容相对应的应用的执行指令时开始的。
CPU 101在步骤S601中确定是否从渲染服务器200中接收渲染相机参数,所述渲染相机参数用于生成待渲染的第一屏幕(其上的背景对象经过渲染的一个屏幕)并且对应于确定被渲染内容所需的信息。具体而言,CPU 101确定通信单元107是否从渲染服务器200接收当前帧的渲染相机参数。如果CPU 101确定接收渲染相机参数,那么CPU 101将渲染相机参数存储在RAM 103中,并且随后将过程前进到步骤S602。另一方面,如果CPU 101确定未接收渲染相机参数,那么CPU 101重复此步骤的过程。
CPU 101在步骤S602中确定是否与渲染相机参数一起接收背景纹理和天球模型中的至少一者。如果CPU 101确定接收背景纹理和天球模型中的至少一者,那么CPU 101将过程前进到步骤S603;否则,将过程前进到步骤S604。
在步骤S603中,CPU 101使用新接收的背景纹理和天球模型中的至少一者更新已接收到的存储在RAM 103中的对应数据,并且存储更新后的数据。
在步骤S604中,CPU 101使用渲染相机参数、背景纹理以及存储在RAM 103中的天球模型对第一屏幕进行渲染。具体而言,CPU 101从RAM 103中读出天球模型和背景纹理,并且将所述天球模型和背景纹理传递到GPU 104。GPU 104将背景纹理应用到天球模型上,并且根据渲染相机参数对包含在VRAM 105上作为第一屏幕的屏幕中的范围进行渲染。
CPU 101在步骤S605中确定是否从渲染服务器200中接收第二屏幕和第二屏幕的掩模数据。如果CPU 101确定接收第二屏幕和掩模数据,那么CPU 101将数据存储在RAM 103中,并且随后将过程前进到步骤S606。如果CPU 101确定未接收第二屏幕和掩模数据,那么CPU 101重复此步骤的过程。
在步骤S606中,CPU 101组合第一屏幕和第二屏幕,以在(例如)VRAM 105上生成将要显示在显示单元108上的最终游戏屏幕。具体而言,CPU 101从RAM 103中读出第二屏幕的数据和掩模数据,并且将这些数据传递到GPU 104。随后,例如,GPU 104参考掩模数据在VRAM 105上通过将第二屏幕覆盖在第一屏幕上而生成游戏屏幕。
在步骤S607中,CPU 101将在步骤S606中生成的最终游戏屏幕传递到显示单元108,并且控制显示单元108以将所述游戏屏幕显示在显示屏幕上。
如上文所述,此实施例的渲染***可以生成游戏屏幕,同时将游戏屏幕的渲染处理划分成第一屏幕的渲染处理和第二屏幕的渲染处理,在所述第一屏幕上仅对背景对象进行渲染,在所述第二屏幕上对渲染对象而不是背景对象进行渲染。也就是说,在渲染处理中,游戏屏幕可以单独地生成第二屏幕,对此需要复杂的三维模型和照明计算,从而需要较高的渲染性能;以及第一屏幕,在所述第一屏幕上,背景纹理被应用到简单的三维模型上。也就是说,在渲染处理中,需要高渲染性能的第二屏幕的生成被分配给渲染服务器,从而提供独立于客户端装置的渲染性能的高质量游戏屏幕。
应注意,此实施例已说明取决于渲染对象是否是背景对象,游戏屏幕的渲染过程以渲染对象为单位在PC 100与渲染服务器200之间进行划分和执行,然而,本发明不限于此类具体实施例。本发明适用于一种渲染***,所述渲染***可通过以包含在游戏屏幕中的渲染对象为单位而划分和执行游戏屏幕的渲染过程,并且通过用简单的组合处理组合多个获得的屏幕而生成游戏屏幕。
当包含在游戏屏幕中的渲染对象取决于渲染对象是否是如此实施例中的背景对象而进行分类时,在前景对象的渲染处理中,背景对象不会影响隐面(hidden-surface)处理。也就是说,由于前景对象的所有渲染对象存在于背景对象的前部,因此前景对象的渲染处理不需要考虑由于利用背景对象的深度排序引起的任何阻塞。因此,通过渲染背景对象获得的第一屏幕及通过渲染前景对象获得的第二屏幕维持对于待渲染的渲染对象的深度排序。也就是说,通过仅覆盖两个屏幕,可以生成与当同时对所有渲染对象进行渲染时获得的游戏屏幕等效的游戏屏幕。
另一方面,例如,当包含在第二屏幕中的渲染对象定位成比包含在第一屏幕中的渲染对象更加靠近相机时,需要考虑相应像素的深度值以使第一屏幕和第二屏幕组合。也就是说,由于在生成游戏屏幕之后,相应像素的深度值需要进行比较,因此需要用于PC 100中的屏幕组合处理的处理时间被不必要地延长。在此实施例的渲染***中,在执行渲染处理之后,包含在游戏屏幕中的渲染对象取决于渲染对象是否是背景对象而进行分类,以便旨在减少此类组合处理中的计算量。
如上所述,本发明适用于以下情况:对包含在游戏屏幕中的渲染对象进行分类和渲染,以使得第一屏幕的渲染处理不考虑包含在第二屏幕中的渲染对象的任何隐面处理。也就是说,本发明并不限于背景对象并且适用于以下情况:渲染对象根据到达相机的距离进行分类,以便不需要任何隐面处理,并且当多个装置分别渲染分类的渲染对象时获得的屏幕经组合以生成一个屏幕。在这种情况下,待分类的渲染对象的数目可以取决于具有低渲染性能的GPU的装置的渲染处理能力而增加/减少。
如上文所述,本发明的渲染***可有效地执行用于一个屏幕的渲染处理,同时在多个装置之间划分渲染处理。具体而言,渲染***执行待显示的屏幕的渲染处理,同时在第一装置与第二装置之间划分该处理。第一装置基于用于确定待显示的屏幕的被渲染内容的信息生成第一屏幕,在所述第一屏幕上对在屏幕上将要渲染的渲染对象中的一些渲染对象进行渲染。第二装置生成第二屏幕,在所述第二屏幕上对渲染对象(在待显示的屏幕上将要渲染的渲染对象中的一些渲染对象除外)进行渲染。第一装置从第二装置接收第二屏幕,并且使第一屏幕和第二屏幕组合,由此生成待显示的屏幕。
如上所述,由于用于一个屏幕的渲染处理可以渲染对象为单位通过多个装置单独地执行,因此具有稳定质量的游戏屏幕可以独立于客户端装置的渲染性能而提供。
其他实施例
虽然已经参考示例性实施例描述了本发明,但是应理解本发明并不局限于所揭示的示例性实施例。所附权利要求书的范围应被赋予最广义的解释,以便涵盖所有此类修改以及等效的结构和功能。
本申请案主张2011年11月7日递交的第61/556,375号美国专利临时申请案以及2012年9月7日递交的第2012-197875号日本专利申请案的权益,上述申请案以引用的方式全文并入本文中。

Claims (15)

1.一种渲染***,所述渲染***在第一装置与第二装置之间划分并且执行在显示构件上待显示的屏幕的渲染处理,
所述第一装置包括:
第一渲染构件,用于基于用于确定所述待显示的屏幕的被渲染内容的信息生成第一屏幕,在所述第一屏幕上,对在所述待显示的屏幕上将要渲染的渲染对象中被分类为第一类型的渲染对象进行渲染;
屏幕接收构件,用于接收由所述第二装置生成的第二屏幕且在所述第二屏幕上对渲染对象进行渲染,所述渲染对象是排除在所述待显示的屏幕上所述将要渲染的渲染对象中的所述第一类型的渲染对象并且被分类为第二类型;以及
组合构件,用于通过使由所述第一渲染构件生成的所述第一屏幕和由所述屏幕接收构件接收的所述第二屏幕组合来生成待显示的所述屏幕,并且
所述第二装置包括:
第二渲染构件,用于基于用于确定所述被渲染内容的所述信息生成所述第二屏幕;以及
屏幕传输构件,用于将由所述第二渲染构件生成的所述第二屏幕传输到所述第一装置,
其中,用于确定所述被渲染内容的所述信息包括指示界定所述待显示的屏幕的相机的位置和方向的信息,
依据指示所述相机的位置和方向的信息来完成所述第一类型和所述第二类型的分类,使得第二类型的渲染对象的渲染不需要基于第一类型的渲染对象的任何隐面处理;
其中所述第二渲染构件执行渲染处理不考虑所述第一渲染构件的渲染结果。
2.根据权利要求1所述的***,其中所述第二渲染构件与所述第二屏幕一起生成用于所述第二类型的渲染对象的掩模数据,
所述屏幕传输构件将所述第二屏幕和所述掩模数据传输到所述第一装置,以及
所述组合构件参考所述掩模数据将所述第二屏幕覆盖在所述第一屏幕上。
3.根据权利要求1所述的***,其中所述第二装置进一步包括:
获取构件,用于获取用于确定所述被渲染内容的所述信息;以及
传输构件,用于将由所述获取构件获取的用于确定所述被渲染内容的所述信息传输到所述第一装置,
其中所述第一渲染构件基于从所述第二装置接收到的用于确定所述被渲染内容的所述信息生成所述第一屏幕。
4.根据权利要求1所述的***,
其中所述第一类型的渲染对象是所述待显示的屏幕上的背景对象。
5.根据权利要求4所述的***,其中所述第二装置进一步包括部分传输构件,用于基于用于确定所述被渲染内容的所述信息将所述背景对象的纹理数据传输到所述第一装置,
其中所述第一渲染构件使用从所述第二装置接收到的所述背景对象的所述纹理数据及所述背景对象的模型数据渲染所述第一屏幕。
6.根据权利要求5所述的***,其中所述背景对象的所述模型数据是天球模型。
7.根据权利要求5或6所述的***,其中当用于确定所述被渲染内容的所述信息满足预定条件时,所述部分传输构件传输所述背景对象的所述纹理数据。
8.一种渲染服务器,所述渲染服务器用于对在待显示的屏幕上将要渲染的渲染对象中被分类为第二类型的渲染对象进行渲染,所述待显示的屏幕显示在连接到客户端装置的显示构件上,所述服务器包括:
渲染构件,用于基于确定所述待显示的屏幕的被渲染内容所需的信息生成供应屏幕,在所述供应屏幕上对一些渲染对象进行渲染;以及
传输构件,用于将由所述渲染构件生成的所述供应屏幕传输到所述客户端装置,
其中,用于确定所述被渲染内容的所述信息包括指示界定所述待显示的屏幕的相机的位置和方向的信息,
在屏幕上被渲染而被显示的渲染对象包括被分类为不同于第二类型的第一类型的渲染对象,
在客户端设备上执行针对第一类型的渲染对象的渲染处理,并且
依据指示所述相机的位置和方向的信息来完成所述第一类型和所述第二类型的分类,使得第二类型的渲染对象的渲染不需要基于第一类型的渲染对象的任何隐面处理;
其中所述渲染构件执行渲染处理不考虑针对第一类型的渲染对象的渲染处理的渲染结果。
9.根据权利要求8所述的服务器,其中所述渲染构件与所述供应屏幕一起生成用于所述第二类型的渲染对象的掩模数据,并且
所述传输构件将所述供应屏幕和所述掩模数据传输到所述客户端装置。
10.根据权利要求8所述的服务器,进一步包括:
获取构件,用于获取用于确定被渲染内容的所述信息;以及
信息传输构件,用于将由所述获取构件获取的用于确定所述被渲染内容的所述信息传输到所述客户端装置。
11.根据权利要求8所述的服务器,其中所述第二类型的对象是渲染对象,其在所述待显示的屏幕上从所述将要渲染的渲染对象中排除了背景对象。
12.根据权利要求11所述的服务器,进一步包括部分传输构件,用于基于用于确定所述被渲染内容的所述信息将所述背景对象的纹理数据传输到所述客户端装置。
13.根据权利要求12所述的服务器,其中当用于确定所述被渲染内容的所述信息满足预定条件时,所述部分传输构件传输所述背景对象的所述纹理数据。
14.根据权利要求8所述的服务器,其中用于确定所述被渲染内容的所述信息是指示界定所述待显示的屏幕的相机的位置和方向的信息。
15.一种渲染服务器的控制方法,所述渲染服务器用于对在待显示的屏幕上将要渲染的渲染对象中被分类为第二类型的渲染对象进行渲染,所述待显示的屏幕显示在连接到客户端装置的显示构件上,所述方法包括:
渲染步骤,其中所述渲染服务器的渲染构件基于确定所述待显示的屏幕的被渲染内容所需的信息生成供应屏幕,在所述供应屏幕上对一些渲染对象进行渲染;以及
传输步骤,其中所述渲染服务器的传输构件将在所述渲染步骤中生成的所述供应屏幕传输到所述客户端装置,
其中,用于确定所述被渲染内容的所述信息包括指示界定所述待显示的屏幕的相机的位置和方向的信息,
在屏幕上被渲染而被显示的渲染对象包括被分类为不同于第二类型的第一类型的渲染对象,
在客户端设备上执行针对第一类型的渲染对象的渲染处理,并且
依据指示所述相机的位置和方向的信息来完成所述第一类型和所述第二类型的分类,使得第二类型的渲染对象的渲染不需要基于第一类型的渲染对象的任何隐面处理;
其中所述渲染构件执行渲染处理不考虑针对第一类型的渲染对象的渲染处理的渲染结果。
CN201280054294.5A 2011-11-07 2012-10-31 渲染***、渲染服务器及其控制方法 Active CN103918011B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161556375P 2011-11-07 2011-11-07
US61/556,375 2011-11-07
JP2012197875A JP6181917B2 (ja) 2011-11-07 2012-09-07 描画システム、描画サーバ、その制御方法、プログラム、及び記録媒体
JP2012-197875 2012-09-07
PCT/JP2012/078767 WO2013069654A1 (en) 2011-11-07 2012-10-31 Rendering system, rendering server, control method thereof, program, and recording medium

Publications (2)

Publication Number Publication Date
CN103918011A CN103918011A (zh) 2014-07-09
CN103918011B true CN103918011B (zh) 2018-10-09

Family

ID=48620785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280054294.5A Active CN103918011B (zh) 2011-11-07 2012-10-31 渲染***、渲染服务器及其控制方法

Country Status (7)

Country Link
US (1) US9717988B2 (zh)
EP (1) EP2777022A4 (zh)
JP (1) JP6181917B2 (zh)
KR (1) KR101623288B1 (zh)
CN (1) CN103918011B (zh)
CA (1) CA2853761A1 (zh)
WO (1) WO2013069654A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10092834B2 (en) 2013-05-23 2018-10-09 Kabushiki Kaisha Square Enix Holdings Dynamic allocation of rendering resources in a cloud gaming system
CA2923910C (en) * 2013-09-13 2020-08-25 Square Enix Holdings Co., Ltd. Rendering apparatus for 3d graphics
US9582904B2 (en) 2013-11-11 2017-02-28 Amazon Technologies, Inc. Image composition based on remote object data
US9413830B2 (en) 2013-11-11 2016-08-09 Amazon Technologies, Inc. Application streaming service
US9604139B2 (en) 2013-11-11 2017-03-28 Amazon Technologies, Inc. Service for generating graphics object data
US9805479B2 (en) 2013-11-11 2017-10-31 Amazon Technologies, Inc. Session idle optimization for streaming server
US9578074B2 (en) 2013-11-11 2017-02-21 Amazon Technologies, Inc. Adaptive content transmission
US9634942B2 (en) 2013-11-11 2017-04-25 Amazon Technologies, Inc. Adaptive scene complexity based on service quality
US9641592B2 (en) 2013-11-11 2017-05-02 Amazon Technologies, Inc. Location of actor resources
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
CN104796393A (zh) * 2014-05-30 2015-07-22 厦门极致互动网络技术有限公司 一种基于服务器实时渲染的网络游戏***及方法
CN104991827A (zh) * 2015-06-26 2015-10-21 季锦诚 云游戏中gpu资源共享的方法
CN106887032B (zh) * 2015-12-15 2020-09-29 中国电信股份有限公司 三维场景渲染方法和***以及相关设备
US20170287097A1 (en) * 2016-03-29 2017-10-05 Ati Technologies Ulc Hybrid client-server rendering in a virtual reality system
CN108389245B (zh) * 2018-02-13 2022-11-04 鲸彩在线科技(大连)有限公司 动画场景的渲染方法、装置、电子设备和可读存储介质
CN110837402B (zh) * 2018-08-16 2023-03-31 中国电信股份有限公司 终端屏幕编排方法和***
JP7290852B2 (ja) * 2018-12-07 2023-06-14 国立大学法人東京工業大学 多コンテンツ描画システム及び多コンテンツ描画方法
CN109767466B (zh) * 2019-01-10 2021-07-13 深圳看到科技有限公司 画面渲染方法、装置、终端及对应的存储介质
CN110490965A (zh) * 2019-08-19 2019-11-22 深圳天际云数字技术有限公司 一种3d模型浏览的方法及***
CN117058292B (zh) * 2023-07-28 2024-04-26 北京透彻未来科技有限公司 基于数字病理图像的色阶图渲染***

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683977A (ja) * 1992-08-31 1994-03-25 Fujitsu Ltd 描画方式
GB2267203B (en) 1992-05-15 1997-03-19 Fujitsu Ltd Three-dimensional graphics drawing apparatus, and a memory apparatus to be used in texture mapping
JPH06214555A (ja) * 1993-01-20 1994-08-05 Sumitomo Electric Ind Ltd 画像処理装置
JP3632705B2 (ja) 1994-08-31 2005-03-23 ソニー株式会社 対話型画像提供方法、サーバ装置、提供方法、ユーザ端末、受信方法、画像提供システム、および画像提供方法
JP3533717B2 (ja) 1994-09-27 2004-05-31 松下電器産業株式会社 画像合成装置
JP2000217075A (ja) 1999-01-25 2000-08-04 Toshiba Corp 動画像再生装置と動画像再生方法
US6377257B1 (en) * 1999-10-04 2002-04-23 International Business Machines Corporation Methods and apparatus for delivering 3D graphics in a networked environment
JP3466173B2 (ja) * 2000-07-24 2003-11-10 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、デバイス、方法及びコンピュータプログラム
JP2005284403A (ja) * 2004-03-26 2005-10-13 Olympus Corp 3次元情報出力システム、サーバ並びにクライアント
US8207966B2 (en) 2004-05-26 2012-06-26 Sony Online Entertainment Llc Terrain editor tool for rule-based procedural terrain generation
US8115765B2 (en) 2004-05-26 2012-02-14 Sony Online Entertainment Llc Rule-based procedural terrain generation
US8368686B2 (en) 2004-05-26 2013-02-05 Sony Online Entertainment Llc Resource management for rule-based procedural terrain generation
JP4457840B2 (ja) * 2004-10-08 2010-04-28 日本電気株式会社 3dコンテンツ配信方法、システム、装置、及び、プログラム
US7385614B2 (en) * 2005-03-28 2008-06-10 Silicon Graphics, Inc. Compositing images using logically divided object space
US20080194320A1 (en) * 2005-08-12 2008-08-14 John Walsh Three-Dimensional Gaming System Environments
JP2007060015A (ja) 2005-08-22 2007-03-08 Aiphone Co Ltd インターホンシステム
JP4566120B2 (ja) 2005-11-21 2010-10-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
CN100573656C (zh) * 2006-03-15 2009-12-23 凌阳科技股份有限公司 实时压缩及解压缩的绘图***
US8117617B2 (en) 2007-11-26 2012-02-14 Xerox Corporation Energy-aware print job management
JP2009237680A (ja) * 2008-03-26 2009-10-15 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
EP2364190B1 (en) 2008-05-12 2018-11-21 GameFly Israel Ltd. Centralized streaming game server
WO2011101904A1 (ja) * 2010-02-18 2011-08-25 三菱電機株式会社 グラデーション描画装置
US8731315B2 (en) * 2011-09-12 2014-05-20 Canon Kabushiki Kaisha Image compression and decompression for image matting
CN102724532B (zh) * 2012-06-19 2015-03-04 清华大学 一种平面视频立体化转化方法及使用该方法的***

Also Published As

Publication number Publication date
CN103918011A (zh) 2014-07-09
EP2777022A1 (en) 2014-09-17
KR20140098773A (ko) 2014-08-08
KR101623288B1 (ko) 2016-05-20
JP6181917B2 (ja) 2017-08-16
JP2013099511A (ja) 2013-05-23
US9717988B2 (en) 2017-08-01
EP2777022A4 (en) 2015-09-23
US20140302930A1 (en) 2014-10-09
WO2013069654A1 (en) 2013-05-16
CA2853761A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
CN103918011B (zh) 渲染***、渲染服务器及其控制方法
US20200273196A1 (en) Optimized shadows in a foveated rendering system
CN112037311B (zh) 一种动画生成的方法、动画播放的方法以及相关装置
CA2853212C (en) System, server, and control method for rendering an object on a screen
CN107683449A (zh) 控制经由头戴式显示器呈现的个人空间内容
CN112933599B (zh) 三维模型渲染方法、装置、设备及存储介质
TWI668577B (zh) 渲染設備、其之渲染方法、程式和記錄媒體
CN107852573A (zh) 混合现实社交交互
JP6126221B2 (ja) 画面提供装置、画面提供システム、制御方法、プログラム、及び記録媒体
CN101336123B (zh) 游戏装置及游戏装置的控制方法
EP2058768A1 (en) Image viewer, image displaying method and information storage medium
CN110832442A (zh) 注视点渲染***中的优化的阴影和自适应网状蒙皮
CN109685909A (zh) 图像的显示方法、装置、存储介质和电子装置
CN104915979A (zh) 跨移动平台实现沉浸式虚拟现实的***
CN101966393A (zh) 显示器观看***和基于活动跟踪优化显示器画面的方法
CN101021952A (zh) 一种实现三维视频特效的方法及装置
JP7425196B2 (ja) ハイブリッドストリーミング
CN106604014A (zh) 一种基于移动终端vr观影多人互动的方法及其***
JP2020523691A (ja) 中心窩レンダリングシステムにおける、遅延ライティングの最適化、パーティクルの中心窩適応、及びシミュレーションモデル
CN101336122B (zh) 游戏装置及游戏装置的控制方法
Kuntz et al. The Democratization of VR‐AR
US20220139050A1 (en) Augmented Reality Platform Systems, Methods, and Apparatus
KR102090009B1 (ko) 3차원 영상 콘텐츠를 제공하는 방법 및 프로그램
Abergel et al. Personal hand-held devices and virtual reality passive technologies for digital heritage browsing: Lesson learnt with the KIVI project
Prusten et al. 3D workflow for HDR image capture of projection systems and objects for CAVE virtual environments authoring with wireless touch-sensitive devices

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant