CN110488977B - 虚拟现实显示方法、装置、***及存储介质 - Google Patents

虚拟现实显示方法、装置、***及存储介质 Download PDF

Info

Publication number
CN110488977B
CN110488977B CN201910775571.5A CN201910775571A CN110488977B CN 110488977 B CN110488977 B CN 110488977B CN 201910775571 A CN201910775571 A CN 201910775571A CN 110488977 B CN110488977 B CN 110488977B
Authority
CN
China
Prior art keywords
virtual reality
image
rendering
target area
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910775571.5A
Other languages
English (en)
Other versions
CN110488977A (zh
Inventor
孙玉坤
张硕
苗京花
李文宇
李治富
鄢名扬
范清文
何惠东
张�浩
陈丽莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910775571.5A priority Critical patent/CN110488977B/zh
Publication of CN110488977A publication Critical patent/CN110488977A/zh
Priority to US16/937,678 priority patent/US20210058612A1/en
Application granted granted Critical
Publication of CN110488977B publication Critical patent/CN110488977B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供了一种虚拟现实显示方法、装置、***及存储介质,属于显示技术领域。该方法用于虚拟现实***中的终端,该虚拟现实***包括虚拟现实设备和终端,该方法包括:以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像,通过虚拟现实设备显示第一渲染图像,以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,通过虚拟现实设备显示第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。本申请有助于降低显卡的渲染压力。

Description

虚拟现实显示方法、装置、***及存储介质
技术领域
本申请涉及显示技术领域,特别涉及一种虚拟现实显示方法、装置、***及存储介质。
背景技术
虚拟现实(Virtual Reality,VR)技术是近年来出现的高新技术,其利用计算机硬件、软件和传感器等,建立虚拟现实环境,使用户能够通过VR设备体验虚拟世界并与虚拟世界交互。
VR显示***包括终端和VR设备,终端可以根据人眼的注视区域,通过注视点渲染技术对待显示图像进行注视点渲染,并将渲染后的图像发送给VR设备,以由VR设备显示该渲染后的图像。终端通过注视点渲染技术对待显示图像进行注视点渲染的过程通常包括:对于每一帧待显示图像,终端对该待显示图像中,位于注视区域内的部分进行高分辨率渲染,位于注视区域外的部分进行低分辨率渲染,得到渲染后的图像。
但是,由于对于每一帧待显示图像,终端需要对该待显示图像的整个区域进行渲染,因此,终端的显卡的渲染压力较大。
发明内容
本申请实施例提供了一种虚拟现实显示方法、装置、***及存储介质,有助于降低显卡的渲染压力。所述技术方案如下:
第一方面,提供了一种虚拟现实显示方法,用于虚拟现实***中的终端,所述虚拟现实***包括虚拟现实设备和所述终端,所述方法包括:
以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像;
通过所述虚拟现实设备显示所述第一渲染图像;
以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,所述第一渲染分辨率小于所述第二渲染分辨率,所述第一虚拟现实图像和所述第二虚拟现实图像为相邻的两帧图像;
通过所述虚拟现实设备显示所述第二渲染图像。
可选地,在以第一渲染分辨率对第一虚拟现实图像进行渲染之前,所述方法还包括:
获取目标用户的第一头部姿态信息,所述虚拟现实设备佩戴在所述目标用户的头部;
根据第一视场角和所述第一头部姿态信息,获取所述第一虚拟现实图像;
在以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染之前,所述方法还包括:
获取所述目标用户的第二头部姿态信息;
根据所述第一视场角和所述第二头部姿态信息,获取所述第二虚拟现实图像;
根据所述第二视场角,确定所述第二虚拟现实图像的目标区域。
可选地,所述第二视场角为注视视场角,所述目标区域为注视区域,
所述根据所述第二视场角,确定所述第二虚拟现实图像的目标区域,包括:
基于眼球追踪技术,获取所述目标用户的注视点坐标;
根据所述注视点坐标,确定所述第二虚拟现实图像的所述目标区域。
可选地,在通过所述虚拟现实设备显示所述第二渲染图像之前,所述方法还包括:
对所述第二渲染图像的非目标区域进行补黑,所述第二渲染图像的非目标区域与所述第二虚拟现实图像的非目标区域对应,所述第二虚拟现实图像的非目标区域为所述第二虚拟现实图像中除所述目标区域之外的区域。
可选地,在通过所述虚拟现实设备显示所述第一渲染图像之前,所述方法还包括:对所述第一渲染图像进行虚拟现实处理;
在通过所述虚拟现实设备显示所述第二渲染图像之前,所述方法还包括:对所述第二渲染图像进行虚拟现实处理;
其中,所述虚拟现实处理包括反畸变处理、反色散处理和同步时间扭曲处理中的至少一种。
可选地,所述第一视场角为所述虚拟现实设备的视场角,所述第二视场角为注视视场角,所述第二渲染分辨率为所述虚拟现实设备的屏幕分辨率。
第二方面,提供了一种虚拟现实显示装置,用于虚拟现实***中的终端,所述虚拟现实***包括虚拟现实设备和所述终端,所述装置包括:
第一渲染模块,用于以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像;
第一显示模块,用于通过所述虚拟现实设备显示所述第一渲染图像;
第二渲染模块,用于以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,所述第一渲染分辨率小于所述第二渲染分辨率,所述第一虚拟现实图像和所述第二虚拟现实图像为相邻的两帧图像;
第二显示模块,用于通过所述虚拟现实设备显示所述第二渲染图像。
可选地,所述装置还包括:
第一获取模块,用于获取目标用户的第一头部姿态信息,所述虚拟现实设备佩戴在所述目标用户的头部;
第二获取模块,用于根据第一视场角和所述第一头部姿态信息,获取所述第一虚拟现实图像;
第三获取模块,用于获取所述目标用户的第二头部姿态信息;
第四获取模块,用于根据所述第一视场角和所述第二头部姿态信息,获取所述第二虚拟现实图像;
确定模块,用于根据所述第二视场角,确定所述第二虚拟现实图像的目标区域。
可选地,所述第二视场角为注视视场角,所述目标区域为注视区域,所述确定模块,用于:
基于眼球追踪技术,获取所述目标用户的注视点坐标;
根据所述注视点坐标,确定所述第二虚拟现实图像的所述目标区域。
可选地,所述装置还包括:
补黑模块,用于在通过所述虚拟现实设备显示所述第二渲染图像之前,对所述第二渲染图像的非目标区域进行补黑,所述第二渲染图像的非目标区域与所述第二虚拟现实图像的非目标区域对应,所述第二虚拟现实图像的非目标区域为所述第二虚拟现实图像中除所述目标区域之外的区域。
可选地,所述装置还包括:
第一处理模块,用于在通过所述虚拟现实设备显示所述第一渲染图像之前,对所述第一渲染图像进行虚拟现实处理;
第二处理模块,用于在通过所述虚拟现实设备显示所述第二渲染图像之前,对所述第二渲染图像进行虚拟现实处理;
其中,所述虚拟现实处理包括反畸变处理、反色散处理和同步时间扭曲处理中的至少一种。
可选地,所述第一视场角为所述虚拟现实设备的视场角,所述第二视场角为注视视场角,所述第二渲染分辨率为所述虚拟现实设备的屏幕分辨率。
第三方面,提供了一种虚拟现实显示装置,包括:处理器和存储器,
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现如第一方面任一所述的虚拟现实显示方法。
第四方面,提供了一种虚拟现实显示***,所述虚拟现实***包括:终端和虚拟现实设备,所述终端包括第二方面任一所述的虚拟现实显示装置,或者,所述终端包括第三方面所述的虚拟现实显示装置。
第五方面,提供了一种存储介质,当所述存储介质中的程序由处理器执行时,能够实现如第一方面任一所述的虚拟现实显示方法。
本申请实施例提供的技术方案带来的有益效果包括:
本申请实施例提供的虚拟现实显示方法、装置、***及存储介质,终端以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像,以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。由于终端以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,而并未渲染该另一帧图像的整个区域,因此有助于降低显卡的渲染压力。
附图说明
图1是本申请实施例所涉及的一种实施环境的示意图;
图2是本申请实施例提供的一种图像渲染方法的流程图;
图3是本申请实施例提供的另一种图像渲染方法的流程图;
图4是本申请实施例提供的一种第一渲染图像在屏幕坐标系中的网格图像的示意图;
图5是本申请实施例提供的一种第一渲染图像在视场角坐标系中的网格图像示意图;
图6是本申请实施例提供的一种第一渲染图像的屏幕网格图像的示意图;
图7是本申请实施例提供的一种第一渲染图像的视场角网格图像的示意图;
图8是本申请实施例提供的一种第一渲染图像的示意图;
图9是本申请实施例提供的一种根据第二视场角确定第二虚拟现实的图像的目标区域的方法流程图;
图10是本申请实施例提供的一种补黑后的第二渲染图像的示意图;
图11是本申请实施例提供的一种虚拟现实显示装置的框图;
图12是本申请实施例提供的另一种虚拟现实显示装置的框图;
图13是本申请实施例提供的一种虚拟现实显示装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
目前,注视点渲染技术主要包括多重分辨率渲染(Multi-Res Shading,MRS)技术,透镜匹配渲染(Lens Matched Shading,LMS)技术和可变速率渲染(Variable RateShading,VRS)技术等,上述技术中,终端需要对每一帧图像的整个区域进行渲染,导致终端中的显卡的渲染压力较大。
本申请实施例提供了一种虚拟现实显示方法、装置、***及存储介质,在该方案中,对于每相邻的两帧图像,终端以较低的渲染分辨率对其中一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,可以实现与注视点渲染技术相同的效果,且由于未对另一帧图像的整个区域进行渲染,因此有助于降低显卡的渲染压力。本申请的详细方案请参考下述实施例的描述。
图1是本申请实施例所涉及的一种实施环境的示意图,该实施环境提供一种虚拟现实***10,如图1所示,该虚拟现实***10可以包括终端101和虚拟现实设备102,终端101与虚拟现实设备102可以通过有线网络或无线网络通信连接,该有线网络比如通用串行总线(英文:Universal Serial Bus;简称:USB),无线网络比如无线保真(英文:WIreless-FIdelity;简称:WI-FI)、数据、蓝牙(英文:Bluetooth)或紫蜂(英文:ZigBee)等,本申请实施例对此不作限定。
终端101可以是智能手机、平板电脑、笔记本电脑或台式电脑等,虚拟现实设备102可以是头戴显示设备,例如VR眼镜或VR头盔,虚拟现实设备102中可以设置有姿态传感器,姿态传感器可以采集佩戴该虚拟现实设备102的用户的头部姿态信息。其中,姿态传感器是一种基于微机电***(Micro-Electro-Mechanical System,MEMS)技术的高性能三维运动姿态测量器,其通常包括三轴陀螺仪、三轴加速度计和三轴电子罗盘等辅助运动传感器,姿态传感器利用这些辅助运动传感器实现姿态信息的采集。
在本申请实施例中,终端101可以以第一渲染分辨率对第一虚拟现实图像进行渲染得到第一渲染图像,并通过虚拟现实设备102显示该第一渲染图像,以第二渲染分辨率对第二虚拟现实图像进行渲染得到第二渲染图像,并通过虚拟现实设备102显示该第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像,也即是,终端可以以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,降低显卡的渲染压力,并且实现与注视点渲染技术相同的渲染效果。
图2是本申请实施例提供的一种图像渲染方法的流程图,该方法可以用于图1所示的实施环境中的终端101,如图2所示,该方法可以包括如下步骤:
步骤201、以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像。
步骤202、通过虚拟现实设备显示第一渲染图像。
步骤203、以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。
步骤204、通过虚拟现实设备显示第二渲染图像。
综上所述,本申请实施例提供的虚拟现实显示方法,终端以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像,以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。由于终端以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,而并未渲染该另一帧图像的整个区域,因此有助于降低显卡的渲染压力。
图3是本申请实施例提供的另一种图像渲染方法的流程图,该方法可以用于图1所示的实施环境中的终端101,如图3所示,该方法可以包括如下步骤:
步骤301、获取第一视场角和目标用户的第一头部姿态信息。
其中,第一视场角可以是虚拟现实设备的视场角。可选地,虚拟现实设备可以通过与终端之间的通信连接向终端传输该第一视场角,终端通过接收虚拟现实设备传输的第一视场角,实现对该第一视场角的获取。可选地,虚拟现实设备可以在虚拟现实设备与终端建立通信连接之后,向终端发送第一视场角,或者,终端可以向虚拟现实设备发送第一视场角获取请求,虚拟现实设备在接收到该第一视场角获取请求后,向终端发送第一视场角,本申请实施例对此不做限定。
可选地,虚拟现实设备可以佩戴在目标用户的头部,且虚拟现实设备中设置有姿态传感器,虚拟现实设备可以通过姿态传感器采集目标用户的第一头部姿态信息,并通过与终端之间的通信连接向终端传输该第一头部姿态信息,终端通过接收虚拟现实设备传输的第一头部姿态信息,实现对该第一头部姿态信息的获取。本领域技术人员容易理解,在虚拟现实显示过程中,目标用户的头部姿态信息可以是实时变化的,虚拟现实设备可以实时采集并向终端传输目标用户的头部姿态信息,第一头部姿态信息可以是虚拟现实设备实时采集的头部姿态信息。
步骤302、根据第一视场角和第一头部姿态信息,获取第一虚拟现实图像。
可选地,终端中部署有虚拟相机,终端可以根据第一视场角和第一头部姿态信息,通过虚拟相机对终端的虚拟现实场景进行拍摄,得到第一虚拟现实图像,该第一虚拟现实图像可以包括左眼图像和右眼图像,以便于能够实现三维的虚拟现实显示效果。
在本申请实施例中,终端根据第一视场角和第一头部姿态信息,通过虚拟相机对虚拟现实场景进行拍摄的过程实际上是终端对虚拟现实场景中物体的坐标进行处理的过程,终端可以根据第一视场角和第一头部姿态信息确定转换矩阵和投影矩阵,根据转换矩阵确定虚拟现实场景中物体的坐标,根据虚拟现实场景中物体的坐标和投影矩阵,将虚拟现实场景中的物体投影到二维平面上,从而得到第一虚拟现实图像。
步骤303、以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像。
其中,第一渲染分辨率可以小于虚拟现实设备的屏幕分辨率,终端以第一渲染分辨率对第一虚拟现实图像渲染进行渲染可以降低显卡的渲染压力。
可选地,终端可以将第一虚拟现实图像分割成大小相同的多个图元,并通过光栅化将每个图元转换形片元,根据第一渲染分辨率对多个片元进行渲染,得到第一渲染图像。
步骤304、对第一渲染图像进行虚拟现实处理。
本领域技术人员容易理解,虚拟现实设备包括透镜,透镜在设计和生产过程中存在缺陷,使得人眼通过透镜观察到的图像存在一定程度的变形,从而导致人眼通过虚拟现实设备观察到的图像存在畸变;不同颜色的光线经过透镜时的折射角不同,导致人眼通过虚拟现实设备观察到的图像存在色散。此外,用户的头部姿态信息是实时变化的,终端渲染图像需要一定时间,因此显示图像的时刻用户的头部姿态信息与获取图像的时刻用户的头部姿态信息不同,导致显示的图像存在延迟。
在本申请实施例中,终端可以对第一渲染图像进行虚拟现实处理,该虚拟现实处理可以包括反畸变处理、反色散处理和同步时间扭曲(Time Wrap)处理中的至少一种。其中,终端对第一渲染图像进行反畸变处理,可以使虚拟现实设备显示的图像为反畸变图像,这样一来,人眼通过透镜观察到的图像不存在畸变。终端对第一渲染图像进行反色散处理,可以使虚拟现实设备显示的图像为反色散图像,这样一来,人眼通过透镜观察到的图像不存在色散。终端对第一渲染图像进行同步时间扭曲处理。可以是虚拟现实设备显示的图像不存在延迟。
可选地,终端可以建立虚拟现实设备的屏幕坐标系和视场角坐标系,该屏幕坐标系可以为以虚拟现实设备的透镜的光轴在虚拟现实设备的屏幕上的投影点为坐标原点,以第一方向为y轴正向,第二方向为x轴正向的平面坐标系,该视场角坐标系可以为以虚拟现实设备的透镜的中心点(也即是光轴与透镜平面的交点)为坐标原点,以第三方向为y轴正向,第四方向为x轴正向的平面坐标系,第一方向可以是用户正常佩戴虚拟现实设备时以用户为参考向上的方向,第二方向可以是用户正常佩戴虚拟现实设备时以用户为参考向右的方向,第三方向与第一方向平行,第四方向与第二方向平行。终端可以将第一渲染图像划分成大小相同的多个矩形图元,得到第一渲染图像的屏幕网格图像(也即是第一渲染图像在屏幕坐标系中的网格图像,参考图4),根据第一渲染图像的屏幕网格图像,确定该第一渲染图像的视场角网格图像(也即是第一渲染图像在视场角坐标系中的网格图像,参考图5),该屏幕网格图像不存在畸变,该视场角网格图像存在畸变,从而实现对第一渲染图像的反畸变处理。其中,终端中可以存储有反畸变映射关系,终端根据第一渲染图像的屏幕网格图像,确定该第一渲染图像的视场角网格图像的过程可以包括:终端根据第一渲染图像的屏幕网格图像中的各个图元的顶点的坐标和反畸变映射关系,将第一渲染图像的屏幕网格图像中的各个图元的顶点映射到视场角坐标系中,得到第一渲染图像的视场角网格图像,以及,第一渲染图像的视场角网格图像中各个图元的顶点的坐标,将第一渲染图像的屏幕网格图像中各个图元的灰度值映射到第一渲染图像的视场角网格图像中相应的图元中,得到反畸变后的第一渲染图像。示例地,图6是本申请实施例提供的一种第一渲染图像的屏幕网格图像的示意图,图7是本申请实施例提供的一种第一渲染图像的视场角网格图像的示意图。
可选地,终端可以确定虚拟现实设备的透镜的色散参数,该透镜的色散参数可以包括透镜对红光、绿光、蓝光的色散参数,根据该透镜的色散参数,通过反色散算法对第一渲染图像进行反色散处理,得到反色散后的第一渲染图像。
可选地,终端可以通过同步时间扭曲技术,根据第一渲染图像的上一帧图像对第一渲染图像进行扭曲处理,得到同步时间扭曲后的第一渲染图像。
本领域技术人员容易理解,终端对第一渲染图像进行反畸变处理、反色散处理和同步时间扭曲处理的过程可以同步执行,也可以按照先后顺序执行,例如,终端首先对第一渲染图像进行反畸变处理,得到反畸变后的第一渲染图像,然后对反畸变后的第一渲染图像进行反色散处理,得到反色散后的第一渲染图像,最后对反色散后的第一渲染图像进行同步时间扭曲处理;或者,终端首先对第一渲染图像进行反色散处理,得到反色散后的第一渲染图像,然后对反色散后的第一渲染图像进行反畸变处理,得到反畸变后的第一渲染图像,最后对反畸变后的第一渲染图像进行同步时间扭曲处理,本申请实施例对此不做限定。
步骤305、通过虚拟现实设备显示第一渲染图像。
终端可以向虚拟现实设备传输第一渲染图像,以由虚拟现实设备显示该第一渲染图像。示例地,虚拟现实设备显示该第一渲染图像可以如图8所示。
需要说明的是,由于第一渲染图像是以第一渲染分辨率对第一虚拟现实图像进行渲染得到的图像,因此第一渲染图像的分辨率为第一渲染分辨率,由于该第一渲染分辨率小于虚拟现实设备的屏幕分辨率,因此,第一渲染图像的分辨率小于虚拟现实设备的屏幕分辨率,在本申请实施例中,终端在向虚拟现实设备传输第一渲染图像之前,可以对第一渲染图像进行拉伸,使第一渲染图像的分辨率与虚拟现实设备显示屏的分辨率相同。
步骤306、获取第二视场角和目标用户的第二头部姿态信息。
其中,第二视场角可以是注视视场角,终端可以基于眼球追踪技术获取人眼的注视点坐标和视角范围,根据人眼的注视点坐标和视角范围确定该第二视场角。其中,注视点坐标可以是人眼的注视点在视场角坐标系中的坐标。
示例地,终端基于眼球追踪技术获取的注视点坐标可以为(Px,Py),人眼在x轴的视角范围(例如水平视角范围)可以为h,在y轴的视角范围(例如竖直视角范围)可以为v,则终端确定注视视场角可以为(Py+v/2,Py-v/2,Px-h/2,Px+h/2),该注视视场角也即是第二视场角,该注视视场角对应的注视区域可以是顶点为Py+v/2,Py-v/2,Px-h/2和Px+h/2的矩形区域。
可选地,虚拟现实设备可以佩戴在目标用户的头部,且虚拟现实设备中设置有姿态传感器,虚拟现实设备可以通过姿态传感器采集目标用户的第二头部姿态信息,并通过与终端之间的通信连接向终端传输该第二头部姿态信息,终端通过接收虚拟现实设备传输的第二头部姿态信息,实现对该第二头部姿态信息的获取,该第二头部姿态信息可以是虚拟现实设备实时采集的头部姿态信息。
步骤307、根据第一视场角和第二头部姿态信息,获取第二虚拟现实图像。
该步骤307的实现过程可以参考步骤302,本申请实施例在此不再赘述。
步骤308、根据第二视场角,确定第二虚拟现实图像的目标区域。
可选地,图9是本申请实施例提供的一种根据第二视场角确定第二虚拟现实的图像的目标区域的方法流程图,如图9所示,该方法可以包括如下步骤:
子步骤3081、基于眼球追踪技术,获取目标用户的注视点坐标。
可选地,终端可以基于眼球追踪技术,获取目标用户的眼部图像,根据目标用户的眼部图像获取目标用户的瞳孔中心和光斑位置信息(光斑为虚拟现实设备的屏幕在目标用户的眼角膜形成的反射亮点),根据目标用户的瞳孔中心和光斑位置信息确定目标用户的注视点坐标。
子步骤3082、根据注视点坐标,确定第二虚拟现实图像的目标区域。
其中,目标区域可以是目标用户在第二虚拟现实图像的注视区域。终端可以根据目标用户的注视点坐标和视角范围,确定目标用户在第二虚拟现实图像上的注视区域,该注视区域也即是目标区域。终端根据注视点坐标,确定第二虚拟现实图像的目标区域的过程可以参考步骤306,本申请实施例不再赘述。
步骤309、以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像。
其中,第二渲染分辨率可以为虚拟现实设备的屏幕分辨率,终端以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,而未对第二虚拟现实图像的整个区域进行渲染。因此可以降低显卡的渲染压力。
可选地,终端可以将第二虚拟现实图像的目标区域分割成大小相同的多个图元,并通过光栅化将每个图元转换形片元,根据第二渲染分辨率对多个片元进行渲染,得到第二渲染图像。
步骤310、对第二渲染图像进行虚拟现实处理。
该步骤310的实现过程可以参考步骤304,本申请实施例在此不再赘述。
步骤311、对第二渲染图像的非目标区域进行补黑,得到补黑后的第二渲染图像。
其中,第二渲染图像的非目标区域可以是第二渲染图像中除目标区域外的区域,第二渲染图像的目标区域与第二虚拟现实图像的目标区域对应。
可选地,终端可以将第二渲染图像的非目标区域内的每个像素的灰度值配置为零,以对第二渲染图像的非目标区域进行补黑,得到补黑后的第二渲染图像。
步骤312、通过虚拟现实设备显示补黑后的第二渲染图像。
终端可以向虚拟现实设备传输补黑后的第二渲染图像,以由虚拟现实设备显示该第二渲染图像。示例地,虚拟现实设备显示该补黑后的第二渲染图像可以如图10所示,目标区域Q1中显示有图像,非目标区域Q2的颜色为黑色。
本申请实施例中,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像,终端以较低的渲染分辨率渲染相邻两帧图像中的一帧图像,以较高的渲染分辨率渲染另一帧图像的目标区域,并通过虚拟现实设备按序显示该相邻的两帧图像,从而利用人眼的视觉暂留特性,呈现出注视点渲染的效果。
综上所述,本申请实施例提供的虚拟现实显示方法,终端以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像,以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。由于终端以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,而并未渲染该另一帧图像的整个区域,因此有助于降低显卡的渲染压力。
需要说明的是,本申请实施例提供的虚拟现实显示方法的步骤的先后顺序可以进行适当调整,步骤也可以根据情况进行相应增减,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化的方法,都应涵盖在本申请的保护范围之内,因此不再赘述。
图11是本申请实施例提供的一种虚拟现实显示装置400的框图,该虚拟现实显示装置400可以是终端中的功能组件,如图11所示,该虚拟现实显示装置400可以包括:
第一渲染模块401,用于以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像;
第一显示模块402,用于通过虚拟现实设备显示第一渲染图像;
第二渲染模块403,用于以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像;
第二显示模块404,用于通过虚拟现实设备显示第二渲染图像。
综上所述,本申请实施例提供的虚拟现实显示装置,第一渲染模块以第一渲染分辨率对第一虚拟现实图像进行渲染得到第一渲染图像,第一显示模块通过虚拟现实设备显示该第一渲染图像,第二渲染模块以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染得到第二渲染图像,第二显示模块通过虚拟现实设备显示第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。由于以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,而并未渲染该另一帧图像的整个区域,因此有助于降低显卡的渲染压力。
可选地,请参考图12,其示出了本申请实施例提供的另一种虚拟现实显示装置400的框图,如图12所示,在图11的基础上,该虚拟现实显示装置400还包括:
第一获取模块405,用于获取目标用户的第一头部姿态信息,虚拟现实设备佩戴在目标用户的头部;
第二获取模块406,用于根据第一视场角和第一头部姿态信息,获取第一虚拟现实图像;
第三获取模块407,用于获取目标用户的第二头部姿态信息;
第四获取模块408,用于根据第一视场角和第二头部姿态信息,获取第二虚拟现实图像;
确定模块409,用于根据第二视场角,确定第二虚拟现实图像的目标区域。
可选地,第二视场角为注视视场角,目标区域为注视区域,确定模块409,用于:基于眼球追踪技术,获取目标用户的注视点坐标;根据注视点坐标,确定第二虚拟现实图像的目标区域。
可选地,请继续参考图12,该虚拟现实显示装置400还包括:
补黑模块410,用于在通过虚拟现实设备显示第二渲染图像之前,对第二渲染图像的非目标区域进行补黑,第二渲染图像的非目标区域与第二虚拟现实图像的非目标区域对应,第二虚拟现实图像的非目标区域为第二虚拟现实图像中除目标区域之外的区域。
可选地,请继续参考图12,该虚拟现实显示装置400还包括:
第一处理模块411,用于在通过虚拟现实设备显示第一渲染图像之前,对第一渲染图像进行虚拟现实处理;
第二处理模块412,用于在通过虚拟现实设备显示第二渲染图像之前,对第二渲染图像进行虚拟现实处理;
其中,虚拟现实处理包括反畸变处理、反色散处理和同步时间扭曲处理中的至少一种。
可选地,第一视场角为虚拟现实设备的视场角,第二视场角为注视视场角,第二渲染分辨率为虚拟现实设备的屏幕分辨率。
综上所述,本申请实施例提供的虚拟现实显示装置,第一渲染模块以第一渲染分辨率对第一虚拟现实图像进行渲染得到第一渲染图像,第一显示模块通过虚拟现实设备显示该第一渲染图像,第二渲染模块以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染得到第二渲染图像,第二显示模块通过虚拟现实设备显示第二渲染图像,第一渲染分辨率小于第二渲染分辨率,第一虚拟现实图像和第二虚拟现实图像为相邻的两帧图像。由于以较低的渲染分辨率对相邻的两帧图像中的一帧图像进行渲染,以较高的渲染分辨率对另一帧图像的目标区域进行渲染,而并未渲染该另一帧图像的整个区域,因此有助于降低显卡的渲染压力。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例提供了一种虚拟现实显示装置,包括:处理器和存储器,
存储器,用于存储计算机程序;
处理器,用于执行存储器上所存储的计算机程序,实现如图2、图3和图9任一所述的方法。
图13是本申请实施例提供的一种虚拟现实显示装置500的结构示意图。该虚拟现实显示装置500可以是便携式移动终端,比如:智能手机、平板电脑、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。虚拟现实显示装置500还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,虚拟现实显示装置500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可以包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器501所执行以实现本申请实施例提供的虚拟现实显示方法。
在一些实施例中,虚拟现实显示装置500还可选包括有:***设备接口503和至少一个***设备。处理器501、存储器502和***设备接口503之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口503相连。具体地,***设备包括:射频电路504、显示屏505、摄像头组件506、音频电路507、定位组件508和电源509中的至少一种。
***设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和***设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和***设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行传输,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏505可以为一个,设置虚拟现实显示装置500的前面板;在另一些实施例中,显示屏505可以为至少两个,分别设置在虚拟现实显示装置500的不同表面或呈折叠设计;在再一些实施例中,显示屏505可以是柔性显示屏,设置在虚拟现实显示装置500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以为OLED(OrganicLight-Emitting Diode,有机发光二极管)显示屏。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在虚拟现实显示装置500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路507还可以包括耳机插孔。
定位组件508用于定位虚拟现实显示装置500的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***或俄罗斯的伽利略***的定位组件。
电源509用于为虚拟现实显示装置500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,虚拟现实显示装置500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以虚拟现实显示装置500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制触摸显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测虚拟现实显示装置500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对虚拟现实显示装置500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在虚拟现实显示装置500的侧边框和/或触摸显示屏505的下层。当压力传感器513设置在虚拟现实显示装置500的侧边框时,可以检测用户对虚拟现实显示装置500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在触摸显示屏505的下层时,由处理器501根据用户对触摸显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置虚拟现实显示装置500的正面、背面或侧面。当虚拟现实显示装置500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制触摸显示屏505的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏505的显示亮度;当环境光强度较低时,调低触摸显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在虚拟现实显示装置500的前面板。接近传感器516用于采集用户与虚拟现实显示装置500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与虚拟现实显示装置500的正面之间的距离逐渐变小时,由处理器501控制触摸显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与虚拟现实显示装置500的正面之间的距离逐渐变大时,由处理器501控制触摸显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图13中示出的结构并不构成对虚拟现实显示装置500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例提供了一种虚拟现实显示***,该虚拟现实***包括:终端和虚拟现实设备,终端与虚拟现实设备可以通信连接,该终端可以包括如图11或图12所示虚拟现实显示装置400,或者,该终端可以包括如图13所示的虚拟现实显示装置500。
本申请实施例提供了一种存储介质,当所述存储介质中的程序由处理器执行时,能够实现如图2、图3和图9任一所示的虚拟现实显示方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本申请中,术语“第一”和“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
本申请实施例中的术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的构思和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (13)

1.一种虚拟现实显示方法,其特征在于,用于虚拟现实***中的终端,所述虚拟现实***包括虚拟现实设备和所述终端,所述方法包括:
以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像;
通过所述虚拟现实设备显示所述第一渲染图像;
以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,所述第一渲染分辨率小于所述第二渲染分辨率,所述第一虚拟现实图像和所述第二虚拟现实图像为相邻的两帧图像,所述目标区域为注视区域;
通过所述虚拟现实设备显示所述第二渲染图像。
2.根据权利要求1所述的方法,其特征在于,
在以第一渲染分辨率对第一虚拟现实图像进行渲染之前,所述方法还包括:
获取目标用户的第一头部姿态信息,所述虚拟现实设备佩戴在所述目标用户的头部;
根据第一视场角和所述第一头部姿态信息,获取所述第一虚拟现实图像;
在以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染之前,所述方法还包括:
获取所述目标用户的第二头部姿态信息;
根据所述第一视场角和所述第二头部姿态信息,获取所述第二虚拟现实图像;
根据第二视场角,确定所述第二虚拟现实图像的目标区域。
3.根据权利要求2所述的方法,其特征在于,所述第二视场角为注视视场角,
所述根据所述第二视场角,确定所述第二虚拟现实图像的目标区域,包括:
基于眼球追踪技术,获取所述目标用户的注视点坐标;
根据所述注视点坐标,确定所述第二虚拟现实图像的所述目标区域。
4.根据权利要求1所述的方法,其特征在于,
在通过所述虚拟现实设备显示所述第二渲染图像之前,所述方法还包括:
对所述第二渲染图像的非目标区域进行补黑,所述第二渲染图像的非目标区域与所述第二虚拟现实图像的非目标区域对应,所述第二虚拟现实图像的非目标区域为所述第二虚拟现实图像中除所述目标区域之外的区域。
5.根据权利要求1至4任一所述的方法,其特征在于,
在通过所述虚拟现实设备显示所述第一渲染图像之前,所述方法还包括:
对所述第一渲染图像进行虚拟现实处理;
在通过所述虚拟现实设备显示所述第二渲染图像之前,所述方法还包括:
对所述第二渲染图像进行虚拟现实处理;
其中,所述虚拟现实处理包括反畸变处理、反色散处理和同步时间扭曲处理中的至少一种。
6.根据权利要求2或3所述的方法,其特征在于,
所述第一视场角为所述虚拟现实设备的视场角,所述第二视场角为注视视场角,所述第二渲染分辨率为所述虚拟现实设备的屏幕分辨率。
7.一种虚拟现实显示装置,其特征在于,用于虚拟现实***中的终端,所述虚拟现实***包括虚拟现实设备和所述终端,所述装置包括:
第一渲染模块,用于以第一渲染分辨率对第一虚拟现实图像进行渲染,得到第一渲染图像;
第一显示模块,用于通过所述虚拟现实设备显示所述第一渲染图像;
第二渲染模块,用于以第二渲染分辨率对第二虚拟现实图像的目标区域进行渲染,得到第二渲染图像,所述第一渲染分辨率小于所述第二渲染分辨率,所述第一虚拟现实图像和所述第二虚拟现实图像为相邻的两帧图像,所述目标区域为注视区域;
第二显示模块,用于通过所述虚拟现实设备显示所述第二渲染图像。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
第一获取模块,用于获取目标用户的第一头部姿态信息,所述虚拟现实设备佩戴在所述目标用户的头部;
第二获取模块,用于根据第一视场角和所述第一头部姿态信息,获取所述第一虚拟现实图像;
第三获取模块,用于获取所述目标用户的第二头部姿态信息;
第四获取模块,用于根据所述第一视场角和所述第二头部姿态信息,获取所述第二虚拟现实图像;
确定模块,用于根据第二视场角,确定所述第二虚拟现实图像的目标区域。
9.根据权利要求8所述的装置,其特征在于,所述第二视场角为注视视场角,所述确定模块,用于:
基于眼球追踪技术,获取所述目标用户的注视点坐标;
根据所述注视点坐标,确定所述第二虚拟现实图像的所述目标区域。
10.根据权利要求7所述的装置,其特征在于,所述装置还包括:
补黑模块,用于在通过所述虚拟现实设备显示所述第二渲染图像之前,对所述第二渲染图像的非目标区域进行补黑,所述第二渲染图像的非目标区域与所述第二虚拟现实图像的非目标区域对应,所述第二虚拟现实图像的非目标区域为所述第二虚拟现实图像中除所述目标区域之外的区域。
11.一种虚拟现实显示装置,其特征在于,包括:处理器和存储器,
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器上所存储的计算机程序,实现如权利要求1至6任一所述的虚拟现实显示方法。
12.一种虚拟现实显示***,其特征在于,所述虚拟现实***包括:终端和虚拟现实设备,所述终端包括权利要求7至10任一所述的虚拟现实显示装置,或者,所述终端包括权利要求11所述的虚拟现实显示装置。
13.一种存储介质,其特征在于,当所述存储介质中的程序由处理器执行时,能够实现如权利要求1至6任一所述的虚拟现实显示方法。
CN201910775571.5A 2019-08-21 2019-08-21 虚拟现实显示方法、装置、***及存储介质 Active CN110488977B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910775571.5A CN110488977B (zh) 2019-08-21 2019-08-21 虚拟现实显示方法、装置、***及存储介质
US16/937,678 US20210058612A1 (en) 2019-08-21 2020-07-24 Virtual reality display method, device, system and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910775571.5A CN110488977B (zh) 2019-08-21 2019-08-21 虚拟现实显示方法、装置、***及存储介质

Publications (2)

Publication Number Publication Date
CN110488977A CN110488977A (zh) 2019-11-22
CN110488977B true CN110488977B (zh) 2021-10-08

Family

ID=68552683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910775571.5A Active CN110488977B (zh) 2019-08-21 2019-08-21 虚拟现实显示方法、装置、***及存储介质

Country Status (2)

Country Link
US (1) US20210058612A1 (zh)
CN (1) CN110488977B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115842907A (zh) * 2018-03-27 2023-03-24 京东方科技集团股份有限公司 渲染方法、计算机产品及显示装置
US20220210390A1 (en) * 2018-06-28 2022-06-30 Alphacircle Co., Ltd. Virtual reality image reproduction device for reproducing plurality of virtual reality images to improve image quality of specific region, and method for generating virtual reality image
CN111338591B (zh) * 2020-02-25 2022-04-12 京东方科技集团股份有限公司 一种虚拟现实显示设备及显示方法
GB2595872B (en) * 2020-06-09 2023-09-20 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
CN112218132B (zh) * 2020-09-07 2022-06-10 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN114531904A (zh) * 2020-09-09 2022-05-24 京东方科技集团股份有限公司 Ar/vr图像显示方法、ar/vr图像显示设备和计算机程序产品
CN112491978B (zh) * 2020-11-12 2022-02-18 中国联合网络通信集团有限公司 一种调度方法和设备
US11749024B2 (en) 2020-11-30 2023-09-05 Ganzin Technology, Inc. Graphics processing method and related eye-tracking system
US11449155B2 (en) * 2021-01-11 2022-09-20 Htc Corporation Control method of immersive system
CN113209604A (zh) * 2021-04-28 2021-08-06 杭州小派智能科技有限公司 一种大视角vr渲染的方法和***
CN113313807B (zh) * 2021-06-28 2022-05-06 完美世界(北京)软件科技发展有限公司 一种画面的渲染方法、装置、存储介质和电子装置
CN113596569B (zh) * 2021-07-22 2023-03-24 歌尔科技有限公司 图像处理方法、装置和计算机可读存储介质
CN113885822A (zh) * 2021-10-15 2022-01-04 Oppo广东移动通信有限公司 图像数据的处理方法、装置、电子设备以及存储介质
CN114079765B (zh) * 2021-11-17 2024-05-28 京东方科技集团股份有限公司 图像显示方法、装置及***
CN114168096B (zh) * 2021-12-07 2023-07-25 深圳创维新世界科技有限公司 输出画面的显示方法、***、移动终端以及存储介质
CN114339134B (zh) * 2022-03-15 2022-06-21 深圳市易扑势商友科技有限公司 基于互联网和vr技术的远程在线会议***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444931B2 (en) * 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10091466B2 (en) * 2016-03-18 2018-10-02 Motorola Solutions, Inc. Visual perception determination system and method
CN107493448B (zh) * 2017-08-31 2019-06-07 京东方科技集团股份有限公司 图像处理***、图像显示方法及显示装置
CN108921951B (zh) * 2018-07-02 2023-06-20 京东方科技集团股份有限公司 虚拟现实图像显示方法及其装置、虚拟现实设备
CN109509150A (zh) * 2018-11-23 2019-03-22 京东方科技集团股份有限公司 图像处理方法和装置、显示装置、虚拟现实显示***
CN109741289B (zh) * 2019-01-25 2021-12-21 京东方科技集团股份有限公司 一种图像融合方法和vr设备

Also Published As

Publication number Publication date
CN110488977A (zh) 2019-11-22
US20210058612A1 (en) 2021-02-25

Similar Documents

Publication Publication Date Title
CN110488977B (zh) 虚拟现实显示方法、装置、***及存储介质
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
CN110427110B (zh) 一种直播方法、装置以及直播服务器
CN111464749B (zh) 进行图像合成的方法、装置、设备及存储介质
CN111324250B (zh) 三维形象的调整方法、装置、设备及可读存储介质
CN111028144B (zh) 视频换脸方法及装置、存储介质
CN109821237B (zh) 视角转动的方法、装置、设备及存储介质
WO2022052620A1 (zh) 图像生成方法及电子设备
CN110933452B (zh) 萌脸礼物显示方法、装置及存储介质
CN110853128B (zh) 虚拟物体显示方法、装置、计算机设备及存储介质
CN111897429A (zh) 图像显示方法、装置、计算机设备及存储介质
WO2021238564A1 (zh) 显示设备及其畸变参数确定方法、装置、***及存储介质
CN108848405B (zh) 图像处理方法和装置
CN113384880A (zh) 虚拟场景显示方法、装置、计算机设备及存储介质
CN110837300B (zh) 虚拟交互的方法、装置、电子设备及存储介质
CN110349527B (zh) 虚拟现实显示方法、装置及***、存储介质
WO2022199102A1 (zh) 图像处理方法及装置
CN109636715B (zh) 图像数据的传输方法、装置及存储介质
CN112396076A (zh) 车牌图像生成方法、装置及计算机存储介质
CN109714585B (zh) 图像传输方法及装置、显示方法及装置、存储介质
CN110728744B (zh) 一种体绘制方法、装置及智能设备
CN112967261B (zh) 图像融合方法、装置、设备及存储介质
CN115904079A (zh) 显示设备调整方法、装置、终端及存储介质
CN112381729B (zh) 图像处理方法、装置、终端及存储介质
CN110443841B (zh) 地面深度的测量方法、装置及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant