CN116437065A - 一种基于三维场景输出可偏振观影的方法及*** - Google Patents
一种基于三维场景输出可偏振观影的方法及*** Download PDFInfo
- Publication number
- CN116437065A CN116437065A CN202310329088.0A CN202310329088A CN116437065A CN 116437065 A CN116437065 A CN 116437065A CN 202310329088 A CN202310329088 A CN 202310329088A CN 116437065 A CN116437065 A CN 116437065A
- Authority
- CN
- China
- Prior art keywords
- frame
- dimensional
- rendering
- module
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000009877 rendering Methods 0.000 claims abstract description 89
- 239000000872 buffer Substances 0.000 claims abstract description 51
- 238000004891 communication Methods 0.000 claims abstract description 36
- 230000001360 synchronised effect Effects 0.000 claims abstract description 31
- 239000011521 glass Substances 0.000 claims abstract description 19
- 230000002452 interceptive effect Effects 0.000 claims abstract description 9
- 230000003139 buffering effect Effects 0.000 claims abstract description 5
- 230000000694 effects Effects 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000010287 polarization Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种基于三维场景输出可偏振观影的方法及***,步骤1:讲解员操作三维运行设备,三维运行设备播放三维视频或可交互实时三维场景;在所述的三维运行设备中,设置GPU扩展驱动;步骤2:实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;步骤3:图形帧投影控制器拆分左右眼画面,通过视频线连接投影设备进行投影显示;步骤4:观众使用3D眼镜通过幕布观看3D立体画面。本发明降低了过程中三维智能终端的数量,节省了成本,而且采用投影输出。
Description
技术领域
本发明涉及一种基于三维场景输出的可偏振观影方法,适用于实时的三维场景或三维视频,工作模式为主从模式,本专利可用于教学培训、虚拟展示、案例演示、考核演练等场景。
背景技术
三维场景是在多维信息空间上创建一个虚拟信息环境,模拟出一个可交互的、虚幻的空间场景。三维场景漫游是在三维场景内实现的虚拟漫游。近年来随着可视化技术不断发展,随着三维虚拟漫游有着广泛应用,如游戏、飞行训练、军事演习模拟等。
目前,讲解员和观众进行三维交互时,此时讲解员和观众都需要佩戴VR一体机等三维智能终端。而当实现由一名讲解员向众多观众进行讲解时,那么就需要多台VR一体机,而VR一体机价格昂贵,不利于三维场景的互动输出。
CN102945564A公开了一种基于视频透视式增强现实的真三维建模***和方法,工作流程如下:1、摄像头拍摄现实场景并显示在VR头显中;2、将三维建模软件使用AR方式叠加显示在VR头显中;3、在建模软件中进行建模;4、同时可以输出双目偏振投影。该专利申请的本质是一套AR建模软件,需要用到VR设备、投影仪、偏振眼镜。上述专利,需要进行三维建模,较为复杂,其三维体感不佳,长时间使用易出现不适感,仅适用于专业三维设计人员在建模时使用。
发明内容
本发明要解决的技术问题是:如何降低成本,使讲解员和观众均能获得良好三维沉浸体感,因此提供一种基于三维场景输出的可偏振观影方法及***。
本发明的技术方案具体为:
一种基于三维场景输出可偏振观影的方法,包括如下步骤:
步骤1:讲解员操作三维运行设备,三维运行设备播放三维视频或可交互实时三维场景,并使用三维运行设备与观众进行互动;在所述的三维运行设备中,设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡;
步骤2:图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;
步骤3:图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影设备进行投影显示;
步骤4:观众使用3D眼镜通过幕布观看3D立体画面。
步骤2中,实时渲染增强模块连接GPU扩展驱动,通过其实现与三维运行设备的交互,自动从三维运行设备的GPU高效获取每帧的双目渲染任务,优化VR一体机GPU、电脑显卡GPU渲染任务调度,并控制内置的扩展GPU核心分担部分渲染任务;同时完成画质增强、渲染特效优化、失真纠正、光影增强、抗锯齿;渲染完成后将最终的每帧的双目画面压缩并发送到帧同步缓存模块进行缓存;帧同步缓存模块对每帧双目画面进行缓存和管理,并打上时间标识及帧顺序标识,起到帧同步作用;毫米波通讯模块将帧同步缓存模块中每帧的双目画面及帧数据顺序获取,并依靠毫米波高带宽、高速度的特性,将数据发送到图形帧投影控制器进行投影显示。
步骤2中,实时渲染增强模块将渲染完成的双目画面数据也输出给三维运行设备。
步骤3中,图形帧投影控制器包括毫米波通讯模块、多源帧同步缓存模块、多源帧画面解析融合模块和投影控制模块,其中,
毫米波通讯模块,使用毫米波通讯技术接收由图形帧实时渲染扩展卡发送过来的双目画面数据及帧数据,发送给多源帧同步缓存模块进行缓存;
多源帧同步缓存模块:对接收到的每帧双目画面数据按照信号来源及帧序进行缓存管理,起到帧同步作用;
多源帧画面解析融合模块:从多源帧同步缓存模块中提取双目画面数据,使用内置GPU显示核心进行解压缩及画面切分,拆分左右眼画面,结合多源帧同步缓存模块中的帧同步数据控制顺序播放,通过高清视频线路向投影仪输出画面信号;
投影控制模块:接收多源帧画面解析融合模块发送过来的画面,并将画面数据转换为数字信号或模拟信号输出到投影设备上。
毫米波通讯模块还与毫米波主动快门式3D眼镜连接,通过毫米波通讯同步快门信号,降低快门信号延迟。
多源帧画面解析融合模块中,对不同来源的画面进行融合输出。
投影时,采用两种投影方式:其一,单投输出,仅仅设置一台投影仪,控制单台投影仪以快门频闪形式交叉输出左右眼画面,使用毫米波通讯模块同步快门信号;其二,双投输出,设置两台投影仪,则投影控制模块向两台投影仪分别投射左右眼画面,经光学偏振片滤波之后投射到幕布上,观众使用普通的被动式偏振眼镜进行立体观看。
实现上述方法的基于三维场景输出可偏振观影的***,包括三维运行设备、图形帧实时渲染扩展卡、图形帧投影控制器、投影设备和观看设备,其中,
三维运行设备接收三维数据,播放三维视频或可交互实时三维场景;在所述的三维运行设备中设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡;
图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;
图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影仪进行投影显示;观众通过观看设备进行3D观看。
所述的三维运行设备包括VR一体机、VR头显、PC电脑中的一种。
图形帧实时渲染扩展卡通过USB、Type-C、PCIe三种方式之一连接到三维运行设备上。
本发明的有益效果为:本发明作用于实时的三维场景或三维视频,工作模式为主从模式,降低了过程中三维智能终端的数量,节省了成本。而且采用投影输出,可用于教学培训、虚拟展示、案例演示、考核演练等场景,以低成本方式支持沉浸式的体验。
附图说明
图1为本发明的总体流程图;
图2为本发明的架构图;
图3为三维运行设备采用VR一体机的架构图;
图4为三维运行设备采用PC电脑的架构图;
图5为三维运行设备采用VR头显的架构图;
图6为图形帧实时渲染扩展卡的工作流程图;
图7为图形帧投影控制器的工作流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于三维场景输出可偏振观影的方法,包括如下步骤:
步骤1:讲解员操作三维运行设备,三维运行设备播放三维视频或可交互实时三维场景,并使用三维运行设备与观众进行互动;在所述的三维运行设备中,设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡。
这里的三维运行设备包括VR一体机、VR头显、PC电脑等等中的一种;所述的三维视频包括双目3D立体视频、双目360全景视频中的任意一种;所述的可交互实时三维场景包括基于三维引擎(如Unity3D、UE4、OSG、WebGL等)构建的各类三维应用或三维游戏。。
工作时,VR一体机为无线VR一体机,内置Android操作***;VR头显为有线/无线VR头显,无内置***,需要串流电脑使用;PC电脑为带有独立显卡的普通电脑。运行时,在三维运行设备内执行三维场景程序(VR一体中是APP应用程序,PC电脑和VR头显都是在电脑上的可执行程序EXE)。
GPU扩展驱动为一种驱动程序,安装在三维运行设备上,即安装在VR一体机、PC电脑上的GPU驱动程序,用于桥接图形帧渲染扩展卡设备,帮助完成多种任务,优化GPU工作流程,提升整体性能。从驱动层完成***与各种三维运行设备的无侵入互通,无需修改上述三维运行设备的源程序,即可自动兼容市面上绝大多数的三维运行设备,保证***的快速、易用。
步骤2:图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器。
进一步地,实时渲染增强模块将渲染完成的双目画面数据也输出给三维运行设备。
需要说明的是,图形帧实时渲染扩展卡为一种硬件设备,自动兼容一体机、PC电脑,通过USB、Type-C、PCIe等方式连接到三维运行设备上。
如图6所示,工作时,实时渲染增强模块连接GPU扩展驱动,通过其实现与一体机或PC电脑的GPU的交互,自动从GPU高效获取每帧的双目渲染任务,优化VR一体机GPU、电脑显卡GPU渲染任务调度,并控制内置的扩展GPU核心分担部分渲染任务,达到优化性能、提升帧率的目的;同时可完成画质增强、渲染特效优化、失真纠正、光影增强、抗锯齿,达到优化渲染效果的目的;渲染完成后将最终的每帧的双目画面压缩并发送到帧同步缓存模块进行缓存,同时将渲染完成的画面输出给VR一体机显示镜片、VR头显镜片、或电脑显示器。需要说明的是,在实时渲染增强模块中采用的渲染模型及渲染算法,可以采用现有技术中的模型和算法。
帧同步缓存模块对每帧双目画面进行缓存和管理,并打上时间标识及帧顺序标识,起到帧同步作用,防止三维平台卡顿、掉帧、花屏等情况。
毫米波通讯模块将帧同步缓存模块中每帧的双目画面及帧数据顺序获取,并依靠毫米波高带宽、高速度的特性,将数据发送到图形帧投影控制器进行投影显示。需要说明的是,图形帧实时渲染扩展卡最后输出的数据包括双目画面数据和帧数据。
步骤3:图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影设备进行投影显示。
进一步地,图形帧投影控制器包括毫米波通讯模块、多源帧同步缓存模块、多源帧画面解析融合模块和投影控制模块,其工作过程如图7所示。
毫米波通讯模块,使用毫米波通讯技术接收由图形帧实时渲染扩展卡发送过来的双目画面数据及帧数据,发送给多源帧同步缓存模块进行缓存。进一步地,毫米波通讯模块还与毫米波主动快门式3D眼镜连接,通过毫米波通讯同步快门信号,降低快门信号延迟,防止出现3D眼镜频闪、漏闪等情况。
多源帧同步缓存模块:对接收到的每帧双目画面数据按照信号来源及帧序进行缓存管理,起到帧同步作用,防止三维平台卡顿、掉帧、卡帧等情况。
多源帧画面解析融合模块:从多源帧同步缓存模块中提取双目画面数据,使用内置GPU显示核心进行解压缩及画面切分,拆分左右眼画面,结合多源帧同步缓存模块中的帧同步数据控制顺序播放,通过高清视频线路向投影仪输出画面信号。同时可在GPU显示核心中对不同来源的画面进行融合输出,起到多画面融合、画中画、画面叠加、特效叠加等显示效果。画面融合技术为现有技术。
投影控制模块:接收多源帧画面解析融合模块发送过来的画面,并将画面数据转换为数字信号(DVI、HDMI、DP)或模拟信号(VGA)输出到投影设备上。
投影时,采用两种投影方式:其一,单投输出,仅仅设置一台投影仪,控制单台投影仪以快门频闪形式交叉输出左右眼画面,使用毫米波通讯模块同步快门信号,达到立体观看的目的,同时解决了非DLP Link投影仪无法实现快门3D输出的问题。其二,双投输出,设置两台投影仪,则投影控制模块向两台投影仪分别投射左右眼画面,经光学偏振片滤波之后投射到幕布上,达到使用普通的被动式偏振眼镜进行立体观看。
步骤4:观众使用3D眼镜通过幕布观看3D立体画面。这里的3D眼镜包括被动式偏振眼镜或者毫米波主动快门式3D眼镜。
当为毫米波主动快门式3D眼镜时,图形帧投影控制器中的毫米波通讯模块连接毫米波主动快门式3D眼镜,并同步控制信号。
毫米波主动快门式3D眼镜,使用毫米波通讯技术实现与图形帧投影控制器的快门信号同步与校正,降低延迟,防止出现“Crosstalk现象”影响观看体验。
如图2所示,一种基于三维场景输出可偏振观影的***,包括三维运行设备、图形帧实时渲染扩展卡、图形帧投影控制器、投影设备和观看设备,其中,
三维运行设备接收三维数据,播放三维视频;在所述的三维运行设备中设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡;
图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;
图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影仪进行投影显示;观众通过观看设备进行3D观看。
三维运行设备包括VR一体机、VR头显、PC电脑等等中的一种。
如图3所示,三维运行设备采用VR一体机的架构图。在VR一体机内设置有一体机GPU,一体机GPU连接有显示左镜片和显示右镜片,在一体机的GPU上连接GPU扩展驱动。VR一体机连接有VR***,VR***中设置虚拟双目摄像机,虚拟双目摄像机接收三维APP或者3D播放器的三维全景视频。工作时,讲解员操作手柄/体感设备等VR操控装置进行VR交互,通过VR一体机的显示左镜片和显示右镜片进行3D观看。
如图4所示,三维运行设备采用PC电脑的架构图,PC电脑包括PC主机和显示器,PC主机内设置电脑GPU,电脑GPU上连接GPU扩展驱动。且PC主机连接VR***,VR***中设置虚拟双目摄像机,虚拟双目摄像机接收三维APP或者3D播放器的三维全景视频。工作时,讲解员操作键盘鼠标等进行三维交互,通过显示器进行3D观看。
如图5所示,三维运行设备采用VR头显的架构图,PC电脑包括PC主机和VR头显,PC主机内设置电脑GPU,电脑GPU上连接GPU扩展驱动;VR头显包括显示左镜片和显示右镜片。且PC主机连接VR***,VR***中设置虚拟双目摄像机,虚拟双目摄像机接收三维APP或者3D播放器的三维全景视频。工作时,讲解员操作手柄、体感设备、***等进行三维交互,通过VR头显进行3D观看。
以上三种方式中的图形帧实时渲染扩展卡、图形帧投影控制器、投影设备和观看设备结构均相同。
以上所述的仅是本发明的优选实施方式,应当指出,对于本领域的技术人员来说,在不脱离本发明整体构思前提下,还可以作出若干改变和改进,这些也应该视为本发明的保护范围。
Claims (10)
1.一种基于三维场景输出可偏振观影的方法,其特征在于,包括如下步骤:
步骤1:讲解员操作三维运行设备,三维运行设备播放三维视频或可交互实时三维场景,并使用三维运行设备与观众进行互动;在所述的三维运行设备中,设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡;
步骤2:图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;
步骤3:图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影设备进行投影显示;
步骤4:观众使用3D眼镜通过幕布观看3D立体画面。
2.根据权利要求1所述的一种基于三维场景输出可偏振观影的方法,其特征在于:步骤2中,实时渲染增强模块连接GPU扩展驱动,通过其实现与三维运行设备的交互,自动从三维运行设备的GPU高效获取每帧的双目渲染任务,优化VR一体机GPU、电脑显卡GPU渲染任务调度,并控制内置的扩展GPU核心分担部分渲染任务;同时完成画质增强、渲染特效优化、失真纠正、光影增强、抗锯齿;渲染完成后将最终的每帧的双目画面压缩并发送到帧同步缓存模块进行缓存;帧同步缓存模块对每帧双目画面进行缓存和管理,并打上时间标识及帧顺序标识,起到帧同步作用;毫米波通讯模块将帧同步缓存模块中每帧的双目画面及帧数据顺序获取,并依靠毫米波高带宽、高速度的特性,将数据发送到图形帧投影控制器进行投影显示。
3.根据权利要求2所述的一种基于三维场景输出可偏振观影的方法,其特征在于:步骤2中,实时渲染增强模块将渲染完成的双目画面数据也输出给三维运行设备。
4.根据权利要求1所述的一种基于三维场景输出可偏振观影的方法,其特征在于:步骤3中,图形帧投影控制器包括毫米波通讯模块、多源帧同步缓存模块、多源帧画面解析融合模块和投影控制模块,其中,
毫米波通讯模块,使用毫米波通讯技术接收由图形帧实时渲染扩展卡发送过来的双目画面数据及帧数据,发送给多源帧同步缓存模块进行缓存;
多源帧同步缓存模块:对接收到的每帧双目画面数据按照信号来源及帧序进行缓存管理,起到帧同步作用;
多源帧画面解析融合模块:从多源帧同步缓存模块中提取双目画面数据,使用内置GPU显示核心进行解压缩及画面切分,拆分左右眼画面,结合多源帧同步缓存模块中的帧同步数据控制顺序播放,通过高清视频线路向投影仪输出画面信号;
投影控制模块:接收多源帧画面解析融合模块发送过来的画面,并将画面数据转换为数字信号或模拟信号输出到投影设备上。
5.根据权利要求4所述的一种基于三维场景输出可偏振观影的方法,其特征在于:毫米波通讯模块还与毫米波主动快门式3D眼镜连接,通过毫米波通讯同步快门信号,降低快门信号延迟。
6.根据权利要求4所述的一种基于三维场景输出可偏振观影的方法,其特征在于:多源帧画面解析融合模块中,对不同来源的画面进行融合输出。
7.根据权利要求4所述的一种基于三维场景输出可偏振观影的方法,其特征在于:投影时,采用两种投影方式:其一,单投输出,仅仅设置一台投影仪,控制单台投影仪以快门频闪形式交叉输出左右眼画面,使用毫米波通讯模块同步快门信号;其二,双投输出,设置两台投影仪,则投影控制模块向两台投影仪分别投射左右眼画面,经光学偏振片滤波之后投射到幕布上,观众使用普通的被动式偏振眼镜进行立体观看。
8.实现权利要求1-7任一所述方法的基于三维场景输出可偏振观影的***,其特征在于:包括三维运行设备、图形帧实时渲染扩展卡、图形帧投影控制器、投影设备和观看设备,其中,
三维运行设备接收三维数据,播放三维视频或可交互实时三维场景;在所述的三维运行设备中设置GPU扩展驱动,GPU扩展驱动用于桥接图形帧实时渲染扩展卡;
图形帧实时渲染扩展卡包括实时渲染增强模块、帧同步缓存模块和毫米波通讯模块;其中,实时渲染增强模块自动从三维运行设备的GPU中获取每帧的双目渲染任务,分担部分渲染任务,同时优化渲染效果;渲染完成后将最终的每帧的双目画面数据进行压缩并发送到帧同步缓存模块中进行缓存,最后,由毫米波通讯模块将压缩后的双目画面数据发送至图形帧投影控制器;
图形帧投影控制器将接收到的双目画面数据和帧数据进行解析,拆分左右眼画面,通过视频线连接投影仪进行投影显示;观众通过观看设备进行3D观看。
9.根据权利要8所述的基于三维场景输出可偏振观影的***,其特征在于:所述的三维运行设备包括VR一体机、VR头显、PC电脑中的一种。
10.根据权利要求8所述的基于三维场景输出可偏振观影的***,其特征在于:图形帧实时渲染扩展卡通过USB、Type-C、PCIe三种方式之一连接到三维运行设备上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310329088.0A CN116437065A (zh) | 2023-03-30 | 2023-03-30 | 一种基于三维场景输出可偏振观影的方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310329088.0A CN116437065A (zh) | 2023-03-30 | 2023-03-30 | 一种基于三维场景输出可偏振观影的方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116437065A true CN116437065A (zh) | 2023-07-14 |
Family
ID=87079032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310329088.0A Pending CN116437065A (zh) | 2023-03-30 | 2023-03-30 | 一种基于三维场景输出可偏振观影的方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116437065A (zh) |
-
2023
- 2023-03-30 CN CN202310329088.0A patent/CN116437065A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113099204B (zh) | 一种基于vr头戴显示设备的远程实景增强现实方法 | |
CN111656433B (zh) | 减轻头戴式显示器中动显延迟的装置、***和方法 | |
WO2017185761A1 (zh) | 2d视频播放方法及装置 | |
CN104317546A (zh) | 情景互动体验仿真*** | |
US20180102082A1 (en) | Apparatus, system, and method for video creation, transmission and display to reduce latency and enhance video quality | |
CN114125301B (zh) | 一种虚拟现实技术拍摄延迟处理方法及装置 | |
CN105812768A (zh) | 一种3d视频在vr设备中的播放方法及*** | |
CN111902842A (zh) | 在头戴式显示器中实现帧内图像处理的装置、***和方法 | |
JP2024054180A (ja) | 仮想、拡張、および複合現実システムおよび方法 | |
CN108989784A (zh) | 虚拟现实设备的图像显示方法、装置、设备及存储介质 | |
CN116437065A (zh) | 一种基于三维场景输出可偏振观影的方法及*** | |
CN116503522A (zh) | 互动画面的渲染方法、装置、设备、存储介质及程序产品 | |
KR20220077014A (ko) | 가상현실(vr) 기술 기반의 360도 돔 영상관 상영 방법 | |
WO2018161816A1 (zh) | 一种投影***、方法、服务器和控制界面 | |
CN111246274A (zh) | 确定用于显示信息的数据的方法及显示信息的方法、装置 | |
LU503478B1 (en) | Method of virtual reality cross-screen stereoscopic display | |
Helzle | Immersive media productions involving light fields and virtual production LED walls | |
TWI778749B (zh) | 適用虛擬實境的影像傳輸方法、影像處理裝置及影像生成系統 | |
CN113611181B (zh) | 一种虚拟仿真场景的立体显示方法及装置 | |
WO2022190398A1 (ja) | 3dオブジェクトのストリーミング方法、装置、及びプログラム | |
CN104144348A (zh) | 数字影院动感传输运动信号和环境信号的同步方法与装置 | |
Holliman | Cosmic origins: experiences making a stereoscopic 3D movie | |
CN113747139A (zh) | 基于移动平台的高清3d实现方法、装置、设备及存储介质 | |
CN113676731A (zh) | 压缩vr视频数据的方法 | |
CN113992921A (zh) | 一种虚拟现实直播视频通讯新技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |