CN117425044A - 视频生成方法、第一设备、第二设备及存储介质 - Google Patents
视频生成方法、第一设备、第二设备及存储介质 Download PDFInfo
- Publication number
- CN117425044A CN117425044A CN202311347975.7A CN202311347975A CN117425044A CN 117425044 A CN117425044 A CN 117425044A CN 202311347975 A CN202311347975 A CN 202311347975A CN 117425044 A CN117425044 A CN 117425044A
- Authority
- CN
- China
- Prior art keywords
- virtual
- space
- real
- virtual space
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000003993 interaction Effects 0.000 claims abstract description 58
- 238000013507 mapping Methods 0.000 claims abstract description 45
- 230000001360 synchronised effect Effects 0.000 claims abstract description 14
- 230000003190 augmentative effect Effects 0.000 claims description 43
- 238000004590 computer program Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 11
- 230000033001 locomotion Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 210000003811 finger Anatomy 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008846 dynamic interplay Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036314 physical performance Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供了一种视频生成方法、第一设备、第二设备、电子设备及计算机可读存储介质,涉及流媒体处理技术领域。该方法包括:获得动捕对象在动捕空间中实时的位姿信息;将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态;响应于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互,生成实时的虚拟现实画面,根据实时的虚拟现实画面生成视频流。本申请实施例实现了动捕对象通过第二设备与目标虚拟物体进行交互,不需要提前彩排和固定位点,提高视频生成效率。
Description
技术领域
本申请涉及流媒体处理技术领域,具体而言,本申请涉及一种视频生成方法、第一设备、第二设备、电子设备、计算机可读存储介质及计算机程序产品。
背景技术
相关技术在动作捕捉的过程中,需要对处于动捕空间中需要交互的虚拟物体的地方提前进行标记点设置,比如在地面上贴上需要动捕对象移动的位置,来辅助动捕对象进行表演,在实际表演的过程中,动捕对象在动捕空间中通过标记点进行表演。
在实际项目中,由于需要提前进行标记点设置,因此需要动捕对象提前彩排,固定点位,之后实际直播中根据固定的点位进行表演,流程较为复杂,同时无法确定动态点位,比如当需要动捕对象跟随一个动态移动的虚拟角色的时候,往往特别困难,因为在实际场地中并没有一个实时的动态物体,需要动捕对象想象配合画面进行无实物表演,这样对于动捕对象来说要求也比较高。
发明内容
本申请实施例提供了一种视频生成方法、第一设备、第二设备、电子设备、计算机可读存储介质及计算机程序产品,可以解决现有技术的上述问题。所述技术方案如下:
根据本申请实施例的第一个方面,提供了一种视频生成方法,应用于第一设备,所述方法包括:
获得动捕对象在动捕空间中实时的位姿信息;
将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;所述第一虚拟空间为具有虚拟布景的虚拟空间;
同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,所述第二虚拟空间为第二设备对所述动捕空间进行映射得到的虚拟空间;所述第二设备用于向所述动捕对象实时展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
根据实时的虚拟现实画面生成视频流。
根据本申请实施例的第二个方面,提供了一种视频生成方法,应用于第二设备,所述方法包括:
同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流,所述第一虚拟空间为具有虚拟布景的虚拟空间,所述第二虚拟空间为所述第二设备对动捕空间进行映射得到的虚拟空间;
获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
其中,所述视频流是根据虚拟现实画面生成的,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。
根据本申请实施例的第三个方面,提供了一种第一设备,包括:
位姿获得模块,用于获得动捕对象在动捕空间中实时的位姿信息;
位姿映射模块,用于将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;所述第一虚拟空间为具有虚拟布景的虚拟空间;
第一状态同步模块,用于同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,所述第二虚拟空间为第二设备对所述动捕空间进行映射得到的虚拟空间;所述第二设备用于向所述动捕对象实时展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
虚拟现实画面生成模块,用于响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
视频流生成模块,用于根据实时的虚拟现实画面生成视频流。
根据本申请实施例的第四个方面,提供了一种第二设备,包括:
第二状态同步模块,用于同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流,所述第一虚拟空间为具有虚拟布景的虚拟空间,所述第二虚拟空间为所述第二设备对动捕空间进行映射得到的虚拟空间;
增强现实画面生成模块,用于获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
其中,所述视频流是根据虚拟现实画面生成的,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。
根据本申请实施例的另一个方面,提供了一种电子设备,该电子设备包括存储器、处理器及存储在存储器上的计算机程序,处理器执行所述计算机程序以实现上述第一或第二方面提供的方法的步骤。
根据本申请实施例的再一个方面,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述第一或第二方面提供的方法的步骤。
根据本申请实施例的一个方面,提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现上述第一或第二方面提供的方法的步骤。
本申请实施例提供的技术方案带来的有益效果是:
本申请实施例应用于流媒体处理场景,动捕对象和观众看到的画面是存在区别的,动捕对象看到的是第二设备展示的增强现实画面,而观众看到的虚拟现实画面,虚拟现实画面是响应于虚拟对象对第一虚拟空间中的目标虚拟物体进行交互生成的,具体是基于虚拟对象在第一虚拟空间中实时的位姿信息,对第一虚拟空间中实时状态的目标虚拟物体进行交互的画面。由于动捕对象在动捕空间中实时的位姿信息和虚拟对象在第一虚拟空间中实时的位姿信息是对应的,同时目标虚拟物体在第一虚拟空间和第二虚拟空间中的实时状态也是同步的,因此,实现了当动捕对象对第二虚拟空间中的目标虚拟物体进行交互时,观众可以同步看到虚拟对象对第一虚拟空间中的目标虚拟物体进行交互的画面,并且动捕对象通过第二设备与目标虚拟物体进行交互,不需要提前彩排和固定位点,提高视频生成效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1a为本申请实施例提供的动捕空间的示意图;
图1b为本申请实施例提供的视频直播***的架构示意图;
图2为本申请实施例提供的一种视频生成方法的流程示意图;
图3为本申请实施例提供的对会议室进行扫描得到的虚拟空间的示意图;
图4为本申请实施例提供的增强现实画面的示意图;
图5a为本申请实施例提供的一种视频生成方法的交互示意图;
图5b为本申请实施例提供的另一种视频生成方法的交互示意图;
图6为本申请实施例提供的第一设备侧的视频生成方法的流程示意图;
图7为本申请实施例提供的第二设备侧的视频生成方法的流程示意图;
图8为本申请实施例提供的将动捕空间的坐标系和第二虚拟空间的坐标系进行统一的界面示意图
图9为本申请实施例提供的视频生成方法的流程示意图;
图10为本申请实施例提供的视频直播场景的交互示意图;
图11为本申请实施例提供的一种第一设备的结构示意图;
图12为本申请实施例提供的一种第二设备的结构示意图;
图13为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合本申请中的附图描述本申请的实施例。应理解,下面结合附图所阐述的实施方式,是用于解释本申请实施例的技术方案的示例性描述,对本申请实施例的技术方案不构成限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”和“该”也可包括复数形式。应该进一步理解的是,本申请实施例所使用的术语“包括”以及“包含”是指相应特征可以实现为所呈现的特征、信息、数据、步骤、操作、元件和/或组件,但不排除实现为本技术领域所支持其他特征、信息、数据、步骤、操作、元件、组件和/或它们的组合等。应该理解,当我们称一个元件被“连接”或“耦接”到另一元件时,该一个元件可以直接连接或耦接到另一元件,也可以指该一个元件和另一元件通过中间元件建立连接关系。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的术语“和/或”指示该术语所限定的项目中的至少一个,例如“A和/或B”可以实现为“A”,或者实现为“B”,或者实现为“A和B”。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请涉及的几个名词进行介绍和解释:
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时追随及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
虚拟现实(Virtual Reality,VR),又称虚拟实境或灵境技术,虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真***,它利用计算机生成一种模拟环境,使用户沉浸到该环境中。虚拟现实技术就是利用现实生活中的数据,通过计算机技术产生的电子信号,将其与各种输出设备结合使其转化为能够让人们感受到的现象,这些现象可以是现实中真真切切的物体,也可以是我们肉眼所看不到的物质,通过三维模型表现出来。因为这些现象不是我们直接所能看到的,而是通过计算机技术模拟出来的现实中的世界,故称为虚拟现实。
虚拟人:是运用数字技术创造出来的、与人类形象接近的数字化人物形象。
动捕空间:为了让虚拟人能够运动起来和真人一样,需要使用动作捕捉技术对真人的动作进行捕捉。而想要进行动作捕捉,通常就需要设置一个特定的空间范围,如图1a所示,其示出了一个动捕空间的示意图,可以看出,多个摄像机围成的空间范围即为动捕空间,多个摄像机从不同的角度对真人的运动进行捕捉,获得动捕数据。
相关技术在动作捕捉的过程中,需要对处于动捕空间中需要交互的虚拟物体的地方提前进行标记点设置,比如在地面上贴上需要动捕对象移动的位置,来辅助动捕对象进行表演,在实际表演的过程中,动捕对象在动捕空间中通过标记点进行表演。
在实际项目中,由于需要提前进行标记点设置,因此需要动捕对象提前彩排,固定点位,之后实际拍摄中根据固定的点位进行表演,流程较为复杂,同时无法确定动态点位,比如当需要动捕对象跟随一个动态移动的虚拟角色的时候,往往特别困难,因为在实际场地中并没有一个实时的动态物体,需要动捕对象想象配合画面进行无实物表演,这样对于动捕对象来说要求也比较高。
本申请提供的视频生成方法、第一设备、第二设备、电子设备、计算机可读存储介质以及计算机程序产品,旨在解决现有技术的如上技术问题。
下面通过对几个示例性实施方式的描述,对本申请实施例的技术方案以及本申请的技术方案产生的技术效果进行说明。需要指出的是,下述实施方式之间可以相互参考、借鉴或结合,对于不同实施方式中相同的术语、相似的特征以及相似的实施步骤等,不再重复描述。
参见图1b,图1b为本申请实施例提供的视频直播***100的架构示意图,为实现支撑一个示例性应用,终端(示例性示出了终端400-1和终端400-2)通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。
终端可以为具有数据采集(如视频采集)功能的设备,如第二设备、虚VR设备、MR设备等;又如,第二设备可以为具有AR功能的智能手机、平板电脑、笔记本电脑、AR眼镜等各种类型的用户终端,还可以为具有AR功能的台式计算机、电视机或者这些数据处理设备中任意两个或多个的组合;服务器200既可以为单独配置的支持各种业务的一个服务器,亦可以配置为一个服务器集群,还可以为云服务器等。
在实际应用中,通过终端上的数据采集设备采集动捕对象在动捕空间中的位姿信息,可以理解的是,位姿信息包括了位置信息和姿态信息,也即动捕对象(也可以是动捕对象的特定部位,比如手、胳膊、头等等)在动捕空间的位置以及姿态。将位姿信息映射至第一虚拟空间中的虚拟对象,本申请实施例的第一虚拟空间是具有虚拟布景的虚拟空间,比如虚拟足球场、虚拟空间站等等,在一些实施例中,第一虚拟空间可以是动捕对象控制虚拟对象进行游戏的空间,以跑酷游戏为例,虚拟布景可以是虚拟地板、虚拟火圈、虚拟陷阱、虚拟柱子中的一个或多个。示例性的,本申请可以利用如人工神经网络、置信网络、强化学习、迁移学习等机器学习/深度学习算法,来预先构建游戏中虚拟对象的对象模型,以及实现对虚拟布景的渲染处理,以使游戏界面展示的虚拟布局包含的各虚拟对象更加逼真,且各虚拟对象的动作更加流畅等,具体实现过程本申请不做一一详述。
需要说明,对于本申请上述各实施例描述的游戏,可以是离线游戏,即动捕对象在如手机、平板电脑、台式电脑、笔记本电脑等电子设备上,安装该游戏并运行,在游戏运行过程中,电子设备可以执行本申请提出的视频生成方法,满足生成游戏视频的需求。其中,在游戏运行过程,支持游戏界面展示不同虚拟布景场景的功能实现,均可以在电子设备本地实现,即电子设备调用本地存储的相应功能组件,支持实现相应的布景更新,具体实现过程本申请在此不做详述。
由于虚拟对象是由动捕对象的动捕数据(也即实时的位姿信息)驱动的,故虚拟对象执行的是与动捕对象完全一致的动作。本申请实施例的终端还向动捕对象实时展示增强现实画面,这样动捕对象就可以看到现实场景以及第二虚拟空间中的虚拟物体,本申请实施例的第二虚拟空间是终端对动捕空间进行扫描(映射)获得的虚拟空间,因此虚拟空间和动捕空间的大小是一致的,通过在虚拟空间中的指定位置设置目标虚拟物体,并且通过终端向动捕对象进行展示,避免了现有技术动捕对象凭想象预计虚拟物体的位置并和虚拟物体互动的问题,由于本申请实施例应用于流媒体处理场景,因此还需要将目标虚拟物体的实时状态在第一虚拟空间和第二虚拟空间进行同步,观众看到的画面是虚拟现实画面,也即基于虚拟对象在第一虚拟空间中实时的位姿信息,对第一虚拟空间中实时状态的目标虚拟物体进行交互的结果。
本申请实施例中提供了一种视频生成方法,如图2所示,该方法包括:
S101、获得动捕对象在动捕空间中实时的位姿信息。
需要说明的是,当本申请实施例应用于直播场景时,动捕对象可以是主播。
本申请实施例的动捕对象位于动捕空间中,动捕空间的四周部署了至少一个能够对动捕对象进行动作捕捉的摄像机,动捕对象在动捕空间内实时进行的动作,都会被摄像机捕捉到相应的位姿信息,并发送至第一设备。可以理解的是,位姿信息包括位置和姿态两个维度的信息。在一些实施例中,动捕对象的位姿信息可以是指动捕对象的特定部位的位姿信息,以手部为例,手部的位姿信息可以包括手部在动捕空间的坐标以及手势。
应当理解的是,本申请各个实施例中相关数据(例如位姿信息)收集处理在实例应用时,应该严格根据相关国家法律法规的要求,获取个人信息主体的知情同意或单独同意,并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为。
本申请实施例可以预先构建动捕空间的坐标系,该坐标系的原点可以位于动捕空间地面的中心,并且,该坐标可以是右手直角坐标系(right-hand system),此坐标系中x轴,y轴和z轴的正方向是如下规定的:把右手放在原点的位置,使大拇指,食指和中指互成直角,把大拇指指向x轴的正方向,食指指向y轴的正方向时,中指所指的方向就是z轴的正方向。也可以按如下方法确定右手(左手)坐标系:如果当右手(左手)的大拇指指向第一个坐标轴(x轴)的正向,而其余手指以第二个轴(y轴)绕第一轴转动的方向握紧,就与第三个轴(z轴)重合,就称此坐标系为右手(左手)坐标系。
S102、将所述位姿信息同步映射至第一虚拟空间中的虚拟对象。
本申请实施例预先渲染了第一虚拟空间,第一虚拟空间为具有虚拟布景的虚拟空间,该虚拟布局与实际应用环境相关,例如可以是虚拟球场、虚拟太空、虚拟空间站等等。本申请实施例可以预先建立动捕空间和第一虚拟空间之间的映射关系,这样动捕对象的位姿信息,就可以根据映射关系映射至第一虚拟空间中的虚拟对象,实现动捕对象控制虚拟对象运动。
S103、同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态。
本申请实施例还需要预选构建动捕空间对应的虚拟空间,也即第二虚拟空间。第二虚拟空间是通过对动捕空间进行扫描获得。在构建第二虚拟空间时,将第二设备绕动捕空间缓慢移动,并扫描四周,就可以使第二设备获得更多采样点之间相对位置的数据,并且,多次对关键区域进行扫描,也有助于精度的提高。请参见图3,其示例性地示出了对一个会议室进行扫描得到的虚拟空间的示意图,可以看出,该虚拟空间很好地还原了会议室的实际布局。
本申请实施例通过第二设备向动捕对象展示增强现实画面,可以理解的是,增强现实画面是在现实场景上叠加虚拟场景生成的,也即,动捕对象可以通过第二设备同时看到自己真实的肢体、所处的现实环境以及叠加在显示环境的虚拟物体。请参见图4,其示例性地示出了本申请实施例提供的增强现实画面的示意图,从图可以看到,画面中展示动捕对象自身真实的手以及虚拟键盘,动捕对象可以通过第二设备展示的画面,同时观察到自己的手和虚拟键盘,这样就可以实现精准和虚拟键盘交互的目的。应当理解的是,在不同的交互场景下,动捕对象可以用不同的肢体和目标虚拟物体的肢体进行交互,例如在下棋、解密等场景下,动捕对象通过手和目标虚拟物体(例如虚拟棋子)进行交互,在踢球场景下,动捕对象通过腿和脚,与目标虚拟物体(例如虚拟足球)进行交互。
本申请实施例的增强现实画面为基于动捕对象在动捕空间中实时的位姿信息,对第二虚拟空间中实时状态的目标虚拟物体进行交互的画面。以图4为例,动捕对象从第二设备看到的增强现实画面就是自己的手指和虚拟键盘进行交互的画面,由于虚拟键盘是基于现实展示的,所以虚拟键盘在现实中是有一个明确位置的,当动捕对象的手指和虚拟键盘的一个虚拟按键的距离减小到预设阈值时,视为动捕对象和该虚拟按键进行了交互,动捕对象将直观地看到虚拟按键被按下的画面,需要注意的是,该虚拟按键对应的字符可以同步显示在第二设备——虚拟现实画面可以展示一个文本框,每当有虚拟按键被按下,按下的虚拟按键对应的字符就会显示在文本框中,在一些实施例中,该虚拟按键对应的字符也可以不在第二设备显示,而是在第二设备外接的其他设备进行展示,该其他设备可以是第一设备。
本申请实施例需要实时同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态。应当理解的是,动捕对象能够看到第一虚拟空间中的目标虚拟物体,目的是为了和第二虚拟空间中的目标虚拟物体进行交互,而观众需要看到的是第一虚拟空间中的目标虚拟物体,也即目标虚拟物体在虚拟布景的交互结果,所以当动捕对象和第二虚拟空间中的目标虚拟物体交互,并改变目标虚拟物体的状态时,需要将目标虚拟物体的状态同步到第一虚拟空间,以生成视频流。
在一些实施例中,除了存在将目标虚拟物体在第二虚拟空间的实时状态同步至第一虚拟空间的情况,也存在将目标虚拟物体在第一虚拟空间的实时状态同步至第二虚拟空间的情况。以第一虚拟空间为虚拟足球场,目标虚拟物体为虚拟足球为例,如果原本虚拟足球位于虚拟足球场的中场位置,但需要更新到角球位置时,所以就需要先在虚拟足球场中将虚拟足球的位置进行更新,同时,根据虚拟足球更新后的位置同步调整虚拟足球在第二虚拟空间中的位置。
本申请实施例对于目标虚拟物体的状态的类型不作限定,例如可以包括位置、开关状态、颜色、大小、形状等等。
S104、响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面。
S105、根据实时的虚拟现实画面生成视频流。
本申请实施例应用于流媒体处理场景,动捕对象和观众看到的画面是存在区别的,动捕对象看到的是第二设备展示的增强现实画面,而观众看到的虚拟现实画面,虚拟现实画面是响应于虚拟对象对所述第一虚拟空间中的目标虚拟物体进行交互生成的,具体是基于虚拟对象在第一虚拟空间中实时的位姿信息,对第一虚拟空间中实时状态的目标虚拟物体进行交互的画面。由于动捕对象在动捕空间中实时的位姿信息和虚拟对象在第一虚拟空间中实时的位姿信息是对应的,同时目标虚拟物体在第一虚拟空间和第二虚拟空间中的实时状态也是同步的,因此,实现了当动捕对象对第二虚拟空间中的目标虚拟物体进行交互时,观众可以同步看到虚拟对象对第一虚拟空间中的目标虚拟物体进行交互的画面。
需要说明的是,本申请实施例根据实时的虚拟现实画面生成的视频流,可以用于直播,也可以用于录播,若用于直播,则视频流将实时传世至观看直播的观众的终端,若用于录播,则视频流会存储在预设的数据库中。
本申请实施例在流媒体处理场景中,通过由动捕对象在动捕空间中佩戴第二设备,将待交互的目标虚拟物体显示在第二虚拟空间,第二虚拟空间是动捕空间的扫描结果,所以动捕对象可以通过第二设备看到第二虚拟空间中的目标虚拟物体,并与之交互,让动捕对象的表演更加自然,交互的画面即为增强现实画面,动捕对象在动捕空间中实时的位姿信息同步映射至第一虚拟空间中的虚拟对象,第一虚拟空间为具有虚拟布景的虚拟空间,通过同步目标虚拟物体在第一虚拟空间和第二虚拟空间的的实时状态,确定基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面,也即虚拟现实画面,发送包括虚拟现实画面的视频流,本申请达到了动态的空间精准交互,并且极大地降低甚至取消彩排的事件,无需提前标记交互位置就可以直接交互。
在上述各实施例的基础上,作为一种可选实施例,同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,包括两种方式:
方式一,获得所述第二设备发送的所述目标虚拟物体在所述第二虚拟空间中的实时状态,根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第一虚拟空间中的实时状态。
方式一针对的是第二虚拟空间中的目标虚拟物体为主物体,第一虚拟空间中的目标虚拟物体为从物体的情况。本申请实施例的第二虚拟空间是由第二设备创建和维护的,动捕对象可以通过第二设备调整目标虚拟物体在第二虚拟空间中的实时状态,比如调整目标虚拟物体的位置、形状、大小等等,动捕对象也可以在动捕空间内更新动作,由第二设备对动捕对象的动作进行动作捕捉,确定动捕对象实时的位姿,并基于动捕对象实时的位姿对目标虚拟物体进行交互,获得目标虚拟物体在第二虚拟空间中的位置。第二设备将目标虚拟物体在第二虚拟空间中的实时状态发送至第一设备,第一设备根据第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第一虚拟空间中的实时状态。
请参见图5a,其示例性地示出了本申请一个实施例的视频生成方法的交互示意图,如图所示,包括:
S201、第二设备采集动捕对象在动捕空间中实时的位姿信息,并发送至第一设备;
S202、第一设备将位姿信息同步至第一虚拟空间中的虚拟对象;
S203、第二设备调整目标虚拟物体在第二虚拟空间中的实时状态,并将调整后的实时状态发送至第一设备;
S204、第一设备根据目标虚拟物体在第二虚拟空间中调整后的实时状态,对目标虚拟物体在第一虚拟空间中的实时状态进行调整;
S205、第一设备响应于虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,根据实时的虚拟现实画面生成视频流。
需要说明的是,步骤S202和S203的时序关系不作限定,步骤S202可以在步骤S203之前执行,也可以在步骤S203之后执行,也可以同时执行。
第二设备调整目标虚拟物体在所述第二虚拟空间中的实时状态,可以是对第二设备进行目标虚拟物体的状态的设置,使得第二设备调整目标虚拟物体在所述第二虚拟空间中的实时状态,也可以是第二设备响应于动捕对象对第二虚拟空间中的目标虚拟物体进行交互,对目标虚拟物体的实时状态进行了更新。
方式二,确定所述目标虚拟物体在所述第一虚拟空间中的实时状态,将所述目标虚拟物体在所述第一虚拟空间中的实时状态发送至第二设备,以使得所述第二设备根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第二虚拟空间中的实时状态。
方式二针对的是第一虚拟空间中的目标虚拟物体为主物体,第一虚拟空间中的目标虚拟物体为从物体的情况。本申请实施例的第一虚拟空间是由第一设备创建和维护的,动捕对象可以通过第一设备调整目标虚拟物体在第一虚拟空间中的实时状态,比如调整目标虚拟物体的位置、形状、大小等等,第一设备将目标虚拟物体在第一虚拟空间中的实时状态发送至第二设备,第二设备根据第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第二虚拟空间中的实时状态。
需要说明的是,虽然第一虚拟空间中的目标虚拟物体可以是主物体,但由于虚拟现实画面是基于虚拟对象与第一虚拟空间的目标虚拟物体进行交互生成的,而虚拟对象的位姿信息来自于动捕对象在动捕空间中实时的位姿信息,因此目标虚拟物体在第一虚拟空间中的实时状态在大部分时间是基于虚拟对象对目标虚拟物体进行交互而变化的,第一设备往往是在直播开始前对目标虚拟物体在第一虚拟空间的实时状态进行更新。
请参见图5b,其示例性地示出了本申请一个实施例的视频生成方法的交互示意图,如图所示,包括:
S301、第二设备采集动捕对象在动捕空间中实时的位姿信息,并发送至第一设备;
S302、第一设备将位姿信息同步至第一虚拟空间中的虚拟对象;
S303、第一设备确定所述目标虚拟物体在所述第一虚拟空间中的实时状态,发送第二设备;
S304、第二设备将目标虚拟物体在第一虚拟空间的实时状态同步至第二虚拟空间;
S305、第二设备响应于动捕对象对第二虚拟空间的目标虚拟物体的交互,更新目标虚拟物体在第二虚拟空间的实时状态,并发送第一设备;
S305、第一设备将目标虚拟物体在第二虚拟空间的实时状态同步至第一虚拟空间;
S306、第一设备响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,根据实时的虚拟现实画面生成视频流。
需要说明的是,步骤S302和S303的时序关系不作限定,步骤S302可以在步骤S303之前执行,也可以在步骤S303之后执行,也可以同时执行。
本申请实施例对于第一虚拟空间和第二虚拟空间的映射关系不作具体限定,例如可以是坐标系的映射关系,渲染效果的映射关系等等。
在上述各实施例的基础上,作为一种可选实施例,响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,包括:
响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,若所述目标虚拟物体当前时刻在所述第一虚拟空间中的状态相比前一时刻的变化程度大于预设阈值,则基于虚拟对象在第一虚拟空间中当前的位姿信息,对所述第一虚拟空间中当前时刻的目标虚拟物体进行交互的结果,生成当前时刻的虚拟现实画面;
若所述目标虚拟物体当前时刻在所述第一虚拟空间中的状态相比前一时刻的变化程度不大于预设阈值,则将前一时刻的虚拟现实画面作为当前时刻的虚拟现实画面。
本申请实施例提供了针对直播流量的优化方案,具体来说,本申请实时只会在目标虚拟物体在第一虚拟空间的状态变化较大时,才会生成新的虚拟现实画面,如果变化不大,则沿用上一时刻的虚拟现实画面,此时,第一设备会向观众对应的客户端发送指示信息,该指示信息用于指示客户端将上一时刻的虚拟现实画面作为当前时刻的虚拟画面,从而节省发送的流量带宽。
在一些实施例中,本申请实施例可以在第一设备中设置相互独立的第一线程和第二线程,其中第一线程用于同步目标虚拟物体在两个虚拟空间中的实时状态,第二线程则用于生成实时的虚拟现实画面以及视频流,第二线程以固定的帧率发送视频流,避免第一线程的卡顿影响视频流的发送。
在上述各实施例的基础上,作为一种可选实施例,状态包括所述目标虚拟物体的物体标识、待执行的函数的名称以及待传入所述函数的参数。
在实际应用时,状态的传输结构包含以下三个信息:
objectPath:目标虚拟物体的物体标识;
functionName:待执行的函数的名称
parameters:待传入所述函数的参数。
下面示出一个具体状态的代码信息:
上述代码中,目标虚拟物体的物体标识以目标虚拟物体在数据库中的存储路径/Game/ThirdPersonBP/Maps/ThirdPersonExampleMap.ThirdPersonExample Map:PersistentLevel.LightSource_0.LightComponent0表示,函数名称为“相对旋转”,也即将目标虚拟物体进行旋转的函数,需要向函数输入的参数包括俯仰角、翻滚角和方位角的具体数值,从上述代码中可以看出需要对俯仰角旋转90度,翻滚角和方位角则不保持不变。通过上述函数,本申请实施例就可以对目标虚拟物体的旋转进行设置。同理,也可以通过其他函数设置目标虚拟物体的其他状态。
在上述各实施例的基础上,作为一种可选实施例,同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,之前还包括:
向所述第二设备发送所述目标虚拟物体的物体标识,以使得所述第二设备根据所述目标虚拟物体的物体标识,将所述目标虚拟物体部署至AR层,并在所述第二虚拟空间渲染所述目标虚拟物体。
需要注意的是,实际应用时虚拟物体的数量是很多的,但第二设备在一个时刻通常不会将所有的虚拟物体进行显示,只会将部署在AR层(AR layer)中的虚拟物体进行显示,本申请实施例由第一设备向第二设备指示目标虚拟物体的物体标识,第二设备根据所述目标虚拟物体的物体标识,将所述目标虚拟物体部署至AR层,并在所述第二虚拟空间渲染所述目标虚拟物体。
请参见图6,其示例性地示出了本申请实施例的第一设备侧的视频生成方法的流程示意图,如图所示,包括:
S401、向第二设备发送所述目标虚拟物体的物体标识,以使得第二设备在所述第二虚拟空间渲染所述目标虚拟物体;
S402、获得动捕对象在动捕空间中实时的位姿信息;
S403、将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;
S404、同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态;
S405、响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,若所述目标虚拟物体当前时刻在所述第一虚拟空间中的状态相比前一时刻的变化程度大于预设阈值,则基于虚拟对象在第一虚拟空间中当前的位姿信息,对所述第一虚拟空间中当前时刻的目标虚拟物体进行交互的结果,生成当前时刻的虚拟现实画面;反之,将前一时刻的虚拟现实画面作为当前时刻的虚拟现实画面;
S406、根据实时的虚拟现实画面生成视频流发送至观众的客户端。
请参见图7,其示例性地示出了本申请实施例的第二设备侧的视频生成方法的流程示意图,如图所示:
S501、同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流。
本申请实施例的第二设备需要同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间的实时状态,从而保证目标虚拟物体在不同虚拟空间中状态的变化是同步的,也就动捕对象观察到的目标虚拟物体的状态变化和观众观察到的目标虚拟物体的状态是同步的。
本申请实施例的第一虚拟空间为具有虚拟布景的虚拟空间,目的是为了提高直播效果,让观众能够看到更精彩的画面,该画面也即虚拟现实画面,所述视频流是根据虚拟现实画面生成的,虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面,所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。也就是说,本申请实施例的第一虚拟空间包括了虚拟布局、同步映射动捕对象在动捕空间中实时的位姿信息的虚拟对象以及与第二虚拟空间中的目标虚拟物体同步的状态。
第二虚拟空间为第二设备对动捕空间进行映射得到的虚拟空间。本申请实施例由第二设备对动捕空间进行细致地扫描,三维重建得到尽可能一致的虚拟空间,并且通过将第二虚拟空间的坐标系和动捕空间的坐标***统一,这样在基于动捕空间设置目标虚拟物体的位置时,就可以快速获得目标虚拟物体在第二虚拟空间的位置,方便动捕对象通过第二设备和目标虚拟物体进行交互。
S502、获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面。
本申请实施例的第二设备获得动捕对象在动捕空间中实时的位姿信息,由于第二设备会向动捕对象展示目标虚拟物体在第二虚拟空间的位置,那么通过获得动捕对象在动捕空间中实时的位姿信息,就可以进一步确定目标虚拟物体和动捕对象交互后的实时状态,进而生成增强现实画面。本申请实施例的增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面。
本申请实施例在流媒体处理场景中,通过由动捕对象在动捕空间中佩戴第二设备,将待交互的目标虚拟物体显示在第二虚拟空间,第二虚拟空间是动捕空间的扫描结果,所以动捕对象可以通过第二设备看到第二虚拟空间中的目标虚拟物体,并与之交互,让动捕对象的表演更加自然,交互的画面即为增强现实画面,动捕对象在动捕空间中实时的位姿信息同步映射至第一虚拟空间中的虚拟对象,第一虚拟空间为具有虚拟布景的虚拟空间,通过同步目标虚拟物体在第一虚拟空间和第二虚拟空间的的实时状态,确定基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面,也即虚拟现实画面,发送包括虚拟现实画面的视频流,本申请达到了动态的空间精准交互,并且极大地降低甚至取消彩排的时间,无需提前标记交互位置就可以直接交互,由于本申请实施例预先将第二虚拟空间和动捕空间的坐标系进行统一,因此在第二虚拟空间设置目标虚拟物体的位置时,可以快速直观地确定目标虚拟物体在增强现实画面中的位置,也即动捕对象通过第二设备观察到的目标虚拟物体的位置,提升了布置目标虚拟物体的效率,特别适用于直播场景下需要动捕对象快速和目标虚拟物体进行交互的需求。
在上述各实施例的基础上,作为一种可选实施例,同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,之前还包括:
对所述动捕空间进行映射,获得所述第二虚拟空间;
建立所述动捕空间的坐标系,根据所述动捕空间的坐标系,建立所述第二虚拟空间的坐标系,并确定所述第二虚拟空间的坐标系与所述动捕空间的坐标系间的转换关系。
本申请实施例对整个动捕空间进行扫描,通过围绕动捕空间慢慢移动,环顾四周,使得第二设备获得更多采样点的相对位置的数据,在获得动捕空间的环境信息后,在动捕空间做一个标记点,用来确定动捕空间的中心位置,基于标记点确定坐标系的方向和位置信息,确保与第二虚拟空间的坐标系一致。
本申请实施例可以通过第二设备上的动捕相机获得各个采样点的相对位置,在实际应用时,使用一个固定相对位置的工具在动捕空间中进行8字形的挥舞,并保证动捕相机的位置不变,一段时间后,就可以得到动捕相机在动捕空间中准确的相对位置。
本申请实施例需要验证动捕空间和第二虚拟空间的方向和坐标系的位置是否同意。具体可以在第二虚拟空间的坐标系原点放置坐标系模型,指向三个轴向的正方向,通过在第二设备中向动捕对象展示该坐标系的原点和正方向,由于动捕对象通过第二设备是可以看到动捕空间的现实环境的,而现实环境中实际标记了动捕空间的原点和坐标轴,因此动捕对象可以通过肉眼就可以观察到第二虚拟空间的坐标系和动捕空间的坐标系是否一致。
请参见图8,其示例性示出了本申请实施例将动捕空间的坐标系和第二虚拟空间的坐标系进行统一的界面示意图,如图所示,显示了扫描的动捕空间的坐标系框架201、第二虚拟空间的坐标系框架202以及不同方向的可拖拽的控件203,操作者通过拖拽相应方向的控件203,实现将第二虚拟空间向相应方向移动的效果,以将两个坐标系框架的位置重合。
需要注意的是,相关技术中直播的弹幕通常会显示在主播(动捕对象)的电脑上,这就导致当主播想要看弹幕时,就需要先暂停动捕,然后再观看弹幕,了解观众的意见后,再次动捕,这种方式使得要么主播过程并不流畅,要么主播就无视观众的意见进行直播,影响直播效果。
在上述各实施例的基础上,当本申请实施例应用于直播场景时,第二设备还用于显示观众发送的弹幕。具体地,观众在终端输入弹幕信息后,终端将弹幕信息发送至第一设备,由第一设备将弹幕信息转发至第二设备进行显示,从而帮助动捕对象实时根据弹幕信息调整交互策略。本申请实施例利用了第二设备可以展示信息的能力,将弹幕信息展示在第二设备中,方便主播可以一边观看弹幕,一边和目标虚拟物体交互,保证了直播的流畅,也方便主播根据弹幕及时调整直播策略,在交互层面上提升了效率,同时还提高了直播效果。
请参见图9,其示例性地示出了本申请实施例的视频生成方法的流程示意图,如图所示,本申请实施例主要包括三个阶段:
准备阶段:由第二设备对动捕空间进行扫描,获得第二虚拟空间,并设置第二虚拟空间的中心位置,对动捕对象在动捕空间实时的位姿信息进行捕捉(也称之为扫场),设置动捕空间的中心位置,根据第二虚拟空间和动捕空间的中心位置,将第二虚拟空间和动捕空间的坐标系进行统一,这样后续动捕对象在动捕空间的位姿信息和目标虚拟物体在第二虚拟空间的坐标的处理将会统一。
工程设置阶段:针对需要交互的目标虚拟物体进行同步设置。
本申请实施例的目标虚拟物体是需要被动捕对象和观众都看到的物体,目标虚拟物体可以是静态网格物体、带骨骼的动态角色物体、虚拟控件等等。本申请实施例通过AR层工具对第二虚拟空间进行分层,将需要交互的虚拟物体,也即目标虚拟物体设置到AR层中。本申请实施例可以将目标虚拟物体的所有权配置给第二设备,也可以配置给第一设备,如果第二设备具有目标虚拟物体的所有权,则第二设备将目标虚拟物体在所述第二虚拟空间中的实时状态,发送至第一设备,由第一设备根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在第一虚拟空间中的实时状态,如果第一设备具有目标虚拟物体的所有权,则第一设备确定所述目标虚拟物体在所述第一虚拟空间中的实时状态,将所述目标虚拟物体在所述第一虚拟空间中的实时状态发送至第二设备,以使得所述第二设备根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第二虚拟空间中的实时状态。
直播阶段:主要通过第二设备的数据同步来实现精准动态交互。
在直播阶段,第二设备将目标虚拟物体在第二虚拟空间的实时状态以及动捕对象实时的位姿信息,打包发送至第一设备进行同步,第一设备也可能响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,可以理解的是,状态的同步除了目标虚拟物体的位置,还可以包括多目标虚拟物体的控制指令,例如旋转、点击、开启、关闭等等。最终观众看到的直播画面,包含了虚拟对象、虚拟物体以及虚拟布景。
下面结合一个具体的实施例说明本申请实施例的游戏直播场景的交互示意图,如图10所示,首先部署动捕空间301,当动捕对象(也即主播)302在动捕空间内运动时,会通过动捕摄像机采集到动捕对象302实时的位姿信息,由第二设备303对动捕空间301进行扫描,获得第二虚拟空间304,将动捕空间301的坐标系和第二虚拟空间304的坐标系进行统一,通过第二设备303或者第一设备305在第二虚拟空间304设置需要交互的虚拟足球306的位置,第一设备305则创建虚拟球场,本申请实施例提供了虚拟的射门游戏,第一设备创建虚拟球场的同时,还可以提供剧情内容,从而丰富游戏体验,第二设备303和第一设备305同步虚拟足球305分别在第二虚拟空间304和虚拟球场307中的位置,第二设备303获得动捕对象在动捕空间301中实时的位姿信息,响应于动捕对象302与第二虚拟空间的虚拟足球306进行交互,生成并展示增强现实画面,从而避免了动捕对象需要靠想象和虚拟物体交互以及提前彩排的弊端,第一设备305将动捕对象302实时的位姿信息映射至虚拟球场的虚拟球员308,第一设备305响应于虚拟球场中的虚拟球员308和虚拟足球306的交互,生成实时的虚拟现实画面,具体地,可以根据虚拟球员射门的力度和角度,模拟虚拟足球的运动轨迹,若运动轨迹落入虚拟球场中的虚拟球门内,则虚拟现实画面还可以展示得分、进球的提示信息等等,第一设备305根据实时的虚拟现实画面生成视频流,观众通过终端309就可以看到虚拟球员踢球的直播画面,观众通过终端309可以发表弹幕信息,第一设备305将弹幕信息转发至第二设备303,由第二设备303向主播进行展示,主播可以根据弹幕信息及时调整直播策略——例如调整虚拟足球的位置、踢球的方式以及虚拟布景等等,从而提升直播效果。
本申请实施例提供了一种第一设备,如图11所示,该第一设备可以包括:位姿获得模块401、位姿映射模块402、第一状态同步模块403、虚拟现实画面生成模块404和视频流生成模块405,其中,
位姿获得模块401,用于获得动捕对象在动捕空间中实时的位姿信息;
位姿映射模块402,用于将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;所述第一虚拟空间为具有虚拟布景的虚拟空间;
第一状态同步模块403,用于同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,所述第二虚拟空间为第二设备对所述动捕空间进行映射得到的虚拟空间;所述第二设备用于向所述动捕对象实时展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
虚拟现实画面生成模块404,用于响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
视频流生成模块405,用于根据实时的虚拟现实画面生成视频流。
本申请实施例提供了一种第二设备,如图12所示,该第二设备可以包括:第二状态同步模块501和增强现实画面生成模块502,其中
第二状态同步模块501,用于同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流,所述第一虚拟空间为具有虚拟布景的虚拟空间,所述第二虚拟空间为所述第二设备对动捕空间进行映射得到的虚拟空间;
增强现实画面生成模块502,用于获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
其中,所述视频流是根据虚拟现实画面生成的,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。
本申请实施例的第一设备和第二设备可对应执行本申请实施例所提供的第一设备侧的视频生成方法以及第二设备侧的视频生成方法,其实现原理相类似,本申请各实施例的装置中的各模块所执行的动作是与本申请各实施例的方法中的步骤相对应的,对于装置的各模块的详细功能描述具体可以参见前文中所示的对应方法中的描述,此处不再赘述。
本申请实施例中提供了一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,该处理器执行上述计算机程序以实现视频生成方法的步骤,与相关技术相比可实现:本申请实施例应用于流媒体处理场景,动捕对象和观众看到的画面是存在区别的,动捕对象看到的是第二设备展示的增强现实画面,而观众看到的虚拟现实画面,虚拟现实画面是响应于虚拟对象对所述第一虚拟空间中的目标虚拟物体进行交互生成的,具体是基于虚拟对象在第一虚拟空间中实时的位姿信息,对第一虚拟空间中实时状态的目标虚拟物体进行交互的画面。由于动捕对象在动捕空间中实时的位姿信息和虚拟对象在第一虚拟空间中实时的位姿信息是对应的,同时目标虚拟物体在第一虚拟空间和第二虚拟空间中的实时状态也是同步的,因此,实现了当动捕对象对第二虚拟空间中的目标虚拟物体进行交互时,观众可以同步看到虚拟对象对第一虚拟空间中的目标虚拟物体进行交互的画面。
在一个可选实施例中提供了一种电子设备,如图13所示,图13所示的电子设备4000包括:处理器4001和存储器4003。其中,处理器4001和存储器4003相连,如通过总线4002相连。可选地,电子设备4000还可以包括收发器4004,收发器4004可以用于该电子设备与其他电子设备之间的数据交互,如数据的发送和/或数据的接收等。需要说明的是,实际应用中收发器4004不限于一个,该电子设备4000的结构并不构成对本申请实施例的限定。
处理器4001可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器4001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线4002可包括一通路,在上述组件之间传送信息。总线4002可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线4002可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器4003可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscRead Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质、其他磁存储设备、或者能够用于携带或存储计算机程序并能够由计算机读取的任何其他介质,在此不做限定。
存储器4003用于存储执行本申请实施例的计算机程序,并由处理器4001来控制执行。处理器4001用于执行存储器4003中存储的计算机程序,以实现前述方法实施例所示的步骤。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现前述方法实施例的步骤及相应内容。
本申请实施例还提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时可实现前述方法实施例的步骤及相应内容。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”、“1”、“2”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除图示或文字描述以外的顺序实施。
应该理解的是,虽然本申请实施例的流程图中通过箭头指示各个操作步骤,但是这些步骤的实施顺序并不受限于箭头所指示的顺序。除非本文中有明确的说明,否则在本申请实施例的一些实施场景中,各流程图中的实施步骤可以按照需求以其他的顺序执行。此外,各流程图中的部分或全部步骤基于实际的实施场景,可以包括多个子步骤或者多个阶段。这些子步骤或者阶段中的部分或全部可以在同一时刻被执行,这些子步骤或者阶段中的每个子步骤或者阶段也可以分别在不同的时刻被执行。在执行时刻不同的场景下,这些子步骤或者阶段的执行顺序可以根据需求灵活配置,本申请实施例对此不限制。
以上所述仅是本申请部分实施场景的可选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请的方案技术构思的前提下,采用基于本申请技术思想的其他类似实施手段,同样属于本申请实施例的保护范畴。
Claims (12)
1.一种视频生成方法,其特征在于,应用于第一设备,所述方法包括:
获得动捕对象在动捕空间中实时的位姿信息;
将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;所述第一虚拟空间为具有虚拟布景的虚拟空间;
同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,所述第二虚拟空间为第二设备对所述动捕空间进行映射得到的虚拟空间;所述第二设备用于向所述动捕对象实时展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
根据实时的虚拟现实画面生成视频流。
2.根据权利要求1所述的方法,其特征在于,同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,包括:
获得所述第二设备发送的所述目标虚拟物体在所述第二虚拟空间中的实时状态,根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第一虚拟空间中的实时状态;或者
确定所述目标虚拟物体在所述第一虚拟空间中的实时状态,将所述目标虚拟物体在所述第一虚拟空间中的实时状态发送至第二设备,以使得所述第二设备根据所述第一虚拟空间和所述第二虚拟空间的映射关系,确定所述目标虚拟物体在所述第二虚拟空间中的实时状态。
3.根据权利要求2所述的方法,其特征在于,所述响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,包括:
响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,若所述目标虚拟物体当前时刻在所述第一虚拟空间中的状态相比前一时刻的变化程度大于预设阈值,则基于虚拟对象在第一虚拟空间中当前的位姿信息,对所述第一虚拟空间中当前时刻的目标虚拟物体进行交互的结果,生成当前时刻的虚拟现实画面;
若所述目标虚拟物体当前时刻在所述第一虚拟空间中的状态相比前一时刻的变化程度不大于预设阈值,则将前一时刻的虚拟现实画面作为当前时刻的虚拟现实画面。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述状态包括所述目标虚拟物体的物体标识、待执行的函数的名称以及待传入所述函数的参数。
5.根据权利要求1所述的方法,其特征在于,所述同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,之前还包括:
向所述第二设备发送所述目标虚拟物体的物体标识,以使得所述第二设备根据所述目标虚拟物体的物体标识,将所述目标虚拟物体部署至AR层,并在所述第二虚拟空间渲染所述目标虚拟物体。
6.一种视频生成方法,其特征在于,应用于第二设备,所述方法包括:
同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流,所述第一虚拟空间为具有虚拟布景的虚拟空间,所述第二虚拟空间为所述第二设备对动捕空间进行映射得到的虚拟空间;
获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
其中,所述视频流是根据虚拟现实画面生成的,所述虚拟现实画面为基于虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。
7.根据权利要求6所述的方法,其特征在于,所述同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,之前还包括:
对所述动捕空间进行映射,获得所述第二虚拟空间;
建立所述动捕空间的坐标系,根据所述动捕空间的坐标系,建立所述第二虚拟空间的坐标系,并确定所述第二虚拟空间的坐标系与所述动捕空间的坐标系间的转换关系。
8.一种第一设备,其特征在于,包括:
位姿获得模块,用于获得动捕对象在动捕空间中实时的位姿信息;
位姿映射模块,用于将所述位姿信息同步映射至第一虚拟空间中的虚拟对象;所述第一虚拟空间为具有虚拟布景的虚拟空间;
第一状态同步模块,用于同步目标虚拟物体分别在所述第一虚拟空间和第二虚拟空间中的实时状态,所述第二虚拟空间为第二设备对所述动捕空间进行映射得到的虚拟空间;所述第二设备用于向所述动捕对象实时展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
虚拟现实画面生成模块,用于响应于所述虚拟对象与所述第一虚拟空间的目标虚拟物体进行交互,生成实时的虚拟现实画面,所述虚拟现实画面为基于所述虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
视频流生成模块,用于根据实时的虚拟现实画面生成视频流。
9.一种第二设备,其特征在于,包括:
第二状态同步模块,用于同步目标虚拟物体分别在第一虚拟空间和第二虚拟空间中的实时状态,以使得第一设备生成视频流,所述第一虚拟空间为具有虚拟布景的虚拟空间,所述第二虚拟空间为所述第二设备对动捕空间进行映射得到的虚拟空间;
增强现实画面生成模块,用于获得动捕对象在动捕空间中实时的位姿信息,响应于动捕对象与所述第二虚拟空间的目标虚拟物体进行交互,生成并展示增强现实画面,所述增强现实画面为基于所述动捕对象在动捕空间中实时的位姿信息,对所述第二虚拟空间中实时状态的目标虚拟物体进行交互的画面;
其中,所述视频流是根据虚拟现实画面生成的,所述虚拟现实画面为基于虚拟对象在第一虚拟空间中实时的位姿信息,对所述第一虚拟空间中实时状态的目标虚拟物体进行交互的画面;
所述虚拟对象的位姿信息是将动捕对象在动捕空间中实时的位姿信息同步映射至所述第一虚拟空间得到的。
10.一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1-7任一项所述方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的视频生成方法。
12.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的视频生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311347975.7A CN117425044A (zh) | 2023-10-17 | 2023-10-17 | 视频生成方法、第一设备、第二设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311347975.7A CN117425044A (zh) | 2023-10-17 | 2023-10-17 | 视频生成方法、第一设备、第二设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117425044A true CN117425044A (zh) | 2024-01-19 |
Family
ID=89531818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311347975.7A Pending CN117425044A (zh) | 2023-10-17 | 2023-10-17 | 视频生成方法、第一设备、第二设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117425044A (zh) |
-
2023
- 2023-10-17 CN CN202311347975.7A patent/CN117425044A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10582182B2 (en) | Video capture and rendering system control using multiple virtual cameras | |
US9751015B2 (en) | Augmented reality videogame broadcast programming | |
EP3332565B1 (en) | Mixed reality social interaction | |
CN108616731B (zh) | 一种360度vr全景图形图像及视频实时生成方法 | |
US10121284B2 (en) | Virtual camera control using motion control systems for augmented three dimensional reality | |
US9430861B2 (en) | System and method for integrating multiple virtual rendering systems to provide an augmented reality | |
TWI468734B (zh) | 用於在共享穩定虛擬空間維持多個視面的方法、攜帶式裝置以及電腦程式 | |
US8885022B2 (en) | Virtual camera control using motion control systems for augmented reality | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
Reimat et al. | Cwipc-sxr: Point cloud dynamic human dataset for social xr | |
CN114615513A (zh) | 视频数据生成方法、装置、电子设备及存储介质 | |
WO2023236656A1 (zh) | 互动画面的渲染方法、装置、设备、存储介质及程序产品 | |
Lo et al. | From off-site to on-site: A Flexible Framework for XR Prototyping in Sports Spectating | |
CN117425044A (zh) | 视频生成方法、第一设备、第二设备及存储介质 | |
JP2020530218A (ja) | 没入型視聴覚コンテンツを投影する方法 | |
CN110349270A (zh) | 基于现实空间定位的虚拟沙盘呈现方法 | |
US11948257B2 (en) | Systems and methods for augmented reality video generation | |
CN111063034B (zh) | 一种时域交互方法 | |
WO2024077518A1 (zh) | 基于增强现实的界面显示方法、装置、设备、介质和产品 | |
Affonso et al. | Support on the remote interaction for augmented reality system | |
CN118068952A (zh) | 弹幕移动方法、装置和虚拟现实设备 | |
Verduzco-Ramírez et al. | Interaction with Objects in Virtual Environments | |
CN114915735A (zh) | 视频数据的处理方法 | |
CN116485879A (zh) | 虚拟相机的控制方法、装置、设备、存储介质及产品 | |
Mendoza et al. | Camera motion control from a java 3D environment: Virtual studio application in decorative arts museum collections |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |