CN113515187B - 一种虚拟现实场景的生成方法和网络侧设备 - Google Patents
一种虚拟现实场景的生成方法和网络侧设备 Download PDFInfo
- Publication number
- CN113515187B CN113515187B CN202010277993.2A CN202010277993A CN113515187B CN 113515187 B CN113515187 B CN 113515187B CN 202010277993 A CN202010277993 A CN 202010277993A CN 113515187 B CN113515187 B CN 113515187B
- Authority
- CN
- China
- Prior art keywords
- virtual
- action
- preset
- template
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000033001 locomotion Effects 0.000 claims abstract description 113
- 238000013507 mapping Methods 0.000 claims abstract description 28
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 9
- 238000004364 calculation method Methods 0.000 abstract description 9
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种虚拟现实场景的生成方法和网络侧设备,其中,虚拟现实场景的生成方法包括:创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景。本发明能够以非视频类的数据生成虚拟现实场景,从而减小场景数据传输量,减小数据运算量,节省大量算力,并且利于用户在客户端能够以任意角度、任意距离观看。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种虚拟现实场景的生成方法和网络侧设备。
背景技术
虚拟现实技术(Virtual Reality,VR)通过计算机技术模拟现实中的世界,创建出虚拟现实世界,以使用户可以在虚拟现实世界中体验到真实世界的感受,基于其存在性、多感知性、交互性等特征,在影视、直播等领域广泛应用,为用户提供良好的视觉体验和现场体验感。
目前,为实现虚拟现实场景,通常是直接利用现场全景视频生成虚拟场景,所需的数据传输量较大,并且,利用现场全景视频生成虚拟场景通常需要采用GPU(GraphicsProcessing Unit,图形处理器)对人物进行渲染处理,需要大量计算资源。另外,这种方式通常采用固定拍摄角度,也不利于用户根据需求调整观看角度,降低了用户的现场体验感。
发明内容
本发明提供一种虚拟现实场景的生成方法和网络侧设备,能够解决现有技术中生成虚拟场景的方式需要较大的数据传输量和计算资源,以及不利于用户根据需求调整观看角度的问题。
为了解决上述技术问题,本发明是这样实现的:
第一方面,本发明实施例提供一种虚拟现实场景的生成方法,包括:
创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;
将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景。
可选地,创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象,包括:
获取现实场地的场地数据,根据场地数据以第一预设比例建立虚拟场地;
获取参与对象的对象数据,根据对象数据以第二预设比例建立虚拟对象。
可选地,运动参数包括位置参数和移动参数;
将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,包括:
获取参与对象在现实场地的位置参数和移动参数;
将参与对象的位置参数和移动参数,映射至虚拟对象。
较优地,获取参与对象在现实场地的位置参数和移动参数,包括:
根据现实场地的场地尺寸信息以及参与对象在现实场地的坐标信息,确定位置参数和移动参数。
可选地,运动参数包括动作参数;
将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,包括:
获取至少一个第一摄像头分别采集的参与对象的至少一个动作参数;
将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板;
根据至少一个预设动作模板,确定目标动作模板,并映射至虚拟对象。
较优地,将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板,包括:
针对至少一个动作参数,确定每一动作参数对应的目标动作类型;
在目标动作类型下,确定与每一动作参数匹配的预设动作模板。
较优地,根据至少一个预设动作模板,确定目标动作模板,包括:
针对至少一个预设动作模板,获取预设动作模板与动作参数之间的匹配准确率;
根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板。
较优地,根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板,包括:
按照预设的匹配准确率与权重值之间的对应关系,确定至少一个预设动作模板的权重值;
将至少一个预设动作模板的权重值最大的预设动作模板,确定为目标动作模板。
可选地,将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,包括:
根据人体姿态估计算法,得到运动参数对应的三维模型;
将三维模型映射至虚拟场地中的虚拟对象。
第二方面,本发明实施例提供一种网络侧设备,包括处理器,存储器,存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被处理器执行时实现上述虚拟现实场景的生成方法的步骤。
第三方面,本发明实施例提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述虚拟现实场景的生成方法的步骤。
本发明实施例中,通过创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景,能够以非视频类的数据生成虚拟现实场景,从而减小场景数据传输量,减小数据运算量,节省大量算力,并且利于用户在客户端能够以任意角度、任意距离观看。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1表示本发明实施例提供的虚拟现实场景的生成方法的流程示意图;
图2表示本发明实施例提供的网络侧设备的结构示意图;
图3表示本发明实施例提供的网络侧设备的硬件结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明实施例提供一种虚拟现实场景的生成方法,通过创建虚拟场地和虚拟对象,并采用虚拟对象运动参数实时同步映射的方式,能够以非视频类的数据生成虚拟现实场景,从而能够减小数据传输量,减小带宽要求,节省了数据运算量,并且利于用户在客户端能够以任意角度、任意距离观看。
请参见图1,其示出的是本发明实施例提供的应用程序的控制方法的流程示意图,本发明实施例提供一种虚拟现实场景的生成方法,应用于网络侧设备,可以包括以下步骤:
步骤101,创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象。
本发明实施例中,可以通过对发生活动的现实场地和在现实场地上参与活动的参与对象分别建立模型,创建与现实场地对应的虚拟场地以及与参与对象对应的虚拟对象。这里,在现实场地存在多个不同的场地样式的情况下,可以分别对应不同场地样式建立对应的多套模型,以创建对应的多套虚拟场地。举例来说,现实场地为对应于体育赛事的比赛场地,对应于不同赛事要求,现实场地存在多个场地样式,则可以建立与多个场地样式相对应的多套模型;例如,现实场地为用于足球赛事的比赛场地,则可以创建与多个采用不同赛场尺寸、不同草坪以及用于不同赛式的场地样式,分别对应的多套虚拟场地。
步骤102,将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景。
本发明实施例中,基于步骤101所创建的虚拟对象,在参与对象在现实场地中发生运动时,获取参与对象的运动参数,并将运动参数映射反馈至虚拟场地中与参与对象对应的虚拟对象,生成相应的虚拟现实场景,这里可以实现实时改变虚拟场地上对应虚拟对象的动作。这里,利用创建虚拟场地和虚拟对象,并通过虚拟对象运动参数实时同步映射的方式,能够以非视频类的数据生成虚拟现实场景,利于用户在客户端能够以任意角度、任意距离观看,并且使得场景数据传输量小,对于带宽要求不高,只对延迟有要求;此外,通过在网络侧设备中运动参数进行处理映射,不需要用进行人物渲染,能够减小数据运算量,节省大量算力。
可选地,在本发明一些实施例中,步骤101,创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象,可以包括:获取现实场地的场地数据,根据场地数据以第一预设比例建立虚拟场地;获取参与对象的对象数据,根据对象数据以第二预设比例建立虚拟对象。本发明实施例中,网络侧设备通过获取现实场地的场地数据和参与对象的对象数据,然后分别按照预定比例建立模型,以创建与现实场地对应的虚拟场地以及与参与对象对应的虚拟对象。其中,场地数据可以包括现实场地的环境参数,对象数据可以包括参与对象的名称、身份标识号、标志性动作等中的至少一个。本发明实施例中,第一预设比例和第二预设比例可以由网络侧设备默认设置,也可以由用户通过客户端进行设置;这里,第一预设比例和第二预设比例可以相等,以避免生成的虚拟现实场景失真。示例地,第一预设比例和第二预设比例可以均为1:1,这样,能够更好地确保虚拟现实场景的真实效果。
可选地,在本发明一些实施例中,运动参数可以包括位置参数和移动参数;步骤102,将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,可以包括以下步骤:获取参与对象在现实场地的位置参数和移动参数;将参与对象的位置参数和移动参数,映射至虚拟对象。本发明实施例中,可以通过现实场地设置的摄像头采集现场数据,网络侧设备获取现场数据,对参与对象进行识别追踪,以获取参与对象在现实场地的位置参数和移动参数,并实时反馈映射至虚拟场地中的虚拟对象,确保虚拟对象在虚拟场地的显示位置与现实位置保持一致。其中,网络侧设备可以在活动开始前,采用物体追踪功能追踪参与对象,即,将追踪目标与参与对象进行绑定,在活动过程中,通过跟踪追踪目标的位置参数和移动参数,确定参与对象在现实场地的位置参数和移动参数;示例地,可以将每一追踪目标与参与对象的名称进行绑定。本发明实施例中,为利于更好地实现现场数据采集,可以在现实场地的上方设置至少一个摄像头,使摄像头以“上帝视角”拍摄整个现实场地;并且,为利于获得更为清晰的现场数据,可以采用高清摄像头。
在本发明一些可选的实施例中,为使得虚拟场地中的虚拟对象能够准确反馈参与对象的现实位置,获取参与对象在现实场地的位置参数和移动参数,可以包括:根据现实场地的场地尺寸信息以及参与对象在现实场地的坐标信息,确定位置参数和移动参数。
可选地,在本发明一些实施例中,运动参数可以包括动作参数;步骤102,将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,可以包括以下步骤:获取至少一个第一摄像头分别采集的参与对象的至少一个动作参数;将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板;根据至少一个预设动作模板,确定目标动作模板,并映射至虚拟对象。本发明实施例中,可以通过现实场地设置的至少一个第一摄像头采集现实场地中的参与对象的画面,网络侧设备对至少一个第一摄像头采集的画面进行实时识别,获取至少一个第一摄像头中存在的相同参与对象的至少一个动作参数,这里,可以通过物体追踪功能以及人脸识别技术中的至少一种,对至少一个第一摄像头中不同摄像头所采集画面中的参与对象进行匹配,以获得同一参与对象的至少一个动作参数;然后网络侧设备对至少一个动作参数分别与预设动作模板进行匹配,确定每一动作参数对应的预设动作模板,即获得至少一个预设动作模板,再基于该至少一个预设动作模板,从至少一个预设动作模板确定出目标动作模板,并根据目标动作模板,改变虚拟场地上对应虚拟对象的动作。
本发明实施例中,可以预先制定与现实场地的活动类型对应的预设动作模板,利于快捷地实现对参与对象的动作参数匹配操作。另外,为便于快捷实现动作匹配,可以预先对预设动作模板按照动作类型进行归类,这样,将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板,可以包括:针对至少一个动作参数中每一动作参数,确定每一动作参数对应的目标动作类型,在目标动作类型下,确定与每一动作参数匹配的预设动作模板。举例来说,现实场地的活动类型为赛事活动类型,此时动作类型可以包括通用动作、过度动作和特色动作,这里,可以预先制定与赛事活动对应的预设动作模板,并对预设动作模板按照上述动作类型进行归类,这里,通用动作指参与对象的共性动作(如跑步、停止等),过度动作指各动作之间切换的中间动作(如跑步和走动之间的切换动作),特色动作指特定参与对象的特殊动作;示例地,现实场地的发生活动可以为足球赛事,该示例中,对应于足球赛事的通用动作类型的预设动作模板可以如下表所示。
考虑到针对相同参与对象,不同摄相头角度采集到的动作参数可能并不统一,即网络侧设备对至少一个动作参数匹配获得至少一个预设动作模板可能不同,因此,为能够识别确定出参与对象准确的动作,即获得准确的目标动作模板,在本发明一些可选的实施例中,根据至少一个预设动作模板,确定目标动作模板,可以包括以下步骤:针对至少一个预设动作模板,获取预设动作模板与动作参数之间的匹配准确率;根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板。这里,通过确定每一动作参数与对应匹配的预设动作模板之间的匹配准确率,然后基于匹配准确率,从至少一个预设动作模板中确定目标动作模板,这样,能够确保获得准确的目标动作模板。
较优地,本发明实施例中,可以基于匹配准确率进行权重打分,然后比较各个预设动作模板的权重大小,将权重较大的预设动作模板确定为目标动作模板。举例来说,根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板,可以包括以下步骤:按照预设的匹配准确率与权重值之间的对应关系,确定至少一个预设动作模板的权重值;将至少一个预设动作模板的权重值最大的预设动作模板,确定为目标动作模板。可以理解地,若不同动作参数匹配相同的预设动作参数,可以将这些匹配相同预设动作参数的权重值进行叠加,作为对应预设动作模板的权重值。示例地,可以划分多个匹配准确率区间,并预先设置多个匹配准确率区间与权重值之间的对应关系,针对至少一个预设动作模板,获取预设动作模板与动作参数之间的匹配准确率之后,可以确定每一动作参数与相匹配的预设动作模板之间的匹配准确率所处的匹配准确率区间,确定每一动作参数与相匹配预设动作模板之间的匹配准确率所对应的权重值,最后即可根据至少一个预设动作模板的权重值,将权重值最大的预设动作模板确定为目标动作模板。
在一示例中,现实场地的发生活动可以为足球赛事,参与对象即为球员,至少一个第一摄像头的数量为10个;网络侧设备预先划分多个匹配准确率区间,分别为第一区间(匹配准确率为90%以上)、第二区间(匹配准确率为80%~90%)、第三区间(匹配准确率为70%~80%)和第四区间(匹配准确率为70%以下),并预先设置第一区间、第二区间、第三区间和第四区间对应的权重值分别为3、2、1和0。该示例中,网络侧设备获取10个第一摄像头采集的其中第一球员的动作参数(即获得10个动作参数),并将10个动作参数与预设动作模板分别进行匹配,确定与10个动作参数匹配的10个预设动作模板;其中,假定该示例中网络侧设备确定2个第一摄像头采集的动作参数匹配为铲球对应的预设动作模板,且匹配准确率分别为91%和93%,5个第一摄像头采集的动作参数匹配为摔倒对应的预设动作模板,且匹配准确率分别为71%、73%、77%、74%和78%,3个第一摄像头采集的动作参数匹配为捡球对应的预设动作模板,且匹配准确率分别为61%、67%和68%,这里,可以将相同预设动作参数的权重值相叠加,即可以确定铲球对应的预设动作模板的权重值为2×3=6,摔倒对应的预设动作模板的权重值为5×1=5,捡球对应的预设动作模板的权重值为3×0=0;这样,可以确定铲球对应的预设动作模板的权重值最大,即确定铲球对应的预设动作模板为目标动作模板,进而将铲球对应的预设动作模板映射至第一球员的虚拟对象。
可选地,在本发明一些实施例中,考虑到采用预设动作模板匹配动作参数的方式中可能由于动作幅度偏差较大或者动作未收录的情况,而导致匹配不成功的问题,步骤102,将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,可以包括以下步骤:根据人体姿态估计算法,得到运动参数对应的三维模型;将三维模型映射至虚拟场地中的虚拟对象。这里,在获取到动作参数之后,根据人体姿态估计算法,基于人体骨骼对参与成员的动作参数建立三维模型,然后将三维模型实时映射反馈至虚拟对象。
本发明实施例中,可以将采用预设动作模板匹配动作参数的方式以及采用人体姿态估计算法建立动作参数的三维模型的方式相结合,以利于兼顾节省算力和提高虚拟对象的动作匹配准确性,示例地,可以首先将参与对象的动作参数与预设动作模板进行匹配,若匹配准确率低于预设值或者匹配不成功,则根据人体姿态估计算法,得到运动参数对应的三维模型;将三维模型映射至虚拟场地中的虚拟对象;若匹配准确率高于预设值,则将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板;根据至少一个预设动作模板,确定目标动作模板,并映射至虚拟对象。
当然,本发明实施例中,对于采用预设动作模板匹配动作参数的方式中由于动作幅度偏差较大或者动作未收录的情况而导致匹配不成功的问题,也可以对该动作参数进行模糊匹配处理,例如,在动作幅度偏差较大的情况下,可以确定动作参数对应的目标动作类型,在目标动作类型下确定与动作参数匹配的动作名称,根据动作名称匹配对应的预设动作模板;或者,在动作无法匹配的情况下,可以确定动作参数与预设动作模板之间的相似度,在相似度大于预设相似度值时,将动作参数匹配为相似度最大的预设动作模板,在相似度均小于预设相似度值时,则不对动作参数进行匹配。
此外,本发明实施例中,可以通过现实场地上设置的至少一个第二摄像头采集场外场景,网络侧设备获取至少一个第二摄像头采集的场外场景,然后按照场外场景与现实场地之间的相对位置将场外场景映射至虚拟场地中,这里,在按照场外场景与现实场地之间的相对位置将场外场景映射至虚拟场地之后,可以对至少一个第二摄像头采集的至少一个场外场景,采用全景视频拼接技术,将相邻的场外场景进行拼接处理,这样,能够确保场外场景的完整性,利于提高用户的真实体验。这里,为利于获得更为清晰的现场数据,第二摄像头可以为高清摄像头。其中,第二摄像头可以设置于场外场景与现实场地之间的区域,例如,可以通过第二摄像头采集场外场景中与第二摄像头设置区域相对一侧的场景,即通过第二摄像头拍摄对面的场外场景,此时第二摄像头可以为高清摄像头;或者,也可以通过第二摄像头采集场外场景中与第二摄像头设置区域相邻一侧的场景,即通过第二摄像头拍摄附近相邻的场外场景,此时第二摄像头可以为普通摄像头。
本发明实施例提供的虚拟现实场景的生成方法,通过创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景,能够以非视频类的数据生成虚拟现实场景,从而减小场景数据传输量,减小数据运算量,节省大量算力,并且利于用户在客户端能够以任意角度、任意距离观看。
基于上述方法,本发明实施例提供一种用以实现上述方法的网络侧设备。
请参见图2,其示出的是本发明实施例提供的网络侧设备的结构示意图。本发明实施例提供一种网络侧设备200,可以包括:创建模块210和处理模块220。
创建模块210,用于创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;
处理模块220,用于将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景。
可选地,在本发明一些实施例中,创建模块210可以包括:第一获取子模块和第二获取子模块。
第一获取子模块,用于获取现实场地的场地数据,根据场地数据以第一预设比例建立虚拟场地;
第二获取子模块,用于获取参与对象的对象数据,根据对象数据以第二预设比例建立虚拟对象。
可选地,在本发明一些实施例中,运动参数可以包括位置参数和移动参数;处理模块220可以包括:第三获取子模块和第一处理子模块。
第三获取子模块,用于获取参与对象在现实场地的位置参数和移动参数;
第一处理子模块,用于将参与对象的位置参数和移动参数,映射至虚拟对象。
较优地,在本发明一些实施例中,第三获取子模块可以包括:第一确定单元。
第一确定单元,用于根据现实场地的场地尺寸信息以及参与对象在现实场地的坐标信息,确定位置参数和移动参数。
可选地,在本发明一些实施例中,运动参数可以包括动作参数;处理模块220可以包括:第四获取子模块、确定子模块和第二处理子模块。
第四获取子模块,用于获取至少一个第一摄像头分别采集的参与对象的至少一个动作参数;
确定子模块,用于将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板;
第二处理子模块,用于根据至少一个预设动作模板,确定目标动作模板,并映射至虚拟对象。
较优地,在本发明一些实施例中,确定子模块可以包括:第三确定单元和第四确定单元。
第三确定单元,用于针对至少一个动作参数,确定每一动作参数对应的目标动作类型;
第四确定单元,用于在目标动作类型下,确定与每一动作参数匹配的预设动作模板。
较优地,在本发明一些实施例中,第二处理子模块可以包括:获取单元和第二确定单元。
获取单元,用于针对至少一个预设动作模板,获取预设动作模板与动作参数之间的匹配准确率;
第二确定单元,用于根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板。
较优地,在本发明一些实施例中,第二确定单元可以包括:第一确定子单元和第二确定子单元。
第一确定子单元,用于按照预设的匹配准确率与权重值之间的对应关系,确定至少一个预设动作模板的权重值;
第二确定子单元,用于将至少一个预设动作模板的权重值最大的预设动作模板,确定为目标动作模板。
可选地,在本发明一些实施例中,处理模块220可以包括:第三获取子模块和第三处理子模块。
第三获取子模块,用于根据人体姿态估计算法,得到运动参数对应的三维模型;
第三处理子模块,用于将三维模型映射至虚拟场地中的虚拟对象。
本发明实施例提供的网络侧设备能够实现图1的方法实施例中网络侧设备实现的各个过程,为避免重复,这里不再赘述。
本发明实施例提供的网络侧设备,通过创建模块创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;通过处理模块将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景,能够以非视频类的数据生成虚拟现实场景,从而减小场景数据传输量,减小数据运算量,节省大量算力,并且利于用户在客户端能够以任意角度、任意距离观看。
请参阅图3,图3是本发明实施例应用的网络侧设备的硬件结构图,网络侧设备300包括:处理器301、收发机302、存储器303和总线接口,其中,处理器301用于:创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;将参与对象在现实场地中的运动参数,映射至虚拟场地中的虚拟对象,生成虚拟现实场景。
在图3中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器301代表的一个或多个处理器和存储器303代表的存储器的各种电路链接在一起。总线架构还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发机302可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元。
存储器303通过总线接口与处理器301相连接,处理器301负责管理总线架构和通常的处理,存储器303可以存储处理器301在执行操作时所使用的程序和数据,处理器301调用并执行存储器303中所存储的程序和数据。收发机302与总线接口连接,用于在处理器301的控制下接收和发送数据。
可选地,处理器303用于:获取现实场地的场地数据,根据场地数据以第一预设比例建立虚拟场地;获取参与对象的对象数据,根据对象数据以第二预设比例建立虚拟对象。
可选地,运动参数可以包括位置参数和移动参数;收发机302用于:获取参与对象在现实场地的位置参数和移动参数;处理器303用于:将参与对象的位置参数和移动参数,映射至虚拟对象。
较优地,处理器303用于:根据现实场地的场地尺寸信息以及参与对象在现实场地的坐标信息,确定位置参数和移动参数。
可选地,运动参数可以包括动作参数;收发机302用于:获取至少一个第一摄像头采集的参与对象的至少一个动作参数;处理器303用于:将至少一个动作参数与预设动作模板分别进行匹配,确定与至少一个动作参数匹配的至少一个预设动作模板;根据至少一个预设动作模板,确定目标动作模板,并映射至虚拟对象。
较优地,处理器303用于:针对至少一个动作参数,确定每一动作参数对应的目标动作类型;在目标动作类型下,确定与每一动作参数匹配的预设动作模板。
较优地,处理器303用于:针对至少一个预设动作模板,获取预设动作模板与动作参数之间的匹配准确率;根据至少一个预设动作模板对应的匹配准确率,从至少一个预设动作模板中确定目标动作模板。
较优地,处理器303用于:按照预设的匹配准确率与权重值之间的对应关系,确定至少一个预设动作模板的权重值;将至少一个预设动作模板的权重值最大的预设动作模板,确定为目标动作模板。
可选地,处理器303用于:根据人体姿态估计算法,得到运动参数对应的三维模型;将三维模型映射至虚拟场地中的虚拟对象。
优选地,本发明实施例还提供一种网络侧设备,包括处理器310,存储器309,存储在存储器309上并可在处理器310上运行的计算机程序,该计算机程序被处理器310执行时实现上述虚拟现实场景的生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述虚拟现实场景的生成方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称RAM)、磁碟或者光盘等。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本发明的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。另外,本文中术语“***”和“网络”在本文中常可互换使用。
在本申请所提供的实施例中,应理解,“与A相应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其它信息确定B。
另外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (8)
1.一种虚拟现实场景的生成方法,其特征在于,包括:
创建现实场地相对应的虚拟场地以及与参与对象相对应的虚拟对象;
将所述参与对象在所述现实场地中的运动参数,映射至所述虚拟场地中的所述虚拟对象,生成虚拟现实场景,所述运动参数包括动作参数;
其中,通过虚拟对象运动参数实时同步映射的方式以非视频类的数据生成虚拟现实场景,且在客户端能够以任意角度、任意距离观看;以及,在网络侧设备中对运动参数进行处理映射;
所述将所述参与对象在所述现实场地中的运动参数,映射至所述虚拟场地中的所述虚拟对象的步骤包括:
获取至少一个第一摄像头分别采集的所述参与对象的至少一个动作参数;
将所述至少一个动作参数与预设动作模板分别进行匹配,确定与所述至少一个动作参数匹配的至少一个预设动作模板;
根据所述至少一个预设动作模板,确定目标动作模板,并映射至所述虚拟对象;
其中,若匹配准确率低于预设值或者匹配不成功,根据人体姿态估计算法,得到所述运动参数对应的三维模型;将所述三维模型映射至所述虚拟场地中的所述虚拟对象。
2.根据权利要求1所述的方法,其特征在于,所述运动参数包括位置参数和移动参数;
所述将所述参与对象在所述现实场地中的运动参数,映射至所述虚拟场地中的所述虚拟对象,包括:
获取所述参与对象在所述现实场地的位置参数和移动参数;
将所述参与对象的所述位置参数和所述移动参数,映射至所述虚拟对象。
3.根据权利要求2所述的方法,其特征在于,所述获取所述参与对象在所述现实场地的位置参数和移动参数,包括:
根据所述现实场地的场地尺寸信息以及所述参与对象在所述现实场地的坐标信息,确定所述位置参数和所述移动参数。
4.根据权利要求1所述的方法,其特征在于,所述将所述至少一个动作参数与预设动作模板分别进行匹配,确定与所述至少一个动作参数匹配的至少一个预设动作模板,包括:
针对所述至少一个动作参数,确定每一所述动作参数对应的目标动作类型;
在所述目标动作类型下,确定与每一所述动作参数匹配的所述预设动作模板。
5.根据权利要求1所述的方法,其特征在于,所述根据所述至少一个预设动作模板,确定目标动作模板,包括:
针对所述至少一个预设动作模板,获取所述预设动作模板与所述动作参数之间的匹配准确率;
根据所述至少一个预设动作模板对应的所述匹配准确率,从所述至少一个预设动作模板中确定所述目标动作模板。
6.根据权利要求5所述的方法,其特征在于,所述根据所述至少一个预设动作模板对应的所述匹配准确率,从所述至少一个预设动作模板中确定所述目标动作模板,包括:
按照预设的匹配准确率与权重值之间的对应关系,确定所述至少一个预设动作模板的权重值;
将所述至少一个预设动作模板的权重值最大的预设动作模板,确定为所述目标动作模板。
7.一种网络侧设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至6中任一项所述的虚拟现实场景的生成方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的虚拟现实场景的生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010277993.2A CN113515187B (zh) | 2020-04-10 | 2020-04-10 | 一种虚拟现实场景的生成方法和网络侧设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010277993.2A CN113515187B (zh) | 2020-04-10 | 2020-04-10 | 一种虚拟现实场景的生成方法和网络侧设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113515187A CN113515187A (zh) | 2021-10-19 |
CN113515187B true CN113515187B (zh) | 2024-02-13 |
Family
ID=78060464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010277993.2A Active CN113515187B (zh) | 2020-04-10 | 2020-04-10 | 一种虚拟现实场景的生成方法和网络侧设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113515187B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114329689A (zh) * | 2021-11-23 | 2022-04-12 | 科华数据股份有限公司 | 一种3d可视化方法、设备及计算机可读存储介质 |
CN116452786B (zh) * | 2023-06-08 | 2023-10-10 | 北京交通大学 | 虚拟现实内容的生成方法、***、计算机设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101666A (zh) * | 2007-08-09 | 2008-01-09 | 中国科学院计算技术研究所 | 一种基于运动捕获数据的虚拟角色运动合成方法 |
KR20140033771A (ko) * | 2012-09-10 | 2014-03-19 | 강승우 | 사용자 중심의 디스플레이 정보 제공 방법 및 시스템 |
WO2014071918A1 (de) * | 2012-11-09 | 2014-05-15 | Goalcontrol Gmbh | Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen |
CN105872575A (zh) * | 2016-04-12 | 2016-08-17 | 乐视控股(北京)有限公司 | 基于虚拟现实的直播方法及装置 |
CN106621320A (zh) * | 2016-11-29 | 2017-05-10 | 维沃移动通信有限公司 | 一种虚拟现实终端的数据处理方法和虚拟现实终端 |
CN106778477A (zh) * | 2016-11-21 | 2017-05-31 | 深圳市酷浪云计算有限公司 | 网球拍动作识别方法及装置 |
CN107094264A (zh) * | 2017-02-15 | 2017-08-25 | 宋彤云 | 智能网络播放器 |
CN107111340A (zh) * | 2014-12-29 | 2017-08-29 | 索尼互动娱乐美国有限责任公司 | 用于使用头戴式显示器在虚拟或增强现实场景内进行用户交互的方法和*** |
CN107918956A (zh) * | 2017-12-01 | 2018-04-17 | 广州市动景计算机科技有限公司 | 增强现实的处理方法、装置及电子设备 |
CN108958459A (zh) * | 2017-05-19 | 2018-12-07 | 深圳市掌网科技股份有限公司 | 基于虚拟位置的显示方法和*** |
WO2018224847A2 (en) * | 2017-06-09 | 2018-12-13 | Delamont Dean Lindsay | Mixed reality gaming system |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN110221691A (zh) * | 2019-05-13 | 2019-09-10 | 深圳电通信息技术有限公司 | 一种沉浸式虚拟体验方法、***及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2016240390B2 (en) * | 2015-04-02 | 2019-07-11 | Catapult Group International Ltd | Sports virtual reality system |
US20170154468A1 (en) * | 2015-12-01 | 2017-06-01 | Le Holdings (Beijing) Co., Ltd. | Method and electronic apparatus for constructing virtual reality scene model |
US10048751B2 (en) * | 2016-03-31 | 2018-08-14 | Verizon Patent And Licensing Inc. | Methods and systems for gaze-based control of virtual reality media content |
US10621784B2 (en) * | 2017-09-29 | 2020-04-14 | Sony Interactive Entertainment America Llc | Venue mapping for virtual reality spectating of live events |
-
2020
- 2020-04-10 CN CN202010277993.2A patent/CN113515187B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101666A (zh) * | 2007-08-09 | 2008-01-09 | 中国科学院计算技术研究所 | 一种基于运动捕获数据的虚拟角色运动合成方法 |
KR20140033771A (ko) * | 2012-09-10 | 2014-03-19 | 강승우 | 사용자 중심의 디스플레이 정보 제공 방법 및 시스템 |
WO2014071918A1 (de) * | 2012-11-09 | 2014-05-15 | Goalcontrol Gmbh | Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen |
EP2943934A1 (de) * | 2012-11-09 | 2015-11-18 | Goalcontrol GmbH | Verfahren zur aufnahme und wiedergabe einer abfolge von ereignissen |
CN107111340A (zh) * | 2014-12-29 | 2017-08-29 | 索尼互动娱乐美国有限责任公司 | 用于使用头戴式显示器在虚拟或增强现实场景内进行用户交互的方法和*** |
CN105872575A (zh) * | 2016-04-12 | 2016-08-17 | 乐视控股(北京)有限公司 | 基于虚拟现实的直播方法及装置 |
CN106778477A (zh) * | 2016-11-21 | 2017-05-31 | 深圳市酷浪云计算有限公司 | 网球拍动作识别方法及装置 |
CN106621320A (zh) * | 2016-11-29 | 2017-05-10 | 维沃移动通信有限公司 | 一种虚拟现实终端的数据处理方法和虚拟现实终端 |
CN107094264A (zh) * | 2017-02-15 | 2017-08-25 | 宋彤云 | 智能网络播放器 |
CN108958459A (zh) * | 2017-05-19 | 2018-12-07 | 深圳市掌网科技股份有限公司 | 基于虚拟位置的显示方法和*** |
WO2018224847A2 (en) * | 2017-06-09 | 2018-12-13 | Delamont Dean Lindsay | Mixed reality gaming system |
CN107918956A (zh) * | 2017-12-01 | 2018-04-17 | 广州市动景计算机科技有限公司 | 增强现实的处理方法、装置及电子设备 |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN110221691A (zh) * | 2019-05-13 | 2019-09-10 | 深圳电通信息技术有限公司 | 一种沉浸式虚拟体验方法、***及装置 |
Non-Patent Citations (6)
Title |
---|
AR与VR技术在冬季体育赛事中的应用分析;牛鹤璇;西安邮电大学学报;105-110 * |
Study on the Application of VR Technology in Sport Reality Shows;Shyang-Yuh Wang;2018 1st International Cognitive Cities Conference (IC3);200-201 * |
一种Web3D虚拟现实***的场景数据调度方法;范鹏轩;孙静;;科技广场(第01期);109-111 * |
基于虚拟现实技术的运动辅助训练***设计;刘洁;;自动化与仪器仪表(第01期);99-102 * |
基于视频的人体运动捕捉综述;李豪杰;林守勋;张勇东;;计算机辅助设计与图形学学报(第11期);1645-1651 * |
虚拟现实在体育仿真中的应用综述;纪庆革,潘志庚,李祥晨;计算机辅助设计与图形学学报(第11期);2-7+126 * |
Also Published As
Publication number | Publication date |
---|---|
CN113515187A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110139115B (zh) | 基于关键点的虚拟形象姿态控制方法、装置及电子设备 | |
CN111556278B (zh) | 一种视频处理的方法、视频展示的方法、装置及存储介质 | |
CN108986189B (zh) | 基于三维动画中实时多人动作捕捉并直播的方法和*** | |
US10977869B2 (en) | Interactive method and augmented reality system | |
CN105373224A (zh) | 一种基于普适计算的混合现实游戏***及方法 | |
US20220329880A1 (en) | Video stream processing method and apparatus, device, and medium | |
CN113515187B (zh) | 一种虚拟现实场景的生成方法和网络侧设备 | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
US9087380B2 (en) | Method and system for creating event data and making same available to be served | |
CN111582240B (zh) | 一种对象数量的识别方法、装置、设备和介质 | |
CN111836110B (zh) | 比赛视频的展示方法、装置、电子设备及存储介质 | |
CN112492231B (zh) | 远程交互方法、装置、电子设备和计算机可读存储介质 | |
CN109213304A (zh) | 用于直播教学的手势互动方法和*** | |
CN108665755B (zh) | 互动式培训方法及互动式培训*** | |
CN106390454A (zh) | 一种现实场景虚拟游戏*** | |
CN108421240A (zh) | 基于ar的球场弹幕*** | |
US20170169572A1 (en) | Method and electronic device for panoramic video-based region identification | |
Lo et al. | From off-site to on-site: A Flexible Framework for XR Prototyping in Sports Spectating | |
CN111860206B (zh) | 图像采集方法、装置、存储介质和智能设备 | |
CN114425162A (zh) | 一种视频处理方法和相关装置 | |
CN113971693A (zh) | 直播画面生成方法、***、装置及电子设备 | |
CN112839171A (zh) | 一种画面拍摄方法、装置、存储介质及电子设备 | |
CN116991347B (zh) | 游戏画面投屏方法、装置、存储介质及电子设备 | |
CN114519666B (zh) | 直播图像矫正方法、装置、设备及存储介质 | |
CN117173378B (zh) | 基于CAVE环境的WebVR全景数据展现方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |