CN115272571A - 一种游戏场景模型的构建方法 - Google Patents

一种游戏场景模型的构建方法 Download PDF

Info

Publication number
CN115272571A
CN115272571A CN202210885330.8A CN202210885330A CN115272571A CN 115272571 A CN115272571 A CN 115272571A CN 202210885330 A CN202210885330 A CN 202210885330A CN 115272571 A CN115272571 A CN 115272571A
Authority
CN
China
Prior art keywords
game scene
data
target
audio
scene model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210885330.8A
Other languages
English (en)
Inventor
张瑞
宋伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Qicaishi Network Technology Co ltd
Original Assignee
Nanjing Qicaishi Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Qicaishi Network Technology Co ltd filed Critical Nanjing Qicaishi Network Technology Co ltd
Priority to CN202210885330.8A priority Critical patent/CN115272571A/zh
Publication of CN115272571A publication Critical patent/CN115272571A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明适用于游戏技术领域,提供了一种游戏场景模型的构建方法,该方法包括:获取实际场景的点云数据和彩色图像;对点云数据进行去噪处理,得到去噪后的点云数据,并对去噪后的点云数据进行特征提取,得到空间特征;对彩色图像进行颜色纹理特征提取,得到颜色纹理特征;将空间特征和颜色纹理特征进行特征融合处理,得到融合特征,并根据融合特征形成样本数据集;构建初始游戏场景模型,采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型;解决了现有技术中游戏场景真实感较低等问题。

Description

一种游戏场景模型的构建方法
技术领域
本申请涉及游戏技术领域,尤其涉及一种游戏场景模型的构建方法。
背景技术
随着互联网技术的发展,电子游戏(Electronic Games)越来越成为人们生活中不可缺少的一部分。在游戏中,游戏场景是对现实世界的虚拟化,是玩家的虚拟对象在游戏世界活动的空间。随着人工智能技术的飞速发展,无论是游戏的开发人员还是玩家,对于游戏场景的要求越来越高,因此,为了提升游戏画面品质、增强游戏的代入感,生成更加真实的游戏场景已经成为游戏设计过程中的关键点。但是,目前的大多数游戏场景模型中游戏场景缺乏真实感。
发明内容
本发明提供一种游戏场景模型的构建方法,以解决现有技术中游戏场景真实感较低等问题。
本发明提供的游戏场景模型的构建方法,包括:
获取实际场景的点云数据和彩色图像;
对所述点云数据进行去噪处理,得到去噪后的点云数据,并对所述去噪后的点云数据进行特征提取,得到空间特征;
对所述彩色图像进行颜色纹理特征提取,得到颜色纹理特征;
将所述空间特征和所述颜色纹理特征进行特征融合处理,得到融合特征,并根据所述融合特征形成样本数据集;
构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型。
可选地,所述构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型之后,还包括:
获取游戏场景需求数据,并根据所述游戏场景需求数据和所述目标游戏场景模型生成目标游戏场景;
获取实时游戏数据,并根据所述实时游戏数据匹配目标音频方案的力触觉特征;
根据所述目标音频方案的力触觉特征获取目标力触觉贴图,并将所述目标力触觉贴图渲染至所述目标游戏场景中。
可选地,所述根据所述实时游戏数据匹配目标音频方案的力触觉特征包括:
根据所述实时游戏数据匹配待选择音频渲染方案,所述待选择音频渲染方案包括多个音频渲染子方案,每个音频渲染子方案均包括音频类别和渲染强度;
获取目标用户的历史操作数据和样本用户的历史操作数据,并根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重;
根据所述各音频类别的权重和所述待选择音频渲染方案获取目标音频方案以及目标音频方案对应的力触觉特征。
可选地,所述根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重包括:
采用聚类算法对所述样本用户的历史操作数据进行分类处理,得到分类结果,所述分类结果包括多个用户类别;
根据所述目标用户的历史操作数据和所述分类结果确定目标用户类别;
获取所述目标用户类别下样本用户的评价数据,并根据所述评价数据确定所述各音频类别的权重。
本发明还提供了一种游戏场景模型的构建装置,包括:
数据获取模块,用于获取实际场景的点云数据和彩色图像;
空间特征模块,用于对所述点云数据进行去噪处理,得到去噪后的点云数据,并对所述去噪后的点云数据进行特征提取,得到空间特征;
颜色纹理特征模块,用于对所述彩色图像进行颜色纹理特征提取,得到颜色纹理特征;
样本数据集模块,用于将所述空间特征和所述颜色纹理特征进行特征融合处理,得到融合特征,并根据所述融合特征形成样本数据集;
模型构建模块,用于构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型。
可选地,所述游戏场景模型的构建装置还包括:场景生成模块,用于获取游戏场景需求数据,并根据所述游戏场景需求数据和所述目标游戏场景模型生成目标游戏场景;
匹配模块,用于获取实时游戏数据,并根据所述实时游戏数据匹配目标音频方案的力触觉特征;
渲染模块,用于根据所述目标音频方案的力触觉特征获取目标力触觉贴图,并将所述目标力触觉贴图渲染至所述目标游戏场景中。
可选地,所述匹配模块包括:匹配单元,用于根据所述实时游戏数据匹配待选择音频渲染方案,所述待选择音频渲染方案包括多个音频渲染子方案,每个音频渲染子方案均包括音频类别和渲染强度;
权重确定单元,用于获取目标用户的历史操作数据和样本用户的历史操作数据,并根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重;
方案确定单元,用于根据所述各音频类别的权重和所述待选择音频渲染方案获取目标音频方案以及目标音频方案对应的力触觉特征。
可选地,所述权重确定单元包括:聚类子单元,用于采用聚类算法对所述样本用户的历史操作数据进行分类处理,得到分类结果,所述分类结果包括多个用户类别;
类别确定子单元,用于根据所述目标用户的历史操作数据和所述分类结果确定目标用户类别;
权重确定子单元,用于获取所述目标用户类别下样本用户的评价数据,并根据所述评价数据确定所述各音频类别的权重。
本发明还提供一种电子设备,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述电子设备执行所述游戏场景模型的构建方法。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述所述游戏场景模型的构建方法。
本发明的有益效果:本发明中的游戏场景模型的构建方法,通过获取实际场景的点云数据和彩色图像;对点云数据进行特征提取得到空间特征,对彩色图像进行颜色纹理特征提取得到颜色纹理特征;将空间特征和颜色纹理特征进行特征融合处理形成样本数据集;采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型,通过空间特征和颜色纹理特征形成样本数据集并根据样本数据集建立目标游戏场景模型,使得建立的目标游戏场景模型包括颜色纹理特征,从而解决现有技术中游戏场景真实感较低等问题。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中游戏场景模型的构建方法的流程示意图;
图2是本发明实施例中游戏场景的渲染方法的流程示意图;
图3是本发明实施例中游戏场景模型的构建装置的模块示意图;
图4是本发明实施例中电子设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1是本发明在一实施例中提供的游戏场景模型的构建方法的流程示意图。
如图1所示,上述游戏场景模型的构建方法,包括步骤S110-S150:
S110,获取实际场景的点云数据和彩色图像;
需要说明的是,获取的是多个实际不同场景下的点云数据和彩色图像,基于此,得到的目标游戏场景模型能够生成多个不同场景下的游戏场景,从而能够更好的满足用户的游戏需求。另外,对于同一个场景也需要获取多个点云数据和多张彩色图像。实际场景的点云数据可以通过采用激光扫描的方式来获取,实际场景的彩色图像可以采用无人机从多个角度和多个位置的航拍得到。
为了扩大点云数据和彩色图像的数据量,从而扩大样本数据集的数据量,进而使得在此基础上构建的目标游戏场景模型生成的游戏场景更具有真实感。获取实际场景的点云数据的实现方法可以包括:采用激光扫描实际场景,得到第一点云数据;获取第二点云数据,第二点云数据可以是来源于国内外公开可用的与第一点云数据的实际场景相同(例如,第一点云数据和第二点云数据的实际场景都是草原,第一点云数据和第二点云数据的实际场景都是森林)的点云数据;获取到第二点云数据后,获取第一点云数据与第二点云数据的相似度,若第一点云数据与第一点云数据的相似度大于第一预设相似度,得到第三点云数据;第三点云数据和第一点云数据合并,得到实际场景的点云数据。第一预设相似度可以根据实际情况进行设定,例如可以为90%、91%、92%、93%、94%、95%等;第一预设相似度也可以根据第一点云数据的数据量进行确定,第一点云数据的数据量越大,则第一预设相似度越大,第一点云数据的数据量越小,则第一预设相似度越小。通过第一点云数据的数据量确定第一预设相似度使得最后得到的根据实际场景的点云数据形成的样本数据集能够满足目标游戏场景模型训练数据量。第一点云数据与第一点云数据的相似度可以根据第一点云数据与第二点云数据的距离得到,例如欧氏距离。
在一实施例中,获取实际场景的彩色图像的实现方法可以包括:采用无人机从多个角度和多个位置航拍实际场景,得到第一彩色图像;获取第二彩色图像,第二彩色图像可以是来源于国内外公开可用的与第一彩色图像的实际场景相同(例如,第一彩色图像和第二彩色图像的实际场景都是草原,第一彩色图像和第二彩色图像的实际场景都是森林)的彩色图像;获取到第二彩色图像后,获取第一彩色图像与第二彩色图像的相似度,若第一彩色图像与第一彩色图像的相似度大于第二预设相似度,得到第三彩色图像;第三彩色图像和第一彩色图像合并,得到实际场景的彩色图像。第二预设相似度可以根据实际情况进行设定,例如可以为90%、91%、92%、93%、94%、95%等;第二预设相似度也可以根据第一彩色图像的数据量进行确定,第一彩色图像的数据量越大,则第二预设相似度越大,第一彩色图像的数据量越小,则第二预设相似度越小。通过第一彩色图像的数据量确定第二预设相似度使得最后得到的根据实际场景的彩色图像形成的样本数据集能够满足目标游戏场景模型训练数据量。第一彩色图像与第一彩色图像的相似度可以根据第一彩色图像与第二彩色图像的距离得到,例如欧氏距离。
S120,对点云数据进行去噪处理,得到去噪后的点云数据,并对去噪后的点云数据进行特征提取,得到空间特征;
可以理解的是,通过对点云数据进行去噪处理,从而去除掉了无效的点云数据,提高了点云数据的数据质量。对去噪后的点云数据进行特征提取可以采用训练好的用于点云数据空间特征提取的卷积神经网络模型进行特征提取,得到空间特征。
S130,对彩色图像进行颜色纹理特征提取,得到颜色纹理特征;
可以理解的是,可以将彩色图像输入二维特征提取器中,提取彩色图像的颜色纹理特征,得到颜色纹理特征。具体地,二维特征提取器包括但不限于VGG16。
S140,将空间特征和颜色纹理特征进行特征融合处理,得到融合特征,并根据融合特征形成样本数据集;
可以理解的是,进行特征融合时,将同一场景的点云数据和颜色纹理特征进行特征融合,得到多个融合特征,并根据多个融合特征形成样本数据集。通过空间特征和颜色纹理特征形成样本数据集,并根据样本数据集建立目标游戏场景模型,使得建立的目标游戏场景模型包括颜色纹理特征,从而解决现有技术中游戏场景真实感较低等问题
S150,构建初始游戏场景模型,采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型。
可以理解的时,初始游戏场景模型包括但不限于卷积神经网络模型、循环神经网络模型。为了提供目标游戏场景模型的准确性,采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型的具体实现方法包括:将样本数据集划分为训练数据集和测试数据集;采用训练数据集训练初始游戏场景模型,得到目标游戏场景模型;采用测试数据集测试目标游戏场景模型,获取测试结果;采用测试结果和交叉熵损失函数反向更新训练得到的目标游戏场景模型。
为了提高游戏场景的真实感,在得到用于游戏场景生成的目标游戏场景模型之后,还可以对游戏场景进行渲染,游戏场景的渲染方法请参照图2,游戏场景的渲染方法可以包括以下步骤:
S210,获取游戏场景需求数据,并根据游戏场景需求数据和目标游戏场景模型生成目标游戏场景;
可以理解的是,游戏场景需求数据包括需要生成的游戏场景的类型,例如森林、草原、河流等。根据游戏场景需求数据和目标游戏场景模型生成目标游戏场景,即生成对应的游戏场景,例如森林、草原、河流等。
S220,获取实时游戏数据,并根据实时游戏数据匹配目标音频方案的力触觉特征;
应当理解的是,实时游戏数据包括但不限于当前用户所对应的游戏角色的操作数据、实时游戏中的环境数据;当前用户所对应的游戏角色的操作数据包括但不限于行走、跑步、开枪;实时游戏中的环境数据包括其他游戏角色的操作数据、天气数据、地形数据,其他游戏角色的操作数据包括但不限于行走、跑步、开枪;天气数据包括但不限于下雨、打雷、闪电;地形数据包括但不限于河流、森林、草原。根据实时游戏数据匹配目标音频方案的力触觉特征匹配之前需要确定实时游戏数据会产生声音的数据,例如,当前用户所对应的游戏角色的开枪会产生枪声,当前用户所对应的游戏角色的行走会产生脚步声;然后根据实时游戏数据会产生声音的数据匹配对应的目标音频方案。再根据实时游戏数据匹配目标音频方案还需要建立知识图谱,知识图谱中包括多个音频方案的力触觉特征,例如,不同枪声的力触觉特征,脚步声的力触觉特征,水流声的力触觉特征,下雨声的力触觉特征。在建立音频方案的力触觉特征之前需要获取不同类型的音频数据,并提取各个音频数据的力触觉特征,从而得到多个音频方案的力触觉特征。
在一实施例中,根据实时游戏数据匹配目标音频方案的力触觉特征包括:根据实时游戏数据匹配待选择音频渲染方案,待选择音频渲染方案包括多个音频渲染子方案,每个音频渲染子方案均包括音频类别和渲染强度;获取目标用户的历史操作数据和样本用户的历史操作数据,并根据目标用户的历史操作数据和样本用户的历史操作数据确定各音频类别的权重;根据各音频类别的权重和待选择音频渲染方案获取目标音频方案以及目标音频方案对应的力触觉特征。音频类别的权重越大,则目标音频中这个音频类别的渲染强度越大;音频类别的权重越小,则目标音频中这个音频类别的渲染强度越小。
在一实施例中,根据实时游戏数据匹配待选择音频渲染方案,即是获取到实时游戏数据会产生声音的数据,根据实时游戏数据会产生声音的数据匹配对应的待选择音频渲染方案。音频渲染子方案的音频类别与实时游戏数据会产生声音的音频类别相同。音频类别包括但不限于脚步声、枪声、水流声。
在一实施例中,根据目标用户的历史操作数据和样本用户的历史操作数据确定各音频类别的权重包括:采用聚类算法对所述样本用户的历史操作数据进行分类处理,得到分类结果,分类结果包括多个用户类别;根据目标用户的历史操作数据和分类结果确定目标用户类别;获取目标用户类别下样本用户的评价数据,并根据评价数据确定各音频类别的权重。历史操作数据包括但不限于调整声音强度的操作数据,加快行走速度的数据。目标用户为当前游戏的操作用户。通过对样本用户的历史操作数据进行聚类,得到分类结果;再根据分类结果和目标用户的历史操作数据确定目标用户所对应的用户类别即目标用户类别;目标用户类别下样本用户的评价数据即是目标用户对各音频类别的偏好度,然后根据用户对各音频类别的偏好度匹配对应的目标音频方案,提高了用户的使用体验感,从而达到提高用户对该游戏使用黏性的目的。
S230,根据目标音频方案的力触觉特征获取目标力触觉贴图,并将目标力触觉贴图渲染至目标游戏场景中。
可以理解的是,通过实时游戏数据匹配目标音频方案的力触觉特征,并根据目标音频方案的力触觉特征获取目标力触觉贴图,再将目标力触觉贴图渲染至目标游戏场景中,进一步提高了游戏场景的真实感。
本发明实施例中的游戏场景模型的构建方法,通过获取实际场景的点云数据和彩色图像;对点云数据进行特征提取得到空间特征,对彩色图像进行颜色纹理特征提取得到颜色纹理特征;将空间特征和颜色纹理特征进行特征融合处理形成样本数据集;采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型;通过空间特征和颜色纹理特征形成样本数据集并根据样本数据集建立目标游戏场景模型,使得建立的目标游戏场景模型包括颜色纹理特征,从而解决现有技术中游戏场景真实感较低等问题;通过实时游戏数据匹配目标音频方案的力触觉特征,并根据目标音频方案的力触觉特征获取目标力触觉贴图,再将目标力触觉贴图渲染至目标游戏场景中,进一步提高了游戏场景的真实感;通过目标用户的历史操作数据和样本用户的历史操作数据,得到目标用户对各音频类别的偏好度,然后根据用户对各音频类别的偏好度匹配对应的目标音频方案,提高了用户的使用体验感,从而达到提高用户对该游戏使用黏性的目的。
基于与上述游戏场景模型的构建方法相同的发明构思,相应的,本实施例还提供了一种游戏场景模型的构建装置。
图3为本发明提供的游戏场景模型的构建装置的模块示意图。
如图3所示,游戏场景模型的构建装置3包括:31数据获取模块、32空间特征模块、33颜色纹理特征模块、34样本数据集模块以及35模型构建模块。
其中,数据获取模块,用于获取实际场景的点云数据和彩色图像;
空间特征模块,用于对所述点云数据进行去噪处理,得到去噪后的点云数据,并对所述去噪后的点云数据进行特征提取,得到空间特征;
颜色纹理特征模块,用于对所述彩色图像进行颜色纹理特征提取,得到颜色纹理特征;
样本数据集模块,用于将所述空间特征和所述颜色纹理特征进行特征融合处理,得到融合特征,并根据所述融合特征形成样本数据集;
模型构建模块,用于构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型。
在该示例性的游戏场景模型的构建装置中,通过获取实际场景的点云数据和彩色图像;对点云数据进行特征提取得到空间特征,对彩色图像进行颜色纹理特征提取得到颜色纹理特征;将空间特征和颜色纹理特征进行特征融合处理形成样本数据集;采用样本数据集训练初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型,通过空间特征和颜色纹理特征形成样本数据集并根据样本数据集建立目标游戏场景模型,使得建立的目标游戏场景模型包括颜色纹理特征,从而解决现有技术中游戏场景真实感较低等问题。
在一些示例性实施例中,游戏场景模型的构建装置还包括:
场景生成模块,用于获取游戏场景需求数据,并根据所述游戏场景需求数据和所述目标游戏场景模型生成目标游戏场景;
匹配模块,用于获取实时游戏数据,并根据所述实时游戏数据匹配目标音频方案的力触觉特征;
渲染模块,用于根据所述目标音频方案的力触觉特征获取目标力触觉贴图,并将所述目标力触觉贴图渲染至所述目标游戏场景中。
在一些示例性实施例中,匹配模块包括:
匹配单元,用于根据所述实时游戏数据匹配待选择音频渲染方案,所述待选择音频渲染方案包括多个音频渲染子方案,每个音频渲染子方案均包括音频类别和渲染强度;
权重确定单元,用于获取目标用户的历史操作数据和样本用户的历史操作数据,并根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重;
方案确定单元,用于根据所述各音频类别的权重和所述待选择音频渲染方案获取目标音频方案以及目标音频方案对应的力触觉特征。
在一些示例性实施例中,权重确定单元包括:
聚类子单元,用于采用聚类算法对所述样本用户的历史操作数据进行分类处理,得到分类结果,所述分类结果包括多个用户类别;
类别确定子单元,用于根据所述目标用户的历史操作数据和所述分类结果确定目标用户类别;
权重确定子单元,用于获取所述目标用户类别下样本用户的评价数据,并根据所述评价数据确定所述各音频类别的权重。
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本实施例中的任一项方法。
在一个实施例中,请参见图4,本实施例还提供了一种电子设备400,包括存储器401、处理器402及存储在存储器上并可在处理器上运行的计算机程序,所述处理器402执行所述计算机程序时实现如上任一项实施例所述方法的步骤。
本实施例中的计算机可读存储介质,本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本实施例提供的电子设备,包括处理器、存储器、收发器和通信接口,存储器和通信接口与处理器和收发器连接并完成相互间的通信,存储器用于存储计算机程序,通信接口用于进行通信,处理器和收发器用于运行计算机程序,使电子设备执行如上方法的各个步骤。
在本实施例中,存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在上述实施例中,说明书对“本实施例”、“一实施例”、“另一实施例”、“在一些示例性实施例”或“其他实施例”的提及表示结合实施例说明的特定特征、结构或特性包括在至少一些实施例中,但不必是全部实施例。“本实施例”、“一实施例”、“另一实施例”的多次出现不一定全部都指代相同的实施例。
在上述实施例中,尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变形对本领域普通技术人员来说将是显而易见的。例如,其他存储结构(例如,动态RAM(DRAM))可以使用所讨论的实施例。本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明可用于众多通用或专用的计算***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
上述实施例仅示例性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,但凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (4)

1.一种游戏场景模型的构建方法,其特征在于,包括:
获取实际场景的点云数据和彩色图像;
对所述点云数据进行去噪处理,得到去噪后的点云数据,并对所述去噪后的点云数据进行特征提取,得到空间特征;
对所述彩色图像进行颜色纹理特征提取,得到颜色纹理特征;
将所述空间特征和所述颜色纹理特征进行特征融合处理,得到融合特征,并根据所述融合特征形成样本数据集;
构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型。
2.根据权利要求1所述的游戏场景模型的构建方法,其特征在于,所述构建初始游戏场景模型,采用所述样本数据集训练所述初始游戏场景模型,得到用于游戏场景生成的目标游戏场景模型之后,还包括:
获取游戏场景需求数据,并根据所述游戏场景需求数据和所述目标游戏场景模型生成目标游戏场景;
获取实时游戏数据,并根据所述实时游戏数据匹配目标音频方案的力触觉特征;
根据所述目标音频方案的力触觉特征获取目标力触觉贴图,并将所述目标力触觉贴图渲染至所述目标游戏场景中。
3.根据权利要求2所述的游戏场景模型的构建方法,其特征在于,所述根据所述实时游戏数据匹配目标音频方案的力触觉特征包括:
根据所述实时游戏数据匹配待选择音频渲染方案,所述待选择音频渲染方案包括多个音频渲染子方案,每个音频渲染子方案均包括音频类别和渲染强度;
获取目标用户的历史操作数据和样本用户的历史操作数据,并根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重;
根据所述各音频类别的权重和所述待选择音频渲染方案获取目标音频方案以及目标音频方案对应的力触觉特征。
4.根据权利要求3所述的游戏场景模型的构建方法,其特征在于,所述根据所述目标用户的历史操作数据和所述样本用户的历史操作数据确定各音频类别的权重包括:
采用聚类算法对所述样本用户的历史操作数据进行分类处理,得到分类结果,所述分类结果包括多个用户类别;
根据所述目标用户的历史操作数据和所述分类结果确定目标用户类别;
获取所述目标用户类别下样本用户的评价数据,并根据所述评价数据确定所述各音频类别的权重。
CN202210885330.8A 2022-07-26 2022-07-26 一种游戏场景模型的构建方法 Withdrawn CN115272571A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210885330.8A CN115272571A (zh) 2022-07-26 2022-07-26 一种游戏场景模型的构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210885330.8A CN115272571A (zh) 2022-07-26 2022-07-26 一种游戏场景模型的构建方法

Publications (1)

Publication Number Publication Date
CN115272571A true CN115272571A (zh) 2022-11-01

Family

ID=83770341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210885330.8A Withdrawn CN115272571A (zh) 2022-07-26 2022-07-26 一种游戏场景模型的构建方法

Country Status (1)

Country Link
CN (1) CN115272571A (zh)

Similar Documents

Publication Publication Date Title
CN111340711B (zh) 一种超分辨率重建方法、装置、设备和存储介质
CN109583509B (zh) 数据生成方法、装置及电子设备
CN112138386A (zh) 一种体积渲染方法、装置、存储介质及计算机设备
CN110189246A (zh) 图像风格化生成方法、装置及电子设备
CN115883853B (zh) 视频帧播放方法、装置、设备以及存储介质
US20170171621A1 (en) Method and Electronic Device for Information Processing
WO2023273131A1 (zh) 游戏场景的生成方法及装置、存储介质、电子装置
CN111729307A (zh) 虚拟场景显示方法、装置、设备以及存储介质
CN113705520A (zh) 动作捕捉方法、装置及服务器
WO2022088819A1 (zh) 视频处理方法、视频处理装置和存储介质
WO2018031050A1 (en) System and method for generating a customized augmented reality environment to a user
CN113949914A (zh) 直播互动方法、装置、电子设备及计算机可读存储介质
US20230281833A1 (en) Facial image processing method and apparatus, device, and storage medium
CN112381020A (zh) 一种视频场景识别方法、***及电子设备
Zhang Design of mobile augmented reality game based on image recognition
CN112381707A (zh) 图像生成方法、装置、设备以及存储介质
US10535192B2 (en) System and method for generating a customized augmented reality environment to a user
CN113617027B (zh) 云游戏的处理方法、装置、设备以及介质
CN116757970B (zh) 视频重建模型的训练方法、视频重建方法、装置及设备
CN110197459B (zh) 图像风格化生成方法、装置及电子设备
CN117197405A (zh) 三维物体的增强现实方法、***及存储介质
CN112150464A (zh) 一种图像检测方法、装置、电子设备及存储介质
CN115272571A (zh) 一种游戏场景模型的构建方法
CN111507139A (zh) 图像效果生成方法、装置和电子设备
CN111738087A (zh) 一种游戏角色面部模型的生成方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20221101

WW01 Invention patent application withdrawn after publication