CN112190921A - 一种游戏交互方法及装置 - Google Patents

一种游戏交互方法及装置 Download PDF

Info

Publication number
CN112190921A
CN112190921A CN202011120102.9A CN202011120102A CN112190921A CN 112190921 A CN112190921 A CN 112190921A CN 202011120102 A CN202011120102 A CN 202011120102A CN 112190921 A CN112190921 A CN 112190921A
Authority
CN
China
Prior art keywords
information
face
game
user
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011120102.9A
Other languages
English (en)
Inventor
刘峰
蒋楠
刘梦
章靖宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Kingsoft Online Game Technology Co Ltd
Original Assignee
Zhuhai Kingsoft Online Game Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Kingsoft Online Game Technology Co Ltd filed Critical Zhuhai Kingsoft Online Game Technology Co Ltd
Priority to CN202011120102.9A priority Critical patent/CN112190921A/zh
Publication of CN112190921A publication Critical patent/CN112190921A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供一种游戏交互方法及装置,其中所述游戏交互方法包括:获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;将所述游戏角色表情添加到所述游戏角色的面部进行展示;根据所述用户情绪执行对应的游戏交互指令。通过所述方法实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,增强游戏用户的代入感,提高游戏用户的游戏体验,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,提高游戏的可玩性和互动性,进一步提高了用户的游戏体验。

Description

一种游戏交互方法及装置
技术领域
本申请涉及互联网技术领域,特别涉及一种游戏交互方法及装置、计算设备和计算机可读存储介质。
背景技术
随着互联网技术的发展,增强现实(Augmented Reality,AR)技术也得到了快速发展,AR技术应用于游戏领域可以将虚拟的游戏角色利用增强现实技术通过手机、游戏机等媒介在现实环境下展示出来,AR游戏从位置服务、图像识别、数据处理三个方面实现了游戏与AR技术的优化组合,AR游戏在玩法和形式上的重大突破给玩家带来了全新的游戏体验。
目前市面上的AR游戏,游戏角色的行为来源于游戏的设定,与游戏用户的交互性较差,用户的面部表情无法直接影响游戏中的场景,也无法实现与游戏中的游戏角色进行互动,无法满足游戏用户对游戏的高要求。
因此,如何解决上述问题,就成为技术人员目前亟待解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种游戏交互方法及装置、计算设备和计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本申请实施例的第一方面,提供了一种游戏交互方法,包括:
获取游戏角色,并采集用户面部信息;
根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;
将所述游戏角色表情添加到所述游戏角色的面部进行展示;
根据所述用户情绪执行对应的游戏交互指令。
可选的,采集用户面部信息,包括:
调用图像采集设备采集用户面部信息。
可选的,根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情,包括:
提取所述用户面部信息的至少一个局部特征信息;
根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;
根据每个所述面部姿态的权重信息确定游戏角色表情。
可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;
根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息,包括:
将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。
可选的,根据所述用户面部信息和预设的面部姿态集合确定用户情绪,包括:
提取所述用户面部信息的眼睛信息和嘴巴信息;
将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;
对所述虚拟面部信息进行情绪分析,确定用户情绪。
可选的,将所述游戏角色表情添加到所述游戏角色的面部进行展示,包括:
将所述游戏角色表情添加到所述游戏角色的面部;
分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
根据本申请实施例的第二方面,提供了一种游戏交互装置,包括:
获取采集模块,被配置为获取游戏角色,并采集用户面部信息;
确定模块,被配置为根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;
添加展示模块,被配置为将所述游戏角色表情添加到所述游戏角色的面部进行展示;
执行模块,被配置为根据所述用户情绪执行对应的游戏交互指令。
可选的,所述获取采集模块,进一步被配置为调用图像采集设备采集用户面部信息。
可选的,所述确定模块,进一步被配置为提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。
可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;
所述确定模块,进一步被配置为将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。
可选的,所述确定模块,进一步被配置为提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。
可选的,所述添加展示模块,进一步被配置为将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
根据本申请实施例的第三方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述游戏交互方法的步骤。
根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现所述游戏交互方法的步骤。
本申请实施例中,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。
附图说明
图1是本申请实施例提供的计算设备的结构框图;
图2是本申请实施例提供的游戏交互方法的流程图;
图3是本申请另一实施例提供的游戏交互方法的示意图;
图4是本申请实施例提供的游戏交互装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
在本申请中,提供了一种游戏交互方法及装置、计算设备和计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1示出了根据本申请一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。
计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备100还可以是移动式或静止式的服务器。
其中,处理器120可以执行图2所示游戏交互方法中的步骤。图2示出了根据本申请一实施例的游戏交互方法的流程图,包括步骤202至步骤208。
步骤202:获取游戏角色,并采集用户面部信息。
用户通过终端打开游戏界面进入游戏,获取用户在游戏中生成的游戏角色,该游戏角色由用户控制,同时通过调用终端的图像采集设备采集用户面部信息。
终端可以是手机、平板电脑、笔记本电脑等带有图像采集功能的智能终端,所述智能终端也可以运行相应的游戏程序,在本申请中不对终端做具体限定。
通过设置在终端中的图像采集设备如前置摄像头实时获取用户面部信息。若摄像机图像中存在多个面部,则选择最大或最清晰可识别的面部。
在本申请提供的一实施例中,用户通过手机登录游戏,控制游戏中的游戏角色进行相应的游戏操作,并通过手机的前置摄像头实时采集用户面部信息。
步骤204:根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪。
增强现实(Augmented Reality,AR)技术是一种实时地计算摄像机影像的位置及角度并加上相应图像、视频、3D模型的技术,目的是在屏幕上把虚拟世界套在现实世界并进行互动,各平台厂商发布各自对应的AR接口,协助开发人员以较为简单的方式实现AR技术功能。
在AR接口中有一类功能用于处理用户脸部内容,并匹配用户面部表情,开发人员可以通过终端的前置摄像头识别并跟踪用户脸部的移动和表情,还可以检测到脸部的姿势、拓扑和表情的信息。
预设的面部姿态集合中包括了处理脸部面容的基本姿态,用于标识特定面部特征的标识,包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头对应的52种基本姿态。
可选的,根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情,包括:提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。
在实际应用中,获取用户面部信息之后,提取所述用户面部信息的每个预设的面部姿态集合中预设的基本姿态对应的局部特征信息,如眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头的至少一个局部特征信息,其中,眼睛的特征信息分为左眼和右眼,再分别将每个局部特征信息分别与预设的面部姿态集合中的每个脸部面容的基本姿态进行比对,具体为将左眼的局部特征信息与预设的面部姿态集合中的左眼基本姿态比对(如监测左眼闭合系数、左眼皮运动与向下凝视一致的系数等等),将右眼的局部特征信息与预设的面部姿态集合中的右眼基本姿态对比,将嘴巴和下颚的局部特征信息与预设的面部姿态集合中的嘴巴和下颚的基本姿态对比(如下颚向前运动的系数、下颚张开的系数等等),依次类推,直至用户面部信息的每个局部特征信息比对完成。
当用户面部信息的每个局部特征信息比对完成之后,确定每个面部姿态在用户面部信息中占据的权重信息,并根据每个特定面部特征占据的权重信息确定游戏角色表情。
在本申请提供的一实施例中,沿用上例,采集到用户面部信息为眼睛睁大,嘴巴张开,下颚向下移动,两个眉毛内部和外部均向上运动,通过与预设的面部姿态集合中的52种基本姿态进行比对,确定左眼与预设的面部姿态集合中与左眼相关的基本姿态的权重值,同理确定右眼与预设的面部姿态集合中与右眼相关的基本姿态的权重值,确定嘴巴与预设的面部姿态集合中与嘴巴相关的基本姿态的权重值、确定下颚与预设的面部姿态集合中与下颚相关的基本姿态的权重值,确定眉毛与预设的面部姿态集合中与眉毛相关的基本姿态的权重值,确定脸颊与预设的面部姿态集合中与脸颊相关的基本姿态的权重值,确定鼻子与预设的面部姿态集合中与鼻子相关的基本姿态的权重值,确定舌头与预设的面部姿态集合中与舌头相关的基本姿态的权重值,进而确定用户的表情为惊讶的表情。
可选的,根据所述用户面部信息和预设的面部姿态集合确定用户情绪,包括:提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。
在根据用户面部信息和预设的面部姿态集合确定用户情绪时,通过提取用户面部信息的眼睛和嘴巴的信息,并将眼睛信息和嘴巴信息对应映射到虚拟的基础面部模型上生成虚拟面部信息,再通过虚拟面部信息进行用户的情绪分析,确定用户的情绪。
通过平台厂商发布的AR接口可以准确地获取用户的面部信息,对用户的面部信息中的局部特征信息进行处理,如提取用户面部的眼睛信息和嘴巴信息,分析用户的表情确定用户的情绪,无需精确检测用户表情,只需进行基本匹配,即可快速、及时地确定用户的情绪。
步骤206:将所述游戏角色表情添加到所述游戏角色的面部进行展示。
将获得的游戏角色表情对应添加到游戏角色面部进行展示,具体包括将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
在实际应用中,用户控制的游戏角色的面部信息的基本形状是由预先捏脸生成的,捏脸为游戏中用户为控制的游戏角色进行自定义面容的操作,每个用户可以根据自己的喜好为游戏角色创建不同的面容,游戏角色的基本面部信息在蒙皮骨骼上增加控制层,捏脸的材质表现为静态材质(如妆容)和动态材质(如情绪装饰中的酒窝、眉头等)。
将游戏角色表情添加到游戏角色的面部,是将游戏角色表情与原有的捏脸数据进行重叠放置。通过Warp 3D将用户面部表情的拓扑结构进行标准化,在不同的脸型之间保证顶点序列的拓扑结构一致,生成每个面部姿态对应的Morph信息,再通过3dsMax根据每个面部姿态的权重值和Morph信息生成对应的面部骨骼姿态信息,通过逐个面部姿态对比检查的方式来检查每个面部姿态对应的Morph和对应的面部骨骼姿态信息的匹配情况,对于匹配的面部骨骼姿态信息和Morph则根据面部姿态的Morph信息覆盖游戏角色面部的对应的Morph信息。对于不匹配的面部骨骼姿态信息和Morph信息的情况,通过调整蒙皮点位置与权重使得面部骨骼姿态信息和Morph进行匹配。
在本申请提供的实施例中,沿用上例,以用户面部信息的嘴巴的局部特征信息为例,嘴巴对应的面部姿态为嘴巴张开,通过Warp 3D生成嘴巴张开对应的Morph信息,通过放置蒙皮点和初始权重信息根据Morph信息Morph1生成嘴巴对应的面部骨骼姿态信息Pose1,通过嘴巴对应的面部姿态对比检查嘴巴部分的Morph1和Pose1的匹配情况,若匹配则根据Morph1与游戏角色面部的嘴巴部分嘴硬的Morph进行叠加,若不匹配,则通过调整蒙皮点位置与权重使得嘴巴部分的Morph1和Pose1相匹配,进而再根据Morph1与游戏角色面部的嘴巴部分嘴硬的Morph进行叠加。
步骤208:根据所述用户情绪执行对应的游戏交互指令。
根据用户情绪执行对应的游戏交互指令,具体可以根据游戏的设定进行交互,如获取的用户情绪为高兴,在游戏中即可获取并执行与高兴对应的游戏交互指令如鼓掌欢呼,如获取到用户情绪为惊吓,则在游戏中获取并执行与惊吓对应的游戏交互指令如后退两步等等。
本申请实施例提供的游戏交互方法,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。
图3示出了本申请一实施例的游戏交互方法,该游戏交互方法以对获取用户面部信息进行游戏交互为例进行描述,包括步骤302至步骤320。
步骤302:获取游戏角色,并调用图像采集设备采集用户面部信息。
在本申请提供的实施例中,用户通过手机启动游戏,获取用户在游戏中的游戏角色A,并调用手机的前置摄像头实施采集用户的面部信息的数据。
步骤304:提取所述用户面部信息的至少一个局部特征信息。
在本申请提供的实施例中,提取所述用户面部信息的左眼、右眼、嘴巴、下颚、眉毛、脸颊、鼻子和舌头的局部特征信息。
步骤306:根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息。
在本申请提供的实施例中,预设的面部姿态集合中包括了处理脸部面容的52种基本姿态,其中左眼相对应的基本姿态有7种,右眼相对应的基本姿态有7种,嘴巴和下颚对应的基本姿态有27种,眉毛、脸颊和鼻子对应的基本姿态有10种,舌头对应的基本姿态有1种。
将面部信息中左眼的局部特征信息与面部姿态集合中的左眼对应的7种基本姿态一一比对后,确定左眼对应的7种基本姿态中每个基本姿态的权重信息,依次类推,依次确定右眼对应的7种基本姿态中每个基本姿态的权重信息,确定嘴巴和下颚对应的27种基本姿态中每个基本姿态的权重信息,确定眉毛、脸颊和鼻子对应的10种基本姿态中每个基本姿态的权重信息,确定舌头对应的1种基本姿态的权重信息。
步骤308:根据每个所述面部姿态的权重信息确定游戏角色表情。
在本申请提供的实施例中,通过Warp 3D将用户面部表情的拓扑结构进行标准化,在不同的脸型之间保证顶点序列的拓扑结构一致,生成每个基本姿态对应的Morph信息,再通过3dsMax根据每个面部姿态的权重值和Morph信息生成对应的面部骨骼姿态信息,进而确定游戏角色表情。
步骤310:将所述游戏角色表情添加到所述游戏角色的面部,分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
在本申请提供的实施例中,分别检查每个基本姿态对应的Morph信息和对应的面部骨骼姿态信息的匹配情况,对于不匹配的面部骨骼姿态信息和Morph信息的情况,通过调整蒙皮点位置与权重使得面部骨骼姿态信息和Morph进行匹配直至匹配成功,将匹配成功的基本姿态对应的Morph信息覆盖游戏角色面部的对应的Morph信息,完成将所述游戏角色表情添加到所述游戏角色的面部的操作。
步骤312:将眼睛信息和嘴巴信息映射到基础面部模型生成虚拟面部信息。
在本申请提供的实施例中,获取用户面部信息的眼睛信息和嘴巴信息的局部特征信息,并将眼睛信息和嘴巴信息对应映射到虚拟的基础面部模型上生成虚拟面部信息。
步骤314:对所述虚拟面部信息进行情绪分析,确定用户情绪。
在本申请提供的实施例中,通过虚拟面部信息进行用户的情绪分析,确定用户的情绪。
步骤316:根据所述用户情绪执行对应的游戏交互指令。
在本申请提供的实施例中,通过用户的情绪获取并执行对应的游戏交互指令,实现通过用户情绪与游戏中虚拟角色互动的功能。
本申请实施例提供的游戏互动方法,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。
与上述方法实施例相对应,本申请还提供了游戏交互装置实施例,图4示出了本申请一个实施例的游戏交互装置的结构示意图。如图4所示,该装置包括:
获取采集模块402,被配置为获取游戏角色,并采集用户面部信息;
确定模块404,被配置为根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;
添加展示模块406,被配置为将所述游戏角色表情添加到所述游戏角色的面部进行展示;
执行模块408,被配置为根据所述用户情绪执行对应的游戏交互指令。
可选的,所述获取采集模块402,进一步被配置为调用图像采集设备采集用户面部信息。
可选的,所述确定模块404,进一步被配置为提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。
可选的,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;
所述确定模块404,进一步被配置为将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。
可选的,所述确定模块404,进一步被配置为提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。
可选的,所述添加展示模块406,进一步被配置为将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
本申请实施例提供的游戏交互装置,通过获取游戏角色,并采集用户面部信息;根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪,将所述游戏角色表情添加到所述游戏角色的面部进行展示;实时获取游戏用户的面部信息并根据用户的面部信息调整游戏角色的面部信息,可以实现游戏用户的面部表情直接影响游戏,如采集用户面部信息为高兴的表情,则游戏角色也表现为高兴的表情,若采集到用户面部信息为悲伤的表情,则游戏角色也表现为悲伤的表情,增强游戏用户的代入感,提高游戏用户的游戏体验,根据所述用户情绪执行对应的游戏交互指令,分析用户的实时情绪并根据用户的情绪实现与游戏中的虚拟角色实时互动,根据用户的情绪执行不同的互动指令,提高了游戏的可玩性和互动性,进一步提高了用户的游戏体验。
本申请一实施例中还提供一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现所述的游戏交互方法的步骤。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述游戏交互方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的游戏交互方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述游戏交互方法的技术方案的描述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (14)

1.一种游戏交互方法,其特征在于,包括:
获取游戏角色,并采集用户面部信息;
根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;
将所述游戏角色表情添加到所述游戏角色的面部进行展示;
根据所述用户情绪执行对应的游戏交互指令。
2.如权利要求1所述的游戏交互方法,其特征在于,采集用户面部信息,包括:
调用图像采集设备采集用户面部信息。
3.如权利要求1所述的游戏交互方法,其特征在于,根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情,包括:
提取所述用户面部信息的至少一个局部特征信息;
根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;
根据每个所述面部姿态的权重信息确定游戏角色表情。
4.如权利要求3所述的游戏交互方法,其特征在于,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;
根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息,包括:
将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。
5.如权利要求1所述的游戏交互方法,其特征在于,根据所述用户面部信息和预设的面部姿态集合确定用户情绪,包括:
提取所述用户面部信息的眼睛信息和嘴巴信息;
将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;
对所述虚拟面部信息进行情绪分析,确定用户情绪。
6.如权利要求1所述的游戏交互方法,其特征在于,将所述游戏角色表情添加到所述游戏角色的面部进行展示,包括:
将所述游戏角色表情添加到所述游戏角色的面部;
分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
7.一种游戏交互装置,其特征在于,包括:
获取采集模块,被配置为获取游戏角色,并采集用户面部信息;
确定模块,被配置为根据所述用户面部信息和预设的面部姿态集合确定游戏角色表情和用户情绪;
添加展示模块,被配置为将所述游戏角色表情添加到所述游戏角色的面部进行展示;
执行模块,被配置为根据所述用户情绪执行对应的游戏交互指令。
8.如权利要求7所述的游戏交互装置,其特征在于,
所述获取采集模块,进一步被配置为调用图像采集设备采集用户面部信息。
9.如权利要求7所述的游戏交互装置,其特征在于,
所述确定模块,进一步被配置为提取所述用户面部信息的至少一个局部特征信息;根据预设的面部姿态集合中的面部姿态分析每个所述局部特征信息,确定每个所述面部姿态的权重信息;根据每个所述面部姿态的权重信息确定游戏角色表情。
10.如权利要求9所述的游戏交互装置,其特征在于,所述局部特征信息包括眼睛、嘴巴、下颚、眉毛、脸颊、鼻子和舌头中的至少一个局部特征信息;
所述确定模块,进一步被配置为将预设的面部姿态集合中的面部姿态分别与每个所述局部特征信息进行比对,确定每个所述面部姿态在所述用户面部信息中的权重信息。
11.如权利要求7所述的游戏交互装置,其特征在于,
所述确定模块,进一步被配置为提取所述用户面部信息的眼睛信息和嘴巴信息;将所述眼睛信息和所述嘴巴信息映射到基础面部模型生成虚拟面部信息;对所述虚拟面部信息进行情绪分析,确定用户情绪。
12.如权利要求7所述的游戏交互装置,其特征在于,
所述添加展示模块,进一步被配置为将所述游戏角色表情添加到所述游戏角色的面部;分别对比检查每个面部姿态与游戏角色面部的匹配情况,对于不匹配游戏角色面部的面部姿态进行调整以使每个面部姿态与游戏角色面部匹配。
13.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-6任意一项所述方法的步骤。
14.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-6任意一项所述方法的步骤。
CN202011120102.9A 2020-10-19 2020-10-19 一种游戏交互方法及装置 Pending CN112190921A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011120102.9A CN112190921A (zh) 2020-10-19 2020-10-19 一种游戏交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011120102.9A CN112190921A (zh) 2020-10-19 2020-10-19 一种游戏交互方法及装置

Publications (1)

Publication Number Publication Date
CN112190921A true CN112190921A (zh) 2021-01-08

Family

ID=74009444

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011120102.9A Pending CN112190921A (zh) 2020-10-19 2020-10-19 一种游戏交互方法及装置

Country Status (1)

Country Link
CN (1) CN112190921A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113050859A (zh) * 2021-04-19 2021-06-29 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113908553A (zh) * 2021-11-22 2022-01-11 广州简悦信息科技有限公司 游戏角色表情生成方法、装置、电子设备及存储介质
WO2022217826A1 (zh) * 2021-04-14 2022-10-20 南方科技大学 一种基于密接的游戏交互方法、***、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386799B1 (en) * 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
CN108564641A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的表情捕捉方法及装置
CN108874114A (zh) * 2017-05-08 2018-11-23 腾讯科技(深圳)有限公司 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质
CN110599573A (zh) * 2019-09-03 2019-12-20 电子科技大学 一种基于单目相机的人脸实时交互动画的实现方法
CN110750161A (zh) * 2019-10-25 2020-02-04 郑子龙 一种交互***、方法、移动设备及计算机可读介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7386799B1 (en) * 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
CN108874114A (zh) * 2017-05-08 2018-11-23 腾讯科技(深圳)有限公司 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质
CN108564641A (zh) * 2018-03-16 2018-09-21 中国科学院自动化研究所 基于ue引擎的表情捕捉方法及装置
CN110599573A (zh) * 2019-09-03 2019-12-20 电子科技大学 一种基于单目相机的人脸实时交互动画的实现方法
CN110750161A (zh) * 2019-10-25 2020-02-04 郑子龙 一种交互***、方法、移动设备及计算机可读介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022217826A1 (zh) * 2021-04-14 2022-10-20 南方科技大学 一种基于密接的游戏交互方法、***、服务器及存储介质
CN113050859A (zh) * 2021-04-19 2021-06-29 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113050859B (zh) * 2021-04-19 2023-10-24 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113908553A (zh) * 2021-11-22 2022-01-11 广州简悦信息科技有限公司 游戏角色表情生成方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110390704B (zh) 图像处理方法、装置、终端设备及存储介质
EP3885965B1 (en) Image recognition method based on micro facial expressions, apparatus and related device
CN110163054B (zh) 一种人脸三维图像生成方法和装置
CN100468463C (zh) 用于处理图像的方法、装置
CN112190921A (zh) 一种游戏交互方法及装置
CN108525305B (zh) 图像处理方法、装置、存储介质及电子设备
CN111680562A (zh) 一种基于骨骼关键点的人体姿态识别方法、装置、存储介质及终端
CN108564641B (zh) 基于ue引擎的表情捕捉方法及装置
JP2020047237A (ja) データ融合を用いた顔表情生成の方法
CN111968248B (zh) 基于虚拟形象的智能化妆方法、装置、电子设备及存储介质
CN108874114A (zh) 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质
CN111862116A (zh) 动漫人像的生成方法及装置、存储介质、计算机设备
CN108595012A (zh) 基于虚拟人的视觉交互方法及***
CN113766168A (zh) 一种互动处理方法、装置、终端及介质
CN105975072A (zh) 识别手势动作的方法、装置及***
CN108388889A (zh) 用于分析人脸图像的方法和装置
EP4071760A1 (en) Method and apparatus for generating video
CN106502401B (zh) 一种图像控制方法及装置
CN108681398A (zh) 基于虚拟人的视觉交互方法及***
CN114373044A (zh) 生成脸部三维模型的方法、装置、计算设备和存储介质
Wang et al. Expression dynamic capture and 3D animation generation method based on deep learning
CN112149599A (zh) 表情追踪方法、装置、存储介质和电子设备
WO2023035725A1 (zh) 虚拟道具展示方法及装置
CN108628454A (zh) 基于虚拟人的视觉交互方法及***
CN114677476A (zh) 一种脸部处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210108