CN117762250A - 一种基于交互设备的虚拟现实动作识别方法及*** - Google Patents

一种基于交互设备的虚拟现实动作识别方法及*** Download PDF

Info

Publication number
CN117762250A
CN117762250A CN202311647127.8A CN202311647127A CN117762250A CN 117762250 A CN117762250 A CN 117762250A CN 202311647127 A CN202311647127 A CN 202311647127A CN 117762250 A CN117762250 A CN 117762250A
Authority
CN
China
Prior art keywords
action
data
motion
feature
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311647127.8A
Other languages
English (en)
Other versions
CN117762250B (zh
Inventor
王新国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
4u Beijing Technology Co ltd
Original Assignee
4u Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4u Beijing Technology Co ltd filed Critical 4u Beijing Technology Co ltd
Priority to CN202311647127.8A priority Critical patent/CN117762250B/zh
Publication of CN117762250A publication Critical patent/CN117762250A/zh
Application granted granted Critical
Publication of CN117762250B publication Critical patent/CN117762250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于交互设备的虚拟现实动作识别方法及***,包括:当用户进入交互设备指定的动作采集区域时,***会通过预先训练的触发动作识别模型进行触发动作的识别。如果识别结果表明用户存在触发动作,***将获取用户动作对应的动作数据,并确定动作执行结果。最后,动作执行结果将展示在交互设备指定的虚拟现实交互区域。如此设计,通过预先训练的触发动作识别模型,能够准确地识别和解析用户在虚拟现实环境中的各种动作,从而使得交互更为流畅和自然;且由于***能够根据用户的动作数据确定动作执行结果,并将结果实时展示在虚拟现实交互区域,因此可以为用户提供更直观、更真实的虚拟现实体验。

Description

一种基于交互设备的虚拟现实动作识别方法及***
技术领域
本发明涉及虚拟现实交互技术领域,具体而言,涉及一种基于交互设备的虚拟现实动作识别方法及***。
背景技术
随着虚拟现实技术的不断发展,如何准确地识别和解析用户的动作以实现高质量的交互体验成为了一个重要的问题。传统的动作识别方法主要依赖于物理设备,例如手柄、***等,来捕捉用户的动作。然而,这些方法往往需要用户佩戴特殊的设备,操作起来可能较为繁琐。此外,这些方法可能无法准确地捕捉到用户的全部动作,从而影响虚拟现实的交互效果。因此,需要一种更高效且准确的虚拟现实动作识别方法。
发明内容
本发明的目的在于提供一种基于交互设备的虚拟现实动作识别方法及***。
第一方面,本发明实施例提供一种基于交互设备的虚拟现实动作识别方法,包括:
响应于当前用户进入交互设备指定的动作采集区域,基于预先训练的触发动作识别模型,对当前用户进行触发动作的识别;
在针对当前用户的目标识别结果表征为存在触发动作的基础上,获取当前用户动作对应的动作数据,确定当前用户动作对应的动作执行结果;
将动作执行结果展示至交互设备指定的虚拟现实交互区域。
第二方面,本发明实施例提供一种服务器***,包括服务器,服务器用于执行第一方面的方法。
相比现有技术,本发明提供的有益效果包括:采用本发明公开额一种基于交互设备的虚拟现实动作识别方法及***,当用户进入交互设备指定的动作采集区域时,***会通过预先训练的触发动作识别模型进行触发动作的识别。如果识别结果表明用户存在触发动作,***将获取用户动作对应的动作数据,并确定动作执行结果。最后,动作执行结果将展示在交互设备指定的虚拟现实交互区域。如此设计,通过预先训练的触发动作识别模型,能够准确地识别和解析用户在虚拟现实环境中的各种动作,从而使得交互更为流畅和自然;且由于***能够根据用户的动作数据确定动作执行结果,并将结果实时展示在虚拟现实交互区域,因此可以为用户提供更直观、更真实的虚拟现实体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的基于交互设备的虚拟现实动作识别方法的步骤流程示意图;
图2为本发明实施例提供的计算机设备的结构示意框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
下面结合附图,对本发明的具体实施方式进行详细说明。
为了解决前述背景技术中的技术问题,图1为本公开实施例提供的基于交互设备的虚拟现实动作识别方法的步骤流程示意图,下面对该基于交互设备的虚拟现实动作识别方法进行详细介绍。
步骤S201,响应于当前用户进入交互设备指定的动作采集区域,基于预先训练的触发动作识别模型,对当前用户进行触发动作的识别;
步骤S202,在针对当前用户的目标识别结果表征为存在触发动作的基础上,获取当前用户动作对应的动作数据,确定当前用户动作对应的动作执行结果;
步骤S203,将动作执行结果展示至交互设备指定的虚拟现实交互区域。
在本发明实施例中,示例性的,在一个虚拟现实健身应用中,用户进入指定的动作采集区域,准备进行一系列的体操动作训练。用户戴上虚拟现实头盔和手套,站在一个设置了多个红外传感器的区域内。通过预先训练的触发动作识别模型,***可以识别用户当前的触发动作,以便后续的数据处理和分析。当用户举起手臂并向前推动时,***通过传感器捕捉到这一动作,并使用触发动作识别模型来判断该动作是否为推举动作。根据目标识别结果表征,***可以确定用户的动作是否符合预期的训练要求。如果***判断用户的动作是一个有效的推举动作,那么它会认为目标识别结果表征为存在触发动作。***获取用户当前动作对应的动作数据,以便进行进一步的数据分析和反馈。当***确认用户进行了有效的推举动作后,它会记录该动作的角度、速度和姿态等关键数据。将动作执行结果以虚拟现实的方式展示给用户,使其能够直观地观察自己的动作效果。在虚拟现实健身应用中,当用户成功完成一次推举动作时,***会在虚拟环境中显示一个荧光球从用户手臂底部向上移动,表示用户的动作执行结果良好。同时,在屏幕上显示用户的得分和训练进度,以激励用户继续锻炼。
在本发明实施例的另一种实施方式中,假设一个虚拟现实游戏中,玩家在进行某个任务时需要进入指定的区域。这个区域可能是一个特定的房间或者是游戏中的某个特殊位置。进入该区域后,***会开始对用户进行动作识别。如果这个虚拟现实游戏中有一个动作需要玩家进行触发,比如使用手势来释放魔法攻击。***会通过预先训练好的模型来识别用户的触发动作,以确定用户是否执行了正确的手势。在虚拟现实游戏中,玩家可能需要完成一系列的任务。如果在识别用户的触发动作后,***判断用户已经成功完成了某个任务,那么***会将这个目标识别结果表征为存在触发动作。在虚拟现实游戏中,用户的动作可能包括走动、跳跃、攻击等。当***识别到用户触发了某个特定动作后,会记录下用户执行该动作的具体数据,比如动作的起始时间、结束时间、速度等。在虚拟现实游戏中,当用户完成某个任务的指定动作后,***会根据用户的动作数据来判断用户是否完成了动作的执行。如果用户的动作数据符合预设的标准,***会确定用户已经成功执行了该动作。在虚拟现实游戏中,完成某个任务后,***会将用户的动作执行结果进行展示。这个展示可以是在游戏场景中的文字提示、动画效果或者是其他形式的反馈,向用户展示他们的动作执行结果。如此设计,可以帮助用户在虚拟现实环境中进行特定动作的识别和反馈,提升交互体验
在本发明实施例中,前述步骤S201可以通过以下方式执行实施。
(1)基于预先训练的触发动作识别模型,获取含干扰动作视频的频谱特征向量,作为第一动作识别特征;
(2)针对第一动作识别特征进行循环更新操作,其中,循环更新操作为:根据第一动作识别特征确定干扰动作特征向量,以及根据针对过往含干扰动作视频确定的过往干扰动作特征向量,获得当前循环轮次对应的去干扰任务详情,并根据去干扰任务详情对干扰动作特征向量进行干扰消除操作,获得当前循环轮次对应的待定特征向量,其中,在首轮循环更新操作中,干扰动作特征向量为第一动作识别特征,在除首轮外的循环更新操作中,干扰动作特征向量是第一动作识别特征和已确定的待定特征向量合并获取的;
(3)将末轮循环更新确定的待定特征向量作为需求特征向量,并根据针对需求特征向量进行结构化信息提取确定的去干扰参量,对第一动作识别特征进行干扰消除操作,获得第二动作识别特征;
(4)根据第二动作识别特征,进行触发动作的识别,获得含干扰动作视频的目标识别结果。
在本发明实施例中,示例性的,在一个虚拟现实健身应用中,用户使用交互设备进行运动训练,比如跳绳。***会通过预先训练的触发动作识别模型来获取包含干扰动作(例如其他人在周围进行不相关的动作)的视频数据,并将其转换为频谱特征向量,以作为第一动作识别特征。在虚拟现实游戏中,玩家需要进行特定的拳击动作。***通过循环更新操作,在每个循环轮次中,根据第一动作识别特征确定可能存在的干扰动作特征向量,并结合过往的干扰动作特征向量,得到当前循环轮次对应的去干扰任务详情。然后根据去干扰任务详情对干扰动作特征向量进行干扰消除操作,获得待定特征向量。这样循环进行直到最后一个循环轮次结束。继续上述的虚拟现实游戏中,最后一个循环轮次结束后,***将末轮循环更新确定的待定特征向量作为需求特征向量。***还根据需求特征向量进行结构化信息提取,得到去干扰参量。然后,***对第一动作识别特征进行干扰消除操作,获得第二动作识别特征。在虚拟现实健身应用中,根据第二动作识别特征进行触发动作的识别。比如,在完成一组特定的拳击动作后,***会根据第二动作识别特征判断用户是否完成了正确的拳击动作。此外,***还可以通过对含干扰动作视频的目标识别结果进行分析,确保用户在执行动作时没有被其他不相关的干扰动作干扰。如此设计,通过循环更新和干扰消除操作,提高动作识别的准确性,并帮助在含干扰动作视频中识别出用户所进行的目标动作。这对于虚拟现实健身应用等领域来说,可以提供更精准的用户反馈和指导。
在本发明实施例中,前述获取含干扰动作视频的频谱特征向量的步骤,可以通过以下方式执行实施。
(1)对含干扰动作视频进行小波变换,获得含干扰动作视频的频率分布;
(2)针对含干扰动作视频的频率分布进行过滤操作,获得对应的频谱特征向量。
在本发明实施例中,示例性的,在一个虚拟现实交互应用中,用户使用交互设备进行手部动作识别。***会通过摄像头获取用户的手部动作视频,然后对这个视频进行小波变换。小波变换可以将信号从时域转换到频域,这样可以提取出频率相关的特征。继续上述的虚拟现实交互应用中,在小波变换获得含干扰动作视频的频率分布后,***会对该频率分布进行过滤操作。过滤操作可以根据预先定义的阈值或者其他规则,去除频谱中的干扰部分,只保留与目标动作相关的特征。这样就得到了对应的频谱特征向量,其反映了目标动作的频率特征。如此设计,通过小波变换和频率分布过滤操作,从含干扰动作视频中提取出与目标动作相关的频谱特征。这些特征可以用于后续的动作识别和干扰消除等处理,从而提高动作识别的准确性,并减少干扰对用户体验的影响。
在本发明实施例中,前述循环更新操作可以包括以下方式。
(1)若为首轮循环更新操作,则将第一动作识别特征作为干扰动作特征向量,并根据针对过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据去干扰任务详情对干扰动作特征向量进行干扰消除操作,获得首轮循环更新操作对应的待定特征向量;
(2)若为第二轮循环更新操作,则将第一动作识别特征和当前循环轮次的上轮循环更新操作获得一个待定特征向量合并为干扰动作特征向量,并根据针对过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据去干扰任务详情对干扰动作特征向量进行干扰消除操作,获得第二轮循环更新操作对应的待定特征向量;
(3)若为第三轮循环更新操作,则将第一动作识别特征和当前循环轮次的前两轮循环更新操作获得两个待定特征向量合并为干扰动作特征向量,并根据针对过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据去干扰任务详情对干扰动作特征向量进行干扰消除操作,获得第三轮循环更新操作对应的待定特征向量。
在本发明实施例中,示例性的,在一个姿势识别应用中,用户需要完成一系列的瑜伽动作。***通过预先训练的触发动作识别模型来获取第一动作识别特征,并将其作为干扰动作特征向量。然后,根据过往含干扰动作视频确定的相应过往干扰动作特征向量,获得去干扰任务详情,并对干扰动作特征向量进行干扰消除操作,得到首轮循环更新操作对应的待定特征向量。继续上述的姿势识别应用中,在第二轮循环更新操作中,***将第一动作识别特征和当前循环轮次的上轮循环更新操作获得的一个待定特征向量合并为干扰动作特征向量。然后,根据过往含干扰动作视频确定的相应过往干扰动作特征向量,获得去干扰任务详情,并对干扰动作特征向量进行干扰消除操作,得到第二轮循环更新操作对应的待定特征向量。继续上述的姿势识别应用中,在第三轮循环更新操作中,***将第一动作识别特征和当前循环轮次的前两轮循环更新操作获得的两个待定特征向量合并为干扰动作特征向量。然后,根据过往含干扰动作视频确定的相应过往干扰动作特征向量,获得去干扰任务详情,并对干扰动作特征向量进行干扰消除操作,得到第三轮循环更新操作对应的待定特征向量。如此设计,可以在每轮循环更新操作中不断积累和更新待定特征向量,以最大程度地减少干扰动作的影响。这对于姿势识别等领域来说,可以提高识别的准确性,并改善用户体验。
在一种较为详细的实施方式中,示例性的,在一个虚拟现实健身应用中,用户正在进行侧平板支撑的训练动作。***通过摄像头获取用户的动作视频,并使用第一动作识别特征来提取干扰动作特征向量。然后,根据过往含干扰动作视频确定的相应过往干扰动作特征向量,***得到去干扰任务详情。接下来,通过对干扰动作特征向量进行干扰消除操作,***获得首轮循环更新操作对应的待定特征向量。在第一轮循环更新操作结束后,进入第二轮循环更新操作。***将第一动作识别特征和上轮循环更新操作获得的一个待定特征向量合并为干扰动作特征向量。然后,使用过往含干扰动作视频确定的相应过往干扰动作特征向量来获得去干扰任务详情。继而,通过在第二轮循环更新操作结束后,进入第三轮循环更新操作。***将第一动作识别特征和前两轮循环更新操作获得的两个待定特征向量合并为干扰动作特征向量。然后,使用过往含干扰动作视频确定的相应过往干扰动作特征向量来获得去干扰任务详情。接着,通过对干扰动作特征向量进行干扰消除操作,***获得第三轮循环更新操作对应的待定特征向量。对干扰动作特征向量进行干扰消除操作,***获得第二轮循环更新操作对应的待定特征向量。如此设计,通过这样的循环更新操作,每一轮都会根据上一轮的结果来调整干扰动作特征向量,并通过去干扰任务详情和干扰消除操作来提取出更准确的待定特征向量。这种方法可以逐步降低干扰动作的影响,并提高动作识别的准确性。在虚拟现实健身等领域中,这种方法可以为用户提供更精确的动作指导和反馈。
在本发明实施例中,前述干扰动作特征向量的合并方式,至少通过下述一种方式实现。
(1)根据预置排列顺序,对已确定的各待定特征向量以及第一动作识别特征执行整合操作,获得干扰动作特征向量;
(2)根据已确定的各待定特征向量各自关联的合并调整因子,以及第一动作识别特征关联的合并调整因子,对各待定特征向量和第一动作识别特征进行加权合并处理,获得干扰动作特征向量;其中,每个合并调整因子表征对应的待定特征向量或第一动作识别特征,对干扰动作特征向量的贡献程度。
在一种较为详细的实施方式中,示例性的,在一个运动监测应用中,用户通过摄像头进行深蹲动作的训练。***根据摄像头获取到的用户动作视频,使用第一动作识别特征来提取干扰动作特征向量。根据预置排列顺序,***执行整合操作,将第一动作识别特征和已确定的待定特征向量按照顺序进行合并。例如,按照先后顺序,将第一动作识别特征与首轮循环更新操作对应的待定特征向量进行合并。这样,***获得一个干扰动作特征向量,其中包含了第一动作识别特征和首轮循环更新操作对应的待定特征的信息。此外,***还可以通过关联的合并调整因子,对各个待定特征向量和第一动作识别特征进行加权合并处理,获得另一个干扰动作特征向量。每个合并调整因子表征了对应的待定特征向量或第一动作识别特征对干扰动作特征向量的贡献程度。例如,在第二轮循环更新操作中,***根据关联的合并调整因子,对第一动作识别特征和上轮循环更新操作对应的待定特征向量进行加权合并处理。这样得到的干扰动作特征向量反映了每个特征向量在干扰消除中的贡献程度,并综合了多个特征向量的信息。通过以上方式,***可以根据预置排列顺序或者使用关联的合并调整因子,对已确定的各待定特征向量以及第一动作识别特征进行合并处理,从而获得干扰动作特征向量。这种方式能够在干扰消除过程中考虑不同特征向量的重要性和贡献程度,提高去干扰的准确性和效果。在运动监测应用中,这种方法可以提供更精确和可靠的动作识别结果,帮助用户进行正确的姿势训练和优化动作技巧。
在一种较为详细的实施方式中,示例性的,在一个体态评估应用中,用户正在进行下蹲动作的训练。***通过摄像头获取用户的动作视频,并使用第一动作识别特征来提取干扰动作特征向量。接着,根据预先设定的排列顺序,***按照特定的顺序将第一动作识别特征和已确定的待定特征向量进行合并。
例如,假设排列顺序为首先合并第一动作识别特征,然后再合并首轮循环更新操作得到的待定特征向量。***会将这些特征按照顺序依次合并起来,形成一个干扰动作特征向量。
在运动辅助应用中,用户正在进行深蹲动作的训练。***通过摄像头获取用户的动作视频,并提取第一动作识别特征作为干扰动作特征向量的一部分。然后,***根据每个待定特征向量关联的合并调整因子以及第一动作识别特征关联的合并调整因子对特征向量进行加权合并处理。
例如,假设***已经确定的待定特征向量与其对应的合并调整因子分别为特征A和权重a、特征B和权重b。另外,第一动作识别特征的合并调整因子为权重c。***会将特征A、特征B和第一动作识别特征按照各自的权重进行加权合并,得到一个干扰动作特征向量。
通过以上两种方式的实现,***可以根据预置排列顺序或使用关联的合并调整因子来合并待定特征向量和第一动作识别特征,从而获得干扰动作特征向量。这样的合并操作能够考虑不同特征向量的重要性和贡献程度,进而提高去干扰的准确性和效果。在体态评估和运动辅助等应用中,这种方法可以提供更精确和可靠的特征向量合并结果,从而实现更准确的动作识别和姿势评估。
在本发明实施例中,前述针对需求特征向量进行结构化信息提取确定的去干扰参量,对第一动作识别特征进行干扰消除操作,获得第二动作识别特征的步骤,可以通过以下方式实施。
(1)对需求特征向量进行特征空间映射,获得特征空间与第一动作识别特征适配的过程特征向量;
(2)对过程特征向量执行标准化操作,并将标准化操作的输出作为去干扰参量;
(3)根据去干扰参量,对第一动作识别特征执行标量乘法操作,获得第二动作识别特征。
在本发明实施例中,示例性的,在一个运动分析应用中,用户使用摄像头进行俯卧撑动作的训练。***根据摄像头获取到的用户动作视频,使用第一动作识别特征来进行干扰消除操作,以获得第二动作识别特征。***需要从用户的俯卧撑动作视频中提取出与干扰相关的结构化信息。例如,检测用户背部的曲线度量值、手臂的角度等。这些结构化信息可以被视为需求特征向量,用于提取去除干扰所需的参量。***将需求特征向量通过特定的映射算法转换到一个特征空间中。例如,将检测到的背部曲线度量值和手臂角度映射到一个统一的特征空间。这样,***就得到了一个过程特征向量,其中包含了与第一动作识别特征适配的信息。***对过程特征向量进行标准化操作,将其转化为均值为0、方差为1的标准化形式。这样,***获得了一个用于去除干扰的参量,即标准化后的过程特征向量。***使用去干扰参量对第一动作识别特征进行标量乘法操作。例如,将第一动作识别特征与标准化的过程特征向量进行点积运算。这样,***得到了一个经过干扰消除处理的第二动作识别特征。通过以上步骤,***可以根据需求特征向量提取结构化信息,然后通过特征空间映射和标准化操作,获得一个去干扰参量。最后,***使用该参量对第一动作识别特征进行标量乘法操作,得到经过干扰消除处理的第二动作识别特征。这种方式能够提取并利用与干扰相关的信息,以更准确地识别用户的运动动作。在俯卧撑训练应用中,该方法可以帮助***更精确地判断用户完成动作的姿势和质量,提供更准确的反馈和建议。
在本发明实施例中,前述根据第二动作识别特征,进行触发动作的识别,获得含干扰动作视频的目标识别结果的步骤,可以通过以下方式执行实施。
(1)针对第二动作识别特征进行动作识别特征分析,获得第二动作识别特征中存在触发动作的识别置信度;
(2)当识别置信度达到预置触发阈值时,确定含干扰动作视频中存在触发动作。
在本发明实施例中,示例性的,在一个运动监测应用中,***根据经过干扰消除处理的第二动作识别特征进行触发动作的识别,以获得含有干扰动作视频的目标识别结果。这个过程包括以下步骤:假设用户正在进行深蹲动作的训练。***使用经过干扰消除处理的第二动作识别特征来进行动作识别特征分析。***会分析该特征中是否存在与触发动作相关的模式、姿势或其他特征,并计算出一个识别置信度。***预先设定了触发动作的识别阈值。当动作识别特征分析得到的识别置信度高于该阈值时,***会判断含有干扰动作视频中存在触发动作。例如,当分析出用户的深蹲动作姿势达到一定标准或符合特定模式时,***会确定该视频中存在触发动作。通过以上步骤,***利用经过干扰消除处理的第二动作识别特征进行触发动作的识别。***分析该特征中的动作模式、姿势等信息,并根据预置触发阈值判断是否存在触发动作。这种方式能够根据经过去干扰处理后的特征进行准确的动作识别,并判断视频中是否存在用户想要触发的动作。在运动监测应用中,这个方法可以帮助***及时识别用户完成的目标动作,提供准确的反馈和结果分析。
在本发明实施例中,前述触发动作识别模型是通过以下方式得到的。
(1)获取训练实例数组,训练实例数组中的每个训练实例包括针对一个样本含干扰动作视频提取的第一样本动作识别特征和对应的目标值,目标值至少包括样本触发动作标记,样本触发动作标记表征触发动作是否真实存在于相应样本含干扰动作视频中;
(2)从训练实例数组中选取训练实例,并将对应的第一样本动作识别特征输入触发动作识别模型中,获得针对触发动作识别的观测触发动作标记;
(3)至少根据观测触发动作标记与相应实际触发动作标记之间的误差,对触发动作识别模型中的模型系数进行优化。
在本发明实施例中,示例性的,假设***需要训练一个触发动作识别模型,例如识别用户进行深蹲动作时的下蹲动作。***会收集一系列样本含有干扰动作的视频,并从中提取第一样本动作识别特征,比如姿势、运动轨迹等。对于每个训练实例,***还会标注一个目标值,表示该样本中是否包含触发动作标记。***从训练实例数组中选择一个训练实例,将其中的第一样本动作识别特征输入到触发动作识别模型中进行预测。例如,将提取的深蹲动作姿势特征输入到模型中,以判断该样本是否包含下蹲动作。***比较观测触发动作标记与实际触发动作标记之间的误差。如果预测结果与实际结果不符合,***会对触发动作识别模型中的模型系数进行调整和优化。通过不断迭代和更新模型系数,***可以逐渐提高触发动作识别模型的准确性和性能。通过以上步骤,***可以通过获取训练实例数组,并使用观测触发动作标记与实际触发动作标记之间的误差来优化触发动作识别模型。这种方式能够通过训练样本数据和模型优化来提高触发动作识别的准确性和鲁棒性。在动作识别***中,这个方法可以帮助***更好地识别用户的特定触发动作,并提供准确的反馈和结果分析。
在本发明实施例中,前述模型系数包括用于干扰消除操作的消除因子和用于预期几率检测的检测参量;前述针对触发动作识别的观测触发动作标记,通过以下方式获取。
(1)根据消除因子,对第一样本动作识别特征进行干扰消除操作,获得对应的第二样本动作识别特征;
(2)根据检测参量,针对第二样本动作识别特征进行动作识别特征分析,获得存在触发动作的预期几率评估值,并根据预期几率评估值与预置触发动作阈值之间的校验反馈,获得观测触发动作标记。
在本发明实施例中,示例性的,假设***需要识别用户进行深蹲动作时的下蹲动作,并消除来自其他动作的干扰。***会使用模型系数,包括用于干扰消除的消除因子和用于预期几率检测的检测参量。这些系数可以帮助***针对特定动作的干扰进行消除,并评估触发动作的预期几率。***根据先前提取的第一样本动作识别特征,使用消除因子对其中的干扰进行消除操作。例如,***会通过消除来自其他非下蹲动作的特征信号,仅保留与下蹲动作相关的特征信息,生成第二样本动作识别特征。***使用检测参量对经过干扰消除处理后的第二样本动作识别特征进行分析。通过分析特征中的模式、姿势等信息,***可以评估出存在触发动作的预期几率评估值。然后,***将预期几率评估值与预置的触发动作阈值进行比较。如果预期几率高于阈值,则***会给出相应的观测触发动作标记。通过以上步骤,***利用模型系数中的消除因子对第一样本动作识别特征进行干扰消除操作,并使用检测参量对经过干扰消除处理后的第二样本动作识别特征进行分析和预期几率评估。通过校验反馈和触发动作阈值,***可以判断观测触发动作标记是否存在。这种方式实现了对干扰的消除和对触发动作的预期几率检测,从而提高了动作识别***的准确性和鲁棒性。在该***中,此方法可用于识别特定触发动作并提供准确的反馈和结果分析。
在一种较为详细的实施方式中,假设有一个基于摄像头的动作识别***,旨在识别用户进行俯卧撑动作的次数。***通过以下方式进行动作识别:模型系数包括消除因子和检测参量:消除因子:用于干扰消除操作,以削弱来自其他动作或噪声的影响。检测参量:用于预期几率检测,以评估触发动作的出现概率。针对触发动作识别的观测触发动作标记获取过程如下:干扰消除操作:***利用消除因子对第一样本动作识别特征进行干扰消除操作,以去除与俯卧撑无关的特征信号。例如,***可以滤除背景噪声、其他动作的运动轨迹等,只保留与俯卧撑动作相关的特征信息。这样处理后的第二样本动作识别特征更能突出用户进行俯卧撑的动作特征。动作识别特征分析:基于干扰消除后的第二样本动作识别特征,***使用检测参量进行动作识别特征分析。通过分析特征中的运动模式、身体姿势等信息,***评估存在触发动作(即俯卧撑)的预期几率评估值。例如,***可以检查手臂的弯曲和伸直、胸部接近地面等特征来判断是否发生了一次完整的俯卧撑动作。预期几率评估与阈值校验:通过将预期几率评估值与预置的触发动作阈值进行比较,***可以确定观测触发动作标记的存在或缺失。如果预期几率评估值高于设定的阈值,***将给出相应的观测触发动作标记,表明用户已经完成了一次俯卧撑动作。综上,该技术方案利用消除因子进行干扰消除操作,以及使用检测参量进行预期几率检测,能够提高动作识别***在复杂环境下的准确性和鲁棒性。在的场景中,通过应用这种方法,***可以更可靠地识别和计数用户进行俯卧撑的动作次数,并提供精确的反馈和分析结果。
在本发明实施例中,前述目标值还包括针对相应样本含干扰动作视频提取的标准动作识别特征,前述标准动作识别特征为不存在干扰的频谱特征向量,前述模型系数包括用于干扰消除操作的消除因子、用于预期几率检测的检测参量;前述至少根据观测触发动作标记与相应实际触发动作标记之间的误差,对触发动作识别模型中的模型系数进行优化的步骤,可以通过以下方式实施。
(1)根据第二样本动作识别特征与相应标准动作识别特征之间的第一误差,优化消除因子;
(2)获得观测触发动作标记与相应实际触发动作标记之间的第二误差,并根据第一误差和第二误差之间的相关系数,获得关联误差;
(3)根据关联误差,分别优化消除因子与检测参量。
在本发明实施例中,示例性的,标准动作识别特征:用于训练模型的无干扰频谱特征向量,即不包含任何干扰的动作特征。模型系数:包括用于干扰消除操作的消除因子和用于预期几率检测的检测参量。优化消除因子:根据第二样本动作识别特征与相应标准动作识别特征之间的第一误差,对消除因子进行优化。这意味着***会分析第二样本动作识别特征与标准动作识别特征之间的差异,以改进消除因子的效果。计算关联误差:***计算观测触发动作标记与相应实际触发动作标记之间的第二误差,并根据第一误差和第二误差之间的相关系数,得到关联误差。相关系数反映了第一误差与第二误差之间的相关性,用于权衡两者对模型系数优化的贡献。优化消除因子与检测参量:基于关联误差,分别优化消除因子和检测参量。***会调整这些模型系数的值,使得观测触发动作标记与实际触发动作标记之间的误差最小化。通过以上步骤,***利用标准动作识别特征、消除因子和检测参量来进行动作识别,并通过优化模型系数来提高准确性。在的场景中,该方法可用于识别俯卧撑动作并减少由于干扰或其他因素导致的识别误差。通过不断优化模型系数,***可以不断改进动作识别的准确性和性能。
下面提供一种较为详细的实施方式,假设有一个虚拟现实(VR)游戏场景,玩家需要使用VR设备(如头戴式显示器和手持控制器)进行游戏。将以“击剑”为触发动作来进行说明。当玩家进入设备指定的动作采集区域,例如站在VR游戏的特定位置上时,***会通过预先训练的触发动作识别模型开始识别玩家是否做出了击剑的动作。如果玩家挥动了手中的控制器模仿剑击动作,***就能通过该模型检测到此动作。一旦确认玩家做出了击剑动作,***会获取玩家动作的相关数据,并基于这些数据确定动作的执行结果。例如,***可能会根据玩家的手势速度、力度和方向来判断剑击的效果,如攻击力度、命中目标等。确定动作执行结果后,***会在VR设备指定的虚拟现实交互区域内展示结果。例如,如果玩家成功命中了目标,VR设备就会显示出相应的视觉和听觉效果,如目标被击中并发出声响。预先训练的模型首先需要对用户的动作进行识别。这涉及到获取频谱特征向量,它是通过将用户的动作数据经过傅里叶变换或者小波变换得到的。这些转换可以提取出动作数据中的时间和频率信息,以便更好地分析和识别用户的动作。
然后,为了确保结果的准确性,需要进行干扰消除操作。在虚拟现实环境中,可能存在各种形式的干扰,如环境噪声、设备误差等。可以采用信号处理技术(如滤波器)或者机器学习算法(如神经网络)来去除这些干扰,提高动作识别的准确度。
接着,模型会根据提取出的特征进行动作识别。例如,击剑动作可能具有一定的节奏和速度特征,模型就会根据这些特征判断用户是否做出了击剑动作。此外,还可以通过深度学习等方法进行模式匹配,使模型能够准确地识别和解释复杂的动作序列。
在动作被识别并确定执行结果后,***会在虚拟现实交互区域展示动作效果。比如,在击剑游戏中,如果用户的动作被识别为有效的击剑攻击,则虚拟角色将会执行相应的攻击动画,并根据攻击效果对敌人造成伤害。
总的来说,通过这种方法,可以实现在虚拟现实环境中对用户的动作进行准确识别和反馈,从而提高虚拟现实交互的自然性和沉浸感。
为了准确识别“挥剑”这个动作,首先需要通过预训练的触发动作识别模型获取含有可能干扰的动作视频的频谱特征向量。例如,玩家可能会在进行“挥剑”动作时做出一些无关的手势,如调整眼镜或摆动身体等。这些动作可能被误认为是“挥剑”动作的一部分,因此需要通过提取频谱特征向量来识别并排除这些干扰。
提取频谱特征向量的过程包括对含有干扰动作的视频进行小波变换,获得视频的频率分布,然后针对频率分布进行过滤操作,得到频谱特征向量。小波变换是一种常用的信号处理技术,可以将时间序列数据转化为频率分布数据,从而更容易地识别出重要的模式或者特征。
得到频谱特征向量后,就可以进行循环更新操作了。这个过程中,会根据当前和过去的干扰动作特征向量确定当前的待定特征向量,并进行干扰消除操作。例如,在第一轮循环更新中,将基于当前的频谱特征向量(也就是第一动作识别特征)确定干扰动作特征向量,并根据过去的干扰动作视频确定的特征向量来获取当前轮次对应的去干扰任务详情。然后根据这些任务详情对干扰动作特征向量进行干扰消除操作,得到第一轮的待定特征向量。接下来的内容是关于如何通过预先训练的触发动作识别模型对用户的动作进行更精细的识别。在这个过程中,会通过多轮循环更新操作对干扰动作特征向量进行处理,并最终获取到用于动作识别的需求特征向量。首先,通过对含干扰动作视频进行小波变换,可以获取该视频的频率分布。例如,当玩家进行击剑动作时,这个动作的频率分布可能具有特定的模式或者规律,这些都可以被模型捕获并用于动作识别。在首轮循环更新操作中,模型将使用上一步得到的频谱特征向量作为第一动作识别特征,也就是初始的干扰动作特征向量。然后,根据这个特征向量和过去的数据,模型会生成一个去干扰任务详情,然后根据这个任务详情对干扰动作特征向量进行干扰消除操作,得到首轮循环更新后的待定特征向量。在第二轮和之后的循环更新操作中,模型会将前一轮的待定特征向量与第一动作识别特征合并,然后再进行同样的干扰消除操作。这个过程会一直持续下去,直到所有的循环更新操作完成。最后,模型将末轮循环更新确定的待定特征向量作为需求特征向量。这个特征向量将被用于最终的动作识别过程。在这个过程中,每轮循环更新都会对原始的动作识别特征进行改进和优化,使其更加准确地反映出用户的实际动作。此外,通过多轮的更新操作,模型也可以逐渐消除各种干扰因素,从而提高动作识别的准确度。在后续的循环更新操作中,***会将第一动作识别特征与前几轮循环更新操作获得的待定特征向量合并为干扰动作特征向量。这个合并过程可以通过预设的排列顺序进行整合操作,也可以根据每个特征向量对应的贡献度进行加权合并。然后再次进行干扰消除操作,获得当前轮次的待定特征向量。完成所有循环更新操作后,最后一轮确定的待定特征向量被作为需求特征向量。然后根据对需求特征向量进行结构化信息提取确定的去干扰参数,对第一动作识别特征进行干扰消除操作,从而获得第二动作识别特征。根据第二动作识别特征,模型可以进行触发动作的识别,得到包含干扰动作视频的目标识别结果。例如,***可以分析特征向量,计算出“挥剑”动作的识别置信度。如果这个置信度达到了预设的阈值,那么就可以确定用户确实做出了“挥剑”动作。接下来的部分是关于如何利用提取的需求特征向量进行动作识别。根据需求特征向量,首先对其进行特征空间映射,获得与第一动作识别特征适配的过程特征向量。这是一个转换步骤,将原始特征向量映射到一个新的特征空间中,使得在新的特征空间下,能更好地区分出各种不同的动作。然后对这个过程特征向量进行标准化操作,并将标准化操作的输出作为去干扰参数。标准化是常见的数据预处理操作,它可以消除数据的量纲影响,使得不同的特征具有可比性。同时,标准化也可以使数据满足一些算法的假设,例如某些机器学习算法需要输入数据是零均值和单位方差。有了去干扰参数,就可以对第一动作识别特征进行干扰消除操作,得到第二动作识别特征。通过这样的处理,能进一步提高动作识别的准确度。最后,根据第二动作识别特征进行触发动作的识别。具体来说,模型会对第二动作识别特征进行分析,得到其中存在触发动作的识别置信度。如果这个置信度达到预设的阈值,那么就认为用户确实进行了该触发动作。以上是利用需求特征向量进行动作识别的整个过程。总的来说,这个过程涉及到特征提取、特征转换、标准化、去干扰以及动作识别等多个步骤,每个步骤都在为最后的动作识别结果做出贡献。为了得到触发动作识别模型,首先需要收集一系列训练实例。这些实例包括了各种样本视频及其对应的目标值,其中样本视频中包含了用户的动作,目标值则表示该动作是否存在于视频中。例如,可以收集一系列玩家在进行“挥剑”动作时的视频片段,然后根据每个片段中动作的执行情况给出相应的目标值。然后,模型会从这些训练实例中选取部分数据,将对应的动作识别特征输入到模型中,得到预测的动作标签。与此同时,模型还会根据预测标签与实际标签之间的误差来优化模型参数。例如,如果模型预测某个视频片段中存在“挥剑”动作,但实际上用户并没有进行该动作,那么就需要调整模型参数以减小这种误差。除此之外,模型还包括用于干扰消除操作的消除因子和用于预期几率检测的检测参数。这两部分参数都是通过对训练数据进行学习而得到的。消除因子可以帮助模型减小各种干扰对动作识别的影响,而检测参数则可以用于评估动作的预期几率。最后,根据消除因子,模型会对动作识别特征进行干扰消除操作,得到第二动作识别特征。然后根据检测参数,对这个特征进行分析,得到存在触发动作的预期几率评估值。如果这个评估值超过了预设阈值,那么就认为视频中存在触发动作。在这个过程中,通过不断地优化模型参数和调整动作识别策略,可以使模型更加准确地识别出用户的动作,从而提高虚拟现实***的交互性能。接下来,讨论如何通过训练来获取触发动作识别模型。这是一个非常重要的步骤,因为模型的质量将直接影响到最后动作识别的效果。首先,需要获取训练实例数组。每个训练实例包括了针对一个样本含干扰动作视频提取的第一样本动作识别特征和对应的目标值。例如,可以从真实用户在游戏中的操作中收集数据,然后根据用户的操作生成对应的训练实例。这些实例可以包括各种不同的动作,以及对应的目标值,如击剑、躲避等。接着,会从训练实例数组中选取实例,并将对应的第一样本动作识别特征输入到触发动作识别模型中。模型会输出对应的观测触发动作标记。例如,如果用户做出了击剑动作,那么模型应该能正确地输出对应的标记。然后,会计算观测触发动作标记与实际触发动作标记之间的误差,并根据这个误差优化模型的参数。这是一个典型的监督学习过程,通过不断地训练和优化,模型的性能可以逐渐提高。最后,得到了经过训练的触发动作识别模型。这个模型可以用于识别新的用户动作,并判断出用户是否进行了触发动作。
在本发明实施例中,前述步骤S202可以通过以下方式执行实施。
(1)获取当前用户动作对应的动作数据;
(2)将当前用户动作对应的动作数据输入目标指令内容动作指令判定模型,得到当前用户动作对应的预测指令内容类别;目标指令内容动作指令判定模型是根据有监督动作数据和无监督动作数据组,对基础动作指令判定模型完成训练后获取的,有监督动作数据是预先配置指令内容的用户动作对应的动作数据,无监督动作数据组中的动作数据是未配置指令内容的用户动作对应的动作数据,无监督动作数据组中的每一个动作数据是同类动作数据;
在当前用户动作对应的预测指令内容类别指示当前用户动作表征目标指令内容时,将当前用户动作对应的动作数据和业务场景数据库进行配对,得到当前用户动作关联的当前业务场景;
根据当前业务场景,确定当前用户动作对应的动作执行结果。
在本发明实施例中,示例性的,用户通过交互设备进行一系列动作,例如跳跃、旋转等。交互设备会获取用户动作的相关数据,例如加速度、角度等。例如,在一个体感舞蹈游戏中,用户可以进行各种舞步。交互设备获取到用户的舞蹈动作数据,并将其传递给动作指令判定模型。该模型经过训练后能够预测当前用户的舞蹈指令内容类别,如“跳舞”、“旋转”等。例如,在一个体育训练应用中,用户可能进行投篮动作。动作指令判定模型预测出用户的动作是“投篮”。交互设备将当前用户动作数据与业务场景数据库进行匹配,找到与“投篮”相关的业务场景,如篮球场地、投篮训练器材等。例如,在体感游戏中,用户可能需要在虚拟现实环境中击败怪物。当动作指令判定模型预测出用户的动作是“攻击”,并且当前业务场景是怪物战斗场景时,交互设备会根据用户的动作数据和业务规则判断用户的攻击是否成功,并相应地更新虚拟现实环境中的怪物状态。通过以上步骤,可以根据用户的动作数据,利用动作指令判定模型和业务场景数据库,对用户的动作进行分类和关联,并根据业务场景确定动作的执行结果。这样可以提供更加智能和逼真的虚拟现实训练体验。
在一种详细的实施方式中,假设用户正在参与一款体感舞蹈游戏。他们配戴了传感器设备,这些设备能够获取用户的动作数据,如加速度、角度和位置信息。当用户开始跳舞时,传感器设备会收集并记录相应的动作数据。在上述舞蹈游戏中,已经有一个事先训练好的动作指令判定模型。该模型使用有监督动作数据和无监督动作数据组进行训练。有监督动作数据是舞蹈教师事先配置的动作指令内容和相应的动作数据,而无监督动作数据则是用户未配置指令内容的舞蹈动作数据。当用户跳舞时,交互设备会将其动作数据输入到动作指令判定模型中。该模型会根据已有的训练数据,预测当前用户动作对应的指令内容类别,例如“左转”、“右转”或“向前跳”。在虚拟现实舞蹈游戏中,有一个业务场景数据库,其中存储了与不同指令内容类别相关的场景信息。当动作指令判定模型预测出当前用户动作对应的指令内容类别后,交互设备会将该指令内容与业务场景数据库进行匹配。例如,如果预测结果为“向前跳”,交互设备会根据业务场景数据库找到与“向前跳”相关的场景,如舞台上的某个特定位置或特效展示。一旦确定了当前用户动作所关联的业务场景,交互设备可以根据该场景的规则和条件来确定动作的执行结果。继续以舞蹈游戏为例,假设用户完成了一个跳跃动作并被识别为“向前跳”。交互设备会根据舞蹈游戏的规则和条件判断用户的跳跃高度、姿势是否正确,并给予相应的反馈,如奖励分数或显示跳舞评级。通过以上步骤,基于交互设备的虚拟现实动作识别方法能够准确捕捉用户的动作并预测其指令内容类别,进而关联到相应的业务场景,并根据场景规则确定动作的执行结果。这样能够提供更加精准和个性化的虚拟现实体验。
在本发明实施例中,方法还包括:
(1)获取多个待监督动作数据,提取每一个待监督动作数据分别对应的动作特征向量;
(2)从每一个待监督动作数据中确定待处理动作数据;
(3)根据待处理动作数据对应的动作特征向量从第一动作数据集合中匹配待处理动作数据对应的目标同类动作数据,得到匹配输出;
(4)当匹配输出为匹配到待处理动作数据对应的目标同类动作数据时,将待处理动作数据添加至第一动作数据集合,当匹配输出为未匹配到待处理动作数据对应的目标同类动作数据时,将待处理动作数据分别添加至第一动作数据集合和第二动作数据集合;
(5)从每一个待监督动作数据中获取下一待监督动作数据作为待处理动作数据,重复执行根据待处理动作数据对应的动作特征向量从第一动作数据集合中匹配待处理动作数据对应的目标同类动作数据,得到匹配输出的步骤,直到每一个待监督动作数据全都匹配完成;
(6)对最终确定的第二动作数据集合中的每一个待监督动作数据对应的用户动作进行指令内容配置,得到多个有监督动作数据。
在本发明实施例中,示例性的,在这个场景中,用户通过交互设备进行一系列动作,如跳跃、旋转等。***会收集多个待监督动作数据,并从每个待监督动作数据中提取相应的动作特征向量。该特征向量可以包括动作的加速度、角度、时间等信息。***根据待监督动作数据提取的动作特征向量,确定待处理动作数据。然后,从第一动作数据集合中匹配待处理动作数据对应的目标同类动作数据,得到匹配输出。例如,某玩家进行了一个旋转动作,该动作数据被确定为待处理动作数据。***会从第一动作数据集合中找到与待处理动作数据匹配的目标同类旋转动作数据。如果匹配输出为匹配到待处理动作数据对应的目标同类动作数据,则将待处理动作数据添加至第一动作数据集合。如果匹配输出为未匹配到待处理动作数据对应的目标同类动作数据,则将待处理动作数据分别添加至第一动作数据集合和第二动作数据集合。继续以体感游戏为例,当某玩家进行旋转动作并匹配到了目标同类旋转动作数据时,***会将该旋转动作数据添加至第一动作数据集合。但如果匹配不到目标同类旋转动作数据,***会将待处理的旋转动作数据同时添加至第一动作数据集合和第二动作数据集合。***会从每一个待监督动作数据中获取下一个待监督动作数据,并重复之前的步骤,直到所有的待监督动作数据都被匹配完成。在最终确定的第二动作数据集合中,每个待监督动作数据都与用户的动作相关联。***会对这些待监督动作数据进行指令内容的配置,即给每个动作打上相应的标签或类别,用于训练模型。通过以上步骤,***可以利用待监督动作数据和动作特征向量进行匹配和分类,将待处理动作数据添加到适当的动作数据集合中,并最终生成多个有监督动作数据用于指令内容配置和训练模型。这样可以提高体感游戏对用户动作的识别准确性和训练效果。
在本发明实施例中,前述根据待处理动作数据对应的动作特征向量从第一动作数据集合中匹配待处理动作数据对应的目标同类动作数据,得到匹配输出的步骤,可以通过以下示例执行实施。
(1)根据待处理动作数据对应的动作特征向量分别和第一动作数据集合中每一个动作数据各自的动作特征向量之间的向量距离,从第一动作数据集合包含的每一个动作数据中确定待处理动作数据对应的初始同类动作数据;
(2)在待处理动作数据和对应的初始同类动作数据之间的关联业务特征集相似度度量不低于预置度量阈值时,将待处理动作数据对应的初始同类动作数据作为待处理动作数据对应的目标同类动作数据,得到匹配输出;
(3)在待处理动作数据和对应的初始同类动作数据之间的关联业务特征集相似度度量低于预置度量阈值,或者待处理动作数据不存在对应的初始同类动作数据时,确定匹配输出为未匹配到待处理动作数据对应的目标同类动作数据。
在本发明实施例中,示例性的,某玩家进行了一个跳跃动作,***会计算该跳跃动作数据对应的动作特征向量分别与第一动作数据集合中每个动作数据的动作特征向量之间的向量距离。例如,在运动训练应用中,当跳跃动作的动作特征向量与第一动作数据集合中的某个动作数据的动作特征向量具有较小的向量距离时,***会将该动作数据确定为待处理动作数据对应的初始同类动作数据。例如,在运动训练应用中,如果跳跃动作的关联业务特征集与对应的初始同类动作数据的关联业务特征集相似度不低于预置度量阈值,那么***会将初始同类动作数据确定为待处理动作数据对应的目标同类动作数据。例如,在运动训练应用中,如果跳跃动作的关联业务特征集与对应的初始同类动作数据的关联业务特征集相似度低于预置度量阈值,或者在第一动作数据集合中没有与跳跃动作相似的初始同类动作数据,***会将匹配输出确定为未匹配到目标同类动作数据。通过以上步骤,技术方案根据待处理动作数据和对应的动作特征向量,计算向量距离并进行相似度度量,以确定目标同类动作数据,并生成匹配输出。这样可以提高运动训练应用中对用户动作的精确匹配和指导效果。
在本发明实施例中,方法还包括:
获取有监督动作数据集合和无监督动作数据集合;
根据有监督动作数据集合对待定动作指令判定模型进行训练,得到过渡动作指令判定模型;
将无监督动作数据集合中每一个无监督动作数据输入过渡动作指令判定模型,得到每一个无监督动作数据分别对应的预测指令内容类别;无监督动作数据组应的预测指令内容类别用于作为无监督动作数据组应的生成类别;
根据生成类别对每一个无监督动作数据进行筛选,得到目标无监督动作数据集合;
对目标无监督动作数据集合中的每一个目标无监督动作数据分别进行同类转换,得到每一个目标无监督动作数据分别对应的同类动作数据;
将目标无监督动作数据和对应的同类动作数据组成无监督动作数据组,得到多个无监督动作数据组。
在本发明实施例中,示例性的,***会获取两个不同的数据集合,一个是已经标注了指令内容的有监督动作数据集合,另一个是未标注指令内容的无监督动作数据集合。***会利用有监督动作数据集合对待定动作指令判定模型进行训练,以得到一个能够分类指令内容的过渡动作指令判定模型。***会将每个无监督动作数据输入已经训练好的过渡动作指令判定模型,以预测每个无监督动作数据的指令内容类别。这些预测的指令内容类别将被用于作为无监督动作数据组的生成类别。然后,***会根据生成类别对每个无监督动作数据进行筛选,从而得到目标无监督动作数据集合。这些目标无监督动作数据是从无监督动作数据中筛选出的具有特定指令内容类别的数据。***会对每个目标无监督动作数据进行同类转换。换句话说,***会生成与每个目标无监督动作数据在动作特征空间上相似的同类动作数据。将目标无监督动作数据和对应的同类动作数据组成无监督动作数据组。每个无监督动作数据组由目标无监督动作数据和其对应的同类动作数据组成。通过以上步骤,技术方案利用有监督动作数据训练模型,然后使用该模型对无监督动作数据进行预测和筛选,最终生成多个无监督动作数据组。这样可以实现运动自动生成应用中对无监督动作数据的分类和生成,为用户提供更多丰富的动作选择。
在一种详细的实施方式中,有监督动作数据集合包括了已经被标注了指令内容的动作数据,例如一个包含不同动作的数据集,其每个动作都有对应的指令内容。而无监督动作数据集合则是未被标注指令内容的动作数据集。***会使用有监督动作数据集合来训练一个过渡动作指令判定模型。这个模型可以通过学习有监督动作数据集合中的动作与指令内容之间的关系来预测未标注指令内容的动作。***会将每个无监督动作数据从无监督动作数据集合中输入到已经训练好的过渡动作指令判定模型中,以预测其对应的指令内容类别。这个指令内容类别可以表示为一个数值或是一个标签,用于描述该无监督动作数据的指令内容。然后,***会根据生成类别对无监督动作数据进行筛选。具体来说,***会根据指令内容类别进行分组,将相同指令内容类别的无监督动作数据放在一起。对于每个目标无监督动作数据,***会进行同类转换。这意味着***会生成与每个目标无监督动作数据在动作特征空间上相似的同类动作数据。例如,如果目标无监督动作数据是一个跑步动作,***会生成其他跑步动作的变体。将目标无监督动作数据和对应的同类动作数据组成无监督动作数据组。每个无监督动作数据组包含了一个目标无监督动作数据以及它的同类动作数据,这样可以提供更多样化的选择给用户。通过以上步骤,技术方案利用有监督动作数据训练过渡动作指令判定模型,并使用该模型对无监督动作数据进行预测和筛选。然后,通过同类转换和组装无监督动作数据组,***可以为用户提供多个无监督动作数据组,以丰富运动自动生成应用中的动作选择。
在本发明实施例中,前述根据生成类别对每一个无监督动作数据进行筛选,得到目标无监督动作数据集合的步骤,可以通过以下方式实施。
(1)统计每一个生成类别中目标类别和非目标类别的数目,得到目标类别数目和非目标类别数目;
(2)从目标类别数目和非目标类别数目中获取更少的类别数目作为需求类别数目,将需求类别数目对应的指令内容类别作为需求类别;
(3)从具有需求类别的每一个无监督动作数据中,获取第一数目的无监督动作数据作为目标无监督动作数据;第一数目低于需求类别数目;
(4)从不具有需求类别的每一个无监督动作数据中,获取第二数目的无监督动作数据作为目标无监督动作数据;
(5)根据每一个目标无监督动作数据得到目标无监督动作数据集合
在本发明实施例中,示例性的,***会根据预测的指令内容类别,统计每个生成类别中的目标类别和非目标类别的数目。例如,某个生成类别可能包含10个目标类别和20个非目标类别。从目标类别数目和非目标类别数目中选择较少的类别数目作为需求类别数目。这个需求类别数目将用于筛选无监督动作数据。同时,所对应的指令内容类别将被视为需求类别。从具有需求类别的每个无监督动作数据中,获取第一数目的无监督动作数据作为目标无监督动作数据。例如,如果需求类别数目是5,***将从每个具有需求类别的无监督动作数据中选择最前面的5个数据作为目标无监督动作数据。需要注意的是,实际可用的第一数目可能低于需求类别数目。同时,***还会从不具有需求类别的每个无监督动作数据中,获取第二数目的无监督动作数据作为目标无监督动作数据。这些不具备需求类别的数据可能会被用作其他用途。通过以上步骤,技术方案利用生成类别和需求类别对无监督动作数据进行筛选和分类,从而形成目标无监督动作数据集合。这样可以实现视频分类应用中对无监督动作数据的分组和选择,使得用户能够更快速地找到他们所需的相关内容。
在本发明实施例中,前述对目标无监督动作数据集合中的每一个目标无监督动作数据分别进行同类转换,得到每一个目标无监督动作数据分别对应的同类动作数据的步骤,可以通过以下示例执行实施。
(1)对目标无监督动作数据集合中的每一个目标无监督动作数据分别进行逆向转换,得到每一个目标无监督动作数据分别对应的逆向转换动作数据,将目标无监督动作数据组应的逆向转换动作数据作为目标无监督动作数据组应的同类动作数据。
在本发明实施例中,示例性的,***会对目标无监督动作数据集合中的每个目标无监督动作数据进行逆向转换。逆向转换是指将原始的动作数据进行反向操作,例如从正常行走转换为后退行走。通过逆向转换,可以生成与目标无监督动作数据在动作特征空间上相似的逆向转换动作数据。将目标无监督动作数据组对应的逆向转换动作数据作为同类动作数据。也就是说,逆向转换动作数据与目标无监督动作数据具有相同的指令内容类别,但动作特征相反。例如,如果目标无监督动作数据是一个跑步动作,其逆向转换动作数据将是一个后退跑动作。这样,***就能够生成与目标无监督动作数据在动作特征空间上相似的同类动作数据。将目标无监督动作数据组对应的逆向转换动作数据与对应的目标无监督动作数据组成同类动作数据组。每个同类动作数据组由目标无监督动作数据和其对应的逆向转换动作数据组成。通过以上步骤,技术方案对目标无监督动作数据进行逆向转换,生成了与之在动作特征空间上相似的同类动作数据。这样可以丰富运动自动生成应用中的动作选择,为用户提供更多样化的运动选项。
在本发明实施例中,方法还包括:
(1)将有监督动作数据、无监督动作数据组中的第一动作数据和第二动作数据分别输入基础动作指令判定模型,得到有监督动作数据、第一动作数据和第二动作数据分别对应的预测指令内容类别;
(2)根据有监督动作数据对应的预测指令内容类别和有监督指令内容类别之间的偏差,得到第一代价,根据无监督动作数据组中的第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到第二代价;
(3)根据第一代价和第二代价,更新基础动作指令判定模型的模型结构参量,直到符合预置代价参量函数,得到目标指令内容动作指令判定模型。
在本发明实施例中,示例性的,假设有一个基于动作指令的虚拟健身教练应用,需要根据用户提供的有监督动作数据和无监督动作数据组来训练并生成目标指令内容动作指令判定模型。***会将有监督动作数据、无监督动作数据组中的第一动作数据和第二动作数据分别输入到基础动作指令判定模型中。基础动作指令判定模型将对有监督动作数据、第一动作数据和第二动作数据分别进行预测,并得到它们对应的预测指令内容类别。这些预测指令内容类别可以表示为数值或标签,用于描述每个数据的指令内容。根据有监督动作数据对应的预测指令内容类别与实际的有监督指令内容类别之间的偏差,计算第一代价。同样地,根据无监督动作数据组中的第一动作数据和第二动作数据对应的预测指令内容类别之间的偏差,计算第二代价。根据第一代价和第二代价,***会更新基础动作指令判定模型的模型结构参量(例如权重和偏差)。以上步骤将迭代进行,不断更新模型结构参量,直到满足预先设定的代价参量函数。代价参量函数可以表示为最小化误差或其他衡量模型性能的指标。经过多次迭代更新后,所得到的基础动作指令判定模型将成为目标指令内容动作指令判定模型,用于判断未知动作数据的指令内容。通过以上步骤,技术方案利用有监督动作数据和无监督动作数据组来训练和生成目标指令内容动作指令判定模型。这样可以提高虚拟健身教练应用中对用户动作指令内容的准确识别和反馈能力,提供更精准的个性化健身指导。
在一种详细的实施方式中,首先需要准备有监督动作数据和无监督动作数据组。有监督动作数据是由用户提供并标记了指令内容类别的动作数据。无监督动作数据组包含了没有标记指令内容类别的动作数据。将有监督动作数据、无监督动作数据组中的第一动作数据和第二动作数据分别输入到基础动作指令判定模型中进行预测。基础动作指令判定模型可以是一个分类模型,它根据输入的动作数据来预测对应的指令内容类别。通过比较预测的指令内容类别与实际的有监督指令内容类别之间的偏差,计算第一代价。这个偏差可以使用不同的损失函数或距离度量方式进行计算。利用第一代价和第二代价的计算结果,可以使用梯度下降等优化算法来更新基础动作指令判定模型的模型结构参量,例如权重和偏差。通过迭代更新这些参量,可以逐步调整模型来减小指令内容类别预测的误差。重复执行第2、3和4步,不断迭代更新模型结构参量,直到满足预先设定的代价参量函数。代价参量函数可以是一个评估模型性能的指标,例如交叉熵损失函数或均方误差。经过多次迭代更新后,所得到的基础动作指令判定模型将成为目标指令内容动作指令判定模型。这个模型已经通过有监督和无监督数据进行训练,并且能够根据输入的动作数据来预测对应的指令内容类别。通过以上步骤,技术方案可以有效地训练和生成目标指令内容动作指令判定模型。该模型可以用于智能***、虚拟教练或其他场景中,通过对动作数据进行识别和分类,提供更准确的指令内容理解和个性化反馈。
在一种详细的实施方式中,前述根据有监督动作数据对应的预测指令内容类别和有监督指令内容类别之间的偏差,得到第一代价的步骤,可以通过以下示例执行实施。
(1)在每一个有监督动作数据中,过滤预测指令内容类别的数值大于预置数值阈值的有监督动作数据;
(2)在剩余的每一个有监督动作数据中,根据同一有监督动作数据对应的预测指令内容类别和有监督指令内容类别之间的偏差,得到第一代价。
在本发明实施例中,示例性的,假设的应用是一个基于动作指令的运动训练应用,用户通过提供有监督动作数据来进行个性化的动作指令内容分类。用户提供了一系列有监督动作数据,这些数据已经标记了指令内容类别。同时,还有一组无监督动作数据。首先,将有监督动作数据输入到基础动作指令判定模型中进行预测,并获得每个有监督动作数据对应的预测指令内容类别。接下来,在每个有监督动作数据中,过滤掉预测指令内容类别的数值大于预置数值阈值的数据。这意味着只保留那些预测准确度较高的数据,去除预测结果不够可信的数据。对剩余的每个有监督动作数据,根据其对应的预测指令内容类别与实际的有监督指令内容类别之间的偏差进行计算。这个偏差可以使用不同的损失函数或距离度量方式进行计算,例如交叉熵损失函数或均方差等。通过以上步骤,得到了每个有监督动作数据的预测指令内容类别,并且过滤掉了那些预测结果不够可信的数据。同时,根据保留的数据计算了第一代价,用于评估模型的性能和优化训练过程。
在一种详细的实施方式中,用户通过的应用录制了一系列有监督动作数据,这些数据包含了不同种类的运动动作,并已经被标记了相应的指令内容类别。同时,还有一组无监督动作数据,这些数据没有被标记指令内容类别。首先,将有监督动作数据输入到基础动作指令判定模型中进行预测,并获得每个有监督动作数据对应的预测指令内容类别。接下来,在每个有监督动作数据中,根据预测指令内容类别的数值,设置一个预置数值阈值。只保留那些预测指令内容类别数值大于阈值的数据,即预测结果能够达到一定的可信度。举个例子,如果设置预置数值阈值为0.8,那么对于一个有监督动作数据,如果其预测指令内容类别的数值大于0.8,就保留该数据;否则将其过滤掉。对剩余的每个有监督动作数据,通过比较预测指令内容类别与实际的有监督指令内容类别之间的偏差来计算第一代价。这个偏差可以使用不同的损失函数或距离度量方式进行计算。举个实例,假设某个用户提供了一组有监督动作数据,其中包括深蹲、俯卧撑和引体向上等不同的运动动作。在预测阶段,的模型对每个动作数据分别预测了相应的指令内容类别,并得到了以下结果:深蹲预测指令内容类别:0.9;俯卧撑预测指令内容类别:0.6;引体向上预测指令内容类别:0.85;根据预置数值阈值(比如0.8),发现深蹲和引体向上的预测指令内容类别数值大于阈值,因此保留这两个动作数据。而俯卧撑的预测指令内容类别数值小于阈值,所以将其过滤掉。接下来,在深蹲和引体向上的保留动作数据中,计算这些数据的预测指令内容类别与实际有监督指令内容类别之间的偏差,从而得到第一代价。
通过以上步骤,根据技术方案中的方法计算了第一代价,并且过滤掉了那些预测结果不够可信的数据。这样可以提高模型的准确性和可靠性,并为用户提供更精确的动作指令内容分类和个性化训练建议。
在本发明实施例中,预置数值阈值不低于标准数值,标准数值是根据有监督指令内容类别对应的类别分类数目对预测指令内容类别对应的值域进行划分确定的;预置数值阈值与模型训练纪元存在正向关联关系。
在本发明实施例中,示例性的,用户通过的应用录制了一系列有监督动作数据,这些数据已经标记了指令内容类别。同时,还有一组无监督动作数据。首先,将有监督动作数据输入到基础动作指令判定模型中进行预测,并获得每个有监督动作数据对应的预测指令内容类别。接下来,根据有监督指令内容类别对应的类别分类数目,确定了标准数值。例如,如果有监督指令内容类别分为三类(如深蹲、俯卧撑、引体向上),那么可以将预测指令内容类别的值域划分为三个区间。根据确定的标准数值,设置预置数值阈值,确保其不低于标准数值。这样做可以使得预测指令内容类别与实际指令内容类别更好地匹配。举个例子,如果在前面的场景中使用了三个有监督指令内容类别(深蹲、俯卧撑、引体向上),并将预测指令内容类别的值域划分为三个区间:[0,0.33]、(0.33,0.66]、(0.66,1]。那么可以选择一个合适的数值作为预置数值阈值,例如0.4。这样就确保了模型预测的指令内容类别与实际指令内容类别之间的匹配度。根据技术方案,预置数值阈值与模型训练纪元存在正向关联关系。这意味着随着训练的进行,预置数值阈值会随着训练纪元的增加而增大或变化。举个实例,假设的模型进行了10个训练纪元。在初始阶段,预置数值阈值可以设置为0.4。然后,随着训练纪元的增加,会根据模型的优化情况和性能表现来调整预置数值阈值,逐渐提高其值。这样可以使得模型在训练过程中更加准确地预测指令内容类别。通过以上步骤,根据技术方案中的方法设置了预置数值阈值,并与模型训练纪元建立了正向关联关系。这样可以提高模型的准确性和可靠性,并为用户提供更精确的动作指令内容分类和个性化训练建议。
在本发明实施例中,前述根据无监督动作数据组中的第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到第二代价的步骤,可以通过以下示例执行实施。
(1)在每一个无监督动作数据组中,过滤预测指令内容类别的数值在预定范围内的无监督动作数据组;预定范围是预测指令内容类别对应的值域中的中心段;
(2)在剩余的每一个无监督动作数据组中,根据同一无监督动作数据组中第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到第二代价。
在本发明实施例中,示例性的,用户通过的应用录制了一系列有监督动作数据,这些数据已经标记了指令内容类别。同时,还有一组无监督动作数据。将有监督动作数据输入到基础动作指令判定模型中进行预测,并计算每个有监督动作数据中预测指令内容类别与实际指令内容类别之间的偏差,从而得到第一代价。举个例子,假设用户提供了一组有监督动作数据,其中包括深蹲、俯卧撑和引体向上等不同的运动动作。在预测阶段,的模型对每个动作数据分别预测了相应的指令内容类别,并计算了与实际指令内容类别之间的偏差。根据技术方案中的方法,使用每个无监督动作数据组中第一和第二动作数据对应的预测指令内容类别之间的偏差来计算第二代价。首先,在每一个无监督动作数据组中,根据预测指令内容类别对应的值域,确定一个预定范围,也就是该类别值域中的中心段。然后,将预测指令内容类别在预定范围内的无监督动作数据组进行过滤。举个例子,如果在某个无监督动作数据组中,预测指令内容类别的值域为[0,1],那么预定范围可以是(0.2,0.8)。在这个范围外的无监督动作数据组将被过滤掉。接下来,在剩余的每一个无监督动作数据组中,根据同一无监督动作数据组中第一和第二动作数据对应的预测指令内容类别之间的偏差,计算第二代价。通过以上步骤,根据技术方案中的方法计算了第二代价,并过滤掉了预测结果在预定范围内的无监督动作数据组。这样可以进一步提高模型的准确性和可靠性,并为用户提供更加精确的动作指令内容分类和个性化训练建议。
在本发明实施例中,前述预测指令内容类别包括在目标类别和非目标类别上分别对应的概率;前述根据无监督动作数据组中的第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到第二代价的步骤,可以通过以下示例执行实施。
(1)根据无监督动作数据组中的第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到类别代价;
(2)根据同一预测指令内容类别包含的每一个概率进行交叉熵计算,分别得到每一个无监督动作数据组所对应的交叉熵;
(3)根据每一个无监督动作数据组所对应的交叉熵,得到信息熵代价交叉熵代价;
(4)根据类别代价和交叉熵代价,得到第二代价。
在本发明实施例中,示例性的,用户通过的应用录制了一系列有监督动作数据,这些数据已经标记了指令内容类别。同时,还有一组无监督动作数据。将有监督动作数据输入到基础动作指令判定模型中进行预测,并获得每个预测指令内容类别在目标类别和非目标类别上的概率。举个例子,如果的模型对某个无监督动作数据组的第一和第二动作数据分别预测了其对应的指令内容类别为深蹲和俯卧撑,并给出了相应的概率(如0.8和0.2),那么可以在目标类别上将概率为0.8视为目标类别的概率,而在非目标类别上将概率为0.2视为非目标类别的概率。根据技术方案中的方法,根据无监督动作数据组中第一和第二动作数据对应的预测指令内容类别之间的偏差来计算类别代价。举个例子,如果第一和第二动作数据对应的预测指令内容类别是深蹲和俯卧撑,并且它们之间的偏差较大,那么类别代价会相应地较高。根据每个无监督动作数据组对应的预测指令内容类别的概率,可以分别计算每个无监督动作数据组所对应的交叉熵。举个例子,如果某个无监督动作数据组的预测指令内容类别的概率分布是[0.8,0.2],那么可以使用交叉熵来衡量该概率分布与目标类别的差异性。根据技术方案中的方法,将类别代价和交叉熵代价综合起来,得到最终的第二代价。通过以上步骤,根据技术方案中的方法计算了第二代价,并综合考虑了类别代价和交叉熵代价。这样可以更全面地评估模型的性能和准确性,并为用户提供更精确的动作指令内容分类和个性化训练建议。
在本发明实施例中,前述将当前用户动作对应的动作数据和业务场景数据库进行配对,得到当前用户动作关联的当前业务场景的步骤,可以通过以下示例执行实施。
(1)获取业务知识图谱和业务描述;业务知识图谱是根据业务场景数据库生成的,业务描述包括业务场景数据库中每一个业务属性之间存在区别的业务特征;
(2)从当前用户动作对应的动作数据中确定目标业务特征;
(3)当在业务描述中匹配到目标业务特征时,将目标业务特征对应的目标关联业务特征集和业务知识图谱进行配对;目标业务特征对应的目标关联业务特征集包括目标业务特征和目标业务特征在当前用户动作对应的动作数据中的强关联业务特征集;
(4)当目标业务特征对应的目标关联业务特征集在业务知识图谱中配对到节点时,将配对到的节点对应的业务场景作为当前用户动作中关联的当前业务场景;
(5)从当前用户动作对应的动作数据中获取下一个业务特征作为目标业务特征,重复执行当在业务描述中匹配到目标业务特征时,将目标业务特征对应的目标关联业务特征集和业务知识图谱进行配对的步骤,直到当前用户动作对应的动作数据中每一个业务特征全都参与配对,得到当前用户动作关联的每一个当前业务场景。
在本发明实施例中,示例性的,假设用户正在进行一款基于虚拟现实的体感舞蹈游戏,戴着虚拟现实头显和配备了动作捕捉传感器的手套进行游戏操作。***会根据用户的动作数据和业务场景数据库进行配对,确定用户当前所处的业务场景。***首先获取事先构建的业务知识图谱,其中包含了不同舞蹈动作和舞蹈场景之间的关系。同时,***还提取了舞蹈动作和场景之间的业务特征,如舞姿、舞曲节奏等。***根据用户的动作数据,例如手势、身体姿势等信息,提取出当前用户的动作特征。***将用户的动作特征与业务描述中的舞蹈动作特征进行匹配。如果匹配成功,***会找到与目标业务特征强相关的其他业务特征集合,如舞蹈场景、舞曲风格等。***根据匹配到的节点,确定用户当前所处的具体舞蹈场景。例如,如果用户的动作特征匹配到了"左转身"和"嘻哈舞曲"这两个目标业务特征,并且找到了与之关联的业务场景节点,那么***就可以确定用户当前处于"嘻哈舞曲-转身"的业务场景。从当前用户动作对应的动作数据中获取下一个业务特征作为目标业务特征,重复执行匹配和配对的步骤,直到所有业务特征都参与了配对,得到当前用户动作关联的每个当前业务场景。通过以上步骤,***可以准确识别用户在虚拟现实环境中的动作,并将其与相应的业务场景关联起来。这样,游戏可以根据用户的动作和业务场景提供实时反馈、评分和游戏推荐等个性化服务,提升用户的参与感和游戏体验。
在一种较为详细的实施方式中,首先,***获取业务知识图谱和业务描述。业务知识图谱是根据业务场景数据库生成的,其中包含了不同业务场景之间的关系。业务描述则包括了业务场景数据库中每个业务属性之间的区别,即业务特征。接下来,***从用户当前的动作数据中提取目标业务特征。这些动作数据可以通过交互设备(如手柄、头显、传感器等)捕获到,例如用户的手势、姿势、运动轨迹等。
***将目标业务特征与业务描述进行匹配。***会逐一比对目标业务特征和业务描述中的每个业务特征,寻找相匹配的特征。如果找到了匹配的特征,则***进入下一步。
接着,***将目标业务特征对应的目标关联业务特征集和业务知识图谱进行配对。目标关联业务特征集包括与目标业务特征强相关的其他业务特征。***会从业务知识图谱中找到与目标关联业务特征集匹配的节点。
一旦找到匹配的节点,***将该节点对应的业务场景作为当前用户动作所关联的当前业务场景。例如,如果用户的动作特征匹配到了"左转身"和"嘻哈舞曲"这两个目标业务特征,并且找到了与之关联的业务场景节点,那么***就可以确定用户当前处于"嘻哈舞曲-转身"的业务场景。
***会从当前用户动作对应的动作数据中获取下一个业务特征作为目标业务特征,并重复执行上述步骤。***会不断根据用户的动作和业务描述来匹配目标业务特征,并找到与之关联的业务场景。
最终,当用户的动作数据中的每个业务特征都参与了配对,***就得到了用户当前动作所关联的每个当前业务场景。
通过这种方法,***可以根据用户在交互设备上的动作和业务场景数据库的配对关系,准确地判断用户当前所处的虚拟现实动作场景。这有助于提供更加沉浸式、个性化的虚拟现实体验,并能够根据用户的需求提供相应的服务和推荐。
在本发明实施例中,方法还包括以下实施方式。
(1)获取业务联动知识图谱;业务联动知识图谱是根据预置业务联动数据集生成的,预置业务联动数据集包括业务场景数据库对应的每一个业务场景分别对应的业务联动数据的业务联动数据标识;业务描述包括业务场景数据库和预置业务联动数据集中关联的每一个存在区别的业务特征;
(2)当当前用户动作对应的动作数据和业务知识图谱配对不成功时,将当前用户动作对应的动作数据和业务联动知识图谱进行配对,得到当前用户动作关联的每一个目标业务联动数据;
(3)将每一个目标业务联动数据分别对应的业务场景作为当前用户动作关联的每一个当前业务场景。
在本发明实施例中,示例性的,***获取预置的业务场景数据库和业务联动数据集。业务场景数据库包含不同游戏场景之间的关系,而业务联动数据集则包含了业务场景分别对应的业务联动数据标识。如果***无法通过当前用户的动作数据与业务知识图谱进行匹配,即无法找到与动作对应的业务特征和场景节点,***会尝试将动作数据与业务联动知识图谱进行匹配。通过将当前用户的动作数据与业务联动知识图谱进行配对,***可以得到与每个目标业务联动数据相关联的业务场景。***会将与目标业务联动数据相关联的业务场景作为当前用户动作所关联的当前业务场景。例如,如果***无法通过当前用户的动作数据与业务知识图谱匹配成功,但能够通过业务联动知识图谱找到与动作数据相关的业务场景,那么这些业务场景会被标记为当前用户动作所关联的当前业务场景。通过以上步骤,***可以在无法通过业务知识图谱匹配的情况下,借助业务联动知识图谱来确定用户当前所处的业务场景和相关联的业务联动数据。这有助于游戏实现多样化的业务场景并提供更加丰富的游戏体验,进一步增强玩家的沉浸感和合作互动效果。
在一种详细的实施方式中,假设用户正在进行一款基于虚拟现实的合作射击游戏,在一个虚拟战场上与其他玩家组队作战。每个玩家都佩戴了虚拟现实头显和配备了动作捕捉传感器的手套,以进行游戏操作。***首先获取预置的业务场景数据库和业务联动数据集。业务场景数据库包含不同游戏场景之间的关系,而业务联动数据集则包含了业务场景分别对应的业务联动数据标识。例如,数据库中可能定义了"沙漠战斗场景"、"城市街道战斗场景"等不同的游戏场景,并与相应的业务联动数据进行关联。如果***无法通过当前用户的动作数据与业务知识图谱进行匹配,即无法找到与动作对应的业务特征和场景节点,***会尝试将动作数据与业务联动知识图谱进行匹配。这样可以扩展***的识别能力,以适应更多的业务场景。通过将当前用户的动作数据与业务联动知识图谱进行配对,***可以找到与每个目标业务联动数据相关联的业务场景。例如,如果用户的动作数据无法与业务知识图谱中的特定业务特征匹配,但可以与业务联动知识图谱中的特定业务特征匹配,那么该业务特征所关联的业务场景就被视为与用户当前动作相关联的当前业务场景。***将与目标业务联动数据相关联的业务场景视为当前用户动作关联的当前业务场景。在游戏中,这些业务场景可能表示不同的战斗环境或任务场景。例如,如果用户的动作数据无法与业务知识图谱中的特定业务特征匹配,但通过业务联动知识图谱找到了与动作数据相关的业务场景"沙漠战斗场景",那么该场景就会被标记为当前用户动作所关联的当前业务场景。通过这个技术方案,***可以根据用户在交互设备上的动作数据,结合业务知识图谱和业务联动知识图谱的配对关系,准确地判断用户当前所处的虚拟现实动作场景,并与相关联的业务联动数据进行关联。这样,游戏可以根据用户的动作和业务场景提供实时的合作射击体验、任务目标和游戏推荐等个性化服务,增强玩家的沉浸感,促进玩家之间的合作互动效果。
本发明实施例提供一种计算机设备100,计算机设备100包括处理器及存储有计算机指令的非易失性存储器,计算机指令被处理器执行时,计算机设备100执行前述的基于交互设备的虚拟现实动作识别方法。如图2所示,图2为本发明实施例提供的计算机设备100的结构框图。计算机设备100包括存储器111、处理器112及通信单元113。
为实现数据的传输或交互,存储器111、处理器112以及通信单元113各元件相互之间直接或间接地电性连接。例如,可通过一条或多条通讯总线或信号线实现这些元件相互之间电性连接。
出于说明目的,前面的描述是参考具体实施例而进行的。但是,上述说明性论述并不打算穷举或将本公开局限于所公开的精确形式。根据上述教导,众多修改和变化都是可行的。选择并描述这些实施例是为了最佳地说明本公开的原理及其实际应用,从而使本领域技术人员最佳地利用本公开,并利用具有不同修改的各种实施例以适于预期的特定应用。出于说明目的,前面的描述是参考具体实施例而进行的。但是,上述说明性论述并不打算穷举或将本公开局限于所公开的精确形式。根据上述教导,众多修改和变化都是可行的。选择并描述这些实施例是为了最佳地说明本公开的原理及其实际应用,从而使本领域技术人员最佳地利用本公开,并利用具有不同修改的各种实施例以适于预期的特定应用。

Claims (10)

1.一种基于交互设备的虚拟现实动作识别方法,其特征在于,包括:
响应于当前用户进入交互设备指定的动作采集区域,基于预先训练的触发动作识别模型,对所述当前用户进行触发动作的识别;
在针对所述当前用户的目标识别结果表征为存在触发动作的基础上,获取所述当前用户动作对应的动作数据,确定所述当前用户动作对应的动作执行结果;
将所述动作执行结果展示至所述交互设备指定的虚拟现实交互区域。
2.根据权利要求1所述的方法,其特征在于,所述基于预先训练的触发动作识别模型,对所述当前用户进行触发动作的识别,包括:
基于预先训练的触发动作识别模型,对含干扰动作视频进行小波变换,获得所述含干扰动作视频的频率分布;
针对所述含干扰动作视频的频率分布进行过滤操作,获得对应的频谱特征向量,作为第一动作识别特征;
针对所述第一动作识别特征进行循环更新操作,其中,所述循环更新操作为:根据所述第一动作识别特征确定干扰动作特征向量,以及根据针对过往含干扰动作视频确定的过往干扰动作特征向量,获得当前循环轮次对应的去干扰任务详情,并根据所述去干扰任务详情对所述干扰动作特征向量进行干扰消除操作,获得所述当前循环轮次对应的待定特征向量,其中,在首轮循环更新操作中,所述干扰动作特征向量为所述第一动作识别特征,在除首轮外的循环更新操作中,所述干扰动作特征向量是所述第一动作识别特征和已确定的待定特征向量合并获取的;
将末轮循环更新确定的待定特征向量作为需求特征向量,并根据对所述需求特征向量进行特征空间映射,获得特征空间与所述第一动作识别特征适配的过程特征向量;
对所述过程特征向量执行标准化操作,并将所述标准化操作的输出作为去干扰参量;
根据所述去干扰参量,对所述第一动作识别特征执行标量乘法操作,获得第二动作识别特征;
针对所述第二动作识别特征进行动作识别特征分析,获得所述第二动作识别特征中存在触发动作的识别置信度;
当所述识别置信度达到预置触发阈值时,确定所述含干扰动作视频中存在所述触发动作。
3.根据权利要求2所述的方法,其特征在于,所述循环更新操作包括:
若为首轮循环更新操作,则将所述第一动作识别特征作为干扰动作特征向量,并根据针对过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据所述去干扰任务详情对所述干扰动作特征向量进行干扰消除操作,获得所述首轮循环更新操作对应的待定特征向量;
若为第二轮循环更新操作,则将所述第一动作识别特征和当前循环轮次的上轮循环更新操作获得一个待定特征向量合并为干扰动作特征向量,并根据针对所述过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据所述去干扰任务详情对所述干扰动作特征向量进行干扰消除操作,获得所述第二轮循环更新操作对应的待定特征向量;
若为第三轮循环更新操作,则将所述第一动作识别特征和当前循环轮次的前两轮循环更新操作获得两个待定特征向量合并为干扰动作特征向量,并根据针对所述过往含干扰动作视频确定的相应过往干扰动作特征向量,获得对应的去干扰任务详情,以及根据所述去干扰任务详情对所述干扰动作特征向量进行干扰消除操作,获得所述第三轮循环更新操作对应的待定特征向量。
4.根据权利要求2所述的方法,其特征在于,所述干扰动作特征向量的合并方式,至少通过下述一种方式实现:
根据预置排列顺序,对已确定的各待定特征向量以及所述第一动作识别特征执行整合操作,获得干扰动作特征向量;
根据已确定的各待定特征向量各自关联的合并调整因子,以及所述第一动作识别特征关联的合并调整因子,对所述各待定特征向量和所述第一动作识别特征进行加权合并处理,获得干扰动作特征向量;其中,每个所述合并调整因子表征对应的待定特征向量或所述第一动作识别特征,对所述干扰动作特征向量的贡献程度。
5.根据权利要求2所述的方法,其特征在于,所述触发动作识别模型是通过以下方式得到的,包括:
获取训练实例数组,所述训练实例数组中的每个训练实例包括针对一个样本含干扰动作视频提取的第一样本动作识别特征和对应的目标值,所述目标值至少包括样本触发动作标记,所述样本触发动作标记表征所述触发动作是否真实存在于相应样本含干扰动作视频中;
从所述训练实例数组中选取训练实例,并将对应的第一样本动作识别特征输入所述触发动作识别模型中,获得针对所述触发动作识别的观测触发动作标记;所述目标值还包括针对相应样本含干扰动作视频提取的标准动作识别特征,所述标准动作识别特征为不存在干扰的频谱特征向量;
根据第二样本动作识别特征与相应标准动作识别特征之间的第一误差,优化消除因子;
获得所述观测触发动作标记与相应实际触发动作标记之间的第二误差,并根据所述第一误差和所述第二误差之间的相关系数,获得关联误差;
根据所述关联误差,分别优化所述消除因子与检测参量。
6.根据权利要求5所述的方法,其特征在于,所述针对所述触发动作识别的观测触发动作标记,通过以下方式获取,包括:
根据所述消除因子,对所述第一样本动作识别特征进行干扰消除操作,获得对应的第二样本动作识别特征;
根据所述检测参量,针对所述第二样本动作识别特征进行动作识别特征分析,获得存在所述触发动作的预期几率评估值,并根据所述预期几率评估值与预置触发动作阈值之间的校验反馈,获得观测触发动作标记。
7.根据权利要求1所述的方法,其特征在于,所述获取所述当前用户动作对应的动作数据,确定所述当前用户动作对应的动作执行结果,包括:
获取所述当前用户动作对应的动作数据;
将所述当前用户动作对应的动作数据输入目标指令内容动作指令判定模型,得到所述当前用户动作对应的预测指令内容类别;所述目标指令内容动作指令判定模型是根据有监督动作数据和无监督动作数据组,对基础动作指令判定模型完成训练后获取的,所述有监督动作数据是预先配置指令内容的用户动作对应的动作数据,所述无监督动作数据组中的动作数据是未配置指令内容的用户动作对应的动作数据,所述无监督动作数据组中的每一个动作数据是同类动作数据;
在所述当前用户动作对应的预测指令内容类别指示所述当前用户动作表征目标指令内容时,获取业务知识图谱和业务描述;所述业务知识图谱是根据业务场景数据库生成的,所述业务描述包括所述业务场景数据库中每一个业务属性之间存在区别的业务特征;
从所述当前用户动作对应的动作数据中确定目标业务特征;
当在所述业务描述中匹配到目标业务特征时,将目标业务特征对应的目标关联业务特征集和所述业务知识图谱进行配对;目标业务特征对应的目标关联业务特征集包括目标业务特征和目标业务特征在所述当前用户动作对应的动作数据中的强关联业务特征集;
当目标业务特征对应的目标关联业务特征集在所述业务知识图谱中配对到节点时,将配对到的节点对应的业务场景作为所述当前用户动作中关联的当前业务场景;
从所述当前用户动作对应的动作数据中获取下一个业务特征作为目标业务特征,重复执行所述当在所述业务描述中匹配到目标业务特征时,将目标业务特征对应的目标关联业务特征集和所述业务知识图谱进行配对的步骤,直到所述当前用户动作对应的动作数据中每一个业务特征全都参与配对,得到所述当前用户动作关联的每一个当前业务场景;
根据所述当前业务场景,确定所述当前用户动作对应的动作执行结果。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取多个待监督动作数据,提取每一个待监督动作数据分别对应的动作特征向量;
从所述每一个待监督动作数据中确定待处理动作数据;
根据待处理动作数据对应的动作特征向量分别和第一动作数据集合中每一个动作数据各自的动作特征向量之间的向量距离,从第一动作数据集合包含的每一个动作数据中确定待处理动作数据对应的初始同类动作数据;
在待处理动作数据和对应的初始同类动作数据之间的关联业务特征集相似度度量不低于预置度量阈值时,将待处理动作数据对应的初始同类动作数据作为待处理动作数据对应的目标同类动作数据,得到匹配输出;
在待处理动作数据和对应的初始同类动作数据之间的关联业务特征集相似度度量低于所述预置度量阈值,或者待处理动作数据不存在对应的初始同类动作数据时,确定匹配输出为未匹配到待处理动作数据对应的目标同类动作数据;
当所述匹配输出为匹配到待处理动作数据对应的目标同类动作数据时,将待处理动作数据添加至第一动作数据集合,当匹配输出为未匹配到待处理动作数据对应的目标同类动作数据时,将待处理动作数据分别添加至第一动作数据集合和第二动作数据集合;
从所述每一个待监督动作数据中获取下一待监督动作数据作为待处理动作数据,重复执行所述根据待处理动作数据对应的动作特征向量分别和第一动作数据集合中每一个动作数据各自的动作特征向量之间的向量距离,从第一动作数据集合包含的每一个动作数据中确定待处理动作数据对应的初始同类动作数据至所述确定匹配输出为未匹配到待处理动作数据对应的目标同类动作数据的步骤,直到所述每一个待监督动作数据全都匹配完成;
对最终确定的第二动作数据集合中的每一个待监督动作数据对应的用户动作进行指令内容配置,得到多个有监督动作数据。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取有监督动作数据集合和无监督动作数据集合;
根据所述有监督动作数据集合对待定动作指令判定模型进行训练,得到过渡动作指令判定模型;
将所述无监督动作数据集合中每一个无监督动作数据输入所述过渡动作指令判定模型,得到所述每一个无监督动作数据分别对应的预测指令内容类别;所述无监督动作数据组应的预测指令内容类别用于作为无监督动作数据组应的生成类别;
统计每一个生成类别中目标类别和非目标类别的数目,得到目标类别数目和非目标类别数目;
从所述目标类别数目和所述非目标类别数目中获取更少的类别数目作为需求类别数目,将所述需求类别数目对应的指令内容类别作为需求类别;
从具有所述需求类别的每一个无监督动作数据中,获取第一数目的无监督动作数据作为目标无监督动作数据;所述第一数目低于所述需求类别数目;
从不具有所述需求类别的每一个无监督动作数据中,获取第二数目的无监督动作数据作为目标无监督动作数据;
根据每一个目标无监督动作数据得到目标无监督动作数据集合;
对所述目标无监督动作数据集合中的每一个目标无监督动作数据分别进行逆向转换,得到所述每一个目标无监督动作数据分别对应的逆向转换动作数据,将目标无监督动作数据组应的逆向转换动作数据作为目标无监督动作数据组应的同类动作数据;
将目标无监督动作数据和对应的同类动作数据组成无监督动作数据组,得到多个无监督动作数据组;
所述方法还包括:
将所述有监督动作数据、所述无监督动作数据组中的第一动作数据和第二动作数据分别输入所述基础动作指令判定模型,得到所述有监督动作数据、所述第一动作数据和所述第二动作数据分别对应的预测指令内容类别;
在每一个有监督动作数据中,过滤预测指令内容类别的数值大于预置数值阈值的有监督动作数据;所述预测指令内容类别包括在目标类别和非目标类别上分别对应的概率;
在剩余的每一个有监督动作数据中,根据同一有监督动作数据对应的预测指令内容类别和有监督指令内容类别之间的偏差,得到第一代价,根据所述无监督动作数据组中的第一动作数据和第二动作数据分别对应的预测指令内容类别之间的偏差,得到类别代价;
根据同一预测指令内容类别包含的每一个概率进行交叉熵计算,分别得到所述每一个无监督动作数据组所对应的交叉熵;
根据每一个无监督动作数据组所对应的交叉熵,得到信息熵代价交叉熵代价;
根据所述类别代价和所述交叉熵代价,得到第二代价;
根据所述第一代价和所述第二代价,更新所述基础动作指令判定模型的模型结构参量,直到符合预置代价参量函数,得到所述目标指令内容动作指令判定模型;
所述方法还包括:
获取业务联动知识图谱;所述业务联动知识图谱是根据预置业务联动数据集生成的,所述预置业务联动数据集包括所述业务场景数据库对应的每一个业务场景分别对应的业务联动数据的业务联动数据标识;所述业务描述包括所述业务场景数据库和所述预置业务联动数据集中关联的每一个存在区别的业务特征;
当所述当前用户动作对应的动作数据和所述业务知识图谱配对不成功时,将所述当前用户动作对应的动作数据和所述业务联动知识图谱进行配对,得到所述当前用户动作关联的每一个目标业务联动数据;
将所述每一个目标业务联动数据分别对应的业务场景作为所述当前用户动作关联的每一个当前业务场景。
10.一种服务器***,其特征在于,包括服务器,所述服务器用于执行权利要求1-9中任一项所述的方法。
CN202311647127.8A 2023-12-04 2023-12-04 一种基于交互设备的虚拟现实动作识别方法及*** Active CN117762250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311647127.8A CN117762250B (zh) 2023-12-04 2023-12-04 一种基于交互设备的虚拟现实动作识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311647127.8A CN117762250B (zh) 2023-12-04 2023-12-04 一种基于交互设备的虚拟现实动作识别方法及***

Publications (2)

Publication Number Publication Date
CN117762250A true CN117762250A (zh) 2024-03-26
CN117762250B CN117762250B (zh) 2024-07-16

Family

ID=90309585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311647127.8A Active CN117762250B (zh) 2023-12-04 2023-12-04 一种基于交互设备的虚拟现实动作识别方法及***

Country Status (1)

Country Link
CN (1) CN117762250B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118001736A (zh) * 2024-04-08 2024-05-10 深圳云天畅想信息科技有限公司 云游戏的虚拟现实交互控制方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988583A (zh) * 2015-11-18 2016-10-05 乐视致新电子科技(天津)有限公司 手势控制方法及虚拟现实显示输出设备
CN108499107A (zh) * 2018-04-16 2018-09-07 网易(杭州)网络有限公司 虚拟现实中虚拟角色的控制方法、装置及存储介质
CN114625251A (zh) * 2022-03-11 2022-06-14 平安普惠企业管理有限公司 基于vr的交互方法、装置、计算机设备及存储介质
US20230214458A1 (en) * 2016-02-17 2023-07-06 Ultrahaptics IP Two Limited Hand Pose Estimation for Machine Learning Based Gesture Recognition
CN116719419A (zh) * 2023-08-09 2023-09-08 世优(北京)科技有限公司 元宇宙的智能交互方法及其***
CN116909407A (zh) * 2023-09-12 2023-10-20 深圳康荣电子有限公司 基于虚拟现实的触控显示屏全景交互方法及控制***
CN117032453A (zh) * 2023-08-03 2023-11-10 深想教育科技(深圳)有限公司 一种实现互识功能的虚拟现实交互***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988583A (zh) * 2015-11-18 2016-10-05 乐视致新电子科技(天津)有限公司 手势控制方法及虚拟现实显示输出设备
US20230214458A1 (en) * 2016-02-17 2023-07-06 Ultrahaptics IP Two Limited Hand Pose Estimation for Machine Learning Based Gesture Recognition
CN108499107A (zh) * 2018-04-16 2018-09-07 网易(杭州)网络有限公司 虚拟现实中虚拟角色的控制方法、装置及存储介质
CN114625251A (zh) * 2022-03-11 2022-06-14 平安普惠企业管理有限公司 基于vr的交互方法、装置、计算机设备及存储介质
CN117032453A (zh) * 2023-08-03 2023-11-10 深想教育科技(深圳)有限公司 一种实现互识功能的虚拟现实交互***
CN116719419A (zh) * 2023-08-09 2023-09-08 世优(北京)科技有限公司 元宇宙的智能交互方法及其***
CN116909407A (zh) * 2023-09-12 2023-10-20 深圳康荣电子有限公司 基于虚拟现实的触控显示屏全景交互方法及控制***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118001736A (zh) * 2024-04-08 2024-05-10 深圳云天畅想信息科技有限公司 云游戏的虚拟现实交互控制方法、装置及电子设备
CN118001736B (zh) * 2024-04-08 2024-06-07 深圳云天畅想信息科技有限公司 云游戏的虚拟现实交互控制方法、装置及电子设备

Also Published As

Publication number Publication date
CN117762250B (zh) 2024-07-16

Similar Documents

Publication Publication Date Title
JP6733738B2 (ja) 運動認識装置、運動認識プログラムおよび運動認識方法
JP6403696B2 (ja) 身体的活動のモニタリングデバイス及びその方法
CN107944431B (zh) 一种基于运动变化的智能识别方法
KR101227569B1 (ko) 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법
US10803762B2 (en) Body-motion assessment device, dance assessment device, karaoke device, and game device
US20160073961A1 (en) Method and system for characterizing sporting activitiy
CN117762250B (zh) 一种基于交互设备的虚拟现实动作识别方法及***
CN105229666A (zh) 3d图像中的运动分析
US20190160339A1 (en) System and apparatus for immersive and interactive machine-based strength training using virtual reality
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
CN102693413A (zh) 运动识别
JP6823123B2 (ja) 行動データを用いた一般化されたスキル評価のためのシステム及び方法
JP2016513999A5 (zh)
CN107392939A (zh) 基于体感技术的室内运动观测装置、方法及存储介质
CN109753868B (zh) 运动动作的评估方法及装置、智能手环
CN109621331A (zh) 辅助健身方法、装置及存储介质、服务器
Fan et al. Sensor fusion basketball shooting posture recognition system based on CNN
US20190050635A1 (en) Method and system for automatic identification of player
WO2019106672A1 (en) Method of real time monitoring of a person during an event and event dynamics system thereof
JPWO2018122956A1 (ja) スポーツ動作解析支援システム、方法およびプログラム
Holatka et al. Volleyball setting technique assessment using a single point sensor
US20240042281A1 (en) User experience platform for connected fitness systems
CN105848737B (zh) 解析装置、记录媒体和解析方法
Shahjalal et al. An approach to automate the scorecard in cricket with computer vision and machine learning
Malawski et al. Automatic analysis of techniques and body motion patterns in sport

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant