CN116386087B - 目标对象处理方法以及装置 - Google Patents
目标对象处理方法以及装置 Download PDFInfo
- Publication number
- CN116386087B CN116386087B CN202310353616.6A CN202310353616A CN116386087B CN 116386087 B CN116386087 B CN 116386087B CN 202310353616 A CN202310353616 A CN 202310353616A CN 116386087 B CN116386087 B CN 116386087B
- Authority
- CN
- China
- Prior art keywords
- target
- joint point
- dimensional coordinate
- determining
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 99
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 98
- 238000000034 method Methods 0.000 claims description 51
- 230000004927 fusion Effects 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 16
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 12
- 238000007499 fusion processing Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 18
- 238000000605 extraction Methods 0.000 description 16
- 238000004590 computer program Methods 0.000 description 10
- 210000002310 elbow joint Anatomy 0.000 description 10
- 210000003857 wrist joint Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 210000001503 joint Anatomy 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例提供目标对象处理方法以及装置,其中所述目标对象处理方法包括:确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
Description
技术领域
本说明书实施例涉及计算机技术领域,特别涉及目标对象处理方法。
背景技术
通过图像或视频分析人体的姿态是计算机视觉研究的重要问题。人体姿态的估计被广泛应用于人机交互和电影特效等诸多领域。人体姿态估计是指从图像中估计出图像中人体的各个主要关节点的三维坐标,用于表示图像中人体姿态的过程。
然而,目前在人体姿态估计的过程中,通常可以利用人体的二维关节点坐标确定三维关节点坐标,并且根据三维关节点坐标实现人体姿态估计。在人体动作仅有细微变化时,利用关节点坐标确定的人体姿态的准确度较差,精度较低。因此,亟需一种有效的技术方案解决上述问题。
发明内容
有鉴于此,本说明书实施例提供了一种目标对象处理方法。本说明书一个或者多个实施例同时涉及一种目标对象处理装置,一种计算设备,一种AR/VR设备,一种计算机可读存储介质以及一种计算机程序,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种目标对象处理方法,包括:
确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;
根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
根据本说明书实施例的第二方面,提供了一种目标对象处理装置,包括:
第一确定模块,被配置为确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;
第二确定模块,被配置为根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
第三确定模块,被配置为根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;
处理模块,被配置为对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
根据本说明书实施例的第三方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述方法的步骤。
根据本说明书实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现上述方法的步骤。
根据本说明书实施例的第五方面,提供了一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述方法的步骤。
根据本说明书实施例的第六方面,提供了一种AR/VR设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述方法的步骤。
本说明书一个实施例提供了一种目标对象处理方法,确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。上述方法通过确定目标对象的关节点关联的初始骨骼边特征,利用初始骨骼边特征和目标关节点特征的结合确定关节点的三维坐标,能够提升确定的三维坐标的准确度,进一步保证后续人体姿态估计的准确度和精度。
附图说明
图1是本说明书一个实施例提供的一种目标对象处理方法的应用场景示意图;
图2是本说明书一个实施例提供的一种目标对象处理方法的流程图;
图3是本说明书一个实施例提供的一种目标对象处理方法中坐标预测模型的流程示意图;
图4是本说明书一个实施例提供的一种目标对象处理方法的处理过程流程图;
图5是本说明书一个实施例提供的一种目标对象处理方法在端侧设备的处理过程流程图;
图6是本说明书一个实施例提供的一种目标对象处理装置的结构示意图;
图7是本说明书一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
需要说明的是,本说明书实施例所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
在本说明书中,提供了一种目标对象处理方法,本说明书同时涉及一种目标对象处理装置,一种计算设备,一种AR/VR设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
参见图1,图1示出了根据本说明书一个实施例提供的一种目标对象处理方法的应用场景示意图。
图1中包括云侧设备102和端侧设备104,其中,云侧设备102可以理解为云服务器,当然,在另一种可实现方案中,云侧设备102也可以替换为物理服务器;该端侧设备104包括但不限于台式电脑、笔记本电脑、VR(Virtual Reality,虚拟现实)设备、AR(AugmentedReality,增强现实)设备等;为了便于理解,本说明书实施例中,均以云侧设备102为云服务器、端侧设备104为笔记本电脑为例进行详细介绍。
具体实施时,端侧设备104可以获取用户的视频数据,并将用户的视频数据发送至云侧设备102。云侧设备102可以从用户的视频数据中提取用户的各个关节点的二维坐标序列,该二维坐标序列中包括用户的各个关节点的二维坐标信息,并对各个关节点的二维坐标信息进行特征提取,并进行下采样处理和上采样处理,从而确定各个关节点的目标关节点特征。根据至少两个关节点的目标关节点特征,确定该至少两个关节点关联的初始骨骼边特征,并对关节点的目标关节点特征和初始骨骼边特征进行处理,根据处理结果确定关节点的三维坐标,从而构建用户的各个关节点的三维坐标序列。该三维坐标序列可以用于后续对用户的人体姿态的确定。云侧设备102可以将三维坐标序列发送至端侧设备104,由端侧设备104根据三维坐标序列确定用户的人体姿态。此外,云侧设备也可以根据三维坐标序列确定用户的人体姿态,再将用户的人体姿态发送至端侧设备104。
参见图2,图2示出了根据本说明书一个实施例提供的一种目标对象处理方法的流程图,具体包括以下步骤。
步骤202:确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息。
其中,目标对象可以是需要进行三维姿态估计的用户,也可以是虚拟人、动物等。关节点可以理解为骨骼上的关节点,比如可以是人体的腕关节、肘关节、踝关节等。关节点的二维坐标序列可以理解为关节点的二维坐标构成的坐标集合。比如,关节点的二维坐标序列中可以包括人体的腕关节的二维坐标、踝关节的二维坐标和肘关节的二维坐标等。二维坐标信息可以理解为二维坐标的表现形式,比如二维坐标可以以图像形式表现,还可以以视频帧形式表现。那么,二维坐标序列中可以包含多个视频帧,每个视频帧中可以包括关节点在当前视频帧中的二维坐标。
具体的,该目标对象处理方法可以应用于用户的运动姿态评估场景。可以获取用户在运动时的视频,并将视频拆分为多个视频帧,利用二维坐标提取模型从视频帧中提取用户的关节点的二维坐标,构成二维坐标序列。从而实现后续生成三维坐标序列,并确定用户的运动姿态,可以根据确定的用户的运动姿态与参考运动姿态进行对比,从而判断用户的运动姿态是否标准。还可以从视频中预测出人体各个关节点在三维物理空间中的坐标,通过各个关节点坐标之间的距离等关系,判断肢体动作是否符合需求。比如运动健身中动作是否做到位。此外,该目标对象处理方法还可以用于虚拟人的人体姿态评估场景等,本说明书实施例对此不做限定。
举例而言,目标对象的关节点的二维坐标序列中可以包括:用户的关节点A在视频帧1中的二维坐标A1、在视频帧2中的二维坐标A2、在视频帧3中的二维坐标A3、以及用户的关节点B在视频帧1中的二维坐标B1、在视频帧2中的二维坐标B2和在视频帧3中的二维坐标A3。
具体实施时,可以根据目标对象的视频数据,确定目标对象的关节点的二维坐标序列。具体实现方式如下:
所述确定目标对象的关节点的二维坐标序列,包括:
确定目标对象的视频数据,并根据所述视频数据,提取所述目标对象的关节点的二维坐标序列。
其中,目标对象的视频数据可以理解为包含目标对象的视频数据,比如可以是用户做抬手动作的视频数据,具体而言,用户在做抬手动作时,该视频数据的第1个视频帧中,用户的手可能自然下垂,在第2个视频帧中,用户的手可能位于用户的肩膀高度,在第3个视频帧中,用户的手可能已经抬高至高过用户的头顶,这3个视频帧组成用户做抬手动作的视频数据,那么用户的手包括的腕关节和指关节,在这3个视频帧中的二维坐标都不同。或者,视频数据还可以是用户做健身动作的视频数据,具体而言,用户在保持某个健身动作时,用户的关节点在视频数据中的每个视频帧中的二维坐标可能只存在细微不同。
具体的,可以利用二维坐标提取模型提取目标对象的关节点的二维坐标序列,二维坐标提取模型可以是基于深度学习的坐标提取模型,比如可以是高斯模型、神经网络模型等,将目标对象的视频数据输入该二维坐标提取模型,利用二维坐标提取模型对目标对象的视频数据划分为多个视频帧,并对目标对象在每个视频帧中的关节点的二维坐标进行提取,获得目标对象的关节点的二维坐标序列。
或者,还可以将目标对象的视频数据拆分为多个视频帧,将多个视频帧输入二维坐标提取模型,利用二维坐标提取模型提取目标对象在视频帧中的关节点的二维坐标,从而获得目标对象的关节点的二维坐标序列。还可以基于仿真算法实现二维坐标序列的提取。
本说明书一个可选的实施例中,由于视频帧是以图像的形式表示的,还可以利用图像的像素提取关节点的二维坐标。具体实施时,可以利用颜色等标识确定需要提取的关节点在图像中的位置,通过遍历图像的像素值确定关节点的二维坐标。本说明书实施例对如何提取目标对象的关节点的二维坐标序列的具体方法不做限定,本领域技术人员可以利用任何能够提取二维坐标的方法或模型提取目标对象的关节点的二维坐标序列。
综上,通过提取目标对象的关节点的二维坐标序列,为后续确定目标对象的关节点的三维坐标序列提供数据基础,进一步实现目标对象三维姿态的确定。
步骤204:根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点。
具体的,在确定目标对象的关节点的二维坐标序列后,可以对二维坐标序列中包括的任意一个关节点对应的二维坐标信息进行特征提取,确定该关节点对应的目标关节点特征。
具体实施时,所述根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,包括:
对所述目标关节点对应的二维坐标信息进行特征提取,获得所述目标关节点对应的初始关节点特征;
对所述初始关节点特征进行下采样处理和上采样处理,获得所述目标关节点对应的目标关节点特征。
其中,目标关节点对应的初始关节点特征可以包括目标关节点的二维坐标信息的全局特征和局部特征。
具体的,可以利用特征提取器对包含目标关节点对应的二维坐标的图像或视频帧进行特征提取,获得目标关节点对应的全局特征和局部特征。对全局特征和局部特征进行下采样处理和上采样处理,获得目标关节点对应的目标关节点特征。由于下采样处理和上采样处理能够对初始关节点特征的维度进行改变,因此,目标关节点特征的维度可以大于或者等于初始关节点特征的维度。比如,对于维度为64×64的初始关节点特征,对该初始关节点特征进行下采样处理,获得维度为32×32的初始关节点特征,再对该初始关节点特征进行上采样处理,获得维度为128×128的目标关节点特征。或者,对于维度为64×64的初始关节点特征,对该初始关节点特征进行下采样处理,获得维度为32×32的初始关节点特征,再对该初始关节点特征进行上采样处理,获得维度为64×64的目标关节点特征。在对初始关节点特征进行下采样处理和上采样处理时,可以预先设置下采样处理的次数和上采样处理的次数,比如可以是对初始关节点特征进行两次下采样处理,一次上采样处理,也可以是对初始关节点特征进行两次下采样处理,两次上采样处理。
实际应用中,特征提取器可以为多头自注意力机制和邻接矩阵,其中,邻接矩阵可以用于描述人体骨骼结构之间的连接关系,经过邻接矩阵提取的初始关节点特征能够增加人体骨架语义作为先验信息。可以利用卷积层进行下采样操作,以此实现时间维度上的特征聚合,具体可以利用卷积层的划窗操作进行下采样处理,以此控制输出的特征维度大小。可以利用插值的方式进行上采样处理,具体的,插值方式比如可以是最近邻插值或者双线性插值。此外,上采样处理还可以通过反卷积方式或空洞卷积方式实现,本说明书实施例在此不做限定。
此外,可以设置多个初始关节点特征提取模块,以及对应的多个上采样模块和下采样模块,可以设置每次上采样和下采样的维度。
沿用上例,可以利用邻接矩阵对关节点A的二维坐标A1、A2和A3进行特征提取,获得关节点A的初始关节点特征,对关节点A的初始关节点特征进行下采样处理和上采样处理,获得关节点A的目标关节点特征;并且,对关节点B的二维坐标B1、B2、B3进行特征提取,获得关节点B的初始关节点特征,对关节点B的初始关节点特征进行下采样处理和上采样处理,获得关节点B的目标关节点特征。
步骤206:根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征。
具体的,在确定目标关节点对应的目标关节点特征之后,可以根据至少两个目标关节点对应的目标关节点特征,确定该至少两个目标关节点关联的初始骨骼边特征。
其中,至少两个目标关节点关联的初始骨骼边特征,可以理解为至少两个目标关节点之间的初始骨骼边特征。比如对于目标关节点1和目标关节点2之间的初始骨骼边特征,该初始骨骼边特征与目标关节点1关联,同样的,该初始骨骼边特征也与目标关节点2关联。
比如,可以根据腕关节对应的目标关节点特征和肘关节对应的目标关节点特征,确定腕关节和肘关节之间的初始骨骼边特征,该初始骨骼边特征与腕关节关联,也与肘关节关联。或者,还可以根据腕关节对应的目标关节点特征、肘关节对应的目标关节点特征和指关节对应的目标关节点特征,确定肘关节和指关节之间的初始骨骼边特征,该初始骨骼边特征与腕关节、肘关节和指关节都关联。
沿用上例,可以根据关节点A的目标关节点特征和关节点B的目标关节点特征,确定该关节点A和关节点B关联的初始骨骼边特征。
具体实施时,所述根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征,包括:
对至少两个目标关节点对应的目标关节点特征进行拼接处理,获得所述至少两个目标关节点关联的初始骨骼边特征。
沿用上例,可以对关节点A的目标关节点特征和关节点B的目标关节点特征进行拼接处理,获得关节点A和关节点B关联的初始骨骼边特征。
此外,还可以通过至少两个目标关节点对应的目标关节点特征之间的相加、相减或相乘确定初始骨骼边特征,还可以根据至少两个目标关节点的最短路径上的目标关节点的目标关节点特征之间的相加、相减或相乘确定初始骨骼边特征。至少两个目标关节点的最短路径,可以理解为人体结构中连接该至少两个目标关节点的最短路径。比如在指关节和肘关节的最短路径上,还包括腕关节,因此,可以对指关节的目标关节点特征、肘关节的目标关节点特征和腕关节的目标关节点特征进行拼接或相加、相减、相乘等处理,确定指关节和肘关节之间的初始骨骼边特征。
综上,通过对至少两个目标关节点的目标关节点特征进行拼接处理,能够确定初始骨骼边特征,为后续三维坐标的确定提供数据基础,使后续人体姿态的确定更准确。
步骤208:对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
具体的,可以根据目标关节点对应的目标关节点特征、和该目标关节点关联的初始骨骼边特征,确定目标对象的关节点的三维坐标序列。
具体实施时,所述对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列,包括:
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征;
对所述融合特征进行上采样处理,根据处理结果确定所述目标关节点对应的三维坐标;
根据所述目标关节点对应的三维坐标,构建所述目标对象的关节点的三维坐标序列。
具体的,可以对目标关节点对应的目标关节点特征、和目标关节点关联的初始骨骼边特征进行融合处理,获得目标关节点对应的融合特征,对融合特征进行上采样处理,获得经过上采样处理后的融合特征,将经过上采样处理后的融合特征输入全连接层,获得全连接层输出的该目标关节点对应的三维坐标,根据目标关节点的三维坐标,构建目标对象的关节点的三维坐标序列。
沿用上例,可以对关节点A对应的目标关节点特征和关节点A关联的初始骨骼边特征(即关节点A和关节点B之间的初始骨骼边特征)进行处理,获得关节点A对应的融合特征AA,对融合特征AA进行上采样处理,根据处理结果确定关节点A对应的三维坐标。对关节点B进行类似的处理,确定关节点B对应的三维坐标。根据关节点A对应的三维坐标和关节点B对应的三维坐标,构建目标对象的关节点的三维坐标序列。
综上,通过结合目标关节点特征和初始骨骼边特征,引入了目标关节点之间的骨骼边,能够进一步反映关节点之间的连接关系,使得最终确定的关节点的三维坐标更加准确,从而提升人体姿态估计的精度和准确度。
具体的,可以对目标关节点特征和初始骨骼边特征进行交叉注意力机制处理,还可以对目标关节点特征和初始骨骼边特征进行融合处理,比如对目标关节点特征和初始骨骼边特征进行相加或相乘处理,获得融合特征,具体实现方式如下:
所述对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征,包括:
根据交叉注意力机制,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
或者,根据预设融合计算方法,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
其中,预设融合计算方法可以包括对目标关节点特征和初始骨骼边特征的相加或者相乘等计算方式。
实际应用中,交叉注意力机制可以基于Transformer结构实现。Transformer结构可以理解为一个根据自注意力机制计算其输入和输出的表示的转换模型。使用交叉注意力机制处理,优化了模型中编码器的性能,从而能够提升目标关节点特征和初始骨骼边特征结合的精度的准确度。
本说明书一个可选的实施例中,还可以利用其他类型的模型进行特征处理,比如神经网络模型等,本说明书实施例在此不作限定。
此外,为了进一步保证骨骼边特征的分辨率,使得引入的骨骼边特征所表示的语义丰富准确,可以对初始骨骼边特征进行映射处理,获得目标骨骼边特征之后,对目标关节点特征和目标骨骼边特征进行处理,具体实现方式如下:
所述根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征之后,还包括:
对所述初始骨骼边特征进行映射处理,获得所述至少两个目标关节点关联的目标骨骼边特征,其中,所述目标骨骼边特征的维度大于所述初始骨骼边特征的维度;
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的目标骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
其中,维度可以包括特征的灰度维度、色彩维度或方向向量维度等。
实际应用中,对初始骨骼边特征进行映射处理,可以通过线性层或卷积层实现。或者,还可以利用拉普拉斯映射等方式,对初始骨骼边特征进行映射处理,将其映射至多维度空间,从而获得该初始骨骼边特征对应的目标骨骼边特征,该目标骨骼边特征的维度大于初始骨骼边特征的维度。比如,对于二维的初始骨骼边特征,可以将其映射至四维空间,从而获得四维的目标骨骼边特征,实现特征拟合。
边特征进行映射处理,获得至少两个目标关节点关联的目标骨骼边特征,对目标关节点对应的目标关节点特征、和目标关节点关联的目标骨骼边特征进行交叉注意力机制处理,根据处理结果确定目标关节点对应的三维坐标。
沿用上例,在确定关节点A和关节点B关联的初始骨骼边特征之后,可以对初始骨骼边特征进行映射处理,获得关节点A和关节点B关联的目标骨骼边特征,并对关节点A对应的目标关节点特征和关节点A关联的目标骨骼边特征进行交叉注意力机制处理,根据处理结果确定关节点A对应的三维坐标,相应地,对关节点B对应的目标关节点特征和关节点B关联的目标骨骼边特征进行交叉注意力机制处理,根据处理结果确定关节点B对应的三维坐标。根据关节点A对应的三维坐标和关节点B对应的三维坐标,构建目标对象的关节点的三维坐标序列。
可以理解的,在对目标关节点特征和目标骨骼边特征进行处理时,也可以通过前述的交叉注意力机制处理或预设融合计算方法实现,在此不再重复赘述。
综上,通过对初始骨骼边特征进行映射处理,获得目标骨骼边特征,实现高阶骨骼边特征的获取,进一步提升骨骼边特征的分辨率和丰富度,使后续三维坐标确定时能够通过更丰富更准确的信息进行,进一步提升人体姿态估计的准确度。
实际应用中,所述根据处理结果确定所述目标对象的关节点的三维坐标序列之后,还包括:
根据所述目标对象的关节点的三维坐标序列,确定所述目标对象的姿态。
具体的,可以利用姿态确定模型,将目标对象的关节点的三维坐标序列输入该姿态确定模型,获得该姿态确定模型输出的目标对象的三维姿态。
实际应用中,前述步骤204至步骤208可以通过坐标预测模型实现,其中,坐标预测模型可以包括特征提取器、上采样模块、下采样模块和融合模块,具体实现方式如下:
所述确定目标对象的关节点的二维坐标序列之后,还包括:
将所述二维坐标序列输入坐标预测模型,获得所述坐标预测模型输出的所述目标对象的关节点的三维坐标序列。
参见图3,图3示出了根据本说明书一个实施例提供的一种目标对象处理方法中坐标预测模型的流程示意图,具体步骤如下。
步骤302:将目标对象的各个关节点的二维坐标序列输入坐标预测模型,经过特征提取器对关节点的二维坐标进行特征提取,获得关节点的第一维度的初始关节点特征。
步骤304:利用下采样模块对第一维度的初始关节点特征进行下采样处理,获得第二维度的初始关节点特征。
步骤306:利用上采样模块对第二维度的初始关节点特征进行上采样处理,获得关节点的目标关节点特征。
步骤308:对至少两个关节点的目标关节点特征进行拼接处理,获得初始骨骼边特征,利用卷积层对初始骨骼边特征进行映射处理,获得目标骨骼边特征。
步骤310:对关节点的目标关节点特征和目标骨骼边特征进行交叉注意力机制处理,获得关节点的融合特征。
步骤312:对融合特征进行上采样处理,获得上采样处理后的融合特征。
步骤314:根据上采样处理后的融合特征确定该关节点对应的三维坐标,根据该关节点对应的三维坐标,构建目标对象的关节点的三维坐标序列并输出。
实际应用中,所述坐标预测模型的训练步骤包括:
确定目标对象的关节点的二维坐标样本集、和所述二维坐标样本集对应的三维坐标序列标签,其中,所述二维坐标样本集包括至少两个关节点对应的二维坐标信息样本;
将所述二维坐标样本集输入坐标预测模型,利用所述坐标预测模型,根据目标关节点对应的二维坐标信息样本,确定所述目标关节点对应的预测目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
根据至少两个目标关节点对应的预测目标关节点特征,确定所述至少两个目标关节点关联的预测初始骨骼边特征;
对所述目标关节点对应的预测目标关节点特征、和所述目标关节点关联的预测初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的预测三维坐标序列;
利用所述预测三维坐标序列和所述三维坐标序列标签,对所述坐标预测模型进行训练,直至获得满足训练停止条件的坐标预测模型。
其中,训练停止条件可以理解为达到预设迭代次数或者坐标预测模型的损失值达到预设损失值阈值。
具体的,可以根据预测三维坐标序列和三维坐标序列标签,计算坐标预测模型的损失值,根据损失值,对坐标预测模型的参数进行调整,直至达到预设迭代次数或者坐标预测模型的损失值达到预设损失值阈值。
此外,在训练坐标预测模型之后,还可以对坐标预测模型进行参数微调,进一步保证坐标预测模型的输出结果的准确度,具体实现方式如下:
所述将所述二维坐标序列输入坐标预测模型,获得所述坐标预测模型输出的所述目标对象的关节点的三维坐标序列之后,还包括:
将所述目标对象的关节点的三维坐标序列展示给用户;
接收用户针对所述三维坐标序列的反馈信息;
根据所述反馈信息对所述坐标预测模型的参数进行调整。
具体的,可以通过端侧设备的展示界面,将坐标预测模型输出的目标对象的关节点的三维坐标序列展示给用户,或者,还可以根据目标对象的关节点的三维坐标序列,构建目标对象的三维姿态之后,将目标对象的三维姿态展示给用户,并接收用户针对该三维坐标序列或者针对该三维姿态的反馈信息,根据反馈信息对该坐标预测模型的参数进行微调。
综上,在对坐标预测模型训练结束之后,还可以根据用户的反馈信息对坐标预测模型的参数进行调整,以进一步提升坐标预测模型的性能。并且,在训练好的坐标预测模型输出的结果仍然不准确的情况下,能够及时发现并调整,避免后续任务的失败。
综上所述,本说明书一个实施例提供了一种目标对象处理方法,确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。上述方法通过确定目标对象的关节点关联的初始骨骼边特征,利用初始骨骼边特征和目标关节点特征的结合确定关节点的三维坐标,能够提升确定的三维坐标的准确度,进一步保证后续人体姿态估计的准确度和精度。
下述结合附图4,以本说明书提供的目标对象处理方法在人体姿态估计的应用为例,对所述目标对象处理方法进行进一步说明。其中,图4示出了本说明书一个实施例提供的一种目标对象处理方法的处理过程流程图,具体包括以下步骤。
步骤402:端侧设备接收用户在姿态确定请求上传框中输入的图像数据,并接收用户针对该姿态确定请求的上传指令,将姿态确定请求发送至云侧设备。
其中,端侧设备向用户展示姿态确定请求上传框。姿态确定请求中携带有图像数据。该图像数据可以是端侧设备拍摄的用户的视频数据中的任意一个视频帧,也可以是其他拍摄设备拍摄的用户的视频数据中的任意一个视频帧并发送至端侧设备,还可以是端侧设备或者其他拍摄设备拍摄的用户的图像。
具体的,用户在端侧设备的展示界面上点击控件“确定”,端侧设备基于用户的点击指令确定用户针对姿态确定请求的上传指令。
步骤404:云侧设备接收该姿态确定请求,并确定图像数据。
步骤406:云侧设备将图像数据输入二维坐标提取模型,获得用户的关节点的二维坐标序列,并根据二维坐标序列,确定用户的关节点的三维坐标序列。
具体的,根据二维坐标序列确定用户的关节点的三维坐标序列,可以根据前述目标对象处理方法进行,在此不再重复赘述。
此外,云侧设备还可以根据用户的关节点的三维坐标序列,确定用户的人体姿态。
步骤408:云侧设备将人体姿态发送至端侧设备。
步骤410:端侧设备对人体姿态进行渲染,并在输出结果展示框中展示给用户。
此外,端侧设备可以接收云侧设备下发的坐标预测模型,利用坐标预测模型在端侧设备对图像数据或视频数据进行处理。具体的,图5示出了本说明书一个实施例提供的一种目标对象处理方法在端侧设备的处理过程流程图,具体步骤如下。
步骤502:端侧设备接收用户在姿态确定请求输入框中输入的图像数据,并接收用户针对该图像数据的姿态确定请求的执行指令,将图像数据输入至坐标预测模型。
其中,端侧设备可以向用户展示姿态确定请求输入框,用户可以在姿态确定请求输入框中输入需要进行姿态确定的图像数据,图像数据可以存储于端侧设备中,可以基于用户在图像数据上传框中的选择指令,确定需要进行姿态确定的图像数据。坐标预测模型可以部署于端侧设备。图像数据可以理解为用户展示用户姿态的图像。
具体的,用户可以在端侧设备的展示界面上点击控件“确定”,端侧设备基于用户的点击指令确定用户针对姿态确定请求的输入指令。
此外,端侧设备接收用户在姿态确定请求输入框中输入的图像数据之后,还可以执行上述目标对象处理方法,确定该图像数据中、用户的关节点的三维坐标序列。在此不再重复赘述。
步骤504:端侧设备接收坐标预测模型输出的用户的关节点的三维坐标序列。
步骤506:端侧设备根据用户的关节点的三维坐标序列,确定用户的人体姿态,并将用户的人体姿态渲染,在输出结果展示框中展示给用户。
综上所述,上述方法通过确定目标对象的关节点关联的初始骨骼边特征,利用初始骨骼边特征和目标关节点特征的结合确定关节点的三维坐标,能够提升确定的三维坐标的准确度,进一步保证后续人体姿态估计的准确度和精度。
与上述方法实施例相对应,本说明书还提供了目标对象处理装置实施例,图6示出了本说明书一个实施例提供的一种目标对象处理装置的结构示意图。如图6所示,该装置包括:
第一确定模块602,被配置为确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;
第二确定模块604,被配置为根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
第三确定模块606,被配置为根据至少两个目标关节点对应的目标关节点特征,确定所述至少两个目标关节点关联的初始骨骼边特征;
处理模块608,被配置为对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
一个可选的实施例中,所述处理模块608,进一步被配置为:
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征;
对所述融合特征进行上采样处理,根据处理结果确定所述目标关节点对应的三维坐标;
根据所述目标关节点对应的三维坐标,构建所述目标对象的关节点的三维坐标序列。
一个可选的实施例中,所述处理模块608,进一步被配置为:
根据交叉注意力机制,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
一个可选的实施例中,所述处理模块608,进一步被配置为:
根据预设融合计算方法,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
一个可选的实施例中,所述第三确定模块606,进一步被配置为:
对至少两个目标关节点对应的目标关节点特征进行拼接处理,获得所述至少两个目标关节点关联的初始骨骼边特征。
一个可选的实施例中,所述第三确定模块606,进一步被配置为:
对所述初始骨骼边特征进行映射处理,获得所述至少两个目标关节点关联的目标骨骼边特征,其中,所述目标骨骼边特征的维度大于所述初始骨骼边特征的维度。
一个可选的实施例中,所述处理模块608,进一步被配置为:
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的目标骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列。
一个可选的实施例中,所述第二确定模块604,进一步被配置为:
对所述目标关节点对应的二维坐标信息进行特征提取,获得所述目标关节点对应的初始关节点特征;
对所述初始关节点特征进行下采样处理和上采样处理,获得所述目标关节点对应的目标关节点特征。
一个可选的实施例中,所述第一确定模块602,进一步被配置为:
确定目标对象的视频数据,并根据所述视频数据,提取所述目标对象的关节点的二维坐标序列。
一个可选的实施例中,所述处理模块608,进一步被配置为:
根据所述目标对象的关节点的三维坐标序列,确定所述目标对象的姿态。
一个可选的实施例中,所述装置还包括输入模块,被配置为:
将所述二维坐标序列输入坐标预测模型,获得所述坐标预测模型输出的所述目标对象的关节点的三维坐标序列。
一个可选的实施例中,所述装置还包括训练模块,被配置为:
确定目标对象的关节点的二维坐标样本集、和所述二维坐标样本集对应的三维坐标序列标签,其中,所述二维坐标样本集包括至少两个关节点对应的二维坐标信息样本;
将所述二维坐标样本集输入坐标预测模型,利用所述坐标预测模型,根据目标关节点对应的二维坐标信息样本,确定所述目标关节点对应的预测目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
根据至少两个目标关节点对应的预测目标关节点特征,确定所述至少两个目标关节点关联的预测初始骨骼边特征;
对所述目标关节点对应的预测目标关节点特征、和所述目标关节点关联的预测初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的预测三维坐标序列;
利用所述预测三维坐标序列和所述三维坐标序列标签,对所述坐标预测模型进行训练,直至获得满足训练停止条件的坐标预测模型。
综上所述,上述装置通过确定目标对象的关节点关联的初始骨骼边特征,利用初始骨骼边特征和目标关节点特征的结合确定关节点的三维坐标,能够提升确定的三维坐标的准确度,进一步保证后续人体姿态估计的准确度和精度。
上述为本实施例的一种目标对象处理装置的示意性方案。需要说明的是,该目标对象处理装置的技术方案与上述的目标对象处理方法的技术方案属于同一构思,目标对象处理装置的技术方案未详细描述的细节内容,均可以参见上述目标对象处理方法的技术方案的描述。
图7示出了根据本说明书一个实施例提供的一种计算设备700的结构框图。该计算设备700的部件包括但不限于存储器710和处理器720。处理器720与存储器710通过总线730相连接,数据库750用于保存数据。
计算设备700还包括接入设备740,接入设备740使得计算设备700能够经由一个或多个网络760通信。这些网络的示例包括公用交换电话网(PSTN,Public SwitchedTelephone Network)、局域网(LAN,Local Area Network)、广域网(WAN,Wide AreaNetwork)、个域网(PAN,Personal Area Network)或诸如因特网的通信网络的组合。接入设备740可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC,networkinterface controller))中的一个或多个,诸如IEEE802.11无线局域网(WLAN,WirelessLocal Area Network)无线接口、全球微波互联接入(Wi-MAX,WorldwideInteroperability for Microwave Access)接口、以太网接口、通用串行总线(USB,Universal Serial Bus)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC,Near FieldCommunication)接口,等等。
在本申请的一个实施例中,计算设备700的上述部件以及图7中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图7所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备700可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或个人计算机(PC,Personal Computer)的静止计算设备。计算设备700还可以是移动式或静止式的服务器。
其中,处理器720用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述目标对象处理方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的目标对象处理方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述目标对象处理方法的技术方案的描述。
本说明书一实施例还提供一种AR/VR设备,包括:存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现上述目标对象处理方法的步骤。
具体的,用户可以在运动时佩戴AR设备或VR设备,该AR设备或VR设备可以执行上述目标对象处理方法,获得用户运动时的关节点三维坐标序列,并根据该关节点三维坐标序列生成用户的人体姿态,通过AR设备或VR设备向用户展示。以使用户能够了解自己运动时的姿态,保证用户体验。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述目标对象处理方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的目标对象处理方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述目标对象处理方法的技术方案的描述。
本说明书一实施例还提供一种计算机程序,其中,当所述计算机程序在计算机中执行时,令计算机执行上述目标对象处理方法的步骤。
上述为本实施例的一种计算机程序的示意性方案。需要说明的是,该计算机程序的技术方案与上述的目标对象处理方法的技术方案属于同一构思,计算机程序的技术方案未详细描述的细节内容,均可以参见上述目标对象处理方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据专利实践的要求进行适当的增减,例如在某些地区,根据专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书实施例并不受所描述的动作顺序的限制,因为依据本说明书实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书实施例的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (12)
1.一种目标对象处理方法,应用于用户的运动姿态评估场景,包括:
确定目标对象的关节点的二维坐标序列,其中,所述二维坐标序列包括至少两个关节点对应的二维坐标信息;
根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点,所述目标关节点特征根据所述目标关节点对应的初始关节点特征确定,所述初始关节点特征根据特征提取器对所述二维坐标信息进行特征提取得到,所述特征提取器包括多头自注意力机制和邻接矩阵,所述邻接矩阵用于描述人体骨骼结构之间的连接关系;
对至少两个目标关节点对应的目标关节点特征进行拼接处理,或者对所述至少两个目标关节点的最短路径上的目标关节点的目标关节点特征进行相加、相减或相乘处理,获得所述至少两个目标关节点关联的初始骨骼边特征;
对所述初始骨骼边特征进行映射处理,获得所述至少两个目标关节点关联的目标骨骼边特征,其中,所述目标骨骼边特征的维度大于所述初始骨骼边特征的维度;
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的目标骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列;
根据所述三维坐标序列,确定用户运动姿态,将所述用户运动姿态与参考运动姿态进行对比,确定所述用户运动姿态是否标准,并根据所述三维坐标序列中的各个关节点坐标之间的距离,确定所述用户的肢体动作是否符合需求。
2.根据权利要求1所述的方法,所述对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的三维坐标序列,包括:
对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征;
对所述融合特征进行上采样处理,根据处理结果确定所述目标关节点对应的三维坐标;
根据所述目标关节点对应的三维坐标,构建所述目标对象的关节点的三维坐标序列。
3.根据权利要求2所述的方法,所述对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征,包括:
根据交叉注意力机制,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
4.根据权利要求2所述的方法,所述对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征,包括:
根据预设融合计算方法,对所述目标关节点对应的目标关节点特征、和所述目标关节点关联的初始骨骼边特征进行融合处理,获得所述目标关节点对应的融合特征。
5.根据权利要求1所述的方法,所述根据目标关节点对应的二维坐标信息,确定所述目标关节点对应的目标关节点特征,包括:
对所述目标关节点对应的二维坐标信息进行特征提取,获得所述目标关节点对应的初始关节点特征;
对所述初始关节点特征进行下采样处理和上采样处理,获得所述目标关节点对应的目标关节点特征。
6.根据权利要求1所述的方法,所述确定目标对象的关节点的二维坐标序列,包括:
确定目标对象的视频数据,并根据所述视频数据,提取所述目标对象的关节点的二维坐标序列。
7.根据权利要求1所述的方法,所述根据处理结果确定所述目标对象的关节点的三维坐标序列之后,还包括:
根据所述目标对象的关节点的三维坐标序列,确定所述目标对象的姿态。
8.根据权利要求1所述的方法,所述确定目标对象的关节点的二维坐标序列之后,还包括:
将所述二维坐标序列输入坐标预测模型,获得所述坐标预测模型输出的所述目标对象的关节点的三维坐标序列。
9.根据权利要求8所述的方法,所述坐标预测模型的训练步骤包括:
确定目标对象的关节点的二维坐标样本集、和所述二维坐标样本集对应的三维坐标序列标签,其中,所述二维坐标样本集包括至少两个关节点对应的二维坐标信息样本;
将所述二维坐标样本集输入坐标预测模型,利用所述坐标预测模型,根据目标关节点对应的二维坐标信息样本,确定所述目标关节点对应的预测目标关节点特征,其中,所述目标关节点为所述至少两个关节点中的任意一个关节点;
根据至少两个目标关节点对应的预测目标关节点特征,确定所述至少两个目标关节点关联的预测初始骨骼边特征;
对所述目标关节点对应的预测目标关节点特征、和所述目标关节点关联的预测初始骨骼边特征进行处理,根据处理结果确定所述目标对象的关节点的预测三维坐标序列;
利用所述预测三维坐标序列和所述三维坐标序列标签,对所述坐标预测模型进行训练,直至获得满足训练停止条件的坐标预测模型。
10.一种AR/VR设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至9任意一项所述方法的步骤。
11.一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至9任意一项所述方法的步骤。
12.一种计算机可读存储介质,其存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现权利要求1至9任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310353616.6A CN116386087B (zh) | 2023-03-31 | 2023-03-31 | 目标对象处理方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310353616.6A CN116386087B (zh) | 2023-03-31 | 2023-03-31 | 目标对象处理方法以及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116386087A CN116386087A (zh) | 2023-07-04 |
CN116386087B true CN116386087B (zh) | 2024-01-09 |
Family
ID=86961123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310353616.6A Active CN116386087B (zh) | 2023-03-31 | 2023-03-31 | 目标对象处理方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116386087B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117935810A (zh) * | 2023-10-30 | 2024-04-26 | 天津引辉科技有限公司 | 语音智能识别方法和*** |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113438A (ja) * | 2010-11-22 | 2012-06-14 | Nippon Hoso Kyokai <Nhk> | 姿勢推定装置および姿勢推定プログラム |
CN111950412A (zh) * | 2020-07-31 | 2020-11-17 | 陕西师范大学 | 一种序列多尺度深度特征融合的层级舞蹈动作姿态估计方法 |
CN112884780A (zh) * | 2021-02-06 | 2021-06-01 | 罗普特科技集团股份有限公司 | 一种用于人体姿态的估计方法和*** |
CN113315972A (zh) * | 2021-05-19 | 2021-08-27 | 西安电子科技大学 | 基于层级知识表达的视频语义通信方法及*** |
US11182924B1 (en) * | 2019-03-22 | 2021-11-23 | Bertec Corporation | System for estimating a three dimensional pose of one or more persons in a scene |
CN113705520A (zh) * | 2021-09-03 | 2021-11-26 | 广州虎牙科技有限公司 | 动作捕捉方法、装置及服务器 |
CN113837005A (zh) * | 2021-08-20 | 2021-12-24 | 广州杰赛科技股份有限公司 | 一种人体跌倒的检测方法、装置、存储介质及终端设备 |
CN114582030A (zh) * | 2022-05-06 | 2022-06-03 | 湖北工业大学 | 一种基于服务机器人的行为识别方法 |
CN114708649A (zh) * | 2022-03-10 | 2022-07-05 | 广州大学 | 基于集成学习方法融合时间注意力图卷积的行为识别方法 |
CN114792401A (zh) * | 2021-01-26 | 2022-07-26 | ***通信有限公司研究院 | 行为识别模型的训练方法、装置、设备及存储介质 |
CN115223201A (zh) * | 2022-07-15 | 2022-10-21 | 安徽大学 | 基于单目序列图像的三维人体关节点估算方法、***及装置 |
CN115482481A (zh) * | 2022-06-14 | 2022-12-16 | 中国科学院重庆绿色智能技术研究院 | 单视角三维人体骨骼关键点检测方法、装置、设备及介质 |
CN115661916A (zh) * | 2021-07-07 | 2023-01-31 | 阿里巴巴新加坡控股有限公司 | 信息处理方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8571278B2 (en) * | 2005-06-24 | 2013-10-29 | The University Of Iowa Research Foundation | System and methods for multi-object multi-surface segmentation |
-
2023
- 2023-03-31 CN CN202310353616.6A patent/CN116386087B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113438A (ja) * | 2010-11-22 | 2012-06-14 | Nippon Hoso Kyokai <Nhk> | 姿勢推定装置および姿勢推定プログラム |
US11182924B1 (en) * | 2019-03-22 | 2021-11-23 | Bertec Corporation | System for estimating a three dimensional pose of one or more persons in a scene |
CN111950412A (zh) * | 2020-07-31 | 2020-11-17 | 陕西师范大学 | 一种序列多尺度深度特征融合的层级舞蹈动作姿态估计方法 |
CN114792401A (zh) * | 2021-01-26 | 2022-07-26 | ***通信有限公司研究院 | 行为识别模型的训练方法、装置、设备及存储介质 |
CN112884780A (zh) * | 2021-02-06 | 2021-06-01 | 罗普特科技集团股份有限公司 | 一种用于人体姿态的估计方法和*** |
CN113315972A (zh) * | 2021-05-19 | 2021-08-27 | 西安电子科技大学 | 基于层级知识表达的视频语义通信方法及*** |
CN115661916A (zh) * | 2021-07-07 | 2023-01-31 | 阿里巴巴新加坡控股有限公司 | 信息处理方法和装置 |
CN113837005A (zh) * | 2021-08-20 | 2021-12-24 | 广州杰赛科技股份有限公司 | 一种人体跌倒的检测方法、装置、存储介质及终端设备 |
CN113705520A (zh) * | 2021-09-03 | 2021-11-26 | 广州虎牙科技有限公司 | 动作捕捉方法、装置及服务器 |
CN114708649A (zh) * | 2022-03-10 | 2022-07-05 | 广州大学 | 基于集成学习方法融合时间注意力图卷积的行为识别方法 |
CN114582030A (zh) * | 2022-05-06 | 2022-06-03 | 湖北工业大学 | 一种基于服务机器人的行为识别方法 |
CN115482481A (zh) * | 2022-06-14 | 2022-12-16 | 中国科学院重庆绿色智能技术研究院 | 单视角三维人体骨骼关键点检测方法、装置、设备及介质 |
CN115223201A (zh) * | 2022-07-15 | 2022-10-21 | 安徽大学 | 基于单目序列图像的三维人体关节点估算方法、***及装置 |
Non-Patent Citations (4)
Title |
---|
2D/3D Pose Estimation and Action Recognition using Multitask Deep Learning;Diogo C. Luvizon 等;《arXiv:1802.09232v1》;1-12 * |
Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh Recovery from a 2D Human Pose;Hongsuk Choi 等;《ECCV 2020: Computer Vision》;1-18 * |
三维人体姿态估计研究综述;王发明 等;《计算机工程与应用》;1-15 * |
复杂背景下低空慢速红外无人机目标检测方法研究;张宇;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》(第2期);C031-163 * |
Also Published As
Publication number | Publication date |
---|---|
CN116386087A (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11854118B2 (en) | Method for training generative network, method for generating near-infrared image and device | |
Chen et al. | Fsrnet: End-to-end learning face super-resolution with facial priors | |
CN109961507B (zh) | 一种人脸图像生成方法、装置、设备及存储介质 | |
CN108895981B (zh) | 一种三维测量方法、装置、服务器和存储介质 | |
WO2021135827A1 (zh) | 视线方向确定方法、装置、电子设备及存储介质 | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
CN111401318B (zh) | 动作识别方法及装置 | |
CN110458924B (zh) | 一种三维脸部模型建立方法、装置和电子设备 | |
CN115345980A (zh) | 个性化纹理贴图的生成方法及装置 | |
CN116386087B (zh) | 目标对象处理方法以及装置 | |
CN114972958B (zh) | 关键点检测方法、神经网络的训练方法、装置和设备 | |
WO2024001095A1 (zh) | 面部表情识别方法、终端设备及存储介质 | |
CN114782661B (zh) | 下半身姿态预测模型的训练方法及装置 | |
CN115769260A (zh) | 基于光度测量的3d对象建模 | |
CN114445562A (zh) | 三维重建方法及装置、电子设备和存储介质 | |
CN117218246A (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN116342782A (zh) | 生成虚拟形象渲染模型的方法和装置 | |
CN115527011A (zh) | 基于三维模型的导航方法及装置 | |
CN116452715A (zh) | 动态人手渲染方法、装置及存储介质 | |
CN115775300A (zh) | 人体模型的重建方法、人体重建模型的训练方法及装置 | |
CN117916773A (zh) | 用于在移动设备中同时重建姿态和参数化3d人体模型的方法和*** | |
CN115994944A (zh) | 三维关键点预测方法、训练方法及相关设备 | |
CN116612495B (zh) | 图像处理方法及装置 | |
CN113592875A (zh) | 数据处理方法、图像处理方法、存储介质及计算设备 | |
CN116645468B (zh) | 人体三维建模方法、训练人体结构生成模型的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |