CN1731316A - 虚拟猿戏的人机交互方法 - Google Patents

虚拟猿戏的人机交互方法 Download PDF

Info

Publication number
CN1731316A
CN1731316A CNA2005100862540A CN200510086254A CN1731316A CN 1731316 A CN1731316 A CN 1731316A CN A2005100862540 A CNA2005100862540 A CN A2005100862540A CN 200510086254 A CN200510086254 A CN 200510086254A CN 1731316 A CN1731316 A CN 1731316A
Authority
CN
China
Prior art keywords
ape
participant
game
action
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2005100862540A
Other languages
English (en)
Inventor
齐越
沈旭昆
赵沁平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CNA2005100862540A priority Critical patent/CN1731316A/zh
Publication of CN1731316A publication Critical patent/CN1731316A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

虚拟猿戏的人机交互方法,采用运动捕获设备获取真实运动员表演猿戏的运动数据,然后构造出3D虚拟环境和虚拟人,并通过3D图形引擎,将真实人的运动数据赋予到虚拟人身上,实现猿戏的虚拟再现;在猿戏的虚拟再现过程中,根据猿戏动作设定了三个关卡,利用计算机视觉技术,实时拍摄、识别参与者的动作信息,如果参与者模仿正确,则通过该关卡,并利用变形技术将参与者动作影像变形到有相应动作的猿上;三个关卡都通过后,***结束,返回初始状态;如果在给定时间范围内,参与者不能正确模仿,则整个模仿过程失败,***返回初始状态。本发明不需要参与者穿戴任何交互设备,从而实现参与者与虚拟猿戏自然的人机交互,达到寓教寓乐的目的。

Description

虚拟猿戏的人机交互方法
技术领域
本发明涉及一种广泛应用与科技馆和博物馆数字展示方式中的虚拟猿戏的人机交互方法,属于计算机虚拟现实技术领域。
背景技术
目前,在科技馆、博物馆中,很多展品都使用计算机技术进行展示,为了增强用户的参与性,还提供一些人机交互手段。在这种大众参与的场合,如果采用复杂的人机交互设备,如头盔、数据手套等实现人机交互,不仅设备昂贵,而且用户穿戴不方便,交互方式不自然。为了实现更加和谐、自然的人机交互,一些***采用计算机视觉的研究成果,通过分析人体运动的视频信息,实现人机交互。如美国卡内基梅隆大学构造的虚拟跳舞***,如Liu Ren1,Gregory Shakhnarovich2,Jessica K.Hodgins1.LearningSilhouette Features for Control of Human Motion.Technical Report ofCarnegie Mellon University,July 2004介绍的,其使用3架摄像机拍摄一个真实人体运动情况,然后提取人体运动轮廓,并与模板库中的模板进行比较,获取人体运动信息,最后用这些信息实时驱动3D虚拟环境中的虚拟人实现虚拟跳舞。2002年在北京世纪坛举办的达利画展中,有一件数字展品采用计算机显示达利的绘画作品,并用摄像机捕获参与者手部运动信息,所显示的作品随参与者手部运动不断变化,从而实现人机交互。
利用计算机视觉技术实现人机交互的关键是识别参与者的动作信息。准确地分析人体运动姿态需要建立复杂的人体模型,如S.Yonemoto,N.Tsuruta,and R.Taniguchi.Tracking of 3D multi-part objects usingmultipie viewpoint time-varying sequences.In Proc.Int.Conf.PatternRecognition,pages 490-494,1998介绍的和T.Nunomaki,S.Yonemoto,D.Arita,R.Taniguchi,and N.Tsuruta.Multi-part non-rigid object trackingbased on time model-space gradients.In Proc.Int.Workshop ArticulatedMotion and Deformable Objects,pages 720-82,2002介绍的、L.Herda,P.Fua,R.Plankers,R.Boulic,and D.Thalmann.Skeleton-Based MotionCapture for Robust Reconstruction of Human Motion.In Proc.ComputerAnimation,pages 77-83,2000介绍的均需要大量的计算,因而***难以实现实时识别。为了实时分析人体运动,一般采用简化的人体模型,目前主要是采用人体轮廓区域分析的方法,如M.K.Leung and Y-H.Yang.First sight:a human body outline Iabeling system.IEEE Trans.Pattern Analysis andMachine Intelligence,(17)4:359-377,1995介绍的和K.Takahashi,T.Sakaguchi,and J.Ohya.Remarks on a real-time 3D human body postureestimation method using trinocular images.In Proc.Int.Conf.PatternRecognition,Vol.4,pages 693-697,2000介绍的,这些文献的不足均从有限的图像信息中估计出人体运动姿态。
我国学者按照《三国志·魏书·方伎传》中说华佗通过观察动物的运动,根据不同动物活动的特点,分别把五种禽兽(包括猿、鹰、虎、熊、鹿)的代表性形态动作,按照锻炼身体的要求,加以编排,发明了“五禽戏”(包括猿戏、鹰戏、虎戏、熊戏、鹿戏)。“五禽戏”的问世,标志着我国古代导引术发展到一个崭新的水平。但目前的虚拟现实方法是用户需要穿戴交互设备,才能再现了“五禽戏”中的“猿戏”,使用起来很不方便。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种自然的人机交互方式,用户不必穿戴任何交互设备,也不必使用键盘、鼠标等传统交互设备,即可参与“猿戏”,达到寓教寓乐的目的的虚拟猿戏的人机交互方法。
本发明的技术解决方案:虚拟猿戏的人机交互方法,其特点在于它包括以下步骤:
(1)由真实的运动员表演全套的猿戏动作,采用运动捕获设备获取人体的运动数据;
(2)运用商用3D建模软件构造3D虚拟场景和虚拟人物,并利用3D图形引擎将捕获的猿戏运动数据赋予虚拟人身上,实现猿戏的虚拟再现;
(3)在虚拟猿戏的播放过程中,按照动作的难易程度设定三个关卡,当虚拟猿戏播放到每个关卡时,播放过程暂停,要求参与者对虚拟猿戏的当前动作进行模仿,参与者动作信息由安装在其前面的摄像机实时捕获;
(4)虚拟猿戏***对参与者的动作进行识别,如果参与者模仿正确,则***采用变形方法,将参与者所做动作的影像渐变到相应的真实猿动作上,然后是一段真实猿在大自然中欢腾跳跃的视频,这关卡通过后,***继续播放猿戏,直至到下一关卡,继续按照步骤(4)运行;如果参与者通过三个关卡,则模仿成功,***返回初始状态;
(5)如果参与者在规定时间内无法正确模仿猿戏动作,则模仿失败,***返回初始状态。
上述步骤(4)中所述的动作识别方法是:
(1)针对要识别的三个动作,建立标准动作模板库;
(2)提取参与者的影像,参与者在蓝色背景前进行猿戏动作模仿,***拍摄观众的图像,该图像减去没有观众时的蓝色背景图像,从而实现参与者影像的实时提取;
(3)识别参与者动作。
上述步骤(3)采用模版匹配的方法进行识别,先对采集的参与者动作图像进行归一化处理,将图像大小和人物在图像中位置进行统一,然后将归一化的图像与模板库中相应的模板进行比较,如果满足所制定的匹配条件,则表明参与者动作正确,否则失败。
上述步骤(2)中的3D图形引擎的步骤和方法如下:
(1)先载入用3DS MAX建造的3D场景和虚拟人模型数据,然后进行绘制;
(2)对于虚拟人的运动绘制,根据运动捕获设备获取真实运动员表演猿戏的运动数据,按照虚拟人的骨骼和皮肤位置绘制每一帧,实现连续的虚拟人猿戏表演绘制。
上述步骤(4)中的变形方法如下:通过上述步骤(3)中所述的匹配方法,建立参与者所做动作的影像和相应的真实猿动作影像之间的对应关系,采用基于域的图像变形技术,实现由参与者影像到真实猿图像之间的连续变形。
本发明的人机交互方式与现有交互方式相比,其有益效果是:用户不需要使用任何交互设备,只需通过肢体动作便可实现虚拟猿戏的人机交互,十分自然即可参与到“虚拟猿戏”过程中,达到寓教寓乐的目的。这种交互方法可以广泛应用与科技馆、博物馆的数字展示方式中。
附图说明
图1示出本发明虚拟猿戏的人机交互方法主要流程图;
图2示出本发明的***配置图;
图3示出本发明的动作识别方法图;
图4示出本发明的3D图形引擎结构图;
图5示出本发明的图像变形算法图。
表1示出本发明的判断用户动作正确与否的尺度标准。
具体实施方式
如图1所示,本发明的虚拟猿戏的人机交互方法采用如下步骤:
(1)猿戏的虚拟再现,采用运动捕获设备获取真实运动员表演猿戏的动作数据。
(2)采用商业建模软件,如3DS MAX、Maya构造3D虚拟场景和虚拟人,然后将所获取的猿戏运动数据赋予到虚拟人上,利用开发的3D图形引擎虚拟再现猿戏的全过程。
3D图形引擎结构如图4所示,3D模型利用3DS MAX构造。3DS MAX是最常用的建模软件之一,它采用一种开放的架构,其大部分内容都是由插件构成的,开发人员可以根据自己的需求编写相应的插件。图4中场景导出插件负责从3DS MAX中获取3D模型数据,并保存在相应文件中。渲染管理模块首先载入这个文件,将3D虚拟场景和虚拟人的模型数据放到所定义的数据结构中,然后进行绘制;对于虚拟人的运动绘制,根据运动捕获设备获取真实运动员表演猿戏的运动数据中所定义的虚拟人骨骼和皮肤的位置进行绘制,这是一个动态过程,从而实现连续的虚拟人猿戏表演绘制。这样就可以输出一段连续的虚拟人运动。
(3)在虚拟猿戏的播放过程中,按照动作的难易程度设定三个关卡,当虚拟猿戏播放到每个关卡时,播放过程暂停,要求参与者对虚拟猿戏的当前动作进行模仿,参与者动作信息由安装在其前面的摄像机实时捕获。
(4)虚拟猿戏***对参与者的动作进行识别,如果参与者模仿正确,则***采用变形方法,将参与者所做动作的影像渐变到相应的真实猿动作上,然后是一段真实猿在大自然中欢腾跳跃的视频,这关卡通过后,***继续播放猿戏,直至到下一关卡,继续按照步骤(4)运行;如果参与者通过三个关卡,则模仿成功,***返回初始状态。该步骤主要包括下面五个技术要点:
(i)建立标准的动作模板库。如图3所示,要识别的动作共有三个,分别对应3个动作模板文件act1.txt,act2.txt,act3.txt。将人体分成8个部分,图3中红色部分是所要识别动作的各个部分。这8个区域的图像信息都记录在相应的模板库文件中。
(ii)虚拟猿戏***构建。整个***搭建如图2所示,参与者站在蓝色背景前面,距其约4米的距离放置一块大屏幕显示器,显示器上面是一个摄像机。显示器和摄像机都由计算机进行控制。***先播放全套猿戏动作的3D动画,让观众比较全面地了解猿戏。接着分段播放,并按照猿戏动作的难易程度设定三个关卡。当虚拟猿戏播放到每个关卡时,播放过程暂停,此时参与者要对其进行模仿,参与者动作由安装在其前面的摄像机进行捕获。计算机和摄像机通过视频采集卡相连。本发明采用的视频采集卡型号是DahengCG300 Video Capture,摄像机型号是SAERIM DSP 220X DlGITALZOOM(COLOR CAMERA)。
(iii)实时提取参与者的轮廓信息。用所拍摄参与者图像减去没有观众在场的蓝色背景图像,从而实现参与者轮廓的实时提取。为了便于两幅图像相减,图像都采用HSV格式。
(iv)对参与者的动作进行识别。采用模版匹配的方法进行识别,具体做法是:
a.缩小变换:将参与者的轮廓图像缩小至64*64的分辨率,即参与者轮廓的高度必须是64个像素。这样可以避免不同参与者高度不同而引起的识别失败问题。
b.平移变换:将参与者的轮廓在64*64的图像上进行平移,使得人头部的左边或右边在图像的中间位置,即在第32个像素点的位置。这样可以避免因参与者所站位置的不同而引起的识别错误问题。
c.动作的区间信息:将参与者的动作按照图3所示分成各个部分,如头部,身体,左右手等,并且记录各个部分的位置区间,存放在文件act1.txt,act2.txt,act3.txt,中。这些文件的每行是一个部位的区间,以格式:x1.y1.x2.y2.x3.y3.x4.y4存放,其中,(x1,y1)是区间左上角位置坐标,(x2,y2)是区间右上角位置坐标,(x3,y3)是区间左下角位置坐标,(x4,y4)是区间右下角位置坐标。每个动作的识别使用了8个区域的信息。下面是所要识别的3个动作的各个部位说明:
d.act1:头部,躯干,左右手,左右腿的位置,以及左右手的限制区域;
e.act2:头部,躯干,左右手,腰部,腿部,以及左右手的限制区域;
f.act3:头部,躯干,左右手,腰部,腿部,以及左右手的限制区域。
g.动作的像素信息:计算标准动作的各部分在各区间中的像素数目(以64*64的分辨率为标准),以此作为判断用户动作正确与否的尺度。具体标准如表1所示。
                                表1
  ACT1(像素个数)   ACT2(像素个数)   ACT3(像素个数)
  区域1   >50   >90   >75
  区域2   >200   >250   >150
  区域3   >250   >20   >40
  区域4   <230   >40   >50
  区域5   >20   >100   >120
  区域6   >20   >250   >150
  区域7   <5   <5   <5
  区域8   <5   <5   <5
  人体高度   降低20   降低40   降低15
(v)***采用的变形方法,实现过程如下:
如图5,假设变形图像中的一点X在源图像中的匹配点是X’,X’的位置通过加权平均X到每一条特征线段PQ的距离决定。对每一条源图像中的线段P’Q’,X、X’和PQ满足:
u = ( X - P ) · ( Q - P ) | | Q - P | | 2
v = ( X - P ) · Perpend ( Q - P ) | | Q - P | |
X ′ = P ′ + u · ( Q ′ - P ′ ) + v · Perpend ( Q ′ - P ′ ) | | Q ′ - P ′ | |
其中Perpend(●)表示垂直向量。
每一特征线段对最终X’的确定所起的作用由下式计算:
weight = ( length p a + dist ) b
其中,length是线段长度,dist是像素到当前线段的最短距离;a是线段影响的强度系数,a越小线段影响的强度越大;b表示不同线段影响强度随距离的增加而减少,当b=0时,所有线段有相同的影响;p表示线段长度对权重的影响,如果p=0,则所有线段有相同的权重,如果p=1,则较长的线段有较高的权重。
算法过程如下:
对于目标图像中的每一个像素点X
DSUM=(0,0);
weightsum=0;
对于每条线PiQi
基于PiQi计算u,v
基于u,v和Pi′Qi′计算X’
在这条线上计算Di=Xi′-Xi
dist=从X到PiQi的最短距离
weight = ( length p a + dist ) b
DSUM+=Di*weight
weightsum+=weight
X’=X+DSUM/weightsum
destinationlmage(X)=sourcelmage(X’)
End
(5)如果参与者在规定时间内无法正确模拟猿戏动作,则模仿失败,***返回初始状态。

Claims (5)

1、虚拟猿戏的人机交互方法,其特征在于它包括以下步骤:
(1)由真实的运动员表演全套的猿戏动作,采用运动捕获设备获取人体的运动数据;
(2)运用商用3D建模软件构造3D虚拟场景和虚拟人物,并利用3D图形引擎将捕获的猿戏运动数据赋予虚拟人身上,实现猿戏的虚拟再现;
(3)在虚拟猿戏的播放过程中,按照动作的难易程度设定三个关卡,当虚拟猿戏播放到每个关卡时,播放过程暂停,要求参与者对虚拟猿戏的当前动作进行模仿,参与者动作信息由安装在其前面的摄像机实时捕获;
(4)虚拟猿戏***对参与者的动作进行识别,如果参与者模仿正确,则***采用变形方法,将参与者所做动作的影像渐变到相应的真实猿动作上,然后是一段真实猿在大自然中欢腾跳跃的视频,这关卡通过后,***继续播放猿戏,直至到下一关卡,继续按照步骤(4)运行;如果参与者通过三个关卡,则模仿成功,***返回初始状态;
(5)如果参与者在规定时间内无法正确模仿猿戏动作,则模仿失败,***返回初始状态。
2、如权利要求1所述的虚拟猿戏的人机交互方法,其特征在于:在所述步骤(4)中所述的动作识别方法是:
(1)针对要识别的三个动作,建立标准动作模板库;
(2)提取参与者的影像,参与者在蓝色背景前进行猿戏动作模仿,***拍摄观众的图像,该图像减去没有观众时的蓝色背景图像,从而实现参与者影像的实时提取;
(3)识别参与者动作。
3、如权利要求1所述的虚拟猿戏的人机交互方法,其特征在于:所述步骤(3)采用模版匹配的方法进行识别,先对采集的参与者动作图像进行归一化处理,将图像大小和人物在图像中位置进行统一,然后将归一化的图像与模板库中相应的模板进行比较,如果满足所制定的匹配条件,则表明参与者动作正确,否则失败。
4、如权利要求1所述的虚拟猿戏的人机交互方法,其特征在于:所述步骤(2)中的3D图形引擎的步骤和方法如下:
(1)先载入用3DS MAX建造的3D场景和虚拟人模型数据,然后进行绘制;
(2)对于虚拟人的运动绘制,根据运动捕获设备获取真实运动员表演猿戏的运动数据,按照虚拟人的骨骼和皮肤位置绘制每一帧,实现连续的虚拟人猿戏表演绘制。
5、如权利要求1所述的虚拟猿戏的人机交互方法,其特征在于:所述步骤(4)中的变形方法如下:通过步骤(3)中所述的匹配方法,建立参与者所做动作的影像和相应的真实猿动作影像之间的对应关系,采用基于域的图像变形技术,实现由参与者影像到真实猿图像之间的连续变形。
CNA2005100862540A 2005-08-19 2005-08-19 虚拟猿戏的人机交互方法 Pending CN1731316A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2005100862540A CN1731316A (zh) 2005-08-19 2005-08-19 虚拟猿戏的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2005100862540A CN1731316A (zh) 2005-08-19 2005-08-19 虚拟猿戏的人机交互方法

Publications (1)

Publication Number Publication Date
CN1731316A true CN1731316A (zh) 2006-02-08

Family

ID=35963686

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2005100862540A Pending CN1731316A (zh) 2005-08-19 2005-08-19 虚拟猿戏的人机交互方法

Country Status (1)

Country Link
CN (1) CN1731316A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090042695A1 (en) * 2007-08-10 2009-02-12 Industrial Technology Research Institute Interactive rehabilitation method and system for movement of upper and lower extremities
CN101947386A (zh) * 2010-09-21 2011-01-19 浙江大学 基于空间位置推算技术玩音乐指挥家类游戏的实现方法和装置
CN102136070A (zh) * 2010-01-22 2011-07-27 财团法人工业技术研究院 姿势辨识方法与***,及其计算机程序产品
CN102448561A (zh) * 2009-05-29 2012-05-09 微软公司 姿势教练
CN101202994B (zh) * 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
CN101564594B (zh) * 2008-04-25 2012-11-07 财团法人工业技术研究院 交互式肢体动作复健方法与***
CN103179437A (zh) * 2013-03-15 2013-06-26 苏州跨界软件科技有限公司 虚拟人物视频录制及播放***和方法
CN103327235A (zh) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 图像处理装置以及图像处理方法
CN103325134A (zh) * 2012-03-23 2013-09-25 天津生态城动漫园投资开发有限公司 一种实时立体动画(2k)创作平台
WO2016107226A1 (zh) * 2014-12-29 2016-07-07 深圳Tcl数字技术有限公司 图像处理方法及装置
CN108307183A (zh) * 2018-02-08 2018-07-20 广州华影广告有限公司 虚拟场景可视化方法及***
CN110531854A (zh) * 2019-08-27 2019-12-03 深圳创维-Rgb电子有限公司 一种动作模仿显示方法、动作模仿显示***及存储介质
CN115292548A (zh) * 2022-09-29 2022-11-04 合肥市满好科技有限公司 一种基于虚拟技术的戏曲宣传方法、***和宣传平台

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101202994B (zh) * 2006-12-14 2012-10-24 北京三星通信技术研究有限公司 辅助用户健身的方法和装置
US20140295393A1 (en) * 2007-08-10 2014-10-02 Industrial Technology Research Institute Interactive rehabilitation method and system for movement of upper and lower extremities
US20090042695A1 (en) * 2007-08-10 2009-02-12 Industrial Technology Research Institute Interactive rehabilitation method and system for movement of upper and lower extremities
CN101564594B (zh) * 2008-04-25 2012-11-07 财团法人工业技术研究院 交互式肢体动作复健方法与***
CN102448561A (zh) * 2009-05-29 2012-05-09 微软公司 姿势教练
CN102448561B (zh) * 2009-05-29 2013-07-10 微软公司 姿势教练
CN102136070B (zh) * 2010-01-22 2013-10-30 财团法人工业技术研究院 姿势辨识方法与***,及其计算机程序产品
CN102136070A (zh) * 2010-01-22 2011-07-27 财团法人工业技术研究院 姿势辨识方法与***,及其计算机程序产品
CN101947386A (zh) * 2010-09-21 2011-01-19 浙江大学 基于空间位置推算技术玩音乐指挥家类游戏的实现方法和装置
CN103327235A (zh) * 2012-03-21 2013-09-25 卡西欧计算机株式会社 图像处理装置以及图像处理方法
CN103325134A (zh) * 2012-03-23 2013-09-25 天津生态城动漫园投资开发有限公司 一种实时立体动画(2k)创作平台
CN103179437A (zh) * 2013-03-15 2013-06-26 苏州跨界软件科技有限公司 虚拟人物视频录制及播放***和方法
WO2016107226A1 (zh) * 2014-12-29 2016-07-07 深圳Tcl数字技术有限公司 图像处理方法及装置
CN105809653A (zh) * 2014-12-29 2016-07-27 深圳Tcl数字技术有限公司 图像处理方法及装置
CN105809653B (zh) * 2014-12-29 2019-01-01 深圳Tcl数字技术有限公司 图像处理方法及装置
CN108307183A (zh) * 2018-02-08 2018-07-20 广州华影广告有限公司 虚拟场景可视化方法及***
CN110531854A (zh) * 2019-08-27 2019-12-03 深圳创维-Rgb电子有限公司 一种动作模仿显示方法、动作模仿显示***及存储介质
CN115292548A (zh) * 2022-09-29 2022-11-04 合肥市满好科技有限公司 一种基于虚拟技术的戏曲宣传方法、***和宣传平台
CN115292548B (zh) * 2022-09-29 2022-12-09 合肥市满好科技有限公司 一种基于虚拟技术的戏曲宣传方法、***和宣传平台

Similar Documents

Publication Publication Date Title
CN1731316A (zh) 虚拟猿戏的人机交互方法
WO2021129064A1 (zh) 姿态获取方法、关键点坐标定位模型的训练方法和装置
Singh et al. Video benchmarks of human action datasets: a review
CN106650687B (zh) 一种基于深度信息和骨骼信息的姿势矫正方法
Negin et al. A decision forest based feature selection framework for action recognition from rgb-depth cameras
CN106843460B (zh) 基于多摄像头的多目标位置捕获定位***及方法
CN101853399B (zh) 利用计算机视觉技术进行盲道和人行横道实时检测的方法
CN107292813A (zh) 一种基于生成对抗网络的多姿态人脸生成方法
CN110929596A (zh) 一种基于智能手机和人工智能的投篮训练***与方法
CN105107200B (zh) 基于实时深度体感交互与增强现实技术的变脸***及方法
Chen et al. Computer-assisted self-training system for sports exercise using kinects
CN102800126A (zh) 基于多模态融合的实时人体三维姿态恢复的方法
CN109766856A (zh) 一种双流RGB-D Faster R-CNN识别哺乳母猪姿态的方法
CN106599770A (zh) 一种基于体感动作识别及抠像的滑雪场景显示方法
CN107220608B (zh) 一种篮球动作模型重建和防守的指导***及方法
CN1949274A (zh) 一种虚拟人群运动的三维可视化方法
CN111259950B (zh) 一种基于3d模型训练yolo神经网络的方法
CN110298279A (zh) 一种肢体康复训练辅助方法及***、介质、设备
CN110084192A (zh) 基于目标检测的快速动态手势识别***及方法
CN110743160B (zh) 基于体感捕捉设备的实时步伐跟踪***及步伐生成方法
Aloba et al. Kinder-Gator: The UF Kinect Database of Child and Adult Motion.
Zhang et al. Research on volleyball action standardization based on 3D dynamic model
CN103310191A (zh) 运动信息图像化的人体动作识别方法
WO2016107226A1 (zh) 图像处理方法及装置
CN103020631B (zh) 基于星型模型的人体运动识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication