CN103869986A - 一种基于kinect的动感数据生成方法 - Google Patents
一种基于kinect的动感数据生成方法 Download PDFInfo
- Publication number
- CN103869986A CN103869986A CN201410131278.2A CN201410131278A CN103869986A CN 103869986 A CN103869986 A CN 103869986A CN 201410131278 A CN201410131278 A CN 201410131278A CN 103869986 A CN103869986 A CN 103869986A
- Authority
- CN
- China
- Prior art keywords
- dynamic data
- kinect
- method based
- gesture motion
- technician
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于KINECT的动感数据生成方法,该方法包括如下步骤:技术人员在手上佩戴特征物;在特征物上选取至少一个特征点;当影片放映时,技术人员随着剧情的变化做出相应的手势动作;利用Kinect***获得手势动作图像和手势动作深度图像;利用算法跟踪手势动作图像和手势动作深度图像中特征点的运动轨迹;由特征点的运动轨迹生成动感数据。所述方法不需要耗费大量的人力,大大提高了运动数据的生成效率;所述方法获得的动感数据的准确性明显提高;所述方法能够消除生成动感数据的滞后性。所述方法的技术人员根据剧情变化做出的手势动作没有边界限制,能够在生成动感数据之后再对其进行归一化处理。
Description
技术领域
本发明涉及动感座椅技术领域,特别涉及一种基于KINECT的动感数据生成方法。
背景技术
众所周知,随着3D电影的发展,动感座椅在3D影院中的应用越来越广泛。当影片放映时,动感座椅能够随着剧情的变化做出各种动作,从而带给观众身临其境的感觉。动感座椅的这一优点获得了广大电影爱好者的青睐。
每一部影片在3D影院上映前,技术人员需要获得该部影片的动感座椅运动数据,并将其发送到影厅。当影片开始放映时,影厅将动感座椅运动数据发送至每一个动感座椅,动感座椅根据其运动数据作出相应的动作。对一部准备上映的影片来说,如何获得与之相应的动感座椅运动数据成为技术人员亟待解决的问题。
现有技术中,用于获得动感座椅运动数据的方法包括手工法和摇杆法等。手工法生成动感数据的原理是,让技术人员观看已经制作好但尚未在3D影院上映的影片,随着剧情的变化,技术人员根据自身的内心体验和感受通过计算机程序输入动感座椅运动数据。摇杆法生成动感数据的原理是,让技术人员观看已经制作好但尚未在3D影院上映的影片,观看过程中技术人员手握一个摇杆,随着剧情的变化,技术人员根据自身的内心体验和感受去摇动其手中的摇杆,与之同时利用测量装置测量摇杆的运动轨迹,然后根据摇杆的运动轨迹生成动感座椅运动数据。
上述手工法和摇杆法存在如下缺点和不足:
(1)需要耗费大量的人力,效率较低,成本较高;
(2)不同的技术人员面对影片的同一场景,其内心体验和感受存在很大的个体差异,因此上述方法的准确性较低;
(3)技术人员看到正在放映的影片的场景之后才能作出反应,然后才能去摇动摇杆,从看到影片的场景到摇动摇杆需要一定的反应时间,因此上述方法生成动感数据存在滞后性,从而在实际应用中容易影响动感座椅带给观众的感觉效果;
(4)对于一些相似性高甚至相同的运动,其动感数据的生成过程无法有效地复制或重复,因此,对于相同的运动,上述方法生成的动感数据缺乏一致性,进而导致实际应用中动感座椅带给观众的效果也缺乏一致性。
发明内容
本发明的目的是针对现有技术的上述缺陷,提供一种基于KINECT的动感数据生成方法。
本发明提供的基于KINECT的动感数据生成方法包括如下步骤:
技术人员在手上佩戴特征物;
在特征物上选取至少一个特征点;
当影片放映时,技术人员随着剧情的变化做出相应的手势动作;
利用Kinect***获得手势动作图像和手势动作深度图像;
利用算法跟踪手势动作图像和手势动作深度图像中特征点的运动轨迹;
由特征点的运动轨迹生成动感数据。
优选地,所述特征物为手套或笔。
本发明具有如下有益效果:
(1)所述方法不需要耗费大量的人力,大大提高了运动数据的生成效率,明显降低了动作效果的制作成本;
(2)所述方法消除了技术人员内心体验和感受的个体差异,获得的动感数据的准确性明显提高;
(3)所述方法能够消除生成动感数据的滞后性,有利于改善动感座椅带给观众的感觉效果;
(4)所述方法适用于不同的场景,例如***、地震、枪击、眩晕、惊恐等场景,并且对于相似的一类场景,该类场景相应的手势动作模块能够在不同的影片中重复使用;
(5)与现有技术相比,所述方法的技术人员根据剧情变化做出的手势动作没有边界限制,因此能够在生成动感数据之后再对其进行归一化处理。
附图说明
图1为本发明实施例提供的基于KINECT平台的动感数据生成方法的流程图。
具体实施方式
下面结合附图及实施例对本发明的发明内容作进一步的描述。
如图1所示,本实施例提供的基于KINECT的动感数据生成方法包括如下步骤:
S1:技术人员在手上佩戴特征物,例如手套或笔;
S2:在特征物上选取至少一个特征点;
S3:当影片放映时,技术人员随着剧情的变化做出相应的手势动作;
S4:利用Kinect***获得手势动作图像和手势动作深度图像;
S5:利用算法跟踪手势动作图像和手势动作深度图像中特征点的运动轨迹;
S6:由特征点的运动轨迹生成动感数据。
本实施例的方法不需要耗费大量的人力,大大提高了运动数据的生成效率,明显降低了动作效果的制作成本;本实施例的方法消除了技术人员内心体验和感受的个体差异,获得的动感数据的准确性明显提高;本实施例的方法能够消除生成动感数据的滞后性,有利于改善动感座椅带给观众的感觉效果;本实施例的方法适用于不同的场景,例如***、地震、枪击、眩晕、惊恐等场景,并且对于相似的一类场景,该类场景相应的手势动作模块能够在不同的影片中重复使用。与现有技术相比,本实施例的方法的技术人员根据剧情变化做出的手势动作没有边界限制,因此技术人员能够在生成动感数据之后再对其进行归一化处理。
应当理解,以上借助优选实施例对本发明的技术方案进行的详细说明是示意性的而非限制性的。本领域的普通技术人员在阅读本发明说明书的基础上可以对各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (2)
1.一种基于KINECT的动感数据生成方法,其特征在于,该方法包括如下步骤:
技术人员在手上佩戴特征物;
在特征物上选取至少一个特征点;
当影片放映时,技术人员随着剧情的变化做出相应的手势动作;
利用Kinect***获得手势动作图像和手势动作深度图像;
利用算法跟踪手势动作图像和手势动作深度图像中特征点的运动轨迹;
由特征点的运动轨迹生成动感数据。
2.根据权利要求1所述的基于KINECT的动感数据生成方法,其特征在于,所述特征物为手套或笔。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410131278.2A CN103869986A (zh) | 2014-04-02 | 2014-04-02 | 一种基于kinect的动感数据生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410131278.2A CN103869986A (zh) | 2014-04-02 | 2014-04-02 | 一种基于kinect的动感数据生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103869986A true CN103869986A (zh) | 2014-06-18 |
Family
ID=50908605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410131278.2A Pending CN103869986A (zh) | 2014-04-02 | 2014-04-02 | 一种基于kinect的动感数据生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103869986A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110273614A1 (en) * | 2009-01-08 | 2011-11-10 | D-Box Technologies Inc. | Cpu platform interface method and device for synchronizing a stream of motion codes with a video stream |
US20120019352A1 (en) * | 2010-07-21 | 2012-01-26 | D-Box Technologies Inc. | Media recognition and synchronisation to a motion signal |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互***及其实时手势跟踪处理方法 |
CN102652878A (zh) * | 2011-11-23 | 2012-09-05 | 上海华博信息服务有限公司 | 基于图形化动作编辑的动感平台***及其应用 |
CN202472297U (zh) * | 2012-03-01 | 2012-10-03 | 广州市倍儿悦动漫科技有限公司 | 一种用于动感座椅数据采集的装置 |
CN102778953A (zh) * | 2012-06-28 | 2012-11-14 | 华东师范大学 | 基于Kinect的皮影戏远程数字表演的体感控制方法 |
CN102929386A (zh) * | 2012-09-16 | 2013-02-13 | 吴东辉 | 一种动感重现虚拟现实的方法及*** |
CN103092349A (zh) * | 2013-01-23 | 2013-05-08 | 宁凯 | 基于Kinect体感设备的全景体验方法 |
CN103118227A (zh) * | 2012-11-16 | 2013-05-22 | 佳都新太科技股份有限公司 | 一种基于kinect的摄像机PTZ控制方法、装置和*** |
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸***及方法 |
CN103324488A (zh) * | 2013-07-12 | 2013-09-25 | 山东易创电子有限公司 | 一种特效信息获取方法及装置 |
CN103472916A (zh) * | 2013-09-06 | 2013-12-25 | 东华大学 | 一种基于人体手势识别的人机交互方法 |
-
2014
- 2014-04-02 CN CN201410131278.2A patent/CN103869986A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110273614A1 (en) * | 2009-01-08 | 2011-11-10 | D-Box Technologies Inc. | Cpu platform interface method and device for synchronizing a stream of motion codes with a video stream |
US20120019352A1 (en) * | 2010-07-21 | 2012-01-26 | D-Box Technologies Inc. | Media recognition and synchronisation to a motion signal |
CN102426480A (zh) * | 2011-11-03 | 2012-04-25 | 康佳集团股份有限公司 | 一种人机交互***及其实时手势跟踪处理方法 |
CN102652878A (zh) * | 2011-11-23 | 2012-09-05 | 上海华博信息服务有限公司 | 基于图形化动作编辑的动感平台***及其应用 |
CN202472297U (zh) * | 2012-03-01 | 2012-10-03 | 广州市倍儿悦动漫科技有限公司 | 一种用于动感座椅数据采集的装置 |
CN102778953A (zh) * | 2012-06-28 | 2012-11-14 | 华东师范大学 | 基于Kinect的皮影戏远程数字表演的体感控制方法 |
CN102929386A (zh) * | 2012-09-16 | 2013-02-13 | 吴东辉 | 一种动感重现虚拟现实的方法及*** |
CN103118227A (zh) * | 2012-11-16 | 2013-05-22 | 佳都新太科技股份有限公司 | 一种基于kinect的摄像机PTZ控制方法、装置和*** |
CN103092349A (zh) * | 2013-01-23 | 2013-05-08 | 宁凯 | 基于Kinect体感设备的全景体验方法 |
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸***及方法 |
CN103324488A (zh) * | 2013-07-12 | 2013-09-25 | 山东易创电子有限公司 | 一种特效信息获取方法及装置 |
CN103472916A (zh) * | 2013-09-06 | 2013-12-25 | 东华大学 | 一种基于人体手势识别的人机交互方法 |
Non-Patent Citations (1)
Title |
---|
谭笑间: "D-BOX动感座椅影院***概述", <<现代电影技术>> * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10674142B2 (en) | Optimized object scanning using sensor fusion | |
US10818061B2 (en) | Systems and methods for real-time complex character animations and interactivity | |
US9245176B2 (en) | Content retargeting using facial layers | |
CN103885465A (zh) | 一种基于视频处理生成动感座椅的动感数据的方法 | |
CN102725038B (zh) | 组合多传感输入以用于数字动画 | |
CN108960020A (zh) | 信息处理方法和信息处理设备 | |
JP2018532216A (ja) | 画像正則化及びリターゲティングシステム | |
CN101968892A (zh) | 根据一张人脸照片自动调整三维人脸模型的方法 | |
Cosker et al. | Perception of linear and nonlinear motion properties using a FACS validated 3D facial model | |
CN103941753A (zh) | 基于音频处理生成动感座椅的动感数据的方法 | |
US20200357157A1 (en) | A method of generating training data | |
Luvizon et al. | Scene‐Aware 3D Multi‐Human Motion Capture from a Single Camera | |
CN103885460B (zh) | 一种基于宏的动感座椅运动数据生成方法 | |
JP2021527888A (ja) | 軸外カメラを使用して眼追跡を実施するための方法およびシステム | |
CN104091360A (zh) | 动感影院生成运动数据的方法与装置 | |
US20140192045A1 (en) | Method and apparatus for generating three-dimensional caricature using shape and texture of face | |
Eom et al. | Data‐Driven Reconstruction of Human Locomotion Using a Single Smartphone | |
JP2018507448A (ja) | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス | |
Wibowo et al. | The use of motion capture technology in 3D animation | |
CN108416255B (zh) | 基于三维动画中角色实时面部表情动画捕捉的***和方法 | |
CN103869986A (zh) | 一种基于kinect的动感数据生成方法 | |
KR20110105458A (ko) | 얼굴 인식 시스템의 학습 영상을 생성하기 위한 장치 및 그 방법 | |
Hou et al. | A study on the realization of virtual simulation face based on artificial intelligence | |
Borodulina | Application of 3D human pose estimation for motion capture and character animation | |
Sibbing et al. | Building a large database of facial movements for deformation model‐based 3d face tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140618 |
|
RJ01 | Rejection of invention patent application after publication |