CN106503127A - 基于脸部动作识别的音乐数据处理方法及*** - Google Patents

基于脸部动作识别的音乐数据处理方法及*** Download PDF

Info

Publication number
CN106503127A
CN106503127A CN201610912440.3A CN201610912440A CN106503127A CN 106503127 A CN106503127 A CN 106503127A CN 201610912440 A CN201610912440 A CN 201610912440A CN 106503127 A CN106503127 A CN 106503127A
Authority
CN
China
Prior art keywords
data
music
foreground
trifle
facial action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610912440.3A
Other languages
English (en)
Other versions
CN106503127B (zh
Inventor
简仁贤
何芳琳
赵伟翔
于庭婕
黄品瑞
廖健宏
陈智凯
孙廷伟
杨闵淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligent Technology (shanghai) Co Ltd
Original Assignee
Intelligent Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligent Technology (shanghai) Co Ltd filed Critical Intelligent Technology (shanghai) Co Ltd
Priority to CN201610912440.3A priority Critical patent/CN106503127B/zh
Publication of CN106503127A publication Critical patent/CN106503127A/zh
Application granted granted Critical
Publication of CN106503127B publication Critical patent/CN106503127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种基于脸部动作识别的音乐数据处理方法及***,方法为:获得背景音乐数据和前景音乐数据,将前景音乐数据按节拍分成多段小节,每小节包含多个拍子;在前景音乐时间内检测人的面部动作,获得多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;将背景音乐数据进行持续播放,并将每个脸部动作数据与其对应的一小节时间长度的前景音乐数据进行匹配,并与背景音乐结合,生成新的音乐。本发明基于脸部动作识别的音乐数据处理方法及***,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。

Description

基于脸部动作识别的音乐数据处理方法及***
技术领域
本发明涉及数据处理领域,尤其涉及基于脸部动作识别的音乐数据处理。
背景技术
现有技术中,多是利用鼠标、键盘、游戏杆、触控屏幕、外部传感器(如Wii、跳舞机踏板等)、人体姿势(如Kinect)等方式操作,实现人与相应场景的交互。其中,人体姿势操作方式,需要深度空间等信息,必须使用特定装置;因此需要侦测全身,需要较大的空间才能游戏。另外还有准确率低、偏移量高等问题,造成交互过程中的趣味性降低;另外此类形的场景交互大部份用于人体动作侦测(例:举手、踢脚),较少与真实影像结合。
目前脸部关键点识别的应用主要与图像合成技术结合,将脸部变成其他动物、戴上不同饰品、并结合脸部动作产生动画等等。
提供瘦脸与脸部复健等脸部运动时的应用:传统脸部运动透过文字的流程描述或透过学习影片中的人脸运动示范达到脸部运动的效果,但此类脸部运动过程并没有与真实影像结合,体验度低。
因此,现有技术中的缺陷是,对于人与相应场景的交互,需要通过外部设备辅助实现,实现方式单一,用户体验低。无法将脸部关键点识别技术和真实影像相结合。
发明内容
针对上述技术问题,本发明提供一种基于脸部动作识别的音乐数据处理方法及***,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
为解决上述技术问题,本发明提供的技术方案是:
第一方面,本发明提供一种基于脸部动作识别的音乐数据处理方法,包括:
步骤S1,获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;
步骤S2,将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
步骤S3,在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
步骤S4,将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
本发明的技术方案是:先获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;然后将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
接着在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;最后将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
本发明基于脸部动作识别的音乐数据处理方法,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
进一步地,所述步骤S2之后,还包括:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述一小节前景音乐,所述一小节前景音乐为与所述目标脸部动作数据唯一对应的前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,不播放所述脸部动作数据对应的一小节前景音乐。
进一步地,所述步骤S2之后,还包括:
将所述背景音乐数据进行持续播放,获得虚拟场景数据,所述虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据所述向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,所述对应的脸部动作数据的获取在所述移动物体到达所述人面部中的部位之前;
将所述脸部动作数据与所述虚拟场景数据进行匹配判定,进行所述虚拟场景数据中对应移动物体的处理:
当所述脸部动作数据与所述虚拟场景数据匹配,将所述虚拟场景数据中对应移动物体移除;
当所述脸部动作数据与所述虚拟场景数据不匹配,对所述虚拟场景数据中对应移动物体不作处理;
在所述每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将所述虚拟场景数据中对应移动物体移除。
进一步地,将所述虚拟场景数据中对应移动物体移除之后,包括:
获得所述虚拟场景数据中对应移动物体移除的效果数据;
根据所述虚拟场景数据中对应移动物体移除的效果数据,对与所述虚拟场景数据匹配的所述脸部动作数据进行评价,得到评价结果。
进一步地,通过人脸关键点识别和模糊控制理论进行脸部动作的识别。
本发明一种基于脸部动作识别的音乐数据处理方法,基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,即通过人脸不动作的识别,与对应场景的音乐数据进行匹配,实现音乐的创作,音乐的播放及场景中对应虚拟物品的消除,以动画的方式展现在用户眼前,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
进一步地,还包括:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,所述目标脸部动作数据对应一小节前景音乐,所述前景音乐分为第一前景音乐和第二前景音乐,所述第一前景音乐与所述背景音乐匹配播放,所述第二前景音乐与所述背景音乐不匹配播放;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行所述目标脸部动作数据对应一小节前景音乐的播放选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述目标脸部动作数据对应一小节前景音乐,且所述一小节前景音乐为与所述目标脸部动作数据对应的第一前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,播放所述目标脸部动作数据对应一小节前景音乐,且所述一小节前景音乐为与所述目标脸部动作数据对应的第二前景音乐。
在脸部动作数据与目标动作数据匹配目标脸部动作数据成功匹配后,对应播放该目标脸部动作对应的一小节前景音乐,并且,第一前景音乐与背景音乐相匹配和谐的播放,反之,如果用户做出的脸部动作数据与目标脸部动作数据不匹配,则对应播放目标脸部动作对应的第二前景音乐,第二前景音乐与背景音乐是不相匹配和谐播放的,这样通过播放音乐的不同就可判断出用户做出的脸部动作数据是否与目标脸部动作数据匹配成功,提高了用户体验。
第二方面,本发明提供了一种基于脸部动作识别的音乐数据处理***,包括:
音乐数据获取模块,用于获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;
音乐数据处理模块,用于将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
脸部动作获取模块,用于在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
音乐创作模块,用于将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
本发明的技术方案为:先通过音乐数据获取模块,获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;然后通过音乐数据处理模块,将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
接着通过脸部动作获取模块,在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;最后通过音乐创作模块,将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
本发明一种基于脸部动作识别的音乐数据处理***,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
进一步地,所述音乐数据处理模块之后,还包括音乐选择播放模块,用于:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述一小节前景音乐,所述一小节前景音乐为与所述目标脸部动作数据唯一对应的前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,不播放所述脸部动作数据对应的一小节前景音乐。
进一步地,所述音乐数据处理模块之后,还包括音乐虚拟场景模块,用于:
将所述背景音乐数据进行持续播放,获得虚拟场景数据,所述虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据所述向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,所述对应的脸部动作数据的获取在所述移动物体到达所述人面部中的部位之前;
将所述脸部动作数据与所述虚拟场景数据进行匹配判定,进行所述虚拟场景数据中对应移动物体的处理:
当所述脸部动作数据与所述虚拟场景数据匹配,将所述虚拟场景数据中对应移动物体移除;
当所述脸部动作数据与所述虚拟场景数据不匹配,对所述虚拟场景数据中对应移动物体不作处理;
在所述每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将所述虚拟场景数据中对应移动物体移除。
进一步地,所述音乐虚拟场景模块中,包括效果评价子模块,在将所述虚拟场景数据中对应移动物体移除之后,所述效果评价子模块用于:
获得所述虚拟场景数据中对应移动物体移除的效果数据;
根据所述虚拟场景数据中对应移动物体移除的效果数据,对与所述虚拟场景数据匹配的所述脸部动作数据进行评价,得到评价结果。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。
图1示出了本发明第一实施例所提供的一种基于脸部动作识别的音乐数据处理方法的流程图;
图2示出了本发明第一实施例所提供的一种基于脸部动作识别的音乐数据处理方法中时间轴的第一示意图;
图3示出了本发明第一实施例所提供的一种基于脸部动作识别的音乐数据处理方法中时间轴的第二示意图;
图4示出了本发明第二实施例所提供的一种基于脸部动作识别的音乐数据处理***的示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只是作为示例,而不能以此来限制本发明的保护范围。
实施例一
图1示出了本发明第一实施例所提供的一种基于脸部动作识别的音乐数据处理方法的流程图;如图1所示,本发明实施例一提供一种基于脸部动作识别的音乐数据处理方法,包括:
步骤S1,获得背景音乐数据和前景音乐数据,背景音乐数据和前景音乐数据分别为一段数秒钟至数分钟长的音乐;
步骤S2,将前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
步骤S3,在前景音乐时间内检测人的面部动作,获得在前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
步骤S4,将背景音乐数据进行持续播放,并将每个脸部动作数据与其对应的一小节时间长度的前景音乐数据进行匹配,与背景音乐结合,生成新的音乐。
本发明的技术方案是:先获得背景音乐数据和前景音乐数据,背景音乐数据和前景音乐数据分别为一段数秒钟至数分钟长的音乐;然后将前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
接着在前景音乐时间内检测人的面部动作,获得在前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;最后将背景音乐数据进行持续播放,并将每个脸部动作数据与其对应的一小节时间长度的前景音乐数据进行匹配,与背景音乐结合,生成新的音乐。
本发明基于脸部动作识别的音乐数据处理方法,可以设置不同的场景信息,不同的场景信息有不同的需求,需要在规定时间内按照场景信息中不同的需求完成,如果不同的场景信息与不同脸部动作匹配,则可以实现不同的动作,进而实现各种人与场景的互动。
本发明基于脸部动作识别的音乐数据处理方法,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
具体地,步骤S2之后,还包括:
将背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据目标脸部动作数据,获得在每小节开始的前后一拍时间内的脸部动作数据;
将脸部动作数据与目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当脸部动作数据与目标脸部动作数据匹配,播放一小节前景音乐,一小节前景音乐为与目标脸部动作数据唯一对应的前景音乐;
当脸部动作数据与目标脸部动作数据不匹配,不播放脸部动作数据对应的一小节前景音乐。
具体地,设置多小节的前景音乐,每小节前景音乐对应唯一一个脸部动作,对应的在第一个脸部动作与第一个目标脸部动作匹配成功后,进行下一个脸部动作与下一个目标脸部动作的匹配,这样可以根据不同的目标脸部动作,实现前景音乐的连续播放。
具体地,步骤S2之后,还包括:
将背景音乐数据进行持续播放,获得虚拟场景数据,虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,对应的脸部动作数据的获取在移动物体到达人面部中的部位之前;
将脸部动作数据与虚拟场景数据进行匹配判定,进行虚拟场景数据中对应移动物体的处理:
当脸部动作数据与虚拟场景数据匹配,将虚拟场景数据中对应移动物体移除;
当脸部动作数据与虚拟场景数据不匹配,对虚拟场景数据中对应移动物体不作处理;
在每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将虚拟场景数据中对应移动物体移除。
结合AR技术,于真实场景中对应人脸面部位置设置不同的虚拟物品向人脸移动,在虚拟物品移动到人脸面部位置上之时间点前后一拍时间为时间界限,对应做出每个虚拟物品对应的消除动作,人所做的脸部动作与消除动作匹配成功后,接着做下一个动作,增加了趣味性,同时匹配成功或失败会有不同的音效和动画。经过一段时间后,匹配时间缩短,匹配消除动作速度会加快。
具体地,将虚拟场景数据中对应移动物体移除之后,包括:
获得虚拟场景数据中对应移动物体移除的效果数据;
根据虚拟场景数据中对应移动物体移除的效果数据,对与虚拟场景数据匹配的脸部动作数据进行评价,得到评价结果。
如图2所示,横轴为时间轴,左边代表较早的时间、右边代表较晚的时间。较粗长的纵轴为小节分隔点,较细短的代表拍点的分隔点。在此图例中,驱动范围为每小节开始的前两拍皆为正确驱动,以每小节开始前一拍前后0.5拍为完美驱动,如图2中,e显示的部份,e的前后0.5拍为普通驱动,如f显示的部份。完美、普通的驱动时间及范围皆可自由替换。以此方法来做对虚拟场景数据匹配脸部动作数据的评价标准。
具体地,通过人脸关键点识别和模糊控制理论进行脸部动作的识别。
本发明中,基于上述的音乐数据处理,是以人脸关键点识别为基础,建立一可靠之脸部追踪***,最后结合模糊控制理论精确识别脸部动作:眨眼、斗鸡眼、挑眉、皱眉、皱鼻、伸舌、嘟嘴、张嘴、歪嘴、舔唇、抿唇、点头、头部左右旋转、头部上下旋转等等。其中人脸关键点识别技术为公知的现有技术,在此不做过多叙述。
具体地,还包括:
将背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应一小节前景音乐,前景音乐分为第一前景音乐和第二前景音乐,第一前景音乐与背景音乐匹配播放,第二前景音乐与背景音乐不匹配播放;
根据目标脸部动作数据,获得在每小节开始的前后一拍时间内的脸部动作数据;
将脸部动作数据与目标脸部动作数据进行匹配判定,进行目标脸部动作数据对应一小节前景音乐的播放选取:
当脸部动作数据与目标脸部动作数据匹配,播放目标脸部动作数据对应一小节前景音乐,且一小节前景音乐为与目标脸部动作数据对应的第一前景音乐;
当脸部动作数据与目标脸部动作数据不匹配,播放目标脸部动作数据对应一小节前景音乐,且一小节前景音乐为与目标脸部动作数据对应的第二前景音乐。
在脸部动作数据与目标动作数据匹配目标脸部动作数据成功匹配后,对应播放该目标脸部动作对应的一小节前景音乐,并且,第一前景音乐与背景音乐相匹配和谐的播放,反之,如果用户做出的脸部动作数据与目标脸部动作数据不匹配,则对应播放目标脸部动作对应的第二前景音乐,第二前景音乐与背景音乐是不相匹配和谐播放的,这样通过播放音乐的不同就可判断出用户做出的脸部动作数据是否与目标脸部动作数据匹配成功,提高了用户体验。
具体地,第一前景音乐可设置为表示成功的音乐,第二前景音乐可设置成表示失败的前景音乐,这样使音乐更有区别性。
如图3所示,横轴为时间轴,左边代表较早的时间、右边代表较晚的时间。较粗长的纵轴为小节分隔点,较细短的代表拍点的分隔点。以图3中的例子,c的范围为一小节,d的范围为一拍。a为侦测时间点,图3中代表在每小节开始的前后一拍为侦测时间点,任何在此时间点做的脸部动作会被侦测到。b为作用范围,通常以一小节为单位,在此图中代表在此小节的前后一拍范围内做表情,皆会驱动此小节做出反馈。每小节几拍、侦测时间点及作用范围皆可自由替换。
本发明一种基于脸部动作识别的音乐数据处理方法,基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,即通过人脸不动作的识别,与对应场景的音乐数据进行匹配,实现音乐的创作,音乐的播放及场景中对应虚拟物品的消除,以动画的方式展现在用户眼前,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
实施例二
图4示出了本发明第二实施例所提供的一种基于脸部动作识别的音乐数据处理***的示意图;如图4所示,本发明实施例二提供了一种基于脸部动作识别的音乐数据处理***10,包括:
音乐数据获取模块101,用于获得背景音乐数据和前景音乐数据,背景音乐数据和前景音乐数据分别为一段数秒钟至数分钟长的音乐;
音乐数据处理模块102,用于将前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
脸部动作获取模块103,用于在前景音乐时间内检测人的面部动作,获得在前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
音乐创作模块104,用于将背景音乐数据进行持续播放,并将每个脸部动作数据与其对应的一小节时间长度的前景音乐数据进行匹配,与背景音乐结合,生成新的音乐。
本发明的技术方案为:先通过音乐数据获取模块101,获得背景音乐数据和前景音乐数据,背景音乐数据和前景音乐数据分别为一段数秒钟至数分钟长的音乐;然后通过音乐数据处理模块102,将前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
接着通过脸部动作获取模块103,在前景音乐时间内检测人的面部动作,获得在前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;最后通过音乐创作模块104,将背景音乐数据进行持续播放,并将每个脸部动作数据与其对应的一小节时间长度的前景音乐数据进行匹配,与背景音乐结合,生成新的音乐。
本发明一种基于脸部动作识别的音乐数据处理***10,采用了基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
具体地,音乐数据处理模块102之后,还包括音乐选择播放模块,用于:
将背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据目标脸部动作数据,获得在每小节开始的前后一拍时间内的脸部动作数据;
将脸部动作数据与目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当脸部动作数据与目标脸部动作数据匹配,播放一小节前景音乐,一小节前景音乐为与目标脸部动作数据唯一对应的前景音乐;
当脸部动作数据与目标脸部动作数据不匹配,不播放脸部动作数据对应的一小节前景音乐。
具体地,音乐数据处理模块102之后,还包括音乐虚拟场景模块,用于:
将背景音乐数据进行持续播放,获得虚拟场景数据,虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,对应的脸部动作数据的获取在移动物体到达人面部中的部位之前;
将脸部动作数据与虚拟场景数据进行匹配判定,进行虚拟场景数据中对应移动物体的处理:
当脸部动作数据与虚拟场景数据匹配,将虚拟场景数据中对应移动物体移除;
当脸部动作数据与虚拟场景数据不匹配,对虚拟场景数据中对应移动物体不作处理;
在每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将虚拟场景数据中对应移动物体移除。
具体地,音乐虚拟场景模块104中,包括效果评价子模块,在将虚拟场景数据中对应移动物体移除之后,效果评价子模块用于:
获得虚拟场景数据中对应移动物体移除的效果数据;
根据虚拟场景数据中对应移动物体移除的效果数据,对与虚拟场景数据匹配的脸部动作数据进行评价,得到评价结果。
具体地,还包括脸部动作识别模块100,用于通过人脸关键点识别和模糊控制理论进行脸部动作的识别。
具体地,还包括音乐选择播放模块,用于:
将背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应一小节前景音乐,前景音乐分为第一前景音乐和第二前景音乐,第一前景音乐与背景音乐匹配播放,第二前景音乐与背景音乐不匹配播放;
根据目标脸部动作数据,获得在每小节开始的前后一拍时间内的脸部动作数据;
将脸部动作数据与目标脸部动作数据进行匹配判定,进行目标脸部动作数据对应一小节前景音乐的播放选取:
当脸部动作数据与目标脸部动作数据匹配,播放目标脸部动作数据对应一小节前景音乐,且一小节前景音乐为与目标脸部动作数据对应的第一前景音乐;
当脸部动作数据与目标脸部动作数据不匹配,播放目标脸部动作数据对应一小节前景音乐,且一小节前景音乐为与目标脸部动作数据对应的第二前景音乐。
在脸部动作数据与目标动作数据匹配目标脸部动作数据成功匹配后,对应播放该目标脸部动作对应的一小节前景音乐,并且,第一前景音乐与背景音乐相匹配和谐的播放,反之,如果用户做出的脸部动作数据与目标脸部动作数据不匹配,则对应播放目标脸部动作对应的第二前景音乐,第二前景音乐与背景音乐是不相匹配和谐播放的,这样通过播放音乐的不同就可判断出用户做出的脸部动作数据是否与目标脸部动作数据匹配成功,提高了用户体验。
具体地,第一前景音乐可设置为表示成功的音乐,第二前景音乐可设置成表示失败的前景音乐,这样使音乐更有区别性。
本发明一种基于脸部动作识别的音乐数据处理***,基于脸部关键点识别技术,将音乐数据和真实影像相结合的方式,实现人与相应场景的交互,即通过人脸部动作的识别,与对应场景的音乐数据进行匹配,实现音乐的创作,音乐的播放及场景中对应虚拟物品的消除,以动画的方式展现在用户眼前,不需要借助外部设置进行辅助,实现方式简单,提高了用户体验。
实施例三
结合本发明实施例一中的一种基于脸部动作识别的音乐数据处理方法,及实施例二中的一种基于脸部动作识别的音乐数据处理***,结合具体的游戏场景进行说明。
场景一
乐曲创作:背景音乐持续播放,而每个脸部动作对应到一段一小节时间长度的前景音乐,在每小节开始的前后一拍时间内侦测到的脸部动作,皆会驱动该小节播放对应的前景音乐。比如设置一系列脸部动作,眨眼、挑眉、皱眉、皱鼻等,然后识别人的脸部动作,根据识别的脸部动作的不同,对应的播放不同的音乐,每次播放的小节音乐组成不同的音乐,使用户根据自己的心情创做不同的音乐。
场景二
音乐游戏:背景音乐及前景音乐为一段数分钟的音乐,背景音乐持续播放,游戏依然以小节为单位,每小节会由游戏随机产生指定脸部动作,玩家必须在驱动时间内(每小节开始前后一拍时间)完成指定脸部动作,该小节的前景音乐会持续播放;若有多于一个前景音乐,亦可能在做了正确表情越多次后将音乐叠加上去。将动感音乐与人脸动作结合,使游戏更有挑战性和趣味性。
场景三
AR节奏游戏:背景音乐持续播放,画面上会有不同物品有节奏性的往脸上各个部位移动,玩家必须在物品移动到该部位时,做对应的表情移除该物品。例如:蚊子往眼睛飞过去,必须在蚊子到达眼睛时眨眼将它杀掉。成功(分为完美、普通)或失败会有不同的音效、动画及计分。经过一段时间后,节奏速度会加快,增加游戏困难度。
直接利用摄像头取得的影像作脸部动作识别来操作游戏,并能实时与真实脸部影像结合产生有趣的动画效果。此操作方式不需另外购买设备,即可实时、准确地分辨脸部动作;且不需要四肢的操作方式,亦可造福行动不便的人,让他们也能享受到游戏的乐趣。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (10)

1.基于脸部动作识别的音乐数据处理方法,其特征在于,包括:
步骤S1,获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;
步骤S2,将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
步骤S3,在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
步骤S4,将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
2.根据权利要求1所述基于脸部动作识别的音乐数据处理方法,其特征在于,所述步骤S2之后,还包括:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述一小节前景音乐,所述一小节前景音乐为与所述目标脸部动作数据唯一对应的前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,不播放所述脸部动作数据对应的一小节前景音乐。
3.根据权利要求1所述基于脸部动作识别的音乐数据处理方法,其特征在于,
所述步骤S2之后,还包括:
将所述背景音乐数据进行持续播放,获得虚拟场景数据,所述虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据所述向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,所述对应的脸部动作数据的获取在所述移动物体到达所述人面部中的部位之前;
将所述脸部动作数据与所述虚拟场景数据进行匹配判定,进行所述虚拟场景数据中对应移动物体的处理:
当所述脸部动作数据与所述虚拟场景数据匹配,将所述虚拟场景数据中对应移动物体移除;
当所述脸部动作数据与所述虚拟场景数据不匹配,对所述虚拟场景数据中对应移动物体不作处理;
在所述每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将所述虚拟场景数据中对应移动物体移除。
4.根据权利要求3所述基于脸部动作识别的音乐数据处理方法,其特征在于,
将所述虚拟场景数据中对应移动物体移除之后,包括:
获得所述虚拟场景数据中对应移动物体移除的效果数据;
根据所述虚拟场景数据中对应移动物体移除的效果数据,对与所述虚拟场景数据匹配的所述脸部动作数据进行评价,得到评价结果。
5.根据权利要求1所述基于脸部动作识别的音乐数据处理方法,其特征在于,
通过人脸关键点识别和模糊控制理论进行脸部动作的识别。
6.根据权利要求1或2所述基于脸部动作识别的音乐数据处理方法,其特征在于,
还包括:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,所述目标脸部动作数据对应一小节前景音乐,所述前景音乐分为第一前景音乐和第二前景音乐,所述第一前景音乐与所述背景音乐匹配播放,所述第二前景音乐与所述背景音乐不匹配播放;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行所述目标脸部动作数据对应一小节前景音乐的播放选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述目标脸部动作数据对应一小节前景音乐,且所述一小节前景音乐为与所述目标脸部动作数据对应的第一前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,播放所述目标脸部动作数据对应一小节前景音乐,且所述一小节前景音乐为与所述目标脸部动作数据对应的第二前景音乐。
7.基于脸部动作识别的音乐数据处理***,其特征在于,包括:
音乐数据获取模块,用于获得背景音乐数据和前景音乐数据,所述背景音乐数据和所述前景音乐数据分别为一段数秒钟至数分钟长的音乐;
音乐数据处理模块,用于将所述前景音乐数据按节拍分成多段小节,每小节包含多个拍子;
脸部动作获取模块,用于在前景音乐时间内检测人的面部动作,获得在所述前景音乐时间内的多个脸部动作数据,每个脸部动作对应一小节时间长度的前景音乐数据;
音乐创作模块,用于将所述背景音乐数据进行持续播放,并将所述每个脸部动作数据与其对应的所述一小节时间长度的前景音乐数据进行匹配,与所述背景音乐结合,生成新的音乐。
8.根据权利要求7所述基于脸部动作识别的音乐数据处理***,其特征在于,
所述音乐数据处理模块之后,还包括音乐选择播放模块,用于:
将所述背景音乐数据进行持续播放,获得目标脸部动作数据,目标脸部动作数据对应唯一一小节前景音乐;
根据所述目标脸部动作数据,获得在所述每小节开始的前后一拍时间内的脸部动作数据;
将所述脸部动作数据与所述目标脸部动作数据进行匹配判定,进行一小节前景音乐播放的选取:
当所述脸部动作数据与所述目标脸部动作数据匹配,播放所述一小节前景音乐,所述一小节前景音乐为与所述目标脸部动作数据唯一对应的前景音乐;
当所述脸部动作数据与所述目标脸部动作数据不匹配,不播放所述脸部动作数据对应的一小节前景音乐。
9.根据权利要求7所述基于脸部动作识别的音乐数据处理***,其特征在于,
所述音乐数据处理模块之后,还包括音乐虚拟场景模块,用于:
将所述背景音乐数据进行持续播放,获得虚拟场景数据,所述虚拟场景数据为向人面部中各个部位移动物体的虚拟场景数据;
根据所述向人面部中各个部位移动物体的虚拟场景数据,获得对应的脸部动作数据,所述对应的脸部动作数据的获取在所述移动物体到达所述人面部中的部位之前;
将所述脸部动作数据与所述虚拟场景数据进行匹配判定,进行所述虚拟场景数据中对应移动物体的处理:
当所述脸部动作数据与所述虚拟场景数据匹配,将所述虚拟场景数据中对应移动物体移除;
当所述脸部动作数据与所述虚拟场景数据不匹配,对所述虚拟场景数据中对应移动物体不作处理;
在所述每小节开始的后一拍时间后,没有对应的脸部动作与目标脸部动作数据匹配,将所述虚拟场景数据中对应移动物体移除。
10.根据权利要求9所述基于脸部动作识别的音乐数据处理***,其特征在于,
所述音乐虚拟场景模块中,包括效果评价子模块,在将所述虚拟场景数据中对应移动物体移除之后,所述效果评价子模块用于:
获得所述虚拟场景数据中对应移动物体移除的效果数据;
根据所述虚拟场景数据中对应移动物体移除的效果数据,对与所述虚拟场景数据匹配的所述脸部动作数据进行评价,得到评价结果。
CN201610912440.3A 2016-10-19 2016-10-19 基于脸部动作识别的音乐数据处理方法及*** Active CN106503127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610912440.3A CN106503127B (zh) 2016-10-19 2016-10-19 基于脸部动作识别的音乐数据处理方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610912440.3A CN106503127B (zh) 2016-10-19 2016-10-19 基于脸部动作识别的音乐数据处理方法及***

Publications (2)

Publication Number Publication Date
CN106503127A true CN106503127A (zh) 2017-03-15
CN106503127B CN106503127B (zh) 2019-09-27

Family

ID=58294244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610912440.3A Active CN106503127B (zh) 2016-10-19 2016-10-19 基于脸部动作识别的音乐数据处理方法及***

Country Status (1)

Country Link
CN (1) CN106503127B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108905193A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN109343770A (zh) * 2018-09-27 2019-02-15 腾讯科技(深圳)有限公司 交互反馈方法、设备和记录介质
CN110047520A (zh) * 2019-03-19 2019-07-23 北京字节跳动网络技术有限公司 音频播放的控制方法、装置、电子设备和计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1764940A (zh) * 2003-03-31 2006-04-26 索尼株式会社 拍子分析装置和拍子分析方法
CN101836219A (zh) * 2007-11-01 2010-09-15 索尼爱立信移动通讯有限公司 基于面部表情生成音乐播放列表
CN102640149A (zh) * 2009-12-04 2012-08-15 索尼计算机娱乐公司 乐曲推荐***、信息处理装置及信息处理方法
CN102880388A (zh) * 2012-09-06 2013-01-16 北京天宇朗通通信设备股份有限公司 音乐处理方法和装置及移动终端
CN102929476A (zh) * 2012-09-06 2013-02-13 北京天宇朗通通信设备股份有限公司 终端主菜单的控制方法和装置
CN103383694A (zh) * 2012-12-14 2013-11-06 李博文 一种组织、管理、标识音乐文件的***和方法
CN104851435A (zh) * 2015-06-06 2015-08-19 孔霞 一种基于网络通信的音乐智能化播放方法
CN105518783A (zh) * 2013-08-19 2016-04-20 谷歌公司 基于内容的视频分段

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1764940A (zh) * 2003-03-31 2006-04-26 索尼株式会社 拍子分析装置和拍子分析方法
CN101836219A (zh) * 2007-11-01 2010-09-15 索尼爱立信移动通讯有限公司 基于面部表情生成音乐播放列表
CN102640149A (zh) * 2009-12-04 2012-08-15 索尼计算机娱乐公司 乐曲推荐***、信息处理装置及信息处理方法
CN102880388A (zh) * 2012-09-06 2013-01-16 北京天宇朗通通信设备股份有限公司 音乐处理方法和装置及移动终端
CN102929476A (zh) * 2012-09-06 2013-02-13 北京天宇朗通通信设备股份有限公司 终端主菜单的控制方法和装置
CN103383694A (zh) * 2012-12-14 2013-11-06 李博文 一种组织、管理、标识音乐文件的***和方法
CN105518783A (zh) * 2013-08-19 2016-04-20 谷歌公司 基于内容的视频分段
CN104851435A (zh) * 2015-06-06 2015-08-19 孔霞 一种基于网络通信的音乐智能化播放方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108905193A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN108905193B (zh) * 2018-07-03 2022-04-15 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN109343770A (zh) * 2018-09-27 2019-02-15 腾讯科技(深圳)有限公司 交互反馈方法、设备和记录介质
CN110047520A (zh) * 2019-03-19 2019-07-23 北京字节跳动网络技术有限公司 音频播放的控制方法、装置、电子设备和计算机可读存储介质

Also Published As

Publication number Publication date
CN106503127B (zh) 2019-09-27

Similar Documents

Publication Publication Date Title
CN102473320B (zh) 通过学习到的来自用户的输入使视觉表示生动化的方法
Collins Playing with sound: a theory of interacting with sound and music in video games
CN102129343B (zh) 运动捕捉***中的受指导的表演
US9519989B2 (en) Visual representation expression based on player expression
Johnson et al. Sympathetic interfaces: using a plush toy to direct synthetic characters
TWI377055B (en) Interactive rehabilitation method and system for upper and lower extremities
CN102822869B (zh) 捕获在生成的场景内表演的演员的视图和运动
JP2019532374A5 (zh)
WO2009021124A2 (en) System and method for a motion sensing amusement device
CN106503127B (zh) 基于脸部动作识别的音乐数据处理方法及***
JP2018075260A (ja) ゲームシステム及びプログラム
CN114712862A (zh) 虚拟宠物交互方法、电子设备及计算机可读存储介质
JP2014023745A (ja) ダンス教習装置
JP6839730B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
Taheri et al. Exploratory design of a hands-free video game controller for a quadriplegic individual
Dower et al. Performing for Motion Capture: A Guide for Practitioners
JP2003088681A (ja) ゲーム情報、情報記憶媒体、及びゲーム装置
Larsson Discerning emotion through movement: A study of body language in portraying emotion in animation
Hachimura Digital archives of intangible cultural properties
Barbulescu et al. Making movies from make-believe games
TWI824883B (zh) 應用虛擬實境模擬表情情緒訓練的虛擬實境互動式系統
Junius Puppitor: Building an Acting Interface for Videogames
US20240042323A1 (en) Information processing system, method for processing information, and non-transitory computer-readable information storage medium
WO2022113329A1 (ja) 方法、コンピュータ可読媒体、コンピュータシステム、および情報処理装置
Rosenkind Creating Believable, Emergent Behaviour in Virtual Agents, Using a Synthetic Psychology Approach

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant