CN113793581B - 一种基于运动检测辅助识别的打击乐智能教育*** - Google Patents

一种基于运动检测辅助识别的打击乐智能教育*** Download PDF

Info

Publication number
CN113793581B
CN113793581B CN202111085548.7A CN202111085548A CN113793581B CN 113793581 B CN113793581 B CN 113793581B CN 202111085548 A CN202111085548 A CN 202111085548A CN 113793581 B CN113793581 B CN 113793581B
Authority
CN
China
Prior art keywords
stick
acceleration
percussion
motion detection
education system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111085548.7A
Other languages
English (en)
Other versions
CN113793581A (zh
Inventor
高建平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maultak Technology Development Co ltd
Original Assignee
Shanghai Maultak Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maultak Technology Development Co ltd filed Critical Shanghai Maultak Technology Development Co ltd
Priority to CN202111085548.7A priority Critical patent/CN113793581B/zh
Publication of CN113793581A publication Critical patent/CN113793581A/zh
Application granted granted Critical
Publication of CN113793581B publication Critical patent/CN113793581B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明涉及一种基于运动检测辅助识别的打击乐智能教育***,包括鼓棒、架子鼓和主机,鼓棒上安装有加速度传感器和陀螺仪传感器,主机还用于采集架子鼓的音频数据,数据处理过程包括在静止时刻,获取重力加速度值,确定鼓棒所握的位置;鼓棒动作时,根据陀螺仪传感器采集旋转量,基于静止时的重力加速度值,计算当前的重力加速度,然后与当前加速度传感器获取的数据作差,得到鼓棒去除重力后的加速度,最后结合鼓棒头部位置,计算鼓棒的打击坐标力度;根据音频数据提取音频特征;根据音频特征和鼓棒的打击坐标力度通过神经网络识别音色和力度,用于评分。与现有技术相比,本发明具有识别率高、打击时间获取准确、增加了手法识别等优点。

Description

一种基于运动检测辅助识别的打击乐智能教育***
技术领域
本发明涉及打击乐识别技术领域,尤其是涉及一种基于运动检测辅助识别的打击乐智能教育***。
背景技术
现有的打击乐识别采用通过音频采集打击乐的发音,通过对音频的分析得到音频的短时功率谱,过零率等参数,初步该音频属于那种乐器。再利用动态时间归整比较各类乐器特征参数(MFCC),通过编辑距离,神经网络学习等方法,得到乐器的种类和打击点。
如公开号为CN110310666A的发明公开了一种基于SE卷积网络的乐器识别方法及***,方法包括如下步骤:待识别数据预处理,将待识别音频文件转换为待识别自相关谱图;待识别数据识别,将待识别自相关谱图输入预先构建的乐器识别模型进行识别,得到输出结果矩阵;乐器解析,将乐器识别模型的输出结果矩阵整合解析为自然语言表示的乐器标签。
现有的识别方法的不足之处在于***的识别率比较低,识别的乐器打击时间的误差较大,比较小的乐器声被大声淹没,无法指出打击动作错误。
发明内容
本发明的目的就是为了克服上述现有技术存在***的识别率比较低,识别的乐器打击时间的误差较大的缺陷而提供一种基于运动检测辅助识别的打击乐智能教育***。
本发明的目的可以通过以下技术方案来实现:
一种基于运动检测辅助识别的打击乐智能教育***,包括鼓棒、架子鼓和主机,所述鼓棒上安装有加速度传感器和陀螺仪传感器,所述加速度传感器和陀螺仪传感器均通讯连接所述主机,所述主机还用于采集架子鼓的音频数据,所述主机的数据处理过程包括以下步骤:
初始校正步骤:在乐曲开始前的一个静止时刻,根据所述加速度传感器的探测值,得到重力加速度值,确定当前鼓棒所握的位置;
打击坐标力度识别步骤:鼓棒动作时,根据所述陀螺仪传感器采集鼓棒的旋转量,并根据所述初始校正步骤中获取的重力加速度值,计算当前的重力加速度,然后与当前加速度传感器获取的数据作差,得到鼓棒去除重力后的加速度,并基于所述鼓棒所握的位置,得到鼓棒头部的位置,最后根据动量定理计算鼓棒的打击坐标力度;
音频特征提取步骤:根据所述音频数据,提取音频特征;
打击乐识别步骤:将所述音频特征和鼓棒的打击坐标力度载入预先建立并训练好的打击识别神经网络模型中,得到打击乐器的音色和力度,
评分步骤:根据所述打击乐器的音色和力度,给出乐曲评分。
进一步地,所述加速度传感器的数量为三个,三个加速度传感器两两正交设置,用于获取三个方向的加速度;
所述初始校正步骤中根据三个方向的重力加速度进行三角运算,确定当前鼓棒所握的位置。
进一步地,所述陀螺仪传感器的数量为三个,三个陀螺仪传感器两两正交设置,用于获取三个方向的旋转量,三个陀螺仪传感器与所述三个加速度传感器的位置相对应;
根据三个陀螺仪传感器获取的三个方向的旋转量分量,与所述初始校正步骤中获取的三个方向的重力加速度分别进行乘法计算,得到当前的重力加速度。
进一步地,根据所述鼓棒去除重力后的加速度进行积分运算,求取速度曲线,并根据速度时间,得到鼓棒相对于在初始校正步骤中的位置;并基于所述鼓棒所握的位置,得到鼓棒头部的位置。
进一步地,所述主机的数据处理过程还包括:根据鼓棒头部的位置的瞬间变化,确定鼓棒的状态,该鼓棒的状态包括平移、往下击打和反弹;
所述评分步骤包括:根据所述打击乐器的音色、力度和鼓棒的状态,给出乐曲评分。
进一步地,所述主机的数据处理过程还包括:根据所述加速度传感器和陀螺仪传感器的比例,得到鼓棒的用力点,该鼓棒的用力点包括手腕和全身;
所述评分步骤包括:根据所述打击乐器的音色、力度、鼓棒的状态和鼓棒的用力点,给出乐曲评分。
进一步地,音频特征提取步骤中,通过提取所述音频数据中时域的ADSR包络变化及频域的MFCC变化特征,得到所述音频特征。
进一步地,根据实时获取所述音色和力度,与预设的打击乐谱进行对比,判断打击的正确率,从而得到所述乐曲评分。
进一步地,所述打击识别神经网络模型的训练过程具体为:
获取训练数据,该训练数据包括模型输入数据和实际的打击动作结果,将该训练数据载入预先建立的打击识别神经网络模型中,进行模型训练,直至达到预设的训练停止条件,获取训练好的打击识别神经网络模型。
进一步地,所述打击识别神经网络模型采用BP神经网络。
与现有技术相比,本发明具有以下优点:
(1)识别率提高:通过重建打击位置,通过打击位置参数,结合音频,能提高***打击乐器和打击坐标力度的识别率;
(2)打击时间精确:通过加速度传感器和陀螺仪传感器的数据,计算鼓棒去除重力后的加速度,能直接获取打击动作,获得精确的打击时间;
(3)增加手法识别:通过加速度和陀螺仪数据分析可以得出打击手法状态和敲击的发力位置,有利教育辅助。
附图说明
图1为本发明实施例中提供的一种基于运动检测辅助识别的打击乐智能教育***的硬件结构示意图;
图2为本发明实施例中提供的一种基于运动检测辅助识别的打击乐智能教育***的打击乐器音色和力度识别过程示意图;
图中,1为主机,2为鼓棒,3为录音器。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1和图2所示,本实施例提供一种基于运动检测辅助识别的打击乐智能教育***,包括鼓棒2、架子鼓和主机1,鼓棒上安装有加速度传感器和陀螺仪传感器,加速度传感器和陀螺仪传感器均通讯连接主机,本实施例中通过蓝牙通讯连接,主机还用于采集有架子鼓的音频数据,本实施例中通过录音器3采集音频数据,主机的数据处理过程包括以下步骤:
初始校正步骤:在乐曲开始前的一个静止时刻,根据加速度传感器的探测值,得到重力加速度值,确定当前鼓棒所握的位置;
打击坐标力度识别步骤:鼓棒动作时,根据陀螺仪传感器采集鼓棒的旋转量,并根据初始校正步骤中获取的重力加速度值,计算当前的重力加速度,然后与当前加速度传感器获取的数据作差,得到鼓棒去除重力后的加速度,并基于鼓棒所握的位置,得到鼓棒头部的位置,最后根据动量定理计算鼓棒的打击坐标力度;
音频特征提取步骤:根据音频数据,提取音频特征;
打击乐识别步骤:将音频特征和鼓棒的打击坐标力度载入预先建立并训练好的打击识别神经网络模型中,得到打击乐器的音色和力度,
评分步骤:根据打击乐器的音色和力度,给出乐曲评分。
作为一种优选的实施方式,加速度传感器的数量为三个,三个加速度传感器两两正交设置,用于获取三个方向的加速度;
初始校正步骤中根据三个方向的重力加速度进行三角运算,确定当前鼓棒所握的位置;通过三个方向的重力加速度便于确定静止时鼓棒所握的位置。
进一步地,作为一种优选的实施方式,陀螺仪传感器的数量为三个,三个陀螺仪传感器两两正交设置,用于获取三个方向的旋转量,三个陀螺仪传感器与三个加速度传感器的位置相对应;
根据三个陀螺仪传感器获取的三个方向的旋转量分量,与初始校正步骤中获取的三个方向的重力加速度分别进行乘法计算,得到当前的重力加速度;陀螺仪传感器与加速度传感器的数量和位置相对应,方便进行分量计算,提高计算的准确性。
打击坐标力度识别步骤具体为,根据鼓棒去除重力后的加速度进行积分运算,求取速度曲线,并根据速度时间,得到鼓棒相对于在初始校正步骤中的位置;并基于鼓棒所握的位置,得到鼓棒头部的位置。
作为一种优选的实施方式,主机的数据处理过程还包括:根据鼓棒头部的位置的瞬间变化,确定鼓棒的状态,该鼓棒的状态包括平移、往下击打和反弹;
评分步骤包括:根据打击乐器的音色、力度、鼓棒的状态和鼓棒的用力点,给出乐曲评分。
加入识别出的鼓棒的状态,鼓棒的状态也是演奏评分的一个要素,能提升评分结果的准确性。
进一步地,作为一种优选的实施方式,主机的数据处理过程还包括:根据加速度传感器和陀螺仪传感器的比例,得到鼓棒的用力点,该鼓棒的用力点包括手腕和全身;
评分步骤包括:根据打击乐器的音色、力度、鼓棒的状态和鼓棒的用力点,给出乐曲评分。
具体为:根据实时获取音色、力度、鼓棒的状态和鼓棒的用力点,与预设的打击乐谱和评分标准进行对比,判断打击的正确率,从而得到乐曲评分。
进一步加入鼓棒的用力点,鼓棒的用力点也是演奏评分的一个要素,能进一步提升评分结果的准确性。
作为一种优选的实施方式,音频特征提取步骤中,通过提取音频数据中时域的ADSR包络变化及频域的MFCC变化特征,得到音频特征。
本实施例中,打击识别神经网络模型的训练过程具体为:
获取训练数据,该训练数据包括模型输入数据和实际的打击动作结果,将该训练数据载入预先建立的打击识别神经网络模型中,进行模型训练,直至达到预设的训练停止条件,获取训练好的打击识别神经网络模型,打击识别神经网络模型采用BP神经网络。
将上述优选的实施方式进行组合,可以得到一种最优的实施方式,下面对该最优的实施方式进行具体描述。
本实施例提供一种基于运动检测辅助识别的打击乐智能教育***,由主机和鼓棒和普通架子鼓组成,主机可以直接录音并对数据进行分析。智能鼓棒对打击乐的鼓棒进行改进,在鼓棒中加入陀螺仪传感器和加速度传感器并安装于后端手握位置,无线传输芯片,定时把陀螺仪加速度信息数据,传送给主机。
详细描述如下:
1、校正:
在乐曲开始前,找到静止时刻,在三个陀螺仪传感器为零时,此时鼓棒处于静止状态,此时***只有重力加速度。根据三个加速度传感器的合成成正好为一个重力加速度的原理,把三个加速度传感器通过物理三角形力的合成,正好同重力加速度相符。在相符时,对合力和三个分力进行三角运算,得出目前鼓棒所握的位置。
通过无线的时间校正传输的时间差,校正时钟误差。
2、采集:
定时采集加速度传感器和陀螺仪传感器数据,得到鼓棒的状态,通过无线***传输到主机。主机直接采集音频数据。
3、识别:
根据音频数据特征值、加速度传感器和陀螺仪传感器数值,重建鼓棒位置。
通过三个陀螺仪传感器的数据变化,计算出鼓棒的旋转量;
通过旋转量及校正时重力加速度分量,计算出当前重力加速度在三个轴向的分量;
根据当前重力加速度在三个轴向的分量,及三个加速度传感器的值计算鼓棒去除重力的加速度;
根据去除重力的加速度积分求出速度曲线,通过速度时间计算得到鼓棒的相对校正时位置;
通过陀螺仪传感器及其安装的位置,得到鼓棒头部的位置,根据动量定理计算出打击的力度;
根据鼓棒头部的瞬间变化,计算鼓棒的状态,平移、往下击打、反弹;
根据陀螺仪传感器和加速度传感器的速度比例,得到鼓棒的用力点,手腕,全身;
根据鼓棒的状态,及音频通过神经网络识别打击的乐器,力度;
对音频特征进行提取,提取了时域的ADSR包络变化及频域的MFCC变化特征,作为音频的特征,参与识别;
算法训练:
采用BP神经网络,通过已有的以知实例,一个音频和坐标力度数据及实际的打击动作结果,输入训练算法。通过大量的数据学习得到打击识别神经网络模型。
识别过程:
采用BP神经网络,根据学习后的打击识别神经网络模型,输入音频特征和打击坐标力度,得出打击乐器音色、力度。
4、评分:
根据鼓棒的用力点、打击状态的节奏、打击的正确率对乐曲评分,指出演奏的不足。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于运动检测辅助识别的打击乐智能教育***,包括鼓棒、架子鼓和主机,其特征在于,所述鼓棒上安装有加速度传感器和陀螺仪传感器,所述加速度传感器和陀螺仪传感器均通讯连接所述主机,所述主机还用于采集架子鼓的音频数据,所述主机的数据处理过程包括以下步骤:
初始校正步骤:在乐曲开始前的一个静止时刻,根据所述加速度传感器的探测值,得到重力加速度值,确定当前鼓棒所握的位置;
打击坐标力度识别步骤:鼓棒动作时,根据所述陀螺仪传感器采集鼓棒的旋转量,并根据所述初始校正步骤中获取的重力加速度值,计算当前的重力加速度,然后与当前加速度传感器获取的数据作差,得到鼓棒去除重力后的加速度,并基于所述鼓棒所握的位置,得到鼓棒头部的位置,最后根据动量定理计算鼓棒的打击坐标力度;
音频特征提取步骤:根据所述音频数据,提取音频特征;
打击乐识别步骤:将所述音频特征和鼓棒的打击坐标力度载入预先建立并训练好的打击识别神经网络模型中,得到打击乐器的音色和力度,
评分步骤:根据所述打击乐器的音色和力度,给出乐曲评分。
2.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述加速度传感器的数量为三个,三个加速度传感器两两正交设置,用于获取三个方向的加速度;
所述初始校正步骤中根据三个方向的重力加速度进行三角运算,确定当前鼓棒所握的位置。
3.根据权利要求2所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述陀螺仪传感器的数量为三个,三个陀螺仪传感器两两正交设置,用于获取三个方向的旋转量,三个陀螺仪传感器与所述三个加速度传感器的位置相对应;
根据三个陀螺仪传感器获取的三个方向的旋转量分量,与所述初始校正步骤中获取的三个方向的重力加速度分别进行乘法计算,得到当前的重力加速度。
4.根据权利要求3所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,根据所述鼓棒去除重力后的加速度进行积分运算,求取速度曲线,并根据速度时间,得到鼓棒相对于在初始校正步骤中的位置;并基于所述鼓棒所握的位置,得到鼓棒头部的位置。
5.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述主机的数据处理过程还包括:根据鼓棒头部的位置的瞬间变化,确定鼓棒的状态,该鼓棒的状态包括平移、往下击打和反弹;
所述评分步骤包括:根据所述打击乐器的音色、力度和鼓棒的状态,给出乐曲评分。
6.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述主机的数据处理过程还包括:根据所述加速度传感器和陀螺仪传感器的比例,得到鼓棒的用力点,该鼓棒的用力点包括手腕和全身;
所述评分步骤包括:根据所述打击乐器的音色、力度、鼓棒的状态和鼓棒的用力点,给出乐曲评分。
7.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,音频特征提取步骤中,通过提取所述音频数据中时域的ADSR包络变化及频域的MFCC变化特征,得到所述音频特征。
8.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,根据实时获取所述音色和力度,与预设的打击乐谱进行对比,判断打击的正确率,从而得到所述乐曲评分。
9.根据权利要求1所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述打击识别神经网络模型的训练过程具体为:
获取训练数据,该训练数据包括模型输入数据和实际的打击动作结果,将该训练数据载入预先建立的打击识别神经网络模型中,进行模型训练,直至达到预设的训练停止条件,获取训练好的打击识别神经网络模型。
10.根据权利要求9所述的一种基于运动检测辅助识别的打击乐智能教育***,其特征在于,所述打击识别神经网络模型采用BP神经网络。
CN202111085548.7A 2021-09-16 2021-09-16 一种基于运动检测辅助识别的打击乐智能教育*** Active CN113793581B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111085548.7A CN113793581B (zh) 2021-09-16 2021-09-16 一种基于运动检测辅助识别的打击乐智能教育***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111085548.7A CN113793581B (zh) 2021-09-16 2021-09-16 一种基于运动检测辅助识别的打击乐智能教育***

Publications (2)

Publication Number Publication Date
CN113793581A CN113793581A (zh) 2021-12-14
CN113793581B true CN113793581B (zh) 2024-02-20

Family

ID=79183800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111085548.7A Active CN113793581B (zh) 2021-09-16 2021-09-16 一种基于运动检测辅助识别的打击乐智能教育***

Country Status (1)

Country Link
CN (1) CN113793581B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114937227A (zh) * 2022-06-15 2022-08-23 安徽云佑信息科技有限公司 一种基于机器视觉的中小***动作评分***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105391764A (zh) * 2015-10-14 2016-03-09 小米科技有限责任公司 用于监测乐器学习的方法及装置
WO2016111716A1 (en) * 2015-01-08 2016-07-14 Muzik LLC Interactive instruments and other striking objects
CN109300453A (zh) * 2018-06-09 2019-02-01 程建铜 一种鼓棒、终端设备和音频播放***
CN109643533A (zh) * 2016-06-30 2019-04-16 莱福思科有限公司 用于单元作曲的装置和方法
CN109741658A (zh) * 2019-03-20 2019-05-10 任磊 一种用于音乐教学的多功能电子乐器教学***
CN111862910A (zh) * 2019-04-25 2020-10-30 逢甲大学 虚拟电子乐器***及其运作方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016111716A1 (en) * 2015-01-08 2016-07-14 Muzik LLC Interactive instruments and other striking objects
CN107408376A (zh) * 2015-01-08 2017-11-28 沐择歌有限责任公司 交互式乐器和其它打击物体
CN105391764A (zh) * 2015-10-14 2016-03-09 小米科技有限责任公司 用于监测乐器学习的方法及装置
CN109643533A (zh) * 2016-06-30 2019-04-16 莱福思科有限公司 用于单元作曲的装置和方法
CN109300453A (zh) * 2018-06-09 2019-02-01 程建铜 一种鼓棒、终端设备和音频播放***
CN109741658A (zh) * 2019-03-20 2019-05-10 任磊 一种用于音乐教学的多功能电子乐器教学***
CN111862910A (zh) * 2019-04-25 2020-10-30 逢甲大学 虚拟电子乐器***及其运作方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
计算机音乐制作软件研究;宋方;;黑龙江科技信息(18);全文 *

Also Published As

Publication number Publication date
CN113793581A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN109682561B (zh) 一种自动检测高速铁路桥梁自由振动响应以识别模态的方法
CN107767847B (zh) 一种智能钢琴演奏测评方法及***
CN102664016B (zh) 唱歌评测方法及***
CN108922541B (zh) 基于dtw和gmm模型的多维特征参数声纹识别方法
CN105825852A (zh) 一种英语口语朗读考试评分方法
CN113793581B (zh) 一种基于运动检测辅助识别的打击乐智能教育***
CN105023573A (zh) 使用听觉注意力线索的语音音节/元音/音素边界检测
CN103680493A (zh) 区分地域性口音的语音数据识别方法和装置
CN101373593A (zh) 语音分析设备、语音分析方法和计算机程序
Heggarty Interdisciplinary indiscipline? Can phylogenetic methods meaningfully be applied to language data—and to dating language
CN112146882B (zh) 基于迁移学习振动信号图像识别的轴承故障诊断方法
CN108492834A (zh) 一种声乐教学演唱技能检测***
CN103852525A (zh) 基于ar-hmm的声发射信号识别方法
CN114140903A (zh) 一种基于决策树生成规则的道路类型识别车载装置
CN103505189B (zh) 基于小波包变换和隐马尔科夫模型的脉搏信号分类方法
JP2014147554A (ja) ゴルフスイングにおけるインパクト時間の抽出方法
CN114627896A (zh) 语音评测方法、装置、设备及存储介质
CN117191956A (zh) 一种基于声发射的钛合金应力腐蚀损伤分类方法及装置
US6823305B2 (en) Apparatus and method for speaker normalization based on biometrics
CN113823326B (zh) 一种高效语音关键词检测器训练样本使用方法
CN113742638B (zh) 基于峭度的FastICA和逼近求解域的STLBO电机轴承故障诊断方法
CN107871113B (zh) 一种情感混合识别检测的方法和装置
JP2013208362A (ja) ゴルフスイングにおけるインパクト時間の抽出方法
KR100896130B1 (ko) 가상 캐릭터의 동작 애니메이션 재생 방법 및 시스템
JP2009247528A (ja) 運動評価装置およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant