JP2021056295A - 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム - Google Patents

楽曲解析装置、楽曲解析方法、および楽曲解析プログラム Download PDF

Info

Publication number
JP2021056295A
JP2021056295A JP2019176923A JP2019176923A JP2021056295A JP 2021056295 A JP2021056295 A JP 2021056295A JP 2019176923 A JP2019176923 A JP 2019176923A JP 2019176923 A JP2019176923 A JP 2019176923A JP 2021056295 A JP2021056295 A JP 2021056295A
Authority
JP
Japan
Prior art keywords
music
beat
bar
measure
bar line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019176923A
Other languages
English (en)
Other versions
JP7419726B2 (ja
Inventor
康平 須見
Kohei Sumi
康平 須見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019176923A priority Critical patent/JP7419726B2/ja
Priority to PCT/JP2020/028057 priority patent/WO2021059701A1/ja
Publication of JP2021056295A publication Critical patent/JP2021056295A/ja
Priority to US17/705,117 priority patent/US20220215818A1/en
Application granted granted Critical
Publication of JP7419726B2 publication Critical patent/JP7419726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】機械学習に基づいて検出された小節線の位置を適切に補正する。【解決手段】楽曲解析装置が、機械学習によって学習された検出モデルを用いて、楽曲を示す音響情報から小節線を検出する検出部と、検出部が検出した小節線の位置を、前記楽曲から特定される参照拍子に基づいて補正する補正部と、を有する。【選択図】図4

Description

本発明は、楽曲から小節線を特定する楽曲解析装置、楽曲解析方法、および楽曲解析プログラムに関する。
従来より、楽曲を解析することによって、楽曲に含まれる種々の音楽的要素を検出する技術が提案されている。検出対象の音楽的要素としては、小節線、拍点、メロディー、コード(和音)、テンポ等が例示される。
特許文献1には、楽曲に含まれる拍点等の特定点を複数の処理によって推定する技術が開示されている。
国際公開2019/017242号
楽曲内の拍点を検出する特許文献1の技術においては、検出すべき拍点間の長さ(拍の長さ)の補正については特に検討されていない。小節線の検出についても具体的には特に検討されていない。
楽曲内の小節線を機械学習によって検出する場合、比較的小さな特徴量の変化が検出に鋭敏な影響をもたらすことがある。したがって、機械学習によって単純に小節線を検出しても、その検出精度が十分でない可能性がある。例えば、楽曲の進行に応じて拍子が変化する楽曲(変拍子の楽曲)における小節の長さ(小節に含まれる拍数等)は可変であるので、小節線の検出精度が十分でないケースが多い。
以上の事情に鑑み、本発明は、機械学習に基づいて検出された小節線の位置を適切に補正できる楽曲解析装置、楽曲解析方法、および楽曲解析プログラムを提供することにある。
上記目的を達成するために、本発明の一態様に係る楽曲解析装置は、機械学習によって学習された検出モデルを用いて、楽曲を示す音響情報から小節線を検出する検出部と、前記検出部が検出した前記小節線の位置を、前記楽曲から特定される参照拍子に基づいて補正する補正部と、を有する。
本発明によれば、機械学習に基づいて検出された小節線の位置が適切に補正される。
本発明の実施形態に係る楽曲解析装置の機能的構成を例示するブロック図である。 本発明の実施形態に係る楽曲解析装置のハードウェア構成を例示するブロック図である。 本発明の実施形態における小節特定処理の全体像を例示する説明図である。 本発明の実施形態における小節特定処理に含まれる補正処理を例示するフローチャートである。 本発明の実施形態における参照拍子の特定を説明する図である。 本発明の実施形態における補正処理の例(小節の分割)を説明する図である。 本発明の実施形態における補正処理の例(小節の結合)を説明する図である。 本発明の実施形態の構成による小節特定の精度に関する実験結果を示す表である。
以下、本発明の実施形態について添付図面を参照しながら詳細に説明する。以下に説明される実施形態は、本発明が適用される装置の構成や各種の条件に応じて適宜に修正または変更することが可能である。概略的には、本実施形態の楽曲解析装置10は、楽曲を示す音響情報に基づいて小節線を検出し、検出された小節線の位置を所定のルールに従って補正する。
図1は、本発明の実施形態に係る楽曲解析装置10の機能的構成を例示するブロック図である。図1に示すように、楽曲解析装置10は、制御部11および記憶部17を有する。
制御部11は、楽曲解析装置10の動作を統合的に制御する機能ブロックである。加えて、制御部11は、取得部12、抽出部13、検出部14、補正部15、および出力部16を機能ブロックとして有する。
取得部12は、小節線の検出対象である音響情報を含む楽曲のデータを取得する。取得部12は、記憶部17に既に記憶されている楽曲を取得してもよいし、楽曲提供サーバ等の外部装置から楽曲を取得してもよい。
抽出部13は、取得部12が取得した楽曲が含む音響情報に対してビート解析(拍解析)を実行することによって、拍毎の特徴量(例えば、特徴ベクトル)を抽出する。
検出部14は、機械学習によって学習された検出モデル18を用いて、楽曲を示す音響情報に対応する特徴量から小節線を検出する。本実施形態において、楽曲の拍子が楽曲の進行に応じて時系列的に変化することを想定する。例えば、本実施形態の1つの楽曲には、4分の4拍子である演奏箇所と8分の6拍子である演奏箇所とが含まれてよい。すなわち、本実施形態の楽曲は、拍子が相異なる複数の小節を含み得る。
補正部15は、検出部14が検出した小節線の位置を参照拍子Bに基づいて補正する。参照拍子Bは、補正部15による補正処理のために特定された拍子であって、例えば、楽曲のリズムを基礎付ける拍子である。
出力部16は、検出部14によって検出され補正部15によって補正された小節線を出力する。
記憶部17は、上記した制御部11による処理に用いられる種々のデータ(楽曲、音響情報、特徴量、小節線等)を記憶する。また、記憶部17は、検出部14による検出処理に用いられる検出モデル18を記憶する。検出モデル18は、例えば、学習済みのニューラルネットワークであって、ネットワーク構造と各種パラメータによって規定される。
以上のように、本実施形態の楽曲解析装置10は、機械学習に基づいて楽曲から検出された小節線の位置を参照拍子Bに基づいて補正することができる。したがって、単に機械学習(検出モデル)に基づいて小節線を検出するのみの構成と比較して、より精度良く小節線の位置を特定することが可能である。
なお、制御部11は、上記した一部の機能ブロックのみを有していてもよい。例えば、制御部11が、任意の手法によって取得された楽曲の特徴量に基づいて小節線を検出する検出部14と、検出された小節線の位置を参照拍子Bに基づいて補正する補正部15とのみを有していてもよい。
図2は、本発明の実施形態に係る楽曲解析装置10のハードウェア構成を例示するブロック図である。楽曲解析装置10は、例えば、情報処理機能および無線通信機能を有するスマートフォンである。図2に示すように、楽曲解析装置10は、CPU(Central Processing Unit)21、RAM(Random Access Memory)22、ストレージ23、入力装置24、出力装置25、通信インタフェース(I/F)26、およびバス27を有する。
CPU21は、楽曲解析装置10における種々の演算を実行する処理回路である。RAM22は、揮発性の記憶媒体であって、CPU21が使用する値(パラメータ)が記憶されると共に種々のプログラムが展開されるワーキングメモリとして機能する。ストレージ23は、不揮発性の記憶媒体であって、前述した検出モデル18およびCPU21によって実行される種々のプログラムを記憶する。
RAM22およびストレージ23が、図1に示される記憶部17を構成する。CPU21が、ストレージ23に格納されている検出モデル18およびプログラムをRAM22に読み出して実行することによって、制御部11に係る機能ブロック(制御部11〜出力部16)が実現され、本実施形態に係る種々の処理が実現される。
入力装置24は、楽曲解析装置10に対するユーザの操作を受け付ける要素であって、例えば、ボタンによって構成される。出力装置25は、ユーザに対して種々の情報を表示する装置であって、例えば、液晶ディスプレイによって構成される。入力装置24および出力装置25として機能するタッチスクリーンが採用されてもよい。
通信インタフェース(I/F)26は、楽曲解析装置10と外部装置とを接続する要素であって、例えば、セルラ通信機能、無線LAN通信機能等の機能を実現する通信モジュールである。バス27は、上記した楽曲解析装置10のハードウェア要素を相互に接続する信号伝送路(システムバス)である。
なお、スマートフォン以外の任意の情報処理装置、例えば、パーソナルコンピュータやサーバによって楽曲解析装置10が実現されてもよい。また、情報処理機能を有する電子ピアノ等の電子楽器によって楽曲解析装置10が実現されてもよい。
図3は、本発明の実施形態における小節特定処理を例示する説明図である。本実施形態の小節特定処理には、特徴量抽出処理と小節線検出処理と補正処理とが含まれる。
特徴量抽出処理において、抽出部13は、取得部12に取得された楽曲における検出対象区間を設定する。楽曲のデータには、調性を示さないノンコード区間(無調区間)が含まれることがある。ノンコード区間は、例えば、楽曲開始前の無音区間や、楽曲の冒頭でドラムソロが演奏されている区間である。抽出部13は、楽曲のコード推移を時系列的に示すコード解析情報に基づいて、ノンコード区間が終了した後の区間を小節線の検出対象区間として設定すると好適である。コード解析情報は、楽曲データに予め付与されていてもよいし、種々の公知手法に基づいて制御部11が取得してもよい。
後述される拍および小節線の検出に先立って検出対象区間の先頭が誤って設定されていると、先頭のズレが楽曲の後々まで影響して拍および小節線を精度良く検出できないという問題がある。以上の問題は、音響情報の解析に深層学習を用いる本実施形態のような構成において特に顕著である。上記した抽出部13の構成によれば、コード解析情報を用いてノンコード区間を特定し、ノンコード区間が終了した後の区間を検出対象区間として設定するので、以上の問題を適切に解消することが可能である。なお、以上のような検出対象区間の設定(選別)は必須ではなく、取得された楽曲の全体を検出対象区間とする構成も採用可能である。
次いで、抽出部13は、入力された楽曲に含まれる音響情報に対してビート解析(拍解析)を実行することによって拍を検出し、検出された拍毎の特徴量(例えば、高次元の特徴ベクトル)を抽出して検出部14に出力する。1拍は、連続する2つの拍点の間の区間に相当する。本実施形態の特徴量として、拍毎に算定されたメル周波数対数スペクトル(MSLS)が例示される。
小節線検出処理において、検出部14は、楽曲を示す音響情報に基づいて小節線を検出して補正部15に出力する。より具体的には、検出部14は、機械学習によって学習された検出モデル18を用いて、抽出部13が音響情報から抽出した拍毎の特徴ベクトルに基づいて楽曲の拍毎に小節線の存在尤度を推定し、補正部15に出力する。以上の存在尤度は、好適には、その拍の冒頭に小節線が存在するか否かを示す2クラス値(1:小節線が存在、0:不存在)である。以上のように検出された小節線から次の小節線までの区間(尤度1の拍から次の尤度1の拍の前拍までを含む区間)が1小節に相当する。なお、小節線の存在尤度が、以上のような離散値ではなく、0から1までの連続値として表されてもよい。
本実施形態の検出モデル18は、楽曲の音響情報から抽出された拍毎の特徴量と小節線の存在を拍毎に示す小節線ラベルとを用いた教師あり学習によって深層学習された畳込みニューラルネットワーク(CNN)および回帰型ニューラルネットワーク(RNN)を有する。学習フェーズにおいて入力される楽曲は、楽曲の拍子が楽曲の進行に応じて時系列的に変化する楽曲であると好適である。楽曲のデータは、例えば、MIDIデータに基づいてシーケンサが生成した音源データであってよい。回帰型ニューラルネットワークの構造は、例えば、ゲート付き回帰型ユニット(GRU)であってもよく、長・短期記憶(LSTM)であってもよい。回帰型ニューラルネットワークは、双方向的に構成されてよい。
補正処理において、補正部15は、上記した小節線検出処理によって検出された小節線の位置を参照拍子Bに基づいて補正する。より具体的には、補正部15は、参照拍子Bの1小節に含まれる拍の数である参照拍数b(例えば、4分の4拍子であれば4分音符4拍、8分の6拍子であれば8分音符6拍)からなる小節の数が増加するように、小節線の位置を補正する。なお、「小節線の位置を補正する」ことは、「小節線の存在尤度を示す値を変更する」ことに相当する。補正処理の詳細については、図4から図7を参照して後述される。
以上のように、本実施形態の楽曲解析装置10は、小節線検出処理によって検出された小節線の位置を、楽曲のベースとなる参照拍子Bに含まれる参照拍数bからなる小節の数が増加するように補正する。したがって、楽曲により適合するように小節線の位置を補正することが可能である。
なお、小節特定処理が、特徴量抽出処理を含まず、小節線検出処理および補正処理のみを有してもよい。例えば、任意の手法によって取得された楽曲の特徴量に対して検出部14が小節線を検出し、検出した小節線の位置を補正部15が補正してもよい。
図4は、本発明の実施形態における小節特定処理に含まれる補正処理を例示するフローチャートである。図5は、本発明の実施形態における参照拍子の特定を説明する図である。図6および図7は、本発明の実施形態における補正処理の例(小節の分割および結合)を例示する説明図である。図5ないし図7において、四角形は楽曲内の1拍を示し、四角形の上方に付される数字は小節番号を示す。
ステップS411において、補正部15は、後段の分割処理および結合処理において参照される参照拍子Bを特定する。より具体的には、図5に示すように、補正部15は、検出部14が検出した複数の小節において最も出現頻度の高い拍子を、楽曲における参照拍子Bとして特定する。参照拍子Bに含まれる拍数を、以降、参照拍数bと称する。なお、参照拍子Bは、本補正処理を含む一連の小節特定処理において特定されてもよく、小節特定処理以外において予め特定され補正部15に供給されてもよい。
ステップS421,S422において、補正部15は、参照拍子Bよりも長い小節が分割されるように、検出部14が検出した小節線の位置を補正する。図6を参照してより詳細に説明する。
ステップS421において、補正部15は、参照拍数b(例えば、4)に所定値n(例えば、2)を加えた分割拍数dv(例えば、6)以上の拍数を有する小節を特定する。図6では、第15小節が、分割拍数dv(=6)以上の拍数である14拍を有している。
ステップS422において、補正部15は、ステップS421で特定された小節を、参照拍数bからなる1以上の小節となるように分割する。本例では、補正部15は、14拍(≧dv)を有する第15小節を、参照拍数b(=4)毎に先頭から分割することによって、参照拍数bからなる新たな第15小節ないし第17小節が設けられるように小節線の位置を補正する。
ステップS431,S432において、補正部15は、参照拍子Bよりも短い小節が結合されるように、検出部14が検出した小節線の位置を補正する。図7を参照してより詳細に説明する。
ステップS431において、補正部15は、参照拍数b未満の拍数を有する小節を特定する。図7では、第23小節ないし第29小節の各々が、参照拍数b(=4)未満の拍数である2拍を有している。
ステップS432において、補正部15は、ステップS431で特定された連続する2以上の小節を、参照拍数bからなる小節となるように結合する。本例では、補正部15は、第23小節と第24小節、第25小節と第26小節、および第27小節と第28小節をそれぞれ結合することによって、参照拍数bからなる新たな第23小節ないし第25小節が設けられるように小節線の位置を補正する。
以上のように、本実施形態の楽曲解析装置10は、参照拍数bに所定値nを加えた分割拍数dv以上の拍数を有する小節を分割するように小節線の位置を補正する。以上の構成によれば、誤って長く検出された小節が分割されることによって、楽曲により適合するような小節線の位置の補正が実現される。
参照拍子Bよりも長い小節を全て分割すると、相対的に短い余り小節が大量に発生する可能性がある。上記した本実施形態の構成によれば、分割拍数dv以上の拍数を有する小節に分割対象を限定するので、以上の問題が生じることが抑制される。
また、本実施形態の楽曲解析装置10は、参照拍数b未満の拍数を各々が有する連続した2以上の小節を結合して、参照拍数bからなる小節となるように小節線の位置を補正する。以上の構成によれば、誤って短く検出された小節が結合されることによって、楽曲により適合するような小節線の位置の補正が実現される。
なお、上記した本実施形態では、補正部15が、分割処理(S421,S422)および結合処理(S431,S432)の双方を実行している。しかしながら、補正部15が、分割処理および結合処理のいずれか一方のみを実行する構成も採用可能である。また、分割処理のアルゴリズムおよび結合処理のアルゴリズムは、上記ステップのアルゴリズムに限定されない。
図8は、本実施形態の構成による小節特定の精度に関する実験結果を示す表である。本表において、小節特定の精度はF値(再現率と適合率との調和平均を示す値)によって表されている。本実験においては、拍子が変化しない299曲および拍子が変化する111曲の合計410曲を入力楽曲として用いた。
結果1は、隠れセミマルコフモデルを用いた従来技術による小節特定の結果である。結果2は、本実施形態の構成のうち補正処理を実行しなかった場合の小節特定の結果である。結果3は、本実施形態の構成(特徴量抽出処理、小節線検出処理、および補正処理)を実行した場合の小節特定の結果である。結果4は、本実施形態の構成のうち、ビート解析による拍検出に代えて正しい拍を示す正解拍情報を与えた場合の小節特定の結果である。
結果1と結果2〜4との比較から理解されるように、本実施形態に係る小節特定処理の精度は従来技術による小節特定処理の精度と比較して高かった。結果4のように正解拍情報を特に与えなくても、本実施形態による精度(結果2,3)は従来技術による精度(結果1)よりも高かった。
加えて、結果2と結果3との比較から理解されるように、本実施形態の補正処理を実行した場合(結果2)は、特徴量抽出処理および小節線検出処理のみを実行した場合(結果3)よりも、小節特定の精度が向上した。
<変形例>
以上の実施形態は多様に変形される。具体的な変形の態様を以下に例示する。以上の実施形態および以下の例示から任意に選択された2以上の態様は、相互に矛盾しない限り適宜に併合され得る。
上記した実施形態では、ノンコード区間が終了した後の区間が小節線の検出対象区間として設定されている。すなわち、ノンコード区間においては小節線が特定されない。しかしながら、ノンコード区間において小節線が特定されてもよい。例えば、検出部14または補正部15は、検出対象区間において小節線が検出された後に、検出対象区間より前のノンコード区間に遡って小節線を追加してもよい。参照拍数bからなる小節が設けられるように小節線が追加されるとより好適である。
分割処理(ステップS421,S422)において、補正部15が、参照拍数bに満たない余り小節の発生を抑制すると好適である。例えば、補正部15が、分割によって余り小節(例えば、図6(分割後))の2拍の第18小節)が生成されようとする場合であって、余り小節と余り小節の直前に位置する直前小節(例えば、図6(分割後)の4拍の第17小節)との拍数の和(4+2=6)が分割拍数dv(例えば、本変形例ではdv=7)未満であるときを想定する。以上のケースにおいて、補正部15が、余り小節と直前小節とを分割しない、すなわち、参照拍数bに満たない余り小節が発生する箇所では分割処理を実行しないと好適である。図6の例では、分割後において、第17小節と第18小節とを融合した6拍の小節が生成されるように小節線の位置が補正されるとよい。
結合処理(ステップS431,S432)において、補正部15が、参照拍数bの2分の1を上回る拍数を有する小節を結合の対象から除外すると好適である。例えば、参照拍子Bが4分の4拍子であって参照拍数bが4拍である場合、4分の4拍子の区間において実際の小節構成よりも更に分割されて4分の2拍子の小節(参照拍数bの2分の1以下の拍数を有する小節)が誤って検出される可能性は比較的高い。一方で、4分の4拍子の区間において、4分の4拍子とは音楽的構成が異なる4分の3拍子の小節が誤って検出される可能性は比較的低い。つまり、参照拍子Bが4分の4拍子である楽曲において検出された4分の3拍子の小節は、正しく検出されたものである可能性が比較的高い。そこで、補正部15は、参照拍数bの2分の1を上回る拍数を有する小節を結合の対象から除外すると共に、参照拍数bの2分の1以下の拍数を各々が有する連続した2以上の小節を結合して、参照拍数bからなる小節となるように小節線の位置を補正すると好適である。
以上、本発明の好ましい実施形態について説明したが、以上の実施形態は本発明を実現可能な構成の一例に過ぎない。本発明は、以上の実施形態に記載される構成によって限定されるものではなく、その要旨の範囲内で種々の変形および変更が可能である。例えば、本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや非一過性の記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 楽曲解析装置
11 制御部
13 抽出部
14 検出部
15 補正部
18 検出モデル

Claims (19)

  1. 機械学習によって学習された検出モデルを用いて、楽曲を示す音響情報に基づいて小節線を検出する検出部と、
    前記検出部が検出した前記小節線の位置を、前記楽曲から特定される参照拍子に基づいて補正する補正部と、を備える楽曲解析装置。
  2. 前記補正部は、前記参照拍子に含まれる参照拍数からなる小節の数が増加するように前記小節線の位置を補正する、請求項1に記載の楽曲解析装置。
  3. 前記補正部は、前記参照拍数に所定値を加えた分割拍数以上の拍数を有する小節を分割して、前記参照拍数からなる1以上の小節となるように前記小節線の位置を補正する、請求項2に記載の楽曲解析装置。
  4. 前記補正部は、前記分割によって前記参照拍数に満たない余り小節が生成されようとする場合であって、前記余り小節と前記余り小節の直前に位置する直前小節との拍数の和が前記分割拍数未満であるときには、前記余り小節と前記直前小節とを分割しないように前記小節線の位置を補正する、請求項3の楽曲解析装置。
  5. 前記補正部は、前記参照拍数未満の拍数を各々が有する連続した2以上の小節を結合して、前記参照拍数からなる小節となるように前記小節線の位置を補正する、請求項2から請求項4のいずれか1項に記載の楽曲解析装置。
  6. 前記補正部は、前記参照拍数の2分の1を上回る拍数を有する小節を前記結合の対象から除外し、前記参照拍数の2分の1以下の拍数を各々が有する連続した2以上の小節を結合して、前記参照拍数からなる小節となるように前記小節線の位置を補正する、請求項5に記載の楽曲解析装置。
  7. 前記楽曲は、拍子が相異なる複数の小節を含み、
    前記参照拍子は、前記楽曲において最も出現頻度の高い拍子である、請求項1から請求項6のいずれか1項に記載の楽曲解析装置。
  8. 前記楽曲において、調性を示さないノンコード区間が終了した後の区間を、前記小節線の検出対象区間として設定する抽出部をさらに備える、請求項1から請求項7のいずれか1項に記載の楽曲解析装置。
  9. 前記検出モデルは、前記音響情報と正解データである小節線情報とを用いて学習された畳込みニューラルネットワークおよび回帰型ニューラルネットワークを含み、
    前記検出モデルの入力は、前記楽曲から拍毎に抽出された特徴ベクトルであり、
    前記検出モデルの出力は、前記楽曲の拍毎に推定された前記小節線の存在尤度である、請求項1から請求項8のいずれか1項に記載の楽曲解析装置。
  10. コンピュータにより実現される楽曲解析方法であって、
    機械学習によって学習された検出モデルを用いて、楽曲を示す音響情報に基づいて小節線を検出し、
    検出された前記小節線の位置を、前記楽曲から特定される参照拍子に基づいて補正する、楽曲解析方法。
  11. 前記参照拍子に含まれる参照拍数からなる小節の数が増加するように前記小節線の位置を補正する、請求項10に記載の楽曲解析方法。
  12. 前記参照拍数に所定値を加えた分割拍数以上の拍数を有する小節を分割して、前記参照拍数からなる1以上の小節となるように前記小節線の位置を補正する、請求項11に記載の楽曲解析方法。
  13. 前記分割によって前記参照拍数に満たない余り小節が生成されようとする場合であって、前記余り小節と前記余り小節の直前に位置する直前小節との拍数の和が前記分割拍数未満であるときには、前記余り小節と前記直前小節とを分割しないように前記小節線の位置を補正する、請求項12の楽曲解析方法。
  14. 前記参照拍数未満の拍数を各々が有する連続した2以上の小節を結合して、前記参照拍数からなる小節となるように前記小節線の位置を補正する、請求項11から請求項13のいずれか1項に記載の楽曲解析方法。
  15. 前記参照拍数の2分の1を上回る拍数を有する小節を前記結合の対象から除外し、前記参照拍数の2分の1以下の拍数を各々が有する連続した2以上の小節を結合して、前記参照拍数からなる小節となるように前記小節線の位置を補正する、請求項14に記載の楽曲解析方法。
  16. 前記楽曲は、拍子が相異なる複数の小節を含み、
    前記参照拍子は、前記楽曲において最も出現頻度の高い拍子である、請求項10から請求項15のいずれか1項に記載の楽曲解析方法。
  17. 前記楽曲において、調性を示さないノンコード区間が終了した後の区間を、前記小節線の検出対象区間として設定する、請求項10から請求項16のいずれか1項に記載の楽曲解析方法。
  18. 前記検出モデルは、前記音響情報と正解データである小節線情報とを用いて学習された畳込みニューラルネットワークおよび回帰型ニューラルネットワークを含み、
    前記検出モデルの入力は、前記楽曲から拍毎に抽出された特徴ベクトルであり、
    前記検出モデルの出力は、前記楽曲の拍毎に推定された前記小節線の存在尤度である、請求項10から請求項17のいずれか1項に記載の楽曲解析方法。
  19. コンピュータを、
    機械学習によって学習された検出モデルを用いて、楽曲を示す音響情報に基づいて小節線を検出する検出部、および、
    前記検出部が検出した前記小節線の位置を、前記楽曲から特定される参照拍子に基づいて補正する補正部、として機能させる楽曲解析プログラム。
JP2019176923A 2019-09-27 2019-09-27 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム Active JP7419726B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019176923A JP7419726B2 (ja) 2019-09-27 2019-09-27 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム
PCT/JP2020/028057 WO2021059701A1 (ja) 2019-09-27 2020-07-20 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム
US17/705,117 US20220215818A1 (en) 2019-09-27 2022-03-25 Musical analysis device, musical analysis method, and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019176923A JP7419726B2 (ja) 2019-09-27 2019-09-27 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム

Publications (2)

Publication Number Publication Date
JP2021056295A true JP2021056295A (ja) 2021-04-08
JP7419726B2 JP7419726B2 (ja) 2024-01-23

Family

ID=75166549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019176923A Active JP7419726B2 (ja) 2019-09-27 2019-09-27 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム

Country Status (3)

Country Link
US (1) US20220215818A1 (ja)
JP (1) JP7419726B2 (ja)
WO (1) WO2021059701A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7243026B2 (ja) * 2018-03-23 2023-03-22 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121563A (ja) * 2005-10-26 2007-05-17 Kawai Musical Instr Mfg Co Ltd 楽譜認識装置および楽譜認識プログラム
JP2010518428A (ja) * 2007-02-01 2010-05-27 ミューズアミ, インコーポレイテッド 音楽転写
JP2010122629A (ja) * 2008-11-21 2010-06-03 Sony Corp 情報処理装置、音声解析方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121563A (ja) * 2005-10-26 2007-05-17 Kawai Musical Instr Mfg Co Ltd 楽譜認識装置および楽譜認識プログラム
JP2010518428A (ja) * 2007-02-01 2010-05-27 ミューズアミ, インコーポレイテッド 音楽転写
JP2010122629A (ja) * 2008-11-21 2010-06-03 Sony Corp 情報処理装置、音声解析方法、及びプログラム

Also Published As

Publication number Publication date
JP7419726B2 (ja) 2024-01-23
US20220215818A1 (en) 2022-07-07
WO2021059701A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
CN109166564B (zh) 为歌词文本生成乐曲的方法、装置及计算机可读存储介质
EP3047478B1 (en) Combining audio samples by automatically adjusting sample characteristics
EP3047484B1 (en) Recommending audio sample combinations
EP3047479B1 (en) Automatically expanding sets of audio samples
EP3929921B1 (en) Melody detection method for audio signal, device, and electronic apparatus
US8977374B1 (en) Geometric and acoustic joint learning
JP2009162818A (ja) 楽曲提示装置、楽曲提示プログラム
JP2014178394A (ja) 音響信号分析装置及び音響信号分析プログラム
US20130305904A1 (en) Music Analysis Apparatus
US11367424B2 (en) Method and apparatus for training adaptation quality evaluation model, and method and apparatus for evaluating adaptation quality
US9245508B2 (en) Music piece order determination device, music piece order determination method, and music piece order determination program
JP2017161574A (ja) 音信号処理方法および音信号処理装置
WO2021059701A1 (ja) 楽曲解析装置、楽曲解析方法、および楽曲解析プログラム
CN108292499A (zh) 技巧确定装置和记录介质
JP6295794B2 (ja) 音響信号分析装置及び音響信号分析プログラム
JP2015079151A (ja) 楽曲判別装置、楽曲判別装置の判別方法、プログラム
JP2009282464A (ja) コード検出装置およびコード検出プログラム
JP6225818B2 (ja) ピッチ情報生成装置、ピッチ情報生成方法、及びプログラム
JP2008065153A (ja) 楽曲構造解析方法、プログラムおよび装置
CN112420003A (zh) 伴奏的生成方法、装置、电子设备及计算机可读存储介质
JP2018072444A (ja) コード検出装置、コード検出プログラムおよびコード検出方法
JP6168117B2 (ja) 楽譜情報生成装置、楽譜情報生成方法及びプログラム
JP6554826B2 (ja) 音楽データ検索装置及び音楽データ検索プログラム
JP5810691B2 (ja) 楽譜情報生成装置および楽譜情報生成プログラム
JP7176114B2 (ja) 楽曲解析装置、プログラムおよび楽曲解析方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7419726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151