WO2021075014A1 - 演奏解析方法、演奏解析装置およびプログラム - Google Patents

演奏解析方法、演奏解析装置およびプログラム Download PDF

Info

Publication number
WO2021075014A1
WO2021075014A1 PCT/JP2019/040813 JP2019040813W WO2021075014A1 WO 2021075014 A1 WO2021075014 A1 WO 2021075014A1 JP 2019040813 W JP2019040813 W JP 2019040813W WO 2021075014 A1 WO2021075014 A1 WO 2021075014A1
Authority
WO
WIPO (PCT)
Prior art keywords
output data
sound
time series
input data
performance analysis
Prior art date
Application number
PCT/JP2019/040813
Other languages
English (en)
French (fr)
Inventor
陽 前澤
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2021552051A priority Critical patent/JP7327497B2/ja
Priority to PCT/JP2019/040813 priority patent/WO2021075014A1/ja
Priority to CN201980101398.9A priority patent/CN114556465A/zh
Publication of WO2021075014A1 publication Critical patent/WO2021075014A1/ja
Priority to US17/720,630 priority patent/US20220238089A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • G10H1/348Switches actuated by parts of the body other than fingers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/271Sympathetic resonance, i.e. adding harmonics simulating sympathetic resonance from other strings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Definitions

  • the acoustic effect is an effect of changing the timbre of a sound having a pitch represented by a time series of the input data.
  • the output data for controlling the timbre change is generated, there is an advantage that the performance sound of an appropriate timbre can be generated with respect to the played pitch.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

演奏解析装置は、演奏された音高を表す入力データの時系列を取得する入力データ取得部と、音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記取得された入力データの時系列を入力することで、前記取得された入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する出力データ生成部とを具備する。

Description

演奏解析方法、演奏解析装置およびプログラム
 本開示は、演奏を解析する技術に関する。
 例えば鍵盤楽器のサスティンペダルによる持続効果等の各種の音響効果を、楽器の演奏音に付加する構成が、従来から提案されている。例えば特許文献1には、鍵盤楽器における鍵操作のタイミングとペダル操作のタイミングとが規定された楽曲データを利用して、利用者による演奏に並行してペダルを自動的に駆動する構成が開示されている。
特開2017-102415号公報
 しかし、特許文献1の技術においては、ペダル操作のタイミングを規定する楽曲データを事前に用意する必要がある。したがって、楽曲データが用意されていない楽曲を演奏する場面では、ペダルを自動的に駆動できないという課題がある。なお、以上の説明においてはペダルの動作により付加される持続効果に着目したが、持続効果以外の各種の音響効果を演奏音に付加する場面でも同様の課題が想定される。以上の事情を考慮して、本開示のひとつの態様は、音響効果を規定する楽曲データを必要とすることなく、利用者が演奏した音高に対して適切に音響効果を付加することを目的とする。
 以上の課題を解決するために、本開示のひとつの態様に係る演奏解析方法は、演奏された音高を表す入力データの時系列を取得し、音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記入力データの時系列を入力することで、前記入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する。
 本開示のひとつの態様に係る演奏解析装置は、演奏された音高を表す入力データの時系列を取得する入力データ取得部と、音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記入力データの時系列を入力することで、前記入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する出力データ生成部とを具備する。
 本開示のひとつの態様に係るプログラムは、演奏された音高を表す入力データの時系列を取得する入力データ取得部、および、音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記入力データの時系列を入力することで、前記入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する出力データ生成部、としてコンピュータを機能させる。
第1実施形態に係る演奏システムの構成を例示するブロック図である。 演奏システムの機能的な構成を例示するブロック図である。 入力データの模式図である。 出力データ生成部の構成を例示するブロック図である。 推定モデルの具体的な構成を例示するブロック図である。 演奏解析処理の具体的な手順を例示するフローチャートである。 学習処理部による機械学習の説明図である。 学習処理の具体的な手順を例示するフローチャートである。 第2実施形態に係る演奏システムの構成を例示するブロック図である。 第3実施形態における出力データ生成部の構成を例示するブロック図である。 第4実施形態における出力データ生成部の構成を例示するブロック図である。 第5実施形態における出力データ生成部の構成を例示するブロック図である。
A:第1実施形態
 図1は、第1実施形態に係る演奏システム100の構成を例示するブロック図である。演奏システム100は、利用者が所望の楽曲を演奏するための電子楽器(具体的には電子鍵盤楽器)である。演奏システム100は、鍵盤11とペダル機構12と制御装置13と記憶装置14と操作装置15と放音装置16とを具備する。なお、演奏システム100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置でも実現される。
 鍵盤11は、相異なる音高に対応する複数の鍵の配列で構成される。複数の鍵の各々は、利用者による操作を受付ける操作子である。利用者は、各鍵を順次に操作(押鍵または離鍵)することで所望の楽曲を演奏する。鍵盤11に対する操作で利用者が順次に指定する音高を有する音を、以下の説明においては「演奏音」と表記する。
 ペダル機構12は、鍵盤11を利用した演奏を補助するための機構である。具体的には、ペダル機構12は、サスティンペダル121と駆動機構122とを具備する。サスティンペダル121は、演奏音に対する持続効果の付加を指示するために利用者が操作する操作子である。具体的には、サスティンペダル121は、利用者の足により踏込まれる。持続効果は、離鍵後にも演奏音を持続させる音響効果である。駆動機構122は、サスティンペダル121を駆動する。駆動機構122は、例えばモータまたはソレノイド等のアクチュエータで構成される。以上の説明から理解される通り、第1実施形態のサスティンペダル121は、利用者により操作されるほか、駆動機構122により操作される。なお、演奏システム100に対してペダル機構12を着脱可能な構成も想定される。
 制御装置13は、演奏システム100の各要素を制御する。制御装置13は、単数または複数のプロセッサで構成される。例えば、制御装置13は、CPU(Central Processing Unit)、SPU(Sound Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。具体的には、制御装置13は、鍵盤11およびペダル機構12に対する操作に応じた音響信号Vを生成する。
 放音装置16は、制御装置13が生成した音響信号Vが表す音響を放音する。放音装置16は、例えばスピーカまたはヘッドホンである。なお、音響信号Vをデジタルからアナログに変換するD/A変換器と、音響信号Vを増幅する増幅器とについては、便宜的に図示が省略されている。操作装置15は、利用者による操作を受付ける入力機器である。操作装置15は、例えばタッチパネルまたは複数の操作子である。
 記憶装置14は、制御装置13が実行するプログラムと制御装置13が使用する各種のデータとを記憶する単数または複数のメモリである。記憶装置14は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成される。なお、複数種の記録媒体の組合せにより記憶装置14を構成してもよい。また、演奏システム100に着脱可能な可搬型の記録媒体、または、演奏システム100が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置14として利用してもよい。
 図2は、制御装置13の機能的な構成を例示するブロック図である。制御装置13は、記憶装置14に記憶されたプログラムを実行することで、音響信号Vを生成するための複数の機能(演奏処理部21,音源部22,入力データ取得部23,出力データ生成部24,効果制御部25および学習処理部26)を実現する。なお、制御装置13の機能の一部または全部を、例えばスマートフォン等の情報端末により実現してもよい。
 演奏処理部21は、利用者による演奏の内容を表す演奏データDを生成する。演奏データDは、鍵盤11を利用して利用者が演奏した音高の時系列を表す時系列データである。例えば、演奏データDは、利用者が演奏した音高および強度を音符毎に指定するMIDI(Musical Instrument Digital Interface)データである。
 音源部22は、演奏データDに応じた音響信号Vを生成する。音響信号Vは、演奏データDが表す音高の時系列に対応した演奏音の波形を表す時間信号である。また、音源部22は、サスティンペダル121に対する操作の有無に応じて演奏音に対する持続効果を制御する。具体的には、音源部22は、サスティンペダル121が操作された状態においては、持続効果が付加された演奏音の音響信号Vを生成し、サスティンペダル121が解放された状態においては、持続効果が付加されていない演奏音の音響信号Vを生成する。なお、音響信号Vの生成に専用される電子回路により音源部22を実現してもよい。
 入力データ取得部23は、演奏データDから入力データXの時系列を生成する。入力データXは、利用者が演奏した音高を表すデータである。時間軸上の単位期間毎に入力データXが順次に生成される。単位期間は、楽曲の1個の音符の継続長よりも充分に短い時間長(例えば0.1秒)の期間である。
 図3は、1個の入力データXの模式図である。入力データXは、相異なる音高(#1,#2,…,#N)に対応するN個の要素Qで構成されるN次元のベクトルである。要素Qの個数Nは2以上の自然数(例えばN=128)である。各単位期間に対応する入力データXのN個の要素Qのうち、当該単位期間において利用者が演奏している音高に対応する要素Qは1に設定され、当該単位期間において利用者が演奏していない音高に対応する要素Qは0に設定される。複数の音高が並列に演奏されている単位期間においては、N個の要素Qのうち、演奏中の複数の音高にそれぞれ対応する複数の要素Qが1に設定される。なお、N個の要素Qのうち利用者が演奏している音高に対応する要素Qを0に設定し、利用者が演奏していない音高に対応する要素Qを1に設定してもよい。
 図2の出力データ生成部24は、入力データXの時系列から出力データZの時系列を生成する。単位期間毎に出力データZが生成される。すなわち、各単位期間の入力データXから当該単位期間の出力データZが生成される。
 出力データZは、演奏音の持続効果を制御するためのデータである。具体的には、出力データZは、演奏音に持続効果を付加するか否かを表す2値データである。例えば、出力データZは、演奏音に持続効果を付加すべき場合には1に設定され、持続効果を付加しない場合には0に設定される。
 効果制御部25は、ペダル機構12における駆動機構122を出力データZの時系列に応じて制御する。具体的には、出力データZの数値が1である場合、効果制御部25は、サスティンペダル121が操作された状態(すなわち踏込まれた状態)に駆動されるように駆動機構122を制御する。他方、出力データZの数値が0である場合、効果制御部25は、サスティンペダル121が解放されるように駆動機構122を制御する。例えば、効果制御部25は、出力データZの数値が0から1に変化した場合にサスティンペダル121の操作を駆動機構122に指示し、出力データZの数値が1から0に変化した場合にサスティンペダル121の解放を駆動機構122に指示する。サスティンペダル121の駆動は、例えばMIDIのコントロールチェンジにより駆動機構122に指示される。以上の説明から理解される通り、第1実施形態の出力データZは、サスティンペダル121の操作/解放を表すデータとも表現される。
 鍵盤楽器の演奏においてサスティンペダル121を操作すべきか否かは、当該鍵盤楽器において演奏される音高の時系列(すなわち楽曲の楽譜の内容)に応じて決定されるという一般的な傾向がある。例えば、低音が演奏された直後にはサスティンペダル121が一時的に解放されるという傾向がある。また、低音域内で旋律が演奏される場合にはサスティンペダル121が小刻みに操作/解放されるという傾向もある。演奏されるコードが変更される時点でサスティンペダル121が解放されるという傾向もある。以上のような傾向を考慮して、出力データ生成部24による出力データZの生成には、演奏される音高の時系列とサスティンペダル121の操作/解放との関係を学習した推定モデルMが利用される。
 図4は、出力データ生成部24の構成を例示するブロック図である。出力データ生成部24は、推定処理部241と閾値処理部242とを具備する。推定処理部241は、推定モデルMを利用して入力データXの時系列から暫定値Yの時系列を生成する。推定モデルMは、入力データXを入力として暫定値Yを出力する統計的推定モデルである。暫定値Yは、演奏音に付加されるべき持続効果の度合を表す指標である。暫定値Yは、サスティンペダル121が操作されるべき度合(すなわち踏込量)を表す指標とも表現される。暫定値Yは、例えば0以上かつ1以下の範囲内の数値に設定される(0≦Y≦1)。
 閾値処理部242は、暫定値Yと閾値Ythとを比較し、当該比較の結果に応じた出力データZを生成する。閾値Ythは、0を上回り1を下回る範囲内の所定値(0<Yth<1)に設定される。具体的には、暫定値Yが閾値Ythを上回る場合、閾値処理部242は、出力データZの数値を1に設定する。他方、暫定値Yが閾値Ythを下回る場合、閾値処理部242は、出力データZの数値を0に設定する。以上の説明から理解される通り、出力データ生成部24は、入力データXの時系列を推定モデルMに入力することで出力データZの時系列を生成する。
 図5は、推定モデルMの具体的な構成を例示するブロック図である。推定モデルMは、第1処理部31と第2処理部32と第3処理部33とを具備する。第1処理部31は、入力データXからK次元(Kは2以上の自然数)の中間データWを生成する。第1処理部31は、例えば再帰型ニューラルネットワークである。具体的には、第1処理部31は、K個の隠れユニットを含む長短期記憶(LSTM:Long Short Term Memory)で構成される。なお、縦続に接続された複数の長短期記憶により第1処理部31を構成してもよい。
 第2処理部32は、K次元の中間データWを1次元の暫定値Y0に圧縮する全結合層である。第3処理部33は、暫定値Y0を所定の範囲内(0≦Y≦1)の暫定値Yに変換する。第3処理部33が暫定値Y0を暫定値Yに変換する処理には、例えばシグモイド関数等の各種の変換関数が利用される。
 以上に例示した推定モデルMは、入力データXから暫定値Yを生成する演算を制御装置13に実行させるプログラムと、当該演算に適用される複数の係数(具体的には加重値およびバイアス)との組合せで実現される。プログラムと複数の係数とは記憶装置14に記憶される。
 図6は、制御装置13が利用者による演奏を解析する処理(以下「演奏解析処理」という)Saの具体的な手順を例示するフローチャートである。演奏解析処理Saは単位期間毎に実行される。また、演奏解析処理Saは、利用者による楽曲の演奏に並行して実時間的に実行される。すなわち、演奏処理部21による演奏データDの生成と音源部22による音響信号Vの生成とに並行して演奏解析処理Saが実行される。演奏解析処理Saは、「演奏解析方法」の一例である。
 入力データ取得部23は、演奏データDから入力データXを生成する(Sa1)。出力データ生成部24は、入力データXから出力データZを生成する(Sa2およびSa3)。具体的には、出力データ生成部24(推定処理部241)は、推定モデルMを利用して入力データXから暫定値Yを生成する(Sa2)。出力データ生成部24(閾値処理部242)は、暫定値Yと閾値Ythとを比較した結果に応じた出力データZを生成する(Sa3)。効果制御部25は、出力データZに応じて駆動機構122を制御する(Sa4)。
 以上に説明した通り、第1実施形態においては、利用者が演奏した音高を表す入力データXの時系列を推定モデルMに入力することで、当該入力データXが表す音高の演奏音における持続効果を制御するための出力データZの時系列が生成される。したがって、サスティンペダル121の操作/解放のタイミングを規定する楽曲データを必要とせずに、演奏音における持続効果を適切に制御可能な出力データZを生成できる。
 図2の学習処理部26は、前述の推定モデルMを機械学習により構築する。図7は、学習処理部26による機械学習の説明図である。学習処理部26は、推定モデルMにおける複数の係数の各々を機械学習により設定する。推定モデルMの機械学習には複数の訓練データTが利用される。
 複数の訓練データTの各々は、訓練用入力データTxと訓練用出力データTyとを相互に対応させた既知データである。訓練用入力データTxは、図3に例示した入力データXと同様に、相異なる音高に対応するN個の要素Qにより1個以上の音高を表すN次元のベクトルである。訓練用出力データTyは、出力データZと同様に、演奏音に持続効果を付加するか否かを表す2値データである。具体的には、各訓練データTにおける訓練用出力データTyは、当該訓練データTの訓練用入力データTxが表す音高の演奏音に持続効果が付加されるべきか否かを表す。
 学習処理部26は、以上に説明した複数の訓練データTを利用した教師あり機械学習により推定モデルMを構築する。図8は、学習処理部26が推定モデルMを構築する処理(以下「学習処理」という)Sbの具体的な手順を例示するフローチャートである。例えば操作装置15に対する利用者からの指示を契機として学習処理Sbが開始される。
 学習処理部26は、複数の訓練データTの何れか(以下「選択訓練データT」という)を選択する(Sb1)。学習処理部26は、選択訓練データTの訓練用入力データTxを暫定的な推定モデルMに入力することで暫定値Pを生成する(Sb2)。学習処理部26は、暫定値Pと選択訓練データTの訓練用出力データTyの数値との誤差Eを算定する(Sb3)。学習処理部26は、誤差Eが低減されるように推定モデルMの複数の係数を更新する(Sb4)。学習処理部26は、所定の終了条件が成立するまで以上の処理を反復する(Sb5:NO)。終了条件は、例えば、誤差Eが所定の閾値を下回ること、または、所定個の訓練データTを利用して推定モデルMの複数の係数を更新したことである。終了条件が成立した場合(Sb5:YES)、学習処理部26は学習処理Sbを終了する。
 以上の説明から理解される通り、推定モデルMは、複数の訓練データTにおける訓練用入力データTxと訓練用出力データTyとの間に潜在する関係を学習する。すなわち、学習処理部26による機械学習後の推定モデルMは、未知の入力データXに対して当該関係のもとで統計的に妥当な暫定値Yを出力する。以上の説明から理解される通り、推定モデルMは、訓練用入力データTxと訓練用出力データTyとの関係を学習した学習済モデルである。
B:第2実施形態
 第2実施形態を説明する。なお、以下に例示する各構成において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
 図9は、第2実施形態における演奏システム100の機能的な構成を例示するブロック図である。第1実施形態の効果制御部25は、前述の通り、出力データZの時系列に応じて駆動機構122を制御する。第2実施形態の効果制御部25は、出力データZの時系列に応じて音源部22を制御する。第2実施形態の出力データZは、第1実施形態と同様に、演奏音に持続効果を付加するか否かを表す2値データである。
 音源部22は、音響信号Vが表す演奏音に持続効果を付加するか否かを切替可能である。出力データZが持続効果の付加を表す場合、効果制御部25は、演奏音に持続効果が付加されるように音源部22を制御する。他方、持続効果を演奏音に付加しないことを出力データZが表す場合、効果制御部25は、演奏音に持続効果が付加されないように音源部22を制御する。第2実施形態においても第1実施形態と同様に、利用者が演奏する音高の時系列に対して適切な持続効果が付加された演奏音を生成できる。また、第2実施形態によれば、演奏システム100がペダル機構12を具備しない構成においても、持続効果が適切に付加された演奏音を生成できる。
C:第3実施形態
 図10は、第3実施形態における出力データ生成部24の構成を例示するブロック図である。第3実施形態の出力データ生成部24には、利用者が演奏する楽曲の音楽ジャンルGが指示される。例えば、操作装置15に対する操作で利用者が指定した音楽ジャンルGが、閾値処理部242に指示される。音楽ジャンルGは、楽曲を音楽的な観点で分類した区分(種別)である。例えばロック,ポップス,ジャズ,ダンスまたはブルース等の音楽的な区分が音楽ジャンルGの典型例である。持続効果が付加される頻度は音楽ジャンルG毎に相違するという傾向がある。
 出力データ生成部24(具体的には閾値処理部242)は、音楽ジャンルGに応じて閾値Ythを制御する。すなわち、第3実施形態における閾値Ythは可変値である。例えば、持続効果が付加され易い傾向がある音楽ジャンルGが指示された場合、閾値処理部242は、持続効果が付加され難い傾向がある音楽ジャンルGが指示された場合と比較して、閾値Ythを小さい数値に設定する。閾値Ythが小さいほど、暫定値Yが閾値Ythを上回る可能性が上昇する。したがって、持続効果の付加を表す出力データZが生成される頻度が増加する。
 第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態においては、利用者が演奏する楽曲の音楽ジャンルGに応じて閾値Ythが制御されるから、楽曲の音楽ジャンルGに応じた適切な持続効果を演奏音に付加できる。
D:第4実施形態
 図11は、第4実施形態における出力データ生成部24の構成を例示するブロック図である。利用者は、操作装置15を操作することで、閾値Ythの変更を出力データ生成部24に対して指示できる。出力データ生成部24(具体的には閾値処理部242)は、操作装置15に対する利用者からの指示に応じて閾値Ythを制御する。例えば、閾値Ythを利用者から指示された数値に設定する構成、または、利用者からの指示に応じて閾値Ythを変更する構成が想定される。第3実施形態において前述した通り、閾値Ythが小さいほど、暫定値Yが閾値Ythを上回る可能性が上昇する。したがって、持続効果の付加を表す出力データZが生成される頻度が増加する。
 第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態においては、利用者からの指示に応じて閾値Ythが制御されるから、利用者の嗜好または意図に応じた適切な頻度で演奏音に持続効果を付加できる。
E:第5実施形態
 図12は、第5実施形態における出力データ生成部24の構成を例示するブロック図である。第1実施形態の閾値処理部242は、持続効果を付加するか否かを表す2値の出力データZを生成する。第1実施形態とは対照的に、第5実施形態においては閾値処理部242が省略される。したがって、推定処理部241が生成する暫定値Yが出力データZとして出力される。すなわち、出力データ生成部24は、演奏音に付加されるべき持続効果の度合を表す多値の出力データZを生成する。第5実施形態の出力データZは、サスティンペダル121の操作量(すなわち踏込量)を表す多値データとも換言される。
 効果制御部25は、出力データZに応じた操作量だけサスティンペダル121が操作されるように駆動機構122を制御する。すなわち、サスティンペダル121は、完全に踏込まれた状態と解放された状態との中間の状態に制御され得る。具体的には、出力データZの数値が1に近いほどサスティンペダル121の操作量が増加し、出力データZの数値が0に近いほどサスティンペダル121の操作量は減少する。
 第5実施形態においても第1実施形態と同様の効果が実現される。また、第5実施形態においては、持続効果の度合を表す多値の出力データZが生成されるから、演奏音に付加される持続効果を精細に制御できるという利点がある。
 なお、以上の説明においては、第1実施形態と同様に効果制御部25が駆動機構122を制御する構成を例示した。しかし、持続効果の度合を表す多値の出力データZを生成する第5実施形態の構成は、効果制御部25が音源部22を制御する第2実施形態にも同様に適用される。具体的には、効果制御部25は、出力データZが表す度合の持続効果が演奏音に付加されるように音源部22を制御する。また、持続効果の度合を表す多値の出力データZを生成する第5実施形態の構成は、第3実施形態および第4実施形態にも同様に適用される。
F:変形例
 以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態においては、持続効果を制御するための出力データZを例示したが、出力データZにより制御される音響効果の種類は持続効果に限定されない。例えば、演奏音の音色を変化させる効果(以下「音色変化」という)を制御するための出力データZを出力データ生成部24が生成してもよい。すなわち、出力データZは、音色変化の有無または度合を表す。音色変化としては、例えば、演奏音の帯域毎に信号レベルを調整するイコライザ処理、演奏音の波形を歪ませるディストーション処理、演奏音において信号レベルが高い区間の信号レベルを抑制するコンプレッサ処理等の各種のエフェクト処理が例示される。なお、前述の各形態において例示した持続効果においても演奏音の波形は変化する。したがって、持続効果も音色変化の一例である。
(2)前述の各形態においては、入力データ取得部23が演奏データDから入力データXを生成したが、入力データ取得部23が外部装置から入力データXを受信してもよい。すなわち、入力データ取得部23は、演奏された音高を表す入力データXの時系列を取得する要素として包括的に表現され、自身が入力データXを生成する要素と外部装置から入力データXを受信する要素との双方を包含する。
(3)前述の各形態においては、演奏処理部21が生成した演奏データDを入力データ取得部23に供給したが、入力データ取得部23に対する入力は演奏データDに限定されない。例えば、演奏音の波形を表す波形信号を入力データ取得部23に供給してもよい。具体的には、自然楽器が放射する演奏音を収音する収音機器から入力データ取得部23に対して波形信号が供給される構成、または、電気弦楽器等の電気楽器から入力データ取得部23に波形信号が供給される構成が想定される。入力データ取得部23は、利用者が演奏した1以上の音高を波形信号の解析により単位期間毎に推定し、当該1以上の音高を表す入力データXを生成する。
(4)前述の各形態においては、出力データZに応じて音源部22または駆動機構122を制御する構成を例示したが、出力データZを利用する方法は以上の例示に限定されない。例えば、出力データZが表す持続効果の有無または度合を利用者に報知してもよい。例えば、出力データZが持続効果の有無または度合を表す画像を表示装置に表示する構成、または、持続効果の有無または度合を表す音声を放音装置16から放音する構成が想定される。また、出力データZの時系列を、楽曲に関する付加的なデータとして記録媒体(例えば記憶装置14)に記憶してもよい。
(5)前述の各形態においては、鍵盤楽器型の演奏システム100を例示したが、電子楽器の具体的な形態は以上の例示に限定されない。例えば、利用者による演奏に応じた演奏データDを出力する電子弦楽器または電子管楽器等の各種の形態の電子楽器に、前述の各形態と同様の構成が適用される。
(6)前述の各形態においては、利用者による楽曲の演奏に並行して演奏解析処理Saを実行したが、演奏解析処理Saの実行前に、楽曲を構成する各音符の音高を表す演奏データDを用意してもよい。演奏データDは、例えば利用者による楽曲の演奏または編集の作業により事前に生成される。入力データ取得部23は、演奏データDが表す各音符の音高から入力データXの時系列を生成し、出力データ生成部24は、入力データXの時系列から出力データZの時系列を生成する。
(7)前述の各形態においては、音源部22を具備する演奏システム100を例示したが、入力データXから出力データZを生成する演奏解析装置としても、本開示は特定される。演奏解析装置は、入力データ取得部23と出力データ生成部24とを少なくとも具備する。演奏解析装置に効果制御部25を搭載してもよい。前述の各形態において例示した演奏システム100は、演奏処理部21と音源部22とを具備する演奏解析装置とも換言される。
(8)前述の各形態においては、学習処理部26を具備する演奏システム100を例示したが、演奏システム100から学習処理部26を省略してもよい。例えば、学習処理部26を具備する推定モデル構築装置により構築された推定モデルMが演奏システム100に転送され、演奏システム100による出力データZの生成に使用される。推定モデル構築装置は、機械学習により推定モデルMを構築する機械学習装置とも換言される。
(9)前述の各形態においては、推定モデルMを再帰型のニューラルネットワークで構成したが、推定モデルMの具体的な構成は任意である。例えば、畳込ニューラルネットワーク等の再帰型以外の深層ニューラルネットワークにより推定モデルMを構成してもよい。また、隠れマルコフモデル(HMM:Hidden Markov Model)またはサポートベクタマシン等の各種の統計的推定モデルを推定モデルMとして利用してもよい。
(10)携帯電話機またはスマートフォン等の端末装置との間で通信する処理サーバ装置により演奏システム100の機能を実現してもよい。例えば、処理サーバ装置は、端末装置から受信した演奏データDを利用して出力データZを生成し、当該出力データZを端末装置に送信する。すなわち、処理サーバ装置は、入力データ取得部23と出力データ生成部24とを具備する。端末装置は、処理サーバ装置から受信した出力データZに応じて駆動機構122または音源部22を制御する。
(11)以上に例示した演奏システム100の機能は、前述の通り、制御装置13を構成する単数または複数のプロセッサと記憶装置14に記憶されたプログラムとの協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置が、前述の非一過性の記録媒体に相当する。
(12)推定モデルMを実現するためのプログラムの実行主体はCPUに限定されない。例えば、Tensor Processing UnitもしくはNeural Engine等のニューラルネットワーク専用のプロセッサ、または、人工知能に専用されるDSP(Digital Signal Processor)が、推定モデルMを実現するためのプログラムを実行してもよい。また、以上の例示から選択された複数種のプロセッサが協働してプログラムを実行してもよい。
G:付記
 以上に例示した形態から、例えば以下の構成が把握される。
 本開示のひとつの態様(態様1)に係る演奏解析方法は、演奏された音高を表す入力データの時系列を取得し、音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記入力データの時系列を入力することで、前記入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する。以上の態様においては、演奏された音高を表す入力データの時系列を推定モデルに入力することで、当該入力データが表す音高を有する音(以下「演奏音」という)における音響効果を制御するための出力データの時系列が生成される。したがって、音響効果を規定する楽曲データを必要とせずに、演奏音における音響効果を適切に制御可能な出力データの時系列を生成できる。
 態様1の具体例(態様1)において、前記音響効果は、前記入力データの時系列が表す音高を有する音を持続させる持続効果である。以上の態様によれば、演奏音における持続効果を適切に制御可能な出力データの時系列を生成できる。なお、持続効果とは、演奏音を持続させる音響効果を意味する。
 態様2の具体例(態様3)において、前記出力データは、前記持続効果を付加するか否かを表す。以上の態様においては、演奏音に対して持続効果を付加するか否かを適切に制御可能な出力データの時系列を生成できる。なお、持続効果を付加するか否かを表す出力データの典型例は、鍵盤楽器におけるサスティンペダルの踏込(オン)/解放(オフ)を表すデータである。
 態様2の具体例(態様4)において、前記出力データは、前記持続効果の度合を表す。以上の態様においては、演奏音における持続効果の度合を適切に制御可能な出力データの時系列を生成できる。なお、持続効果の度合を表す出力データの典型例は、鍵盤楽器におけるサスティンペダルの操作の度合を表すデータ(例えばサスティンペダルの踏込量について複数の段階の何れかを指定するデータ)である。
 態様2から態様4の何れかの具体例(態様5)に係る演奏解析方法は、さらに、鍵盤楽器のサスティンペダルを駆動する駆動機構を、前記出力データの時系列に応じて制御する。以上の態様によれば、演奏音に対して鍵盤楽器のサスティンペダルを適切に駆動できる。
 態様2から態様4の何れかの具体例(態様6)に係る演奏解析方法は、前記演奏解析方法は、さらに、前記演奏された音高を有する音を生成する音源部を、前記出力データの時系列に応じて制御する。以上の態様においては、音源部が生成する演奏音に対して適切な持続効果を付与できる。「音源部」は、例えばCPU等の汎用のプロセッサが音源プログラムを実行することで実現される機能、または、音処理に専用されるプロセッサにおいて音を生成する機能である。
 態様1から態様6の何れかの具体例(態様7)において、前記音響効果は、前記入力データの時系列が表す音高を有する音の音色を変化させる効果である。以上の態様においては、音色変化を制御するための出力データが生成されるから、演奏された音高に対して適切な音色の演奏音を生成できるという利点がある。
 態様1から態様7の何れかの具体例(態様8)において、前記推定モデルは、前記各入力データの入力に対して、前記音響効果が付加されるべき度合に応じた暫定値を出力し、前記出力データの時系列の生成においては、前記暫定値と閾値とを比較した結果に応じて前記出力データを生成する。以上の態様においては、音響効果が付加されるべき度合に応じた暫定値と閾値とを比較した結果に応じて出力データが生成されるから、音響効果を付加するか否かを、演奏音の音高に対して適切に制御できる。
 態様8の具体例(態様9)に係る演奏解析方法は、さらに、演奏される楽曲の音楽ジャンルに応じて前記閾値を制御する。以上の態様においては、演奏される楽曲の音楽ジャンルに応じて閾値が制御されるから、楽曲の音楽ジャンルに応じて音響効果の付加の頻度が相違するという傾向のもとで適切に音響効果を付加できる。
 態様8の具体例(態様10)に係る演奏解析方法は、さらに、利用者からの指示に応じて前記閾値を制御する。以上の態様においては、利用者からの指示に応じて閾値が制御されるから、利用者の嗜好または意図に応じて適切に音響効果を演奏音に付加できる。
 本開示のひとつの態様に係る演奏解析装置は、以上に例示した複数の態様の何れかに係る演奏解析方法を実行する。また、本開示のひとつの態様に係るプログラムは、以上に例示した複数の態様の何れかに係る演奏解析方法をコンピュータに実行させる。
100…演奏システム、11…鍵盤、12…ペダル機構、121…サスティンペダル、122…駆動機構、13…制御装置、14…記憶装置、15…操作装置、16…放音装置、21…演奏処理部、22…音源部、23…入力データ取得部、24…出力データ生成部、241…推定処理部、242…閾値処理部、25…効果制御部、26…学習処理部、31…第1処理部、32…第2処理部、33…第3処理部、D…演奏データ、E…誤差、G…音楽ジャンル、M…推定モデル、N…個数、P…暫定値、Q…要素、Sa…演奏解析処理、Sb…学習処理、T…訓練データ、Tx…訓練用入力データ、Ty…訓練用出力データ、V…音響信号、W…中間データ、X…入力データ、Y…暫定値、Y0…暫定値、Yth…閾値、Z…出力データ。

Claims (21)

  1.  演奏された音高を表す入力データの時系列を取得し、
     音高を表す複数の訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す複数の訓練用出力データとの関係を学習した推定モデルに、前記取得された入力データの時系列を入力することで、前記取得された入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する
     コンピュータにより実現される演奏解析方法。
  2.  前記音響効果は、前記取得された入力データの時系列が表す音高を有する音を持続させる持続効果である
     請求項1の演奏解析方法。
  3.  前記出力データは、前記持続効果を付加するか否かを表す
     請求項2の演奏解析方法。
  4.  前記出力データは、前記持続効果の度合を表す
     請求項2の演奏解析方法。
  5.  前記演奏解析方法は、さらに、
     鍵盤楽器のサスティンペダルを駆動する駆動機構を、前記出力データの時系列に応じて制御する
     請求項2から請求項4の何れかの演奏解析方法。
  6.  前記演奏解析方法は、さらに、
     前記演奏された音高を有する音を生成する音源部を、前記出力データの時系列に応じて制御する
     請求項2から請求項4の何れかの演奏解析方法。
  7.  前記音響効果は、前記取得された入力データの時系列が表す音高を有する音の音色を変化させる効果である
     請求項1から請求項6の何れかの演奏解析方法。
  8.  前記推定モデルは、前記各入力データの入力に対して、前記音響効果が付加されるべき度合に応じた暫定値を出力し、
     前記出力データの時系列の生成においては、前記暫定値と閾値とを比較した結果に応じて前記出力データを生成する
     請求項1から請求項7の何れかの演奏解析方法。
  9.  前記演奏解析方法は、さらに、
     演奏される楽曲の音楽ジャンルに応じて前記閾値を制御する
     請求項8の演奏解析方法。
  10.  前記演奏解析方法は、さらに、
     利用者からの指示に応じて前記閾値を制御する
     請求項8の演奏解析方法。
  11.  演奏された音高を表す入力データの時系列を取得する入力データ取得部と、
     音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記取得された入力データの時系列を入力することで、前記取得された入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する出力データ生成部と
     を具備する演奏解析装置。
  12.  前記音響効果は、前記取得された入力データの時系列が表す音高を有する音を持続させる持続効果である
     請求項11の演奏解析装置。
  13.  前記出力データは、前記持続効果を付加するか否かを表す
     請求項12の演奏解析装置。
  14.  前記出力データは、前記持続効果の度合を表す
     請求項12の演奏解析装置。
  15.  鍵盤楽器のサスティンペダルを駆動する駆動機構を、前記出力データの時系列に応じて制御する効果制御部
     をさらに具備する請求項12から請求項14の何れかの演奏解析装置。
  16.  前記演奏された音高を有する音を生成する音源部を、前記出力データの時系列に応じて制御する効果制御部
     をさらに具備する請求項12から請求項14の何れかの演奏解析装置。
  17.  前記音響効果は、前記取得された入力データの時系列が表す音高を有する音の音色を変化させる効果である
     請求項11から請求項16の何れかの演奏解析装置。
  18.  前記推定モデルは、前記各入力データの入力に対して、前記音響効果が付加されるべき度合に応じた暫定値を出力し、
     前記出力データ生成部は、前記暫定値と閾値とを比較した結果に応じて前記出力データを生成する
     請求項11から請求項17の何れかの演奏解析装置。
  19.  前記出力データ生成部は、演奏される楽曲の音楽ジャンルに応じて前記閾値を制御する
     請求項18の演奏解析装置。
  20.  前記出力データ生成部は、利用者からの指示に応じて前記閾値を制御する
     請求項18の演奏解析装置。
  21.  演奏された音高を表す入力データの時系列を取得する入力データ取得部、および、
     音高を表す訓練用入力データと当該音高を有する音に付加されるべき音響効果を表す訓練用出力データとの関係を学習した推定モデルに、前記取得された入力データの時系列を入力することで、前記取得された入力データの時系列が表す音高を有する音における音響効果を制御するための出力データの時系列を生成する出力データ生成部
     としてコンピュータを機能させるプログラム。
PCT/JP2019/040813 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置およびプログラム WO2021075014A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021552051A JP7327497B2 (ja) 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置およびプログラム
PCT/JP2019/040813 WO2021075014A1 (ja) 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置およびプログラム
CN201980101398.9A CN114556465A (zh) 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置以及程序
US17/720,630 US20220238089A1 (en) 2019-10-17 2022-04-14 Performance analysis method and performance analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/040813 WO2021075014A1 (ja) 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/720,630 Continuation US20220238089A1 (en) 2019-10-17 2022-04-14 Performance analysis method and performance analysis device

Publications (1)

Publication Number Publication Date
WO2021075014A1 true WO2021075014A1 (ja) 2021-04-22

Family

ID=75537587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/040813 WO2021075014A1 (ja) 2019-10-17 2019-10-17 演奏解析方法、演奏解析装置およびプログラム

Country Status (4)

Country Link
US (1) US20220238089A1 (ja)
JP (1) JP7327497B2 (ja)
CN (1) CN114556465A (ja)
WO (1) WO2021075014A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021187395A1 (ja) * 2020-03-17 2021-09-23 ヤマハ株式会社 パラメータ推論方法、パラメータ推論システム、及びパラメータ推論プログラム
WO2022172732A1 (ja) * 2021-02-10 2022-08-18 ヤマハ株式会社 情報処理システム、電子楽器、情報処理方法および機械学習システム
WO2024085175A1 (ja) * 2022-10-18 2024-04-25 ヤマハ株式会社 データ処理方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029476A (ja) * 1998-07-10 2000-01-28 Yamaha Corp エフェクト装置、エフェクト処理方法及びパラメータテーブル生成装置
US20090022331A1 (en) * 2007-07-16 2009-01-22 University Of Central Florida Research Foundation, Inc. Systems and Methods for Inducing Effects In A Signal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029476A (ja) * 1998-07-10 2000-01-28 Yamaha Corp エフェクト装置、エフェクト処理方法及びパラメータテーブル生成装置
US20090022331A1 (en) * 2007-07-16 2009-01-22 University Of Central Florida Research Foundation, Inc. Systems and Methods for Inducing Effects In A Signal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DASAEM JEONG, TAEGYUN KWON, YOOJIN KIM, JUHAN NAM: "Score and Performance Features for Rendering Expressive Music Performances", MUSIC ENCODING CONFERENCE 2019, 31 May 2019 (2019-05-31), pages 1 - 6, XP055819402 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021187395A1 (ja) * 2020-03-17 2021-09-23 ヤマハ株式会社 パラメータ推論方法、パラメータ推論システム、及びパラメータ推論プログラム
WO2022172732A1 (ja) * 2021-02-10 2022-08-18 ヤマハ株式会社 情報処理システム、電子楽器、情報処理方法および機械学習システム
WO2024085175A1 (ja) * 2022-10-18 2024-04-25 ヤマハ株式会社 データ処理方法およびプログラム

Also Published As

Publication number Publication date
JPWO2021075014A1 (ja) 2021-04-22
JP7327497B2 (ja) 2023-08-16
US20220238089A1 (en) 2022-07-28
CN114556465A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
WO2021075014A1 (ja) 演奏解析方法、演奏解析装置およびプログラム
US11488567B2 (en) Information processing method and apparatus for processing performance of musical piece
JP7036141B2 (ja) 電子楽器、方法及びプログラム
US11222618B2 (en) Sound signal generation device, keyboard instrument, and sound signal generation method
WO2020031544A1 (ja) 楽譜データの情報処理装置
US11875777B2 (en) Information processing method, estimation model construction method, information processing device, and estimation model constructing device
CN114446266A (zh) 音响处理***、音响处理方法及程序
CN115176307A (zh) 推定模型构建方法、演奏解析方法、推定模型构建装置及演奏解析装置
WO2019176954A1 (en) Machine learning method, electronic apparatus, electronic musical instrument, model generator for part selection, and method of part determination
WO2022153875A1 (ja) 情報処理システム、電子楽器、情報処理方法およびプログラム
JP6733487B2 (ja) 音響解析方法および音響解析装置
CN112912951B (zh) 表示动作的数据的信息处理装置
WO2020059465A1 (ja) 演奏データの情報処理装置
JP7184218B1 (ja) 音響機器および該音響機器のパラメータ出力方法
US20230290325A1 (en) Sound processing method, sound processing system, electronic musical instrument, and recording medium
US20230306944A1 (en) Sound processing device and method of outputting parameter of sound processing device
JP7400925B2 (ja) 電子楽器、方法、プログラム
US20230368760A1 (en) Audio analysis system, electronic musical instrument, and audio analysis method
JP2023143653A (ja) 音響機器および該音響機器のパラメータ出力方法
Ostermann et al. Evaluation rules for evolutionary generation of drum patterns in jazz solos
JP2024077977A (ja) プログラム
Aikin Software synthesizers: the definitive guide to virtual musical instruments
CN117121089A (zh) 音响处理方法、音响处理***、程序及生成模型的创建方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19949424

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021552051

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19949424

Country of ref document: EP

Kind code of ref document: A1