JP2019200390A - Automatic performance apparatus and automatic performance program - Google Patents

Automatic performance apparatus and automatic performance program Download PDF

Info

Publication number
JP2019200390A
JP2019200390A JP2018096439A JP2018096439A JP2019200390A JP 2019200390 A JP2019200390 A JP 2019200390A JP 2018096439 A JP2018096439 A JP 2018096439A JP 2018096439 A JP2018096439 A JP 2018096439A JP 2019200390 A JP2019200390 A JP 2019200390A
Authority
JP
Japan
Prior art keywords
likelihood
performance
pattern
input
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018096439A
Other languages
Japanese (ja)
Inventor
晃弘 永田
Akihiro Nagata
晃弘 永田
登紀夫 高橋
Tokio Takahashi
登紀夫 高橋
茂樹 嵯峨山
Shigeki Sagayama
茂樹 嵯峨山
耕平 林
Kohei Hayashi
耕平 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meiji University
Roland Corp
Original Assignee
Meiji University
Roland Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meiji University, Roland Corp filed Critical Meiji University
Priority to JP2018096439A priority Critical patent/JP2019200390A/en
Priority to EP19171746.1A priority patent/EP3570271B1/en
Priority to US16/412,439 priority patent/US10803845B2/en
Publication of JP2019200390A publication Critical patent/JP2019200390A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • G10H1/28Selecting circuits for automatically producing a series of tones to produce arpeggios
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/151Music Composition or musical creation; Tools or processes therefor using templates, i.e. incomplete musical sections, as a basis for composing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

To provide an automatic performance apparatus and an automatic performance program for performing automatic performance suitable for a user's free performance.SOLUTION: A synthesizer 1 estimates the most likely state in the input pattern table 11b on the basis of the performance information from the performer input by the key of the keyboard 2, and selects the pattern of the state. Then, an accompaniment sound and an effect are output on the basis of the output pattern of the output pattern table 11c corresponding to the pattern.EFFECT: Corresponding to the performance of the performer, accompaniment sounds and effects suitable for the performance can be switched and output.SELECTED DRAWING: Figure 2

Description

本発明は、自動演奏装置および自動演奏プログラムに関するものである。   The present invention relates to an automatic performance apparatus and an automatic performance program.

特許文献1には、自動伴奏データの検索装置が開示されている。該装置では、利用者がリズム入力装置10の鍵盤を押鍵すると、押鍵されたこと即ち演奏操作がなされたことを示すトリガーデータと、押鍵の強度即ち当該演奏操作の強度を示すベロシティデータとが、1小節を単位とした入力リズムパターンとして情報処理装置20へ入力される。   Patent Document 1 discloses an automatic accompaniment data search device. In this device, when the user presses the keyboard of the rhythm input device 10, trigger data indicating that the key is pressed, that is, a performance operation is performed, and velocity data indicating the strength of the key, that is, the strength of the performance operation. Are input to the information processing apparatus 20 as an input rhythm pattern in units of one measure.

情報処理装置20は、自動伴奏データを複数含んだデータベースを有している。自動伴奏データは、各々が固有のリズムパターンを持つ複数のパートで構成されている。情報処理装置20は、リズム入力装置10から入力リズムパターンを入力すると、その入力リズムパターンと同一又は類似したリズムパターンを持つ自動伴奏データを検索し、検索された自動伴奏データの名称等を一覧表示する。情報処理装置20は、その一覧表示から利用者によって選択された自動伴奏データに基づく音を出力する。   The information processing apparatus 20 has a database including a plurality of automatic accompaniment data. The automatic accompaniment data is composed of a plurality of parts each having a unique rhythm pattern. When the input rhythm pattern is input from the rhythm input device 10, the information processing device 20 searches for automatic accompaniment data having the same or similar rhythm pattern as the input rhythm pattern, and displays a list of names of the searched automatic accompaniment data. To do. The information processing apparatus 20 outputs a sound based on the automatic accompaniment data selected by the user from the list display.

特開2012−234167号公報JP 2012-234167 A 特開2007−241181号公報Japanese Patent Laid-Open No. 2007-241181

このように特許文献1の装置では、自動伴奏データの選択に際し、利用者は、入力リズムパターンを入力した上で、一覧表示の中から所望の自動伴奏データを選択しなければならず、その選択操作が煩雑であるという問題点があった。   As described above, in the apparatus of Patent Document 1, when selecting automatic accompaniment data, the user must select desired automatic accompaniment data from a list display after inputting an input rhythm pattern. There was a problem that the operation was complicated.

本発明は、上記問題点を解決するためになされたものであり、利用者の自由な演奏に応じて、その演奏に適合した自動演奏を行う自動演奏装置および自動演奏プログラムを提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an automatic performance apparatus and an automatic performance program that perform automatic performance suitable for a performance according to a user's free performance. It is said.

この目的を達成するために本発明の自動演奏装置は、複数の演奏パターンを記憶する記憶手段と、その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、利用者の演奏操作を受け付ける入力装置から演奏情報を入力する入力手段と、その入力手段に入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択手段と、前記演奏手段により演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択手段により選択された演奏パターンの音楽表現に切り替える切替手段とを備えている。   To achieve this object, the automatic performance apparatus of the present invention comprises a storage means for storing a plurality of performance patterns, a performance means for performing performance based on the performance patterns stored in the storage means, and a user's performance operation. An input means for inputting performance information from an input device that receives the performance information, and a performance pattern with the maximum likelihood estimated among a plurality of performance patterns stored in the storage means is selected based on the performance information input to the input means. Selection means; and switching means for switching at least one of the musical expressions of the performance pattern being played by the performance means to the musical expression of the performance pattern selected by the selection means.

ここで「入力装置」としては、例えば、自動演奏装置本体に搭載される鍵盤等のほか、自動演奏装置とは別体に構成された外部装置の鍵盤やキーボードなどを例示できる。   Here, examples of the “input device” include a keyboard and a keyboard of an external device configured separately from the automatic performance device, in addition to a keyboard mounted on the automatic performance device body.

また本発明の自動演奏装置は、前記入力手段へ入力された演奏情報に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出する尤度算出手段を備え、前記選択手段は、その尤度算出手段により算出された尤度に基づいて、前記記憶手段に記憶される複数の演奏パターンのうち1の演奏パターンを最尤推定するものである。   Further, the automatic performance device of the present invention calculates likelihoods for all or a part of each musical tone constituting a plurality of performance patterns stored in the storage means, based on performance information input to the input means. Likelihood calculating means, and the selecting means estimates the maximum likelihood of one performance pattern among a plurality of performance patterns stored in the storage means based on the likelihood calculated by the likelihood calculating means. Is.

なお、「複数の演奏パターンを構成する各楽音の全て又は一部」とは、複数の演奏パターンのうち全て又は一部の演奏パターンについて、各演奏パターンを構成する各楽音の全て又は一部をいう。   Note that “all or part of each musical tone constituting a plurality of performance patterns” means all or part of each musical tone constituting each performance pattern for all or part of the plurality of performance patterns. Say.

更に本発明の自動演奏装置の前記選択手段は、利用者の演奏操作に基づく演奏情報が前記入力手段へ入力されると前記演奏パターンの選択処理を実行するものである。なお、「演奏パターンの選択処理」は、必ずしも利用者の演奏操作に基づく演奏情報の入力毎に行う必要はなく、演奏情報の複数の入力があった場合に行うようにしても良い。また一定時間内に一群の演奏情報の入力があった場合に、その一定時間内の一群の演奏情報の入力に応じて「演奏パターンの選択処理」を行うようにしても良い。   Furthermore, the selection means of the automatic performance device of the present invention executes the selection process of the performance pattern when performance information based on a user's performance operation is input to the input means. The “performance pattern selection process” is not necessarily performed every time performance information is input based on a performance operation by the user, and may be performed when a plurality of performance information is input. Further, when a group of performance information is input within a certain time, a “performance pattern selection process” may be performed in response to the input of a group of performance information within the certain time.

本発明の自動演奏プログラムは、記憶部を備えたコンピュータに、自動演奏を実行させるものであり、前記記憶部を、複数の演奏パターンを記憶する記憶手段として機能させて、その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏ステップと、利用者の演奏操作を受け付ける入力装置から演奏情報を入力する入力ステップと、その入力ステップにより入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択ステップと、前記演奏ステップにより演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択ステップにより選択された演奏パターンの音楽表現に切り替える切替ステップとを備えている。   An automatic performance program according to the present invention causes a computer having a storage unit to execute automatic performance. The storage unit functions as a storage unit that stores a plurality of performance patterns, and is stored in the storage unit. A performance step for performing performance based on the performance pattern, an input step for inputting performance information from an input device that accepts a user's performance operation, and storing in the storage means based on the performance information input by the input step A selection step for selecting a performance pattern estimated from the maximum likelihood among the plurality of performance patterns, and at least one of the musical expressions of the performance pattern being played by the performance step, the performance pattern selected by the selection step Switching step to switch to the music expression.

ここで「入力装置」としては、例えば、自動演奏プログラムが搭載されるコンピュータに有線接続又は無線接続されるキーボードや鍵盤等を例示できる。   Here, examples of the “input device” include a keyboard and a keyboard that are wired or wirelessly connected to a computer on which an automatic performance program is installed.

一実施形態であるシンセサイザの外観図である。It is an external view of the synthesizer which is one Embodiment. シンセサイザの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a synthesizer. (a)は、伴奏音の拍位置を説明するための模式図であり、(b)は、入力パターンの一例を表す表である。(A) is a schematic diagram for demonstrating the beat position of an accompaniment sound, (b) is a table | surface showing an example of an input pattern. 入力パターンの状態を説明するための表である。It is a table | surface for demonstrating the state of an input pattern. (a)は、入力パターンテーブルを模式的に示した図であり、(b)は、出力パターンテーブルを模式的に示した図である。(A) is the figure which showed the input pattern table typically, (b) is the figure which showed the output pattern table typically. (a)は、遷移ルートを説明するための図であり、(b)は、遷移ルート間尤度テーブルを模式的に示す図である。(A) is a figure for demonstrating a transition route, (b) is a figure which shows typically a transition route likelihood table. (a)は、ユーザ評価尤度テーブルを模式的に示した図であり、(b)は、音高尤度テーブルを模式的に示した図であり、(c)は、伴奏同期尤度テーブルを模式的に示した図である。(A) is a diagram schematically showing a user evaluation likelihood table, (b) is a diagram schematically showing a pitch likelihood table, and (c) is an accompaniment synchronization likelihood table. FIG. (a)は、IOI尤度テーブルを模式的に示した図であり、(b)は、尤度テーブルを模式的に示した図であり、(c)は、前回尤度テーブルを模式的に示した図である。(A) is a diagram schematically showing the IOI likelihood table, (b) is a diagram schematically showing the likelihood table, and (c) is a diagram schematically showing the previous likelihood table. FIG. メイン処理のフローチャートである。It is a flowchart of a main process. ユーザ評価反映処理のフローチャートである。It is a flowchart of a user evaluation reflection process. 入力パターン検索処理のフローチャートである。It is a flowchart of an input pattern search process. 尤度算出処理のフローチャートである。It is a flowchart of likelihood calculation processing. 状態間尤度統合処理のフローチャートである。It is a flowchart of a likelihood integration process between states. 遷移間尤度統合処理のフローチャートである。It is a flowchart of the likelihood integration between transitions. ユーザ評価尤度統合処理のフローチャートである。It is a flowchart of a user evaluation likelihood integration process.

以下、好ましい実施例について、添付図面を参照して説明する。図1は、一実施形態であるシンセサイザ1の外観図である。シンセサイザ1は、演奏者(利用者)の演奏操作による楽音や、所定の伴奏音等を混ぜ合わせて出力(放音)する電子楽器(自動演奏装置)である。シンセサイザ1は、演奏者の演奏による楽音や、伴奏音等を混ぜ合わせた波形データに対して演算処理を行うことで、リバーブやコーラス、ディレイ等の効果(エフェクト)を施すことができる。   Hereinafter, preferred embodiments will be described with reference to the accompanying drawings. FIG. 1 is an external view of a synthesizer 1 according to an embodiment. The synthesizer 1 is an electronic musical instrument (automatic performance device) that mixes and outputs (sounds) musical tones produced by a player (user) performance operation, predetermined accompaniment sounds, and the like. The synthesizer 1 can perform effects (effects) such as reverb, chorus, delay, etc. by performing arithmetic processing on waveform data obtained by mixing musical sounds, accompaniment sounds, and the like produced by the performer.

図1に示す通り、シンセサイザ1には、主に鍵盤2とユーザ評価ボタン3とが配設される。鍵盤2には、複数の鍵2aが配設され、演奏者の演奏による演奏情報を取得するための入力装置である。演奏者による鍵2aの押鍵/離鍵操作に応じたMIDI(Musical Instrument Digital Interface)規格の演奏情報が、CPU10(図2参照)へ出力される。   As shown in FIG. 1, a synthesizer 1 is mainly provided with a keyboard 2 and a user evaluation button 3. The keyboard 2 is provided with a plurality of keys 2a, and is an input device for acquiring performance information obtained by the performer. Musical instrument digital interface (MIDI) performance information corresponding to the key press / release operation of the key 2a by the performer is output to the CPU 10 (see FIG. 2).

ユーザ評価ボタン3は、シンセサイザ1から出力される伴奏音やエフェクトに対する、演奏者の評価(高評価または低評価)をCPU10へ出力するボタンであり、演奏者の高評価を表す情報をCPU10へ出力する高評価ボタン3aと、演奏者の低評価を表す情報をCPU10へ出力する低評価ボタン3bとで構成される。演奏者にとって、シンセサイザ1から出力されている伴奏音やエフェクトが良い印象である場合は、高評価ボタン3aが押され、一方で、出力されている伴奏音やエフェクトがあまり良くない又は悪い印象である場合は、低評価ボタン3bが押される。そして、押された高評価ボタン3a又は低評価ボタン3bに応じた、高評価または低評価を表す情報がCPU10へ出力される。   The user evaluation button 3 is a button for outputting the player's evaluation (high evaluation or low evaluation) for the accompaniment sounds and effects output from the synthesizer 1 to the CPU 10, and outputs information indicating the high evaluation of the player to the CPU 10. The high evaluation button 3a and the low evaluation button 3b for outputting information indicating the low evaluation of the performer to the CPU 10 are configured. If the accompaniment sound or effect output from the synthesizer 1 is a good impression for the performer, the high evaluation button 3a is pressed, while the output accompaniment sound or effect is not so good or bad. In some cases, the low evaluation button 3b is pressed. Then, information indicating high evaluation or low evaluation corresponding to the pressed high evaluation button 3 a or low evaluation button 3 b is output to the CPU 10.

詳細は後述するが、本実施形態のシンセサイザ1には、伴奏音やエフェクトの組み合わせである複数の出力パターンの中から、演奏者による鍵2aからの演奏情報に基づいて出力パターンが推定され、該当する伴奏音やエフェクトが出力される。これによって、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトの出力を行うことができる。その際に、演奏者によって高評価ボタン3aが多く押された伴奏音やエフェクトの出力パターンが、より優先的に選択される。これにより、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトの出力を行うことができる。   Although details will be described later, the synthesizer 1 of the present embodiment estimates an output pattern from a plurality of output patterns that are combinations of accompaniment sounds and effects based on performance information from the key 2a by the performer. Accompaniment sounds and effects are output. Accordingly, accompaniment sounds and effects suitable for the performance can be output according to the player's free performance. At that time, an accompaniment sound or an effect output pattern in which the player highly presses the high evaluation button 3a is selected more preferentially. Thereby, according to a player's free performance, the accompaniment sound and effect suitable for the performance can be output.

次に、図2〜図8を参照して、シンセサイザ1の電気的構成を説明する。図2は、シンセサイザ1の電気的構成を示すブロック図である。シンセサイザ1は、CPU10と、フラッシュROM11と、RAM12と、鍵盤2と、ユーザ評価ボタン3と、音源13と、Digital Signal Processor14(以下「DSP14」と称す)とを有し、それぞれバスライン15を介して接続される。DSP14にはデジタルアナログコンバータ(DAC)16が接続され、そのDAC16にはアンプ17が接続され、アンプ17にはスピーカ18が接続される。   Next, the electrical configuration of the synthesizer 1 will be described with reference to FIGS. FIG. 2 is a block diagram showing an electrical configuration of the synthesizer 1. The synthesizer 1 includes a CPU 10, a flash ROM 11, a RAM 12, a keyboard 2, a user evaluation button 3, a sound source 13, and a digital signal processor 14 (hereinafter referred to as “DSP 14”), each via a bus line 15. Connected. A digital analog converter (DAC) 16 is connected to the DSP 14, an amplifier 17 is connected to the DAC 16, and a speaker 18 is connected to the amplifier 17.

CPU10は、バスライン15により接続された各部を制御する演算装置である。フラッシュROM11は書き換え可能な不揮発性のメモリであり、制御プログラム11aと、入力パターンテーブル11bと、出力パターンテーブル11cと、遷移ルート間尤度テーブル11dと、ユーザ評価尤度テーブル11eとが設けられる。波形データ23aには鍵盤24を構成する、各鍵に対応する波形データが記憶される。CPU10によって制御プログラム11aが実行されると、図9のメイン処理が実行される。   The CPU 10 is an arithmetic unit that controls each unit connected by the bus line 15. The flash ROM 11 is a rewritable nonvolatile memory, and is provided with a control program 11a, an input pattern table 11b, an output pattern table 11c, a transition route likelihood table 11d, and a user evaluation likelihood table 11e. In the waveform data 23a, waveform data corresponding to each key constituting the keyboard 24 is stored. When the control program 11a is executed by the CPU 10, the main process of FIG. 9 is executed.

入力パターンテーブル11bは、演奏情報と、その演奏情報に合致する入力パターンとが記憶されるデータテーブルである。ここで、本実施形態のシンセサイザ1における伴奏音の拍位置と状態とパターン名とについて、図3を参照して説明する。   The input pattern table 11b is a data table in which performance information and input patterns that match the performance information are stored. Here, the beat position, state, and pattern name of the accompaniment sound in the synthesizer 1 of the present embodiment will be described with reference to FIG.

図3(a)は、伴奏音の拍位置を説明するための模式図である。本実施形態のシンセサイザ1は、伴奏音とエフェクトとの組み合わせである出力パターンが複数記憶され、各出力パターンには、その出力パターンに対応する一連の拍位置および音高からなる入力パターンが設定される。演奏者による鍵2aからの演奏情報と、各入力パターンの拍位置および音高とに基づいて、演奏者による鍵2aからの演奏情報に「尤もらしい」入力パターンが推定され、該入力パターンに対応する出力パターンの伴奏音とエフェクトとが出力される。以下、入力パターンと出力パターンとの組み合わせを「パターン」と称す。   Fig.3 (a) is a schematic diagram for demonstrating the beat position of an accompaniment sound. The synthesizer 1 of this embodiment stores a plurality of output patterns that are combinations of accompaniment sounds and effects, and each output pattern is set with an input pattern consisting of a series of beat positions and pitches corresponding to the output pattern. The Based on the performance information from the key 2a by the performer and the beat position and pitch of each input pattern, a “possible” input pattern is estimated for the performance information from the key 2a by the performer and corresponds to the input pattern. The accompaniment sound and effect of the output pattern to be output are output. Hereinafter, a combination of an input pattern and an output pattern is referred to as a “pattern”.

本実施形態では、図3(a)に示す通り、各出力パターンにおける伴奏音の演奏時間は、4分の4拍子における2小節分の長さとされる。この2小節分の長さを16分音符の長さで等分した(即ち、32等分した)拍位置B1〜B32が、時間的位置の1単位とされる。なお、図3(a)の時間ΔTは16分音符の長さを表している。かかる拍位置B1〜B32に対して、それぞれの出力パターンの伴奏音やエフェクトに対応する音高を配置したものが入力パターンとされる。かかる入力パターンの一例を図3(b)に示す。   In the present embodiment, as shown in FIG. 3 (a), the performance time of the accompaniment sound in each output pattern is set to a length of two measures in a four-fourth time signature. The beat positions B1 to B32 obtained by equally dividing the length of the two measures by the length of the sixteenth note (ie, divided into 32 equal parts) are taken as one unit of the temporal position. The time ΔT in FIG. 3A represents the length of a sixteenth note. For the beat positions B1 to B32, an input pattern is obtained by arranging pitches corresponding to accompaniment sounds and effects of the respective output patterns. An example of such an input pattern is shown in FIG.

図3(b)は、入力パターンの一例を表す表である。図3(b)に示す通り、入力パターンにはそれぞれ、拍位置B1〜B32に対する音高(ド、レ、ミ、・・・)が設定される。ここで、パターンP1,P2,・・・は、入力パターンと後述の出力パターンとを対応付けるための識別名である。   FIG. 3B is a table showing an example of the input pattern. As shown in FIG. 3B, pitches (de, re, mi,...) For the beat positions B1 to B32 are set in the input patterns, respectively. Here, the patterns P1, P2,... Are identification names for associating input patterns with output patterns described later.

入力パターンには、ある拍位置B1〜B32に対して単一の音高だけが設定されるのでなく、2以上の音高の組み合わせも指定できる。本実施形態では、2以上の音高が同時に入力されることを指定する場合には、その拍位置B1〜B32に対して、該当する音高名が「&」で連結される。例えば、図3(b)における入力パターンP3の拍位置B5では、音高「ド&ミ」が指定されるが、これは「ド」と「ミ」とが同時に入力されることが指定されている。   In the input pattern, not only a single pitch is set for a certain beat position B1 to B32, but also a combination of two or more pitches can be designated. In this embodiment, when designating that two or more pitches are input simultaneously, the corresponding pitch names are connected with “&” for the beat positions B1 to B32. For example, in the beat position B5 of the input pattern P3 in FIG. 3B, the pitch “Do & Mi” is designated, which is designated as “Do” and “Mi” being inputted simultaneously. Yes.

また、拍位置B1〜B32に対して、いずれかの音高(所謂、ワイルドカード音高)の入力されることも指定できる。本実施形態では、ワイルドカード音高が入力されることを指定する場合には、その拍位置B1〜B32に対して「〇」が指定される。例えば、図3(b)における入力パターンP2の拍位置B7では、ワイルドカード音高の入力が指定されているので、「〇」が指定されている。   It can also be specified that any pitch (so-called wildcard pitch) is input to the beat positions B1 to B32. In this embodiment, when designating input of a wild card pitch, “◯” is designated for the beat positions B1 to B32. For example, in the beat position B7 of the input pattern P2 in FIG. 3B, since the input of the wild card pitch is designated, “◯” is designated.

なお、入力パターンにおいて、演奏情報の入力が指定される拍位置B1〜B32に対して音高が定義され、一方で、演奏情報の入力が指定されない拍位置B1〜B32に対して音高は定義されない。   In the input pattern, the pitch is defined for beat positions B1 to B32 where performance information input is specified, while the pitch is defined for beat positions B1 to B32 where performance information input is not specified. Not.

本実施形態では、入力パターンに対する拍位置B1〜B32と音高との組み合わせを管理するため、これらの組み合わせを1の「状態」として定義する。かかる入力パターンに対する状態を、図4を参照して説明する。   In the present embodiment, in order to manage combinations of beat positions B1 to B32 and pitches with respect to the input pattern, these combinations are defined as one “state”. The state for such an input pattern will be described with reference to FIG.

図4は、入力パターンの状態を説明するための表である。図4に示す通り、入力パターンP1の拍位置B1から順に、音高が指定されている拍位置B1〜B32に対して、状態J1,J2,・・・が定義される。具体的には、入力パターンP1の拍位置B1が状態J1,入力パターンP1の拍位置B5が状態J2,・・・,入力パターンP1の拍位置B32が状態J8と定義され、入力パターンP2の拍位置B1が状態J8に続いて、状態J9と定義される。以下、状態J1,J2,・・・に対して、特に区別しない場合は「状態Jn」と略す。   FIG. 4 is a table for explaining the state of the input pattern. As shown in FIG. 4, states J1, J2,... Are defined for beat positions B1 to B32 in which pitches are designated in order from the beat position B1 of the input pattern P1. Specifically, the beat position B1 of the input pattern P1 is defined as state J1, the beat position B5 of the input pattern P1 is defined as state J2,..., And the beat position B32 of the input pattern P1 is defined as state J8. Position B1 is defined as state J9 following state J8. Hereinafter, the states J1, J2,... Are abbreviated as “state Jn” unless otherwise distinguished.

図2における入力パターンテーブル11bには、状態Jn毎に、該当する入力パターンのパターン名と、拍位置B1〜B32と、音高とが記憶される。かかる入力パターンテーブル11bについて、図5(a)を参照して説明する。   In the input pattern table 11b in FIG. 2, the pattern name of the corresponding input pattern, beat positions B1 to B32, and the pitch are stored for each state Jn. The input pattern table 11b will be described with reference to FIG.

図5(a)は、入力パターンテーブル11bを模式的に示した図である。入力パターンテーブル11bは、シンセサイザ1で指定可能な音楽ジャンル(ロックやポップ、ジャズ等)に対して、状態Jn毎に、該当する入力パターンのパターン名と、拍位置B1〜B32と、音高とが記憶されるデータテーブルである。本実施形態において、入力パターンテーブル11bには音楽ジャンル毎の入力パターンが記憶され、入力パターンテーブル11bの中から、選択された音楽ジャンルに応じた入力パターンが参照される。   FIG. 5A is a diagram schematically showing the input pattern table 11b. The input pattern table 11b has a pattern name, beat positions B1 to B32, pitches, and pitches for each state Jn for music genres (rock, pop, jazz, etc.) that can be specified by the synthesizer 1. Is a data table in which is stored. In the present embodiment, the input pattern for each music genre is stored in the input pattern table 11b, and the input pattern corresponding to the selected music genre is referenced from the input pattern table 11b.

具体的には、音楽ジャンル「ロック」に該当する入力パターンが入力パターンテーブル11brとされ、音楽ジャンル「ポップ」該当する入力パターンが入力パターンテーブル11bpとされ、音楽ジャンル「ジャズ」に該当する入力パターンが入力パターンテーブル11bjとされ、その他の音楽ジャンルについても、同様に入力パターンが記憶される。以下、入力パターンテーブル11bにおける入力パターンテーブル11bp,11br,11bj・・・について、特に区別しない場合は「入力パターンテーブル11bx」と称す。   Specifically, the input pattern corresponding to the music genre “rock” is the input pattern table 11br, the input pattern corresponding to the music genre “pop” is the input pattern table 11bp, and the input pattern corresponding to the music genre “jazz”. Is the input pattern table 11bj, and input patterns are similarly stored for other music genres. Hereinafter, the input pattern tables 11bp, 11br, 11bj... In the input pattern table 11b will be referred to as “input pattern table 11bx” unless otherwise distinguished.

鍵2aからの演奏情報が入力された場合、その演奏情報の拍位置および音高と、選択されている音楽ジャンルに該当する入力パターンテーブル11bxの拍位置および音高とから「尤もらしい」状態Jnが推定され、該状態Jnから入力パターンが取得され、該入力パターンのパターン名に該当する出力パターンの伴奏音およびエフェクトが出力される。   When performance information from the key 2a is input, the “probable” state Jn is determined from the beat position and pitch of the performance information and the beat position and pitch of the input pattern table 11bx corresponding to the selected music genre. Is estimated, an input pattern is acquired from the state Jn, and an accompaniment sound and an effect of an output pattern corresponding to the pattern name of the input pattern are output.

図2に戻る。出力パターンテーブル11cは、パターン毎の伴奏音とエフェクトとの組み合わせである出力パターンが記憶されるデータテーブルである。かかる出力パターンテーブル11cについて、図5(b)を参照して説明する。   Returning to FIG. The output pattern table 11c is a data table in which output patterns that are combinations of accompaniment sounds and effects for each pattern are stored. The output pattern table 11c will be described with reference to FIG.

図5(b)は、出力パターンテーブル11cを模式的に示した図である。入力パターンテーブル11bと同様に、出力パターンテーブル11cにも音楽ジャンル毎の出力パターンが記憶される。具体的には、出力パターンテーブル11cのうち、音楽ジャンル「ロック」該当する出力パターンが出力パターンテーブル11crとされ、音楽ジャンル「ポップ」該当する出力パターンが出力パターンテーブル11cpとされ、音楽ジャンル「ジャズ」該当する出力パターンが出力パターンテーブル11cjとされ、その他の音楽ジャンルについても、出力パターンが記憶される。以下、出力パターンテーブル11cの出力パターンテーブル11cp,11cr,11cj・・・について、特に区別しない場合は「出力パターンテーブル11cx」と称す。   FIG. 5B is a diagram schematically showing the output pattern table 11c. Similar to the input pattern table 11b, an output pattern for each music genre is also stored in the output pattern table 11c. Specifically, in the output pattern table 11c, the output pattern corresponding to the music genre “rock” is set as the output pattern table 11cr, the output pattern corresponding to the music genre “pop” is set as the output pattern table 11cp, and the music genre “jazz” is set. The corresponding output pattern is the output pattern table 11cj, and output patterns are also stored for other music genres. Hereinafter, the output pattern tables 11cp, 11cr, 11cj,... Of the output pattern table 11c are referred to as “output pattern table 11cx” unless otherwise distinguished.

出力パターンテーブル11cxには、出力パターン毎に、伴奏音としてのドラムのリズムパターンが記憶されるドラムパターン、ベースのリズムパターンが記憶されるベースパターン、コード(和音)の進行が記憶されるコード進行およびアルペジオの進行が記憶されるアルペジオ進行と、エフェクトの態様が記憶されるエフェクトと、伴奏音や演奏者による鍵2aからの演奏情報に基づく楽音の音量/ベロシティ値が記憶される音量/ベロシティと、演奏者による鍵2aからの演奏情報に基づく楽音の音色が記憶される音色とが設けられる。   In the output pattern table 11cx, for each output pattern, a drum pattern storing drum rhythm patterns as accompaniment sounds, a bass pattern storing bass rhythm patterns, and chord progression storing chord (chord) progression The arpeggio progression in which the arpeggio progression is stored, the effect in which the mode of the effect is stored, the volume / velocity in which the volume / velocity value of the musical sound based on the accompaniment sound and the performance information from the key 2a by the performer is stored And a tone color for storing a tone color of a musical tone based on performance information from the key 2a by the performer.

ドラムパターンとしては、それぞれ異なるドラムの演奏情報であるドラムパターンDR1,DR2,・・・が予め設定され、出力パターン毎にドラムパターンDR1,DR2,・・・が設定される。また、ベースパターンとしては、それぞれ異なるドラムの演奏情報であるベースパターンBa1,Ba2,・・・が予め設定され、出力パターン毎にベースパターンBa1,Ba2,・・・が設定される。   As drum patterns, drum patterns DR1, DR2,... That are performance information of different drums are set in advance, and drum patterns DR1, DR2,... Are set for each output pattern. Further, as base patterns, base patterns Ba1, Ba2,..., Which are performance information of different drums, are set in advance, and base patterns Ba1, Ba2,... Are set for each output pattern.

コード進行としては、それぞれ異なるコード進行による演奏情報であるコード進行Ch1,Ch2・・・が予め設定され、出力パターン毎にコード進行Ch1,Ch2・・・が設定される。また、アルペジオ進行としては、それぞれ異なるアルペジオ進行による演奏情報であるアルペジオ進行AR1,AR2・・・が予め設定され、出力パターン毎にアルペジオ進行AR1,AR2・・・が設定される。   As the chord progression, chord progressions Ch1, Ch2,... Which are performance information by different chord progressions are set in advance, and chord progressions Ch1, Ch2... Are set for each output pattern. Further, as the arpeggio progression, arpeggio progressions AR1, AR2,..., Which are performance information by different arpeggio progressions, are set in advance, and arpeggio progressions AR1, AR2,.

伴奏音として出力パターンテーブル11cxに記憶される、ドラムパターンDR1,DR2,・・・,ベースパターンBa1,Ba2,・・・,コード進行Ch1,Ch2・・・及びアルペジオ進行AR1,AR2・・・の演奏時間は、上述した通り2小節分の長さとされる。かかる2小節分の長さは音楽表現において一般的な単位でもあるので、同一のパターンが継続され、伴奏音が繰り返し出力される場合でも、演奏者や聴衆にとって違和感の無い伴奏音とすることができる。   .. Of drum patterns DR1, DR2,..., Bass patterns Ba1, Ba2,..., Chord progression Ch1, Ch2... And arpeggio progression AR1, AR2. The performance time is set to the length of two measures as described above. Since the length of the two measures is also a common unit in music expression, even if the same pattern is continued and the accompaniment sound is repeatedly output, the accompaniment sound that does not feel uncomfortable for the performer or the audience can be obtained. it can.

エフェクトとしては、それぞれ異なる態様のエフェクトEf1,Ef2,・・・が予め設定され、出力パターン毎にエフェクトEf1,Ef2,・・・が設定される。音量/ベロシティとして、それぞれ異なる値の音量/ベロシティVe1,Ve2,・・・が予め設定され、出力パターン毎に音量/ベロシティVe1,Ve2,・・・が設定される。また、音色として、それぞれ異なる楽器等による音色Ti1,Ti2,・・・が予め設定され、それぞれ出力パターン毎に音色Ti1,Ti2,・・・が設定される。   As effects, different effects Ef1, Ef2,... Are set in advance, and effects Ef1, Ef2,. As the volume / velocity, different values of volume / velocities Ve1, Ve2,... Are set in advance, and volume / velocities Ve1, Ve2,. Further, tone colors Ti1, Ti2,... By different musical instruments or the like are set in advance as tone colors, and tone colors Ti1, Ti2,.

また、選択された出力パターンに設定されている音色Ti1,Ti2,・・・に基づいて鍵2aからの演奏情報に基づく楽音が出力され、選択された出力パターンに設定されているエフェクトEf1,Ef2,・・・及び音量/ベロシティVe1,Ve2,・・・が、鍵2aからの演奏情報に基づく楽音および伴奏音に対して適用される。   Further, based on the timbres Ti1, Ti2,... Set in the selected output pattern, the musical sound based on the performance information from the key 2a is output, and the effects Ef1, Ef2 set in the selected output pattern. ,... And volume / velocities Ve1, Ve2,... Are applied to musical sounds and accompaniment sounds based on performance information from the key 2a.

図2に戻る。遷移ルート間尤度テーブル11dは、状態Jn間の遷移ルートRmと、その遷移ルートRmの拍位置B1〜B32間の距離である拍距離と、遷移ルートRmに対するパターン遷移尤度および打ち損ない尤度とが記憶されるデータテーブルである。ここで、遷移ルートRm及び遷移ルート間尤度テーブル11dについて、図6を参照して説明する。   Returning to FIG. The inter-transition route likelihood table 11d includes a transition route Rm between the states Jn, a beat distance that is a distance between the beat positions B1 to B32 of the transition route Rm, a pattern transition likelihood for the transition route Rm, and a likelihood of not being lost. Is a data table in which are stored. Here, the transition route Rm and the transition route likelihood table 11d will be described with reference to FIG.

図6(a)は、遷移ルートRmを説明するための図であり、図6(b)は、遷移ルート間尤度テーブル11dを模式的に示す図である。図6(a)の横軸は拍位置B1〜B32を示している。図6(a)に示す通り、時間経過により、拍位置が拍位置B1から拍位置B32へ進行するとともに、各パターンにおける状態Jnも変化していく。本実施形態では、かかる状態Jn間の遷移において、想定される状態Jn間の経路が予め設定される。以下、予め設定された状態Jn間の遷移に対する経路のことを「遷移ルートR1,R2,R3,・・・」と称し、これらを特に区別しない場合は「遷移ルートRm」と称す。   FIG. 6A is a diagram for explaining the transition route Rm, and FIG. 6B is a diagram schematically illustrating the inter-transition route likelihood table 11d. The horizontal axis of Fig.6 (a) has shown beat position B1-B32. As shown in FIG. 6A, the beat position advances from the beat position B1 to the beat position B32 as time passes, and the state Jn in each pattern also changes. In the present embodiment, an assumed path between states Jn is set in advance in the transition between the states Jn. Hereinafter, a path for a transition between states Jn set in advance is referred to as “transition route R1, R2, R3,...”, And is referred to as “transition route Rm” unless otherwise distinguished.

図6(a)では、状態J3に対する遷移ルートを示している。状態J3への遷移ルートとして、大きく分けて状態J3と同一のパターン(即ちパターンP1)の状態Jnから遷移する場合と、状態J3とは異なるパターンの状態Jnから遷移する場合との2種類が設定される。   FIG. 6A shows a transition route for the state J3. There are two types of transition routes to the state J3: a transition from the state Jn having the same pattern as the state J3 (that is, the pattern P1) and a transition from the state Jn having a pattern different from the state J3. Is done.

状態J3と同一のパターンP1における、状態Jnからの遷移として、直前の状態である状態J2から状態J3へ遷移する遷移ルートR3と、状態J3の2つ前の状態である状態J1からの遷移ルートである遷移ルートR2とが設定される。即ち、本実施形態では、同一のパターン間における状態Jnへの遷移ルートとして、直前の状態Jnから遷移する遷移ルートと、2つ前の状態から遷移する「音飛び」の遷移ルートとの、多くとも2の遷移ルートが設定される。   As a transition from the state Jn in the same pattern P1 as the state J3, a transition route R3 that transitions from the previous state J2 to the state J3 and a transition route from the state J1 that is the state immediately before the state J3 And a transition route R2 is set. That is, in this embodiment, there are many transition routes to the state Jn between the same patterns, that is, a transition route that transitions from the previous state Jn and a transition route of “sound skip” that transitions from the previous state. In both cases, 2 transition routes are set.

一方で、状態J3とは異なるパターンの状態Jnから遷移する遷移ルートとして、パターンP2の状態J11から状態J3へ遷移する遷移ルートR8と、パターンP3の状態J21から状態J3へ遷移する遷移ルートR15と、パターンP10の状態J74から状態J3へ遷移する遷移ルートR66等が挙げられる。即ち、別パターン間における状態Jnへの遷移ルートとして、その遷移元である別パターンの状態Jnが、遷移先の状態Jnの拍位置の直前のものである遷移ルートが設定される。   On the other hand, as a transition route that transits from the state Jn of a pattern different from the state J3, a transition route R8 that transits from the state J11 of the pattern P2 to the state J3, and a transition route R15 that transits from the state J21 of the pattern P3 to the state J3 And a transition route R66 for transition from the state J74 of the pattern P10 to the state J3. That is, as a transition route to the state Jn between different patterns, a transition route in which the state Jn of the different pattern that is the transition source is immediately before the beat position of the state Jn that is the transition destination is set.

図6(a)で例示した遷移ルート以外にも、状態J3への遷移ルートRmが複数設定される。また、状態J3と同様に、各状態Jnに対しても1又は複数の遷移ルートRmが設定される。   In addition to the transition route illustrated in FIG. 6A, a plurality of transition routes Rm to the state J3 are set. Similarly to state J3, one or more transition routes Rm are set for each state Jn.

鍵2aからの演奏情報に基づいて「尤もらしい」状態Jnが推定され、その状態Jnに該当する入力パターンに対応する出力パターンによる伴奏音やエフェクトが出力される。本実施形態では、状態Jn毎に設定される、鍵2aからの演奏情報と状態Jnとの「尤もらしさ」を表す数値である尤度に基づいて、状態Jnが推定される。本実施形態では、状態Jnに対する尤度が、状態Jnそのものに基づく尤度や、遷移ルートRmに基づく尤度、あるいは、パターンに基づく尤度を統合することで算出される。   Based on the performance information from the key 2a, the “likely” state Jn is estimated, and an accompaniment sound and an effect with an output pattern corresponding to the input pattern corresponding to the state Jn are output. In the present embodiment, the state Jn is estimated based on the likelihood that is a numerical value representing the “likelihood” between the performance information from the key 2a and the state Jn set for each state Jn. In this embodiment, the likelihood for the state Jn is calculated by integrating the likelihood based on the state Jn itself, the likelihood based on the transition route Rm, or the likelihood based on the pattern.

遷移ルート間尤度テーブル11dxに記憶される、パターン遷移尤度および打ち損ない尤度は、遷移ルートRmに基づく尤度である。具体的に、まずパターン遷移尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一パターンであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが同一パターンである場合は、パターン遷移尤度に「1」が設定され、遷移ルートRmの遷移元と遷移先との状態Jnが別のパターンである場合は、パターン遷移尤度に「0.5」が設定される。   The pattern transition likelihood and the likelihood of failure to be stored in the inter-transition route likelihood table 11dx are likelihoods based on the transition route Rm. Specifically, first, the pattern transition likelihood is a likelihood that indicates whether or not the transition source state Jn and the transition destination state Jn with respect to the transition route Rm are the same pattern. In the present embodiment, when the state Jn of the transition source and the transition destination of the transition route Rm are the same pattern, “1” is set in the pattern transition likelihood, and the state of the transition source and the transition destination of the transition route Rm When Jn is another pattern, “0.5” is set as the pattern transition likelihood.

例えば、図6(b)において、遷移ルートR3は、遷移元がパターンP1の状態J2であり、遷移先が同じくパターンP1の状態J3なので、遷移ルートR3のパターン遷移尤度には「1」が設定される。一方で、遷移ルートR8は、遷移元がパターンP2の状態J11であり、遷移先がパターンP1の状態J3なので、遷移ルートR8は異なるパターン間の遷移ルートである。従って、遷移ルートR8のパターン遷移尤度には「0.5」が設定される。   For example, in FIG. 6B, since the transition route R3 is the state J2 of the pattern P1 and the transition destination is the state J3 of the pattern P1, the pattern transition likelihood of the transition route R3 is “1”. Is set. On the other hand, since the transition route R8 is the state J11 of the pattern P2 and the transition destination is the state J3 of the pattern P1, the transition route R8 is a transition route between different patterns. Accordingly, “0.5” is set as the pattern transition likelihood of the transition route R8.

パターン遷移尤度に対して、同一のパターンに対する遷移ルートRmのパターン遷移尤度の方が、別パターンに対する遷移ルートRmのパターン遷移尤度よりも大きな値が設定される。これは、実際の演奏においては別パターンへ遷移する確率よりも、同一パターンに留まる確率の方が高いからである。従って、同一パターンへの遷移ルートRmにおける遷移先の状態Jnの方が、別パターンへの遷移ルートRmにおける遷移先の状態Jnよりも優先的に推定されることで、別パターンへの遷移が抑制され、出力パターンが頻繁に変更されることを抑制できる。これにより、伴奏音やエフェクトが頻繁に変更されることが抑制できるので、演奏者や聴衆に違和感の少ない伴奏音やエフェクトとできる。   For the pattern transition likelihood, the pattern transition likelihood of the transition route Rm for the same pattern is set to a value larger than the pattern transition likelihood of the transition route Rm for another pattern. This is because the probability of staying in the same pattern is higher than the probability of transition to another pattern in an actual performance. Therefore, the transition destination state Jn in the transition route Rm to the same pattern is preferentially estimated over the transition destination state Jn in the transition route Rm to another pattern, thereby suppressing the transition to another pattern. Thus, frequent changes in the output pattern can be suppressed. Thus, frequent changes in accompaniment sounds and effects can be suppressed, so that accompaniment sounds and effects with less discomfort to the performer and audience can be achieved.

また、遷移ルート間尤度テーブル11dxに記憶される打ち損ない尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一のパターンであり、なおかつ遷移元の状態Jnが遷移先の状態Jnよりも2つ前の状態Jnであるかどうか、即ち、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが音飛びによる遷移ルートであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが音飛びによる遷移ルートRmに対しては、打ち損ない尤度に「0.45」が設定され、音飛びによる遷移ルートRmではない場合は、打ち損ない尤度に「1」が設定される。   In addition, the failure likelihood stored in the inter-transition route likelihood table 11dx is the same pattern in the transition source state Jn and the transition destination state Jn for the transition route Rm, and the transition source state Jn is A likelihood indicating whether or not the state Jn is two states before the transition destination state Jn, that is, whether or not the transition source state Jn and the transition destination state Jn with respect to the transition route Rm are transition routes due to sound skipping. Degree. In the present embodiment, the state Jn between the transition source and the transition destination of the transition route Rm is set to “0.45” as the likelihood of failure to be set for the transition route Rm due to sound skipping, and the transition route Rm due to sound skipping is set. If not, “1” is set as the likelihood of failure.

例えば、図6(b)において、遷移ルートR1は、同一のパターンP1における隣接した状態J1と状態J2との遷移ルートであり、音飛びによる遷移ルートではないので、打ち損ない尤度に「1」が設定される。一方で、遷移ルートR2は、遷移先である状態J3が、遷移元の状態J1よりも2つ先の状態であるので、打ち損ない尤度に「0.45」が設定される。   For example, in FIG. 6B, the transition route R1 is a transition route between the adjacent states J1 and J2 in the same pattern P1, and is not a transition route due to sound skipping. Is set. On the other hand, in the transition route R2, since the state J3 that is the transition destination is two states ahead of the state J1 that is the transition source, “0.45” is set as the likelihood of failure.

上述した通り、同一パターンにおいては、遷移先の状態Jnの2つ前の状態Jnを遷移元の状態Jnとした、音飛びによる遷移ルートRmも設定される。実際の演奏においては、音飛びによる遷移が発生する確率は、通常の遷移が発生する確率よりも低い。そこで、音飛びによる遷移ルートRmの打ち損ない尤度の方が、音飛びでない通常の遷移ルートRmの打ち損ない尤度よりも小さな値を設定することで、実際の演奏と同様に、音飛びによる遷移ルートRmの遷移先の状態Jnよりも、通常の遷移ルートRmの遷移先の状態Jnを優先して推定することができる。   As described above, in the same pattern, a transition route Rm due to sound skipping is also set in which the state Jn two previous to the transition destination state Jn is the transition source state Jn. In actual performance, the probability of occurrence of a transition due to skipping is lower than the probability of occurrence of a normal transition. Therefore, by setting a smaller value for the likelihood of failure to beat the transition route Rm due to sound skipping than the likelihood of failure to beat the normal transition route Rm not sound skipping, as with actual performance, The transition destination state Jn of the normal transition route Rm can be preferentially estimated over the transition destination state Jn of the transition route Rm.

また、図6(b)に示す通り、遷移ルート間尤度テーブル11dには、シンセサイザ1に指定される各音楽ジャンルに対して、遷移ルートRm毎に、その遷移ルートRmの遷移元の状態Jnと、遷移先の状態Jnと、パターン遷移尤度と、打ち損ない尤度とが対応付けられて記憶される。本実施形態では、遷移ルート間尤度テーブル11dも音楽ジャンル毎に遷移ルート間尤度テーブルが記憶され、音楽ジャンル「ロック」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11drとされ、音楽ジャンル「ポップ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11dpとされ、音楽ジャンル「ジャズ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11djとされ、その他の音楽ジャンルについても、遷移ルート間尤度テーブルが定義される。以下、遷移ルート間尤度テーブル11dにおける遷移ルート間尤度テーブル11dp,11dr,11dj、・・・について、特に区別しない場合は「遷移ルート間尤度テーブル11dx」と称す。   Further, as shown in FIG. 6B, the transition route likelihood table 11d includes, for each transition route Rm, for each music genre designated by the synthesizer 1, the state Jn of the transition source of the transition route Rm. And the transition destination state Jn, the pattern transition likelihood, and the likelihood of failure to be stored are associated with each other and stored. In this embodiment, the inter-transition route likelihood table 11d also stores an inter-transition route likelihood table for each music genre, and the inter-transition route likelihood table corresponding to the music genre “rock” includes the inter-transition route likelihood table 11dr. The transition route likelihood table corresponding to the music genre “pop” is set as the transition route likelihood table 11dp, and the transition route likelihood table corresponding to the music genre “jazz” is set as the transition route likelihood table 11dj. The transition route likelihood table is defined for other music genres. Hereinafter, the inter-transition route likelihood tables 11dp, 11dr, 11dj,... In the inter-transition route likelihood table 11d will be referred to as “inter-route route likelihood table 11dx” unless otherwise distinguished.

図2に戻る。ユーザ評価尤度テーブル11eは、演奏者による演奏中の出力パターンに対する評価結果を記憶するデータテーブルである。   Returning to FIG. The user evaluation likelihood table 11e is a data table that stores an evaluation result for an output pattern being played by the performer.

ユーザ評価尤度は、図1で上述したユーザ評価ボタン3からの入力に基づいて、パターン毎に設定される尤度である。具体的には、出力中の伴奏音やエフェクトに対して、演奏者がユーザ評価ボタン3の高評価ボタン3a(図1)が押された場合は、出力中の伴奏音やエフェクトに該当するパターンのユーザ評価尤度に対して「0.1」が加算される。一方で、出力中の伴奏音やエフェクトに対して、演奏者がユーザ評価ボタン3の低評価ボタン3b(図1)が押された場合は、出力中の伴奏音やエフェクトに該当するパターンのユーザ評価尤度に対して「0.1」が減算される。   The user evaluation likelihood is a likelihood set for each pattern based on the input from the user evaluation button 3 described above with reference to FIG. Specifically, when the performer presses the high evaluation button 3a (FIG. 1) of the user evaluation button 3 for the accompaniment sound or effect being output, a pattern corresponding to the accompaniment sound or effect being output. “0.1” is added to the user evaluation likelihood. On the other hand, when the performer presses the low evaluation button 3b (FIG. 1) of the user evaluation button 3 for the accompaniment sound or effect being output, the user of the pattern corresponding to the accompaniment sound or effect being output is displayed. “0.1” is subtracted from the evaluation likelihood.

即ち、演奏者にとって、高評価を受けた伴奏音やエフェクトのパターンには、より大きなユーザ評価尤度が設定され、低評価を受けた伴奏音やエフェクトのパターンには、より小さなユーザ評価尤度が設定される。そして、パターンに該当する状態Jnの尤度に対してユーザ評価尤度が適用され、その状態Jn毎のユーザ評価尤度に基づいて鍵2aからの演奏情報に対する状態Jnが推定される。従って、演奏者によってより高評価を受けたパターンによる伴奏音やエフェクトが優先的に出力されるので、演奏者の演奏に対する好みに基づいた伴奏音やエフェクトを、より確率良く出力できる。図7(a)を参照して、ユーザ評価尤度が記憶されるユーザ評価尤度テーブル11eについて説明する。   That is, for the performer, a higher user evaluation likelihood is set for accompaniment sounds and effect patterns that have received a high evaluation, and a smaller user evaluation likelihood for accompaniment sounds and effect patterns that have received a lower evaluation. Is set. Then, the user evaluation likelihood is applied to the likelihood of the state Jn corresponding to the pattern, and the state Jn for the performance information from the key 2a is estimated based on the user evaluation likelihood for each state Jn. Accordingly, since accompaniment sounds and effects based on patterns highly evaluated by the performer are output preferentially, accompaniment sounds and effects based on the player's preference for performance can be output with higher probability. With reference to Fig.7 (a), the user evaluation likelihood table 11e in which a user evaluation likelihood is memorize | stored is demonstrated.

図7(a)は、ユーザ評価尤度テーブル11eを模式的に示した図である。ユーザ評価尤度テーブル11eは、音楽ジャンル(ロックやポップ、ジャズ等)に対して、パターン毎に、演奏者の評価に基づくユーザ評価尤度が記憶されるデータテーブルである。本実施形態では、ユーザ評価尤度テーブル11eのうち、音楽ジャンル「ロック」に該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11erとされ、音楽ジャンル「ポップ」該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11epとされ、音楽ジャンル「ジャズ」に該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11ejとされ、その他の音楽ジャンルについても、ユーザ評価尤度テーブルが定義される。以下、ユーザ評価尤度テーブル11eにおけるユーザ評価尤度テーブル11ep,11er,11ej・・・について、特に区別しない場合は「ユーザ評価尤度テーブル11ex」と称す。   FIG. 7A is a diagram schematically illustrating the user evaluation likelihood table 11e. The user evaluation likelihood table 11e is a data table in which user evaluation likelihood based on the player's evaluation is stored for each pattern with respect to a music genre (rock, pop, jazz, etc.). In the present embodiment, in the user evaluation likelihood table 11e, the user evaluation likelihood table corresponding to the music genre “rock” is the user evaluation likelihood table 11er, and the user evaluation likelihood table corresponding to the music genre “pop” is the user evaluation likelihood table 11er. The user evaluation likelihood table 11ep is used, the user evaluation likelihood table corresponding to the music genre “jazz” is the user evaluation likelihood table 11ej, and the user evaluation likelihood table is also defined for other music genres. Hereinafter, the user evaluation likelihood tables 11ep, 11er, 11ej... In the user evaluation likelihood table 11e will be referred to as “user evaluation likelihood table 11ex” unless otherwise distinguished.

図2に戻る。RAM12は、CPU10が制御プログラム11a等のプログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するメモリであり、演奏者によって選択された音楽ジャンルが記憶される選択ジャンルメモリ12aと、推定されたパターンが記憶される選択パターンメモリ12bと、推定された遷移ルートRmが記憶される遷移ルートメモリ12cと、テンポメモリ12dと、前回鍵2aが押鍵されたタイミングから今回鍵2aが押鍵されたタイミングまでの時間(即ち、打鍵間隔)が記憶されるIOIメモリ12eと、音高尤度テーブル12fと、伴奏同期尤度テーブル12gと、IOI尤度テーブル12hと、尤度テーブル12iと、前回尤度テーブル12jとを有している。   Returning to FIG. The RAM 12 is a memory in which the CPU 10 stores various work data, flags, and the like in a rewritable manner when executing the program such as the control program 11a, and is presumed to be a selected genre memory 12a in which the music genre selected by the performer is stored. The selected key memory 12b in which the pattern is stored, the transition route memory 12c in which the estimated transition route Rm is stored, the tempo memory 12d, and the current key 2a are pressed from the timing when the previous key 2a is pressed. IOI memory 12e in which the time (ie, keystroke interval) is stored, pitch likelihood table 12f, accompaniment synchronization likelihood table 12g, IOI likelihood table 12h, likelihood table 12i, And a likelihood table 12j.

テンポメモリ12dは、伴奏音の1拍当たりの実時間が記憶されるメモリである。以下、伴奏音の1拍当たりの実時間を「テンポ」と称し、かかるテンポに基づいて、伴奏音が演奏される。   The tempo memory 12d is a memory that stores the actual time per beat of the accompaniment sound. Hereinafter, the real time per beat of the accompaniment sound is referred to as “tempo”, and the accompaniment sound is played based on the tempo.

音高尤度テーブル12fは、鍵2aからの演奏情報の音高と、状態Jnの音高との関係を表す尤度である、音高尤度が記憶されるデータテーブルである。本実施形態では、音高尤度として、鍵2aからの演奏情報の音高と、入力パターンテーブル11bx(図5(a))の状態Jnの音高とが完全一致している場合は「1」が設定され、部分一致している場合は「0.54」が設定され、不一致の場合は「0.4」が設定される。鍵2aからの演奏情報が入力された場合に、かかる音高尤度が全状態Jnに対して設定される。   The pitch likelihood table 12f is a data table in which pitch likelihood, which is a likelihood representing the relationship between the pitch of performance information from the key 2a and the pitch of the state Jn, is stored. In the present embodiment, the pitch likelihood of the performance information from the key 2a and the pitch of the state Jn in the input pattern table 11bx (FIG. 5A) as the pitch likelihood are “1”. ”Is set, and“ 0.54 ”is set when there is a partial match, and“ 0.4 ”is set when there is a mismatch. When performance information from the key 2a is input, such pitch likelihood is set for all states Jn.

図7(b)には、図5(a)の音楽ジャンル「ロック」の入力パターンテーブル11brにおいて、鍵2aからの演奏情報の音高として「ド」が入力された場合を例示している。入力パターンテーブル11brにおける状態J1と状態J74との音高は「ド」なので、音高尤度テーブル12fにおける状態J1と状態J74との音高尤度には、「1」が設定される。また、入力パターンテーブル11brにおける状態J11の音高はワイルドカード音高なので、いずれの音高が入力されても完全一致したとされる。従って、音高尤度テーブル12fにおける状態J11との音高尤度にも「1」が設定される。   FIG. 7B illustrates a case where “do” is input as the pitch of the performance information from the key 2a in the input pattern table 11br of the music genre “rock” in FIG. 5A. Since the pitches of the state J1 and the state J74 in the input pattern table 11br are “do”, “1” is set as the pitch likelihoods of the state J1 and the state J74 in the pitch likelihood table 12f. In addition, since the pitch of the state J11 in the input pattern table 11br is a wildcard pitch, it is assumed that the pitch is completely matched regardless of which pitch is input. Therefore, “1” is also set in the pitch likelihood with the state J11 in the pitch likelihood table 12f.

入力パターンテーブル11brにおける状態J2の音高は「レ」であり、鍵2aからの演奏情報の音高の「ド」とは不一致なので、音高尤度テーブル12fにおける状態J2には「0.4」が設定される。また、入力パターンテーブル11brにおける状態J21の音高は「ド&ミ」であり、鍵2aからの演奏情報の音高の「ド」とは部分一致するので、音高尤度テーブル12fにおける状態J21には「0.54」が設定される。このように設定された音高尤度テーブル12fに基づいて、鍵2aからの演奏情報の音高に最も近い音高の状態Jnが推定できる。   Since the pitch of the state J2 in the input pattern table 11br is “re” and does not match the pitch “do” of the performance information from the key 2a, the state J2 in the pitch likelihood table 12f has “0.4”. Is set. Further, the pitch of the state J21 in the input pattern table 11br is “Do & Mi”, which partially matches the “do” of the pitch of the performance information from the key 2a, so the state J21 in the pitch likelihood table 12f. Is set to “0.54”. Based on the pitch likelihood table 12f set in this way, the pitch state Jn closest to the pitch of the performance information from the key 2a can be estimated.

図2に戻る。伴奏同期尤度テーブル12gは、鍵2aからの演奏情報が入力された2小節におけるタイミングと、状態Jnにおける拍位置B1〜B32との関係を表す尤度である、伴奏同期尤度が記憶されるデータテーブルである。図7(c)を参照して、伴奏同期尤度テーブル12gを説明する。   Returning to FIG. The accompaniment synchronization likelihood table 12g stores accompaniment synchronization likelihood, which is a likelihood representing the relationship between the timing at the two bars where the performance information from the key 2a is input and the beat positions B1 to B32 in the state Jn. It is a data table. The accompaniment synchronization likelihood table 12g will be described with reference to FIG.

図7(c)は、伴奏同期尤度テーブル12gを模式的に示した図である。図7(c)に示す通り、伴奏同期尤度テーブル12gには、各状態Jnに対する伴奏同期尤度が記憶される。本実施形態では、伴奏同期尤度は、鍵2aからの演奏情報が入力された2小節間におけるタイミングと、入力パターンテーブル11bxに記憶される状態Jnの拍位置B1〜B32との差から、後述の数式2のガウス分布に基づいて算出される。   FIG. 7C is a diagram schematically showing the accompaniment synchronization likelihood table 12g. As shown in FIG. 7C, the accompaniment synchronization likelihood table 12g stores accompaniment synchronization likelihood for each state Jn. In the present embodiment, the accompaniment synchronization likelihood is described later based on the difference between the timing between two measures at which performance information from the key 2a is input and the beat positions B1 to B32 of the state Jn stored in the input pattern table 11bx. It is calculated based on the Gaussian distribution of Equation 2.

具体的には、鍵2aからの演奏情報が入力されたタイミングとの差が小さい拍位置B1〜B32の状態Jnには、大きな値の伴奏同期尤度が設定され、一方で、鍵2aからの演奏情報が入力されたタイミングとの差が大きい拍位置B1〜B32の状態Jnには、小さな値の伴奏同期尤度が設定される。このように設定された伴奏同期尤度テーブル12gの伴奏同期尤度に基づき、鍵2aからの演奏情報に対する状態Jnを推定することで、鍵2aからの演奏情報が入力されたタイミングに、最も近い拍位置の状態Jnが推定できる。   Specifically, a large value accompaniment synchronization likelihood is set in the state Jn of the beat positions B1 to B32 having a small difference from the timing at which the performance information from the key 2a is input. A small value of accompaniment synchronization likelihood is set in the state Jn of the beat positions B1 to B32 having a large difference from the timing at which the performance information is input. By estimating the state Jn for the performance information from the key 2a based on the accompaniment synchronization likelihood of the accompaniment synchronization likelihood table 12g set in this way, it is closest to the timing when the performance information from the key 2a is input. The beat position state Jn can be estimated.

図2に戻る。IOI尤度テーブル12hは、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11dxに記憶される遷移ルートRmの拍距離との関係を表す、IOI尤度が記憶されるデータテーブルである。図8(a)を参照して、IOI尤度テーブル12hについて説明する。   Returning to FIG. The IOI likelihood table 12h is a data table that stores the IOI likelihood that represents the relationship between the keystroke interval stored in the IOI memory 12e and the beat distance of the transition route Rm stored in the inter-transition route likelihood table 11dx. It is. The IOI likelihood table 12h will be described with reference to FIG.

図8(a)は、IOI尤度テーブル12hを模式的に示した図である。図8(a)に示す通り、IOI尤度テーブル12hには、各遷移ルートRmに対するIOI尤度が記憶される。本実施形態では、IOI尤度は、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11dxに記憶される遷移ルートRmの拍距離とから、後述の数式1にて算出される。   FIG. 8A is a diagram schematically showing the IOI likelihood table 12h. As shown in FIG. 8A, the IOI likelihood table 12h stores the IOI likelihood for each transition route Rm. In the present embodiment, the IOI likelihood is calculated by Equation 1 described later from the keystroke interval stored in the IOI memory 12e and the beat distance of the transition route Rm stored in the inter-transition route likelihood table 11dx. .

具体的には、IOIメモリ12eに記憶される打鍵間隔との差が小さい拍距離の遷移ルートRmには、大きな値のIOI尤度が設定され、一方で、IOIメモリ12eに記憶される打鍵間隔との差が大きい拍距離の遷移ルートRmには、小さな値のIOI尤度が設定される。このように設定された遷移ルートRmのIOI尤度に基づいて、該遷移ルートRmの遷移先の状態Jnを推定することで、IOIメモリ12eに記憶される打鍵間隔に最も近い拍距離とされる遷移ルートRmに基づいた状態Jnを推定できる。   Specifically, a large value IOI likelihood is set for the transition distance Rm of the beat distance with a small difference from the keystroke interval stored in the IOI memory 12e, while the keystroke interval stored in the IOI memory 12e. The IOI likelihood of a small value is set to the transition route Rm of the beat distance having a large difference from the above. By estimating the transition destination state Jn of the transition route Rm based on the IOI likelihood of the transition route Rm set in this way, the beat distance closest to the keystroke interval stored in the IOI memory 12e is obtained. The state Jn based on the transition route Rm can be estimated.

図2に戻る。尤度テーブル12iは、上述したパターン遷移尤度、打ち損ない尤度、ユーザ評価尤度、音高尤度、伴奏同期尤度およびIOI尤度を、状態Jn毎に統合した結果の尤度を記憶するデータテーブルであり、前回尤度テーブル12jは、尤度テーブル12iの記憶された状態Jn毎の尤度の、前回値を記憶するデータテーブルである。尤度テーブル12i及び前回尤度テーブル12jについて、図8(b),図8(c)を参照して説明する。   Returning to FIG. The likelihood table 12i stores the likelihood of the result obtained by integrating the above-described pattern transition likelihood, likelihood of failure, user evaluation likelihood, pitch likelihood, accompaniment synchronization likelihood, and IOI likelihood for each state Jn. The previous likelihood table 12j is a data table that stores the previous value of the likelihood for each state Jn stored in the likelihood table 12i. The likelihood table 12i and the previous likelihood table 12j will be described with reference to FIGS. 8B and 8C.

図8(b)は、尤度テーブル12iを模式的に示した図であり、図8(c)は、前回尤度テーブル12jを模式的に示した図である。図8(b)に示す通り、尤度テーブル12iには、状態Jn毎にそれぞれ、パターン遷移尤度、打ち損ない尤度、ユーザ評価尤度、音高尤度、伴奏同期尤度およびIOI尤度を統合した結果が記憶される。これらの尤度のうち、パターン遷移尤度、打ち損ない尤度およびIOI尤度は、遷移先の状態Jnに対応する遷移ルートRmの各尤度が統合され、ユーザ評価尤度は、該当する状態Jnに対するパターンのユーザ評価尤度が統合される。また、図8(c)に示す前回尤度テーブル12jには、前回の処理で統合され、尤度テーブル12iに記憶された各状態Jnの尤度が記憶される。   FIG. 8B is a diagram schematically showing the likelihood table 12i, and FIG. 8C is a diagram schematically showing the previous likelihood table 12j. As shown in FIG. 8 (b), the likelihood table 12i includes pattern transition likelihood, likelihood of failure, user evaluation likelihood, pitch likelihood, accompaniment synchronization likelihood, and IOI likelihood for each state Jn. The result of integrating is stored. Among these likelihoods, the pattern transition likelihood, the likelihood of failure and the IOI likelihood are integrated with each likelihood of the transition route Rm corresponding to the transition destination state Jn, and the user evaluation likelihood is the corresponding state. The user evaluation likelihood of the pattern for Jn is integrated. Further, in the previous likelihood table 12j shown in FIG. 8C, the likelihood of each state Jn integrated in the previous process and stored in the likelihood table 12i is stored.

図2に戻る。音源13は、CPU10から入力される演奏情報に応じた波形データを出力する装置である。DSP14は、音源13から入力された波形データを演算処理するための演算装置である。DSP14によって、音源13から入力された波形データに対して、選択パターンメモリ12bで指定された出力パターンのエフェクトが適用される。   Returning to FIG. The sound source 13 is a device that outputs waveform data corresponding to performance information input from the CPU 10. The DSP 14 is an arithmetic device for performing arithmetic processing on the waveform data input from the sound source 13. The DSP 14 applies the effect of the output pattern specified in the selection pattern memory 12b to the waveform data input from the sound source 13.

DAC16は、DSP14から入力された波形データを、アナログ波形データに変換する変換装置である。アンプ17は、該DAC16から出力されたアナログ波形データを、所定の利得で増幅する増幅装置であり、スピーカ18は、アンプ17で増幅されたアナログ波形データを楽音として放音(出力)する出力装置である。   The DAC 16 is a conversion device that converts the waveform data input from the DSP 14 into analog waveform data. The amplifier 17 is an amplification device that amplifies the analog waveform data output from the DAC 16 with a predetermined gain, and the speaker 18 outputs (outputs) the analog waveform data amplified by the amplifier 17 as a musical sound. It is.

次に、図9〜図15を参照して、CPU10で実行されるメイン処理について説明する。図9は、メイン処理のフローチャートである。メイン処理は、シンセサイザ1の電源投入時に実行される。   Next, main processing executed by the CPU 10 will be described with reference to FIGS. FIG. 9 is a flowchart of the main process. The main process is executed when the synthesizer 1 is powered on.

メイン処理では、まず演奏者によって選択された音楽ジャンルを、選択ジャンルメモリ12aへ保存する(S1)。具体的には、演奏者によるシンセサイザ1の音楽ジャンル選択ボタン(図示しない)に対する操作によって、音楽ジャンルが選択され、その音楽ジャンルの種類が選択ジャンルメモリ12aへ保存される。   In the main process, the music genre selected by the performer is first stored in the selected genre memory 12a (S1). Specifically, the music genre is selected by the player's operation on the music genre selection button (not shown) of the synthesizer 1, and the type of the music genre is stored in the selected genre memory 12a.

なお、音楽ジャンル毎に記憶される、入力パターンテーブル11b、出力パターンテーブル11c、遷移ルート間尤度テーブル11d又はユーザ評価尤度テーブル11eに対して、この選択ジャンルメモリ12aに記憶される音楽ジャンルに該当する入力パターンテーブル11bx、出力パターンテーブル11cx、遷移ルート間尤度テーブル11dx又はユーザ評価尤度テーブル11exが参照されるが、以下では「選択ジャンルメモリ12aに記憶されている音楽ジャンル」のことを「該当音楽ジャンル」と表現する。   For the input pattern table 11b, output pattern table 11c, transition route likelihood table 11d, or user evaluation likelihood table 11e stored for each music genre, the music genre stored in the selected genre memory 12a The corresponding input pattern table 11bx, output pattern table 11cx, transition route likelihood table 11dx or user evaluation likelihood table 11ex is referred to. In the following, “music genre stored in the selected genre memory 12a” is referred to. Expressed as “applicable music genre”

S1の処理の後、演奏者からのスタート指示があるかどうかを確認する(S2)。スタート指示は、シンセサイザ1に設けられるスタートボタン(図示しない)が選択された場合に、CPU10へ出力される。演奏者からのスタート指示がされない場合は(S2:No)、スタート指示を待機するためにS2の処理を繰り返す。   After the process of S1, it is confirmed whether or not there is a start instruction from the performer (S2). The start instruction is output to the CPU 10 when a start button (not shown) provided in the synthesizer 1 is selected. If the start instruction is not given from the performer (S2: No), the process of S2 is repeated to wait for the start instruction.

演奏者からのスタート指示がされた場合は(S2:Yes)、該当音楽ジャンルの先頭の出力パターンに基づいて、伴奏を開始する(S3)。具体的には、該当音楽ジャンルの出力パターンテーブル11cx(図5(b))の先頭の出力パターン、即ち、パターンP1の出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色に基づいて、伴奏音の演奏が開始される。この際、選択された出力パターンに規定されているテンポがテンポメモリ12dに記憶され、該テンポに基づいて伴奏音が演奏される。   When a start instruction is given from the performer (S2: Yes), accompaniment is started based on the first output pattern of the corresponding music genre (S3). Specifically, the head output pattern of the output pattern table 11cx (FIG. 5B) of the corresponding music genre, that is, the drum pattern, base pattern, chord progression, arpeggio progression, effect, volume / volume / pattern P1 output pattern. Based on the velocity and tone, the performance of the accompaniment sound is started. At this time, the tempo defined in the selected output pattern is stored in the tempo memory 12d, and the accompaniment sound is played based on the tempo.

S3の処理の後、S3の処理による、音楽ジャンルにおけるパターンP1の出力パターンに基づいた伴奏音の開始に伴い、選択パターンメモリにパターンP1を設定する(S4)。   After the process of S3, with the start of the accompaniment sound based on the output pattern of the pattern P1 in the music genre by the process of S3, the pattern P1 is set in the selection pattern memory (S4).

S4の処理の後、ユーザ評価反映処理を実行する(S5)。ここで、図10を参照して、ユーザ評価処理を説明する。   After the process of S4, a user evaluation reflection process is executed (S5). Here, the user evaluation processing will be described with reference to FIG.

図10は、ユーザ評価反映処理のフローチャートである。ユーザ評価反映処理はまず、ユーザ評価ボタン3(図1参照)が押されたかを確認する(S20)。ユーザ評価ボタン3が押された場合は(S20:Yes)、更に、高評価ボタン3aが押されたかを確認する(S21)。   FIG. 10 is a flowchart of the user evaluation reflection process. In the user evaluation reflection process, first, it is confirmed whether or not the user evaluation button 3 (see FIG. 1) has been pressed (S20). When the user evaluation button 3 is pressed (S20: Yes), it is further confirmed whether the high evaluation button 3a is pressed (S21).

S21の処理において、高評価ボタン3aが押された場合は(S21:Yes)、ユーザ評価尤度テーブル11eにおける、選択パターンメモリ12bに記憶されるパターンに該当するユーザ評価尤度に、0.1を加算する(S22)。なお、S22の処理で、加算後のユーザ評価尤度が1より大きくなった場合は、ユーザ評価尤度に1が設定される。   In the process of S21, when the high evaluation button 3a is pressed (S21: Yes), the user evaluation likelihood corresponding to the pattern stored in the selection pattern memory 12b in the user evaluation likelihood table 11e is 0.1. Are added (S22). In addition, when the user evaluation likelihood after addition becomes larger than 1 by the process of S22, 1 is set to the user evaluation likelihood.

一方で、S21の処理において、低評価ボタン3bが押された場合は(S21:No)、ユーザ評価尤度テーブル11eにおける、選択パターンメモリ12bに記憶されるパターンに該当するユーザ評価尤度から、0.1を減算する(S23)。なお、S23の処理で、減算後のユーザ評価尤度が0より小さくなった場合は、ユーザ評価尤度に0が設定される。   On the other hand, when the low evaluation button 3b is pressed in the process of S21 (S21: No), from the user evaluation likelihood corresponding to the pattern stored in the selection pattern memory 12b in the user evaluation likelihood table 11e, 0.1 is subtracted (S23). If the user evaluation likelihood after subtraction becomes smaller than 0 in the process of S23, 0 is set as the user evaluation likelihood.

また、S20の処理においてユーザ評価ボタン3が押されていない場合は(S20:No)、S21〜S23の処理をスキップする。そして、S20,S22,S23の処理の後、ユーザ評価反映処理を終了し、メイン処理へ戻る。   If the user evaluation button 3 is not pressed in the process of S20 (S20: No), the processes of S21 to S23 are skipped. Then, after the processes of S20, S22, and S23, the user evaluation reflection process is terminated, and the process returns to the main process.

図9に戻る。S5のユーザ評価反映処理の後、キー入力、即ち、鍵2aからの演奏情報が入力されたかを確認する(S6)。S6の処理において、鍵2aからの演奏情報が入力された場合は(S6:Yes)、入力パターン検索処理を実行する(S7)。ここで、図11〜図15を参照して、入力パターン検索処理を説明する。   Returning to FIG. After the user evaluation reflection process in S5, it is confirmed whether or not key input, that is, performance information from the key 2a is input (S6). In the process of S6, when performance information from the key 2a is input (S6: Yes), an input pattern search process is executed (S7). Here, the input pattern search process will be described with reference to FIGS.

図11は、入力パターン検索処理のフローチャートである。入力パターン検索処理では、まず、尤度算出処理を行う(S30)。図12を参照して、尤度算出処理を説明する。   FIG. 11 is a flowchart of the input pattern search process. In the input pattern search process, first, a likelihood calculation process is performed (S30). The likelihood calculation process will be described with reference to FIG.

図12は、尤度算出処理のフローチャートである。尤度算出処理では、まず、前回の鍵2aからの演奏情報の入力がされた時刻と、今回鍵2aからの演奏情報の入力がされた時刻との差から、鍵2aからの演奏情報の入力の時間差、即ち、打鍵間隔を算出し、IOIメモリ12eへ保存する(S50)。   FIG. 12 is a flowchart of likelihood calculation processing. In the likelihood calculation process, first, the performance information input from the key 2a is calculated based on the difference between the time when the performance information is input from the previous key 2a and the time when the performance information is input from the current key 2a. , That is, the keying interval is calculated and stored in the IOI memory 12e (S50).

S50の処理の後、IOIメモリ12eの打鍵間隔と、テンポメモリ12dのテンポと、該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおける各遷移ルートRmの拍距離とから、IOI尤度を算出し、IOI尤度テーブル12hへ保存する(S51)。具体的には、IOIメモリ12eの打鍵間隔をx,テンポメモリ12dのテンポをVm,遷移ルート間尤度テーブル11dxに記憶される、ある遷移ルートRmの拍距離をΔτとすると、IOI尤度Gは数式1のガウス分布によって算出される。   After the processing of S50, the IOI likelihood is calculated from the keystroke interval of the IOI memory 12e, the tempo of the tempo memory 12d, and the beat distance of each transition route Rm in the inter-transition route likelihood table 11dx of the corresponding music genre, Save to the IOI likelihood table 12h (S51). Specifically, if the keystroke interval of the IOI memory 12e is x, the tempo of the tempo memory 12d is Vm, and the beat distance of a certain transition route Rm stored in the inter-transition route likelihood table 11dx is Δτ, the IOI likelihood G Is calculated by the Gaussian distribution of Equation 1.

Figure 2019200390
ここで、σは数式1のガウス分布における標準偏差を表す定数であり、予め実験等によって算出された値が設定される。かかるIOI尤度Gが、全遷移ルートRmに対して算出され、その結果がIOI尤度テーブル12hに記憶される。即ち、IOI尤度Gは数式1のガウス分布に従うので、IOIメモリ12eの打鍵間隔との差が小さい拍距離を持つ遷移ルートRm程、大きな値のIOI尤度Gが設定される。
Figure 2019200390
Here, σ is a constant representing the standard deviation in the Gaussian distribution of Equation 1, and a value calculated in advance through experiments or the like is set. The IOI likelihood G is calculated for all transition routes Rm, and the result is stored in the IOI likelihood table 12h. That is, since the IOI likelihood G follows the Gaussian distribution of Equation 1, a larger value of the IOI likelihood G is set for a transition route Rm having a smaller beat distance from the keystroke interval of the IOI memory 12e.

S51の処理の後、鍵2aからの演奏情報の音高から、状態Jn毎に音高尤度を算出し、音高尤度テーブル12fへ保存する(S52)。図7(b)で上述した通り、鍵2aからの演奏情報の音高と、該当音楽ジャンルの入力パターンテーブル11bxの各状態Jnの音高とを比較して、完全に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「1」が設定され、部分的に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.54」が設定され、不一致である状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.4」が設定される。   After the processing of S51, the pitch likelihood is calculated for each state Jn from the pitch of the performance information from the key 2a and stored in the pitch likelihood table 12f (S52). As described above with reference to FIG. 7 (b), the pitch of the performance information from the key 2a is compared with the pitch of each state Jn of the input pattern table 11bx of the corresponding music genre. Thus, “1” is set in the pitch likelihood of the corresponding state Jn in the pitch likelihood table 12f, and the corresponding state Jn in the pitch likelihood table 12f is set for a partially matching state Jn. “0.54” is set in the pitch likelihood of the current state, and “0.4” is set in the pitch likelihood of the corresponding state Jn in the pitch likelihood table 12f for the mismatched state Jn. The

S52の処理の後、鍵2aからの演奏情報が入力された時刻に該当する拍位置と該当音楽ジャンルの入力パターンテーブル11bxの拍位置とから伴奏同期尤度を算出し、伴奏同期尤度テーブル12gへ保存する(S53)。具体的には、鍵2aからの演奏情報が入力された時刻を、2小節単位における拍位置に変換したものをtp,該当音楽ジャンルの入力パターンテーブル11bxの拍位置τとすると、伴奏同期尤度Bは、数式2のガウス分布によって算出される。   After the processing of S52, the accompaniment synchronization likelihood is calculated from the beat position corresponding to the time when the performance information from the key 2a is input and the beat position of the input pattern table 11bx of the corresponding music genre, and the accompaniment synchronization likelihood table 12g. (S53). Specifically, when the time when performance information from the key 2a is input is converted into a beat position in units of two measures as tp, and the beat position τ in the input pattern table 11bx of the corresponding music genre, the accompaniment synchronization likelihood B is calculated by the Gaussian distribution of Equation 2.

Figure 2019200390
ここで、ρは数式2のガウス分布における標準偏差を表す定数であり、予め実験等によって算出された値が設定される。かかる伴奏同期尤度Bが、全状態Jnに対して算出され、その結果が伴奏同期尤度テーブル12gに記憶される。即ち、伴奏同期尤度Bは数式2のガウス分布に従うので、鍵2aからの演奏情報が入力された時刻に該当する拍位置との差が小さい拍位置を持つ状態Jn程、大きな値の伴奏同期尤度Bが設定される。
Figure 2019200390
Here, ρ is a constant representing the standard deviation in the Gaussian distribution of Equation 2, and a value calculated in advance through experiments or the like is set. The accompaniment synchronization likelihood B is calculated for all states Jn, and the result is stored in the accompaniment synchronization likelihood table 12g. That is, the accompaniment synchronization likelihood B follows the Gaussian distribution of Equation 2, so that the state Jn having a beat position with a smaller difference from the beat position corresponding to the time when the performance information from the key 2a is input has a larger value of accompaniment synchronization. A likelihood B is set.

S53の処理の後、尤度算出処理を終了し、図11の入力パターン検索処理へ戻る。   After the process of S53, the likelihood calculation process is terminated, and the process returns to the input pattern search process of FIG.

図11に戻る。S30の尤度算出処理の後、状態間尤度統合処理を実行する(S31)。ここで、図13を参照して、状態間尤度統合処理を説明する。   Returning to FIG. After the likelihood calculation process of S30, an inter-state likelihood integration process is executed (S31). Here, the inter-state likelihood integration processing will be described with reference to FIG.

図13は、状態間尤度統合処理のフローチャートである。この状態間尤度統合処理では、図12の尤度算出処理で算出された各尤度から、状態Jn毎に尤度を算出する処理である。状態間尤度統合処理は、まず、カウンタ変数nに1を設定する(S60)。以下、状態間尤度統合処理における「状態Jn」の「n」はカウンタ変数nを表し、例えば、カウンタ変数nが1である場合の状態Jnは、「状態J1」を表す。   FIG. 13 is a flowchart of the inter-state likelihood integration process. This inter-state likelihood integration process is a process of calculating the likelihood for each state Jn from each likelihood calculated in the likelihood calculation process of FIG. In the inter-state likelihood integration process, first, 1 is set to the counter variable n (S60). Hereinafter, “n” of “state Jn” in the inter-state likelihood integration process represents a counter variable n. For example, the state Jn when the counter variable n is 1 represents “state J1”.

S60の処理の後、前回尤度テーブル12jに記憶される尤度の最大値と、音高尤度テーブル12fにおける状態Jnの音高尤度と、伴奏同期尤度テーブル12gにおける状態Jnの伴奏同期尤度とから、状態Jnにおける尤度を算出し、尤度テーブル12iに保存する(S61)。具体的には、前回尤度テーブル12jに記憶される尤度の最大値をLp_M,音高尤度テーブル12fにおける状態Jnの音高尤度をPi_n,伴奏同期尤度テーブル12gにおける状態Jnの伴奏同期尤度をB_nとし、状態Jnにおける尤度L_nの対数である対数尤度log(L_n)は、数式3のViterbiアルゴリズムによって算出される。   After the process of S60, the maximum likelihood stored in the previous likelihood table 12j, the pitch likelihood of the state Jn in the pitch likelihood table 12f, and the accompaniment synchronization of the state Jn in the accompaniment synchronization likelihood table 12g The likelihood in the state Jn is calculated from the likelihood and stored in the likelihood table 12i (S61). Specifically, the maximum likelihood stored in the previous likelihood table 12j is Lp_M, the pitch likelihood of state Jn in the pitch likelihood table 12f is Pi_n, and the accompaniment of state Jn in the accompaniment synchronization likelihood table 12g. With the synchronization likelihood being B_n, the log likelihood log (L_n), which is the logarithm of the likelihood L_n in the state Jn, is calculated by the Viterbi algorithm of Equation 3.

Figure 2019200390
ここで、αは伴奏同期尤度Bnに対するペナルティ定数、即ち、状態Jnへ遷移しない場合を考慮した定数であり、予め実験等によって算出された値が設定される。数式3により算出された対数尤度log(L_n)から対数を外した尤度L_nが、尤度テーブル12iの状態Jnに該当するメモリ領域に記憶される。
Figure 2019200390
Here, α is a penalty constant with respect to the accompaniment synchronization likelihood Bn, that is, a constant considering the case where the state does not transit to the state Jn, and a value calculated in advance by an experiment or the like is set. The likelihood L_n obtained by removing the logarithm from the log likelihood log (L_n) calculated by Expression 3 is stored in the memory area corresponding to the state Jn of the likelihood table 12i.

尤度L_nは、前回尤度テーブル12jに記憶される尤度の最大値LpMと、音高尤度Pi_nと、伴奏同期尤度Bnとの積によって算出される。ここで、各尤度は0以上1以下の値を取るので、これらの積を行った場合はアンダーフローを引き起こす虞がある。そこで、尤度Lp_M,Pi_n及びB_nのそれぞれの対数を取ることで、尤度Lp_M,Pi_n及びB_nの積の計算を、尤度Lp_M,Pi_n及びB_nの対数の和の計算に変換することができる。そして、その算出結果である対数尤度log(L_n)の対数を外して尤度L_nを算出することで、アンダーフローが抑制された精度の高い尤度L_nとできる。   The likelihood L_n is calculated by the product of the maximum likelihood value LpM stored in the previous likelihood table 12j, the pitch likelihood Pi_n, and the accompaniment synchronization likelihood Bn. Here, since each likelihood takes a value of 0 or more and 1 or less, if these products are used, there is a possibility of causing an underflow. Therefore, by calculating the logarithm of each of the likelihoods Lp_M, Pi_n, and B_n, the calculation of the product of the likelihoods Lp_M, Pi_n, and B_n can be converted into the calculation of the sum of the logarithms of the likelihoods Lp_M, Pi_n, and B_n. . Then, by calculating the likelihood L_n by removing the logarithm of the log likelihood log (L_n) that is the calculation result, it is possible to obtain a highly accurate likelihood L_n in which underflow is suppressed.

S61の後、カウンタ変数nに1を加算し(S62)、加算されたカウンタ変数nが、状態Jnの数よりも大きいかを確認する(S63)。S63の処理において、カウンタ変数nが、状態Jnの数以下である場合は、S61の処理以下を繰り返す。一方で、カウンタ変数nが、状態Jnの数より大きい場合は(S63:Yes)、状態間尤度統合処理を終了して、図11の入力パターン検索処理に戻る。   After S61, 1 is added to the counter variable n (S62), and it is confirmed whether the added counter variable n is larger than the number of states Jn (S63). In the process of S63, when the counter variable n is equal to or less than the number of states Jn, the process of S61 and subsequent steps are repeated. On the other hand, when the counter variable n is larger than the number of states Jn (S63: Yes), the inter-state likelihood integration processing is terminated and the processing returns to the input pattern search processing of FIG.

図11に戻る。S31の状態間尤度統合処理の後、遷移間尤度統合処理を実行する(S32)。図14を参照して、遷移間尤度統合処理を説明する。   Returning to FIG. After the inter-state likelihood integration process of S31, the inter-transition likelihood integration process is executed (S32). The inter-transition likelihood integration process will be described with reference to FIG.

図14は、遷移間尤度統合処理のフローチャートである。遷移間尤度統合処理では、図12の尤度算出処理で算出された各尤度と、予め設定されている遷移ルート間尤度テーブル11dのパターン遷移尤度および打ち損ない尤度とから、各遷移ルートRmの遷移先の状態Jnに対する尤度を算出する処理である。   FIG. 14 is a flowchart of the inter-likelihood integration processing. In the inter-transition likelihood integration process, each likelihood calculated in the likelihood calculation process of FIG. 12 and the pattern transition likelihood and the likelihood of not losing in the inter-transition route likelihood table 11d set in advance are This is a process of calculating the likelihood for the transition destination state Jn of the transition route Rm.

遷移間尤度統合処理は、まず、カウンタ変数mに1を設定する(S70)。以下、遷移間尤度統合処理における「遷移ルートRm」の「m」はカウンタ変数mを表し、例えば、カウンタ変数mが1である場合の、遷移ルートRmは「遷移ルートR1」を表す。   In the inter-likelihood integration processing, first, 1 is set to the counter variable m (S70). Hereinafter, “m” in “transition route Rm” in the inter-transition likelihood integration process represents a counter variable m. For example, when the counter variable m is 1, the transition route Rm represents “transition route R1”.

S70の処理の後、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの尤度と、IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度と、該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおけるパターン遷移尤度および打ち損ない尤度と、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度と、伴奏同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの伴奏同期尤度とに基づいて、尤度を算出する(S71)。   After the processing of S70, the likelihood of the transition source state Jn of the transition route Rm in the previous likelihood table 12j, the IOI likelihood of the transition route Rm in the IOI likelihood table 12h, and the likelihood between transition routes of the corresponding music genre. Pattern transition likelihood and failure likelihood in table 11dx, pitch likelihood of transition destination state Jn of transition route Rm in pitch likelihood table 12f, and transition destination of transition route Rm in accompaniment synchronization likelihood table 12g The likelihood is calculated based on the accompaniment synchronization likelihood of the state Jn (S71).

具体的に、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの前回尤度をLp_mb,IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度をI_m,該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおけるパターン遷移尤度をPs_m,該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおける打ち損ない尤度をMs_mとし、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度をPi_mfと、伴奏同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの伴奏同期尤度をB_mfとし、尤度Lの対数である対数尤度log(L)は、数式4のViterbiアルゴリズムによって算出される。   Specifically, the previous likelihood of the transition source state Jn of the transition route Rm in the previous likelihood table 12j is Lp_mb, the IOI likelihood of the transition route Rm in the IOI likelihood table 12h is I_m, and the inter-transition route likelihood of the corresponding music genre. Ps_m is the pattern transition likelihood in the degree table 11dx, Ms_m is the likelihood of failure in the inter-transition route likelihood table 11dx of the corresponding music genre, and the pitch of the transition state Rn of the transition route Rm in the pitch likelihood table 12f The likelihood is Pi_mf, the accompaniment synchronization likelihood of the transition destination state Jn of the transition route Rm in the accompaniment synchronization likelihood table 12g is B_mf, and the log likelihood log (L) that is the logarithm of the likelihood L is Calculated by the Viterbi algorithm.

Figure 2019200390
ここで、数式4において尤度Lp_mb,I_m,Ps_m,Ms_m,Pi_mf及びB_mfそれぞれの対数の和によって対数尤度log(L)を算出するのは、上記した数式3と同様に、尤度Lに対するアンダーフローを抑制するためである。そして、かかる数式4で算出された対数尤度log(L)から対数を外すことで、尤度Lが算出される。
Figure 2019200390
Here, the log likelihood log (L) is calculated from the sum of the logarithms of the likelihoods Lp_mb, I_m, Ps_m, Ms_m, Pi_mf, and B_mf in Equation 4, as in Equation 3 above. This is to suppress underflow. Then, the likelihood L is calculated by removing the logarithm from the log likelihood log (L) calculated by Equation 4.

S71の処理の後、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きいかを確認する(S72)。S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きい場合は、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnに該当するメモリ領域に、S70の処理で算出された尤度Lを保存する(S73)。   After the process of S71, it is confirmed whether the likelihood L calculated by the process of S70 is larger than the likelihood of the transition destination state Jn of the transition route Rm in the likelihood table 12i (S72). In the process of S72, when the likelihood L calculated in the process of S70 is larger than the likelihood of the transition destination state Jn of the transition route Rm in the likelihood table 12i, the transition of the transition route Rm in the likelihood table 12i The likelihood L calculated in the process of S70 is stored in the memory area corresponding to the previous state Jn (S73).

一方で、S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度以下の場合は(S72:No)、S73の処理をスキップする。   On the other hand, in the process of S72, when the likelihood L calculated in the process of S70 is equal to or less than the likelihood of the transition destination state Jn of the transition route Rm in the likelihood table 12i (S72: No), the process of S73 To skip.

S72,S73の処理の後、カウンタ変数mに1を加算し(S74)、その後、カウンタ変数mが遷移ルートRmの数より大きいかを確認する(S75)。S75の処理において、カウンタ変数mが遷移ルートRmの数以下の場合は(S75:No)、S71の処理以下を繰り返し、カウンタ変数mが遷移ルートRmの数より大きい場合は(S75:Yes)、遷移間尤度統合処理を終了し、図11の入力パターン検索処理に戻る。   After the processes of S72 and S73, 1 is added to the counter variable m (S74), and then it is confirmed whether the counter variable m is larger than the number of transition routes Rm (S75). In the process of S75, when the counter variable m is less than or equal to the number of transition routes Rm (S75: No), the process after S71 is repeated, and when the counter variable m is greater than the number of transition routes Rm (S75: Yes), The inter-likelihood integration process is terminated, and the process returns to the input pattern search process of FIG.

即ち、遷移間尤度統合処理では、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの前回尤度Lp_mbを基準として、遷移ルートRmにおける遷移先の状態Jnに対する尤度が算出される。これは、状態Jnの遷移は、遷移元の状態Jnに依存するからである。即ち、前回尤度Lp_mbが大きな状態Jnが、今回における遷移元の状態Jnである確率が高いと推定され、逆に前回尤度Lp_mbが小さな状態Jnが、今回における遷移元の状態Jnである確率が低いと推定される。そこで、遷移ルートRmにおける遷移先の状態Jnに対する尤度を、前回尤度Lp_mbを基準に算出することで、状態Jn間の遷移関係を考慮に入れた精度の高い尤度とできる。   That is, in the inter-transition likelihood integration process, the likelihood for the transition destination state Jn in the transition route Rm is calculated based on the previous likelihood Lp_mb of the transition source state Jn of the transition route Rm in the previous likelihood table 12j. . This is because the transition of the state Jn depends on the state Jn of the transition source. That is, it is presumed that the state Jn having a large previous likelihood Lp_mb has a high probability of being the current transition state Jn, and conversely, the state Jn having the small previous likelihood Lp_mb is the current transition state Jn. Is estimated to be low. Therefore, by calculating the likelihood of the transition destination state Jn in the transition route Rm based on the previous likelihood Lp_mb, it is possible to obtain a highly accurate likelihood taking into account the transition relationship between the states Jn.

一方で、遷移間尤度統合処理で算出される尤度は状態Jn間の遷移関係に依存されるので、例えば、伴奏の演奏が開始された直後に鍵盤2の演奏情報が入力された場合や、鍵盤2の演奏情報の入力間隔が極度に大きい場合等、遷移元の状態Jn及び遷移先の状態Jnが、該当音楽ジャンルの入力パターンテーブル11bxに該当しないケースも考えられる。かかる場合は、状態Jn間の遷移関係に基づいて遷移間尤度統合処理で算出される尤度は、いずれも小さな値となる。   On the other hand, since the likelihood calculated in the inter-transition likelihood integration process depends on the transition relationship between the states Jn, for example, when performance information of the keyboard 2 is input immediately after the performance of the accompaniment is started, When the performance information input interval of the keyboard 2 is extremely large, the transition source state Jn and the transition destination state Jn may not correspond to the input pattern table 11bx of the corresponding music genre. In such a case, the likelihood calculated by the inter-transition likelihood integration process based on the transition relationship between the states Jn is a small value.

ここで、図13で上述した状態間尤度統合処理では、状態Jn毎に設定される音高尤度と伴奏同期尤度とから尤度が算出されるので、遷移ルートRmには依存しない。よって、該当音楽ジャンルの入力パターンテーブル11bxの遷移元の状態Jn及び遷移先の状態Jnに該当しないケースでは、状態間尤度統合処理で算出される状態Jnの尤度の方が、遷移間尤度統合処理で算出される状態Jnの尤度よりも大きくなる。この場合は、尤度テーブル12iには、状態間尤度統合処理で算出された尤度が記憶されたままとされる。   Here, in the inter-state likelihood integration process described above with reference to FIG. 13, since the likelihood is calculated from the pitch likelihood and accompaniment synchronization likelihood set for each state Jn, it does not depend on the transition route Rm. Therefore, in a case that does not correspond to the transition state Jn and the transition destination state Jn of the input pattern table 11bx of the corresponding music genre, the likelihood of the state Jn calculated by the interstate likelihood integration process is more likely to be the intertransition likelihood. It becomes larger than the likelihood of the state Jn calculated by the degree integration process. In this case, the likelihood table 12i is stored with the likelihood calculated in the inter-state likelihood integration process.

従って、遷移間尤度統合処理による前回尤度Lp_mbに基づく尤度の算出と、状態間尤度統合処理によるその時点での鍵2aの演奏情報に基づく尤度とを組み合わせることで、状態Jn間に遷移関係がある場合であっても、遷移関係が乏しい場合であっても、それぞれ場合に応じて、適切に状態Jnの尤度を算出することができる。   Therefore, by combining the likelihood calculation based on the previous likelihood Lp_mb by the inter-likelihood integration processing and the likelihood based on the performance information of the key 2a at that time by the inter-state likelihood integration processing, between the states Jn Whether or not there is a transition relationship, or even if the transition relationship is poor, the likelihood of the state Jn can be appropriately calculated depending on the case.

図11に戻る。S32の遷移間尤度統合処理の後、ユーザ評価尤度統合処理を実行する(S33)。ここで、図15を参照して、ユーザ評価尤度統合処理を説明する。   Returning to FIG. After the likelihood integration process between transitions of S32, a user evaluation likelihood integration process is executed (S33). Here, the user evaluation likelihood integration processing will be described with reference to FIG.

図15は、ユーザ評価尤度統合処理のフローチャートである。ユーザ評価尤度統合処理はまず、カウンタ変数nに1を設定する(S80)。以下、ユーザ評価尤度統合処理も、図13の状態間尤度統合処理と同様に、「状態Jn」の「n」はカウンタ変数nを表す。例えば、カウンタ変数nが1である場合の状態Jnは、「状態J1」を表す。   FIG. 15 is a flowchart of the user evaluation likelihood integration process. In the user evaluation likelihood integration process, first, 1 is set to the counter variable n (S80). Hereinafter, also in the user evaluation likelihood integration process, “n” of “state Jn” represents the counter variable n, similarly to the inter-state likelihood integration process of FIG. 13. For example, the state Jn when the counter variable n is 1 represents “state J1”.

S80の処理の後、ユーザ評価尤度テーブル11eから、状態Jnに該当するパターンのユーザ評価尤度を取得し、尤度テーブル12iの状態Jnにおける尤度に加算する(S81)。S81の処理の後、カウンタ変数nに1を加算し(S82)、そのカウンタ変数nが状態Jnの総数よりも大きいか確認する(S83)。S83の処理において、カウンタ変数nが状態Jnの総数以下の場合は(S83:No)、S81の処理以下を繰り返す。一方で、カウンタ変数nが状態Jnの総数よりも大きい場合は(S83:Yes)、ユーザ評価尤度統合処理を終了し、図11の入力パターン検索処理へ戻る。   After the process of S80, the user evaluation likelihood of the pattern corresponding to the state Jn is acquired from the user evaluation likelihood table 11e and added to the likelihood in the state Jn of the likelihood table 12i (S81). After the process of S81, 1 is added to the counter variable n (S82), and it is confirmed whether the counter variable n is larger than the total number of states Jn (S83). In the process of S83, when the counter variable n is less than or equal to the total number of states Jn (S83: No), the process from S81 is repeated. On the other hand, if the counter variable n is larger than the total number of states Jn (S83: Yes), the user evaluation likelihood integration process is terminated, and the process returns to the input pattern search process of FIG.

ユーザ評価尤度統合処理によって、ユーザ評価尤度が尤度テーブル12iに反映される。即ち、演奏者による出力パターンに対する評価が尤度テーブル12iに反映される。従って、演奏者の評価が高い出力パターンの状態Jn程、尤度テーブル12iの尤度が大きくなるので、推定される出力パターンを演奏者の評価に応じたものとできる。   The user evaluation likelihood is reflected in the likelihood table 12i by the user evaluation likelihood integration process. That is, the player's evaluation of the output pattern is reflected in the likelihood table 12i. Therefore, since the likelihood of the likelihood table 12i increases as the state Jn of the output pattern having a higher evaluation by the player, the estimated output pattern can be made according to the evaluation of the player.

図11に戻る。S33のユーザ評価統合処理の後、尤度テーブル12iにおける最大値の尤度を取る状態Jnを取得し、その状態Jnに該当するパターンを該当音楽ジャンルの入力パターンテーブル11bxから取得して選択パターンメモリ12bに保存する(S34)。即ち、鍵2aからの演奏情報に最尤な状態Jnが尤度テーブル12iから取得され、その状態Jnに該当するパターンが取得される。これにより、鍵2aからの演奏情報に最尤なパターンを選択することができる。   Returning to FIG. After the user evaluation integration process of S33, a state Jn that takes the maximum likelihood in the likelihood table 12i is acquired, and a pattern corresponding to the state Jn is acquired from the input pattern table 11bx of the corresponding music genre and selected pattern memory 12b is stored (S34). That is, the state Jn that is most likely to be the performance information from the key 2a is acquired from the likelihood table 12i, and the pattern corresponding to the state Jn is acquired. Thereby, the pattern most likely to the performance information from the key 2a can be selected.

S34の処理の後、尤度テーブル12iにおける最大値の尤度が、S32の遷移間尤度統合処理で更新されたかを確認する(S35)。即ち、S34の処理でパターンの決定に用いられた状態Jnの尤度が、図14のS71〜S73の処理による前回尤度Lp_mbに基づく尤度によって、更新されたかを確認する。   After the process of S34, it is confirmed whether the likelihood of the maximum value in the likelihood table 12i has been updated by the inter-transition likelihood integration process of S32 (S35). That is, it is confirmed whether the likelihood of the state Jn used for the pattern determination in the process of S34 has been updated by the likelihood based on the previous likelihood Lp_mb by the processes of S71 to S73 of FIG.

S35の処理において、尤度テーブル12iにおける最大値の尤度が、遷移間尤度統合処理で更新された場合には(S35:Yes)、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとから、今回の遷移ルートRmを取得し、遷移ルートメモリ12cへ保存する(S36)。具体的には、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとを、該当音楽ジャンルの遷移ルート間尤度テーブル11dxの遷移先の状態Jnと遷移元の状態Jnとで検索し、これら状態Jnが一致する遷移ルートRmが、該当音楽ジャンルの遷移ルート間尤度テーブル11dxから取得され、遷移ルートメモリ12cへ保存される。   In the process of S35, when the likelihood of the maximum value in the likelihood table 12i is updated by the inter-transition likelihood integration process (S35: Yes), the state Jn that takes the likelihood of the maximum value in the likelihood table 12i Then, the current transition route Rm is acquired from the state Jn in which the maximum likelihood in the previous likelihood table 12j is obtained, and stored in the transition route memory 12c (S36). Specifically, the state Jn that takes the maximum likelihood in the likelihood table 12i and the state Jn that takes the maximum likelihood in the previous likelihood table 12j are represented by the likelihood table 11dx between transition routes of the corresponding music genre. The transition route Rm is searched from the transition destination state Jn and the transition source state Jn, and the state Jn matches the state Jn is acquired from the inter-transition route likelihood table 11dx of the corresponding music genre and stored in the transition route memory 12c. The

S36の処理の後、遷移ルートメモリ12cの遷移ルートRmにおける拍距離と、IOIメモリ12eの打鍵間隔とからテンポを算出し、テンポメモリ12dに保存する(S37)。具体的には、遷移ルートメモリ12cの遷移ルートRmに一致する、該当音楽ジャンルの遷移ルート間尤度テーブル11dxの遷移ルートRmにおける拍距離をΔτ,IOIメモリ12eの打鍵間隔をx、テンポメモリ12dに記憶されている現在のテンポをVmbとすると、更新後のテンポVmは数式5によって算出される。   After the process of S36, the tempo is calculated from the beat distance in the transition route Rm of the transition route memory 12c and the keystroke interval of the IOI memory 12e, and stored in the tempo memory 12d (S37). Specifically, the beat distance in the transition route Rm in the inter-transition route likelihood table 11dx of the corresponding music genre that matches the transition route Rm in the transition route memory 12c is Δτ, the keying interval in the IOI memory 12e is x, and the tempo memory 12d. Assuming that the current tempo stored in is Vmb, the updated tempo Vm is calculated by Equation 5.

Figure 2019200390
ここで、γは0<γ<1の定数であり、実験等により予め設定される値である。
Figure 2019200390
Here, γ is a constant of 0 <γ <1, and is a value set in advance by experiments or the like.

即ち、S34の処理でパターンの決定に用いられた、尤度テーブル12iの最大値の尤度がS32の遷移間尤度統合処理で更新されたので、鍵2aによる前回および今回の入力は、前回尤度テーブル12jの最大値の尤度を取る状態Jnと、尤度テーブル12iの最大値の尤度を取る状態Jnとの遷移ルートRmでの遷移であったと推定される。   That is, since the likelihood of the maximum value of the likelihood table 12i used for determining the pattern in the process of S34 was updated by the inter-transition likelihood integration process of S32, the previous and current inputs by the key 2a It is estimated that the transition is in the transition route Rm between the state Jn that takes the maximum likelihood in the likelihood table 12j and the state Jn that takes the maximum likelihood in the likelihood table 12i.

そこで、かかる遷移ルートRmの拍距離と、鍵2aによる前回および今回の入力による打鍵間隔とから、伴奏音のテンポを変更することで、実際の演奏者による鍵2aの打鍵間隔に基づいた違和感の少ない伴奏音とすることができる。   Therefore, by changing the tempo of the accompaniment sound from the beat distance of the transition route Rm and the keystroke interval of the previous and current inputs by the key 2a, the sense of discomfort based on the keystroke interval of the key 2a by the actual player is changed. There can be few accompaniment sounds.

S35の処理において、尤度テーブル12iにおける最大値の尤度が遷移間尤度統合処理で更新されなかった場合は(S35:No)、S36,S37の処理をスキップする。即ち、かかる場合、尤度テーブル12iにおける最大値の尤度は、S31の状態間統合処理によって算出されたので、最大値の尤度を取る状態Jnは遷移ルートRmには依存しないものと推定される。   In the process of S35, when the likelihood of the maximum value in the likelihood table 12i has not been updated by the inter-transition likelihood integration process (S35: No), the processes of S36 and S37 are skipped. That is, in such a case, since the likelihood of the maximum value in the likelihood table 12i is calculated by the inter-state integration process of S31, it is estimated that the state Jn taking the likelihood of the maximum value does not depend on the transition route Rm. The

この場合に、S36の状態Jnによる遷移ルートRmの検索を行っても、一致する遷移ルートRmが取得できない虞や、仮に遷移ルートRmが取得できたとしても、誤った遷移ルートRmが取得される虞がある。このような遷移ルートRmが正しく取得できない状態で、S37によるテンポ更新処理を行っても、算出されたテンポは不正確である虞がある。そこで、尤度テーブル12iにおける最大値の尤度が遷移間尤度統合処理で更新されなかった場合に、S36,S37の処理をスキップすることで、不正確なテンポが伴奏音に適用されるのを抑制できる。   In this case, even if the search for the transition route Rm based on the state Jn in S36 is performed, there is a possibility that the matching transition route Rm cannot be acquired, or even if the transition route Rm can be acquired, an incorrect transition route Rm is acquired. There is a fear. Even if the tempo update process in S37 is performed in a state where such a transition route Rm cannot be obtained correctly, the calculated tempo may be inaccurate. Therefore, when the likelihood of the maximum value in the likelihood table 12i has not been updated by the inter-transition likelihood integration process, the inaccurate tempo is applied to the accompaniment sound by skipping the processes of S36 and S37. Can be suppressed.

S35,S37の処理の後、前回尤度テーブル12jへ尤度テーブル12iの値を設定し(S38)、S38の処理の後、入力パターン検索処理を終了して、図9のメイン処理へ戻る。   After the processes of S35 and S37, the value of the likelihood table 12i is set in the previous likelihood table 12j (S38). After the process of S38, the input pattern search process is terminated, and the process returns to the main process of FIG.

図9へ戻る。S7の入力パターン検索処理の後、選択パターンメモリ12bのパターンと、該当音楽ジャンルの出力パターンテーブル11cxとに基づいて、伴奏音を変更する(S8)。具体的には、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当するドラムパターン、ベースパターン、コード進行およびアルペジオ進行に基づいて、伴奏音が変更される。この際に、入力パターン検索処理(図11)におけるS37の処理で、テンポが更新された場合は、伴奏音のテンポも更新されたテンポメモリ12dのテンポに設定される。   Returning to FIG. After the input pattern search process of S7, the accompaniment sound is changed based on the pattern of the selection pattern memory 12b and the output pattern table 11cx of the corresponding music genre (S8). Specifically, the accompaniment sound is changed based on the drum pattern, bass pattern, chord progression, and arpeggio progression corresponding to the pattern of the selected pattern memory 12b in the output pattern table 11cx of the corresponding music genre. At this time, if the tempo is updated in the process of S37 in the input pattern search process (FIG. 11), the tempo of the accompaniment sound is also set to the updated tempo memory 12d.

即ち、鍵2aからの演奏情報が入力される毎に、その演奏情報と最尤な状態Jnが推定され、その状態Jnに該当する出力パターンによる伴奏音やエフェクトが出力される。従って、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトを切り替えて出力することができる。更に、かかる切り替えに対する演奏者のシンセサイザ1への操作が不要となるので、演奏者のシンセサイザ1に対するユーザビリティが向上し、演奏者は鍵2a等に対する演奏動作に、より集中することができる。   That is, every time performance information from the key 2a is input, the performance information and the most likely state Jn are estimated, and an accompaniment sound and an effect with an output pattern corresponding to the state Jn are output. Accordingly, accompaniment sounds and effects suitable for the performance can be switched and output according to the player's free performance. Further, since the player does not need to operate the synthesizer 1 for such switching, the usability of the performer for the synthesizer 1 is improved, and the performer can concentrate more on the performance operation for the key 2a and the like.

S8の処理の後、鍵2aの演奏情報に基づいて、楽音を出力する(S9)。この際に、鍵2aの演奏情報に基づく楽音の音色は、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当する音色とされ、かかる楽音に対して、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当する音量/ベロシティ及びエフェクトが適用されて出力される。鍵2aの演奏情報に基づく楽音へのエフェクトは、音源13から出力された、かかる楽音の波形データが、DSP14で処理されることで適用される。S9の処理の後は、S5以下の処理を繰り返す。   After the process of S8, a musical tone is output based on the performance information of the key 2a (S9). At this time, the tone color of the musical tone based on the performance information of the key 2a is set to the tone color corresponding to the pattern of the selected pattern memory 12b in the output pattern table 11cx of the corresponding music genre. Volume / velocity and effect corresponding to the pattern of the selected pattern memory 12b in the pattern table 11cx are applied and output. The effect on the musical sound based on the performance information of the key 2a is applied by processing the waveform data of the musical sound output from the sound source 13 by the DSP. After the process of S9, the processes after S5 are repeated.

また、S6の処理において、鍵2aからの演奏情報の入力がなかった場合は(S6:No)、更に、鍵2aからの演奏情報の入力が、6小節以上なかったかを確認する(S10)。S10の処理において、鍵2aからの演奏情報の入力が、6小節以上なかった場合(S10:Yes)、該当音楽ジャンルのエンディングパートに移行する(S11)。即ち、演奏者による演奏が6小節以上なかった場合は、演奏が終了したと推定される。かかる場合に、該当音楽ジャンルのエンディングパートに移行することで、演奏者がシンセサイザ1する操作をすることなく、エンディングパートへ移行させることができる。   If no performance information is input from the key 2a in the process of S6 (S6: No), it is further confirmed whether or not performance information is input from the key 2a for 6 bars or more (S10). In the process of S10, when there is no input of performance information from the key 2a for six bars or more (S10: Yes), the process proceeds to the ending part of the corresponding music genre (S11). That is, if there are no six or more measures performed by the performer, it is estimated that the performance has been completed. In such a case, by shifting to the ending part of the corresponding music genre, it is possible to shift to the ending part without performing the operation of the synthesizer 1 by the performer.

S11の処理の後、エンディングパターンの演奏中に、鍵2aからの演奏情報の入力があったかを確認する(S12)。S12の処理において、鍵2aからの演奏情報の入力があった場合は、演奏者による演奏が再開されたと推定されるので、エンディングパートから、エンディングパートに移行する直前の伴奏音に移行し(S14)、鍵2aの演奏情報に基づいて、楽音を出力する(S15)。S15の処理の後は、S5以下の処理を繰り返す。   After the process of S11, it is confirmed whether or not performance information is input from the key 2a during the performance of the ending pattern (S12). In the process of S12, if performance information is input from the key 2a, it is presumed that the performance by the performer has been resumed, so the ending part shifts to an accompaniment sound immediately before the transition to the ending part (S14). ), A musical tone is output based on the performance information of the key 2a (S15). After the process of S15, the processes after S5 are repeated.

S12の処理において、エンディングパート演奏中に鍵2aからの演奏情報の入力がなかった場合は(S12:No)、エンディングパートの演奏終了を確認する(S13)。S13の処理において、エンディングパートの演奏が終了した場合は(S13:Yes)、演奏者による演奏が完全に終了したと推定されるので、S1以下の処理を繰り返す。一方で、S13の処理において、エンディングパートの演奏が終了していない場合は(S13:No)、S12以下の処理を繰り返す。   In the process of S12, when performance information is not input from the key 2a during performance of the ending part (S12: No), the end of performance of the ending part is confirmed (S13). In the process of S13, when the performance of the ending part is completed (S13: Yes), it is presumed that the performance by the performer has been completed, and therefore the processes after S1 are repeated. On the other hand, in the process of S13, when the performance of the ending part has not ended (S13: No), the processes of S12 and subsequent steps are repeated.

以上、上記実施形態に基づき説明したが、種々の改良変更が可能であることは容易に推察できるものである。   As mentioned above, although demonstrated based on the said embodiment, it can be guessed easily that a various improvement change is possible.

上記実施形態では、自動演奏装置としてシンセサイザ1を例示した。しかし、必ずしもこれに限られるものではなく、電子オルガンや電子ピアノ等、演奏者の演奏による楽音と共に、伴奏音やエフェクトを出力する電子楽器に適用しても良い。   In the above embodiment, the synthesizer 1 is exemplified as the automatic performance device. However, the present invention is not necessarily limited to this, and the present invention may be applied to electronic musical instruments that output accompaniment sounds and effects as well as musical sounds produced by performers, such as electronic organs and electronic pianos.

上記実施形態では、出力パターンとして、ドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色が設定された。しかし、必ずしもこれに限られるものではなく、ドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色以外の、音楽表現、例えば、ドラム、ベース以外のリズムパターンや、人間の歌声等の音声データを出力パターンに追加する構成としても良い。   In the above embodiment, drum patterns, bass patterns, chord progressions, arpeggio progressions, effects, volume / velocities, and timbres are set as output patterns. However, the present invention is not necessarily limited to this. Other than drum patterns, bass patterns, chord progressions, arpeggio progressions, effects, volume / velocity and timbre, musical expressions such as rhythm patterns other than drums and basses, and human singing voices It is also possible to adopt a configuration in which audio data such as is added to the output pattern.

上記実施形態では、出力パターンの切り替えにおいては、出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色の全てを切り替える構成とした。しかし、必ずしもこれに限られるものではなく、出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色のうち一部のみ(例えば、ドラムパターン及びコード進行のみ)を切り替える構成としても良い。   In the above embodiment, the output pattern is switched between the drum pattern, the base pattern, the chord progression, the arpeggio progression, the effect, the volume / velocity, and the timbre of the output pattern. However, it is not necessarily limited to this, and only a part of the output pattern drum pattern, bass pattern, chord progression, arpeggio progression, effect, volume / velocity, and timbre (for example, only drum pattern and chord progression) is switched. It is good also as a structure.

更に、各出力パターンにおいて、切り替える対象となる出力パターンの要素を予め設定しておき、出力パターンの切り替えにおいて、その設定された出力パターンのみ切り替える構成としても良い。これにより、演奏者の好みに応じた出力パターンとすることができる。   Further, in each output pattern, an element of an output pattern to be switched may be set in advance, and only the set output pattern may be switched in switching the output pattern. Thereby, it can be set as the output pattern according to a player's liking.

上記実施形態では、図12のS52,S53の処理において、音高尤度および伴奏同期尤度を全状態Jnについて算出する構成とした。しかし、必ずしもこれに限られるものではなく、音高尤度および伴奏同期尤度を、一部の状態Jnについて算出する構成としても良い。例えば、前回尤度テーブル12jにおいて最大値の尤度を取る状態Jnを遷移元の状態Jnとした遷移ルートRmにおいて、遷移先の状態Jnとされる状態Jnのみ、音高尤度および伴奏同期尤度を算出する構成としても良い。   In the above embodiment, the pitch likelihood and accompaniment synchronization likelihood are calculated for all states Jn in the processing of S52 and S53 in FIG. However, the present invention is not necessarily limited to this, and the pitch likelihood and accompaniment synchronization likelihood may be calculated for some states Jn. For example, in the transition route Rm in which the state Jn having the maximum likelihood in the previous likelihood table 12j is the transition source state Jn, only the pitch J and the accompaniment synchronization likelihood are the state Jn that is the transition destination state Jn. The degree may be calculated.

上記実施形態では、各出力パターンにおける伴奏音の演奏時間は、4分の4拍子における2小節分の長さとした。しかし、必ずしもこれに限られるものではなく、伴奏音の演奏時間は1小節分でも良いし、3小節分以上でも良い。また、伴奏音における1小節当たりの拍子は4分の4拍子に限られるものではなく、4分の3拍子や8分の6拍子等、他の拍子を適宜用いる構成としても良い。   In the above embodiment, the performance time of the accompaniment sound in each output pattern is the length of 2 bars in 4/4 time. However, the present invention is not necessarily limited to this, and the performance time of the accompaniment sound may be one bar or three bars or more. Further, the time signature per measure in the accompaniment sound is not limited to 4/4 time, and other time signatures such as 3/4 time and 6/8 time may be appropriately used.

上記実施形態では、同一のパターン間における状態Jnへの遷移ルートとして、2つ前の状態Jnから遷移する音飛びによる遷移ルートを設定する構成とした。しかし、必ずしもこれに限られるものではなく、音飛びによる遷移ルートとして、同一のパターン間における3つ以上前の状態Jnから遷移する遷移ルートを含める構成としても良い。また、同一のパターン間における状態Jnへの遷移ルートから、音飛びによる遷移ルートを省略する構成としても良い。   In the above-described embodiment, a transition route based on sound skipping from the previous state Jn is set as a transition route to the state Jn between the same patterns. However, the present invention is not necessarily limited to this, and a transition route that transitions from three or more previous states Jn between the same patterns may be included as a transition route caused by sound skipping. Moreover, it is good also as a structure which abbreviate | omits the transition route by a sound skip from the transition route to the state Jn between the same patterns.

また、上記実施形態では、別パターン間における状態Jnへの遷移ルートとして、その遷移元である別パターンの状態Jnが、遷移先の状態Jnの拍位置の直前のものである遷移ルートを設定する構成とした。しかし、必ずしもこれに限られるものではなく、別パターンの間における状態Jnへの遷移ルートに対しても、遷移元である別パターンにおける2つ以上前の状態Jnから遷移する、音飛びによる遷移ルートも設定する構成としても良い。   In the above embodiment, as a transition route to the state Jn between different patterns, a transition route in which the state Jn of the different pattern that is the transition source is immediately before the beat position of the state Jn that is the transition destination is set. The configuration. However, the present invention is not necessarily limited to this, and a transition route by sound skipping that makes a transition from two or more previous states Jn in another pattern that is a transition source to a transition route to state Jn between different patterns. It is good also as a structure which also sets.

上記実施形態では、IOI尤度Gを数式1の、また、伴奏同期尤度Bを数式2のガウス分布にそれぞれ従う構成とした。しかし、必ずしもこれに限られるものではなく、IOI尤度Gをラプラス分布などの他の確率分布関数に従う構成としても良い。   In the said embodiment, it was set as the structure which follows IOI likelihood G of Numerical formula 1, and accompaniment synchronous likelihood B according to the Gaussian distribution of Numerical formula 2, respectively. However, the present invention is not necessarily limited to this, and the IOI likelihood G may be configured according to another probability distribution function such as a Laplace distribution.

上記実施形態では、図13のS61の処理において、数式3で算出された対数尤度log(L_n)から対数を外した尤度L_nが、尤度テーブル12iに記憶され、また、図14のS71〜S73の処理において、数式4で算出された対数尤度log(L)から、対数を外した尤度Lが、尤度テーブル12iに記憶される構成とした。しかし、必ずしもこれに限られるものではなく、数式3,4で算出された対数尤度log(L_n)又は対数尤度log(L)が、尤度テーブル12iに記憶される構成とし、尤度テーブル12iに記憶される対数尤度log(L_n)又は対数尤度log(L)に基づいて、図11のS34の処理におけるパターンの選択およびS35〜S37の処理におけるテンポの更新を行う構成としても良い。   In the above embodiment, the likelihood L_n obtained by removing the logarithm from the log likelihood log (L_n) calculated by Equation 3 in the process of S61 of FIG. 13 is stored in the likelihood table 12i, and S71 of FIG. In the processing of S73, the likelihood L obtained by removing the logarithm from the log likelihood log (L) calculated by Expression 4 is stored in the likelihood table 12i. However, the present invention is not necessarily limited to this, and the log likelihood log (L_n) or log likelihood log (L) calculated by Equations 3 and 4 is stored in the likelihood table 12i. Based on the log likelihood log (L_n) or log likelihood log (L) stored in 12i, a pattern may be selected in the process of S34 in FIG. 11 and the tempo may be updated in the processes of S35 to S37. .

上記実施形態では、鍵盤2からの演奏情報が入力される毎に、状態Jnおよびパターンの推定と、推定されたパターンへの出力パターンの切り替えを行う構成とした。しかし、必ずしもこれに限られるものではなく、一定時間(例えば、2小節や4小節)内の演奏情報に基づいて、状態Jnおよびパターンの推定と、推定されたパターンへの出力パターンの切り替えとを行う構成としても良い。これにより、少なくとも一定時間毎に、出力パターンの切り替えが行われるので、出力パターン、即ち、伴奏者やエフェクトが頻繁に切り替わる事態が抑制され、演奏者や聴衆にとって、違和感のない伴奏やエフェクトとすることができる。   In the above embodiment, every time performance information from the keyboard 2 is input, the state Jn and the pattern are estimated, and the output pattern is switched to the estimated pattern. However, the present invention is not necessarily limited to this. The state Jn and the pattern are estimated and the output pattern is switched to the estimated pattern based on performance information within a certain time (for example, two bars or four bars). It is good also as a structure to perform. As a result, since the output pattern is switched at least at regular intervals, the situation in which the output pattern, that is, the accompanist and the effect is frequently switched, is suppressed, and the accompaniment and effect that does not feel uncomfortable for the performer and the audience. be able to.

上記実施形態では、演奏情報を鍵盤2からの入力される構成とした。しかしながらこれに代えて、外部のMIDI規格の鍵盤キーボードをシンセサイザ1に接続し、かかる鍵盤キーボードから演奏情報を入力する構成としても良い。   In the above embodiment, the performance information is input from the keyboard 2. However, instead of this, an external MIDI standard keyboard may be connected to the synthesizer 1, and performance information may be input from the keyboard keyboard.

上記実施形態では、伴奏音や楽音をシンセサイザ1に設けられた音源13、DSP14、DAC16、アンプ17及びスピーカ18から出力する構成とした。しかしながらこれに代えて、MIDI規格の音源装置をシンセサイザ1に接続し、かかる音源装置からシンセサイザ1の伴奏音や楽音を出力する構成としても良い。   In the above embodiment, the accompaniment sound and the musical sound are output from the sound source 13, DSP 14, DAC 16, amplifier 17, and speaker 18 provided in the synthesizer 1. However, instead of this, a MIDI standard sound source device may be connected to the synthesizer 1, and the accompaniment sound or musical sound of the synthesizer 1 may be output from the sound source device.

上記実施形態では、伴奏音やエフェクトに対する演奏者の評価を、ユーザ評価ボタン3によって行う構成とした。しかしながらこれに代えて、シンセサイザ1に演奏者の生体情報を検知するセンサ、例えば、演奏者の脳波を検出する脳波センサ(脳波検出手段の一例)や、演奏者の脳血流を検出する脳血流センサ等を接続し、該生体情報に基づいて伴奏音やエフェクトに対する演奏者の印象を推定することで、演奏者の評価を行う構成としても良い。   In the above embodiment, the player's evaluation for the accompaniment sound and the effect is performed by the user evaluation button 3. However, instead of this, the synthesizer 1 detects a player's biological information, for example, an electroencephalogram sensor (an example of electroencephalogram detection means) that detects the player's brain waves, or a brain blood that detects the player's brain blood flow. A configuration may be adopted in which a player is evaluated by connecting a flow sensor or the like and estimating the player's impression of the accompaniment sound or effect based on the biological information.

また、シンセサイザ1に演奏者の動作を検出する動作センサ(動作検出手段の一例)を接続し、該動作センサから検出された、演奏者の特定の身振りや手振り等に応じて、演奏者の評価を行う構成としても良い。また、シンセサイザ1に演奏者の表情を検出する表情センサ(表情検出手段の一例)を接続し、該表情センサから検出された、演奏者の特定の表情、例えば、笑顔や不満げな表情等、演奏者にとって良い印象や悪い印象を示す表情や、表情の変化等に応じて、演奏者の評価を行う構成としても良い。また、演奏者の姿勢を検出する姿勢センサ(姿勢検出手段の一例)を接続し、該姿勢センサから検出された、演奏者の特定の姿勢(前傾、後傾)や姿勢の変化に応じて、演奏者の評価を行う構成としても良い。   In addition, a motion sensor (an example of motion detection means) that detects the player's motion is connected to the synthesizer 1, and the player's evaluation is performed according to the specific gesture or gesture of the player detected from the motion sensor. It is good also as a structure which performs. Also, a facial expression sensor (an example of facial expression detection means) for detecting the facial expression of the performer is connected to the synthesizer 1, and a specific facial expression of the performer detected from the facial expression sensor, such as a smile or an unsatisfactory facial expression, A configuration may be adopted in which the player is evaluated according to a facial expression showing a good or bad impression for the performer, a change in facial expression, or the like. Also, a posture sensor (an example of posture detection means) for detecting the player's posture is connected, and depending on the player's specific posture (forward tilt, backward tilt) or a change in posture detected from the posture sensor. The player may be evaluated.

なお、動作センサ、表情センサ又は姿勢センサの代わりに、シンセサイザ1に演奏者の画像を取得するカメラを接続し、該カメラから取得された画像を解析することで演奏者の動作や表情、姿勢を検出して演奏者の評価を行う構成としても良い。これら生体情報を検知するセンサ、動作センサ、表情センサ、姿勢センサ又はカメラからの検出結果に応じて、演奏者の評価を行うことにより、演奏者はユーザ評価ボタン3を操作することなく、伴奏音やエフェクトに対して評価することができるので、シンセサイザ1に対する操作性を向上させることができる。   In place of the motion sensor, facial expression sensor, or posture sensor, a camera that acquires the player's image is connected to the synthesizer 1, and the player's motion, facial expression, or posture is analyzed by analyzing the image acquired from the camera. It is good also as a structure which detects and performs a player's evaluation. By performing the player's evaluation according to the detection result from the sensor, the motion sensor, the expression sensor, the posture sensor or the camera for detecting the biological information, the player does not operate the user evaluation button 3 and the accompaniment sound. Therefore, the operability for the synthesizer 1 can be improved.

上記実施形態では、ユーザ評価尤度を伴奏音やエフェクトに対する演奏者の評価として構成とした。しかし、必ずしもこれに限られるものではなく、ユーザ評価尤度を、伴奏音やエフェクトに対する聴衆の評価とする構成としても良いし、伴奏音やエフェクトに対する演奏者および聴衆の評価としても良い。かかる場合、聴衆に対して、伴奏音やエフェクトに対する高評価または低評価をシンセサイザ1に送信するためのリモコン装置を持たせ、リモコン装置からの高評価および低評価の評価数に基づいて、ユーザ評価尤度を算出する構成とすれば良い。また、シンセサイザ1にマイクを配設し、聴衆からの歓声の大きさに基づいて、ユーザ評価尤度を算出する構成としても良い。   In the above embodiment, the user evaluation likelihood is configured as the player's evaluation for the accompaniment sound and the effect. However, the present invention is not necessarily limited to this, and the user evaluation likelihood may be configured to evaluate the audience with respect to the accompaniment sounds and effects, or may be evaluated with the performers and audience with respect to the accompaniment sounds and effects. In such a case, the audience is provided with a remote control device for transmitting high evaluation or low evaluation for the accompaniment sound or effect to the synthesizer 1, and user evaluation is performed based on the number of high evaluation and low evaluation from the remote control device. What is necessary is just to set it as the structure which calculates likelihood. Moreover, it is good also as a structure which arrange | positions a microphone in the synthesizer 1 and calculates user evaluation likelihood based on the magnitude of the cheer from an audience.

上記実施形態では、制御プログラム11aをシンセサイザ1のフラッシュROM11に記憶し、シンセサイザ1上で動作する構成とした。しかし、必ずしもこれに限られるものではなく、PC(パーソナル・コンピュータ)や携帯電話、スマートフォンやタブレット端末等の他のコンピュータ上で制御プログラム11aを動作させる構成としても良い。この場合、シンセサイザ1の鍵盤2の代わりに、PC等に有線または無線で接続されたMIDI規格の鍵盤キーボードや文字入力用のキーボードから、演奏情報を入力する構成としても良いし、PC等の表示装置に表示されたソフトウェアキーボードから、演奏情報を入力する構成としても良い。   In the above embodiment, the control program 11 a is stored in the flash ROM 11 of the synthesizer 1 and operates on the synthesizer 1. However, the present invention is not necessarily limited to this, and the control program 11a may be operated on another computer such as a PC (personal computer), a mobile phone, a smartphone, or a tablet terminal. In this case, instead of the keyboard 2 of the synthesizer 1, the performance information may be input from a MIDI standard keyboard keyboard or a character input keyboard connected to the PC or the like by wire or wirelessly. It is good also as a structure which inputs performance information from the software keyboard displayed on the apparatus.

上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。   The numerical values given in the above embodiment are merely examples, and other numerical values can naturally be adopted.

1 シンセサイザ(自動演奏装置)
2 鍵盤(入力手段)
3 ユーザ評価ボタン(評価入力手段)
11a 制御プログラム(自動演奏プログラム)
11b 入力パターンテーブル(記憶手段の一部)
11c 出力パターンテーブル(記憶手段の一部)
S4 演奏手段
S8 演奏手段、切替手段
S10,S11 エンディング手段
S20〜S23 尤度反映手段
S34 選択手段
S51〜S53 尤度算出手段
1 Synthesizer (automatic performance device)
2 Keyboard (input means)
3 User Evaluation Button (Evaluation input means)
11a Control program (automatic performance program)
11b Input pattern table (part of storage means)
11c Output pattern table (part of storage means)
S4 performance means S8 performance means, switching means S10, S11 ending means S20 to S23 likelihood reflection means S34 selection means S51 to S53 likelihood calculation means

Claims (14)

複数の演奏パターンを記憶する記憶手段と、
その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、
利用者の演奏操作を受け付ける入力装置から演奏情報を入力する入力手段と、
その入力手段に入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択手段と、
前記演奏手段により演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択手段により選択された演奏パターンの音楽表現に切り替える切替手段とを備えていることを特徴とする自動演奏装置。
Storage means for storing a plurality of performance patterns;
Performance means for performing performance based on the performance pattern stored in the storage means;
Input means for inputting performance information from an input device for receiving a user's performance operation;
Selection means for selecting a performance pattern having the maximum likelihood estimation among a plurality of performance patterns stored in the storage means based on performance information input to the input means;
An automatic performance apparatus comprising: switching means for switching at least one of the musical expressions of the performance pattern being played by the performance means to the musical expression of the performance pattern selected by the selection means.
前記入力手段へ入力された演奏情報に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出する尤度算出手段を備え、
前記選択手段は、その尤度算出手段により算出された尤度に基づいて、前記記憶手段に記憶される複数の演奏パターンのうち1の演奏パターンを最尤推定するものであることを特徴とする請求項1記載の自動演奏装置。
Based on performance information input to the input means, a likelihood calculating means for calculating likelihood for each or all of the musical sounds constituting the plurality of performance patterns stored in the storage means,
The selection unit is configured to estimate the maximum likelihood of one performance pattern among a plurality of performance patterns stored in the storage unit based on the likelihood calculated by the likelihood calculation unit. The automatic performance apparatus according to claim 1.
前記尤度算出手段は、前記入力手段へ入力された演奏情報の音高に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出するものであることを特徴とする請求項2記載の自動演奏装置。   The likelihood calculating means calculates the likelihood for each or all of the musical sounds constituting the plurality of performance patterns stored in the storage means based on the pitch of the performance information input to the input means. 3. The automatic performance apparatus according to claim 2, wherein the automatic performance apparatus is a calculation unit. 前記尤度算出手段は、前記入力手段へ入力された演奏情報の拍位置に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出するものであることを特徴とする請求項2又は3に記載の自動演奏装置。   The likelihood calculating means calculates the likelihood for all or a part of each musical sound constituting the plurality of performance patterns stored in the storage means based on the beat position of the performance information input to the input means. The automatic performance apparatus according to claim 2 or 3, wherein the automatic performance apparatus is a calculation unit. 前記尤度算出手段は、前記入力手段へ入力された前回の演奏情報と今回の演奏情報との入力間隔に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、1の楽音の次に他の楽音が発せられる尤度をそれぞれ算出するものであることを特徴とする請求項2から4のいずれかに記載の自動演奏装置。   The likelihood calculating means is configured to select all of the musical sounds constituting the plurality of performance patterns stored in the storage means based on the input interval between the previous performance information and the current performance information input to the input means, or The automatic performance device according to any one of claims 2 to 4, characterized in that, for a part, the likelihood that another musical tone is generated next to one musical tone is calculated. 利用者の評価を入力する評価入力手段と、
その評価入力手段へ評価が入力された場合に、その入力された評価を前記演奏手段により演奏されている演奏パターンの音楽表現の尤度に反映する尤度反映手段とを備え、
前記尤度算出手段は、その尤度反映手段により反映された尤度に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出するものであることを特徴とする請求項2から5のいずれかに記載の自動演奏装置。
An evaluation input means for inputting a user's evaluation;
When the evaluation is input to the evaluation input means, the likelihood reflection means for reflecting the input evaluation on the likelihood of the musical expression of the performance pattern being played by the performance means,
The likelihood calculating means calculates likelihood for all or a part of each musical sound constituting a plurality of performance patterns stored in the storage means based on the likelihood reflected by the likelihood reflecting means. The automatic performance device according to claim 2, wherein the automatic performance device is a device for performing automatic performance.
前記評価入力手段は、利用者の脳波を検出する脳波検出手段と、その脳波検出手段の出力を利用者の評価に変換して受け付ける受付手段とを有していることを特徴とする請求項6記載の自動演奏装置。   7. The evaluation input means comprises: an electroencephalogram detection means for detecting a user's brain wave; and an acceptance means for converting the output of the electroencephalogram detection means into a user's evaluation and receiving it. The automatic performance device described. 前記評価入力手段は、利用者の動作を検出する動作検出手段と、その動作検出手段による検出結果を利用者の評価に変換して受け付ける受付手段とを有していることを特徴とする請求項6記載の自動演奏装置。   The evaluation input unit includes an operation detection unit that detects a user's operation, and a reception unit that converts a detection result of the operation detection unit into a user's evaluation and receives the evaluation result. 6. The automatic performance device according to 6. 前記評価入力手段は、利用者の表情を検出する表情検出手段と、その表情検出手段の出力を利用者の評価に変換して受け付ける受付手段とを有していることを特徴とする請求項6記載の自動演奏装置。   7. The evaluation input means includes a facial expression detection means for detecting a facial expression of a user, and a reception means for converting the output of the facial expression detection means into a user evaluation and receiving it. The automatic performance device described. 前記評価入力手段は、利用者の姿勢を検出する姿勢検出手段と、その姿勢検出手段の出力を利用者の評価に変換して受け付ける受付手段とを有していることを特徴とする請求項6記載の自動演奏装置。   The said evaluation input means has an attitude | position detection means which detects a user's attitude | position, and an acceptance means which receives and converts the output of the attitude | position detection means into a user's evaluation. The automatic performance device described. 前記切替手段は、前記演奏手段により演奏されている演奏パターンの音楽表現のうち、演奏パターン、コード進行、アルペジオ設定、エフェクト設定、音量又はベロシティ値、音色パラメータ値の少なくとも一つを、前記選択手段により選択された演奏パターンの音楽表現に切り替えるものであることを特徴とする請求項1から10のいずれかに記載の自動演奏装置。   The switching means includes at least one of a performance pattern, chord progression, arpeggio setting, effect setting, volume or velocity value, and timbre parameter value among the musical expressions of the performance pattern being played by the performance means. The automatic performance apparatus according to claim 1, wherein the automatic performance apparatus is switched to a musical expression of the performance pattern selected by. 前記選択手段は、利用者の演奏操作に基づく演奏情報が前記入力手段へ入力されると前記演奏パターンの選択処理を実行するものであることを特徴とする請求項1から11のいずれかに記載の自動演奏装置。   The said selection means performs the selection process of the said performance pattern, if the performance information based on a user's performance operation is input into the said input means, The selection process of Claim 1 characterized by the above-mentioned. Automatic performance device. 利用者の演奏操作に基づく演奏情報が前記入力手段へ所定期間以上入力されない場合に、前記演奏手段により演奏されている演奏パターンを、その演奏パターンのエンディングパートへ移行するエンディング手段を備えていることを特徴とする請求項1から12のいずれかに記載の自動演奏装置。   Ending means for transferring a performance pattern played by the performance means to an ending part of the performance pattern when performance information based on a user's performance operation is not input to the input means for a predetermined period or more; The automatic performance device according to any one of claims 1 to 12, wherein: 記憶部を備えたコンピュータに、自動演奏を実行させる自動演奏プログラムにおいて、
前記記憶部を、複数の演奏パターンを記憶する記憶手段として機能させて、
その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏ステップと、
利用者の演奏操作を受け付ける入力装置から演奏情報を入力する入力ステップと、
その入力ステップにより入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択ステップと、
前記演奏ステップにより演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択ステップにより選択された演奏パターンの音楽表現に切り替える切替ステップとを備えていることを特徴とする自動演奏プログラム。
In an automatic performance program for causing a computer having a storage unit to perform automatic performance,
Allowing the storage unit to function as storage means for storing a plurality of performance patterns;
A performance step for performing performance based on the performance pattern stored in the storage means;
An input step of inputting performance information from an input device that accepts a user's performance operation;
Based on the performance information input in the input step, a selection step for selecting a performance pattern with the maximum likelihood estimation among a plurality of performance patterns stored in the storage means;
An automatic performance program comprising: a switching step of switching at least one of the musical expressions of the performance pattern being played by the performance step to the musical expression of the performance pattern selected by the selection step.
JP2018096439A 2018-05-18 2018-05-18 Automatic performance apparatus and automatic performance program Pending JP2019200390A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018096439A JP2019200390A (en) 2018-05-18 2018-05-18 Automatic performance apparatus and automatic performance program
EP19171746.1A EP3570271B1 (en) 2018-05-18 2019-04-30 Automatic performance device and automatic performance method
US16/412,439 US10803845B2 (en) 2018-05-18 2019-05-15 Automatic performance device and automatic performance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096439A JP2019200390A (en) 2018-05-18 2018-05-18 Automatic performance apparatus and automatic performance program

Publications (1)

Publication Number Publication Date
JP2019200390A true JP2019200390A (en) 2019-11-21

Family

ID=66625731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096439A Pending JP2019200390A (en) 2018-05-18 2018-05-18 Automatic performance apparatus and automatic performance program

Country Status (3)

Country Link
US (1) US10803845B2 (en)
EP (1) EP3570271B1 (en)
JP (1) JP2019200390A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044562A1 (en) * 2019-09-04 2021-03-11 ローランド株式会社 Arpeggiator and program having function therefor
EP4027329B1 (en) * 2019-09-04 2024-04-10 Roland Corporation Automatic musical performance device, automatic musical performance program and method
JP2023098055A (en) * 2021-12-28 2023-07-10 ローランド株式会社 Automatic musical performance device and automatic musical performance program
US20230351988A1 (en) * 2022-04-28 2023-11-02 Yousician Oy Method for identifying a song

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4399958B2 (en) 2000-05-25 2010-01-20 ヤマハ株式会社 Performance support apparatus and performance support method
JP3785934B2 (en) 2001-03-05 2006-06-14 ヤマハ株式会社 Automatic accompaniment apparatus, method, program and medium
EP1274069B1 (en) * 2001-06-08 2013-01-23 Sony France S.A. Automatic music continuation method and device
JP3811043B2 (en) 2001-10-10 2006-08-16 株式会社河合楽器製作所 Electronic musical instruments
JP4251895B2 (en) 2003-03-25 2009-04-08 財団法人ヤマハ音楽振興会 Performance control apparatus and program
JP4075677B2 (en) 2003-05-01 2008-04-16 ヤマハ株式会社 Automatic accompaniment generator and program
JP4507801B2 (en) 2004-09-30 2010-07-21 カシオ計算機株式会社 Musical sound control device and musical sound control processing program
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP2007241181A (en) 2006-03-13 2007-09-20 Univ Of Tokyo Automatic musical accompaniment system and musical score tracking system
JP2008096772A (en) 2006-10-13 2008-04-24 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP5076597B2 (en) 2007-03-30 2012-11-21 ヤマハ株式会社 Musical sound generator and program
JP5552968B2 (en) 2010-08-30 2014-07-16 ヤマハ株式会社 Music search apparatus and music search method
US9053696B2 (en) 2010-12-01 2015-06-09 Yamaha Corporation Searching for a tone data set based on a degree of similarity to a rhythm pattern
JP5970934B2 (en) * 2011-04-21 2016-08-17 ヤマハ株式会社 Apparatus, method, and recording medium for searching performance data using query indicating musical tone generation pattern
JP5982980B2 (en) 2011-04-21 2016-08-31 ヤマハ株式会社 Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern
EP2602786B1 (en) 2011-12-09 2018-01-24 Yamaha Corporation Sound data processing device and method
US9012754B2 (en) * 2013-07-13 2015-04-21 Apple Inc. System and method for generating a rhythmic accompaniment for a musical performance

Also Published As

Publication number Publication date
US20190355338A1 (en) 2019-11-21
EP3570271A1 (en) 2019-11-20
US10803845B2 (en) 2020-10-13
EP3570271B1 (en) 2021-06-23

Similar Documents

Publication Publication Date Title
EP3570271B1 (en) Automatic performance device and automatic performance method
US8492636B2 (en) Chord detection apparatus, chord detection method, and program therefor
US11488567B2 (en) Information processing method and apparatus for processing performance of musical piece
JP7190056B2 (en) Automatic performance device and automatic performance program
JP5040927B2 (en) Performance learning apparatus and program
JP6175812B2 (en) Musical sound information processing apparatus and program
EP4027332A1 (en) Arpeggiator and program provided with function thereof
EP4027331A1 (en) Arpeggiator and program having function therefor
WO2021044561A1 (en) Arpeggiator and program provided with function of same
JP6597553B2 (en) Harmony information generation apparatus, harmony information generation program, and harmony information generation method
JP4259532B2 (en) Performance control device and program
JPWO2006062064A1 (en) Music processing device
JP2010117419A (en) Electronic musical instrument
WO2021044560A1 (en) Arpeggiator and program equipped with function therefor
EP4207182A1 (en) Automatic performance apparatus, automatic performance method, and automatic performance program
JP5692275B2 (en) Electronic musical instruments
JP6606844B2 (en) Genre selection device, genre selection method, program, and electronic musical instrument
JP7414048B2 (en) Program, information processing device, performance evaluation system, and performance evaluation method
JP2019028251A (en) Karaoke device
US20240233693A9 (en) Automatic performance device, non-transitory computer-readable medium, and automatic performance method
US20240135907A1 (en) Automatic performance device, non-transitory computer-readable medium, and automatic performance method
JP7400798B2 (en) Automatic performance device, electronic musical instrument, automatic performance method, and program
JP7425558B2 (en) Code detection device and code detection program
JP4121080B2 (en) Electronic keyboard instrument
JP2011123108A (en) Electronic musical instrument