JP4967170B2 - Accompaniment creation system, accompaniment creation method and program - Google Patents

Accompaniment creation system, accompaniment creation method and program Download PDF

Info

Publication number
JP4967170B2
JP4967170B2 JP2009117803A JP2009117803A JP4967170B2 JP 4967170 B2 JP4967170 B2 JP 4967170B2 JP 2009117803 A JP2009117803 A JP 2009117803A JP 2009117803 A JP2009117803 A JP 2009117803A JP 4967170 B2 JP4967170 B2 JP 4967170B2
Authority
JP
Japan
Prior art keywords
accompaniment
data
ensemble
performance data
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009117803A
Other languages
Japanese (ja)
Other versions
JP2010266680A (en
Inventor
俊幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Fielding Ltd
Original Assignee
NEC Fielding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Fielding Ltd filed Critical NEC Fielding Ltd
Priority to JP2009117803A priority Critical patent/JP4967170B2/en
Publication of JP2010266680A publication Critical patent/JP2010266680A/en
Application granted granted Critical
Publication of JP4967170B2 publication Critical patent/JP4967170B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、複数のパートからなる合奏曲から指定のパートを消音して伴奏を作成する伴奏作成システム及び伴奏作成方法,プログラムに関する。   The present invention relates to an accompaniment creation system, an accompaniment creation method, and a program for creating an accompaniment by muting a specified part from an ensemble composed of a plurality of parts.

管弦楽や吹奏楽,合唱など、複数のパートからなる合奏曲の練習は、全パートの演奏者が一同に集まって行われる必要があるが、演奏者及び指導者の全員が集まれる日時及び場所を確保するのは容易ではない。   The practice of a multi-part concerto such as orchestra, brass band, chorus, etc. needs to be performed by all the performers together, but ensure the date and place where all performers and instructors gather. It's not easy.

これに対し、演奏者各々が自分のパートの演奏を個人練習するために使用する技術として、複数のパートからなる合奏曲のデータを、ユーザが指定したパートの音だけを消して再生するパート練習用のカラオケ装置が知られている。   On the other hand, as a technique used by each performer for personal practice of his / her part performance, part practice is to play the data of an ensemble composed of multiple parts with only the sound of the part specified by the user turned off. Karaoke devices are known.

この技術は、合奏曲毎に各パートのデータを個別に記録しておき、合奏曲を再生する際に、指定されたパートのデータをミュート処理することで、指定のパート以外を再生することができる技術である。これにより、ユーザは自分のパートを除く伴奏に合わせた合奏練習を、一人だけで自主的に、時間と場所を問わず、繰り返し行うことができるようになった。   In this technology, data of each part is recorded individually for each ensemble, and when reproducing the ensemble, the data of the designated part is muted to reproduce other parts than the designated part. It is a technology that can be done. As a result, the user can repeat the ensemble practice according to the accompaniment excluding his / her part independently by himself / herself regardless of time and place.

これに関連した技術として、楽曲毎に各パートの演奏データを個別に記憶し、指定のパートの演奏データに対して処理を施す技術が、特許文献1及び2に開示されている。   As techniques related to this, Patent Documents 1 and 2 disclose techniques for individually storing performance data of each part for each musical piece and processing the performance data of a specified part.

この特許文献1に開示された関連技術は、各楽曲毎に複数のパートの演奏データ格納した楽音情報記憶手段と、各演奏データを再生する際の楽器音の種類情報を複数記憶した楽器情報記憶手段と、楽音情報記憶手段に記憶された楽曲中からの再生楽曲の選択及び楽器情報記憶手段に格納された楽器音の種類情報からの所定の演奏パートの再生楽器の指定を行うための入力手段とを含み、各パートの楽器音を変更可能にした技術である。   The related art disclosed in this Patent Document 1 is a musical tone information storage means for storing performance data of a plurality of parts for each musical piece, and a musical instrument information storage for storing a plurality of types of instrument sound types when reproducing each performance data. And an input means for selecting a reproduction musical piece from among the musical pieces stored in the musical sound information storage means and designating a reproduction musical instrument of a predetermined performance part from the type information of the instrument sound stored in the musical instrument information storage means This is a technology that makes it possible to change the instrumental sound of each part.

また、特許文献2に開示された関連技術は、CPUがリモコンによって楽器の指定がなされたことを検知すると、HDDからカラオケ曲データを読み出し、該指定された楽器に対応するパートを除いた楽音データを再生装置及びアンプを介してスピーカから出力すると共に、インターフェースを介して接続されたMIDI楽器(MIDIは登録商標)から操作信号が入力されたことを検知すると、該MIDI楽器に対応した楽器演奏音を自動演奏部にて作成し、該作成された楽器演奏音を再生装置及びアンプを介してスピーカから出力させるといった技術である。   The related art disclosed in Patent Document 2 reads out karaoke song data from the HDD when the CPU detects that a musical instrument has been designated by the remote controller, and musical tone data excluding the part corresponding to the designated musical instrument. Is output from a speaker via a playback device and an amplifier, and when it is detected that an operation signal is input from a MIDI musical instrument (MIDI is a registered trademark) connected via an interface, the musical instrument performance sound corresponding to the MIDI musical instrument is detected. Is created by an automatic performance section, and the created musical instrument performance sound is output from a speaker via a playback device and an amplifier.

特開平4−168493号公報JP-A-4-168493 特開平10−282957号公報JP-A-10-282957

しかしながら、前述した各関連技術は、1つの曲に対して複数のパートの演奏データを用意しパート毎に音を加工する技術であり、合奏曲内の指定のパートの演奏データのみを消音した伴奏を作成できるが、この伴奏に合わせてユーザがパート練習を行った場合、同じリズムのフレーズを持つ他のパートの音に頼った演奏をしてしまう可能性が高く、ユーザの演奏スキル向上を妨げてしまうという課題があった。   However, each of the related techniques described above is a technique for preparing performance data of a plurality of parts for one piece of music and processing the sound for each part, and accompaniment in which only the performance data of a specified part in the ensemble is muted. However, if the user performs part practice according to this accompaniment, there is a high possibility that the performance will depend on the sound of another part with the same rhythm phrase, which hinders the user's performance skill improvement. There was a problem that it would end up.

これは、合奏曲の多くが、木管楽器,金管楽器,絃楽器が共同で同時に同じリズム(譜割り)のフレーズを発して和音を形成しているためであり、例えば、図8に示す楽譜のような、フルートのパートとトロンボーンのパートとがある曲の場合、トロンボーンの1小節目の「ソ」の音(図8のX)と、フルートの1小節目の「ラ」の音(図8のK)とが、同じタイミングにあると共に同じ音価であり、同様に、トロンボーンの3小節目の「レ」の音(図8のY)と、フルートの3小節目の「ミ」(図8のL)の音とが重なっており、トロンボーンの5小節目の「ソ」の音(図8のZ)と、フルートの5小節目の「ミ」の音(図8のM)とが重なっている。   This is because many of the ensembles form a chord by simultaneously producing phrases of the same rhythm (musical score) by woodwind instruments, brass instruments, and scissors instruments. In the case of a song with a flute part and a trombone part, the sound of “So” in the first measure of the trombone (X in FIG. 8) and the sound of “la” in the first measure of the flute ( 8) is at the same timing and has the same note value. Similarly, the “le” sound in the third measure of the trombone (Y in FIG. 8) and the “mi” in the third measure of the flute ”(L in FIG. 8), and the sound of“ So ”(Z in FIG. 8) of the fifth measure of the trombone and the sound of“ Mi ”in the fifth measure of the flute (in FIG. 8). M) is overlapping.

この曲におけるフルートのパートのみをミュートした音を伴奏にして、ユーザがフルートパートの練習を行った場合、ユーザは、フルートパートと重なっているトロンボーンパートの音(図8のX,Y,Z)に頼って演奏してしまい、音を出すタイミングを意識しないまま練習を繰り返してしまう恐れがあり、高いレベルの合奏力を身につけることが困難であった。   When the user practiced the flute part with the mute sound of only the flute part in this song as an accompaniment, the user plays the sound of the trombone part that overlaps the flute part (X, Y, Z in FIG. 8). It was difficult to acquire a high level of ensemble.

そこで、本発明は、上記関連技術が有する課題を改善して、ユーザが他のパートに頼ることなく演奏できるような個人練習用の伴奏を得られるようにし、これにより、ユーザの演奏スキルの向上を図り得る伴奏作成システム及び伴奏作成方法,プログラムを提供することを、その目的とする。   Accordingly, the present invention improves the performance skills of the user by improving the problems associated with the above-mentioned related technology and obtaining an accompaniment for personal practice so that the user can perform without depending on other parts. The purpose is to provide an accompaniment creation system, accompaniment creation method, and program.

上記目的を達成するため、本発明の伴奏作成システムは、合奏曲の各パートの演奏データを含む合奏データを予め記憶した合奏データ記憶部と、ユーザの操作に従って伴奏指令を入力する入力部と、この入力された伴奏指令で指定された曲の合奏データを前記合奏データ記憶部から読み出す合奏データ読出手段と、この読み出された合奏データにおける前記伴奏指令で指定されたパートとその他の各パートとの演奏データを個別に比較照合して、この他の各パート内の当該指定パートとリズムが重なっている部分を抽出する同期リズム抽出手段と、前記伴奏指令で指定されたパートの演奏データの全てと、前記同期リズム抽出手段に抽出された他の各パートの演奏データの一部分と、を無音にするように変換して前記伴奏指令で指定された曲の伴奏データを作成する伴奏データ作成手段と、この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力する伴奏再生部と、を備えたことを特徴とする。   In order to achieve the above object, an accompaniment creation system of the present invention includes an ensemble data storage unit that pre-stores ensemble data including performance data of each part of an ensemble, an input unit that inputs an accompaniment command according to a user operation, The ensemble data reading means for reading out the ensemble data of the music designated by the input accompaniment command from the ensemble data storage unit, the part designated by the accompaniment command in the read ensemble data, and other parts, The performance data of each of the parts specified by the accompaniment command are all synchronized with the performance data of each of the parts, and the rhythm extraction means for extracting the part where the specified part in each other part overlaps the rhythm. And a part of the performance data of each of the other parts extracted by the synchronous rhythm extraction means are converted so as to be silent, and the music designated by the accompaniment command And accompaniment data creating means for creating accompaniment data, characterized by comprising a accompaniment playback unit that outputs to the speaker and converts the created accompaniment data on a preset tone of the audio signal.

また、本発明の伴奏作成方法は、合奏曲の各パートの演奏データを含む合奏データを予め記憶した合奏データ記憶部から指定の曲の合奏データを読み出し、この読み出された合奏データにおける指定のパートとその他の各パートとの演奏データを個別に比較照合し、この比較照合の結果に基づいて、前記他の各パート内の前記指定のパートとリズムが重なっている部分を抽出し、前記指定のパートの演奏データの全てと前記抽出された他の各パートの演奏データの一部分とを無音にするように変換して前記指定の曲の伴奏データを作成し、この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力することを特徴とする。   Further, the accompaniment creation method of the present invention reads out the ensemble data of the designated tune from the ensemble data storage unit that previously stores the ensemble data including the performance data of each part of the ensemble, and designates the designation in the read ensemble data. The performance data of the part and each other part is individually compared and collated, and based on the result of this comparison and collation, the part where the rhythm overlaps with the designated part in each of the other parts is extracted, and the designated All of the performance data of the part and the part of the performance data of each of the other extracted parts are converted so as to be silent, and the accompaniment data of the designated music is created. It is characterized in that it is converted into a sound signal of a set tone color and output to a speaker.

また、本発明の伴奏作成用プログラムは、合奏曲の各パートの演奏データから成る合奏データを予め記憶した合奏データ記憶部と、ユーザの操作に従って伴奏指令を入力する入力部と、この入力された伴奏指令で指定された曲の合奏データから同じく伴奏指令で指定されたパートの音を消した伴奏データを作成する伴奏データ作成部と、この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力する伴奏再生部と備えた伴奏作成システムにあって、前記伴奏指令で指定された曲の合奏データを前記合奏データ記憶部から読み出す読出機能と、この読み出された合奏データにおける前記伴奏指令で指定されたパートとその他の各パートとの演奏データを個別に比較照合しこの他の各パート内の当該指定パートとリズムが重なっている部分を抽出する抽出機能と、この抽出された前記他の各パートの演奏データの一部分と前記指定されたパートの演奏データの全てとを無音にするように変換して前記指定された曲の伴奏データを作成し前記伴奏再生部へ出力する伴奏データ作成機能とを、前記伴奏データ作成部が備えているコンピュータに実行させることを特徴とする。   The accompaniment creation program according to the present invention includes an ensemble data storage unit that stores in advance ensemble data composed of performance data of each part of an ensemble, an input unit that inputs an accompaniment command in accordance with a user operation, and the input An accompaniment data creation unit that creates accompaniment data in which the sound of the part specified by the accompaniment command is erased from the ensemble data of the song specified by the accompaniment command, and the generated accompaniment data is a voice signal of a preset tone color An accompaniment creation system including an accompaniment playback unit that converts the data into an accompaniment reproduction unit that outputs the ensemble data specified by the accompaniment command from the ensemble data storage unit, and the read ensemble The performance data of the part specified by the accompaniment command in the data and each other part are individually compared and collated, and the specified part in each other part is lysed. The extraction function for extracting the overlapping parts, and converting the extracted part of the performance data of each of the other parts and all the performance data of the specified part so as to be silent. A computer with which the accompaniment data creation unit is configured to execute an accompaniment data creation function for creating accompaniment data of a song and outputting the accompaniment data to the accompaniment playback unit.

本発明は、以上のように、複数のパートからなる合奏曲の合奏データのうち、ユーザに指定されたパートの全てと、その他の各パート内の当該指定パートとリズムが重なっている部分と、を無音にして伴奏データを作成し、この伴奏データを音声信号に変換して音声出力するので、この伴奏に合わせて指定のパートを練習するユーザに対し、他のパートに頼ることのない自立した演奏での練習を実行させることができ、これにより、ユーザの演奏スキルの向上を有効に促進することができる。   The present invention, as described above, out of the ensemble data of the ensemble composed of a plurality of parts, all of the parts designated by the user, the part where the rhythm overlaps with the designated part in each other part, The accompaniment data is created with no sound, and the accompaniment data is converted into an audio signal and output as a sound. Therefore, users who practice the specified part according to the accompaniment do not rely on other parts. Practice in performance can be executed, and this can effectively promote improvement in user performance skills.

本発明にかかる一実施形態の伴奏作成システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the accompaniment production system of one Embodiment concerning this invention. 図1に開示した実施形態における演奏データの一例のイメージを示す図である。It is a figure which shows the image of an example of the performance data in embodiment disclosed in FIG. 図1に開示した実施形態における伴奏作成センターの伴奏作成処理について示す説明図である。It is explanatory drawing shown about the accompaniment creation process of the accompaniment creation center in embodiment disclosed in FIG. 図1に開示した実施形態における合奏データと作成される伴奏データとの対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of the ensemble data and created accompaniment data in embodiment disclosed in FIG. 図1に開示した実施形態における合奏データの一例のイメージを示す図である。It is a figure which shows the image of an example of the ensemble data in embodiment disclosed in FIG. 図5に開示した合奏データを基に作成される伴奏データの一例のイメージを示す図である。It is a figure which shows the image of an example of the accompaniment data produced based on the ensemble data disclosed in FIG. 図1に開示した実施形態の伴奏作成システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of the accompaniment production system of embodiment disclosed in FIG. 2つのパートからなる合奏曲の一例の総譜を示す図である。It is a figure which shows the score of an example of the ensemble which consists of two parts.

以下、本発明にかかる一実施形態を、図面に基づいて説明する。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings.

図1は、本実施形態の伴奏作成システムの構成を示す機能ブロック図である。図1に示すように、本実施形態の伴奏作成システムは、ユーザ伴奏再生端末1と、伴奏作成センター2とがネットワーク3を介して接続した構成である。   FIG. 1 is a functional block diagram showing the configuration of the accompaniment creation system of the present embodiment. As shown in FIG. 1, the accompaniment creation system of this embodiment has a configuration in which a user accompaniment playback terminal 1 and an accompaniment creation center 2 are connected via a network 3.

伴奏再生端末1は、ネットワーク3を介して伴奏作成センター2と通信を行う通信制御部10と、ユーザの操作に従って伴奏指令を入力する入力操作盤11と、この伴奏指令を通信制御部10を介して伴奏作成センター2へ送信する主制御部12と、伴奏指令に応じて伴奏作成センター2から送られてきた伴奏データを予め設定された音色の音声信号に変換する伴奏再生部13と、この音声信号に対応して音声を出力するスピーカ14と、この音声信号を記憶する伴奏メモリ15と、音を音声信号に変換して出力するマイク16と、マイク16からの音声信号を録音メモリ18に記録する録音部17と、主制御部12からの画像情報を表示する表示部19とを備えている。   The accompaniment playback terminal 1 includes a communication control unit 10 that communicates with the accompaniment creation center 2 via the network 3, an input operation panel 11 that inputs an accompaniment command according to a user operation, and the accompaniment command via the communication control unit 10. The main control unit 12 for transmitting to the accompaniment creation center 2, the accompaniment reproduction unit 13 for converting the accompaniment data sent from the accompaniment creation center 2 in accordance with the accompaniment command into an audio signal of a preset tone color, and this audio A speaker 14 that outputs sound corresponding to the signal, an accompaniment memory 15 that stores the sound signal, a microphone 16 that converts the sound into a sound signal, and a sound signal from the microphone 16 are recorded in the recording memory 18. And a display unit 19 for displaying image information from the main control unit 12.

主制御部12は、伴奏可能な合奏曲リスト,曲を構成する各パートのリストを表示部に表示させる機能と、入力操作盤11から入力された伴奏指令を伴奏作成センター2へ送信する機能と、伴奏指令に応じて伴奏作成センター2から送信されてくる伴奏データ及び当該指令で指定されたパートの演奏データを受け取り、伴奏データを伴奏再生部13へ送出する機能と、伴奏データに対応する伴奏譜画像情報、および指定のパートの演奏データに対応するパート譜画像情報を作成し表示部19に表示させる機能と、伴奏の部分繰り返し又は速度調整、伴奏とユーザの演奏の同時録音、メトロノーム音の出力、の指令を入力操作盤11から入力し指令にしたがって伴奏再生部13を制御する機能とを備えている。   The main control unit 12 has a function of causing the display unit to display a list of ensemble pieces that can be accompaniment and a list of parts constituting the song, and a function of transmitting an accompaniment command input from the input operation panel 11 to the accompaniment creation center 2. A function for receiving accompaniment data transmitted from the accompaniment creation center 2 in accordance with the accompaniment command and performance data of the part designated by the command, and sending the accompaniment data to the accompaniment playback unit 13, and an accompaniment corresponding to the accompaniment data A function for creating part image information corresponding to performance data of a specified part and performance data of a specified part and displaying it on the display unit 19, partial repetition or speed adjustment of accompaniment, simultaneous recording of accompaniment and user performance, metronome sound A function of inputting an output command from the input operation panel 11 and controlling the accompaniment playback unit 13 in accordance with the command.

伴奏再生部13は、ピアノ音源などの音源を予め保持しており、伴奏データを音源を用いて音声信号に変換し出力する機能と、伴奏の部分繰り返し又は速度調整を伴奏メモリに記憶した音声信号データを用いて実行する機能と、伴奏とユーザの演奏の同時録音を録音部に指示する機能と、メトロノーム音を出力する機能とを備えている。この伴奏再生部13は、例えば、シンセサイザーであればよい。   The accompaniment reproducing unit 13 holds a sound source such as a piano sound source in advance, converts the accompaniment data into a sound signal using the sound source and outputs the sound signal, and a sound signal stored in the accompaniment memory with partial repetition or speed adjustment of the accompaniment It has a function to execute using data, a function to instruct the recording unit to simultaneously record accompaniment and user performance, and a function to output a metronome sound. This accompaniment reproducing part 13 should just be a synthesizer, for example.

伴奏作成センター2は、ネットワーク3を介して伴奏再生端末1と通信を行う通信制御部20と、合奏曲の各パートの演奏データを含む合奏データを予め記憶した合奏データ記憶部21と、伴奏再生端末1から送られてくる伴奏指令で指定された曲の合奏データを合奏データ記憶部21から読み出し伴奏指令で指定されたパートの音を消して伴奏データを作成する伴奏データ作成部22と、この作成された伴奏データを記憶する伴奏データ記憶部23とを備えている。   The accompaniment creation center 2 includes a communication control unit 20 that communicates with the accompaniment playback terminal 1 via the network 3, an ensemble data storage unit 21 that stores in advance ensemble data including performance data of each part of the ensemble, and accompaniment playback. The accompaniment data creation unit 22 which reads out the ensemble data of the music designated by the accompaniment command sent from the terminal 1 from the ensemble data storage unit 21 and erases the sound of the part designated by the accompaniment command, and creates this accompaniment data An accompaniment data storage unit 23 for storing the generated accompaniment data.

さらに、伴奏データ作成部22は、伴奏再生端末1からの伴奏指令で指定された曲の合奏データを合奏データ記憶部21から読み出す合奏データ読出手段22aと、この読み出された合奏データのうちの伴奏指令で指定されたパートとその他の各パートとの演奏データを個別に比較照合してこの他の各パート内の当該指定パートとリズムが重なっている部分を抽出する同期リズム抽出手段22bと、伴奏指令で指定されたパートの演奏データの全てと同期リズム抽出手段22bに抽出された他の各パートの演奏データの一部分とを無音にするように変換して指定曲の伴奏データを作成する伴奏データ作成手段22cとを備えている。   Further, the accompaniment data creating unit 22 reads out the ensemble data of the music designated by the accompaniment command from the accompaniment playback terminal 1 from the ensemble data storage unit 21, and of the read out ensemble data Synchronous rhythm extraction means 22b for individually comparing and collating the performance data of the part designated by the accompaniment command and the other parts and extracting the part where the rhythm overlaps with the designated part in the other parts; Accompaniment for generating accompaniment data of a designated song by converting all of the performance data of the part specified by the accompaniment command and a part of the performance data of each other part extracted by the synchronous rhythm extraction means 22b to silence. Data creation means 22c.

ここで、合奏データは、合奏曲を構成する複数のパート毎の演奏データからなる情報であり、各演奏データには、曲の識別子とパートの識別子が付されている。また、この演奏データは、曲の各構成音の開始点と長さ,音高を記録した情報であり、伴奏再生端末1における伴奏再生部13に対して楽譜の役割をする情報である。   Here, the ensemble data is information composed of performance data for each of a plurality of parts constituting the ensemble, and each performance data is given a song identifier and a part identifier. The performance data is information that records the start point, length, and pitch of each constituent sound of the song, and is information that serves as a score for the accompaniment playback unit 13 in the accompaniment playback terminal 1.

具体的に、本実施形態における演奏データは、曲の識別子,パート識別子,曲の拍子を示す基本情報と、各構成音の高さ(音高)を示す実音譜情報と、各構成音の開始点と長さ(音価)を示すリズム体形譜情報とからなるデータであり、リズム体形譜情報は、曲を構成する音それぞれのタイミングとその相対的な長さ、及び無音部分のタイミングと相対的な長さを示す情報であり、すなわち、パート譜の五線を取り除いた音符と休符に相当する情報である。   Specifically, the performance data in the present embodiment includes basic information indicating a song identifier, a part identifier, and the time signature of the song, actual musical score information indicating the pitch (pitch) of each component sound, and the start of each component sound. It is data consisting of rhythm body form information indicating points and lengths (sound values), and the rhythm body form information is relative to the timing and relative length of each sound constituting the song, and to the timing of the silent part. Information indicating a typical length, that is, information corresponding to a note and rest from which the staff of the part score is removed.

図2は、本実施形態における演奏データの一例をイメージ化した図である。図2は、4分の4拍子の曲のうち4小節分の演奏データを表しており、音高を「ド,レ,ミ,ファ,ソ,ラ,シ」で表し、全音符を「◇」、2分音符を「□」、4分音符を「○」、8分音符を「△」で表している。   FIG. 2 is a diagram illustrating an example of performance data in the present embodiment. Fig. 2 shows the performance data for four bars of a quartet song. The pitch is expressed as "do, les, mi, fa, so, la, shi" and all notes are marked with "◇". The half note is indicated by “□”, the quarter note is indicated by “◯”, and the eighth note is indicated by “Δ”.

図2に示すように、本実施形態の演奏データは、音の音高を示す実音譜情報と、音のタイミングと長さを示すリズム体形譜情報とからなり、リズム体形譜情報は、曲の拍子に対応して音の長さを示している。   As shown in FIG. 2, the performance data of the present embodiment is composed of real musical score information indicating the pitch of the sound and rhythmic musical score information indicating the timing and length of the sound. The length of the sound is shown corresponding to the time signature.

また、伴奏再生端末1から伴奏作成センター2へ送られる伴奏指令には、曲の識別子とパートの識別子が含まれており、合奏データ読出手段22aは、受けた伴奏指令に含まれている曲の識別子を基に、合奏データ記憶部21に記憶された情報を検索して、曲の識別子が一致する合奏データを読み出し、同期リズム抽出手段22bへ送出する機能を備えている。   The accompaniment command sent from the accompaniment playback terminal 1 to the accompaniment creation center 2 includes the identifier of the song and the identifier of the part, and the ensemble data reading means 22a reads the song included in the received accompaniment command. Based on the identifier, it has a function of searching for information stored in the ensemble data storage unit 21, reading out ensemble data having the same music identifier, and sending it to the synchronization rhythm extracting means 22b.

同期リズム抽出手段22bは、合奏データ読出手段22aに読み出された合奏データを受けて、前述した伴奏指令に含まれているパート識別子を基に、それと同じパート識別子が付された演奏データを合奏データから特定する機能と、この伴奏指令に応じて特定した演奏データとその合奏データにおける他の各演奏データとを個別に比較照合する照合機能と、この特定した演奏データのリズムと他の各演奏データのリズムとが一致した部分をその他の演奏データから抽出する抽出機能とを備えている。   The synchronized rhythm extracting means 22b receives the ensemble data read by the ensemble data reading means 22a, and based on the part identifier included in the accompaniment command described above, performs the performance data with the same part identifier. A function identified from the data, a collation function for individually comparing and collating the performance data identified in accordance with the accompaniment command and each other performance data in the ensemble data, and the rhythm of the identified performance data and each other performance An extraction function is provided for extracting a portion that matches the rhythm of the data from other performance data.

この抽出機能が抽出する、他の演奏データの一部分とは、伴奏指令で指定されたパートの演奏データにおける音符と、タイミング及び長さが共に一致する音符の部分である。   The part of the other performance data extracted by the extraction function is a part of the note whose timing and length coincide with the note in the performance data of the part specified by the accompaniment command.

ここで、同期リズム抽出手段22bの照合機能は、演奏データのリズム体形譜情報のみを互いに比較照合する機能であってもよい。このように構成することで、同期リズム抽出手段22bに対する負荷を軽減し照合処理を迅速に実行することが可能となり、伴奏データ作成部22による伴奏データ作成処理を高速化することができる。   Here, the collation function of the synchronous rhythm extraction means 22b may be a function of comparing and collating only the rhythm body form information of the performance data. With this configuration, it is possible to reduce the load on the synchronous rhythm extraction unit 22b and execute the matching process quickly, and to speed up the accompaniment data creation process by the accompaniment data creation unit 22.

また、同期リズム抽出手段22bの照合機能は、互いの演奏データを1小節ごとに比較照合してもよい。   Moreover, the collation function of the synchronous rhythm extraction means 22b may compare and collate each performance data for every measure.

伴奏データ作成手段22cは、合奏データ読出手段22aに読み出された合奏データのうち、伴奏指令に指定されたパートの演奏データの全てと、同期リズム抽出手段22bによって抽出された他の各パートの演奏データの一部分とを無音にするように変換して伴奏データを作成する機能と、この伴奏データと指定パートの演奏データとを通信制御部20に伴奏再生端末1へ送信させる機能とを備えている。   The accompaniment data creation means 22c includes all of the performance data of the part specified in the accompaniment command among the ensemble data read by the ensemble data reading means 22a and the other parts extracted by the synchronization rhythm extraction means 22b. A function of converting part of the performance data to silence so as to create accompaniment data, and a function of causing the communication control unit 20 to transmit the accompaniment data and the performance data of the designated part to the accompaniment playback terminal 1 are provided. Yes.

図3は、伴奏データ作成部22が実行する伴奏データ作成処理を表す説明図である。図3では、合奏データ読出手段22aが読み出した合奏データに「第1パート」と「第2パート」の演奏データが含まれており、伴奏指令に「第1パート」の識別子が示されていたとする場合の、伴奏データ作成処理を表している。また、「第1パート」と「第2パート」の演奏データにおけるリズム体形譜情報については、全音符を「◇」、2分音符を「□」、4分音符を「○」、8分音符を「△」、全休符を「◆」、2分休符を「■」、4分休符を「●」、8分休符を「▲」で示している。   FIG. 3 is an explanatory diagram showing accompaniment data creation processing executed by the accompaniment data creation unit 22. In FIG. 3, the performance data of “first part” and “second part” is included in the ensemble data read by the ensemble data reading means 22a, and the identifier of “first part” is indicated in the accompaniment command. In this case, the accompaniment data creation process is shown. As for the rhythmic body information in the performance data of “1st part” and “2nd part”, all notes are “◇”, 2nd notes are “□”, 4th notes are “○”, 8th notes Is indicated by “△”, all rests are indicated by “◆”, 2-minute rests are indicated by “■”, 4-minute rests are indicated by “●”, and 8-minute rests are indicated by “▲”.

図3に示すように、同期リズム抽出手段22bは、第1パートと第2パートとの演奏データを比較照合すると、第2パートにおける第1小節目の第1音と、第3小節目の第1音と、第6小節目の第1音及び第2音とを抽出することになり、伴奏データ作成手段22cは、第1パートの全てを消音し、第2パートの抽出された部分を消音して、図3に示す伴奏データを作成することになる。   As shown in FIG. 3, the synchronized rhythm extraction means 22b compares the performance data of the first part and the second part and compares the first part with the first note of the first bar and the third bar of the third part. One sound and the first sound and the second sound of the sixth bar will be extracted, and the accompaniment data creation means 22c will mute all the first parts and mute the extracted part of the second part. Thus, the accompaniment data shown in FIG. 3 is created.

本実施形態においては、1つの合奏曲における複数のパートをその音域の高低に応じて予めグループ分けし、各演奏データに対し、そのパートが属するグループの識別子を付すようにしてもよい。例えば、ベートーベンの交響曲第7番であれば、フルート(第1,第2),オーボエ(第1,第2),クラリネット(第1,第2),トランペット,トロンボーン,ホルン,バイオリン(第1,第2)を高音域グループと設定すると共に、ファゴット,チューバ,ビオラ,チェロ,コントラバスを低音域グループと設定し、各パートの演奏データに対し予めグループ識別子を付すようにしてもよい。   In the present embodiment, a plurality of parts in one ensemble may be grouped in advance according to the pitch of the sound range, and the identifier of the group to which the part belongs may be attached to each performance data. For example, if Beethoven's Symphony No. 7, flute (first and second), oboe (first and second), clarinet (first and second), trumpet, trombone, horn, violin (first , 2) may be set as a high sound range group, and bassoon, tuba, viola, cello, and contrabass may be set as a low sound range group, and a group identifier may be assigned in advance to the performance data of each part.

この場合、同期リズム抽出手段22bは、伴奏指令に応じて特定した演奏データに付されたグループ識別子と同じグループ識別子を持つ他の演奏データを合奏データ内から選出する機能を有し、前述の照合機能を、この選出した各演奏データを対象として、伴奏指令に応じて特定した演奏データとその他の全ての演奏データとを個別に比較照合する機能とするように構成する。このようにすると、同期リズム抽出手段22bに対する負荷がより軽減され照合処理を迅速に実行することが可能となる。   In this case, the synchronized rhythm extraction means 22b has a function of selecting other performance data having the same group identifier as the group identifier attached to the performance data specified in accordance with the accompaniment command from the ensemble data, and the above-described verification. The function is configured to be a function for individually comparing and collating the performance data specified according to the accompaniment command and all other performance data for each selected performance data. In this way, the load on the synchronous rhythm extraction means 22b is further reduced, and the collation process can be executed quickly.

さらにこの場合、伴奏データ作成手段22cは、同期リズム抽出手段22bで選出された同一グループの各演奏データに対して、伴奏指令に指定されたパートの演奏データの全てと、同期リズム抽出手段22bによって抽出された他の各パートの演奏データの一部分とを無音にするように変換して、別のグループの各演奏データをそのまま加えて伴奏データを作成するように構成するとよい。このようにすると、前述した例のように、演奏データを高音域グループと低音域グループに分類しておけば、高音域グループを伴奏の高音記号譜パートとし、低音域グループを低音記号譜パートとすることができる。この例の説明図を、図4に示している。図4においては、フルート(第1,第2),オーボエ(第1,第2),クラリネット(第1,第2),トランペット,トロンボーン,ホルン,バイオリン(第1,第2)の各パートを伴奏データにおける高音記号譜パートとし、ファゴット,チューバ,ビオラ,チェロ,コントラバスの各パートを伴奏データにおける低音記号譜パートに設定している。   Further, in this case, the accompaniment data creation means 22c uses the synchronization rhythm extraction means 22b and all of the performance data of the parts designated in the accompaniment command for each piece of performance data selected by the synchronization rhythm extraction means 22b. It is preferable that the extracted part of the performance data of each part is converted so as to be silent, and the performance data of another group is added as it is to create accompaniment data. In this way, as shown in the above example, if the performance data is classified into a high-frequency group and a low-frequency group, the high-frequency group is used as an accompaniment high-frequency symbol part and the low-frequency group is defined as a low-frequency symbol part. can do. An explanatory diagram of this example is shown in FIG. In FIG. 4, each part of flute (first and second), oboe (first and second), clarinet (first and second), trumpet, trombone, horn and violin (first and second) Is a treble clef part in accompaniment data, and each part of bassoon, tuba, viola, cello, and contrabass is set as a bass clef part in accompaniment data.

ここで、本実施形態における伴奏データ作成部22の伴奏データ作成の具体例について図5及び図6に基づいて説明する。図5は、合奏データの一例のイメージを示す図である。図6は、フルートを指定パートとして図5に示す合奏データを変換し得られる伴奏データのイメージを示す図である。図5及び図6は、ベートーベンの交響曲第7番の冒頭の6小節分の演奏データを表しており、音高を「ド,レ,ミ,ファ,ソ,ラ,シ」で表し、全音符を「◇」、2分音符を「□」、4分音符を「○」、8分音符を「△」、全休符を「◆」、2分休符を「■」、4分休符を「●」、8分休符を「▲」で表している。   Here, a specific example of accompaniment data creation by the accompaniment data creation unit 22 in the present embodiment will be described with reference to FIGS. FIG. 5 is a diagram illustrating an example of ensemble data. FIG. 6 is a diagram showing an image of accompaniment data obtained by converting the ensemble data shown in FIG. 5 using the flute as a designated part. 5 and 6 show the performance data for the first six bars of Beethoven's Symphony No. 7. The pitch is expressed as “de, les, mi, fa, so, la, shi” and all notes “◇”, 2nd note “□”, 4th note “○”, 8th note “△”, All rest “◆”, 2nd rest “■”, 4th rest “●” and 8-minute rests are represented by “▲”.

本実施形態の伴奏データ作成部22においては、同期リズム抽出手段22bが、フルートと同じ高音域グループのオーボエ,トランペット,トロンボーン,第1バイオリン,第2バイオリンの各パートを選出し、この選出した中でフルートパートと他の各パートとを個別に比較照合すると、トランペットパートの第1小節目の第1音,第3小節目の第1音を抽出し、トロンボーンパートの第1小節目の第1音,第3小節目の第1音,第5小節目の第1音を抽出し、第1バイオリンパートの第1小節目の第1音,第3小節目の第1音,第5小節目の第1音を抽出し、第2バイオリンパートの第1小節目の第1音,第3小節目の第1音,第5小節目の第1音を抽出する。   In the accompaniment data creation unit 22 of the present embodiment, the synchronized rhythm extraction means 22b selects and selects the oboe, trumpet, trombone, first violin, and second violin of the same treble group as the flute. When the flute part and each other part are individually compared and collated, the first sound of the first bar of the trumpet part and the first sound of the third bar are extracted, and the first bar of the trombone part is extracted. The first sound, the first sound of the third bar, the first sound of the fifth bar are extracted, the first sound of the first bar of the first violin part, the first sound of the third bar, the fifth The first sound of the bar is extracted, and the first sound of the first bar, the first sound of the third bar, and the first sound of the fifth bar of the second violin part are extracted.

そして、伴奏データ作成手段22cが、この抽出された各音とフルートの全ての音を休符に変換し、別のグループであるファゴット,チューバ,ビオラ,チェロ,コントラバスの各パートの演奏データはそのままにして、伴奏データを作成する。この結果、図6に示すように、フルートとトロンボーンと第1バイオリンのパートが排除され、オーボエパートと、トランペットパートの第5小節,第6小節と、第2バイオリンパートの第2小節,第4小節,第6小節と、ファゴットとチューバとビオラとチェロとコントラバスの各パートの音からなる伴奏データが作成される。   Then, the accompaniment data creation means 22c converts each extracted sound and all the flutes into rests, and the performance data of each part of the bassoon, tuba, viola, cello, and contrabass which are different groups is obtained. As it is, accompaniment data is created. As a result, as shown in FIG. 6, the flute, trombone, and first violin part are eliminated, the oboe part, the fifth and sixth bars of the trumpet part, and the second and second bars of the second violin part. Accompaniment data consisting of the sounds of each part of 4 bars, 6 bars, bassoon, tuba, viola, cello and contrabass is created.

このように、本実施形態の伴奏作成システムによれば、合奏曲の合奏データを、指定のパートの音を消した伴奏データに変換して音声出力するので、ユーザは、この伴奏に合わせて自分のパートの練習を実行でき、一人で、いつどこでも、繰り返し、合奏の練習をすることができる。   As described above, according to the accompaniment creation system of the present embodiment, the ensemble data of the ensemble is converted into accompaniment data in which the sound of the specified part is erased, and the sound is output. The practice of the part of can be performed, and the practice of the ensemble can be repeated anytime and anywhere alone.

さらに、本実施形態の伴奏作成システムは、合奏曲から指定のパートだけでなく、他の各パート内の指定パートと同じタイミングで同じ長さの有音を無音に変換して伴奏データを作成するので、ユーザは、自身のパートと同じリズムの音が無い伴奏で練習することができる。このような伴奏に合わせた練習では、他のパートに頼れず、自分の演奏の音程が正しいこと、音量があること、リズム感が正しいこと、音のメリハリおよび強弱をつけることを確実に意識した演奏をしないと、合奏がアンバランスなままなので、ユーザ自身が客観的に合奏練習の成果を実感でき、自らの音で他パートをリードする心意気と自立心を養成することができる。   Furthermore, the accompaniment creation system of the present embodiment creates accompaniment data by converting not only the specified part from the ensemble but also the sound of the same length into silence at the same timing as the specified part in each other part. Therefore, the user can practice with an accompaniment that does not have the same rhythm sound as his / her part. In the practice to match such accompaniment, I could not rely on other parts, and I was sure that my performance was correct, that there was volume, that the rhythm was correct, and that the sound was sharp and strong. If the performance is not performed, the ensemble remains unbalanced, so that the user himself can objectively realize the results of the ensemble practice, and can develop the spirit and independence leading the other parts with his own sound.

また、本実施形態の伴奏作成システムによれば、交響曲などの合奏曲の演奏会を一人だけで催すことも可能である。   Further, according to the accompaniment creation system of the present embodiment, it is possible to hold a concert for ensembles such as symphonies alone.

次に、本実施形態の伴奏作成システムの動作について説明する。ここで、以下の動作説明は、本発明の伴奏作成方法の実施形態となる。   Next, the operation of the accompaniment creation system of this embodiment will be described. Here, the following operation description is an embodiment of the accompaniment creation method of the present invention.

図7は、本実施形態の伴奏作成システムの動作を示すシーケンス図である。図7に示すように、本実施形態の伴奏作成システムは、まず、伴奏再生端末1におけて、入力操作盤11がユーザの操作に従って伴奏指令を入力し(図7のステップs1)、この入力された伴奏指令を主制御部12が通信制御部10に伴奏作成センター2へ送信させる(図7のステップs2)。   FIG. 7 is a sequence diagram showing the operation of the accompaniment creation system of this embodiment. As shown in FIG. 7, in the accompaniment creation system of the present embodiment, first, in the accompaniment playback terminal 1, the input operation panel 11 inputs an accompaniment command in accordance with a user operation (step s1 in FIG. 7). The main control unit 12 causes the communication control unit 10 to transmit the accompaniment command thus made to the accompaniment creation center 2 (step s2 in FIG. 7).

続いて、伴奏作成センター2において、通信制御部20が伴奏再生端末1からの伴奏指令を受信し、合奏データ読出手段22aが伴奏指令に係る指定曲の識別子を基に、指定曲の合奏データを合奏データ記憶部21から読み出す(図7のステップs3)。   Subsequently, in the accompaniment creation center 2, the communication control unit 20 receives the accompaniment command from the accompaniment playback terminal 1, and the ensemble data reading means 22a generates the ensemble data of the specified tune based on the identifier of the specified tune related to the accompaniment command. Reading from the ensemble data storage unit 21 (step s3 in FIG. 7).

続いて、同期リズム抽出手段22bが、この読み出された合奏データにおける各パートの演奏データから、伴奏指令に係る指定パートの演奏データを特定し、この指定パートの演奏データに付されたグループ識別子と同じグループ識別子を持つ各パートの演奏データを選出する(図7のステップs4)。この選出した中で指定パートと他のパートとの演奏データを個別に比較照合し(図7のステップs5)、指定パートと他のパートとの各構成音のタイミングと長さが一致していないか否かを判別し(図7のステップs6)、一致していた場合は、他の各パート内のその音部分を抽出する(図7のステップs7)。そして、他のパート全てに対して比較照合を行ったか否か判断し(図7のステップs8)、否の場合は、まだ照合していない他のパートとしてのパートを比較する。   Subsequently, the synchronized rhythm extraction means 22b specifies the performance data of the designated part related to the accompaniment command from the performance data of each part in the read ensemble data, and the group identifier attached to the performance data of this designated part The performance data of each part having the same group identifier is selected (step s4 in FIG. 7). Among the selected parts, the performance data of the designated part and other parts are individually compared and collated (step s5 in FIG. 7), and the timing and length of each component sound of the designated part and other parts do not match. (Step s6 in FIG. 7), and if they match, the sound part in each other part is extracted (step s7 in FIG. 7). Then, it is determined whether or not all other parts have been compared and collated (step s8 in FIG. 7). If no, parts as other parts that have not yet been collated are compared.

他のパート全てに対して比較照合が完了した場合(図7のステップs8のはい)、伴奏データ作成手段22cが、指令のパートと同一のグループの各演奏データのうち、伴奏指令に指定されたパートの演奏データの全てと、同期リズム抽出手段22bに抽出された他の各パートの演奏データの一部分とを無音にするように変換すると共に、別のグループの各演奏データをそのまま足して伴奏データを作成し(図7のステップs9)、この伴奏データと指定パートの演奏データとを通信制御部20が伴奏再生端末1へ送信する(図7のステップs10)。このとき、伴奏データを伴奏メモリに格納する。   When all the other parts have been compared (Yes in step s8 in FIG. 7), the accompaniment data creation means 22c is designated as the accompaniment command among the performance data in the same group as the command part. All of the performance data of the part and part of the performance data of each other part extracted by the synchronous rhythm extraction means 22b are converted to silence, and each performance data of another group is added as it is to accompaniment data. (Step s9 in FIG. 7), and the communication control unit 20 transmits the accompaniment data and the performance data of the designated part to the accompaniment playback terminal 1 (step s10 in FIG. 7). At this time, the accompaniment data is stored in the accompaniment memory.

続いて、伴奏データを伴奏作成センター2から受けた伴奏再生端末1においては、主制御部12が、受けた伴奏データを伴奏再生部13へ送出し、伴奏再生部13が、伴奏データを予め設定された音色の音声信号に変換し(図7のステップs11)、伴奏メモリ15に格納する。   Subsequently, in the accompaniment playback terminal 1 that has received the accompaniment data from the accompaniment creation center 2, the main control unit 12 sends the received accompaniment data to the accompaniment playback unit 13, and the accompaniment playback unit 13 sets the accompaniment data in advance. The voice signal is converted into a sound signal of the timbre (step s11 in FIG. 7) and stored in the accompaniment memory 15.

そして、主制御部12が、伴奏準備完了の通知を表示部19に表示させる(図7のステップs12)。ユーザの操作によって入力操作盤11から、練習すべき箇所(小節)と再生速度(テンポ)と繰り返し回数(リピート数)と録音の有無を指定する伴奏開始指令を入力すると(図7のステップs13のはい)、主制御部12が指令に従って伴奏再生部13を制御して、伴奏再生部13が伴奏の音声出力をスタートする(図7のステップs14)。このとき、表示部19に対して伴奏譜及び指定のパート譜を表示させる。この表示される伴奏譜及びパート譜は、指定された練習箇所だけの範囲であってもよい。   Then, the main control unit 12 displays a notification of completion of accompaniment on the display unit 19 (step s12 in FIG. 7). When a user's operation inputs an accompaniment start command for designating a point to be practiced (measure), playback speed (tempo), number of repetitions (number of repeats), and recording or not (step s13 in FIG. 7). Yes), the main control unit 12 controls the accompaniment playback unit 13 according to the command, and the accompaniment playback unit 13 starts outputting the accompaniment sound (step s14 in FIG. 7). At this time, the accompaniment score and the designated part score are displayed on the display unit 19. The displayed accompaniment score and part score may be a range of only the designated practice part.

本実施形態の伴奏作成システムは、このように動作するので、ユーザは合奏練習を一人で、いつどこでも、何回でもできる。また、交響曲の1パートであっても、独奏気分且つ自立した練習ができる。この理由は、伴奏作成時に、指定のパートと同じリズムで同時進行する他のパート内の音を排除するため、指定パートと同じ動きをする他のパートの音がなくなり、指定のパートを演奏するユーザは、正しい音程で、正しいリズムで、しっかりした音量で合奏しないと、合奏のアンバランスが解消できず、客観的に合奏の不足が体感できるからである。   Since the accompaniment creation system of this embodiment operates in this way, the user can perform ensemble practice alone, anytime, anywhere, any number of times. Even a single symphony part can be practiced independently and independently. The reason for this is that when you create an accompaniment, the sound of other parts that move in the same rhythm as the specified part is eliminated, so the sound of the other parts that move in the same way as the specified part disappears, and the specified part is played. This is because if the user does not perform the ensemble with the correct pitch, the correct rhythm, and a solid volume, the imbalance of the ensemble cannot be resolved and the lack of ensemble can be objectively experienced.

ここで、本実施形態における伴奏作成センター2の伴奏作成部22、すなわち、合奏データ読出手段22a,同期リズム抽出手段22b,伴奏データ作成手段22cについては、その機能内容をプログラム化して、コンピュータに実行させるように構成してもよく、合奏データにおける各演奏データは、MIDIデータ(MIDIは登録商標)などであればよい。   Here, in the present embodiment, the accompaniment creation unit 22 of the accompaniment creation center 2, that is, the ensemble data reading means 22a, the synchronous rhythm extraction means 22b, and the accompaniment data creation means 22c, are programmed into the function contents and executed on a computer. The performance data in the ensemble data may be MIDI data (MIDI is a registered trademark).

以上のように、本実施形態の伴奏作成システムによれば、伴奏再生端末1から、指定のパートと同時に進行する同一リズムの実音のすべてを消した伴奏が出力されるので、ユーザは、この伴奏に乗せてパート練習することで、自分のパートではない他のパートに頼ることができなくなり、通常の合奏曲のごとく、自分で自分の演奏を導かざるを得ない練習を個人で繰り返し行うことができ、結果的に、演奏スキルを高いレベルにすることが可能である。   As described above, according to the accompaniment creation system of the present embodiment, the accompaniment playback terminal 1 outputs an accompaniment in which all real sounds of the same rhythm that proceed simultaneously with the specified part are output. By practicing the part on the track, you can no longer rely on other parts that are not your part, and you can repeatedly practice yourself, as you would a normal ensemble As a result, the performance skill can be raised to a high level.

また、本実施形態における伴奏作成センター2は、各演奏データのリズム体形譜情報を主体にして伴奏データを作成し、高速に伴奏データを作成できる。   In addition, the accompaniment creation center 2 in the present embodiment can create accompaniment data based on the rhythm body form information of each performance data, and can create accompaniment data at high speed.

また、本実施形態においては、合奏データにおける各パートの演奏データを高音域グループと低音域グループに分けて、指定されたパートのグループのみの音を変換して伴奏データとするようにしてもよく、この場合は、伴奏の高音部と低音部の音の配置をアンバランスにしたことで、指定のパートを正しい音程,正確なリズム,適量な音量,強弱のメリハリをもって演奏しないと、合奏の高低音はアンバランスのままなので、ユーザは自立した感性で合奏練習ができる。   In this embodiment, the performance data of each part in the ensemble data may be divided into a high-frequency group and a low-frequency group, and the sound of only the designated part group may be converted into accompaniment data. In this case, the arrangement of the high and low frequencies of the accompaniment is unbalanced, and the specified part must be played with the correct pitch, accurate rhythm, appropriate volume, and strength. Since the bass remains unbalanced, the user can practice ensemble with independent sensitivity.

本発明は、楽団員の一人合奏練習や一人演奏会用に伴奏を出力するためのシステムといった用途に適用できる。   The present invention can be applied to uses such as a system for outputting accompaniment for solo ensemble practice or solo performance of a band member.

1 伴奏再生端末
2 伴奏作成センター
3 ネットワーク
10 通信制御部
11 入力操作盤
12 主制御部
13 伴奏再生部
14 スピーカ
15 伴奏メモリ
16 マイク
17 録音部
18 録音メモリ
19 表示部
20 通信制御部
21 合奏データ記憶部
22 伴奏データ作成部
22a 合奏データ読出手段
22b 同期リズム抽出手段
23c 伴奏データ作成手段
23 伴奏データ記憶部
DESCRIPTION OF SYMBOLS 1 Accompaniment reproduction terminal 2 Accompaniment production center 3 Network 10 Communication control part 11 Input operation panel 12 Main control part 13 Accompaniment reproduction part 14 Speaker 15 Accompaniment memory 16 Microphone 17 Recording part 18 Recording memory 19 Display part 20 Communication control part 21 Accompaniment data storage Section 22 Accompaniment data creation section 22a Accompaniment data reading means 22b Synchronous rhythm extraction means 23c Accompaniment data creation means 23 Accompaniment data storage section

Claims (10)

合奏曲の各パートの演奏データを含む合奏データを予め記憶した合奏データ記憶部と、
ユーザの操作に従って伴奏指令を入力する入力部と、
この入力された伴奏指令で指定された曲の合奏データを前記合奏データ記憶部から読み出す合奏データ読出手段と、
この読み出された合奏データにおける前記伴奏指令で指定されたパートとその他の各パートとの演奏データを個別に比較照合して、この他の各パート内の当該指定パートとリズムが重なっている部分を抽出する同期リズム抽出手段と、
前記伴奏指令で指定されたパートの演奏データの全てと、前記同期リズム抽出手段に抽出された他の各パートの演奏データの一部分と、を無音にするように変換して前記伴奏指令で指定された曲の伴奏データを作成する伴奏データ作成手段と、
この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力する伴奏再生部と、を備えたことを特徴とする伴奏作成システム。
An ensemble data storage unit that pre-stores ensemble data including performance data of each part of the ensemble;
An input unit for inputting an accompaniment command according to a user operation;
Ensemble data reading means for reading out the ensemble data of the music designated by the input accompaniment command from the ensemble data storage unit;
A part in which the performance data of the part designated by the accompaniment command and the other parts in the read ensemble data is individually compared and collated, and the designated part in each other part overlaps with the designated part. Synchronous rhythm extraction means for extracting
All of the performance data of the part specified by the accompaniment command and part of the performance data of each other part extracted by the synchronous rhythm extraction means are converted so as to be silenced and specified by the accompaniment command. Accompaniment data creation means for creating accompaniment data for the selected song,
An accompaniment creation system comprising: an accompaniment playback unit that converts the created accompaniment data into a sound signal of a preset tone color and outputs the sound signal to a speaker.
前記請求項1に記載の伴奏作成システムにおいて、
前記合奏データにおける各パートの演奏データは、予めグループ分けされ且つその属するグループの識別子が付されおり、
前記同期リズム抽出手段は、前記読み出された合奏データ内を検索し前記指定されたパートの演奏データと同じグループ識別子を付された各パートの演奏データを選出する機能を備えると共にこの選出した中で前記指定されたパートとその他の各パートとの演奏データを比較照合しこの他の各パート内の当該指定パートとリズムが重なっている部分を抽出するように構成したことを特徴とする伴奏作成システム。
The accompaniment creation system according to claim 1,
The performance data of each part in the ensemble data is grouped in advance and an identifier of the group to which it belongs is attached,
The synchronization rhythm extraction means has a function of searching the read ensemble data and selecting performance data of each part assigned with the same group identifier as the performance data of the designated part. The accompaniment creation is characterized in that the performance data of the designated part and each other part is compared and collated and the part in which the designated part overlaps with the designated part is extracted. system.
前記請求項2に記載の伴奏作成システムにおいて、
前記演奏データが、各構成音の高さを示す実音譜情報と、各構成音の開始点と長さを示すリズム体形譜情報とからなり、
前記同期リズム抽出手段は、前記指定されたパートとその他の各パートとの演奏データの比較照合に際して、両演奏データのリズム体形譜情報のみを比較するように構成したことを特徴とする伴奏作成システム。
In the accompaniment creation system according to claim 2,
The performance data is composed of real musical score information indicating the pitch of each component sound, and rhythm body shape score information indicating the start point and length of each component sound,
The accompaniment creation system is characterized in that the synchronized rhythm extraction means is configured to compare only the rhythm body form information of both performance data when comparing the performance data of the designated part with each other part. .
前記請求項3に記載の伴奏作成システムにおいて、
前記合奏データにおける各パートの演奏データの前記グループ分けは、音域の高いグループと低いグループとに分類されたものであることを特徴とする伴奏作成システム。
In the accompaniment creation system according to claim 3,
The accompaniment creation system, wherein the grouping of the performance data of each part in the ensemble data is classified into a group having a high sound range and a group having a low sound range.
合奏曲の各パートの演奏データを含む合奏データを予め記憶した合奏データ記憶部から指定の曲の合奏データを読み出し、
この読み出された合奏データにおける指定のパートとその他の各パートとの演奏データを個別に比較照合し、
この比較照合の結果に基づいて、前記他の各パート内の前記指定のパートとリズムが重なっている部分を抽出し、
前記指定のパートの演奏データの全てと前記抽出された他の各パートの演奏データの一部分とを無音にするように変換して前記指定の曲の伴奏データを作成し、
この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力することを特徴とする伴奏作成方法。
Read out the ensemble data of the specified song from the ensemble data storage unit that previously stored the ensemble data including the performance data of each part of the ensemble,
The performance data of the specified part and other parts in the read ensemble data is individually compared and verified,
Based on the result of this comparison and collation, a part where the rhythm overlaps with the designated part in each of the other parts is extracted,
Converting all of the performance data of the designated part and a part of the performance data of each of the other extracted parts to silence, creating accompaniment data of the designated song,
An accompaniment creation method comprising converting the created accompaniment data into a sound signal having a preset tone color and outputting the sound signal to a speaker.
前記請求項5に記載の伴奏作成方法において、
前記合奏データにおける各パートの演奏データが、予めグループ分けされ且つその属するグループの識別子を付されおり、
前記指定の曲の合奏データを前記合奏データ記憶部から読み出した後に、
前記読み出された合奏データ内を検索し前記指定されたパートと同じグループ識別子を付された各パートの演奏データを選出し、
前記指定のパートとその他の各パートとの比較照合に際しては、
前記選出されたグループの中で前記指定されたパートとその他の各パートとの演奏データを比較照合することを特徴とする伴奏作成方法。
In the accompaniment creation method according to claim 5,
The performance data of each part in the ensemble data is grouped in advance and an identifier of the group to which it belongs is attached,
After reading the ensemble data of the designated song from the ensemble data storage unit,
Search in the read ensemble data and select performance data of each part with the same group identifier as the specified part,
When comparing the specified part with each other part,
An accompaniment creation method comprising: comparing and comparing performance data of the designated part and each other part in the selected group.
前記請求項6に記載の伴奏作成方法において、
前記演奏データが、音の高さを示す実音譜情報と、音の開始点と長さを示すリズム体形譜情報とからなるデータであると共に、
前記指定のパートとその他の各パートとの比較照合に際しては、
前記指定のパートとその他の各パートとのリズム体形譜情報を比較照合することを特徴とする伴奏作成方法。
In the accompaniment creation method according to claim 6,
The performance data is data composed of real musical score information indicating the pitch of the sound, and rhythm body shape musical score information indicating the start point and length of the sound,
When comparing the specified part with each other part,
A method for creating accompaniment, comprising comparing and collating rhythmic body information of the designated part and other parts.
合奏曲の各パートの演奏データから成る合奏データを予め記憶した合奏データ記憶部と、ユーザの操作に従って伴奏指令を入力する入力部と、この入力された伴奏指令で指定された曲の合奏データから同じく伴奏指令で指定されたパートの音を消した伴奏データを作成する伴奏データ作成部と、この作成された伴奏データを予め設定された音色の音声信号に変換してスピーカへ出力する伴奏再生部と備えた伴奏作成システムにあって、
前記伴奏指令で指定された曲の合奏データを前記合奏データ記憶部から読み出す読出機能と、
この読み出された合奏データにおける前記伴奏指令で指定されたパートとその他の各パートとの演奏データを個別に比較照合しこの他の各パート内の当該指定パートとリズムが重なっている部分を抽出する抽出機能と、
この抽出された前記他の各パートの演奏データの一部分と前記指定されたパートの演奏データの全てとを無音にするように変換して前記指定された曲の伴奏データを作成し前記伴奏再生部へ出力する伴奏データ作成機能とを、
前記伴奏データ作成部が備えているコンピュータに実行させることを特徴とする伴奏作成用プログラム。
From an ensemble data storage unit that pre-stores ensemble data composed of performance data of each part of an ensemble, an input unit that inputs an accompaniment command in accordance with a user operation, and an ensemble data of a song specified by the input accompaniment command Similarly, an accompaniment data creation unit that creates accompaniment data in which the sound of the part specified by the accompaniment command is erased, and an accompaniment playback unit that converts the created accompaniment data into a sound signal of a preset tone color and outputs it to a speaker And accompaniment creation system
A reading function for reading out the ensemble data of the music designated by the accompaniment command from the ensemble data storage unit;
In the read ensemble data, the performance data of the part specified by the accompaniment command and the other parts are individually compared and collated, and the part where the rhythm overlaps with the specified part in each other part is extracted. An extraction function to
A part of the performance data of each of the other parts extracted and all of the performance data of the designated part are converted so as to be silenced to generate accompaniment data of the designated music, and the accompaniment reproduction unit The accompaniment data creation function to output to
An accompaniment creation program which is executed by a computer provided in the accompaniment data creation unit.
前記請求項8に記載の伴奏作成用プログラムにおいて、
前記合奏データにおける各パートの演奏データは、予めグループ分けされ且つその属するグループの識別子を付されており、
前記抽出機能を、前記読み出された合奏データ内を検索し前記指定されたパートと同じグループ識別子を付された各パートの演奏データを選出すると共に、この選出した中で前記指定されたパートとその他の各パートとの演奏データを比較照合し、この他の各パート内の当該指定されたパートとリズムが重なる部分を抽出する機能として、前記コンピュータに実行させることを特徴とする伴奏作成用プログラム。
In the accompaniment creation program according to claim 8,
The performance data of each part in the ensemble data is grouped in advance and has an identifier of the group to which it belongs,
The extraction function searches the ensemble data that has been read out, selects performance data of each part with the same group identifier as the specified part, and selects the specified part among the selected parts. A program for accompaniment creation, which is executed by the computer as a function of comparing and collating performance data with other parts and extracting a part where the specified part and rhythm overlap with each other part .
前記請求項9に記載の伴奏作成用プログラムにおいて、
前記演奏データが、音の高さを示す実音譜情報と、音の開始点と長さを示すリズム体形譜情報とからなるデータであり、
前記抽出機能は、前記比較照合に際して、前記指定されたパートとその他の各パートとのリズム体形譜情報を比較照合する機能であることを特徴とする伴奏作成用プログラム。
In the accompaniment creation program according to claim 9,
The performance data is data composed of real musical score information indicating the pitch of the sound, and rhythmic shape musical score information indicating the start point and length of the sound,
The accompaniment creation program is characterized in that the extraction function is a function of comparing and collating rhythmic body shape information between the designated part and each other part at the time of the comparison and collation.
JP2009117803A 2009-05-14 2009-05-14 Accompaniment creation system, accompaniment creation method and program Expired - Fee Related JP4967170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009117803A JP4967170B2 (en) 2009-05-14 2009-05-14 Accompaniment creation system, accompaniment creation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009117803A JP4967170B2 (en) 2009-05-14 2009-05-14 Accompaniment creation system, accompaniment creation method and program

Publications (2)

Publication Number Publication Date
JP2010266680A JP2010266680A (en) 2010-11-25
JP4967170B2 true JP4967170B2 (en) 2012-07-04

Family

ID=43363697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009117803A Expired - Fee Related JP4967170B2 (en) 2009-05-14 2009-05-14 Accompaniment creation system, accompaniment creation method and program

Country Status (1)

Country Link
JP (1) JP4967170B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016374495B2 (en) * 2015-12-17 2021-07-29 In8Beats Pty Ltd Electrophonic chordophone system, apparatus and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0782339B2 (en) * 1988-01-06 1995-09-06 ヤマハ株式会社 Music signal generator
JP3324318B2 (en) * 1995-01-09 2002-09-17 ヤマハ株式会社 Automatic performance device
JP3568326B2 (en) * 1996-07-22 2004-09-22 株式会社河合楽器製作所 Electronic musical instrument
JPH1097250A (en) * 1996-09-20 1998-04-14 Yamaha Corp Musical tone generator
JP3799761B2 (en) * 1997-08-11 2006-07-19 ヤマハ株式会社 Performance device, karaoke device and recording medium
JPH1165563A (en) * 1997-08-21 1999-03-09 Casio Comput Co Ltd Electronic musical instrument
JP2000122642A (en) * 1998-10-21 2000-04-28 Roland Corp Performance information output device
JP4301549B2 (en) * 2003-06-26 2009-07-22 シャープ株式会社 Audio output system
JP4168939B2 (en) * 2004-01-26 2008-10-22 カシオ計算機株式会社 Song playing device and song playing program

Also Published As

Publication number Publication date
JP2010266680A (en) 2010-11-25

Similar Documents

Publication Publication Date Title
JP2000194360A (en) Method and device for electronically generating sound
JP2008537180A (en) Operation method of music composer
JP4274272B2 (en) Arpeggio performance device
JP3915807B2 (en) Automatic performance determination device and program
JP4967170B2 (en) Accompaniment creation system, accompaniment creation method and program
JP3804500B2 (en) Music score editing device
Harnsberger Essential dictionary of music
JP2007057727A (en) Electronic percussion instrument amplifier system with musical sound reproducing function
JP5418525B2 (en) Karaoke equipment
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP5413380B2 (en) Music data correction device
Gates Arranging for horns
Juusela The Berklee Contemporary Dictionary of Music
JP5569307B2 (en) Program and editing device
JP2015069053A (en) Karaoke device scoring singing by considering stretch tuning
JP5742592B2 (en) Musical sound generation device, musical sound generation program, and electronic musical instrument
KR100382079B1 (en) Apparatus and control method for portable information terminal using music
JP3547394B2 (en) Karaoke device with scat input ensemble system
JP6587396B2 (en) Karaoke device with guitar karaoke scoring function
JPH1185174A (en) Karaoke sing-along machine which enables a user to play accompaniment music
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP4760348B2 (en) Music selection apparatus and computer program for music selection
JP5549651B2 (en) Lyric output data correction device and program
JP4067007B2 (en) Arpeggio performance device and program
JPH10171475A (en) Karaoke (accompaniment to recorded music) device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120315

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees