JP2004117678A - Playing data editing apparatus and program - Google Patents

Playing data editing apparatus and program Download PDF

Info

Publication number
JP2004117678A
JP2004117678A JP2002279206A JP2002279206A JP2004117678A JP 2004117678 A JP2004117678 A JP 2004117678A JP 2002279206 A JP2002279206 A JP 2002279206A JP 2002279206 A JP2002279206 A JP 2002279206A JP 2004117678 A JP2004117678 A JP 2004117678A
Authority
JP
Japan
Prior art keywords
data
performance data
reference data
performance
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002279206A
Other languages
Japanese (ja)
Inventor
Akira Yamauchi
山内 明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002279206A priority Critical patent/JP2004117678A/en
Publication of JP2004117678A publication Critical patent/JP2004117678A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a playing data editing device which can impart musical expression matching user's sensitivity to playing data. <P>SOLUTION: The playing data editing device has a storage means of storing 1st playing data, a readout means of reading the 1st playing data out, a reference data output means for editing sounding characteristics of at least some section of the read 1st playing data and outputting editing contents as reference data, a reference data applying means for generating 2nd playing data by applying the reference data outputted by the reference data output means to other sections, and a reproducing means for reproducing the 2nd playing data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、演奏データ編集装置に関し、より詳しくは、演奏データに音楽的表情を付与することが出来る演奏データ編集装置に関する。
【0002】
【従来の技術】
自動演奏装置等で、音符の情報のみのMIDIデータ等の演奏データを演奏すると機械的で無表情な演奏になってしまう。これを、より自然な演奏にする為には、様々な音楽的表現や、楽器らしさを制御データとして演奏データに付け加えてやる必要がある。
【0003】
そのような音楽的表情を加える手段としては、例えば、各音の音量や発音開始時間等にばらつきを与える事が行われる。演奏データに表情を付与するには、ユーザが音楽や楽器の特性を十分理解している必要があるため、自動的に表情を付与する装置が、多数提案されている。
【0004】
【発明が解決しようとする課題】
上記のような自動的に演奏データに音楽的表情を付与する装置では、簡単に表情付けが行えるものの、ユーザの音楽性を反映させることは、難しかった。
【0005】
本発明の目的は、短時間で、演奏データにユーザの感性に沿った音楽的表情を付与することの出来る演奏データ編集装置を提供することである。
【0006】
【課題を解決するための手段】
本発明の一観点によれば、演奏データ編集装置は、第1の演奏データを記憶する記憶手段と、前記第1の演奏データを読み出す読み出し手段と、前記読み出した第1の演奏データの少なくとも一部の区間の発音特性を編集し、編集内容を参考データとして出力する参考データ出力手段と、前記参考データ出力手段が出力する参考データを前記読み出した第1の演奏データの他の区間に適用して第2の演奏データを生成する参考データ適用手段と、前記第2の演奏データを再生する再生手段とを有する。
【0007】
【発明の実施の形態】
図1は、本発明の実施例による演奏データ編集装置1のハードウェア構成を示すブロック図である。
【0008】
演奏データ編集装置1はバス2、RAM3、ROM4、CPU5、タイマ6、外部記憶装置7、検出回路8、パネル操作子9、表示回路10、ディスプレイ11、音源回路12、効果回路13、サウンドシステム14、MIDIインターフェイス16、通信インターフェイス17を含んで構成される。
【0009】
バス2には、RAM3、ROM4、CPU5、外部記憶装置7、検出回路8、表示回路10、音源回路12、効果回路13、MIDIインターフェイス16、通信インターフェイス17が接続される。
【0010】
ユーザは、検出回路8に接続される複数のパネル操作子9を用いて、各種設定をすることができる。パネル操作子9は、例えば、ロータリーエンコーダ、スイッチ、パッド、フェーダ、スライダ、マウス、文字入力用キーボード、演奏用の鍵盤、ジョイスティック、ジョグシャトル等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。
【0011】
また、本実施例では、パネル操作子9が、後述する各種処理等で、ユーザが各種設定、選択、自動演奏の開始及び停止等の指示を入力するために用いられる。また、パネル操作子9を、演奏情報等を入力するための演奏操作子として用いることも出来る。
【0012】
また、パネル操作子9は、マウス等の他の操作子を用いて操作するディスプレイ11上に表示されるソフトスイッチ等でもよい。
【0013】
表示回路10は、ディスプレイ11に接続され、各種情報をディスプレイ11に表示することができる。例えば、後述するテンプレート編集画面は、ディスプレイ11に表示される。ユーザは、このディスプレイ11に表示される情報を参照して、各種設定を行う。また、ディスプレイ11は、外部のディスプレイを接続することにより構成してもよい。
【0014】
また、ディスプレイ11に、タッチパネルを用いることができる。この場合は、ディスプレイ11上に表示されるスイッチ等をユーザが押すことによりユーザの指示が入力される。
【0015】
外部記憶装置7は、外部記憶装置用のインターフェイスを含み、そのインターフェイスを介してバス2に接続される。外部記憶装置7は、例えばフロッピ(登録商標)ディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、DVD(Digital Versatile Disc)ドライブ、半導体メモリ等である。
【0016】
外部記憶装置7には、各種パラメータ、各種データ、及び本実施例を実現するためのプログラム及びテンプレート等を記憶することができる。
【0017】
RAM3は、フラグ、レジスタ又はバッファ、各種パラメータ等を記憶するCPU5のワーキングエリアを有する。ROM4には、各種パラメータ及び制御プログラム、又は本実施例を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、外部記憶装置7に記憶する必要は無い。CPU5は、ROM4又は、外部記憶装置7に記憶されている制御プログラム等に従い、演算又は制御を行う。
【0018】
タイマ6は、CPU5に接続されており、基本クロック信号、割り込み処理タイミング等をCPU5に供給する。
【0019】
外部記憶装置7として、ハードディスクドライブ(HDD)が接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等は、外部記憶装置7内のハードディスク(HDD)に記憶させることもできる。ハードディスクからRAM3に制御プログラム等を読み出すことにより、ROM4に制御プログラム等を記憶させている場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラム等の追加やバージョンアップ等が容易に行える。
【0020】
また、ハードディスクドライブに加えて、CD−ROMドライブが接続されている場合には、制御プログラム又は本実施例を実現するためのプログラム等をCD−ROMに記憶させることもできる。CD−ROMからハードディスクに制御プログラムや本実施例を実現するためのプログラム等をコピーすることができる。制御プログラム等の新規インストールやバージョンアップを容易に行うことができる。
【0021】
音源回路12は、外部記憶装置7等に記録されたシーケンスデータ又はMIDIインターフェイスに接続されたMIDI機器18等から供給されるMIDI信号、演奏信号等に応じて楽音信号を生成し、効果回路13を介して、サウンドシステム14に供給する。
【0022】
効果回路13は、音源回路12から供給されるデジタル形式の楽音信号に各種効果を与える。
【0023】
サウンドシステム14は、D/A変換器及びスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0024】
なお、音源回路12は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO(Voltage Controlled Oscillator)+VCF(Voltage Controlled Filter)+VCA(Voltage Controlled Amplifier)のアナログシンセサイザ方式等、どのような方式であってもよい。
【0025】
また、音源回路12は、専用のハードウェアを用いて構成するものに限らず、DSP(Digital Signal Processor)+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよいし、サウンドカードのようなものでもよい。
【0026】
さらに、1つの音源回路を時分割で使用することにより複数の発音チャンネルを形成するようにしてもよいし、複数の音源回路を用い、1つの発音チャンネルにつき1つの音源回路で複数の発音チャンネルを構成するようにしてもよい。
【0027】
MIDIインターフェイス(MIDI I/F)16は、電子楽器、その他の楽器、音響機器、コンピュータ等に接続できるものであり、少なくともMIDI信号を送受信できるものである。MIDIインターフェイス16は、専用のMIDIインターフェイスに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェイスを用いて構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0028】
MIDI機器18は、MIDIインターフェイス16に接続される音響機器及び楽器等である。MIDI機器18の形態は鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。ユーザは、このMIDI機器18を演奏(操作)することにより演奏情報の入力を行うこともできる。
【0029】
また、MIDI機器18は、演奏情報以外の各種データ及び各種設定を入力するための操作子としても用いることが出来る。
【0030】
通信インターフェイス17は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク19に接続可能であり、該通信ネットワーク19を介して、サーバコンピュータ20と接続し、HDD等外部記憶装置7、又はRAM4等内に、サーバコンピュータ20から制御プログラムや本実施例を実現するためのプログラム、演奏データ等をダウンロードすることができる。
【0031】
なお、通信インターフェイス17及び通信ネットワーク19は、有線のものに限らず無線でもよい。また双方を備えていてもよい。
【0032】
図2は、本実施例による演奏データPDのフォーマットを表す概念図である。演奏データPDは、例えばSMF(Standard MIDI File)フォーマットに準拠した、自動演奏データである。
【0033】
演奏データPDは、先頭に記録される初期設定情報HCと、発音タイミングを表すタイミングデータTDと、各タイミング毎のイベントを表すイベントデータEDとを含んで構成されている。また、演奏データPDは複数のパートで構成することも出来る。
【0034】
初期設定情報HCは、各パート(トラック)の再生時の各種再生態様を設定する為のデータであり、例えば、音色設定データ、音量設定データ、テンポ設定データなどが含まれる。
【0035】
タイミングデータTDは、イベントデータEDで表される各種イベントを処理すべき時間を表すデータである。イベントの処理時間は、演奏開始からの絶対時間で表してもよいし、前のイベントからの経過時間である相対時間で表すようにしてもよい。本実施例では、タイミングデータTDは、小節数、拍数、時刻(クロック)のパラメータによりイベントの処理時間を表している。以下、この演奏データPDは、4/3拍子に設定されているものとする。すなわち、1小節中は、3拍からなる。また、1拍は、480クロックとする。
【0036】
イベントデータEDは、楽曲を再生させる為の各種イベントの内容を表すデータである。イベントには、ノートオンイベントとノートオフイベントの組合せである楽曲の発生に直接関係する音符を表す音符イベント(音符データ)NEと、ピッチチェンジイベント(ピッチベンドイベント)、テンポチェンジイベント、音色チェンジイベントなどの楽曲の再生態様などを設定するための設定イベントが含まれる。
【0037】
それぞれの音符イベントNEには、例えば、音高、発音長(ゲートタイム)、音量(ベロシティ)VL等のパラメータが記録されている。発音長は4分音符長を「480」で表しており、例えば8分音符長は「240」であり、2分音符長は「960」である。音量VLは設定可能な最低音量を「1」とし最大音量を「127」としている。
【0038】
図3は、本実施例による参考データの作成及び適用を説明するための演奏データPDの概念図である。
【0039】
ユーザは、パネル操作子9を用いて、図1のディスプレイ11に表示される演奏データPD(図2)のタイミングデータTD及びイベントデータEDの各パラメータを編集する。
【0040】
図2に示す演奏データPDをそのまま再生すると、1拍目、2拍目、3拍目が、1小節の時間に均等に配分された演奏となる。また、音量も全て均一である。
【0041】
図3(A)は、図2の演奏データPDの第1小節を編集対象区間として、ユーザの感性に従い、手動で第1小節目のパラメータを変更して、ウィンナワルツ風の演奏になるように表情付けを行った演奏データPD1を表す概念図である。ウィンナワルツは、2拍目が均等な2拍目の時刻よりも早く、3拍目が均等な3拍目の時刻よりも遅いという特徴がある。
【0042】
この例では、図3(A)に示すように、ユーザは、第1小節の1拍目の音符イベントNE(C3)の音量VLを(82)に変更し、2拍目の音符イベントNE(E3)及び(G3)のタイミングを第1拍目の時刻(430)に変更し、3拍目の音符イベントNE(E3)及び(G3)のタイミングを時刻(020)に変更するとともに音量VLを(62)に変更している。
【0043】
本実施例では、ユーザによる編集後の演奏データPD1と編集前の演奏データPDの差分値(オフセット値)を抽出して、図4に示すような参考データRDを作成する。参考データRDは、編集対象区間(この例では1小節)の各拍のイベントデータEDのパラメータのオフセット値を記録するデータである。参考データRDには、対象(反映)区間(この例では1小節)、各拍のイベントデータEDのパラメータ及びそのオフセット値が記録されている。なお、対象区間は、必ずしも、参考データRD中に記録されていなくとも良い。参考データRD中に対象区間が記録されていない場合は、参考データRDを適用する際に、ユーザが対象区間を指定すればよい。
【0044】
図3(B)は、第2小節から第n小節までを反映区間として、図4の参考データRDを適用した後の演奏データPD2の概念図である。参考データを適用することにより、第2小節から第n小節までの第1拍目から第3拍目の音符イベントNEのパラメータの関係が、それぞれ第1小節の第1拍目から第3拍目の音符イベントNEのパラメータの関係と同一になっている。
【0045】
参考データRDは、オフセットデータであるので、元の演奏データPDの第2小節から第n小節までの第1拍目から第3拍目の音符イベントNEのパラメータが、第1小節目と異なる場合は、それぞれの拍の相対的関係のみが第1小節と同一になる。すなわち、必ずしも各パラメータの絶対値が同一になるとは限らない。
【0046】
なお、本実施例では、参考データRDは、オフセット値として記録されているが、各パラメータの絶対値を記録するようにしても良い。この場合は、反映区間のパラメータは編集対象区間のパラメータ(参考データに記録されたパラメータ)と同一の値となる。しかし、本実施例の参考データを、他の表情付けデータと合成して適用する場合を想定すると、参考データRDは、オフセット値を記録したデータであることが好ましい。
【0047】
図5は、本実施例の参考データを、他の表情付けデータと合成して適用する場合について説明するための概念図である。
【0048】
図5(A)は、第1小節の1拍目から第4小節の3拍目までをクレッシェンドするための表情付けデータNDの一例である。なお、この表情付けデータNDは、オフセット値を記録したデータである。
【0049】
図5(B)は、図5(A)表情付けデータNDと図4の参考データRDを合成して得られる参考データRD1の概念図である。図から明らかなように、図5(A)の第1小節から第4小節までの音量オフセット値に、図4の参考データRDの音量オフセット値を加算することにより、参考データRD1を生成している。この合成された参考データRD1によれば、1拍目から3拍目にかけて音量が小さくなるウィンナワルツの特徴をいかしながら、全体の音量を徐々に上げるクレッシェンドの音楽的表情を付与することが出来る。
【0050】
図6は、図2に示す演奏データPDに図5(B)に示す参考データRD1を適用して得られる演奏データPD3を表す概念図である。演奏データPD3は、単に参考データRDを適用した演奏データPD2(図3(B))に比べて、より複雑な音楽的表情が付与されている。
【0051】
図7は、図1のCPU5で行う本実施例による参考データ作成処理を表すフローチャートである。
【0052】
ステップSA1では参考データ作成処理をスタートして、各種フラグやバッファを初期化し、ステップSA2では、例えば、図1のディスプレイ11に外部記憶装置7等に記録されている演奏データPDの一覧を表示して、編集対象とする演奏データをユーザに選択させ、選択された演奏データPDを外部記憶装置7等から読み出す。ユーザは、一覧表示される演奏データの中から編集(表情付け)するものをパネル操作子9等で選択する。なお、演奏データの選択はこの方法に限らず、ユーザが演奏データの保存先のパス等を直接指定するようにしてもよい。
【0053】
ステップSA3では、参考データの新規作成を行うか否かを問い合わせる。参考データの新規作成を行う場合は、YESの矢印で示すステップSA4に進む。参考データの新規作成を行わない場合、例えば、予め作成された参考データを演奏データPDに適用する場合等は、NOの矢印で示すステップSA8に進む。
【0054】
ステップSA4では、ディスプレイ11に選択・読出しされた演奏データPDを表示して、編集対象とする区間(編集対象区間)をユーザに指定させ、ステップSA5で、指定された編集対象区間の編集可能なパラメータを表示する。
【0055】
ステップSA6では、ユーザによるパラメータの変更を受け付ける。ユーザは、ディスプレイ11に表示される指定された編集対象区間の編集可能なパラメータをパネル操作子9等を操作して変更する。
【0056】
ステップSA7では、ステップSA6で変更されたパラメータと、変更前のパラメータを比較して、その差分値(オフセット値)を算出し、変更されたパラメータ種類と該変更されたパラメータのオフセット値を関連づけて参考データRDを生成して、RAM3内のバッファ又は外部記憶装置7等に記憶する。
【0057】
ステップSA8では、ステップSA7で生成した参考データRDを演奏データPDの他の区間に反映させるか否かをユーザに問い合わせる。反映させる場合は、YESの矢印で示すステップSA9に進み、反映させない場合は、NOの矢印で示すステップSA13に進んで、参考データ作成処理を終了する。
【0058】
ステップSA9では、参考データRDを反映させる区間を選択し、ステップSA10で、該選択区間の元演奏データPDを書き換えるか否かをユーザに問い合わせる。該選択区間の元演奏データPDを書き換える場合は、YESの矢印で示すステップSA11に進み、参考データRDに基づき選択区間のパラメータを書換え、ステップSA13に進んで参考データ作成処理を終了する。すなわち、元演奏データの選択区間のパラメータに参考データRDのオフセット値を加算する。元演奏データRDの書換えを行わない場合は、NOの矢印で示すステップSA12に進み、参考データRD内の対象区間をステップSA9で選択した反映区間に書き換える。その後、ステップSA13に進んで参考データ作成処理を終了する。
【0059】
なお、本実施例では、ステップSA6での、ユーザによる編集は、ステップSA7での参考データRD生成後は破棄しているが、元演奏データPDを編集後のパラメータで上書きしてもよい。
【0060】
図8は、図1のCPU5で行う本実施例による演奏データ再生処理を表すフローチャートである。
【0061】
ステップSB1では演奏データ再生処理をスタートして、各種フラグやバッファを初期化し、ステップSB2では、図7のステップSA2と同様に、例えば、図1のディスプレイ11に表示される演奏データPDの一覧を参照して再生対象とする演奏データPDをユーザに選択させ、外部記憶装置7等からRAM3内のバッファ領域に読み出す。
【0062】
ステップSB3では、外部記憶装置7等に記憶されている、例えば、図7のステップSA7等で作成された参考データRDを選択して、読み出す。その後、ユーザからの再生指示に従いステップSB4に進む。
【0063】
ステップSB4では、RAM3内のバッファ領域に読み出すべき演奏イベントがあるか否かを判断する。演奏イベントがある場合は、YESの矢印で示すステップSB5に進み、ない場合は、NOの矢印で示すステップSB10に進む。
【0064】
ステップSB5では、次以降のタイミングに処理されるべき演奏イベントを、例えば、RAM3内のワーク領域等に先読みする。
【0065】
ステップSB6では、ステップSB3で選択された参考データ以外の表情付けデータNDの適用の設定があれば、該表情付けデータNDのオフセット値と参考データRDのオフセット値を加算することにより合成し、1つの参考データRDを作成する。なお、ステップSB3で複数の参考データRDが選択された場合も、このステップにより合成し、1つの参考データを作成する。なお、このとき、表情付けデータNDと参考データRDの反映対象区間が異なる場合は、双方の反映対象区間を合わせたものを新たな反映対象区間とする。複数の参考データRDの反映対象区間が異なる場合も同様である。
【0066】
ステップSB7では、ステップSB5で先読みした演奏イベントが、ステップSB6で合成又はステップSB3で選択した参考データRDの反映対象区間であるか否かを判断する。反映対象区間である場合は、YESの矢印で示すステップSB8に進み、参考データに基づきステップSB5で先読みした演奏イベントを更新する。すなわち、先読みした演奏イベントのパラメータに参考データのオフセット値を加算する。反映対象区間でない場合は、ステップSB9に進む。
【0067】
ステップSB9では、ステップSB8で更新した演奏イベント若しくは、SB5で先読みした演奏イベント(ステップSB7から進んできた場合)をRAM3内の再生バッファに記憶する。
【0068】
ステップSB10では、再生バッファ内に再生すべき演奏イベントがあるか否かを判断する。再生バッファ内に演奏イベントがある場合は、YESの矢印で示すステップSB11に進み、該再生バッファに記憶された演奏データのうちから今回のタイミングで再生すべき演奏イベントを再生し、その後、ステップSB4に戻る。再生バッファ内に演奏イベントがない場合は、NOの矢印で示すステップSB12に進み、演奏データ再生処理を終了する。
【0069】
以上、本実施例によれば、例えば、1小節などの比較的短い区間に対して、手動で表情付けを行い、その結果を参照して指定した比較的長い区間に適用することが出来る。このようにすることで、簡単かつ短時間でユーザの音楽性を反映した表情付けが演奏データ全体に対して可能である。
【0070】
また、本実施例によれば、例えば、ある演奏データの1小節などの比較的短い区間に対して、手動で表情付けを行い、その結果を参考データとして記録することが出来る。このようにすることで、他の演奏データに対しても簡単に短時間で、ユーザの音楽性を反映した表情付けを行うことが出来る。
【0071】
また、本実施例によれば、参考データは、変更前後のパラメータの差分値であるオフセット値で構成される。このようにすることで、他の表情付けデータと簡単に合成することが出来、複雑な表情付けが簡単に行える。
【0072】
なお、本実施例の演奏データ編集装置1は電子楽器、パソコン+アプリケーションソフトウェアの形態、カラオケ装置や、ゲーム装置、携帯電話等の携帯型通信端末、自動演奏ピアノなどどのような形態をとってもよい。
【0073】
携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0074】
また、電子楽器の形態を取った場合、その形態は鍵盤楽器に限らず、弦楽器タイプ、打楽器タイプ等の形態でもよい。
【0075】
また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0076】
なお、本実施例は、本実施例に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
【0077】
その場合には、本実施例に対応するコンピュータプログラム等を、CD−ROMやフロッピー(登録商標)ディスク等の、コンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。
【0078】
そのコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等をコンピュータ等に提供してもよい。
【0079】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0080】
【発明の効果】
以上説明したように、本発明によれば、短時間で、演奏データにユーザの感性に沿った音楽的表情を付与することの出来る演奏データ編集装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施例による演奏データ編集装置1のハードウェア構成を示すブロック図である。
【図2】本実施例による演奏データPDのフォーマットを表す概念図である。
【図3】本実施例による参考データの作成及び適用を説明するための演奏データPDの概念図である。
【図4】本実施例による参考データRDのフォーマットを表す概念図である。
【図5】本実施例の参考データを、他の表情付けデータと合成して適用する場合について説明するための概念図である。
【図6】図2に示す演奏データPDに図5(B)に示す参考データRD1を適用して得られる演奏データPD3を表す概念図である。
【図7】図1のCPU5で行う本実施例による参考データ作成処理を表すフローチャートである。
【図8】図1のCPU5で行う本実施例による演奏データ再生処理を表すフローチャートである。
【符号の説明】
1…演奏データ編集装置、2…バス、3…RAM、4…ROM、5…CPU、6…タイマ、7…外部記憶装置、8…検出回路、9…パネル操作子、10…表示回路、11…ディスプレイ、12…音源回路、13…効果回路、14…サウンドシステム、16…MIDI I/F、17…通信I/F、18…MIDI機器、19…通信ネットワーク、20…サーバコンピュータ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a performance data editing device, and more particularly, to a performance data editing device capable of adding a musical expression to performance data.
[0002]
[Prior art]
When performance data such as MIDI data containing only note information is played by an automatic performance device or the like, the performance becomes mechanical and expressionless. In order to make this a more natural performance, it is necessary to add various musical expressions and musical instruments to the performance data as control data.
[0003]
As a means for adding such a musical expression, for example, a variation is given to the volume of each sound, the sounding start time, and the like. Since a user needs to fully understand the characteristics of music and musical instruments in order to give an expression to performance data, many devices for automatically giving an expression have been proposed.
[0004]
[Problems to be solved by the invention]
With the above-described apparatus for automatically giving a musical expression to performance data, an expression can be easily given, but it is difficult to reflect the musicality of the user.
[0005]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a performance data editing apparatus capable of giving a musical expression according to a user's sensitivity to performance data in a short time.
[0006]
[Means for Solving the Problems]
According to one aspect of the present invention, a performance data editing device includes a storage unit that stores first performance data, a reading unit that reads the first performance data, and at least one of the read first performance data. The reference data output means for editing the pronunciation characteristics of the section of the section and outputting the edited content as reference data, and applying the reference data output by the reference data output means to another section of the read first performance data. Reference data application means for generating the second performance data, and reproduction means for reproducing the second performance data.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a performance data editing device 1 according to an embodiment of the present invention.
[0008]
The performance data editing device 1 includes a bus 2, a RAM 3, a ROM 4, a CPU 5, a timer 6, an external storage device 7, a detection circuit 8, a panel operator 9, a display circuit 10, a display 11, a sound source circuit 12, an effect circuit 13, and a sound system 14. , A MIDI interface 16 and a communication interface 17.
[0009]
The RAM 2, the ROM 4, the CPU 5, the external storage device 7, the detection circuit 8, the display circuit 10, the sound source circuit 12, the effect circuit 13, the MIDI interface 16, and the communication interface 17 are connected to the bus 2.
[0010]
The user can make various settings using the plurality of panel operators 9 connected to the detection circuit 8. The panel operator 9 is, for example, a rotary encoder, a switch, a pad, a fader, a slider, a mouse, a keyboard for character input, a keyboard for performance, a joystick, a jog shuttle, or any other device capable of outputting a signal according to a user input. Such a thing may be used.
[0011]
In the present embodiment, the panel operator 9 is used by the user to input various settings, selections, and instructions such as start and stop of the automatic performance in various processes to be described later. Further, the panel operator 9 can be used as a performance operator for inputting performance information and the like.
[0012]
Further, the panel operator 9 may be a software switch or the like displayed on the display 11 operated using another operator such as a mouse.
[0013]
The display circuit 10 is connected to a display 11 and can display various information on the display 11. For example, a template editing screen described later is displayed on the display 11. The user makes various settings with reference to the information displayed on the display 11. The display 11 may be configured by connecting an external display.
[0014]
Further, a touch panel can be used for the display 11. In this case, when the user presses a switch or the like displayed on the display 11, the user's instruction is input.
[0015]
The external storage device 7 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 7 is, for example, a floppy (registered trademark) disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, a DVD (Digital Versatile Disc). A) a drive, a semiconductor memory, or the like.
[0016]
The external storage device 7 can store various parameters, various data, programs and templates for realizing the present embodiment, and the like.
[0017]
The RAM 3 has a working area of the CPU 5 for storing flags, registers or buffers, various parameters, and the like. The ROM 4 can store various parameters and control programs, programs for implementing the present embodiment, and the like. In this case, there is no need to store programs and the like in the external storage device 7 in a stack. The CPU 5 performs calculation or control according to a control program or the like stored in the ROM 4 or the external storage device 7.
[0018]
The timer 6 is connected to the CPU 5 and supplies a basic clock signal, interrupt processing timing, and the like to the CPU 5.
[0019]
When a hard disk drive (HDD) is connected as the external storage device 7, the control program or a program for implementing the present embodiment may be stored in the hard disk (HDD) in the external storage device 7. it can. By reading the control program and the like from the hard disk to the RAM 3, the CPU 5 can cause the CPU 5 to perform the same operation as when the control program and the like are stored in the ROM 4. By doing so, it is possible to easily add a control program and the like, upgrade the version, and the like.
[0020]
When a CD-ROM drive is connected in addition to the hard disk drive, a control program, a program for implementing the present embodiment, and the like can be stored in the CD-ROM. A control program, a program for implementing this embodiment, and the like can be copied from the CD-ROM to the hard disk. New installation and version upgrade of the control program and the like can be easily performed.
[0021]
The tone generator circuit 12 generates a tone signal in accordance with sequence data recorded in the external storage device 7 or the like, a MIDI signal supplied from a MIDI device 18 or the like connected to a MIDI interface, a performance signal, and the like, and the effect circuit 13 is generated. The sound is supplied to the sound system 14 via the control unit.
[0022]
The effect circuit 13 gives various effects to the digital tone signal supplied from the tone generator circuit 12.
[0023]
The sound system 14 includes a D / A converter and a speaker, and converts a supplied digital tone signal into an analog format and generates a sound.
[0024]
Note that the tone generator circuit 12 includes a waveform memory system, an FM system, a physical model system, a harmonic synthesis system, a formant synthesis system, a VCO (Voltage Controlled Oscillator) + VCF (Voltage Controlled Filter) + VCA (Voltage Controlled) analog synthesizer, and the like. Any method may be used.
[0025]
Further, the tone generator circuit 12 is not limited to a configuration using dedicated hardware, and may be configured using a DSP (Digital Signal Processor) + microprogram, or may be configured using a CPU + software program. Or a sound card.
[0026]
Furthermore, a plurality of tone generation channels may be formed by using one tone generator circuit in a time-division manner, or a plurality of tone generator circuits may be used for each tone channel by using a plurality of tone generator circuits. It may be configured.
[0027]
A MIDI interface (MIDI I / F) 16 can be connected to electronic musical instruments, other musical instruments, audio equipment, computers, and the like, and can transmit and receive at least MIDI signals. The MIDI interface 16 is not limited to a dedicated MIDI interface, and may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), and IEEE 1394 (Itriple 1394). In this case, data other than the MIDI message may be transmitted and received at the same time.
[0028]
The MIDI device 18 is an audio device, a musical instrument, or the like connected to the MIDI interface 16. The form of the MIDI device 18 is not limited to a keyboard instrument, but may be a string instrument type, a wind instrument type, a percussion instrument type, or the like. Further, the sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be. The user can also input performance information by playing (operating) the MIDI device 18.
[0029]
The MIDI device 18 can also be used as an operator for inputting various data other than performance information and various settings.
[0030]
The communication interface 17 is connectable to a communication network 19 such as a LAN (local area network), the Internet, and a telephone line. The communication interface 17 is connected to the server computer 20 via the communication network 19, and is connected to the external storage device 7 such as an HDD. A control program, a program for implementing this embodiment, performance data, and the like can be downloaded from the server computer 20 into the RAM 4 or the like.
[0031]
The communication interface 17 and the communication network 19 are not limited to wired ones, but may be wireless. Also, both may be provided.
[0032]
FIG. 2 is a conceptual diagram illustrating the format of the performance data PD according to the present embodiment. The performance data PD is, for example, automatic performance data conforming to the SMF (Standard MIDI File) format.
[0033]
The performance data PD includes initial setting information HC recorded at the beginning, timing data TD indicating a sounding timing, and event data ED indicating an event for each timing. Also, the performance data PD can be composed of a plurality of parts.
[0034]
The initial setting information HC is data for setting various reproduction modes when each part (track) is reproduced, and includes, for example, tone color setting data, volume setting data, tempo setting data, and the like.
[0035]
The timing data TD is data representing a time to process various events represented by the event data ED. The processing time of the event may be represented by an absolute time from the start of the performance, or may be represented by a relative time which is an elapsed time from the previous event. In the present embodiment, the timing data TD indicates the processing time of the event by parameters of the number of measures, the number of beats, and the time (clock). Hereinafter, it is assumed that the performance data PD is set to 4/3 time signature. That is, one bar consists of three beats. One beat is 480 clocks.
[0036]
The event data ED is data representing the contents of various events for reproducing music. The events include a note event (note data) NE that directly represents a note that is a combination of a note-on event and a note-off event, and a pitch change event (pitch bend event), a tempo change event, a tone change event, and the like. A setting event for setting the reproduction mode of the musical piece of the song is included.
[0037]
In each note event NE, for example, parameters such as pitch, tone length (gate time), and volume (velocity) VL are recorded. The pronunciation length is represented by a quarter note length of “480”, for example, the eighth note length is “240”, and the half note length is “960”. The volume VL has a settable minimum volume of “1” and a maximum volume of “127”.
[0038]
FIG. 3 is a conceptual diagram of performance data PD for describing the creation and application of reference data according to the present embodiment.
[0039]
The user edits each parameter of the timing data TD and the event data ED of the performance data PD (FIG. 2) displayed on the display 11 of FIG. 1 using the panel operator 9.
[0040]
If the performance data PD shown in FIG. 2 is reproduced as it is, the first beat, the second beat, and the third beat are played equally distributed over the time of one bar. In addition, the sound volumes are all uniform.
[0041]
FIG. 3A shows that the first bar of the performance data PD in FIG. 2 is set as an edit target section, and the parameters of the first bar are manually changed according to the user's sensibility so that the performance becomes a Wiener Waltz style. It is a conceptual diagram showing the performance data PD1 to which the expression was given. The Wiener Waltz is characterized in that the second beat is earlier than the even second beat, and the third beat is later than the even third beat.
[0042]
In this example, as shown in FIG. 3A, the user changes the volume VL of the note event NE (C3) of the first beat of the first measure to (82), and changes the note event NE ( The timing of E3) and (G3) is changed to the time (430) of the first beat, the timing of the note events NE (E3) and (G3) of the third beat is changed to time (020), and the volume VL is changed. (62).
[0043]
In this embodiment, a difference value (offset value) between the performance data PD1 after editing by the user and the performance data PD before editing is extracted, and reference data RD as shown in FIG. 4 is created. The reference data RD is data for recording the offset value of the parameter of the event data ED of each beat of the edit target section (one bar in this example). In the reference data RD, a target (reflection) section (one bar in this example), a parameter of the event data ED of each beat, and its offset value are recorded. Note that the target section does not necessarily have to be recorded in the reference data RD. If the target section is not recorded in the reference data RD, the user may specify the target section when applying the reference data RD.
[0044]
FIG. 3B is a conceptual diagram of the performance data PD2 to which the reference data RD of FIG. 4 has been applied with the second bar to the nth bar as a reflection section. By applying the reference data, the relationship between the parameters of the note events NE from the first beat to the third beat from the second measure to the nth measure is changed from the first beat to the third beat of the first measure, respectively. Is the same as the parameter relationship of the note event NE.
[0045]
Since the reference data RD is offset data, the parameters of the note events NE of the first to third beats from the second bar to the nth bar of the original performance data PD are different from those of the first bar. Is only the relative relationship of each beat is the same as the first bar. That is, the absolute values of the parameters are not always the same.
[0046]
In the present embodiment, the reference data RD is recorded as an offset value, but the absolute value of each parameter may be recorded. In this case, the parameter of the reflection section has the same value as the parameter of the section to be edited (the parameter recorded in the reference data). However, assuming that the reference data of the present embodiment is combined with other expression data and applied, the reference data RD is preferably data in which an offset value is recorded.
[0047]
FIG. 5 is a conceptual diagram for describing a case where reference data of the present embodiment is combined with other expression data and applied.
[0048]
FIG. 5A shows an example of the facial expression data ND for crescendo from the first beat of the first measure to the third beat of the fourth measure. The expression data ND is data in which an offset value is recorded.
[0049]
FIG. 5B is a conceptual diagram of reference data RD1 obtained by synthesizing the expression data ND of FIG. 5A and the reference data RD of FIG. As is apparent from the figure, the reference data RD1 is generated by adding the volume offset value of the reference data RD of FIG. 4 to the volume offset value of the first bar to the fourth bar of FIG. I have. According to the synthesized reference data RD1, it is possible to provide a crescendo musical expression that gradually increases the overall volume while taking advantage of the feature of Wiener Waltz in which the volume decreases from the first beat to the third beat.
[0050]
FIG. 6 is a conceptual diagram showing performance data PD3 obtained by applying the reference data RD1 shown in FIG. 5B to the performance data PD shown in FIG. The performance data PD3 is given a more complex musical expression than the performance data PD2 (FIG. 3B) simply applying the reference data RD.
[0051]
FIG. 7 is a flowchart illustrating the reference data creation process according to the present embodiment performed by the CPU 5 of FIG.
[0052]
In step SA1, the reference data creation process is started to initialize various flags and buffers. In step SA2, for example, a list of performance data PD recorded in the external storage device 7 or the like is displayed on the display 11 in FIG. Then, the user selects the performance data to be edited, and reads out the selected performance data PD from the external storage device 7 or the like. The user selects the performance data to be edited (expressed with expression) from the performance data displayed in the list with the panel operator 9 or the like. The selection of the performance data is not limited to this method, and the user may directly specify a path or the like where the performance data is stored.
[0053]
In step SA3, an inquiry is made as to whether or not to newly create reference data. When newly creating reference data, the flow advances to step SA4 indicated by a YES arrow. When the reference data is not newly created, for example, when the previously created reference data is applied to the performance data PD, the process proceeds to step SA8 indicated by a NO arrow.
[0054]
In step SA4, the performance data PD selected and read out is displayed on the display 11, and the section to be edited (section to be edited) is designated by the user. In step SA5, the specified section to be edited can be edited. Display parameters.
[0055]
At Step SA6, a parameter change by the user is accepted. The user changes the editable parameters of the specified edit target section displayed on the display 11 by operating the panel operator 9 or the like.
[0056]
In step SA7, the parameter changed in step SA6 is compared with the parameter before the change, a difference value (offset value) is calculated, and the changed parameter type is associated with the offset value of the changed parameter. The reference data RD is generated and stored in a buffer in the RAM 3 or the external storage device 7 or the like.
[0057]
In step SA8, the user is inquired whether or not the reference data RD generated in step SA7 is to be reflected in another section of the performance data PD. If it is to be reflected, the process proceeds to step SA9 indicated by a YES arrow. If not, the process proceeds to step SA13 indicated by a NO arrow, and the reference data creation process ends.
[0058]
In step SA9, a section in which the reference data RD is reflected is selected, and in step SA10, the user is inquired whether or not to rewrite the original performance data PD in the selected section. When rewriting the original performance data PD in the selected section, the process proceeds to step SA11 indicated by a YES arrow, rewrites the parameters of the selected section based on the reference data RD, proceeds to step SA13, and ends the reference data creation processing. That is, the offset value of the reference data RD is added to the parameters of the selected section of the original performance data. If the original performance data RD is not to be rewritten, the process proceeds to step SA12 indicated by a NO arrow, and the target section in the reference data RD is rewritten to the reflection section selected in step SA9. Thereafter, the flow advances to step SA13 to end the reference data creation processing.
[0059]
In the present embodiment, the editing by the user in step SA6 is discarded after the generation of the reference data RD in step SA7, but the original performance data PD may be overwritten with the edited parameters.
[0060]
FIG. 8 is a flowchart showing performance data reproduction processing according to the present embodiment, which is performed by the CPU 5 of FIG.
[0061]
In step SB1, the performance data reproducing process is started to initialize various flags and buffers. In step SB2, for example, a list of performance data PD displayed on the display 11 in FIG. The user selects the performance data PD to be reproduced by referring to the data, and reads the performance data PD from the external storage device 7 or the like to a buffer area in the RAM 3.
[0062]
In step SB3, for example, the reference data RD created in step SA7 in FIG. 7 or the like, which is stored in the external storage device 7 or the like, is selected and read. Thereafter, the process proceeds to step SB4 according to the reproduction instruction from the user.
[0063]
In step SB4, it is determined whether or not there is a performance event to be read in the buffer area in the RAM 3. If there is a performance event, the process proceeds to step SB5 indicated by a YES arrow, and if not, the process proceeds to step SB10 indicated by a NO arrow.
[0064]
In step SB5, the performance event to be processed at the next and subsequent timings is pre-read in, for example, a work area in the RAM 3.
[0065]
In step SB6, if there is a setting to apply the expression data ND other than the reference data selected in step SB3, the synthesis is performed by adding the offset value of the expression data ND and the offset value of the reference data RD, and 1 One reference data RD is created. Note that, even when a plurality of reference data RDs are selected in step SB3, one reference data is created by combining in this step. At this time, if the reflection target sections of the expression data ND and the reference data RD are different, a combination of both reflection target sections is set as a new reflection target section. The same applies to a case where a plurality of reference data RDs have different reflection target sections.
[0066]
In step SB7, it is determined whether or not the performance event read in advance in step SB5 is a reflection target section of the reference data RD synthesized in step SB6 or selected in step SB3. If the section is a reflection target section, the process proceeds to step SB8 indicated by a YES arrow, and the performance event prefetched in step SB5 is updated based on the reference data. That is, the offset value of the reference data is added to the parameter of the performance event read in advance. If it is not a reflection target section, the process proceeds to step SB9.
[0067]
In step SB9, the performance event updated in step SB8 or the performance event read in advance in SB5 (when proceeding from step SB7) is stored in the reproduction buffer in the RAM 3.
[0068]
In step SB10, it is determined whether or not there is a performance event to be reproduced in the reproduction buffer. If there is a performance event in the reproduction buffer, the flow advances to step SB11 indicated by a YES arrow to reproduce a performance event to be reproduced at the current timing from the performance data stored in the reproduction buffer. Return to If there is no performance event in the reproduction buffer, the flow advances to step SB12 indicated by a NO arrow to end the performance data reproduction process.
[0069]
As described above, according to the present embodiment, it is possible to manually apply an expression to a relatively short section such as one bar, and apply the expression to a relatively long section specified by referring to the result. By doing so, it is possible to easily and quickly express expression reflecting the musicality of the user to the entire performance data.
[0070]
Further, according to the present embodiment, for example, a relatively short section such as one measure of certain performance data can be manually subjected to facial expression, and the result can be recorded as reference data. By doing so, it is possible to easily and quickly apply expression to other performance data in a short time, reflecting the musicality of the user.
[0071]
Further, according to the present embodiment, the reference data is constituted by an offset value which is a difference value between parameters before and after the change. By doing so, it is possible to easily combine with other expression data, and to easily perform complicated expression.
[0072]
The performance data editing apparatus 1 of this embodiment may take any form such as an electronic musical instrument, a personal computer + application software, a karaoke device, a game device, a portable communication terminal such as a mobile phone, and an automatic performance piano.
[0073]
When applied to a mobile communication terminal, not only when the specified function is completed only with the terminal, but also a part of the function is provided on the server side, and the specified function is realized as the whole system consisting of the terminal and the server You may make it.
[0074]
In the case of an electronic musical instrument, the form is not limited to a keyboard instrument, but may be a stringed instrument type, a percussion instrument type, or the like.
[0075]
Further, the sound source device, the automatic performance device, and the like are not limited to those built in one electronic musical instrument main body, but each device is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0076]
Note that the present embodiment may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the present embodiment is installed.
[0077]
In this case, a computer program or the like corresponding to the present embodiment may be provided to a user in a state of being stored in a computer-readable storage medium such as a CD-ROM or a floppy (registered trademark) disk. Good.
[0078]
When the computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, a computer program or various data may be provided to the computer or the like via the communication network.
[0079]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0080]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a performance data editing apparatus capable of providing a musical expression according to the user's sensitivity to performance data in a short time.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a performance data editing device 1 according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a format of performance data PD according to the embodiment.
FIG. 3 is a conceptual diagram of performance data PD for describing creation and application of reference data according to the embodiment.
FIG. 4 is a conceptual diagram showing a format of reference data RD according to the embodiment.
FIG. 5 is a conceptual diagram for describing a case where reference data of the present embodiment is combined with other facial expression data and applied.
6 is a conceptual diagram showing performance data PD3 obtained by applying the reference data RD1 shown in FIG. 5B to the performance data PD shown in FIG.
FIG. 7 is a flowchart illustrating reference data creation processing according to the present embodiment performed by the CPU 5 of FIG. 1;
FIG. 8 is a flowchart showing performance data reproduction processing according to the present embodiment performed by the CPU 5 of FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Performance data editing apparatus, 2 ... Bus, 3 ... RAM, 4 ... ROM, 5 ... CPU, 6 ... Timer, 7 ... External storage device, 8 ... Detection circuit, 9 ... Panel operator, 10 ... Display circuit, 11 ... Display, 12 ... Sound source circuit, 13 ... Effect circuit, 14 ... Sound system, 16 ... MIDI I / F, 17 ... Communication I / F, 18 ... MIDI equipment, 19 ... Communication network, 20 ... Server computer

Claims (3)

第1の演奏データを記憶する記憶手段と、
前記第1の演奏データを読み出す読み出し手段と、
前記読み出した第1の演奏データの少なくとも一部の区間の発音特性を編集し、編集内容を参考データとして出力する参考データ出力手段と、
前記参考データ出力手段が出力する参考データを前記読み出した第1の演奏データの他の区間に適用して第2の演奏データを生成する参考データ適用手段と、
前記第2の演奏データを再生する再生手段と
を有する演奏データ編集装置。
Storage means for storing first performance data;
Reading means for reading the first performance data;
Reference data output means for editing the pronunciation characteristics of at least a part of the read first performance data, and outputting the edited content as reference data;
Reference data application means for applying the reference data output by the reference data output means to another section of the read first performance data to generate second performance data;
A performance data editing device having reproduction means for reproducing the second performance data.
さらに、発音特性を変更するためのオフセットデータを自動で生成し、変更データとして出力する変更データ生成手段と、
前記参考データと前記変更データを合成する合成手段とを有し、
前記参考データ適用手段は、前記合成された参考データと変更データを前記読み出した第1の演奏データの他の区間に適用して第2の演奏データを生成する請求項1記載の演奏データ編集装置。
Further, a change data generating means for automatically generating offset data for changing the pronunciation characteristics and outputting the data as change data,
A synthesizing unit for synthesizing the reference data and the change data,
2. The performance data editing apparatus according to claim 1, wherein the reference data application unit generates the second performance data by applying the synthesized reference data and the modified data to another section of the read first performance data. .
第1の演奏データを記憶手段から読み出す読み出し手順と、前記読み出した第1の演奏データの少なくとも一部の区間の発音特性を編集し、編集内容を参考データとして出力する参考データ出力手順と、
前記参考データ出力手順が出力する参考データを前記読み出した第1の演奏データの他の区間に適用して第2の演奏データを生成する参考データ適用手順と、
前記第2の演奏データを再生する再生手順と
を有する演奏データ編集処理をコンピュータに実行させるためのプログラム。
A readout procedure for reading out the first performance data from the storage means, a reference data output procedure for editing sounding characteristics of at least a part of the readout first performance data, and outputting the edited content as reference data;
A reference data application step of applying the reference data output by the reference data output step to another section of the read first performance data to generate second performance data;
A program for causing a computer to execute performance data editing processing having a reproduction procedure for reproducing the second performance data.
JP2002279206A 2002-09-25 2002-09-25 Playing data editing apparatus and program Withdrawn JP2004117678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002279206A JP2004117678A (en) 2002-09-25 2002-09-25 Playing data editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002279206A JP2004117678A (en) 2002-09-25 2002-09-25 Playing data editing apparatus and program

Publications (1)

Publication Number Publication Date
JP2004117678A true JP2004117678A (en) 2004-04-15

Family

ID=32274277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002279206A Withdrawn JP2004117678A (en) 2002-09-25 2002-09-25 Playing data editing apparatus and program

Country Status (1)

Country Link
JP (1) JP2004117678A (en)

Similar Documents

Publication Publication Date Title
JP4702160B2 (en) Musical sound synthesizer and program
JP5891656B2 (en) Accompaniment data generation apparatus and program
JP4561636B2 (en) Musical sound synthesizer and program
JP3785934B2 (en) Automatic accompaniment apparatus, method, program and medium
JP3747758B2 (en) Automatic performance device
JP4407473B2 (en) Performance method determining device and program
JP3656584B2 (en) Performance data processing apparatus and program
JP3598904B2 (en) Automatic performance data editing device and medium recording data editing program
JP3654227B2 (en) Music data editing apparatus and program
JP4968120B2 (en) Electronic music device, program
JP2004117678A (en) Playing data editing apparatus and program
JP3680756B2 (en) Music data editing apparatus, method, and program
JP4186802B2 (en) Automatic accompaniment generator and program
JP3379414B2 (en) Punch-in device, punch-in method, and medium recording program
JP3613191B2 (en) Waveform generation method and apparatus
JP5104418B2 (en) Automatic performance device, program
JP4957591B2 (en) Electronic music device, program
JP4003786B2 (en) Automatic accompaniment device
JP2002333883A (en) Musical piece data editing system, method and program
JP3733887B2 (en) Music data editing apparatus and program
JP4162766B2 (en) Performance information generating apparatus and automatic performance apparatus
JP2002278553A (en) Playing information analyzer
JP4063297B2 (en) Accompaniment style data creation device
JP3835307B2 (en) Recording setting device and program
JP5548975B2 (en) Performance data generating apparatus and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110