JP3642028B2 - Performance data processing apparatus and method, and storage medium - Google Patents

Performance data processing apparatus and method, and storage medium Download PDF

Info

Publication number
JP3642028B2
JP3642028B2 JP2001025905A JP2001025905A JP3642028B2 JP 3642028 B2 JP3642028 B2 JP 3642028B2 JP 2001025905 A JP2001025905 A JP 2001025905A JP 2001025905 A JP2001025905 A JP 2001025905A JP 3642028 B2 JP3642028 B2 JP 3642028B2
Authority
JP
Japan
Prior art keywords
performance data
performance
information
pitch
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001025905A
Other languages
Japanese (ja)
Other versions
JP2002229564A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001025905A priority Critical patent/JP3642028B2/en
Publication of JP2002229564A publication Critical patent/JP2002229564A/en
Application granted granted Critical
Publication of JP3642028B2 publication Critical patent/JP3642028B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、演奏データに対し音楽的な表現を新たに付加することのできる演奏データ処理装置および方法並びに記憶媒体に関し、特に弦楽器に特有の奏法に関する表情付けを簡単かつ効率的に行うようにした演奏データ処理装置及び方法並びに記憶媒体に関する。
【0002】
【従来の技術】
最近では、演奏データを基にして楽音を自動演奏する自動演奏装置(つまり、シーケンサー)が知られている。こうした自動演奏装置で用いられる演奏データを一連の音符列の各音高をそれぞれ表す複数の音高情報のみで構成すると、該演奏データを再生することにより行われる楽音の自動演奏は機械的な無表情な演奏が行われることとなり、非常に音楽的に不自然である。そこで、こうした自動演奏をより音楽的に自然な演奏、美しい演奏、生々しい演奏とするためには、楽音に対して様々な音楽的な表現や楽器らしさといった表情付けを行うとよい。そのためには、演奏データに対して様々な音楽的な表現や楽器らしさを表す演奏情報を制御データとして新たに加える必要がある。従来から知られているように、こうした演奏データに対する演奏情報の付加は演奏データ処理装置を用いて行われる。例えば、ギターやベースなどの弦楽器において頻繁に用いられる奏法の1つであるチョーキング奏法による表情付けを楽音に対し新たに行う場合には、自動演奏中にチョーキング奏法を行いたい曲(すなわち、演奏データ)の所望の箇所でユーザ自らが随時にピッチベンドホイールなどの操作子を操作することによってピッチベンド値を変更する、あるいはシーケンスソフト等を利用してチョーキング奏法を行いたい曲(すなわち、演奏データ)の所望の箇所におけるピッチベンド値を予め変更した演奏データを作成するなどによる。
【0003】
【発明が解決しようとする課題】
しかし、上述したようにユーザ自らが曲(すなわち、演奏データ)のどの部分にどのような音楽的な表現の表情付けを行うかを決定し、該決定に従って曲(すなわち、演奏データ)に対し音楽的に不都合のない表情付けを行うためには、ユーザが音楽の知識や楽器の特性などを熟知している必要がある。また、例え音楽の知識や楽器の特性などを熟知しているユーザであったとしても、該ユーザが表情付けを行うためのピッチベンドホイールなどの操作子を操作したことのないユーザであったり、あるいは予めピッチベンド値を変更するために用いられるシーケンスソフト等を利用したことのないユーザであるような場合には、これらを適切に操作して音楽的に不都合のない表情付けを曲(すなわち、演奏データ)の適宜の箇所で行うことは非常に困難であり、また曲全体にわたる表情付けを適宜の箇所で1つ1つ行わなければならなかったので非常に処理効率が悪い、という問題点があった。
【0004】
本発明は上述の点に鑑みてなされたもので、弦楽器に特有の奏法に関する表情付けを演奏データに対して簡単かつ効率的に付加することのできる演奏データ処理装置及び方法並びに記憶媒体を提供しようとするものである。
【0005】
【課題を解決するための手段】
本発明に係る演奏データ処理装置は、一連の音符列の各音高をそれぞれ表す複数の音高情報を少なくとも含む演奏データを供給する演奏データ供給手段と、 調性情報を取得する調性取得手段と、音程情報を取得する音程取得手段と、前記取得した調性情報と音程情報とに応じて、前記供給された演奏データに含まれる複数の音高情報毎に楽音特性の変更有無を判定する特性変更判定手段と、前記特性変更判定手段の判定結果に基づき、前記供給された演奏データに所定の演奏関連情報を付加する情報付加手段とを具える。
【0006】
本発明によると、情報付加手段は、取得した調性情報と音程情報とに応じて、供給された演奏データに少なくとも含まれる一連の音符列の各音高をそれぞれ表す複数の音高情報毎に楽音特性の変更有無を判定し、該判定結果に従って前記供給された演奏データに所定の演奏関連情報を付加する。すなわち、演奏データに対して所定の演奏関連情報を付加するために、演奏データに含まれる複数の音高情報毎に楽音特性の変更有無を判定する。特性変更判定手段は該判定を行うものであり、判定の際には調性取得手段から取得した調性情報と音程取得手段から取得した音程情報とに基づいて判定を行う。情報付加手段は、この特性変更判定手段の判定結果に基づき、供給された演奏データに対して所定の演奏関連情報を付加する。このように、取得した調性情報と音程情報とに基づいて演奏データに含まれる複数の音高情報を順次に評価する処理を行うことによって、演奏データ全体にわたって、取得した調性情報と音程情報とに応じた同一の判定条件に従う音高情報の全てに対して、所定の演奏関連情報を付加する。つまり、ユーザは演奏データ全体にわたる表情付けを適宜の箇所で1つ1つ行うことなく、簡単かつ効率的に演奏データ全体にわたって演奏関連情報を自動的に付加することができるようになる。
【0007】
本発明の好ましい実施例として、前記所定の演奏関連情報は、所定の楽器に特有な奏法を指示する情報であることを特徴とする。このように、演奏データに付加する演奏関連情報が所定の楽器に特有な奏法を指示する情報であるとすると、ユーザは簡単に所定の楽器特有の音楽的な表現を表情付けすることができるようになり便利である。
【0008】
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
【0009】
【発明の実施の形態】
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0010】
図1は、この発明に係る演奏データ処理装置を適用した電子楽器の実施の形態を示すハード構成ブロック図である。
この実施の形態においては、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータの制御の下に各種の処理が実行されるようになっている。この実施の形態では、1個のCPU1によって各種処理を行う電子楽器を例に説明する。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、通信バス1D(例えば、データ及びアドレスバスなど)を介してリードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3、検出回路4、スイッチ検出回路5、表示回路6、音源回路7、DSP(Digital Signal Processorの略)8、外部記憶装置9、MIDIインタフェース(I/F)10および通信インタフェース11がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。すなわち、タイマ1Aは時間間隔を計数したり、演奏データに従う曲を自動演奏する際の演奏テンポを設定したりするためのテンポクロックパルスを発生する。このテンポクロックパルスの周波数は、パネル操作子5Aの中の例えばテンポ設定スイッチ等によって調整される。このようなタイマ1AからのテンポクロックパルスはCPU1に対して処理タイミング命令として与えられたり、あるいはCPU1に対してインタラプト命令として与えられる。CPU1は、これらの命令に従って各種処理を実行する。各種処理には、例えば曲に対してより自然な演奏や生々しい演奏を行うための様々な楽器毎に特有の音楽的な表現(例えば、弦楽器で用いられるチョーキング奏法など)に関する演奏情報を生成し、該演奏情報を演奏データに対して付加する処理等がある。
【0011】
なお、演奏データ処理装置は専用の装置に限られず、例えばパソコンなどの汎用装置あるいはマルチメディア機器等であってもよく、本発明に従う所定のソフトウエア又はハードウエアを用いることによって、演奏データを自動的に分析し、該分析結果に基づいて楽音への表情付けを行うことができるように構成した装置であればどのようなものであってもよい。
【0012】
ROM2は、CPU1により実行あるいは参照される各種プログラムや各種データ等を格納するものである。RAM3は、演奏データに基づいて曲を自動演奏する際に用いる演奏条件等の自動演奏情報やCPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。演奏指示操作子4Aは楽音の音高を選択するための複数の鍵を備えた、例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏指示操作子4Aは楽音演奏のために使用できるのは勿論のこと、自動演奏を行う際に用いるピッチやリズムなどを入力するための入力手段として使用することもできる。勿論、演奏指示操作子4Aは鍵盤等の形態に限らず、楽音の音高を選択するための弦を備えたネック等のような形態のものであってもよいことは言うまでもない。検出回路4は、演奏指示操作子4Aの各鍵の押圧及び離鍵を検出することによって、あるいは弦の振動を検出することによって、検出出力を生じる。
【0013】
パネル操作子(設定スイッチ等)5Aは表情付けする際に用いる演奏データの指定や各種パラメータを設定する、あるいは自動演奏時における各種演奏条件等を入力するための各種の操作子を含んで構成される。勿論、音高、音色、効果等を選択・設定・制御するために用いる数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは操作量に応じたピッチベンド値を設定することのできるピッチベンドホイールなどの各種操作子を含んでいてよい。スイッチ検出回路5は、パネル操作子5Aの各操作子の操作状態を検出し、その操作状態に応じたスイッチ情報を通信バス1Dを介してCPU1に出力する。表示回路6は演奏データに含まれる一連の音符列の各音高をそれぞれ表す複数の音高情報等の各種情報を、例えば液晶表示パネル(LCD)やCRT等から構成される表示機6Aに表示するのは勿論のこと、自動演奏に関する演奏情報あるいはCPU1の制御状態などを表示機6Aに表示する。
【0014】
音源回路7は、複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた演奏データを入力し、この演奏データに基づいて楽音信号を発生する。音源回路7から発生された楽音信号は、DSP8により所定のディジタル信号処理が施され、該信号処理された楽音信号はサウンドシステム8Aに与えられて発音される。演奏データの形式はSMF(Standard MIDI Fileの略)形式のようなディジタル符号化されたものであってもよいし、PCM、DPCM、ADPCMのような波形サンプルデータ方式からなるものであってもよい。また、効果回路(図示せず)を音源回路7とサウンドシステム8Aとの間に配置して前記音源回路7から発生された楽音信号に対して各種効果を与えるようにしてもよい。前記音源回路7における楽音信号発生方式はいかなるものを用いてもよい。例えば、発生すべき楽音の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを求めるFM方式、あるいは上記アドレスデータを位相角パラメータデータとして所定の振幅変調演算を実行して楽音波形サンプル値データを求めるAM方式等の公知の方式を適宜採用してもよい。すなわち、音源回路7の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路7を構成するものに限らず、DSPとマイクロプログラム、あるいはCPUとソフトウェアを用いて音源回路7を構成するようにしてもよい。さらに、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で形成されるようなものであってもよい。
【0015】
外部記憶装置9は、自動演奏時に用いる演奏条件等の各種パラメータ、表情付けの際に演奏情報を付与する対象となる演奏データ、CPU1が実行する各種の制御プログラム等を記憶するものである。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置9(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置9はハードディスク(HD)に限られず、フロッピィーディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Diskの略)等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。
【0016】
MIDIインタフェース(I/F)10は、外部の演奏機器10A等からMIDI規格の楽音情報(例えば、演奏データ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDI規格の楽音情報(例えば、演奏データ)を外部の演奏機器10A等へ出力するためのインタフェースである。外部の演奏機器10Aはユーザによる操作に応じてMIDIデータを発生する機器であればよく、鍵盤型、弦楽器型、管楽器型、打楽器型、ミブリ型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。通信インタフェース11は、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワーク11Bに接続されており、該通信ネットワーク11Bを介して、サーバコンピュータ11Aと接続され、当該サーバコンピュータ11Aから制御プログラムや演奏データ等の各種データを電子楽器側に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置9(例えば、ハードディスク)等に制御プログラムや各種データが記憶されていない場合、または記憶されている制御プログラムや各種データをバージョンアップする場合などに、サーバコンピュータ11Aから制御プログラムや演奏データ等の各種データをダウンロードするために用いられる。クライアントとなる電子楽器は、通信インターフェース11及び通信ネットワーク11Bを介してサーバコンピュータ11Aへと制御プログラムや演奏データ等の各種データのダウンロードを要求するコマンドを送信する。サーバコンピュータ11Aは、このコマンドを受け、要求された制御プログラムや演奏データ等の各種データを、通信ネットワーク11Bを介して本電子楽器へと配信し、本電子楽器が通信インタフェース11を介して、これら制御プログラムや演奏データ等の各種データを受信して外部記憶装置9(例えば、ハードディスク)等に蓄積することにより、ダウンロードが完了する。
【0017】
なお、MIDIインタフェース10は専用のMIDIインタフェースを用いるものに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェース10を構成するようにしてもよい。この場合、MIDI規格の楽音情報以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェース10として上記したような汎用のインタフェースを用いる場合には、外部の演奏機器10AはMIDI規格の楽音情報以外のデータも送受信できるようにしてよい。勿論、音楽情報に関するデータフォーマットはSMF形式などのMIDI規格のデータに限らず、他の規格のデータであってもよく、その場合はMIDIインタフェース10と外部の演奏機器10Aはそれにあった構成とする。
【0018】
演奏データを一連の音符列の各音高情報のみで構成すると機械的な無表情な演奏が再生されることとなり、こうした演奏は音楽的に非常に不自然な演奏である。そこで、より自然な演奏、美しい演奏、生々しい演奏とするためには、様々な楽器毎に特有の音楽的な表現(すなわち、楽器らしさ)を表す演奏情報を制御データとして演奏データに付加する(すなわち、表情付けを行う)のがよいことは上述した通りである。例えば、ギターやベースなどの弦楽器においてはチョーキング奏法が知られており、このチョーキング奏法を普通の奏法に織り交ぜて用いることによって、ギターらしい表情を持った自然な演奏を作り出すことができる。本発明に係る演奏データ処理装置は楽音に弦楽器に特有の音楽的な表現、特に弦楽器におけるチョーキング奏法に関する演奏情報を演奏データに自動的に付加することのできる装置である。そこで、演奏データに対して弦楽器に特有の音楽的な表現を付加する表情付けの処理について、以下に示す図2〜図6の各図に従って説明する。
【0019】
まず、「メイン処理」について図2を用いて説明する。図2は、該電子楽器におけるCPU1で実行する「メイン処理」の一実施例を示したフローチャートである。該「メイン処理」は、電子楽器の電源オンと同時に開始し、電源オフと同時に終了する処理である。
【0020】
ステップS1では、初期化を行う。すなわち、電子楽器への電源投入により所定のプログラムの実行を開始し、RAM3の内容をクリアするとともに各種の初期設定を行う。例えば、RAM3のレジスタやフラグ、テーブル、メモリ等の内容をクリアする、あるいは表示機6Aに初期画面を表示するなどの各種設定を行う。ステップS2では、「パネル処理」を行う。この「パネル処理」では、外部記憶装置9から読み出した演奏データ若しくは外部の演奏機器10Aから送信された演奏データに対して弦楽器で用いられるチョーキング奏法を含む各種の音楽的表現に関する演奏情報を付加する表情付けのための処理、あるいは演奏データを再生することによって楽音を発生する自動演奏のための処理、更には該電子楽器で実行するその他の処理などの各種処理を、パネル操作子5Aから入力された設定指示に応じて実行する(詳しくは、後述する図3で説明する)。ステップS3では、「演奏信号の生成処理」を行う。この「演奏信号の生成処理」では、外部記憶装置9から読み出した演奏データあるいは外部の演奏機器10Aから送信された演奏データ(既にチョーキング奏法等の音楽的表現に関する演奏情報が付加された演奏データを含む)に基づいて自動演奏を行う際に、ユーザ設定に応じて各種の音楽的表現に関する演奏情報を演奏順に従って付加する「リアルタイム処理」を実行する(詳しくは、後述する図4で説明する)。ステップS4では、発音処理を行う。すなわち、自動演奏処理の開始がユーザにより設定指示されている場合には、チョーキング奏法等の音楽的表現に関する演奏情報が付加された(あるいは付加されていない)演奏データを基に楽音信号を生成し、該楽音信号をDSP8で増幅するなどの各種信号処理を行ってサウンドシステム8Aから表情付けが行われた状態で(あるいは表情付けが行われていない状態のままで)楽音を発音する。
【0021】
次に、上述した「メイン処理」において実行する「パネル処理」(図2のステップS2参照)について、図3を用いて説明する。図3は、「パネル処理」の一実施例を示したフローチャートである。以下、図3のフローチャートに従って、当該処理における処理動作を説明する。
【0022】
ステップS11では、パネル入力がなされたか否かを判定する。すなわち、ユーザがパネル操作子5Aを操作して、表情付けのための処理や自動演奏のための処理あるいはその他の処理等、なんらかの処理を実行するための設定指示操作を行ったか否かを判定する。パネル入力がなされていない場合には(ステップS11のNO)、当該「パネル処理」を終了する。この場合には、以下に示す各種設定処理を行うことなく該「パネル処理」を終了する。一方、パネル入力がなされている場合には(ステップS11のYES)、以下に示すステップS12〜ステップS32までの各処理を実行する。すなわち、パネル操作子5Aからなんらかの処理を実行するための設定指示操作が行われた場合にのみ、該「パネル処理」は実行される。
【0023】
ステップS12では、表情付け処理の設定指示であるか否かの判定を行う。すなわち、パネル操作子5Aから設定指示操作が行われた場合に、該設定指示操作により表情付けのための処理を行う設定指示が行われたか否かを判定する。該設定指示操作が表情付け処理の設定指示である場合には(ステップS12のYES)、ユーザ選択の受付を行う(ステップS13)。このユーザ選択には、例えば「リアルタイム処理」や「自動処理」の選択、あるいは表情付けの対象とする演奏データの選択などが含まれる。そして、該ユーザ選択が「リアルタイム処理」の設定指示であるか否かの判定を行う(ステップS14)。「リアルタイム処理」の設定指示でない場合には(ステップS14のNO)、表情付けを行う対象の演奏データを表示機6Aに表示する(ステップS15)。ステップS16では、ユーザ選択が「自動処理」の設定指示であるか否かを判定する。「自動処理」が選択されている場合には(ステップS16のYES)、「演奏データの加工処理」(詳しくは、後述する図5で説明する)を行う(ステップS19)。すなわち、ユーザが設定指示した処理が「リアルタイム処理」でない場合には、既に外部記憶媒体9に記憶された演奏データあるいは外部の演奏機器10Aから送信された演奏データに対して新たに音楽的な表現に関する演奏情報を付加する処理を行うが、「自動処理」が設定指示されている場合には演奏データに含まれる一連の各音高情報を自動的に分析し、該分析に基づいて特定の音高の音に対してのみチョーキング奏法に関する演奏情報を一括して演奏データに付加する処理を行う。
【0024】
他方、「リアルタイム処理」及び「自動処理」の両方ともが設定指示されていない場合には(ステップS14及びステップS16が共にNOである場合)、演奏データに対して音楽的な表現に関する演奏情報をユーザ自身が直接指定することによって演奏データに付加する処理を行う(ステップS17)。すなわち、この場合に行われる表情付けはチョーキング奏法に関する演奏情報の付加のみに限られず、ユーザの指定に従ってチョーキング奏法以外のその他の音楽的な表現に関する演奏情報をも演奏データに適宜に付加することができる。このように、設定指示操作が表情付け処理の設定指示である場合には(ステップS12のYES)、該設定指示操作に応じて「リアルタイム処理」(ステップS14)、「自動処理」(ステップS16)、「ユーザ指定による表情付け」(ステップS17)のいずれかの処理を実行する。
【0025】
ステップS14において、「リアルタイム処理」が選択されている場合には(ステップS14のYES)、「リアルタイム処理」で行う表情付けに関する種々の設定を行う(ステップS18)。すなわち、この場合には、ユーザの選択が「リアルタイム処理」(この実施例では、演奏データを外部記憶媒体9から読み込んで自動演奏する際に表情付けをあわせて行う処理、あるいは外部の演奏機器10Aから送信されてきた演奏データを自動演奏する際に表情付けをあわせて行う処理)であれば、ユーザ所望の音楽的な表現を付した自動演奏を行うように、演奏データを自動演奏するのにあわせて付加する音楽的な表現に関する各種の設定条件などを設定する。この「リアルタイム処理」で行う表情付けはチョーキング奏法に関する演奏情報の付加のみに限られず、ユーザの指定に従ってチョーキング奏法以外のその他の音楽的な表現に関する演奏情報をも演奏データに適宜に付加することができる。
【0026】
ステップS12の処理に戻って、ユーザによる設定指示操作が表情付け処理の設定指示でない場合には(ステップS12のNO)、該設定指示操作が自動演奏処理の設定指示であるか否かを判定する(ステップS20)。自動演奏処理の設定指示でない場合には(ステップS20のNO)、表情付け処理あるいは自動演奏処理以外の処理を設定指示に従って実行する(ステップS32)。自動演奏処理の設定指示である場合には(ステップS20のYES)、外部入力の設定があるか否かを判定する(ステップS21)。外部入力の設定がある場合には(ステップS21のYES)、ユーザ選択の受付を行い(ステップS26)、外部の演奏機器10Aの設定情報を該電子楽器の設定情報として設定する(ステップS27)。すなわち、外部の演奏機器10Aから送信された演奏データに基づいて自動演奏を行う設定であるか否かを判定し、そうであれば外部の演奏機器10Aの設定情報の入力を受け付けて電子楽器側の設定情報として用いるように設定する。外部入力の設定がない場合には(ステップS21のNO)、演奏曲の設定があるか否かを判定する(ステップS22)。演奏曲の設定がある場合には(ステップS22のYES)、ユーザの選択を受け付け(ステップS28)、演奏データを読み出し設定する(ステップS29)。すなわち、外部記憶装置9に記憶されている演奏データをユーザ選択に従って読み出す。演奏曲の設定がない場合には(ステップS22のNO)、再生指示があるか否かを判定する(ステップS23)。
【0027】
再生指示がある場合には(ステップS23のYES)、演奏データの再生を開始する(ステップS30)。すなわち、ユーザが再生指示を行った場合には、ユーザが選択した演奏データを再生して楽音の演奏を開始する。再生指示がない場合には(ステップS23のNO)、停止指示があるか否かを判定する(ステップS24)。停止指示がある場合には(ステップS24のYES)、演奏データの再生を停止する(ステップS31)。すなわち、自動演奏中にユーザによって停止指示があった場合には、現在自動演奏中である楽音の演奏を停止する。停止指示がない場合には(ステップS24のNO)、その他の指示に従う処理を実行する(ステップS25)。この「その他の指示に従う処理」には、例えば楽音に対する効果の付与指示に従う効果付与処理などの処理がある。以上のように、設定指示操作が自動演奏処理の設定指示である場合には(ステップS20のYES)、該設定指示操作に応じた処理(ステップS21〜ステップS25)のいずれかの処理を実行する。
【0028】
次に、上述の「メイン処理」において実行する「演奏信号の生成処理」(図2のステップS3参照)について、図4を用いて説明する。図4は、「演奏信号の生成処理」の一実施例を示したフローチャートである。以下、図4のフローチャートに従って、当該処理における処理動作を説明する。
【0029】
ステップS41では、自動演奏が再生中であるか否かを判定する。自動演奏が再生中である場合には(ステップS41のYES)、自動演奏処理対象の演奏データを先読みする(ステップS42)。すなわち、自動演奏処理対象の演奏データを外部記憶媒体9から先読み処理して読み出しておく。そして、リアルタイムの表情付け処理(つまり、「リアルタイム処理」)が設定指示されているか否かを判定する(ステップS43)。「リアルタイム処理」が設定指示されている場合には(ステップS43のYES)、先読みした演奏データが表情付けを行う対象部分に相当するか否かを判定する(ステップS44)。つまり、先読みした演奏データの範囲内に、表情付けする対象があるか否かを判定する。対象がある場合には(ステップS44のYES)、演奏データの特性を設定条件に従って変更する(ステップS45)。すなわち、表情付けする。これにより、「リアルタイム処理」の設定指示がなされていない場合には読み出した演奏データに基づいてそのまま自動演奏を行うが、「リアルタイム処理」の設定指示がなされている場合には先読みした演奏データの範囲内で表情付けを行う対象があるか否かを判定し、対象があれば表情付けが行われ、この表情付けを行った後の演奏データに基づいて自動演奏が行われる。このように、自動演奏の再生中に「リアルタイム処理」を行う場合には、演奏データの先読みによってある程度の長さの演奏データを自動演奏を行う前に分析し、表情付けを行う対象を含む演奏データであると分析したら、その演奏データに対してユーザの設定に応じた表情付けを行うよう演奏データに対して演奏情報を付加あるいは変更する。
【0030】
ステップS46では、外部の演奏機器10Aから送信された演奏データに基づく自動演奏を行う設定指示であるか否かを判定する。外部からの演奏データに基づく自動演奏の設定指示である場合(ステップS46のYES)、送信されてきた演奏データを短時間維持する(ステップS47)。すなわち、外部の演奏機器10Aから送られてくる演奏データを自動演奏する際に、送信されてきた演奏データを一時的に保持する。ステップS48では、「リアルタイム処理」が設定指示されているか否かを判定する。「リアルタイム処理」が設定指示されている場合には(ステップS48のYES)、送信されてきた演奏データが表情付けを行う対象部分に相当するか否かを判定する(ステップS49)。つまり、短時間維持した演奏データの範囲内に、表情付けする対象があるか否かを判定する。対象がある場合には(ステップS49のYES)、演奏データの特性を設定条件に従って変更する(ステップS50)。すなわち、表情付けする。これにより、「リアルタイム処理」の設定指示がなされていない場合には外部の演奏機器10Aから送られた演奏データに基づいてそのまま自動演奏を行うが、「リアルタイム処理」の設定指示がなされている場合には短時間維持した演奏データの範囲内で表情付けを行う対象があるか否かを判定し、対象があれば表情付けが行われ、この表情付けを行った後の演奏データに基づいて自動演奏が行われる。このように、外部の演奏機器10Aから送られた演奏データに基づく自動演奏の再生中に「リアルタイム処理」を行う場合には、自動演奏を行う前に外部の演奏機器10Aから送信された演奏データを一時的に保持して分析し、表情付けを行う対象を含む演奏データであると分析したら、その演奏データに対してユーザの設定に応じた表情付けを行うよう演奏データに対して演奏情報を付加あるいは変更する。
【0031】
次に、上述した「パネル処理」において実行する「演奏データの加工処理」(図3のステップS19参照)について、図5を用いて説明する。図5は、「演奏データの加工処理」の一実施例を示したフローチャートである。以下、図5のフローチャートに従って、当該処理における処理動作を説明する。ただし、この実施例においては、クォーターチョーキング奏法に関する演奏情報を自動的に演奏データに付加する例を用いて説明する。なお、クォーターチョーキング奏法は、元の音高よりも1音の1/4程度ピッチを上昇(つまり、チョーク・アップ)させる奏法のことである。
【0032】
ステップS51では、調性情報の設定を受け付ける。すなわち、ユーザが直接調性(例えば、DマイナーやFメジャーなど)を入力することによって調性を決定するユーザ設定、あるいは演奏データを分析することによって自動的に調性を決定する自動設定のいずれの設定を行うかの選択を受け付ける。ステップS52では、上記調性情報の設定の受け付けにおいてユーザ設定が選択されたか否かを判定する。ユーザ設定が選択されていない場合には(ステップS52のNO)、指定された演奏データを分析して調性を決定する(ステップS58)。一方、ユーザ設定が選択された場合には(ステップS52のYES)、ユーザが直接入力した調性に調性を決定する(ステップS53)。ステップS54では、該決定した調性に従ってデータの加工対象を決定する。一般的にクォーターチョーキング奏法を行う場合にクォーターチョーキングをかける対象は、主音に対して短3度の音高の音と短7度の音高の音である。そこで、決定した調性の主音に対して短3度の音高又は短7度の音高である音を決定する。例えば、Dマイナー(ニ短調)の曲の場合においてクォーターチョーキングをかける対象は、主音の「D」に対して短3度の音高の「F」音と短7度の音高の「C」音とに決定される。
【0033】
上記したユーザの入力による調性の決定(ステップS53参照)には、長調か短調かをユーザが選択する処理を含む。例えば、外部記憶媒体9に記憶された一般のユーザが作成した演奏データを利用するような場合、該演奏データは必ずしも調性情報が正確に記憶されているデータとは限らない。特に、長調か短調かが正確に入力されて記憶されているデータであるか否かは定かではない。例えば、後述する図7に示す譜例はDマイナー(ニ短調)の曲であるが、「♭」1つという調号が調性情報として入力されていたとしても、長調か短調かを調性情報として入力していないような場合にはFメジャー(ヘ長調)という情報が調性情報としてデータに保持されている可能性が高い。そうした場合、主音は「D」ではなく「F」となる。その状態でクォーターチョーキング奏法に関する演奏情報を付加するために、演奏データへの「加工処理」(後述するステップS56及び図6参照)を実行すると、本来主音「D」に対して短3度の音高の「F」音と短7度の音高の「C」音に対してクォーターチョーキング奏法に関する演奏情報を付加するところ、減5度と短2度の音高情報にクォーターチョーキング奏法に関する演奏情報が付加され、不自然な結果となる。そこで、演奏データには正確な調号が保持されているものとした場合、長調か短調かのみをユーザに選択的に入力させるようにするとよい。この場合には、ステップS52とステップS53の処理の間に「長調か短調か」をユーザに選択させる処理を追加する。そして、調性の決定(ステップS53参照)において、演奏データに保持されている調号及びユーザが入力した長調か短調かの情報に応じて、主音を決定する。例えば、演奏データに調性情報としてFメジャー(ヘ長調)、調号に「♭」1つが保持されている場合に、ユーザ入力で長調と指定されていれば、「♭」1つの長調は「ヘ長調」であるから主音を「F」と決定する。一方、ユーザ入力で短調と指定されていれば、「♭」1つの短調は「ニ単調」であるから、調性情報としてFメジャー(ヘ長調)が保持されているにもかかわらず、主音を「D」と決定する。
【0034】
なお、ユーザに長調か短調かを指定させることによって主音を決定することに限らず、演奏データ全体を通じて最も出現頻度の高い音高を主音と決定するなどしてもよい。
また、上述の実施例においては、主音に対して短3度の音高の音と短7度の音高の音にデータの加工対象を限定したが、データの加工対象はこれらに限られるものではない(上述のステップS54参照)。例えば、音階における所望の音程を示す音程情報を指示入力によって取得するようにし、該取得した音程情報に従ってデータの加工対象を決定するようにしてもよい。例えば、音程情報として「2度」「短2度」あるいは「増5度」などのように指示入力された場合には、主音に対してそれぞれ「2度」「短2度」あるいは「増5度」の音高の音がデータの加工対象として決定されることになる。
【0035】
図5に戻り、ステップS55では、音符の順次評価を行う。すなわち、演奏データに含まれる一連の音符列の各音高情報が、ステップS54で決定されたデータの加工対象であるか否かを判定し、対象の音を加工対象として抽出する。ステップS56では、抽出した加工対象を加工処理する。すなわち、クォーターチョーキング奏法に関する演奏情報を、抽出した音に対して順次に付加する。つまり、抽出した音のピッチベンド値を変更する。この変更するピッチベンド値については、後述する。ステップS57では、加工したデータを新たに記憶する。例えば、クォーターチョーキングをかける前の演奏データとは別に、あるいはクォーターチョーキングをかける前の演奏データに上書きするようにして、該演奏データを元の演奏データを読み出した先の外部記憶媒体9等に記憶する。
【0036】
ここで、上述した「演奏データの加工処理」で行う「加工処理」(図5のステップS56参照)について、図6を用いて説明する。図6は、「加工処理」の一実施例を示したフローチャートである。以下、図6のフローチャートに従って、当該処理における処理動作を説明する。
ステップS61では、ピッチベンド値の変化設定を行う。例えば、ピッチベンド値の変化設定としては、次に示す式1−1により算出される変化量が設定される。
(30+40×RND)セント・・・式1−1
上記式1−1に示したRNDは変数であって、0〜1までの値をランダムに発生する。一般的に、クォーターチョーキング奏法は元の音の音高よりも1/4半音(つまり、50セント)ピッチを上昇させる奏法であるが、正確にピッチを50セント上昇させるということでもなく、ピッチの上昇が40セントに満たない場合もあれば70セントを超える場合もある。そこで、この実施例においては、ピッチの変化範囲として、50±20セント程度の範囲でランダムにピッチの変化量を算出する。
ステップS62では、加工処理の対象データに対して算出されたピッチベンド値を演奏情報として付加する。ステップS63では加工対象が終了したか否かを判定し、加工対象全てが終了した場合には(ステップS63のYES)当該処理を終了し、加工対象全てが終了していない場合には(ステップS63のNO)ステップS61に戻って上記各処理を繰り返し実行する。このように、算出されたピッチベンド値を加工処理の対象データに対応するように、演奏データに対して演奏情報として順次に付加することによって表情付けが行われる。
【0037】
ここで、「演奏データの加工処理」(図5参照)における表情付けについて具体例を用いて説明する。図7は、演奏データにクォーターチョーキング奏法に関する演奏情報を自動的に付加する場合について、具体的に説明するための概念図である。この実施例では、Dマイナー(ニ短調)の曲に対してクォーターチョーキング奏法の表情付けを行う際の動作例を示した。図7(A)は、演奏データの一部区間の音符列を楽譜上に示した図である。この図7(A)の楽譜上部に示した1〜6までの数字は説明のために各音符に便宜的に付した数字であり、楽譜下部に示したアルファベットは各音符の音名である。図7(B)は、各音符毎のノートを概念的に示す概念図である。この図7(B)では、垂直方向で各音符間の相対的な音の高さの違いを示し、水平方向で各音符毎の音の長さを示した。図7(C)は、各音符毎のピッチベンド変化を概念的に示す概念図である。
【0038】
まず、該演奏データの調性を決定する。この実施例ではユーザ設定として「Dマイナー」を入力することによって(ステップS53参照)、あるいは演奏データを分析することによって(ステップS58参照)、該演奏データの調性を「Dマイナー」と決定する。決定された調性に従う主音は「D」であることから、データの加工対象、すなわちクォーターチョーキングをかける対象は「F」音又は「C」音の音高を持つ音符に決定する(ステップS54参照)。そこで、この演奏データの各音符を順次評価すると(ステップS55参照)、図7(A)から理解できるように、音高が「F」音又は「C」音であるのは音符3と音符4の2つの音符である。そこで、この音符3と音符4がクォーターチョーキングをかける対象として抽出されて、音符3と音符4のピッチベンド値が加工処理されて記録される(ステップS56及びステップS57参照)。こうすると、図7(B)に示すようにノートは変化することがなく、図7(C)に示すように音符3と音符4に対応するピッチベンドのみが所定量(つまり、図6に示した「加工処理」で算出される変化量(ステップS61参照))分だけ上昇変化した状態が得られる(その他の音符1、音符2、音符5、音符6に対応するピッチベンドは一定値の状態を保ったままである)。このようにすることによって、クォーターチョーキング奏法を付した状態での演奏データを得ることができるようになっている。
【0039】
楽音に対して単にランダムに半音からピッチをずらした音を混ぜると、単に音程がおかしな楽器のようにしか聞こえないことになるが、上述したように、主音に対して短3度や短7度の音に限って半音単位ではないピッチの音を自動的に混ぜることによって(ただし、クォーターチョーキング奏法の場合)、自然楽器のギターのような弦楽器における生々しい演奏を再現することができるようになる。また、一括して主音に対して短3度や短7度の音に限って半音単位ではないピッチの音を自動的に混ぜることから、ユーザはそうして得られた演奏データに対して任意に新たな演奏情報を付加することで、より自然な演奏を行う演奏データを効率的に得ることができるようになる。
なお、演奏データに対する音楽的な表現に関する演奏情報の付加は上述したようなチョーキング奏法に関する演奏情報に限られず、チョーキング奏法以外の他の奏法(例えば、チョップなど)に関する演奏情報など、どのような音楽的表現に関する演奏情報をも付加することができるようにしてよいことは言うまでもない。
【0040】
なお、この演奏データ処理装置を電子楽器に適用する場合、電子楽器は鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、音源装置、演奏データ処理装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものにも同様に適用できることはいうまでもない。また、パソコンとアプリケーションソフトウェアという構成であってもよく、この場合処理プログラムを磁気ディスク、光ディスクあるいは半導体メモリ等の記憶メディアから供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ装置や自動演奏ピアノのような自動演奏装置、ゲーム装置、携帯電話等の携帯型通信端末などに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0041】
なお、チョーキング奏法に関する演奏情報等の付与対象とする演奏データのフォーマットは、イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で演奏データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域にイベントを記憶した『ベタ方式』形式のものなど、どのような形式のものでもよい。また生成した演奏データの自動演奏時における処理方法は、設定されたテンポに応じて処理周期を変更する方法、処理周期は一定で1回の処理において演奏データ中のタイミングデータの計数の仕方をテンポに応じて変更する方法等、どのようなものであってもよい。また、複数チャンネル分の演奏データが存在する場合は、複数のチャンネルのデータが混在した形式であってもよいし、各チャンネルのデータがトラック毎に別れているような形式であってもよい。
【0042】
【発明の効果】
本発明によれば、演奏データに含まれる一連の音符列のうち、調性情報に従う所定の音高情報を持つ音符に対してのみ新たに所定の楽器に特有の音楽的な表現(例えば、チョーキング奏法)に関する演奏情報を自動的に付加するようにしたことから、初心者であっても楽器毎に特有な音楽的な表現を楽音に施す演奏情報を演奏データに付与すること、すなわち表情付けを簡単かつ効率的に実施できるようになる、という効果が得られる。
【図面の簡単な説明】
【図1】 この発明に係る演奏データ処理装置を適用した電子楽器の実施の形態を示すハード構成ブロック図である。
【図2】 該演奏データ処理装置におけるCPU1で実行する「メイン処理」の一実施例を示したフローチャートである。
【図3】 「パネル処理」の一実施例を示したフローチャートである。
【図4】 「演奏信号の生成処理」の一実施例を示したフローチャートである。
【図5】 「演奏データの加工処理」の一実施例を示したフローチャートである。
【図6】 「加工処理」の一実施例を示したフローチャートである。
【図7】 演奏データにクォーターチョーキング奏法に関する演奏情報を自動的に付加する場合について、具体的に説明するための概念図である。図7(A)は演奏データの一部区間の音符列を楽譜上に示した図であり、図7(B)は各音符毎のノートを概念的に示す概念図であり、図7(C)は各音符毎のピッチベンド変化を概念的に示す概念図である。
【符号の説明】
1…CPU、1A…タイマ、2…ROM、3…RAM、4…検出回路、4A…演奏操作子(鍵盤等)、5…スイッチ検出回路、5A…パネル操作子(スイッチ等)、6…表示回路、6A…ディスプレイ、7…音源回路、8…効果回路、8A…サウンドシステム、9…外部記憶装置、10…MIDIインタフェース、10A…他のMIDI機器、11…通信インタフェース、11A…サーバコンピュータ、11B…通信ネットワーク、1D…通信バス
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance data processing apparatus and method and a storage medium capable of newly adding musical expressions to performance data, and more particularly, to easily and efficiently perform expression relating to performance methods peculiar to stringed instruments. The present invention relates to a performance data processing apparatus and method, and a storage medium.
[0002]
[Prior art]
Recently, an automatic performance apparatus (that is, a sequencer) that automatically performs musical sounds based on performance data is known. If the performance data used in such an automatic performance device is composed of only a plurality of pitch information representing each pitch of a series of note strings, the automatic performance of musical sounds performed by reproducing the performance data is not mechanical. A performance with a facial expression will be performed, which is very musically unnatural. Therefore, in order to make such automatic performances more musically natural, beautiful, and lively, it is better to add various musical expressions and musical instrument-like expressions to the musical sounds. For this purpose, it is necessary to newly add performance information representing various musical expressions and musical instrument characteristics to the performance data as control data. As conventionally known, performance information is added to performance data using a performance data processing device. For example, when a musical expression is newly added to a musical sound using a choking technique, which is one of the playing techniques frequently used in stringed instruments such as guitars and basses, a song (ie, performance data) that is desired to be choked during an automatic performance. ) The user wants to change the pitch bend value by manipulating an operator such as a pitch bend wheel at any desired position or to perform choking using sequence software or the like (ie, performance data) For example, performance data in which the pitch bend value at the location is changed in advance is created.
[0003]
[Problems to be solved by the invention]
However, as described above, the user himself / herself decides what part of the song (ie, performance data) to express what kind of musical expression, and according to the decision, the music for the song (ie, the performance data) is determined. In order to perform expression without any inconvenience, the user needs to be familiar with music knowledge and instrument characteristics. In addition, even if the user is familiar with music knowledge and instrument characteristics, the user has never operated an operator such as a pitch bend wheel for performing facial expression, or If the user has never used sequence software or the like that is used to change the pitch bend value in advance, the user can appropriately manipulate these to create a musical expression that is not inconvenient musically (ie, performance data). ) Is very difficult to perform at appropriate places, and there is a problem that the processing efficiency is very poor because expression of the entire song has to be performed one by one at appropriate places. .
[0004]
The present invention has been made in view of the above points, and it is intended to provide a performance data processing apparatus and method, and a storage medium, which can easily and efficiently add facial expression relating to a performance method peculiar to stringed instruments to performance data. It is what.
[0005]
[Means for Solving the Problems]
A performance data processing apparatus according to the present invention comprises performance data supply means for supplying performance data including at least a plurality of pitch information representing each pitch of a series of note strings, and a tonality acquisition means for acquiring tonality information And a pitch acquisition means for acquiring pitch information, and determining whether or not the musical tone characteristics are changed for each of a plurality of pitch information included in the supplied performance data according to the acquired tonality information and pitch information. Characteristic change determining means, and information adding means for adding predetermined performance related information to the supplied performance data based on the determination result of the characteristic change determining means.
[0006]
According to the present invention, the information adding means for each of a plurality of pitch information respectively representing each pitch of a series of note strings included in the supplied performance data according to the acquired tonality information and pitch information. It is determined whether or not the musical sound characteristic has been changed, and predetermined performance-related information is added to the supplied performance data according to the determination result. That is, in order to add predetermined performance-related information to the performance data, it is determined whether or not the musical tone characteristic is changed for each of a plurality of pitch information included in the performance data. The characteristic change determination unit performs the determination, and performs determination based on the tonality information acquired from the tonality acquisition unit and the pitch information acquired from the pitch acquisition unit. The information adding means adds predetermined performance related information to the supplied performance data based on the determination result of the characteristic change determination means. Thus, the tonality information and the pitch information acquired over the entire performance data by performing a process of sequentially evaluating a plurality of pitch information included in the performance data based on the acquired tonality information and the pitch information. Predetermined performance-related information is added to all the pitch information that conforms to the same determination condition according to. That is, the user can automatically and efficiently add performance-related information over the entire performance data without performing expression on the entire performance data one by one at appropriate locations.
[0007]
As a preferred embodiment of the present invention, the predetermined performance-related information is information indicating a performance method peculiar to a predetermined instrument. As described above, if the performance related information added to the performance data is information indicating a performance method specific to a predetermined musical instrument, the user can easily express a musical expression specific to the predetermined musical instrument. It is convenient.
[0008]
The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[0010]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an electronic musical instrument to which a performance data processing apparatus according to the present invention is applied.
In this embodiment, various processes are executed under the control of a microcomputer comprising a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. Yes. In this embodiment, an electronic musical instrument that performs various processes by one CPU 1 will be described as an example. The CPU 1 controls the operation of the entire electronic musical instrument. A read-only memory (ROM) 2, a random access memory (RAM) 3, a detection circuit 4, a switch detection circuit 5, a display circuit 6, via a communication bus 1D (for example, a data and address bus) A tone generator circuit 7, a DSP (abbreviation of digital signal processor) 8, an external storage device 9, a MIDI interface (I / F) 10, and a communication interface 11 are connected to each other. Further, the CPU 1 is connected to a timer 1A for measuring the interrupt time and various times in the timer interrupt process (interrupt process). That is, the timer 1A generates a tempo clock pulse for counting time intervals and setting a performance tempo when automatically performing a song according to performance data. The frequency of the tempo clock pulse is adjusted by, for example, a tempo setting switch in the panel operation element 5A. Such a tempo clock pulse from the timer 1A is given to the CPU 1 as a processing timing command or to the CPU 1 as an interrupt command. The CPU 1 executes various processes according to these instructions. For various processes, for example, performance information relating to musical expressions peculiar to various musical instruments (for example, choking technique used in stringed instruments) for generating a more natural performance or a live performance with respect to a song is generated. And processing for adding the performance information to the performance data.
[0011]
The performance data processing device is not limited to a dedicated device, and may be a general-purpose device such as a personal computer or a multimedia device. For example, performance data is automatically converted by using predetermined software or hardware according to the present invention. Any device may be used as long as the device is configured to be able to perform analysis and apply a facial expression to a musical sound based on the analysis result.
[0012]
The ROM 2 stores various programs executed by or referred to by the CPU 1, various data, and the like. The RAM 3 is a working memory that temporarily stores automatic performance information such as performance conditions used when automatically playing a song based on performance data, various data generated when the CPU 1 executes a predetermined program, or the like. It is used as a memory for storing a program currently being executed and data related thereto. A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like. The performance instruction operator 4A has a plurality of keys for selecting the pitch of a musical tone, such as a keyboard, and has a key switch corresponding to each key. The child 4A can be used not only for musical tone performance but also as input means for inputting a pitch, a rhythm, etc. used for automatic performance. Needless to say, the performance instruction operator 4A is not limited to a keyboard or the like, but may be a neck or the like having a string for selecting the pitch of a musical tone. The detection circuit 4 generates a detection output by detecting the press and release of each key of the performance instruction operator 4A or by detecting the vibration of the string.
[0013]
The panel operator (setting switch, etc.) 5A is configured to include various operators for specifying performance data to be used for expression, setting various parameters, or inputting various performance conditions during automatic performance. The Of course, the numeric keypad for numeric data input and the keyboard for character data input used to select, set and control the pitch, timbre, effect, etc., or the pitch bend wheel that can set the pitch bend value according to the operation amount, etc. The various controls may be included. The switch detection circuit 5 detects the operation state of each operation element of the panel operation element 5A, and outputs switch information corresponding to the operation state to the CPU 1 via the communication bus 1D. The display circuit 6 displays various information such as a plurality of pitch information representing each pitch of a series of note strings included in the performance data on a display 6A composed of, for example, a liquid crystal display panel (LCD) or a CRT. Needless to say, performance information relating to automatic performance or the control state of the CPU 1 is displayed on the display 6A.
[0014]
The tone generator circuit 7 can simultaneously generate musical tone signals on a plurality of channels, inputs performance data provided via the communication bus 1D, and generates musical tone signals based on the performance data. The musical tone signal generated from the tone generator circuit 7 is subjected to predetermined digital signal processing by the DSP 8, and the musical tone signal subjected to the signal processing is given to the sound system 8A to be sounded. The performance data format may be digitally encoded such as SMF (Standard MIDI File), or may be a waveform sample data system such as PCM, DPCM, ADPCM. . Further, an effect circuit (not shown) may be arranged between the tone generator circuit 7 and the sound system 8A to give various effects to the musical sound signal generated from the tone generator circuit 7. Any tone signal generation method in the tone generator circuit 7 may be used. For example, a waveform memory reading method for sequentially reading out musical tone waveform sample value data stored in a waveform memory in accordance with address data that changes in response to the pitch of a musical tone to be generated, or a predetermined angle as phase angle parameter data. A known method such as an FM method for obtaining musical tone waveform sample value data by executing frequency modulation computation or an AM method for obtaining musical tone waveform sample value data by executing predetermined amplitude modulation computation using the address data as phase angle parameter data. May be adopted as appropriate. That is, the sound source circuit 7 may be of any method such as a waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO + VCF + VCA analog synthesizer method, analog simulation method, or the like. The tone generator circuit 7 may be configured using a DSP and a microprogram, or a CPU and software, without being limited to the one configured with the dedicated hardware. Further, a plurality of sound generation channels may be formed by using one circuit in a time division manner, or one sound generation channel may be formed by one circuit.
[0015]
The external storage device 9 stores various parameters such as performance conditions used at the time of automatic performance, performance data to which performance information is added at the time of facial expression, various control programs executed by the CPU 1, and the like. When the control program is not stored in the ROM 2, the control program is stored in the external storage device 9 (for example, a hard disk), and read into the RAM 3 to store the control program in the ROM 2. A similar operation can be performed by the CPU 1. In this way, control programs can be easily added and upgraded. The external storage device 9 is not limited to a hard disk (HD), but a floppy disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), a DVD (abbreviation of Digital Versatile Disk), or the like. The storage device may use various types of external recording media that are detachable. Alternatively, a semiconductor memory or the like may be used.
[0016]
The MIDI interface (I / F) 10 inputs musical tone information (for example, performance data) of MIDI standard from the external musical instrument 10A or the like to the electronic musical instrument, or from the electronic musical instrument to musical information of MIDI standard (for example, musical performance data). This is an interface for outputting performance data to an external performance device 10A or the like. The external performance device 10A may be any device that generates MIDI data in response to an operation by a user, and includes any type of operation device such as a keyboard type, a stringed instrument type, a wind instrument type, a percussion instrument type, and a mibli type (or the like). The device may be an operation form). The communication interface 11 is connected to, for example, a wired or wireless communication network 11B such as a LAN, the Internet, or a telephone line, and is connected to the server computer 11A via the communication network 11B. This is an interface for loading various data such as performance data into the electronic musical instrument. That is, control is performed from the server computer 11A when the control program and various data are not stored in the ROM 2, the external storage device 9 (for example, hard disk) or when the stored control program and various data are upgraded. It is used to download various data such as programs and performance data. The electronic musical instrument serving as a client transmits a command requesting download of various data such as a control program and performance data to the server computer 11A via the communication interface 11 and the communication network 11B. Upon receiving this command, the server computer 11A distributes various data such as the requested control program and performance data to the electronic musical instrument via the communication network 11B, and the electronic musical instrument transmits these data via the communication interface 11. Downloading is completed by receiving various data such as control programs and performance data and storing them in an external storage device 9 (for example, a hard disk).
[0017]
The MIDI interface 10 is not limited to using a dedicated MIDI interface, and the MIDI interface 10 is configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394). You may make it do. In this case, data other than the MIDI standard musical tone information may be transmitted and received simultaneously. When the general-purpose interface as described above is used as the MIDI interface 10, the external performance device 10A may be able to transmit and receive data other than the MIDI standard musical tone information. Of course, the data format related to the music information is not limited to the data of the MIDI standard such as the SMF format, but may be data of other standards. In this case, the MIDI interface 10 and the external performance device 10A are configured accordingly. .
[0018]
If the performance data is composed only of pitch information of a series of note strings, a mechanical expressionless performance is reproduced, and such performance is musically very unnatural. Therefore, in order to achieve a more natural performance, beautiful performance, and live performance, performance information representing musical expression specific to each instrument (that is, musicality) is added to performance data as control data ( That is, it is preferable to perform facial expression as described above. For example, choking techniques are known for stringed instruments such as guitars and basses. By using this choking technique in combination with ordinary playing techniques, it is possible to create a natural performance with a guitar-like expression. The performance data processing apparatus according to the present invention is an apparatus capable of automatically adding performance information relating to a choking technique in a stringed musical instrument to musical data. Therefore, the expression processing for adding musical expression peculiar to the stringed instrument to the performance data will be described with reference to FIGS.
[0019]
First, “main processing” will be described with reference to FIG. FIG. 2 is a flowchart showing an example of “main processing” executed by the CPU 1 in the electronic musical instrument. The “main process” is a process that starts when the electronic musical instrument is turned on and ends when the power is turned off.
[0020]
In step S1, initialization is performed. That is, execution of a predetermined program is started by turning on the power to the electronic musical instrument, the contents of the RAM 3 are cleared, and various initial settings are performed. For example, various settings such as clearing the contents of registers, flags, tables, memories, etc. of the RAM 3 or displaying an initial screen on the display 6A are performed. In step S2, “panel processing” is performed. In this “panel processing”, performance information relating to various musical expressions including choking techniques used by stringed instruments is added to performance data read from the external storage device 9 or performance data transmitted from the external performance device 10A. Various processes such as a process for adding a facial expression, an automatic performance for generating musical sounds by reproducing performance data, and other processes executed by the electronic musical instrument are input from the panel operator 5A. (The details will be described later with reference to FIG. 3). In step S3, a “performance signal generation process” is performed. In this “performance signal generation process”, performance data read from the external storage device 9 or performance data transmitted from the external performance device 10A (performance data already added with performance information related to musical expression such as choking performance) is added. When performing an automatic performance based on (including), a “real-time process” is performed in which performance information relating to various musical expressions is added in accordance with the performance order according to user settings (details will be described later with reference to FIG. 4). . In step S4, a sound generation process is performed. That is, when the start of automatic performance processing is instructed by the user, a musical tone signal is generated based on performance data to which performance information related to musical expression such as choking performance is added (or not added). Then, various signal processing such as amplification of the musical tone signal by the DSP 8 is performed, and the musical tone is generated in a state where the expression is applied from the sound system 8A (or in a state where the expression is not applied).
[0021]
Next, the “panel process” (see step S2 in FIG. 2) executed in the “main process” described above will be described with reference to FIG. FIG. 3 is a flowchart showing an example of “panel processing”. Hereinafter, the processing operation in the processing will be described with reference to the flowchart of FIG.
[0022]
In step S11, it is determined whether panel input has been performed. That is, it is determined whether or not the user has operated the panel operation element 5A to perform a setting instruction operation for executing some processing such as processing for expression, processing for automatic performance, or other processing. . If the panel input has not been made (NO in step S11), the “panel processing” is terminated. In this case, the “panel processing” is terminated without performing various setting processes described below. On the other hand, when a panel input is made (YES in step S11), the following processes from step S12 to step S32 are executed. That is, the “panel processing” is executed only when a setting instruction operation for executing some processing is performed from the panel operator 5A.
[0023]
In step S12, it is determined whether or not it is a setting instruction for facial expression processing. That is, when a setting instruction operation is performed from the panel operator 5A, it is determined whether or not a setting instruction for performing processing for facial expression is performed by the setting instruction operation. If the setting instruction operation is a setting instruction for facial expression processing (YES in step S12), a user selection is accepted (step S13). This user selection includes, for example, selection of “real-time processing” or “automatic processing” or selection of performance data to be subjected to facial expression. Then, it is determined whether or not the user selection is a setting instruction for “real time processing” (step S14). If it is not a setting instruction for “real time processing” (NO in step S14), performance data to be subjected to facial expression is displayed on the display 6A (step S15). In step S16, it is determined whether or not the user selection is a setting instruction of “automatic processing”. If “automatic processing” is selected (YES in step S16), “performance data processing” (details will be described later with reference to FIG. 5) is performed (step S19). In other words, if the processing instructed by the user is not “real time processing”, musical expression is newly added to the performance data already stored in the external storage medium 9 or the performance data transmitted from the external performance device 10A. However, when “automatic processing” is instructed to set, a series of pitch information included in the performance data is automatically analyzed, and a specific sound is determined based on the analysis. Only for high-pitched sounds, the performance information related to the choking technique is added to the performance data at once.
[0024]
On the other hand, if neither “real-time processing” nor “automatic processing” is instructed to set (when both step S14 and step S16 are NO), performance information relating to musical expression is given to the performance data. A process of adding to the performance data by direct designation by the user is performed (step S17). In other words, the facial expression performed in this case is not limited to the addition of performance information related to the choking technique, and performance information related to other musical expressions other than the choking technique may be appropriately added to the performance data according to the user's specification. it can. Thus, when the setting instruction operation is a setting instruction for facial expression processing (YES in step S12), “real time processing” (step S14) and “automatic processing” (step S16) are performed according to the setting instruction operation. , “Face expression by user designation” (step S17) is executed.
[0025]
If “real time processing” is selected in step S14 (YES in step S14), various settings relating to facial expression performed in “real time processing” are performed (step S18). That is, in this case, the user's selection is “real-time processing” (in this embodiment, the performance data is read from the external storage medium 9 and automatically performed when performing the performance, or the external performance device 10A. If the performance data sent from is automatically performed with the expression when the performance data is automatically played), the performance data is automatically played so as to perform the automatic performance with the musical expression desired by the user. Set various setting conditions for musical expression to be added. Facial expression performed in this “real-time processing” is not limited to adding performance information related to choking performance, but performance information related to other musical expressions other than choking performance can be appropriately added to performance data in accordance with user designation. it can.
[0026]
Returning to the process of step S12, if the setting instruction operation by the user is not a setting instruction for the expression process (NO in step S12), it is determined whether or not the setting instruction operation is a setting instruction for the automatic performance process. (Step S20). If it is not an instruction for setting automatic performance processing (NO in step S20), processing other than facial expression processing or automatic performance processing is executed in accordance with the setting instruction (step S32). If the instruction is to set automatic performance processing (YES in step S20), it is determined whether there is an external input setting (step S21). If there is an external input setting (YES in step S21), a user selection is accepted (step S26), and setting information of the external performance device 10A is set as setting information of the electronic musical instrument (step S27). That is, it is determined whether or not the automatic performance is set based on the performance data transmitted from the external performance device 10A, and if so, the input of the setting information of the external performance device 10A is accepted and the electronic musical instrument side is received. To be used as setting information. If there is no external input setting (NO in step S21), it is determined whether there is a performance song setting (step S22). If there is a performance song setting (YES in step S22), the user's selection is accepted (step S28), and the performance data is read and set (step S29). That is, the performance data stored in the external storage device 9 is read according to the user selection. If there is no performance song setting (NO in step S22), it is determined whether or not there is a reproduction instruction (step S23).
[0027]
If there is a reproduction instruction (YES in step S23), reproduction of the performance data is started (step S30). That is, when the user gives a playback instruction, the performance data selected by the user is played back and the musical performance is started. If there is no reproduction instruction (NO in step S23), it is determined whether or not there is a stop instruction (step S24). If there is a stop instruction (YES in step S24), the reproduction of the performance data is stopped (step S31). That is, when the user gives an instruction to stop during automatic performance, the performance of the musical sound currently being automatically performed is stopped. If there is no stop instruction (NO in step S24), processing according to other instructions is executed (step S25). This “processing according to other instructions” includes, for example, processing such as effect imparting processing according to instructions for imparting effects to musical sounds. As described above, when the setting instruction operation is a setting instruction for automatic performance processing (YES in step S20), any one of the processes (steps S21 to S25) corresponding to the setting instruction operation is executed. .
[0028]
Next, the “performance signal generation process” (see step S3 in FIG. 2) executed in the “main process” described above will be described with reference to FIG. FIG. 4 is a flowchart showing an example of the “performance signal generation process”. Hereinafter, processing operations in the processing will be described with reference to the flowchart of FIG.
[0029]
In step S41, it is determined whether or not the automatic performance is being reproduced. If the automatic performance is being reproduced (YES in step S41), the performance data to be processed automatically is prefetched (step S42). That is, the performance data to be processed automatically is pre-read from the external storage medium 9 and read out. Then, it is determined whether or not a setting instruction has been given for real-time facial expression processing (that is, “real-time processing”) (step S43). If “real time processing” is instructed to be set (YES in step S43), it is determined whether or not the pre-read performance data corresponds to a target portion to be subjected to facial expression (step S44). That is, it is determined whether or not there is an expression target within the pre-read performance data range. If there is an object (YES in step S44), the performance data characteristics are changed according to the set conditions (step S45). That is, add facial expressions. As a result, when the setting instruction for “real time processing” is not given, the automatic performance is performed as it is based on the read performance data, but when the setting instruction for “real time processing” is given, the pre-read performance data is set. It is determined whether or not there is an object to be expressed within the range, and if there is an object, expression is performed, and automatic performance is performed based on performance data after performing this expression. As described above, when “real-time processing” is performed during playback of an automatic performance, performance data including a subject to be subjected to facial expression is analyzed by performing performance data of a certain length by performing pre-reading of the performance data before performing the automatic performance. If the data is analyzed, performance information is added to or changed from the performance data so that the performance data is given a facial expression according to the user's settings.
[0030]
In step S46, it is determined whether or not the setting instruction is for performing an automatic performance based on the performance data transmitted from the external performance device 10A. If the instruction is to set automatic performance based on performance data from the outside (YES in step S46), the transmitted performance data is maintained for a short time (step S47). That is, when the performance data transmitted from the external performance device 10A is automatically played, the transmitted performance data is temporarily stored. In step S48, it is determined whether or not “real time processing” is set. When “real time processing” is instructed to be set (YES in step S48), it is determined whether or not the transmitted performance data corresponds to a target portion to be expressed (step S49). That is, it is determined whether or not there is an expression target within the range of performance data maintained for a short time. If there is an object (YES in step S49), the performance data characteristics are changed according to the set conditions (step S50). That is, add facial expressions. Thus, when the setting instruction for “real time processing” is not given, the automatic performance is performed as it is based on the performance data sent from the external performance device 10A, but when the setting instruction for “real time processing” is given. Determines whether or not there is an object to be expressed within the range of performance data maintained for a short time, and if there is an object, the expression is applied and automatically based on the performance data after this expression is applied A performance is performed. As described above, when “real time processing” is performed during playback of an automatic performance based on performance data sent from the external performance device 10A, the performance data transmitted from the external performance device 10A before the automatic performance is performed. Is temporarily stored and analyzed, and if it is analyzed that the performance data includes an object to be expressed, performance information is added to the performance data so that expression according to the user's setting is performed on the performance data. Add or change.
[0031]
Next, “performance data processing” (see step S19 in FIG. 3) executed in the “panel processing” described above will be described with reference to FIG. FIG. 5 is a flowchart showing an example of “processing of performance data”. Hereinafter, processing operations in the processing will be described with reference to the flowchart of FIG. However, in this embodiment, description will be made using an example in which performance information relating to quarter choking performance is automatically added to performance data. The quarter choking technique is a technique in which the pitch is raised (that is, choked up) by about 1/4 of the original pitch.
[0032]
In step S51, the setting of tonality information is received. That is, either a user setting for determining tonality by directly inputting a tonality (for example, D minor or F major) by a user, or an automatic setting for automatically determining tonality by analyzing performance data. Accepts the selection of whether to set. In step S52, it is determined whether or not a user setting has been selected in accepting the tonal information setting. If the user setting is not selected (NO in step S52), the specified performance data is analyzed to determine the tonality (step S58). On the other hand, when the user setting is selected (YES in step S52), the tonality is determined based on the tonality directly input by the user (step S53). In step S54, a data processing target is determined according to the determined tonality. In general, when performing quarter choking, the subject to which quarter choking is applied is a sound with a pitch of 3rd short and a sound of 7th short with respect to the main sound. Therefore, a sound having a pitch of a minor third or a pitch of a minor 7 degrees with respect to the determined main tone is determined. For example, in the case of a D minor (D minor) song, quarter choking is applied to the main sound “D” with a short third “F” sound and a short 7 ° “C” sound. Determined to sound.
[0033]
The determination of the tonality based on the user input (see step S53) includes a process in which the user selects the major or minor key. For example, when performance data created by a general user stored in the external storage medium 9 is used, the performance data is not necessarily data in which tonality information is accurately stored. In particular, it is not certain whether the data is stored with the key or the key being accurately input and stored. For example, the musical score example shown in FIG. 7 described later is a D minor (D minor) song, but even if a key signature of “♭” is input as tonality information, the major or minor key is tonality. If it is not input as information, there is a high possibility that information of F major (F major) is held in the data as tonal information. In such a case, the main sound is “F” instead of “D”. In this state, in order to add performance information related to the quarter choking performance method, when “processing” (see step S56 described later and FIG. 6) is performed on the performance data, a sound of a minor third with respect to the main sound “D” is originally recorded. The performance information about the quarter choking performance is added to the pitch information of the 5th and 2nd shorts when the performance information about the quarter choking performance is added to the high “F” and the short “C”. Is added, resulting in an unnatural result. Therefore, when it is assumed that an accurate key signature is held in the performance data, it is preferable that the user selectively inputs only the major key or the minor key. In this case, a process for causing the user to select “major or minor” is added between the processes of steps S52 and S53. In the determination of tonality (see step S53), the main tone is determined according to the key signature held in the performance data and the information about the major or minor key input by the user. For example, if F performance (F major) is held as tonality information in the performance data and one “♭” is held in the key signature, if a major key is designated by user input, one “♭” major key is “ Since it is "F major", the main sound is determined to be "F". On the other hand, if the minor key is designated by the user input, “♭”, one minor key is “d”, so that the main tone is played even though F major (F major) is held as tonality information. Determine “D”.
[0034]
It should be noted that the main tone is not determined by allowing the user to specify the major key or the minor key, but the pitch with the highest appearance frequency may be determined as the main sound throughout the performance data.
In the above-described embodiment, the data processing target is limited to a sound with a pitch of 3rd short and a sound with a pitch of 7th short with respect to the main sound, but the data processing target is limited to these. Not (see step S54 above). For example, pitch information indicating a desired pitch in the scale may be acquired by inputting an instruction, and a data processing target may be determined according to the acquired pitch information. For example, when the pitch information is input as “2 degrees”, “short 2 degrees”, or “increased 5 degrees”, for example, “2 degrees”, “short 2 degrees”, or “increased 5” with respect to the main sound, respectively. The sound having a pitch of “degree” is determined as the data processing target.
[0035]
Returning to FIG. 5, in step S55, the notes are sequentially evaluated. That is, it is determined whether or not each pitch information of a series of note sequences included in the performance data is a processing target of the data determined in step S54, and the target sound is extracted as a processing target. In step S56, the extracted processing object is processed. That is, performance information related to the quarter choking technique is sequentially added to the extracted sound. That is, the pitch bend value of the extracted sound is changed. The pitch bend value to be changed will be described later. In step S57, the processed data is newly stored. For example, the performance data is stored in the external storage medium 9 to which the original performance data is read out separately from the performance data before the quarter choking or overwriting the performance data before the quarter choking. To do.
[0036]
Here, the “processing” (see step S56 in FIG. 5) performed in the “performance data processing” described above will be described with reference to FIG. FIG. 6 is a flowchart showing an example of “processing”. Hereinafter, processing operations in the processing will be described with reference to the flowchart of FIG.
In step S61, a change in pitch bend value is set. For example, as the change setting of the pitch bend value, a change amount calculated by Expression 1-1 shown below is set.
(30 + 40 × RND) cents. Formula 1-1
RND shown in the above equation 1-1 is a variable, and a value from 0 to 1 is randomly generated. In general, the quarter choking technique is a technique that raises the pitch by a quarter semitone (that is, 50 cents) from the pitch of the original sound, but it does not mean that the pitch is raised exactly by 50 cents. The rise may be less than 40 cents and may exceed 70 cents. Therefore, in this embodiment, the change amount of the pitch is randomly calculated within a range of about 50 ± 20 cents as the change range of the pitch.
In step S62, the pitch bend value calculated for the processing target data is added as performance information. In step S63, it is determined whether or not the machining target has been completed. If all the machining targets have been completed (YES in step S63), the process is terminated, and if all the machining targets have not been completed (step S63). NO) Returning to step S61, the above processes are repeated. In this way, expression is performed by sequentially adding the calculated pitch bend value as performance information to the performance data so as to correspond to the processing target data.
[0037]
Here, the expression of the expression in the “performance data processing” (see FIG. 5) will be described using a specific example. FIG. 7 is a conceptual diagram for specifically explaining the case where performance information relating to quarter choking performance is automatically added to performance data. In this embodiment, an example of the operation when the expression of the quarter choking technique is applied to the D minor (d minor) music is shown. FIG. 7A is a diagram showing a note string of a partial section of performance data on a score. The numbers from 1 to 6 shown in the upper part of the score in FIG. 7A are numbers given for convenience to each note for explanation, and the alphabet shown in the lower part of the score is the note name of each note. FIG. 7B is a conceptual diagram conceptually showing notes for each note. FIG. 7B shows the relative difference in pitch between each note in the vertical direction, and the length of the sound for each note in the horizontal direction. FIG. 7C is a conceptual diagram conceptually showing the pitch bend change for each note.
[0038]
First, the tonality of the performance data is determined. In this embodiment, by inputting "D minor" as a user setting (see step S53) or analyzing performance data (see step S58), the tonality of the performance data is determined as "D minor". . Since the main tone according to the determined tonality is “D”, the data processing target, that is, the target to be subjected to quarter choking is determined as a note having a pitch of “F” sound or “C” sound (see step S54). ). Therefore, when each note of the performance data is sequentially evaluated (see step S55), as can be understood from FIG. 7A, the pitches of the note 3 and the note 4 are “F” sound or “C” sound. Are two notes. Therefore, the note 3 and the note 4 are extracted as quarter choking targets, and the pitch bend values of the note 3 and the note 4 are processed and recorded (see step S56 and step S57). In this way, the note does not change as shown in FIG. 7B, and only the pitch bend corresponding to the note 3 and the note 4 as shown in FIG. 7C is a predetermined amount (that is, as shown in FIG. 6). A state in which the amount of change is increased by the amount of change calculated in “processing” (see step S61) is obtained (the pitch bends corresponding to the other note 1, note 2, note 5, and note 6 remain constant). Remain). By doing so, it is possible to obtain performance data with the quarter choking performance applied.
[0039]
If you mix a tone with a pitch shifted from a semitone at random, it will sound like a musical instrument with a strange pitch, but as mentioned above, it will be 3 or 7 degrees short of the main sound. By automatically mixing sounds with a pitch that is not a semitone unit only in the case of a sound (however, in the case of quarter choking), it becomes possible to reproduce the vivid performance of a stringed instrument such as a natural instrument guitar. . In addition, since the sounds of pitches that are not semitones are automatically mixed with the main sound, only the minor third and seventh minor sounds are automatically mixed, the user can arbitrarily select the performance data thus obtained. By adding new performance information, performance data for performing more natural performance can be efficiently obtained.
The addition of performance information related to musical expression to performance data is not limited to the performance information related to choking performance as described above, and any music such as performance information related to performance techniques other than choking performance (for example, chops). It goes without saying that performance information relating to the musical expression may also be added.
[0040]
When this performance data processing apparatus is applied to an electronic musical instrument, the electronic musical instrument is not limited to a keyboard instrument, and may be any type of instrument such as a stringed instrument, a wind instrument, or a percussion instrument. In addition, the sound source device, the performance data processing device, and the like are not limited to those built in one electronic musical instrument body, but each is configured separately and connected to each device using a communication means such as a MIDI interface or various networks. Needless to say, the present invention can be similarly applied to the configured one. In addition, a configuration of a personal computer and application software may be used. In this case, the processing program may be supplied from a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory, or may be supplied via a network. Furthermore, the present invention may be applied to an automatic performance device such as a karaoke device or an automatic performance piano, a game device, or a portable communication terminal such as a mobile phone. When applied to a portable communication terminal, not only when a predetermined function is completed with only the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as a whole system composed of the terminal and the server. You may make it do.
[0041]
The performance data format to which performance information related to choking performances is to be given is in the form of “event + absolute time” in which the event occurrence time is expressed in absolute time within a song or measure, and the event occurrence time is 1 “Event + Relative Time” format expressed in terms of time from the previous event, “Pitch (rest) + note length” representing performance data in terms of note pitch and note length or rest and rest length In any format, such as a “solid” format in which a memory area is secured for each minimum performance resolution and events are stored in the memory area corresponding to the time at which the performance event occurs. Good. The processing method of the generated performance data at the time of automatic performance is a method of changing the processing cycle according to the set tempo, and the processing cycle is constant and the timing data is counted in a single process. Any method may be used such as a method of changing according to the method. Further, when there are performance data for a plurality of channels, a format in which data for a plurality of channels are mixed may be used, or a format in which data for each channel is separated for each track may be used.
[0042]
【The invention's effect】
According to the present invention, a musical expression (for example, choking) that is unique to a predetermined instrument is newly added only to a note having predetermined pitch information according to tonality information in a series of note strings included in performance data. Performance information on performance styles is automatically added, so even beginners can easily add performance information to musical data that gives a musical expression peculiar to each instrument. And the effect that it can implement efficiently is acquired.
[Brief description of the drawings]
FIG. 1 is a hardware configuration block diagram showing an embodiment of an electronic musical instrument to which a performance data processing apparatus according to the present invention is applied.
FIG. 2 is a flowchart showing an example of “main processing” executed by the CPU 1 in the performance data processing apparatus.
FIG. 3 is a flowchart showing an example of “panel processing”.
FIG. 4 is a flowchart showing an example of “performance signal generation processing”;
FIG. 5 is a flowchart showing an example of “processing of performance data”.
FIG. 6 is a flowchart showing an example of “processing”.
FIG. 7 is a conceptual diagram for specifically explaining a case in which performance information related to quarter choking performance is automatically added to performance data. FIG. 7A is a diagram showing a note string of a partial section of performance data on a score, and FIG. 7B is a conceptual diagram conceptually showing a note for each note. ) Is a conceptual diagram conceptually showing a pitch bend change for each note.
[Explanation of symbols]
1 ... CPU, 1A ... timer, 2 ... ROM, 3 ... RAM, 4 ... detection circuit, 4A ... performance operator (keyboard, etc.), 5 ... switch detection circuit, 5A ... panel operator (switch etc.), 6 ... display Circuit, 6A ... Display, 7 ... Sound source circuit, 8 ... Effect circuit, 8A ... Sound system, 9 ... External storage device, 10 ... MIDI interface, 10A ... Other MIDI devices, 11 ... Communication interface, 11A ... Server computer, 11B ... communication network, 1D ... communication bus

Claims (5)

一連の音符列の各音高をそれぞれ表す複数の音高情報を少なくとも含む演奏データを供給する演奏データ供給手段と、
調性情報を取得する調性取得手段と、
音程情報を取得する音程取得手段と、
前記取得した調性情報と音程情報とに応じて、前記供給された演奏データに含まれる複数の音高情報毎に楽音特性の変更有無を判定する特性変更判定手段と、
前記特性変更判定手段の判定結果に基づき、前記供給された演奏データに所定の演奏関連情報を付加する情報付加手段と
を具備する演奏データ処理装置。
Performance data supply means for supplying performance data including at least a plurality of pitch information respectively representing pitches of a series of note strings;
Tonality acquisition means for acquiring tonality information;
Pitch acquisition means for acquiring pitch information;
Characteristic change determination means for determining whether or not a musical tone characteristic is changed for each of a plurality of pitch information included in the supplied performance data according to the acquired tonality information and pitch information.
A performance data processing apparatus comprising information adding means for adding predetermined performance-related information to the supplied performance data based on the determination result of the characteristic change determination means.
前記所定の演奏関連情報は、所定の楽器に特有な奏法を指示する情報であることを特徴とする請求項1に記載の演奏データ処理装置。The performance data processing apparatus according to claim 1, wherein the predetermined performance-related information is information indicating a performance method specific to a predetermined musical instrument. 前記調性取得手段は、前記供給された演奏データに含まれる複数の音高情報を分析して調性情報を取得することを特徴とする請求項1に記載の演奏データ処理装置。The performance data processing apparatus according to claim 1, wherein the tonality acquisition unit acquires tonality information by analyzing a plurality of pitch information included in the supplied performance data. 一連の音符列の各音高をそれぞれ表す複数の音高情報を少なくとも含む演奏データを供給するステップと、
調性情報を取得するステップと、
音程情報を取得するステップと、
前記取得した調性情報と音程情報とに応じて、前記供給された演奏データに含まれる複数の音高情報毎に楽音特性の変更有無を判定するステップと、
前記判定結果に基づき、供給された演奏データに所定の演奏関連情報を付加するステップと
を具えた演奏データ処理方法。
Supplying performance data including at least a plurality of pitch information respectively representing pitches of a series of note strings;
Obtaining tonality information;
Obtaining pitch information; and
In accordance with the acquired tonality information and pitch information, determining whether or not a musical tone characteristic is changed for each of a plurality of pitch information included in the supplied performance data;
A performance data processing method comprising: adding predetermined performance-related information to the supplied performance data based on the determination result.
機械読取り可能な記憶媒体であって、演奏データ処理方法をプロセッサに実行させるためのプログラムを記憶してなり、前記演奏データ処理方法は、
一連の音符列の各音高をそれぞれ表す複数の音高情報を少なくとも含む演奏データを供給するステップと、
調性情報を取得するステップと、
音程情報を取得するステップと、
前記取得した調性情報と音程情報とに応じて、前記供給された演奏データに含まれる複数の音高情報毎に楽音特性の変更有無を判定するステップと、
前記判定結果に基づき、供給された演奏データに所定の演奏関連情報を付加するステップと
を具備する。
A machine-readable storage medium, storing a program for causing a processor to execute a performance data processing method, wherein the performance data processing method comprises:
Supplying performance data including at least a plurality of pitch information respectively representing pitches of a series of note strings;
Obtaining tonality information;
Obtaining pitch information; and
In accordance with the acquired tonality information and pitch information, determining whether or not a musical tone characteristic is changed for each of a plurality of pitch information included in the supplied performance data;
Adding predetermined performance-related information to the supplied performance data based on the determination result.
JP2001025905A 2001-02-01 2001-02-01 Performance data processing apparatus and method, and storage medium Expired - Fee Related JP3642028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001025905A JP3642028B2 (en) 2001-02-01 2001-02-01 Performance data processing apparatus and method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001025905A JP3642028B2 (en) 2001-02-01 2001-02-01 Performance data processing apparatus and method, and storage medium

Publications (2)

Publication Number Publication Date
JP2002229564A JP2002229564A (en) 2002-08-16
JP3642028B2 true JP3642028B2 (en) 2005-04-27

Family

ID=18890813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001025905A Expired - Fee Related JP3642028B2 (en) 2001-02-01 2001-02-01 Performance data processing apparatus and method, and storage medium

Country Status (1)

Country Link
JP (1) JP3642028B2 (en)

Also Published As

Publication number Publication date
JP2002229564A (en) 2002-08-16

Similar Documents

Publication Publication Date Title
JP3719124B2 (en) Performance instruction apparatus and method, and storage medium
US7750230B2 (en) Automatic rendition style determining apparatus and method
JP4702160B2 (en) Musical sound synthesizer and program
US20070000371A1 (en) Tone synthesis apparatus and method
US7420113B2 (en) Rendition style determination apparatus and method
JP4407473B2 (en) Performance method determining device and program
JP3815249B2 (en) Music score display device and music score display program
JP3873790B2 (en) Rendition style display editing apparatus and method
JP3642028B2 (en) Performance data processing apparatus and method, and storage medium
JP3632536B2 (en) Part selection device
JP3705144B2 (en) Performance data change processing device
JP4802947B2 (en) Performance method determining device and program
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP4003625B2 (en) Performance control apparatus and performance control program
JP3719156B2 (en) Automatic composer and automatic composition program
JP3755468B2 (en) Musical data expression device and program
JP3656584B2 (en) Performance data processing apparatus and program
JP3873789B2 (en) Apparatus and method for automatic performance determination
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP3832421B2 (en) Musical sound generating apparatus and method
JP3760909B2 (en) Musical sound generating apparatus and method
JP2006133464A (en) Device and program of determining way of playing
JP2000250556A (en) Chord detecting device of electronic musical instrument or the like
JPH1078779A (en) Automatic playing device, automatic playing method and recording medium
JP3832420B2 (en) Musical sound generating apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050117

R150 Certificate of patent or registration of utility model

Ref document number: 3642028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees