JP3970114B2 - Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium - Google Patents

Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium Download PDF

Info

Publication number
JP3970114B2
JP3970114B2 JP2002200229A JP2002200229A JP3970114B2 JP 3970114 B2 JP3970114 B2 JP 3970114B2 JP 2002200229 A JP2002200229 A JP 2002200229A JP 2002200229 A JP2002200229 A JP 2002200229A JP 3970114 B2 JP3970114 B2 JP 3970114B2
Authority
JP
Japan
Prior art keywords
accompaniment
accompaniment sound
sound
chord
sound generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002200229A
Other languages
Japanese (ja)
Other versions
JP2004045528A (en
Inventor
義文 吉良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2002200229A priority Critical patent/JP3970114B2/en
Publication of JP2004045528A publication Critical patent/JP2004045528A/en
Application granted granted Critical
Publication of JP3970114B2 publication Critical patent/JP3970114B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、電子楽器、自動伴奏方法、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体に関し、特に、伴奏音を再発音するために用いて好適なものである。
【0002】
【従来の技術】
従来から、コードを変更しながら自動伴奏することが可能な電子楽器が提案されている。具体的に説明すると、例えば、鍵盤の押鍵内容に基づいて伴奏音である和音(以下、コードと称する)を検出し、コードが変更された場合には、現在発音しているコードの構成音を消音し、新たなコードの構成音で再発音処理を行うようにして自動伴奏を行う電子楽器が提案されている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の電子楽器で自動伴奏を行う場合、発音する伴奏音が変更されるたびにそれまで発音していた伴奏音を消音して再発音するようにしていたので、伴奏音を連続的に変更するとアタック音が頻繁に発生して演奏の妨げになってしまうという問題点があった。
【0004】
特に、自動演奏パターンに従ってコードが発音された直後にコードが変更されると、アタック音が続けて2回発音してしまい、演奏の流れが著しく不自然になってしまっていた。
【0005】
本発明は上述の問題点にかんがみ、自動伴奏中に発音する伴奏音が連続的に変更されてもアタック音が頻繁に発生することを可及的に防止し、滑らかな演奏を行えるようにすることを第1の目的とする。
【0006】
また、自動伴奏中にコードが連続的に変更されてもアタック音が煩雑に発生することを可及的に防止しながら、上記自動伴奏におけるコードの変更を検出した時には新たなコード演奏を速やかに行えるようにすることを第2の目的とする。
【0007】
【課題を解決するための手段】
本発明の電子楽器は、鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示手段と、上記伴奏音発音指示手段による指示内容に基づいた伴奏音を発音させる伴奏音発音手段と、上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音手段に出力する出力手段と、上記伴奏音発音手段により発音される伴奏音のコードの構成音を一時記憶する記憶手段と、上記伴奏音発音手段により伴奏音が発音されてからの時間を計測する計測手段とを有し、上記伴奏音発音手段は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示手段によりコードが変更されると、その変更されたコードの構成音と、上記記憶手段に一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示手段によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とする。
【0008】
本発明の自動伴奏方法は、鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示処理と、上記伴奏音発音指示処理による指示内容に基づいた伴奏音を発音させる伴奏音発音処理と、上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音処理を実行する伴奏音発音手段に出力する出力処理と、上記伴奏音発音処理により発音される伴奏音のコードの構成音を一時記憶する記憶処理と、上記伴奏音発音処理により伴奏音が発音されてからの時間を計測する計測処理とを有し、上記伴奏音発音処理は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示処理によりコードが変更されると、その変更されたコードの構成音と、上記記憶処理により一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示処理によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とする。
【0009】
本発明のコンピュータプログラムは、鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示処理と、上記伴奏音発音指示処理による指示内容に基づいた伴奏音を発音させる伴奏音発音処理と、上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音処理を実行する伴奏音発音手段に出力する出力処理と、上記伴奏音発音処理により発音される伴奏音のコードの構成音を一時記憶する記憶処理と、上記伴奏音発音処理により伴奏音が発音されてからの時間を計測する計測処理とをコンピュータに実行させ、上記伴奏音発音処理は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示処理によりコードが変更されると、その変更されたコードの構成音と、上記記憶処理により一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示処理によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とする。
【0010】
本発明のコンピュータ読み取り可能な記録媒体は、上記コンピュータプログラムを記録したことを特徴としている。
【0011】
【発明の実施の形態】
(第1の実施の形態)
次に、添付の図面を参照しながら、電子楽器、自動伴奏方法、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体の第1の実施の形態を説明する。
【0012】
図1は、本実施の形態の電子楽器の概略構成の一例を示すブロック図である。
図1において、電子楽器1は、中央処理装置(以下、CPUと称する)2と、リードオンリメモリ(以下、ROMと称する)3と、ランダムアクセスメモリ(以下、RAMと称する)4と、信号バス5と、キーボード部6と、操作パネル部7と、楽音発生部8と、デジタル/アナログ変換部(以下、D/A変換部と称する)9と、アナログ信号処理部10と、パワーアンプ11と、スピーカ部12とを有している。
【0013】
図1に示すように、CPU2、ROM3、RAM4、キーボード部6、操作パネル部7、及び楽音発生部8は、それぞれ信号バス5に接続され、相互に通信することが可能である。
【0014】
キーボード部6は、演奏を行うための複数の鍵とその鍵の各々に対応して設けられた鍵スイッチとを含む複数の鍵盤を有している。上記鍵スイッチは、上記鍵盤の押鍵や離鍵を検出するとともに、各鍵の動作スピードに関するKeyタッチレスポンス信号を検出するように構成されている。
【0015】
操作パネル部7は、音色や音量などを選択及び設定するための各種操作子と、これらの選択および設定状態を表示するためのLCD(液晶表示装置)またはLED(発光ダイオード)から成る表示装置とを有している。
【0016】
なお、上記音色や音量などを選択および設定するための各種操作子は、例えば、音色設定スイッチ、音量設定ボリューム、及び自動伴奏設定スイッチなどである。
【0017】
上記音色設定スイッチと上記音量設定ボリュームは、出力する楽音の音色と音量を設定するためのものであり、これら音色設定スイッチと音量設定ボリュームにより所望の音色と音量が設定されると、設定内容に応じた音色と音量を有する楽音が出力される。
【0018】
上記自動伴奏設定スイッチは、上記鍵盤の押鍵及び離鍵に応じたメロディー(演奏音)を発音させて行うマニュアル演奏を補助する伴奏機能を実行するときに設定されるスイッチである。この自動伴奏設定スイッチにおける具体的な設定内容としては、例えば、自動伴奏を行う楽音(音符)、音色、及びリズムなどである。
【0019】
CPU2は、本実施の形態の電子楽器1の全体を統括制御するためのものであり、ROM3に格納されている制御プログラムに従って、RAM4をワークメモリとして利用しながら、例えば次のような処理を行う。
【0020】
すなわち、CPU2は、キーボード部6の各鍵スイッチのスキャン処理を行って、各鍵の押鍵または離鍵に伴う鍵情報を楽音発生部8に割り当てる処理を行う。なお、上記各鍵の押鍵または離鍵に伴う鍵情報の具体例としては、Key ON/OFF信号、Key識別信号(鍵番号など)、Keyタッチレスポンス信号等が挙げられる。
【0021】
また、CPU2は、操作パネル部7に配設されている音色設定スイッチ、音量設定ボリューム、及び自動伴奏設定スイッチのスキャン処理を行い、設定内容に応じた所望のデジタル楽音信号DMSを楽音発生部8から発生させるための処理を行う。
【0022】
ROM3は、読み出し専用のメモリであり、上述のようなCPU2の制御プログラムの他、楽音発生部8から所望のデジタル楽音信号DMSを発生させるために必要なパラメータデータなど、種々のデータを格納する。
【0023】
本実施の形態のROM3は、上記自動伴奏機能を実行するために、例えば、自動伴奏パターン、自動伴奏ヘッダ、及び自動伴奏リズムパターンを格納している。
【0024】
上記自動伴奏パターンは、音符などの情報で構成される演奏パターンであり、複数の楽器音(音色)及び演奏スタイルごとにテーブルとしてROM3内の所定の記憶領域に格納されているものである。
上記自動伴奏ヘッダは、上記テーブルのうち、どのテーブルを自動伴奏に使用するのかを示す情報である。
上記自動伴奏リズムパターンは、自動伴奏における発音タイミングを示すリズムパターンであり、楽器音(音色)及び演奏スタイルごとにROM3内の所定の記憶領域に格納されているものである。
【0025】
これら自動伴奏パターン、自動伴奏ヘッダ、及び上記自動伴奏リズムパターンは、上記自動伴奏設定スイッチにおける設定内容に従って、自動伴奏情報としてCPU2により読み出され、楽音発生部8に出力される。
すなわち、上記自動伴奏設定スイッチの設定に従って自動伴奏を行う楽音(音符)、音色、及びリズムなどを表す自動伴奏情報が楽音発生部8に出力される。
【0026】
RAM4は読み書きが可能なメモリであり、CPU2のプログラム実行過程において各種の必要なデータを一時的に記憶したり、編集可能なパラメータデータを記憶したりする記憶領域を有している。このRAM4の一部あるいは全部はバッテリーバックアップされており、操作パネル部7により設定された音色に応じた必要なデータを、電子楽器1の電源がオフにされても保持しておくことができるようになされている。
【0027】
楽音発生部8は、演奏音発生部8aと伴奏音発生部8bとを有する。
演奏音発生部8aは、上記鍵盤の押鍵操作の内容に応じた鍵情報(Key ON/OFF信号、Key識別信号(鍵番号など)、Keyタッチレスポンス信号等)と、操作パネル部7の設定内容とに基づいて、演奏者の鍵盤操作に従った演奏音に対応する所望のデジタル楽音信号DMSを発生させる。
【0028】
伴奏音発生部8bは、上記鍵盤の押鍵操作の内容に応じた鍵情報(Key ON/OFF信号、Key識別信号(鍵番号など)等)と、上記自動伴奏情報とに基づいて、上記演奏音を伴奏するための伴奏音に対応する所望のデジタル楽音信号DMSを発生させる。
【0029】
なお、本実施の形態では、上記伴奏音がコード(和音)の場合について説明を行う。
また、本実施の形態の電子楽器では、上記自動伴奏設定スイッチにより自動伴奏を行うことが設定されているときに所定の鍵盤が押鍵された場合に、上記押鍵された鍵盤に対応する所定のコードを発音するようにしている。
【0030】
D/A変換部9は、楽音発生部8で発生されたデジタル楽音信号DMSをアナログ楽音信号に変換する機能を有する。
アナログ信号処理部10は、D/A変換部9でD/A変換されたアナログ楽音信号に対し、簡単なフィルタ処理(ノイズ除去処理)を施す機能を有する。
【0031】
パワーアンプ11は、アナログ信号処理部10でノイズ除去処理が施されたアナログ楽音信号に対し、増幅処理を施して適当なレベルに増幅する。
スピーカ部12は、パワーアンプ11で増幅されたアナログ楽音信号を可聴信号として放音するためのものであり、1個あるいは複数個で構成されている。
【0032】
図2は、図1に示した本実施の形態の楽音発生部8(伴奏音発生部8b)の構成をより具体的に示したブロック図である。
図2において、伴奏音発生部8bは、伴奏音用波形メモリ20と、波形読み出し回路21と、伴奏音信号生成回路22と、バッファ23とを有している。
【0033】
伴奏音用波形メモリ20は、伴奏用楽音波形データADを、繰り返し波形データとして、あるいは立ち上がり部と繰り返し部とからなる波形データとして所定のエリアに予め記憶するためのメモリである。なお、この伴奏音用波形メモリ20は、演奏音発生部8aと共有するメモリであり、鍵盤の押鍵と離鍵とに基づく演奏音に対応する演奏音用楽音波形信号DMSを発生させる際にも用いられる。
【0034】
伴奏用楽音波形データADは、音色や音域に応じた種々の楽音波形データであり、上記自動伴奏を行うときに使用される。すなわち、伴奏用楽音波形データADは、上記伴奏音を発音させるためのデータである。
【0035】
波形読み出し回路21は、上記鍵盤の操作に応じて与えられるKey ON/OFF信号及びKey識別信号と、上記自動伴奏情報とに基づいて、所望の伴奏用楽音波形データADを所望の楽音周波数に応じた速度で伴奏音用波形メモリ20から読み出す。
【0036】
なお、伴奏用楽音波形データADの読み出しは、波形読み出し回路21から伴奏音用波形メモリ20に時分割で与えられるアドレス情報に従って行われる。
【0037】
バッファ23は、現在発音されているコードの各構成音を一時的に記憶するためのメモリである。このバッファ23への書き込み動作と消去動作は、伴奏音信号生成回路22により制御される。
【0038】
伴奏音信号生成回路22は、伴奏音用波形メモリ20から読み出された伴奏用楽音波形データADを用いて、所望のコードに対応するデジタル楽音信号DMSを生成してコードの発音処理を行う。
【0039】
すなわち、伴奏音信号生成回路22は、伴奏音用波形メモリ20から読み出した伴奏用楽音波形データADに対して、フィルタ処理を施したり、エンベロープを付与したりするなどの発音処理を行って上記所望のコードに対応するデジタル楽音信号DMSを生成して出力する。
【0040】
ただし、上記発音処理を行うに際し、コードが変更されたことを検出した場合には以下のような処理を行う。
まず、上記変更されたコードの各構成音がバッファ23に記憶されているか否かを検索する。
【0041】
そして、記憶されている場合には新たな発音処理を行わず、現在発音している構成音をそのまま発音させ続けるようにする。
一方、記憶されていない場合には、バッファ23に記憶されている音の中から、上記変更された新たなコードの構成音に最も近いピッチを有する音を検索し、上記変更された新たなコードの構成音と上記検索した音とのピッチの差分を計算する。
【0042】
そして、上記計算した結果に基づいて、上記検索した音のピッチを、上記変更された新たなコードの構成音のピッチに変更して再発音を行うようにする。そして、変更された新たなコードの構成音をバッファ23に記憶する。
【0043】
次に、図3のフローチャートを参照しながら本実施の形態の楽音発生部8(伴奏音発生部8b)の動作の一例を説明する。なお、以下では、自動伴奏機能を実行する場合について説明する。
【0044】
まず、最初のステップS1において、波形読み出し回路21と伴奏音信号生成回路22は、所望の鍵情報(Key ON/OFF信号、Key識別信号)と自動伴奏情報とが入力されるまで待機し、これらの情報が入力され伴奏音の発音指令を受けるとステップS2に進む。
【0045】
次に、ステップS2において、波形読み出し回路21は、ステップS1で入力された鍵情報と自動伴奏情報とに基づいて、所望の伴奏用楽音波形データADを伴奏音用波形メモリ20から読み出して伴奏音信号生成回路22に出力する。
【0046】
次に、ステップS3において、伴奏音信号生成回路22は、上記伴奏用楽音波形データADに対し、フィルタ処理やエンベロープ付与処理などを施してデジタル楽音信号DMSを生成して、バッファ23に記憶する。
【0047】
次に、ステップS4において、伴奏音信号生成回路22は、鍵情報に基づいて、コードが変更されたか否かを判定する。この判定の結果、コードが変更されていない場合には、ステップS5からステップS8までの処理を省略して後述するステップS9に進む。
【0048】
一方、ステップS4の判定の結果、コードが変更された場合には、ステップS5に進み、変更された新たなコードの各構成音のうち、任意の1つの構成音を選択し、上記選択した構成音がバッファ23に記憶されているか否かを検索する。検索した結果、記憶されていない場合にはステップS6に進み、記憶されている場合にはステップS6の処理を省略して後述するステップS7に進む。
【0049】
次に、ステップS6において、伴奏音信号生成回路22は、バッファ23に記憶されている音の中から、上記変更された新たなコードの構成音に最も近いピッチの音を検索し、上記変更された新たなコードの構成音と上記検索した音とのピッチの差分を計算する。そして、上記計算結果に基づいて、上記検索した音のピッチを、上記変更されたコードの構成音に変更する処理を行う。
【0050】
次に、ステップS7において、伴奏音信号生成回路22は、上記変更された新たなコードの全ての構成音についてステップS5における検索処理が完了したか否かを判定する。判定の結果、完了していない場合には、完了するまでステップS5からステップS7までの処理を繰り返す。そして、完了するとステップS8に進み、ステップS6でピッチを変更した全ての構成音に対応するデジタル楽音信号DMSを生成し、ステップS3でバッファ23に記憶したデジタル楽音信号DMSを上記作成したデジタル楽音信号DMSに書き換える。
【0051】
次に、ステップS9において、伴奏音信号生成回路22は、ステップS3またはステップS8で作成したデジタル楽音信号DMSをD/A変換部9に出力する。なお、ステップS6で変更した構成音が複数の場合には、複数の構成音がコードとして発音されるように処理する。
【0052】
次に、ステップS10において、伴奏音信号生成回路23は、自動伴奏を行うための上記所定の鍵盤が離鍵されたことを、上記鍵情報に基づいて検出することにより消音指令を受け付けたか否かを判定する。判定の結果、消音指令を受け付けていない場合はステップS1に戻る。
【0053】
一方、ステップS10の判定の結果、消音指令を受け付けた場合は、ステップS11に進み、上記離鍵された鍵盤に対応するコードを消音する処理を行うとともに、上記消音したコードの構成音に関する情報をバッファ23から消去する。
【0054】
次に、ステップS12において、自動伴奏演奏が終了したか否かを判定し、演奏が終了していない場合は、ステップS2の処理の戻り、演奏が終了するまでステップS1からステップS12までの処理を繰り返す。
【0055】
以上のように本実施の形態では、伴奏音として発音しているコードの構成音をバッファ23に記憶しておき、上記コードが変更された場合、上記発音しているコードと上記変更されたコードに共通する構成音があるか否かを検索し、共通する構成音がある場合には、上記発音しているコードの構成音をそのまま発音するようにするとともに、ない場合には、上記変更されたコードの構成音に最も近い音のピッチを、上記変更されたコードのピッチに変更して発音するようにしたので、発音中のコードを消音しなくても変更後のコードを再発音することができる。また、発音処理を行う音数を可及的に少なくすることができる。
【0056】
したがって、コードを変更したときにアタック音が頻繁に発音されてしまうことを防止しながら、自動伴奏におけるコードの変更を検出した場合には変更された新たなコードによる演奏を速やかに行うことができ、自動伴奏を滑らかに行うことができる。
【0057】
また、コードが変更された場合に、発音しているコードの音色に応じてリトリガー処理(発音している音を消音して再発音する処理)を行うか否かを決定するようにして滑らかな自動伴奏を行う手法も考えられる。しかしながら、この手法では、上記リトリガー処理を行うか否かを決定するためのテーブルが必要になってしまう。
【0058】
これに対し、本実施の形態の電子楽器1で伴奏音を再発音させる際に記憶する情報は、発音しているコードに関する情報だけである。したがって、少ない情報で自動伴奏を滑らかに行うことができる。これにより、大きな容量を有するメモリを設ける必要がなくなり、コストを低減させることができる。
【0059】
なお、本実施の形態では、バッファ23を用いて発音中のコードの構成音を記憶するようにしたが、必ずしもバッファ23に記憶する必要はなく、例えばRAM4に記憶するようにしてもよい。
また、本実施の形態では、伴奏音がコードの場合を例に挙げて説明したが、伴奏音が1音であってもよい。この場合は図3のステップS5とステップS7の処理を省略する。
【0060】
(第2の実施の形態)
次に、電子楽器、自動伴奏方法、コンピュータプログラム及びコンピュータ読み取り可能な記録媒体の第2の実施の形態を説明する。
【0061】
本実施の形態では、伴奏音であるコードを発音してから所定の時間が経過する前にコードが変更された場合には、上述した第1の実施の形態と同様の再発音処理を行う一方、上記所定の時間以上経過した後にコードが変更された場合には、発音しているコードの各構成音を消音して上記変更されたコードの構成音を再発音するリトリガー処理を行うようする。
【0062】
このように、伴奏音であるコードを発音してから所定の時間が経過する前にコードが変更された場合における本実施の形態の電子楽器の処理は、上述した第1の実施の形態と同様であるので、上述した第1の実施の形態と同一部分については図1及び図2に付した符号と同一の符号を付して詳細な説明を省略する。
【0063】
図4は、本実施の形態の楽音発生部(伴奏音発生部)の構成をより具体的に示したブロック図である。
図4において、伴奏音発生部8b2は、伴奏用メモリ20と、波形読み出し回路21と、バッファ23と、伴奏音信号生成回路31と、カウンタ33とを有している。なお、この伴奏音発生部8b2は、図1に示した第1の実施の形態の伴奏音発生部8bに対応する。
【0064】
伴奏音信号生成回路31は、伴奏用デジタル楽音信号DMSをD/A変換部9に出力してからの時間(コードを発音してからの時間)を、カウンタ33に計数させるようにする。そして、コードを発音してから新しいコードが検出されるまでの時間が所定の時間未満であるときには、第1の実施の形態で説明した図3のステップS5からステップS8までの処理と同様の処理を行う。一方、上記所定の時間以上であるときには、上記リトリガー処理を行う。
【0065】
なお、上記所定の時間は、発音中の音のゲートタイムの残り時間など、発音中の音の大きさに依存したパラメータを基準にして設定するようにする。例えば、コードを発音してから上記コードのゲートタイムの残りがある時間になるまでの時間を上記所定の時間として設定する。
【0066】
次に、図5のフローチャートを参照しながら本実施の形態の楽音発生部8(伴奏音発生部8b2)の動作の一例を説明する。なお、以下では、自動伴奏機能を実行する場合について説明する。
【0067】
まず、最初のステップS21において、波形読み出し回路21と伴奏音信号生成回路31は、所望の鍵情報と自動伴奏情報が入力されるまで待機し、入力されるとステップS22に進み、波形読み出し回路21は、所望の伴奏用楽音波形データADを読み出して伴奏音信号生成回路31に出力する。
【0068】
次に、ステップS23において、伴奏音信号生成回路31は、上記伴奏用楽音波形データADに対し、フィルタ処理やエンベロープ付与処理などを施してデジタル楽音信号DMSを生成して、バッファ23に記憶する。
【0069】
次に、ステップS24において、伴奏音信号生成回路31は、上記鍵情報に基づいて、コードが変更されたか否かを判定する。判定の結果、コードが変更されていない場合には、後述するステップS25からステップS29及びステップ34の処理を省略してステップS30に進む。
【0070】
一方、コードが変更された場合には、ステップS25に進み、伴奏音信号生成回路31は、カウンタ33の値を参照することにより、前回のコード出力(発音)から新しいコードが検出されるまでの時間が所定の時間以上であるか否かを判定する。
【0071】
ステップS25の判定の結果、所定の時間未満である場合には、図1に示したステップS5からステップS8までの処理と同様のステップS26からステップS29までの処理を行う。そして、ステップS30において、伴奏音信号生成回路31は、図1に示したステップS9の処理と同様にしてデジタル楽音信号DMSをD/A変換部9に出力するとともに、カウンタ33の計数を開始する。
【0072】
一方、所定の時間以上である場合には、ステップS34に進み、伴奏音信号生成回路31は、発音中のコードを消音する上記リトリガー処理を行って上記ステップS30に進む。
そして、ステップS31において、伴奏音信号生成回路31は、図3のステップS10と同様にして消音指令を受け付けたか否かを判定する。この判定の結果、受け付けていない場合はステップS21に戻る。
【0073】
一方、受け付けた場合は、ステップS32に進み、上記離鍵された鍵盤に対応するコードを消音する処理を行うとともに、上記消音したコードの構成音に関する情報をバッファ23から消去する。そして、カウンタ33をリセットする。
【0074】
次に、ステップS33において、自動伴奏が終了したか否かを判定し、演奏が終了していない場合は、ステップS22の処理の戻り、自動伴奏が終了するまでステップS21からステップS34までの処理を繰り返す。
【0075】
以上のように、本実施の形態では、伴奏音としてコードを発音してから新しいコードが検出されるまでの時間が所定の時間が経過する前においては、上述した第1の実施の形態と同様の発音処理を行う一方、上記所定の時間が経過した後においてはリトリガー処理を行うようにしたので、リトリガー処理を行って自動伴奏を行っても、アタック音が煩雑に発生してしまうことを防止することができる。
【0076】
なお、本実施の形態では、伴奏音としてコードを発音してから新しいコードが検出されるまでの時間を、カウンタ33を用いて計数するようにしたが、ハードウェアを用いずにソフトウェア処理による計測手段により時間を管理するようにしてもよい。
【0077】
また、本実施の形態においても、伴奏音がコードの場合を例に挙げて説明したが、伴奏音が1音であってもよい。この場合は図5のステップS26とステップS28の処理を省略する。
【0078】
(本発明の他の実施形態)
上述した実施形態の機能を実現するべく各種のデバイスを動作させるように、該各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、上記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って上記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。
【0079】
また、この場合、上記ソフトウェアのプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコード自体、およびそのプログラムコードをコンピュータに供給するための手段、例えば、かかるプログラムコードを格納した記録媒体は本発明を構成する。かかるプログラムコードを記憶する記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0080】
また、コンピュータが供給されたプログラムコードを実行することにより、上述の実施形態の機能が実現されるだけでなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等と共同して上述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0081】
さらに、供給されたプログラムコードがコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
【0082】
【発明の効果】
以上説明したように本発明によれば、アタック音が煩雑に発生するのを可及的に防止し、滑らかな演奏を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態を示し、電子楽器の概略構成の一例を示すブロック図である。
【図2】本発明の第1の実施の形態を示し、楽音発生部の構成をより具体的に示したブロック図である。
【図3】本発明の実施の第1の形態を示し、楽音発生部の動作の一例を説明するフローチャートである。
【図4】本発明の第2の実施の形態を示し、楽音発生部の構成をより具体的に示したブロック図である。
【図5】本発明の実施の第2の形態を示し、楽音発生部の動作の一例を説明するフローチャートである。
【符号の説明】
1 電子楽器
6 キーボード部
7 操作パネル部
8 楽音発生部
20 伴奏用波形メモリ
21 波形読み出し回路
22、31 伴奏音信号生成回路
23 バッファ
33 カウンタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic musical instrument, an automatic accompaniment method, a computer program, and a computer-readable recording medium, and particularly suitable for re-sounding accompaniment sounds.
[0002]
[Prior art]
Conventionally, electronic musical instruments that can be automatically accompanied while changing chords have been proposed. Specifically, for example, when a chord that is an accompaniment sound (hereinafter referred to as a chord) is detected based on the key depression content of the keyboard, and the chord is changed, the constituent sound of the chord that is currently sounding There has been proposed an electronic musical instrument that performs automatic accompaniment by muting the sound and performing a re-sounding process with a new chord component.
[0003]
[Problems to be solved by the invention]
However, when performing automatic accompaniment with a conventional electronic musical instrument, every time the accompaniment sound to be generated is changed, the accompaniment sound that has been sounded is muted and re-pronounced. If changed, there was a problem that attack sounds were frequently generated and hindered performance.
[0004]
In particular, if the chord is changed immediately after the chord is sounded according to the automatic performance pattern, the attack sound is continuously sounded twice, which makes the performance flow unnatural.
[0005]
In view of the above-mentioned problems, the present invention prevents the occurrence of frequent attack sounds as much as possible even if the accompaniment sound that is generated during automatic accompaniment is continuously changed, and enables smooth performance. This is the first purpose.
[0006]
In addition, even if chords are continuously changed during automatic accompaniment, it is possible to prevent a complex attack sound as much as possible. The second purpose is to make it possible.
[0007]
[Means for Solving the Problems]
An electronic musical instrument according to the present invention includes an accompaniment sound generation instructing means for instructing a chord of an accompaniment sound accompanied by a performance sound based on key depression and release of a keyboard, and an accompaniment sound based on the instruction content by the accompaniment sound generation instruction means An accompaniment sound generating means for generating the accompaniment sound, an output means for outputting the automatic accompaniment information for generating the accompaniment sound to the accompaniment sound generating means, and a constituent sound of the chord of the accompaniment sound generated by the accompaniment sound generating means Storage means for temporarily storing, and measuring means for measuring the time from when the accompaniment sound is generated by the accompaniment sound generation means, and the accompaniment sound generation means When the time has not elapsed, when the chord is changed by the accompaniment sound generation instruction means, the changed sound of the chord is compared with the sound of the chord temporarily stored in the storage means. , Compared results The common constituent sounds are continuously sounded, the new constituent sounds are re-sound, and the chord is changed by the accompaniment sound generation instruction means when the predetermined time has elapsed after the accompaniment sound is sounded. Then, the accompaniment sound that is being generated is muted, and the accompaniment sound is re- pronounced with a new chord.
[0008]
The automatic accompaniment method of the present invention includes an accompaniment sound generation instruction process for instructing a chord of an accompaniment sound that accompanies a performance sound based on key depression and release of the keyboard, and an accompaniment based on an instruction content by the accompaniment sound generation instruction process. Accompaniment sound generation processing for generating a sound, output processing for outputting automatic accompaniment information for generating the accompaniment sound to accompaniment sound generation means for executing the accompaniment sound generation processing, and the accompaniment sound generation processing The accompaniment sound generation process includes a storage process for temporarily storing the constituent sounds of the accompaniment sound, and a measurement process for measuring a time after the accompaniment sound is generated by the accompaniment sound generation process. When a predetermined time has not elapsed since the sound was generated, when the chord is changed by the accompaniment sound generation instruction processing, the component sound of the changed chord and the storage processing are temporarily stored Co As a result of the comparison, the common component sound is continuously generated, the new component sound is re-sound, and the accompaniment sound is sounded and the predetermined time has elapsed. When the chord is changed by the accompaniment sound sound generation instruction process, the accompaniment sound being sounded is muted and the accompaniment sound is re-produced by a new chord.
[0009]
The computer program according to the present invention includes an accompaniment sound pronunciation instruction process for instructing a chord of an accompaniment sound accompanied by a performance sound based on key depression and release of the keyboard, and an accompaniment sound based on the instruction content by the accompaniment sound pronunciation instruction process. Is generated by the accompaniment sound generation process, the automatic accompaniment information for generating the accompaniment sound is output to the accompaniment sound generation means for executing the accompaniment sound generation process, and the accompaniment sound generation process. The storage process for temporarily storing the constituent sounds of the accompaniment sound and the measurement process for measuring the time after the accompaniment sound is generated by the accompaniment sound generation process are executed by the computer. When a predetermined time has not elapsed since the accompaniment sound was generated, when the chord is changed by the accompaniment sound generation instruction process, the component sound of the changed chord and the memory As a result of comparison with the constituent sounds of the chord temporarily stored by the reason, the common constituent sounds are continuously pronounced, the new constituent sounds are re-sounded, the accompaniment sounds are pronounced, and then the predetermined sound is When the time has elapsed, when the chord is changed by the accompaniment sound generation instruction processing, the accompaniment sound being generated is muted and the accompaniment sound is re-produced by a new chord.
[0010]
The computer-readable recording medium of the present invention is characterized in that the computer program is recorded.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
Next, an electronic musical instrument, an automatic accompaniment method, a computer program, and a computer-readable recording medium will be described with reference to the accompanying drawings.
[0012]
FIG. 1 is a block diagram showing an example of a schematic configuration of the electronic musical instrument of the present embodiment.
In FIG. 1, an electronic musical instrument 1 includes a central processing unit (hereinafter referred to as CPU) 2, a read only memory (hereinafter referred to as ROM) 3, a random access memory (hereinafter referred to as RAM) 4, and a signal bus. 5, keyboard unit 6, operation panel unit 7, musical tone generation unit 8, digital / analog conversion unit (hereinafter referred to as D / A conversion unit) 9, analog signal processing unit 10, power amplifier 11, And a speaker unit 12.
[0013]
As shown in FIG. 1, the CPU 2, the ROM 3, the RAM 4, the keyboard unit 6, the operation panel unit 7, and the tone generation unit 8 are each connected to a signal bus 5 and can communicate with each other.
[0014]
The keyboard unit 6 has a plurality of keys including a plurality of keys for performing a performance and a key switch provided corresponding to each of the keys. The key switch is configured to detect a key touch response signal related to the operation speed of each key, as well as to detect key depression and key release of the keyboard.
[0015]
The operation panel unit 7 includes various operators for selecting and setting a tone color, a volume, and the like, and a display device including an LCD (liquid crystal display device) or an LED (light emitting diode) for displaying the selection and setting states. have.
[0016]
The various operators for selecting and setting the timbre, volume, etc. are, for example, a timbre setting switch, a volume setting volume, and an automatic accompaniment setting switch.
[0017]
The tone setting switch and the volume setting volume are for setting the tone and volume of the musical tone to be output. When the desired tone and volume are set by the tone setting switch and the volume setting volume, the setting contents are changed. A musical tone having a corresponding tone color and volume is output.
[0018]
The automatic accompaniment setting switch is a switch that is set when executing an accompaniment function for assisting manual performance performed by generating a melody (performance sound) corresponding to key depression and key release of the keyboard. Specific setting contents in the automatic accompaniment setting switch include, for example, musical sounds (musical notes), timbres, rhythms and the like for performing automatic accompaniment.
[0019]
The CPU 2 is for overall control of the electronic musical instrument 1 according to the present embodiment. For example, the CPU 2 performs the following processing using the RAM 4 as a work memory in accordance with a control program stored in the ROM 3. .
[0020]
That is, the CPU 2 performs a process of allocating the key information associated with the pressing or releasing of each key to the musical sound generating unit 8 by performing a scanning process of each key switch of the keyboard unit 6. Specific examples of key information associated with key pressing or key release include a Key ON / OFF signal, a Key identification signal (such as a key number), and a Key touch response signal.
[0021]
In addition, the CPU 2 scans a tone color setting switch, a volume setting volume, and an automatic accompaniment setting switch arranged on the operation panel unit 7, and generates a desired digital musical tone signal DMS corresponding to the set contents as a musical tone generating unit 8 Process to generate from.
[0022]
The ROM 3 is a read-only memory, and stores various data such as parameter data necessary for generating a desired digital musical tone signal DMS from the musical tone generator 8 in addition to the control program of the CPU 2 as described above.
[0023]
The ROM 3 of the present embodiment stores, for example, an automatic accompaniment pattern, an automatic accompaniment header, and an automatic accompaniment rhythm pattern in order to execute the automatic accompaniment function.
[0024]
The automatic accompaniment pattern is a performance pattern composed of information such as musical notes, and is stored in a predetermined storage area in the ROM 3 as a table for each of a plurality of instrument sounds (tone colors) and performance styles.
The automatic accompaniment header is information indicating which of the tables is used for automatic accompaniment.
The automatic accompaniment rhythm pattern is a rhythm pattern indicating the sound generation timing in automatic accompaniment, and is stored in a predetermined storage area in the ROM 3 for each instrument sound (tone color) and performance style.
[0025]
The automatic accompaniment pattern, the automatic accompaniment header, and the automatic accompaniment rhythm pattern are read by the CPU 2 as automatic accompaniment information and output to the musical tone generator 8 in accordance with the setting contents of the automatic accompaniment setting switch.
In other words, automatic accompaniment information indicating musical tones (musical notes), timbres, rhythms, etc. for performing automatic accompaniment according to the setting of the automatic accompaniment setting switch is output to the musical tone generator 8.
[0026]
The RAM 4 is a readable / writable memory, and has a storage area for temporarily storing various necessary data during the program execution process of the CPU 2 and for storing editable parameter data. Part or all of the RAM 4 is backed up by a battery so that necessary data corresponding to the tone set by the operation panel unit 7 can be held even when the electronic musical instrument 1 is turned off. Has been made.
[0027]
The musical sound generator 8 includes a performance sound generator 8a and an accompaniment sound generator 8b.
The performance sound generation unit 8a is configured with key information (Key ON / OFF signal, Key identification signal (key number, etc.), Key touch response signal, etc.) according to the content of the key pressing operation on the keyboard and the setting of the operation panel unit 7. Based on the content, a desired digital musical tone signal DMS corresponding to the performance sound according to the keyboard operation of the performer is generated.
[0028]
The accompaniment sound generation unit 8b performs the performance based on the key information (Key ON / OFF signal, Key identification signal (key number, etc.)) according to the content of the key pressing operation on the keyboard, and the automatic accompaniment information. A desired digital musical tone signal DMS corresponding to the accompaniment sound for accompaniment is generated.
[0029]
In the present embodiment, the case where the accompaniment sound is a chord (chord) will be described.
Further, in the electronic musical instrument of the present embodiment, when a predetermined key is pressed when automatic accompaniment is set by the automatic accompaniment setting switch, a predetermined key corresponding to the pressed key is pressed. The chord is pronounced.
[0030]
The D / A converter 9 has a function of converting the digital musical sound signal DMS generated by the musical sound generator 8 into an analog musical sound signal.
The analog signal processing unit 10 has a function of performing simple filter processing (noise removal processing) on the analog tone signal D / A converted by the D / A conversion unit 9.
[0031]
The power amplifier 11 performs amplification processing on the analog musical tone signal that has been subjected to noise removal processing by the analog signal processing unit 10 and amplifies it to an appropriate level.
The speaker unit 12 is for emitting an analog musical sound signal amplified by the power amplifier 11 as an audible signal, and is configured by one or a plurality.
[0032]
FIG. 2 is a block diagram showing more specifically the configuration of the musical tone generator 8 (accompaniment generator 8b) of the present embodiment shown in FIG.
In FIG. 2, the accompaniment sound generator 8 b includes an accompaniment sound waveform memory 20, a waveform readout circuit 21, an accompaniment sound signal generation circuit 22, and a buffer 23.
[0033]
The accompaniment sound waveform memory 20 is a memory for storing accompaniment musical sound waveform data AD in advance in a predetermined area as repetitive waveform data or as waveform data composed of a rising portion and a repetitive portion. The accompaniment sound waveform memory 20 is a memory shared with the performance sound generator 8a, and is used to generate a musical sound waveform signal DMS for performance sound corresponding to a performance sound based on key depression and key release of the keyboard. Is also used.
[0034]
The accompaniment musical sound waveform data AD is various musical sound waveform data corresponding to the tone color and tone range, and is used when performing the automatic accompaniment. That is, the accompaniment musical sound waveform data AD is data for generating the accompaniment sound.
[0035]
The waveform readout circuit 21 responds to a desired musical tone frequency data AD for a desired musical tone frequency based on a Key ON / OFF signal and a Key identification signal given in accordance with the operation of the keyboard and the automatic accompaniment information. Is read out from the accompaniment sound waveform memory 20 at a predetermined speed.
[0036]
The accompaniment musical sound waveform data AD is read from the waveform readout circuit 21 according to the address information given to the accompaniment sound waveform memory 20 in a time-sharing manner.
[0037]
The buffer 23 is a memory for temporarily storing the constituent sounds of the currently sounding chord. The writing operation and erasing operation to the buffer 23 are controlled by the accompaniment sound signal generation circuit 22.
[0038]
The accompaniment sound signal generation circuit 22 uses the accompaniment musical sound waveform data AD read from the accompaniment sound waveform memory 20 to generate a digital musical sound signal DMS corresponding to a desired chord, and performs chord sound generation processing.
[0039]
That is, the accompaniment sound signal generation circuit 22 performs a sound generation process such as filtering or adding an envelope on the accompaniment musical sound waveform data AD read from the accompaniment sound waveform memory 20 to perform the desired sound generation. A digital musical tone signal DMS corresponding to the chord is generated and output.
[0040]
However, when performing the sound generation process, if it is detected that the chord has been changed, the following process is performed.
First, it is searched whether or not each component sound of the changed chord is stored in the buffer 23.
[0041]
Then, if it is stored, a new sound generation process is not performed, and the component sound that is currently sounding is continuously sounded as it is.
On the other hand, if it is not stored, a sound having a pitch closest to the component sound of the changed new chord is searched from the sounds stored in the buffer 23, and the changed new chord is searched. The difference between the pitches of the constituent sounds and the searched sound is calculated.
[0042]
Then, based on the calculated result, the pitch of the searched sound is changed to the pitch of the changed sound of the new chord, and re-sounding is performed. Then, the changed sound of the new chord is stored in the buffer 23.
[0043]
Next, an example of the operation of the musical tone generation unit 8 (accompaniment sound generation unit 8b) of the present embodiment will be described with reference to the flowchart of FIG. In the following, a case where the automatic accompaniment function is executed will be described.
[0044]
First, in the first step S1, the waveform readout circuit 21 and the accompaniment sound signal generation circuit 22 wait until input of desired key information (Key ON / OFF signal, Key identification signal) and automatic accompaniment information. When the information is input and an accompaniment sound generation command is received, the process proceeds to step S2.
[0045]
Next, in step S2, the waveform readout circuit 21 reads out desired accompaniment musical sound waveform data AD from the accompaniment sound waveform memory 20 based on the key information and the automatic accompaniment information input in step S1, and accompaniment sounds. The signal is output to the signal generation circuit 22.
[0046]
Next, in step S <b> 3, the accompaniment sound signal generation circuit 22 performs a filtering process, an envelope applying process, etc. on the accompaniment musical sound waveform data AD to generate a digital musical sound signal DMS and stores it in the buffer 23.
[0047]
Next, in step S4, the accompaniment sound signal generation circuit 22 determines whether or not the chord has been changed based on the key information. As a result of this determination, if the code has not been changed, the process from step S5 to step S8 is omitted and the process proceeds to step S9 described later.
[0048]
On the other hand, if the result of determination in step S4 is that the chord has been changed, the process proceeds to step S5, where one of the constituent sounds of the changed new chord is selected, and the selected configuration is selected. It is searched whether or not the sound is stored in the buffer 23. As a result of the search, if not stored, the process proceeds to step S6, and if stored, the process of step S6 is omitted and the process proceeds to step S7 described later.
[0049]
Next, in step S6, the accompaniment sound signal generation circuit 22 searches the sound stored in the buffer 23 for a sound having the closest pitch to the component sound of the changed new chord, and changes the changed sound. The difference between the pitches of the new chord constituent sound and the searched sound is calculated. And based on the said calculation result, the process which changes the pitch of the said searched sound into the structure sound of the said changed chord is performed.
[0050]
Next, in step S7, the accompaniment sound signal generation circuit 22 determines whether or not the search process in step S5 has been completed for all the constituent sounds of the changed new chord. As a result of the determination, if it is not completed, the processing from step S5 to step S7 is repeated until the determination is completed. When completed, the process proceeds to step S8, where the digital musical tone signal DMS corresponding to all the constituent sounds whose pitches are changed in step S6 is generated, and in step S3, the digital musical tone signal DMS stored in the buffer 23 is generated. Rewrite to DMS.
[0051]
Next, in step S 9, the accompaniment sound signal generation circuit 22 outputs the digital musical tone signal DMS created in step S 3 or step S 8 to the D / A converter 9. If there are a plurality of component sounds changed in step S6, processing is performed so that the plurality of component sounds are pronounced as chords.
[0052]
Next, in step S10, the accompaniment sound signal generation circuit 23 has received a mute command by detecting, based on the key information, that the predetermined keyboard for performing automatic accompaniment has been released. Determine. If the result of determination is that a mute command has not been received, processing returns to step S1.
[0053]
On the other hand, if the result of determination in step S10 is that a mute command has been received, the process proceeds to step S11 to perform a process of mute the chord corresponding to the key that has been released, and information about the constituent sound of the mute code. Erase from buffer 23.
[0054]
Next, in step S12, it is determined whether or not the automatic accompaniment performance is finished. If the performance is not finished, the process returns to step S2, and the processes from step S1 to step S12 are performed until the performance is finished. repeat.
[0055]
As described above, in this embodiment, the constituent sounds of chords that are sounded as accompaniment sounds are stored in the buffer 23, and when the chords are changed, the sounding chords and the changed chords are changed. If there is a common component sound, the component sound of the chord is pronounced as it is, and if not, the above change is made. Since the pitch of the sound closest to the sound of the chord is changed to the above-mentioned changed chord pitch, the new chord can be re-sound without muting the chord being played. Can do. Further, the number of sounds to be subjected to the sound generation process can be reduced as much as possible.
[0056]
Therefore, when a chord change in automatic accompaniment is detected, it is possible to quickly perform a performance with the new chord while preventing the attack sound from being pronounced frequently when the chord is changed. Automatic accompaniment can be performed smoothly.
[0057]
Also, when chords are changed, it is possible to determine whether to perform retrigger processing (processing to mute the sound that is sounded and re-sound it) according to the tone of the chord that is sounding. A method of performing automatic accompaniment is also conceivable. However, this method requires a table for determining whether or not to perform the retrigger process.
[0058]
On the other hand, the information stored when the accompaniment sound is re-sound by the electronic musical instrument 1 of the present embodiment is only information related to the chord being pronounced. Therefore, automatic accompaniment can be smoothly performed with a small amount of information. Thereby, it is not necessary to provide a memory having a large capacity, and the cost can be reduced.
[0059]
In the present embodiment, the constituent sounds of the chord being sounded are stored using the buffer 23. However, it is not necessarily stored in the buffer 23, and may be stored in the RAM 4, for example.
In the present embodiment, the case where the accompaniment sound is a chord has been described as an example, but the accompaniment sound may be one sound. In this case, steps S5 and S7 in FIG. 3 are omitted.
[0060]
(Second Embodiment)
Next, a second embodiment of an electronic musical instrument, an automatic accompaniment method, a computer program, and a computer-readable recording medium will be described.
[0061]
In the present embodiment, when a chord is changed before a predetermined time has elapsed since the chord that is an accompaniment sound is generated, the re-sounding process similar to that in the first embodiment described above is performed. When the chord is changed after the predetermined time or more has elapsed, the retrigger process is performed to mute each constituent sound of the sounding chord and re-generate the constituent sound of the changed chord.
[0062]
As described above, the processing of the electronic musical instrument of the present embodiment when the chord is changed before a predetermined time has elapsed after the chord that is the accompaniment sound is generated is the same as in the first embodiment described above. Therefore, the same parts as those in the first embodiment described above are denoted by the same reference numerals as those in FIGS. 1 and 2, and detailed description thereof is omitted.
[0063]
FIG. 4 is a block diagram showing more specifically the configuration of the musical tone generator (accompaniment tone generator) of the present embodiment.
In FIG. 4, the accompaniment sound generator 8 b 2 includes an accompaniment memory 20, a waveform readout circuit 21, a buffer 23, an accompaniment sound signal generation circuit 31, and a counter 33. The accompaniment sound generation unit 8b2 corresponds to the accompaniment sound generation unit 8b of the first embodiment shown in FIG.
[0064]
The accompaniment sound signal generation circuit 31 causes the counter 33 to count the time after the accompaniment digital musical tone signal DMS is output to the D / A converter 9 (the time after the chord is sounded). If the time from when a chord is sounded until a new chord is detected is less than the predetermined time, the same processing as the processing from step S5 to step S8 in FIG. 3 described in the first embodiment is performed. I do. On the other hand, when it is longer than the predetermined time, the retrigger process is performed.
[0065]
The predetermined time is set based on parameters depending on the volume of the sound being sounded, such as the remaining time of the gate time of the sound being sounded. For example, the time from when the chord is sounded until the remaining gate time of the chord reaches a certain time is set as the predetermined time.
[0066]
Next, an example of the operation of the tone generator 8 (accompaniment generator 8b2) of the present embodiment will be described with reference to the flowchart of FIG. In the following, a case where the automatic accompaniment function is executed will be described.
[0067]
First, in the first step S21, the waveform readout circuit 21 and the accompaniment sound signal generation circuit 31 stand by until desired key information and automatic accompaniment information are input. Reads out the desired accompaniment musical sound waveform data AD and outputs it to the accompaniment sound signal generation circuit 31.
[0068]
Next, in step S 23, the accompaniment sound signal generation circuit 31 performs a filtering process, an envelope applying process, etc. on the accompaniment musical sound waveform data AD to generate a digital musical sound signal DMS and stores it in the buffer 23.
[0069]
Next, in step S24, the accompaniment sound signal generation circuit 31 determines whether or not the chord has been changed based on the key information. As a result of the determination, if the code has not been changed, the processing from step S25 to step S29 and step 34 described later is omitted, and the process proceeds to step S30.
[0070]
On the other hand, if the chord has been changed, the process proceeds to step S25, and the accompaniment sound signal generation circuit 31 refers to the value of the counter 33 until the new chord is detected from the previous chord output (pronunciation). It is determined whether the time is equal to or longer than a predetermined time.
[0071]
If the result of determination in step S25 is less than the predetermined time, the same processing from step S26 to step S29 as the processing from step S5 to step S8 shown in FIG. 1 is performed. In step S30, the accompaniment sound signal generation circuit 31 outputs the digital musical tone signal DMS to the D / A converter 9 and starts counting by the counter 33 in the same manner as in step S9 shown in FIG. .
[0072]
On the other hand, if it is equal to or longer than the predetermined time, the process proceeds to step S34, where the accompaniment sound signal generation circuit 31 performs the retrigger process for muting the chord being sounded, and then proceeds to step S30.
In step S31, the accompaniment sound signal generation circuit 31 determines whether or not a mute command has been received in the same manner as in step S10 of FIG. If the result of this determination is that it has not been accepted, processing returns to step S21.
[0073]
On the other hand, if it has been accepted, the process proceeds to step S 32, where a process for muting the chord corresponding to the released key is performed, and information about the constituent sound of the muted chord is erased from the buffer 23. Then, the counter 33 is reset.
[0074]
Next, in step S33, it is determined whether or not the automatic accompaniment has ended. If the performance has not ended, the process returns to step S22, and the processes from step S21 to step S34 are performed until the automatic accompaniment ends. repeat.
[0075]
As described above, in the present embodiment, before a predetermined time elapses from when a chord is generated as an accompaniment sound until a new chord is detected, the same as in the first embodiment described above. On the other hand, the retrigger process is performed after the predetermined time has elapsed, so even if the retrigger process is performed and automatic accompaniment is performed, it is possible to prevent the attack sound from being complicated. can do.
[0076]
In the present embodiment, the time from when a chord is generated as an accompaniment sound until a new chord is detected is counted using the counter 33. However, measurement by software processing is performed without using hardware. You may make it manage time by a means.
[0077]
Also in the present embodiment, the case where the accompaniment sound is a chord has been described as an example, but the accompaniment sound may be one sound. In this case, the processes in steps S26 and S28 in FIG. 5 are omitted.
[0078]
(Other embodiments of the present invention)
In order to operate various devices in order to realize the functions of the above-described embodiments, a program code of software for realizing the functions of the above-described embodiments is provided to an apparatus connected to the various devices or a computer in the system. What is implemented by operating the various devices according to a program supplied and stored in a computer (CPU or MPU) of the system or apparatus is also included in the scope of the present invention.
[0079]
In this case, the program code itself of the software realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, the program code are stored. The recorded medium constitutes the present invention. As a recording medium for storing the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0080]
Further, by executing the program code supplied by the computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) or other application software in which the program code is running on the computer, etc. It goes without saying that the program code is also included in the embodiment of the present invention even when the functions of the above-described embodiment are realized in cooperation with the embodiment.
[0081]
Further, after the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU provided in the function expansion board or function expansion unit based on the instruction of the program code Needless to say, the present invention includes a case where the functions of the above-described embodiment are realized by performing part or all of the actual processing.
[0082]
【The invention's effect】
As described above, according to the present invention, it is possible to prevent the attack sound from being generated as much as possible, and to perform a smooth performance.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a schematic configuration of an electronic musical instrument according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the first embodiment of the present invention and more specifically showing the configuration of a tone generation unit.
FIG. 3 is a flowchart illustrating an example of an operation of a musical sound generating unit according to the first embodiment of this invention.
FIG. 4 is a block diagram showing a second embodiment of the present invention and more specifically showing a configuration of a musical sound generating unit.
FIG. 5 is a flowchart illustrating an example of the operation of a musical sound generating unit according to the second embodiment of this invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Electronic musical instrument 6 Keyboard part 7 Operation panel part 8 Music sound generation part 20 Accompaniment waveform memory 21 Waveform read-out circuit 22, 31 Accompaniment sound signal generation circuit 23 Buffer 33 Counter

Claims (6)

鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示手段と、
上記伴奏音発音指示手段による指示内容に基づいた伴奏音を発音させる伴奏音発音手段と、
上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音手段に出力する出力手段と、
上記伴奏音発音手段により発音される伴奏音のコードの構成音を一時記憶する記憶手段と、
上記伴奏音発音手段により伴奏音が発音されてからの時間を計測する計測手段とを有し、
上記伴奏音発音手段は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示手段によりコードが変更されると、その変更されたコードの構成音と、上記記憶手段に一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示手段によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とする電子楽器。
Accompaniment sound generation instructing means for instructing a chord of an accompaniment sound accompanied by a performance sound based on key depression and key release of the keyboard;
An accompaniment sound generating means for generating an accompaniment sound based on an instruction content by the accompaniment sound generation instruction means;
Output means for outputting automatic accompaniment information for generating the accompaniment sound to the accompaniment sound generation means;
Storage means for temporarily storing a constituent sound of a chord of an accompaniment sound generated by the accompaniment sound generation means;
Measuring means for measuring the time from when the accompaniment sound is generated by the accompaniment sound generating means,
The accompaniment sound generating means, when a predetermined time has not elapsed since the accompaniment sound was generated, and when the chord is changed by the accompaniment sound generation instruction means, After comparing the constituent sounds of the chord temporarily stored in the storage means and comparing them, the common constituent sounds are continuously pronounced, the new constituent sounds are re-sound, and the accompaniment sounds are pronounced. When the chord is changed by the accompaniment sound generation instructing means when the predetermined time has elapsed, the accompaniment sound being generated is muted and the accompaniment sound is re-produced by a new chord. An electronic musical instrument.
上記伴奏音発音指示手段は、所定の鍵盤が押鍵されたときに上記伴奏音のコードを指示することを特徴とする請求項1に記載の電子楽器。  2. The electronic musical instrument according to claim 1, wherein the accompaniment sound generation instructing unit instructs a chord of the accompaniment sound when a predetermined key is pressed. 鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示処理と、
上記伴奏音発音指示処理による指示内容に基づいた伴奏音を発音させる伴奏音発音処理と、
上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音処理を実行する伴奏音発音手段に出力する出力処理と、
上記伴奏音発音処理により発音される伴奏音のコードの構成音を一時記憶する記憶処理と、
上記伴奏音発音処理により伴奏音が発音されてからの時間を計測する計測処理とを有し、
上記伴奏音発音処理は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示処理によりコードが変更されると、その変更されたコードの構成音と、上記記憶処理により一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示処理によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とする自動伴奏方法。
Accompaniment sound generation instruction processing for instructing a chord of an accompaniment sound accompanied by a performance sound based on key depression and key release of the keyboard;
An accompaniment sound generation process for generating an accompaniment sound based on the instruction content by the accompaniment sound generation instruction process;
An output process for outputting the accompaniment information for generating the accompaniment sound to an accompaniment sound generation means for executing the accompaniment sound generation process;
A storage process for temporarily storing a constituent sound of a chord of an accompaniment sound generated by the accompaniment sound generation process;
A measurement process for measuring the time after the accompaniment sound is generated by the accompaniment sound generation process,
In the accompaniment sound generation process, when a predetermined time has not elapsed since the accompaniment sound was generated, when the chord is changed by the accompaniment sound generation instruction process, After comparing the constituent sounds of the chord temporarily stored by the storage process and comparing them, the common constituent sounds are continuously pronounced, the new constituent sounds are re-sound, and the accompaniment sounds are pronounced. When the predetermined time has elapsed, when the chord is changed by the accompaniment sound sound generation instruction process, the accompaniment sound being sounded is muted and the accompaniment sound is re-produced by a new chord. An automatic accompaniment method.
上記伴奏音発音指示処理は、所定の鍵盤が押鍵されたときに上記伴奏音のコードを指示することを特徴とする請求項3に記載の自動伴奏方法。  4. The automatic accompaniment method according to claim 3, wherein the accompaniment sound generation instruction process instructs a chord of the accompaniment sound when a predetermined key is pressed. 鍵盤の押鍵と離鍵とに基づく演奏音を伴奏する伴奏音のコードを指示する伴奏音発音指示処理と、
上記伴奏音発音指示処理による指示内容に基づいた伴奏音を発音させる伴奏音発音処理と、
上記伴奏音を発生させるための自動伴奏情報を、上記伴奏音発音処理を実行する伴奏音発音手段に出力する出力処理と、
上記伴奏音発音処理により発音される伴奏音のコードの構成音を一時記憶する記憶処理と、
上記伴奏音発音処理により伴奏音が発音されてからの時間を計測する計測処理とをコンピュータに実行させ、
上記伴奏音発音処理は、上記伴奏音を発音させてから所定の時間が経過していない場合には、上記伴奏音発音指示処理によりコードが変更されると、その変更されたコードの構成音と、上記記憶処理により一時記憶されたコードの構成音とを比較し、比較した結果、共通の構成音については発音させ続け、新たな構成音については再発音し、上記伴奏音を発音させてから上記所定の時間が経過した場合には、上記伴奏音発音指示処理によりコードが変更されると、発音中の伴奏音を消音して、新しいコードにより伴奏音を再発音するようにしたことを特徴とするコンピュータプログラム。
Accompaniment sound generation instruction processing for instructing a chord of an accompaniment sound accompanied by a performance sound based on key depression and key release of the keyboard;
An accompaniment sound generation process for generating an accompaniment sound based on the instruction content by the accompaniment sound generation instruction process;
An output process for outputting the accompaniment information for generating the accompaniment sound to an accompaniment sound generation means for executing the accompaniment sound generation process;
A storage process for temporarily storing a constituent sound of a chord of an accompaniment sound generated by the accompaniment sound generation process;
Causing the computer to execute a measurement process for measuring the time after the accompaniment sound is generated by the accompaniment sound generation process,
In the accompaniment sound generation process, when a predetermined time has not elapsed since the accompaniment sound was generated, when the chord is changed by the accompaniment sound generation instruction process, After comparing the constituent sounds of the chord temporarily stored by the storage process and comparing them, the common constituent sounds are continuously pronounced, the new constituent sounds are re-sound, and the accompaniment sounds are pronounced. When the predetermined time has elapsed, when the chord is changed by the accompaniment sound sound generation instruction process, the accompaniment sound being sounded is muted and the accompaniment sound is re-produced by a new chord. Computer program.
請求項5に記載のコンピュータプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。  A computer-readable recording medium on which the computer program according to claim 5 is recorded.
JP2002200229A 2002-07-09 2002-07-09 Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium Expired - Fee Related JP3970114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002200229A JP3970114B2 (en) 2002-07-09 2002-07-09 Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002200229A JP3970114B2 (en) 2002-07-09 2002-07-09 Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium

Publications (2)

Publication Number Publication Date
JP2004045528A JP2004045528A (en) 2004-02-12
JP3970114B2 true JP3970114B2 (en) 2007-09-05

Family

ID=31707149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002200229A Expired - Fee Related JP3970114B2 (en) 2002-07-09 2002-07-09 Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP3970114B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5168297B2 (en) * 2010-02-04 2013-03-21 カシオ計算機株式会社 Automatic accompaniment device and automatic accompaniment program
JP7279700B2 (en) * 2020-12-08 2023-05-23 カシオ計算機株式会社 Performance device, method and program

Also Published As

Publication number Publication date
JP2004045528A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
JP2756877B2 (en) Phrase playing device
JP3970114B2 (en) Electronic musical instrument, automatic accompaniment method, computer program, and computer-readable recording medium
JP2587737B2 (en) Automatic accompaniment device
JP4239706B2 (en) Automatic performance device and program
JP4648177B2 (en) Electronic musical instruments and computer programs
JP2660462B2 (en) Automatic performance device
JP7425558B2 (en) Code detection device and code detection program
JP2641851B2 (en) Automatic performance device
JP2643277B2 (en) Automatic performance device
JP4520521B2 (en) Electronic musical instrument tuning correction apparatus, electronic musical instrument tuning correction method, computer program, and recording medium
JPS62187894A (en) Electronic musical apparatus
JP3424989B2 (en) Automatic accompaniment device for electronic musical instruments
JP2572317B2 (en) Automatic performance device
JP4253607B2 (en) Electronic musical instrument tuning correction apparatus, electronic musical instrument tuning correction method, computer program, and recording medium
JP3143039B2 (en) Automatic performance device
JP2739244B2 (en) Electronic musical instrument
JP2974471B2 (en) Automatic performance device
JP2005284076A (en) Electronic musical instrument
JP2556639B2 (en) Automatic playing device
JP2665854B2 (en) Automatic performance device
JPH08152880A (en) Electronic musical instrument
JPH07104753A (en) Automatic tuning device of electronic musical instrument
JP2003066961A (en) Parameter setting device, parameter setting method, memory media and program, for electronic musical tone generator
JP2007065471A (en) Electronic musical sound generator
JPH04243295A (en) Electronic musical instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070605

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3970114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130615

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees