JP7375836B2 - Electronic musical instruments, musical sound generation methods and programs - Google Patents

Electronic musical instruments, musical sound generation methods and programs Download PDF

Info

Publication number
JP7375836B2
JP7375836B2 JP2022000591A JP2022000591A JP7375836B2 JP 7375836 B2 JP7375836 B2 JP 7375836B2 JP 2022000591 A JP2022000591 A JP 2022000591A JP 2022000591 A JP2022000591 A JP 2022000591A JP 7375836 B2 JP7375836 B2 JP 7375836B2
Authority
JP
Japan
Prior art keywords
string
closed
signal
sound
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022000591A
Other languages
Japanese (ja)
Other versions
JP2022049019A5 (en
JP2022049019A (en
Inventor
吾朗 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022000591A priority Critical patent/JP7375836B2/en
Publication of JP2022049019A publication Critical patent/JP2022049019A/en
Publication of JP2022049019A5 publication Critical patent/JP2022049019A5/ja
Application granted granted Critical
Publication of JP7375836B2 publication Critical patent/JP7375836B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器、楽音発生方法およびプログラムに関する。 The present invention relates to an electronic musical instrument, a musical tone generation method, and a program.

アコースティックピアノの共鳴音をより忠実に模擬できる共鳴音生成装置の技術が提案されている。(例えば、特許文献1) Techniques have been proposed for resonance sound generation devices that can more faithfully simulate the resonance sounds of an acoustic piano. (For example, Patent Document 1)

特開2015-143764号公報Japanese Patent Application Publication No. 2015-143764

ピアノの物理モデルの音源方式では、基本的な弦のモデルのみを生成し、出力はモノラルである。出力をステレオ化するための一般的な手法として、ピアノの1つの鍵に対して、励振信号と打撃信号の弦モデルを左チャンネル用と右チャンネル用の2セット独立して持つようなピアノのモデリング方法が考えられている。 The sound source method for the physical piano model generates only a basic string model, and the output is monaural. A common method for stereo output is to model a piano in which each piano key has two independent sets of string models for the excitation signal and percussion signal, one for the left channel and one for the right channel. A method is being considered.

こうして1つの鍵当たりで2セットの信号処理の系統を持ってステレオ化する場合、信号の処理量が単純にモノラルの2倍必要となる。例えば、弦が鍵それぞれに1弦乃至3弦あって、総鍵数が88である場合には、弦の総数が230程度となる。したがって、ステレオ用に2セット必要な場合、460程度の弦モデルが必要となるもので、信号の処理量が多く、回路の負担が増大する。 In this way, when converting to stereo using two sets of signal processing systems per key, the amount of signal processing is simply twice that of monaural processing. For example, if each key has one to three strings, and the total number of keys is 88, the total number of strings is about 230. Therefore, if two sets are required for stereo, about 460 string models are required, which requires a large amount of signal processing and increases the load on the circuit.

本発明は前記のような実情に鑑みてなされたもので、その目的とするところは、信号の処理量を抑えながら、良好なステレオ感の楽音を発音当初より生成することが可能な電子楽器、楽音発生方法およびプログラムを提供することにある。 The present invention has been made in view of the above-mentioned circumstances, and its purpose is to provide an electronic musical instrument that can generate musical tones with good stereo sound from the beginning, while suppressing the amount of signal processing. The object of the present invention is to provide a musical tone generation method and program.

本発明の一態様は、入力される励振信号を遅延および帰還させる複数の閉ループであって、左チャンネル用の弦音信号の生成に用いられる第1閉ループと、右チャンネル用の弦音信号の生成に用いられる第2閉ループと、左チャンネルと右チャンネルで共用する中央定位の弦音信号の生成に用いられる第3閉ループと、を含む複数の閉ループを有する音源を備える、電子楽器である。 One aspect of the present invention provides a plurality of closed loops that delay and feed back an input excitation signal , the first closed loop being used to generate a string tone signal for the left channel, and the first closed loop being used to generate a string tone signal for the right channel. The electronic musical instrument includes a sound source having a plurality of closed loops, including a second closed loop used to generate a centrally located string tone signal shared by the left channel and the right channel.

本発明によれば、信号の処理量を抑えながら、良好なステレオ感の楽音を発音当初より生成することが可能となる。 According to the present invention, it is possible to generate musical tones with good stereo sound from the beginning of sound generation while suppressing the amount of signal processing.

本発明の一実施形態に係る電子鍵盤楽器の基本的なハードウェア回路の構成を示すブロック図。FIG. 1 is a block diagram showing a basic hardware circuit configuration of an electronic keyboard instrument according to an embodiment of the present invention. 同実施形態に係る音源のDSPが実行する機能をハードウェア回路の構成として示すブロック図。FIG. 3 is a block diagram showing functions executed by the DSP of the sound source according to the embodiment as a configuration of a hardware circuit. 同実施形態に係る弦音の基音と倍音の周波数スペクトルを例示する図。FIG. 3 is a diagram illustrating frequency spectra of fundamental tones and overtones of string sounds according to the embodiment. 同実施形態に係る打撃音の周波数スペクトルを例示する図。The figure which illustrates the frequency spectrum of the impact sound based on the same embodiment. 同実施形態に係る楽音の周波数スペクトルを例示する図。FIG. 3 is a diagram illustrating a frequency spectrum of musical tones according to the embodiment. 同実施形態に係る弦音の励振インパルスの波形データから閉ループ回路により弦音の波形データを生成する概念について説明する図。FIG. 3 is a diagram illustrating a concept of generating waveform data of string sounds using a closed loop circuit from waveform data of excitation impulses of string sounds according to the embodiment. 同実施形態に係る4本の弦モデルに割り当てられる弦音の周波数と、それら周波数の相違によって生じるうなりの関係を示す図。FIG. 7 is a diagram showing the relationship between the frequencies of string sounds assigned to the four string models according to the embodiment and the beat caused by the difference in these frequencies.

以下、本発明を電子鍵盤楽器に適用した場合の一実施形態について、図面を参照して説明する。
[構成]
図1は、本実施形態に係る電子鍵盤楽器10の基本的なハードウェア回路の構成を示すブロック図である。演奏操作子である鍵盤部11での操作に応じた、ノートナンバー(音高情報)と音量情報としてのベロシティ値(押鍵速度)とを含む操作信号が、LSI12のCPU12Aに入力される。
An embodiment in which the present invention is applied to an electronic keyboard instrument will be described below with reference to the drawings.
[composition]
FIG. 1 is a block diagram showing the basic hardware circuit configuration of an electronic keyboard instrument 10 according to this embodiment. An operation signal including a note number (pitch information) and a velocity value (key pressing speed) as volume information is input to the CPU 12A of the LSI 12 in response to an operation on the keyboard section 11, which is a performance operator.

LSI12は、バスBを介してCPU12A、ROM12B、RAM12C、音源12D、D/A変換部(DAC)12Eを接続している。 The LSI 12 is connected via a bus B to a CPU 12A, a ROM 12B, a RAM 12C, a sound source 12D, and a D/A converter (DAC) 12E.

CPU12Aは、電子鍵盤楽器10全体の動作を制御する。ROM12Bは、CPU12Aが実行する動作プログラムや演奏のための励振信号用波形データ、打撃音波形データ等を記憶する。RAM12Cは、CPU12AがROM12Bに記憶されている動作プログラムを読み出して展開記憶し、当該プログラムを実行する際のワークメモリである。CPU12Aは、演奏動作時に音源12Dに対して、ノートナンバーやベロシティ値などのパラメータを与える。 The CPU 12A controls the overall operation of the electronic keyboard instrument 10. The ROM 12B stores operation programs executed by the CPU 12A, waveform data for excitation signals for performance, percussion sound waveform data, and the like. The RAM 12C is a work memory used when the CPU 12A reads an operating program stored in the ROM 12B, expands and stores the program, and executes the program. The CPU 12A provides parameters such as note numbers and velocity values to the sound source 12D during performance operations.

音源12Dは、DSP(デジタルシグナルプロセッサ)12D1、プログラムメモリ12D2、ワークメモリ12D3を有する。DSP12D1が、プログラムメモリ12D2に記憶される動作プログラムや固定データを読み出してワークメモリ12D3上に展開して記憶させた上で動作プログラムを実行することにより、CPU12Aから与えられたパラメータに応じて、ROM12Bから必要な弦音の励振信号用の波形データや打撃音の波形データに基づき、信号処理によって左チャンネルと右チャンネルのステレオ楽音信号を生成し、生成した楽音信号をD/A変換部12Eへ出力する。 The sound source 12D includes a DSP (digital signal processor) 12D1, a program memory 12D2, and a work memory 12D3. The DSP 12D1 reads the operating program and fixed data stored in the program memory 12D2, develops and stores them on the work memory 12D3, and executes the operating program, thereby executing the operating program in the ROM 12B according to the parameters given from the CPU 12A. Based on the waveform data for the excitation signal of the string sound and the waveform data of the percussion sound, the left channel and right channel stereo musical sound signals are generated by signal processing, and the generated musical sound signals are output to the D/A converter 12E. .

D/A変換部12Eは、ステレオ楽音信号をそれぞれアナログ化して、アンプ(amp.)13L、13Rへ出力する。アンプ13L、13Rで増幅されたアナログの左チャンネルと右チャンネルの楽音信号により、スピーカ14L、14Rが楽音をステレオ音として拡声放音する。 The D/A converter 12E converts the stereo musical tone signals into analog signals and outputs them to amplifiers 13L and 13R. Speakers 14L and 14R amplify the musical tones as stereo sounds by analog left channel and right channel musical tone signals amplified by amplifiers 13L and 13R.

なお、図1は電子鍵盤楽器10に適用した場合のハードウェア回路の構成を説明するものであり、本実施形態で実行する機能を、例えばパーソナルコンピュータ等の情報処理機器にインストールしたアプリケーションプログラムで実行する場合には、当該機器のCPUが音源12Dにおける動作を実行する。 Note that FIG. 1 explains the configuration of a hardware circuit when applied to an electronic keyboard instrument 10, and the functions executed in this embodiment are executed by an application program installed in an information processing device such as a personal computer. If so, the CPU of the device executes the operation in the sound source 12D.

図2は、主として音源12DのDSP12D1が実行する機能をハードウェア回路の構成として示すブロック図である。同図は、後述するノートイベント処理部31、波形メモリ34、加算器42L、42Rを除いて、図中にIIで示す範囲が鍵盤部11に含まれる1鍵に相当する。この電子鍵盤楽器10では、鍵盤部11に88鍵あるものとして、同様の回路が88鍵分設けられる。電子鍵盤楽器10では、1鍵当たりで4本の弦モデルの信号循環回路を有して、ステレオの楽音信号を発生させる。 FIG. 2 is a block diagram mainly showing the functions executed by the DSP 12D1 of the sound source 12D as a hardware circuit configuration. In the figure, the range indicated by II in the figure corresponds to one key included in the keyboard section 11, excluding a note event processing section 31, a waveform memory 34, and adders 42L and 42R, which will be described later. In this electronic keyboard instrument 10, assuming that the keyboard section 11 has 88 keys, similar circuits are provided for 88 keys. The electronic keyboard instrument 10 has a four-string model signal circulation circuit for each key, and generates a stereo tone signal.

前記鍵盤部11での鍵の操作に応じたノートオン/オフ信号が、CPU12Aからノートイベント処理部31に入力される。 Note on/off signals corresponding to key operations on the keyboard section 11 are input from the CPU 12A to the note event processing section 31.

ノートイベント処理部31は、操作された鍵に応じて、発音開始(ノートオン)時のノートナンバーとベロシティ値の各情報を波形読出し部32および窓掛け処理部33に送出するとともに、各弦モデルと打撃音のゲートアンプ35A~35Fにノートオン信号とベロシティ値に応じた乗数とを送出する。 The note event processing section 31 sends information on the note number and velocity value at the time of start of sound generation (note-on) to the waveform reading section 32 and the windowing processing section 33 according to the operated key, and also sends information on each string model. A note-on signal and a multiplier corresponding to the velocity value are sent to the percussion sound gate amplifiers 35A to 35F.

さらにノートイベント処理部31は、減衰アンプ39A~39Dに対して帰還減衰量を示す信号を送出する。 Further, the note event processing section 31 sends a signal indicating the amount of feedback attenuation to the attenuation amplifiers 39A to 39D.

波形読出し部32は、ノートナンバーとベロシティ値の情報とに応じた読出しアドレスを発生して、波形メモリ34(ROM12B)から弦音の励振信号としての波形データと打撃音の波形データとを読出す。具体的には、モノラルの弦音を発生させるための励振インパルス(励I)と、左チャンネルの打撃音(打L)、右チャンネルの打撃音(打R)の各波形データを波形メモリ34から読出して、窓掛け処理部33へ出力する。 The waveform reading unit 32 generates a read address according to the note number and velocity value information, and reads waveform data as an excitation signal of the string sound and waveform data of the percussion sound from the waveform memory 34 (ROM 12B). Specifically, each waveform data of an excitation impulse (excitation I) for generating a monaural string sound, a left channel percussion sound (percussion L), and a right channel percussion sound (percussion R) is read from the waveform memory 34. Then, it is output to the windowing processing section 33.

窓掛け処理部33は、特に弦音の励振インパルス(励I)に対し、ノートナンバー情報から当該ノートナンバーに応じた音高の波長に対応した時間幅で窓掛け(窓関数)処理を実行し、窓掛け処理後の波形データをゲートアンプ35A~35Fへ送出する。 The windowing processing unit 33 performs windowing (window function) processing on the excitation impulse (excitation I) of the string tone in particular, using the note number information, with a time width corresponding to the wavelength of the pitch according to the note number, The waveform data after the windowing process is sent to gate amplifiers 35A to 35F.

まず、4本の弦モデルの信号循環(閉ループ)回路の1つ、最上段のゲートアンプ35Aの後段側を説明する。このゲートアンプ35Aの後段側では、時間的に連続した左チャンネルの弦音の波形データを生成する。 First, one of the signal circulation (closed loop) circuits of the four string model, the latter stage of the top stage gate amplifier 35A, will be explained. The downstream side of the gate amplifier 35A generates temporally continuous waveform data of the string tone of the left channel.

ゲートアンプ35Aにおいて、窓掛け処理後の波形データに対し、ベロシティ値に応じた乗数での増幅処理を施し、処理後の波形データを加算器36Aへ出力する。加算器36Aにはまた、後述する減衰アンプ39Aが出力する、減衰処理後の波形データが帰還入力されており、その加算出力がこの弦モデルの出力として、ディレイ回路37Aに出力される。ディレイ回路37Aは、アコースティックピアノにおいて、当該弦が振動した際に出力される音の1波長に応じた値の弦長ディレイが設定されており、その弦長ディレイ分だけ波形データを遅延して、後段のローパスフィルタ(LPF)39Aへ出力する。つまり、ディレイ回路37Aにより、入力されたノートナンバー情報(音高情報)に応じて決定されている時間(1波長分の時間)だけ遅延させる。 The gate amplifier 35A performs amplification processing on the waveform data after the windowing processing using a multiplier according to the velocity value, and outputs the processed waveform data to the adder 36A. The adder 36A also receives feedback input of attenuated waveform data output from an attenuation amplifier 39A, which will be described later, and its addition output is output to the delay circuit 37A as the output of this string model. In an acoustic piano, the delay circuit 37A has a string length delay set to a value corresponding to one wavelength of the sound output when the string vibrates, and delays the waveform data by the string length delay. It is output to a subsequent low-pass filter (LPF) 39A. In other words, the delay circuit 37A delays the signal by a time (time corresponding to one wavelength) determined according to the input note number information (pitch information).

またディレイ回路37Aは、位相をずらすための遅延時間(TAP遅延時間)が設定されて、その遅延時間分だけ遅延した結果(TAP出力1)を加算器40Aへ出力する。このディレイ回路37Aから加算器40Aへの出力が、時間的に連続した左チャンネル(1弦分)の弦音の波形データとなる。 Further, the delay circuit 37A has a delay time (TAP delay time) set for shifting the phase, and outputs the result delayed by the delay time (TAP output 1) to the adder 40A. The output from the delay circuit 37A to the adder 40A becomes waveform data of a temporally continuous left channel (for one string) string tone.

ローパスフィルタ38Aは、その弦長の周波数に対して設定された広域減衰用のカットオフ周波数より低域側の波形データを通過させて、減衰アンプ39Aへ出力する。 The low-pass filter 38A passes waveform data lower than the wide-range attenuation cutoff frequency set for the frequency of the string length, and outputs it to the attenuation amplifier 39A.

減衰アンプ39Aは、ノートイベント処理部31から与えられる帰還減衰量の信号に応じて減衰処理を行ない、減衰後の波形データを加算器36Aへ帰還入力させる。 The attenuation amplifier 39A performs attenuation processing according to the feedback attenuation amount signal given from the note event processing section 31, and feeds back the attenuated waveform data to the adder 36A.

2段目のゲートアンプ35Bの後段側では、弦音の励振インパルス(励I)の波形データから、左チャンネルと右チャンネルで共用する第1の中央定位の弦音の波形データを生成する。 On the downstream side of the second stage gate amplifier 35B, waveform data of a first center-localized string sound, which is shared by the left channel and the right channel, is generated from the waveform data of the excitation impulse (excitation I) of the string sound.

ゲートアンプ35Bの後段側、加算器36B、ディレイ回路37B、ローパスフィルタ38B、減衰アンプ39Bの回路構成と動作は上段と同様であり、ディレイ回路37BのTAP出力2が、第1の中央定位の弦音の波形データとして加算器40A、40Bに出力される。 The circuit configuration and operation of the downstream side of the gate amplifier 35B, adder 36B, delay circuit 37B, low-pass filter 38B, and attenuation amplifier 39B are the same as those in the upper stage, and the TAP output 2 of the delay circuit 37B is the first center-localized string tone. This waveform data is output to adders 40A and 40B.

加算器40Aでは、ディレイ回路37Aが出力する左チャンネルの弦音の波形データ(TAP出力1)とディレイ回路37Bが出力する第1の中央定位の弦音の波形データ(TAP出力2)とを加算し、加算結果として左チャンネル(2弦分)の弦音の波形データを加算器40Cへ出力する。 The adder 40A adds the waveform data of the left channel string tone outputted by the delay circuit 37A (TAP output 1) and the waveform data of the first centrally located stringed tone outputted by the delay circuit 37B (TAP output 2), As a result of the addition, the waveform data of the string sound of the left channel (two strings) is output to the adder 40C.

3段目のゲートアンプ35Cの後段側では、弦音の励振インパルス(励I)の波形データから、左チャンネルと右チャンネルで共用する第2の中央定位の弦音の波形データを生成する。 On the downstream side of the third stage gate amplifier 35C, waveform data of a second center-localized string sound, which is shared by the left channel and the right channel, is generated from the waveform data of the string sound excitation impulse (excitation I).

ゲートアンプ35Cの後段側、加算器36C、ディレイ回路37C、ローパスフィルタ38C、減衰アンプ39Cの回路構成と動作は上段と同様であり、ディレイ回路37CのTAP出力3が、第2の中央定位の弦音の波形データとして加算器40C、40Dに出力される。 The circuit configuration and operation of the gate amplifier 35C, the adder 36C, the delay circuit 37C, the low-pass filter 38C, and the attenuation amplifier 39C are the same as those in the upper stage, and the TAP output 3 of the delay circuit 37C is the second center-localized string sound. This waveform data is output to adders 40C and 40D.

加算器40Cでは、加算器40Aが出力する左チャンネル(2弦分)の弦音の波形データとディレイ回路37Cが出力する第2の中央定位の弦音の波形データ(TAP出力3)とを加算し、加算結果として左チャンネル(3弦分)の弦音の波形データを加算器41Lへ出力する。 The adder 40C adds the left channel (two strings worth) string sound waveform data output by the adder 40A and the second centrally located string sound waveform data (TAP output 3) output from the delay circuit 37C. As a result of the addition, the waveform data of the string sound of the left channel (for three strings) is output to the adder 41L.

4段目のゲートアンプ35Dの後段側では、弦音の励振インパルス(励I)の波形データから、時間的に連続した右チャンネルの弦音信号を生成する。 On the downstream side of the fourth stage gate amplifier 35D, a temporally continuous right channel string sound signal is generated from the waveform data of the string sound excitation impulse (excitation I).

ゲートアンプ35Dの後段側、加算器36D、ディレイ回路37D、ローパスフィルタ38D、減衰アンプ39Dの回路構成と動作は上段と同様であり、ディレイ回路37DのTAP出力4が、加算器40Bに出力される。このディレイ回路37Dから加算器40Bへの出力が、時間的に連続した右チャンネル(1弦分)の弦音の波形データとなる。 The circuit configuration and operation of the gate amplifier 35D's subsequent stage, adder 36D, delay circuit 37D, low-pass filter 38D, and attenuation amplifier 39D are the same as those in the upper stage, and TAP output 4 of the delay circuit 37D is output to the adder 40B. . The output from this delay circuit 37D to the adder 40B becomes waveform data of a temporally continuous right channel (for one string) string tone.

加算器40Bでは、ディレイ回路37Dが出力する右チャンネルの弦音の波形データ(TAP出力4)とディレイ回路37Bが出力する第1の中央定位の弦音の波形データ(TAP出力2)とを加算し、加算結果として右チャンネル(2弦分)の弦音の波形データを加算器41Dへ出力する。 The adder 40B adds the waveform data of the right channel string sound outputted by the delay circuit 37D (TAP output 4) and the waveform data of the first centrally located stringed sound outputted by the delay circuit 37B (TAP output 2), As a result of the addition, the waveform data of the string sound of the right channel (two strings) is output to the adder 41D.

加算器40Dでは、加算器40Bが出力する右チャンネル(2弦分)の弦音の波形データとディレイ回路37Cが出力する第2の中央定位の弦音の波形データ(TAP出力3)とを加算し、加算結果として右チャンネル(3弦分)の弦音の波形データを加算器41Rへ出力する。 The adder 40D adds the waveform data of the right channel (two strings) string sound output from the adder 40B and the waveform data of the second centrally located string sound (TAP output 3) output from the delay circuit 37C. As a result of the addition, the waveform data of the string sound of the right channel (for three strings) is output to the adder 41R.

加算器41Lにおいて、加算器40Cが出力する左チャンネルの弦音の波形データと、ゲートアンプ35Eが出力する左チャンネルの打撃音の波形データとを加算し、加算結果を左チャンネルの弦音と打撃音を重畳した楽音の波形データとして、加算器42Lへ出力する。 The adder 41L adds the waveform data of the left channel string sound output by the adder 40C and the waveform data of the left channel percussion sound output from the gate amplifier 35E, and adds the addition result to the left channel string sound and percussion sound. It is output to the adder 42L as waveform data of the superimposed musical tone.

加算器41Rにおいて、加算器40Bが出力する右チャンネルの弦音の波形データと、ゲートアンプ35Fが出力する右チャンネルの打撃音の波形データとを加算し、加算結果を右チャンネルの弦音と打撃音を重畳した楽音の波形データとして、加算器42Rへ出力する。 The adder 41R adds the waveform data of the right channel string sound output by the adder 40B and the waveform data of the right channel percussion sound output from the gate amplifier 35F, and adds the addition result to the right channel string sound and percussion sound. It is output to the adder 42R as waveform data of the superimposed musical tone.

加算器42Lは、鍵盤部11で押鍵されている各鍵の左チャンネルの楽音の波形データを加算し、その和を楽音発生のために次段のD/A変換部12Eへ出力する。 The adder 42L adds the waveform data of the left channel musical tones of each key pressed on the keyboard section 11, and outputs the sum to the next stage D/A converter 12E for generating musical tones.

同様に加算器42Rは、鍵盤部11で押鍵されている各鍵の右チャンネルの楽音の波形データを加算し、その和を楽音発生のために次段のD/A変換部12Eへ出力する。 Similarly, the adder 42R adds the waveform data of the right channel musical tones of each key pressed on the keyboard section 11, and outputs the sum to the next stage D/A converter 12E for generating musical tones. .

なお前記図2の構成では、モノラルの励振インパルスの波形データを4本の弦モデルの閉ループ回路に入力する場合について説明したが、1本分、左チャンネルと右チャンネルで共用する第2の中央定位の弦音の波形データを生成する3段目のゲートアンプ35Cとその後段側の閉ループ回路を減らして、3本の弦モデルの閉ループ回路に入力するものとして、回路構成をより簡易化しても良い。 In the configuration shown in FIG. 2, the case where monaural excitation impulse waveform data is input to the closed loop circuit of the four string model has been explained. The circuit configuration may be further simplified by reducing the third-stage gate amplifier 35C that generates the string tone waveform data and the closed-loop circuit at the subsequent stage to input the data to the closed-loop circuit of the three-string model.

[動作]
次に前記実施形態の動作について説明する。
まず、図3乃至図5を用いて、弦音と打撃音を重畳、加算して楽音を生成する概念について説明する。
図3は、弦音の周波数スペクトルを例示する図である。図示するように、ピーク状の基本f0とその倍音f1、f2、‥‥とが連なった周波数スペクトルを有する。
[motion]
Next, the operation of the embodiment will be explained.
First, the concept of generating musical tones by superimposing and adding string sounds and percussion sounds will be explained using FIGS. 3 to 5.
FIG. 3 is a diagram illustrating a frequency spectrum of a string tone. As shown in the figure, it has a frequency spectrum in which a peaked fundamental f0 and its overtones f1, f2, . . . are connected.

また、周波数スペクトルの弦音の波形データに対し、基本f0とその倍音f1、f2、‥‥の周波数成分をずらすような処理を施すことで、複数の異なる音高の弦音の波形データも生成できる。 Further, by applying processing to shift the frequency components of the fundamental f0 and its harmonics f1, f2, . . . to the waveform data of the string tones in the frequency spectrum, it is possible to generate waveform data for string tones with a plurality of different pitches.

このような物理モデルにより生成できる弦音は、図3に示す通り、基音成分と倍音以外は含まない。一方、元の楽器で発生される楽音には、打撃音とも称すべき楽音成分が含まれており、この打撃音とも称すべき楽音成分が当該楽器の楽音を特徴付けている。そのために電子楽器においては、この打撃音を生成して弦音と合成することが望ましい。 As shown in FIG. 3, the string sound that can be generated by such a physical model contains only the fundamental tone component and overtones. On the other hand, the musical sound generated by the original musical instrument includes a musical sound component that can also be called a percussion sound, and this musical sound component that can also be called a percussion sound characterizes the musical sound of the musical instrument. Therefore, in electronic musical instruments, it is desirable to generate this percussion sound and synthesize it with string sounds.

なお、本実施形態で打撃音には、例えば、アコースティックピアノにおいて、押鍵によってピアノ内部でハンマーが弦に衝突する際の衝突音、ハンマーの動作音、ピアノ奏者の指による打鍵音、鍵がストッパに当たって止まる際の音、といった音の成分を含み、純粋な弦音の成分(各鍵の基音成分及び倍音成分)を含まない。なお打撃音は、必ずしも押鍵時に生じる物理的な打撃動作そのものの音には限らないものとする。 In this embodiment, the impact sound includes, for example, in an acoustic piano, the impact sound when a hammer collides with a string inside the piano when a key is pressed, the operating sound of a hammer, the sound of a key hitting by a piano player's finger, and the sound of a key hitting a stopper. It includes sound components such as the sound when a key hits and stops, but does not include pure string sound components (fundamental and overtone components of each key). Note that the impact sound is not necessarily limited to the sound of the physical impact action itself that occurs when a key is pressed.

打撃音を生成するに当たっては、まず録音した楽音の波形データをハニング窓などの窓関数によって窓掛け処理した後に、FFT(高速フーリエ変換)により周波数次元のデータに変換する。 To generate a percussion sound, the waveform data of the recorded musical sound is first subjected to windowing processing using a window function such as a Hanning window, and then converted into frequency-dimensional data using FFT (fast Fourier transform).

その変換されたデータに対し、録音波形データの音高情報、除去する倍音、倍音周波数の基音とのずれ分など、録音波形から観測できるデータに基づいて基音と倍音の周波数を決定して、それら周波数における結果データの振幅が0となるような演算処理を施すことで、弦音の周波数成分を除去する。 For the converted data, the frequencies of the fundamental tone and overtones are determined based on data that can be observed from the recorded waveform, such as the pitch information of the recorded waveform data, the overtones to be removed, and the deviation of the overtone frequency from the fundamental tone. The frequency component of the string sound is removed by performing arithmetic processing such that the amplitude of the resulting data at the frequency becomes 0.

例えば、基音周波数が100[Hz]であった場合、乗数0による乗算で弦音の周波数成分を除去する周波数は、100[Hz]、200[Hz]、400[Hz]、800[Hz]、‥‥となる。 For example, if the fundamental frequency is 100 [Hz], the frequencies at which the frequency components of string sounds are removed by multiplication by a multiplier of 0 are 100 [Hz], 200 [Hz], 400 [Hz], 800 [Hz], etc. It becomes...

ここでは倍音が正確に整数倍となるものとしたが、実際の楽器では若干周波数がずれるため、録音により得た波形データから観測される倍音周波数を用いるようにした方が、より適切に対応できる。 Here, it is assumed that the overtones are exactly integer multiples, but since the frequencies of actual musical instruments will deviate slightly, it would be more appropriate to use the overtone frequencies observed from the waveform data obtained from recordings. .

その後、弦音の周波数成分を除去したデータをIFFT(逆高速フーリエ変換)により時間次元のデータに変換することで、打撃音の波形データが生成できる。 Thereafter, by converting the data from which the frequency components of the string sound have been removed into time-dimensional data using IFFT (inverse fast Fourier transform), waveform data of the impact sound can be generated.

図4は、打撃音の楽音の周波数スペクトルを例示する図である。このような周波数スペクトルを有する打撃音の波形データが、波形メモリ34(ROM12B)に記憶される。 FIG. 4 is a diagram illustrating a frequency spectrum of a musical tone of a percussion sound. Waveform data of the impact sound having such a frequency spectrum is stored in the waveform memory 34 (ROM 12B).

図4の打撃音の波形データと、図3で示した物理モデルから発生される弦音の波形データとを加算合成することで、図5に示すような周波数スペクトルの楽音を発生させる。 By adding and synthesizing the waveform data of the percussion sound shown in FIG. 4 and the waveform data of the string sound generated from the physical model shown in FIG. 3, a musical sound having a frequency spectrum as shown in FIG. 5 is generated.

図5は、アコースティックピアノである音高f0のノートが押鍵された場合に発生する楽音の周波数スペクトルを例示する図である。図示するように、ピーク状の基本f0とその倍音f1、f2、‥‥とが連なった弦音と、それらピーク状の弦音の間隙部分V、V、‥‥に発生する打撃音とを合成することで、アコースティックピアノの楽音を再現できる。 FIG. 5 is a diagram illustrating the frequency spectrum of a musical tone generated when a note of pitch f0 is pressed on an acoustic piano. As shown in the figure, a string sound in which a peak-like basic f0 and its overtones f1, f2, ... are connected, and a percussion sound that occurs in the gap between these peak-like string sounds V, V, ... are synthesized. You can reproduce the musical tones of an acoustic piano.

次に、図6を用いて、波形メモリ34(ROM12B)から読出した弦音の励振インパルスの波形データから、弦モデルを構成する各閉ループ回路(36A~39A、36B~39B、36C~39C、36D~39D)により時間的に連続した弦音の波形データを生成する概念について説明する。
図6は、あるノートナンバーに対応する音高において、強弱波形の加算合成から励振信号を生成する方法を例示する図である。強弱に応じた波形データの先頭部分のデータを、図中にそれぞれ示す加算比率で示すような値で、格納アドレスの進行と同様の時系列に沿って、それぞれ強度が変化するように加算する。
Next, using FIG. 6, each closed loop circuit (36A to 39A, 36B to 39B, 36C to 39C, 36D to 39D), the concept of generating temporally continuous string sound waveform data will be explained.
FIG. 6 is a diagram illustrating a method of generating an excitation signal from additive synthesis of dynamic waveforms at a pitch corresponding to a certain note number. The data at the beginning of the waveform data corresponding to the strength is added at the values shown by the addition ratios shown in the figure, so that the strength changes along the same time series as the progression of the storage addresses.

具体的には、図6(A)は、強度の高い(音の強さが、強い)第1の波形データであるフォルテ(f)の波形データの約6周期分を示すもので、この波形データに対して図6(B)に示すように、始めの約2周期分を有効とするための加算比信号が与えられている。したがって、乗算器(アンプ)21では、「1.0」~「0.0」の間で変化する、この加算比信号を乗数(増幅率)として波形データを乗算処理し、その積となる波形データを加算器24へ出力する。 Specifically, FIG. 6(A) shows about 6 cycles of waveform data of forte (f), which is the first waveform data with high intensity (strong sound intensity). As shown in FIG. 6(B), an addition ratio signal is applied to the data to make the first two cycles valid. Therefore, the multiplier (amplifier) 21 multiplies the waveform data by using this addition ratio signal, which changes between "1.0" and "0.0", as a multiplier (amplification factor), and the resulting waveform is The data is output to adder 24.

同様に、図6(C)は、強度が中庸な(音の強さが、やや強い)第2の波形データであるメゾフォルテ(mf)の波形データの約6周期分を示すもので、この波形データに対して図6(D)に示すように、中央の約2周期分を有効とするための加算比信号が与えられている。したがって、乗算器22がこの加算比信号を乗数として波形データを乗算処理し、その積となる波形データを加算器24へ出力する。 Similarly, FIG. 6(C) shows about 6 cycles of mesoforte (mf) waveform data, which is the second waveform data with moderate intensity (sound intensity is slightly strong). As shown in FIG. 6(D), an addition ratio signal is given to the data to make the central approximately two periods valid. Therefore, the multiplier 22 multiplies the waveform data by using this addition ratio signal as a multiplier, and outputs the product waveform data to the adder 24.

同じく、図6(E)は、強度が低い(音の強さが、弱い)第3の波形データであるピアノ(p)の波形データの約6周期分を示すもので、この波形データに対して図6(F)に示すように、終盤の約2周期分を有効とするための加算比信号が与えられている。したがって、乗算器23がこの加算比信号を乗数として波形データを乗算処理し、その積となる波形データを加算器24へ出力する。 Similarly, FIG. 6(E) shows about 6 cycles of the piano (p) waveform data, which is the third waveform data with low intensity (weak sound intensity). As shown in FIG. 6(F), an addition ratio signal is provided to make the last two cycles valid. Therefore, the multiplier 23 multiplies the waveform data by using this addition ratio signal as a multiplier, and outputs the product of the waveform data to the adder 24 .

したがって、これらの波形データを加算する加算器24の出力は、図6(G)に示すように、2周期毎に「強」→「中」→「弱」と連続的に波形が変化する。 Therefore, the waveform of the output of the adder 24 that adds these waveform data changes continuously from "strong" to "medium" to "weak" every two cycles, as shown in FIG. 6(G).

このような波形データ(励振信号用波形データ)を波形メモリ34(ROM12B)に格納しておき、演奏強度に応じた開始アドレスを指定することで、必要な波形データ(部分データ)を弦音の励振インパルスの信号として読出す。読出した波形データは、図6(H)に示すように、窓掛け処理部33により窓掛け処理されて、後段の各信号循環(閉ループ)回路に供給されることで、時間的に連続した弦音の波形データが生成される。 By storing such waveform data (waveform data for excitation signals) in the waveform memory 34 (ROM 12B) and specifying a start address according to the performance intensity, the necessary waveform data (partial data) can be used to excite string sounds. Read out as an impulse signal. As shown in FIG. 6(H), the read waveform data is subjected to windowing processing by the windowing processing section 33, and is supplied to each subsequent signal circulation (closed loop) circuit, thereby producing temporally continuous string sounds. waveform data is generated.

波形データとして2~3波長分を用いるために、音高によって、波形データを構成するサンプリングデータの数は異なる。例えば、アコースティックピアノの88鍵の場合、低音から高音で、サンプリングデータの数は約2000~20程度(サンプリング周波数:44.1[kHz]の場合)となる。 Since two to three wavelengths are used as waveform data, the number of sampling data making up the waveform data differs depending on the pitch. For example, in the case of an acoustic piano with 88 keys, the number of sampling data is about 2000 to 20 (when the sampling frequency is 44.1 [kHz]) from low to high tones.

なお、前記した波形データの加算方法は、同じ楽器の演奏強度が異なる波形データの組合わせのみに限るものではない。例えば、エレクトリックピアノの場合、鍵を弱打した場合は正弦波に近い波形特性を有する一方で、強打した場合はサチュレーションした矩形波のような波形の形状となる。これらの明らかに形状の異なる波形や、例えばギターなどから抽出した波形など、様々な異なる楽器の楽音を連続して加算し、演奏強度やその他の演奏操作子により連続的に変化させるようなモデリングの楽音を発生させることができる。 Note that the method of adding waveform data described above is not limited to the combination of waveform data of different performance intensities of the same musical instrument. For example, in the case of an electric piano, when a key is hit lightly, the waveform characteristics are close to a sine wave, while when the key is hit strongly, the waveform shape is similar to a saturated rectangular wave. Modeling involves continuously adding musical sounds from various different instruments, such as waveforms with clearly different shapes or waveforms extracted from guitars, etc., and continuously changing them according to playing intensity and other performance controls. It can generate musical sounds.

続いて、図2の4本の弦モデルの信号循環(閉ループ)回路で生成される、ステレオの弦音の周波数とうなりの関係について説明する。
ピアノの楽音で単にうなりというと、一般的には基本波の位相を指す。本実施形態では、ステレオ感のある楽音を発生させるために、基本波を含めた各倍音それぞれで発生するうなり現象により、それぞれの倍音成分の振幅が左チャンネルと右チャンネルとで位相ずれを起こした状態で出力されるよう、遅延時間とTAP遅延とを設定している。
Next, the relationship between the frequency and beat of the stereo string sound generated by the signal circulation (closed loop) circuit of the four string model shown in FIG. 2 will be explained.
When we talk about the beat of a piano's musical tones, it generally refers to the phase of the fundamental wave. In this embodiment, in order to generate a musical sound with a stereo feel, the amplitude of each harmonic component causes a phase shift between the left channel and the right channel due to a beat phenomenon that occurs in each harmonic including the fundamental wave. The delay time and TAP delay are set so that the state is output.

図2に示した構成では、1ループ目から各弦モデルの出力が異なる位相で遅延出力され、且つ各弦モデルのうなりの周期も異なるものとして設定したことで、各倍音成分それぞれの信号波形の頂点が左右のチャンネルで大きく位相ずれを起こした状態で出力されるため、鍵盤部11での打鍵時直後からステレオ感に富んだ楽音を発生させることが可能となる。 In the configuration shown in Figure 2, the output of each string model is delayed and output from the first loop with a different phase, and the beat period of each string model is also set to be different, so that the signal waveform of each harmonic component is Since the apex is output with a large phase shift between the left and right channels, it is possible to generate a musical tone rich in stereo sound immediately after a key is pressed on the keyboard section 11.

図7は、鍵盤部11で押鍵されたノートナンバーが、例えばA4「ラ」(440[Hz])であった場合に、4本の弦モデルに割り当てられる弦音の周波数と、それら周波数の相違によって生じるうなりの関係を示す図である。図7(A)が左チャンネルの弦音の周波数とうなりの関係を示し、図7(B)が右チャンネルの弦音の周波数とうなりの関係を示す。図2で示した4本の弦音の閉ループ回路を、上段側から順に弦モデルのナンバー「1」~「4」とした場合、共用の弦モデルとなるナンバー「2」の第1の中央定位の弦モデルに本来の周波数440[Hz]、共用の弦モデルとなるナンバー「3」の第2の中央定位の弦モデルに周波数440.66[Hz]をそれぞれ割り当てるとともに、ナンバー「1」の左チャンネルの弦モデルに440.3[Hz]、ナンバー「4」の右チャンネルの弦モデルに440.432[Hz]を割り当てて、それぞれ当該周波数の弦音の励振インパルスの波形データを読み出して各弦モデルに与えるものとする。これら割り当てた周波数の比は、指数に基づいて設定されている。各弦モデルのディレイ回路37A~37Dでの弦長ディレイ時間が、それぞれ割り当てられた周波数の波長1周期分に設定される。 FIG. 7 shows the frequencies of string sounds assigned to the four string models and the differences between these frequencies when the note number pressed on the keyboard section 11 is, for example, A4 "A" (440 [Hz]). FIG. 2 is a diagram showing the relationship between beats caused by FIG. 7(A) shows the relationship between the frequency and beat of the string sound in the left channel, and FIG. 7(B) shows the relationship between the frequency and beat of the string sound in the right channel. When the closed-loop circuit of the four string sounds shown in Figure 2 is assigned string model numbers ``1'' to ``4'' in order from the top, the first central localization of number ``2'', which is a shared string model, is The original frequency of 440 [Hz] is assigned to the string model, and the frequency of 440.66 [Hz] is assigned to the second center-positioned string model of number "3", which is a shared string model, and the left channel of number "1" is assigned. Assign 440.3 [Hz] to the string model of number "4" and 440.432 [Hz] to the string model of the right channel with number "4", read out the waveform data of the excitation impulse of the string sound at the corresponding frequency, and apply it to each string model. shall be given. The ratio of these assigned frequencies is set based on an index. The string length delay time in the delay circuits 37A to 37D of each string model is set to one cycle of the wavelength of the assigned frequency.

一方で、位相をずらすために設定された遅延時間を持ってディレイ回路37A~37Dから出力するTAP出力1~4に関しては、図7で示すようなTAP遅延時間を設定する。すなわち、本来の周波数440[Hz]が割り当てられたナンバー「2」でのTAP遅延時間を「0(ゼロ)」とすると共に、ナンバー「1」でのTAP遅延時間を1.3[ms]、ナンバー「3」でのTAP遅延時間を1.69[ms]、ナンバー「4」でのTAP遅延時間を2.197[ms]としている。 On the other hand, regarding the TAP outputs 1 to 4 outputted from the delay circuits 37A to 37D with a delay time set to shift the phase, the TAP delay time as shown in FIG. 7 is set. That is, the TAP delay time at number "2" to which the original frequency of 440 [Hz] is assigned is "0 (zero)", and the TAP delay time at number "1" is 1.3 [ms]. The TAP delay time at number "3" is 1.69 [ms], and the TAP delay time at number "4" is 2.197 [ms].

そのため、例えばナンバー「1」の閉ループ回路(36A~39A)では、ピッチを決める遅延時間である1周期分2.271178742[ms]ごとに、励振インパルスの波形データが帰還回路を1回ループすることになる。 Therefore, for example, in the closed loop circuit numbered "1" (36A to 39A), the waveform data of the excitation impulse loops through the feedback circuit once every 2.271178742 [ms] for one period, which is the delay time that determines the pitch. become.

1回目のループにおいて、ディレイ回路37Aに励振インパルスの波形データを入力した時点から、設定されたTAP遅延時間1.3[ms]が経過した時点でTAP出力1として加算器40Aへ出力し、以後、2.271178742[ms]ごとに繰り返して徐々に減衰する当該波形データをTAP出力1として出力する。 In the first loop, when the set TAP delay time of 1.3 [ms] has elapsed from the time when the waveform data of the excitation impulse is input to the delay circuit 37A, it is output as TAP output 1 to the adder 40A, and thereafter. , 2.271178742 [ms] and outputs the waveform data that gradually attenuates as TAP output 1.

ディレイ回路37A~37Dに設定する、TAP出力1~4を得るためのTAP遅延時間は、次式
DelayT(n)=DelayINIT×DelayGAIN
(但し、DelayT(n):TAP遅延時間[ms]、
DelayINIT:初期値(例えば7[ms])、
DelayGAIN:定数(例えば1.3)。
で与えられる。同式中のnは「0」~「3」の値をとり、弦ナンバーとの関係により設定するもので、弦ナンバー「1」(ディレイ回路37A)でn=1、弦ナンバー「2」(ディレイ回路37B)でn=0、弦ナンバー「3」(ディレイ回路37C)でn=2、弦ナンバー「4」(ディレイ回路37D)でn=3となる。
The TAP delay time set in the delay circuits 37A to 37D to obtain TAP outputs 1 to 4 is calculated using the following formula.
DelayT(n)=DelayINIT×DelayGAIN n
(However, DelayT(n): TAP delay time [ms],
DelayINIT: initial value (e.g. 7 [ms]),
DelayGAIN: Constant (eg 1.3).
is given by n in the equation takes a value from "0" to "3" and is set depending on the relationship with the string number. For string number "1" (delay circuit 37A), n=1, and for string number "2" ( n=0 for string number "3" (delay circuit 37C), n=2 for string number "4" (delay circuit 37D), and n=3 for string number "4" (delay circuit 37D).

結果としてTAP遅延時間を、0[ms]、1.3[ms]、1.69[ms]、2.197[ms]というように、整数倍ではなく指数状の数値列として算出して各弦モデルに設定することで、各弦モデルの弦音を加算したときの周波数特性を、できうる限り均一にできる。 As a result, the TAP delay time is calculated as an exponential sequence of numerical values, such as 0 [ms], 1.3 [ms], 1.69 [ms], and 2.197 [ms], instead of an integer multiple. By setting it to a string model, you can make the frequency characteristics as uniform as possible when the string sounds of each string model are added.

4本の弦モデルから6種類の周波数のうなり成分が生成され、ステレオ音を構成する左チャンネルと右チャンネルに2種の異なるうなり成分と共通した1種のうなり成分とを割り当てた楽音を発生させることで、ステレオ感に富んだ楽音の発生が可能となる。 Beat components of six different frequencies are generated from the four string model, and a musical tone is generated in which two different beat components and one common beat component are assigned to the left and right channels that make up the stereo sound. This makes it possible to generate musical sounds with a rich stereo feel.

加えて、一般的なピアノの電子楽器では1鍵当たり3本の弦モデルを必要とする場合、ステレオ音の生成で2セット、計6本の弦のモデルが必要となるところ、図2で示した構成では、2本の弦のモデルを共用として、4本の弦のモデルでステレオ音を生成可能としているため、信号の処理量を大幅に軽減できる。 In addition, if a typical electronic piano instrument requires three string models per key, two sets of six string models are required to generate stereo sound, as shown in Figure 2. In this configuration, two string models are shared, and stereo sound can be generated using four string models, so the amount of signal processing can be significantly reduced.

また図2に示した構成では、共用となる中央定位の弦モデルとしてナンバー「2」「3」の2本分の弦モデルを設けて、左右各チャンネルの弦音をそれぞれ3本の弦モデルから生成する。そのため、特に左右のチャンネルの楽音が空間内で混在しないような環境、例えばヘッドホン等により楽音を再生するような環境下で、左右のチャンネルの一方の楽音のみを聴いた場合でも、聞こえる楽音に単調さを感じるような可能性を確実に排除できる。 In addition, in the configuration shown in Figure 2, two string models numbered "2" and "3" are provided as centrally located string models to be shared, and the string sounds for each left and right channel are generated from three string models each. do. Therefore, even if you listen to only one of the left and right channels, especially in an environment where the musical tones of the left and right channels do not mix in the space, such as when playing music through headphones, the musical tones that you hear will be monotonous. You can definitely eliminate the possibility that you will feel that way.

[実施形態の効果]
以上詳述した如く本実施形態によれば、信号の処理量を抑えながら、良好なステレオ感の楽音を発音当初より生成することが可能となる。
[Effects of embodiment]
As described in detail above, according to the present embodiment, it is possible to generate musical tones with good stereo sound from the beginning of the sound while suppressing the amount of signal processing.

また本実施形態では、指定された音高とその倍音の成分を含む弦音に加えて、楽器固有の打撃音を重畳、加算してステレオの楽音を生成しているので、信号の処理量を抑えながら、より自然な楽音を良好に生成することが可能となる。 Furthermore, in this embodiment, in addition to the string sound containing the specified pitch and its overtone components, the percussion sound specific to the instrument is superimposed and added to generate stereo musical sounds, thereby reducing the amount of signal processing. However, it is possible to generate more natural musical tones.

なお、前述した如く、本実施形態は電子鍵盤楽器に適用した場合について説明したものであるが、本発明は楽器や特定のモデルに限定されるものではない。 Note that, as described above, although this embodiment has been described in the case where it is applied to an electronic keyboard instrument, the present invention is not limited to musical instruments or specific models.

なお、本願発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the invention at the implementation stage. Moreover, each embodiment may be implemented by appropriately combining them as much as possible, and in that case, the combined effects can be obtained. Further, the embodiments described above include inventions at various stages, and various inventions can be extracted by appropriately combining the plurality of disclosed constituent elements. For example, even if some constituent features are deleted from all the constituent features shown in the embodiments, the problem described in the column of problems to be solved by the invention can be solved, and the effect described in the column of effects of the invention can be achieved. If this is obtained, a configuration in which this component is deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
指定された音高に対応する励振信号の入力に応じて、前記音高に対応して設けられている各閉ループから、それぞれ異なるタップディレイ時間ごとにタップ出力される信号が累算された累算信号に基づいて、左チャンネルから出力される弦音信号及び、右チャンネルから出力される弦音信号を生成する、
電子楽器。
[請求項2]
前記各閉ループは、それぞれ異なるディレイ時間で前記励振信号が循環する、請求項1に記載の電子楽器。
[請求項3]
前記タップ出力は、前記各閉ループから出力される信号の位相を変化させるために設けられている、請求項1または2に記載の電子楽器。
[請求項4]
前記タップディレイ時間は、指数を含む計算式で算出されている、請求項1乃至3のいずれかに記載の電子楽器。
[請求項5]
前記各閉ループは、左右それぞれの弦音信号を生成するために共用されている閉ループを含む、請求項1乃至4のいずれかに記載の電子楽器。
[請求項6]
前記弦音信号は、前記累算信号及び打撃音信号に基づいて生成する、請求項1乃至5のいずれかに記載の電子楽器。
[請求項7]
コンピュータに、請求項1乃至6のいずれか1項に記載の各処理を実行させる楽音発生方法。
[請求項8]
コンピュータに、請求項1乃至6のいずれか1項に記載の各処理を実行させるプログラム。
Below, the invention described in the original claims of the present application will be added.
[Claim 1]
In response to input of an excitation signal corresponding to a specified pitch, signals are accumulated that are output from each closed loop provided corresponding to the pitch at different tap delay times. generating a string sound signal output from the left channel and a string sound signal output from the right channel based on the signal;
electronic musical instrument.
[Claim 2]
2. The electronic musical instrument according to claim 1, wherein the excitation signal circulates in each of the closed loops with a different delay time.
[Claim 3]
3. The electronic musical instrument according to claim 1, wherein the tap output is provided to change the phase of the signal output from each of the closed loops.
[Claim 4]
4. The electronic musical instrument according to claim 1, wherein the tap delay time is calculated using a calculation formula that includes an index.
[Claim 5]
5. The electronic musical instrument according to claim 1, wherein each of the closed loops includes a closed loop that is shared for generating left and right string tone signals.
[Claim 6]
6. The electronic musical instrument according to claim 1, wherein the string sound signal is generated based on the cumulative signal and the percussion sound signal.
[Claim 7]
A musical tone generation method that causes a computer to execute each process according to any one of claims 1 to 6.
[Claim 8]
A program that causes a computer to execute each process according to any one of claims 1 to 6.

10…電子鍵盤楽器
11…鍵盤部
12…LSI
12A…CPU
12B…ROM
12C…RAM
12D…音源
12D1…デジタルシグナルプロセッサ(DSP)
12D2…プログラムメモリ
12D3…ワークメモリ
12E…D/A変換部(DAC)
13L、13R…アンプ(amp.)
14L、14R…スピーカ
31…ノートイベント処理部
32…波形読出し部
33…窓掛け処理部
34…(励振信号生成用)波形メモリ
35A~35C…ゲートアンプ
36A~36D…加算器
37A~37D…ディレイ回路
38A~38D…ローパスフィルタ(LPF)
39A~39D…減衰アンプ
40A~40D、41L、41R、42L、42R…加算器
10...Electronic keyboard instrument 11...Keyboard section 12...LSI
12A...CPU
12B...ROM
12C...RAM
12D...Sound source 12D1...Digital signal processor (DSP)
12D2...Program memory 12D3...Work memory 12E...D/A converter (DAC)
13L, 13R...Amplifier (amp.)
14L, 14R...Speaker 31...Note event processing unit 32...Waveform reading unit 33...Window processing unit 34...Waveform memory (for excitation signal generation) 35A to 35C...Gate amplifier 36A to 36D...Adder 37A to 37D...Delay circuit 38A to 38D...Low pass filter (LPF)
39A to 39D...Attenuation amplifier 40A to 40D, 41L, 41R, 42L, 42R...Adder

Claims (6)

入力される励振信号を遅延および帰還させる複数の閉ループであって、左チャンネル用の弦音信号の生成に用いられる第1閉ループと、右チャンネル用の弦音信号の生成に用いられる第2閉ループと、左チャンネルと右チャンネルで共用する中央定位の弦音信号の生成に用いられる第3閉ループと、を含む複数の閉ループを有する音源を備える、
電子楽器。
A plurality of closed loops that delay and feed back an input excitation signal, a first closed loop used to generate a string tone signal for the left channel, a second closed loop used to generate a string tone signal for the right channel, and a left closed loop used to generate a string tone signal for the right channel. a sound source having a plurality of closed loops including a third closed loop used to generate a centrally located string sound signal shared by the channel and the right channel;
electronic musical instrument.
前記第1閉ループが出力する第1弦音信号と、前記第3閉ループが出力する中央定位の第3弦音信号とを加算して左チャンネル用の弦音信号を生成し、
前記第2閉ループが出力する第1弦音信号と、前記第3閉ループが出力する中央定位の第3弦音信号とを加算して右チャンネル用の弦音信号を生成する、
請求項1に記載の電子楽器。
generating a left channel string sound signal by adding a first string sound signal output by the first closed loop and a center-localized third string sound signal output by the third closed loop;
generating a string sound signal for the right channel by adding a first string sound signal outputted by the second closed loop and a centrally localized third string sound signal outputted by the third closed loop;
The electronic musical instrument according to claim 1 .
音高の指定に応じて、指定された音高に対応して設けられる複数の前記閉ループそれぞれが出力する左チャンネル、右チャンネル、中央定位の各弦音の出力が累算された累算信号から、左チャンネルと中央定位で各位相をそれぞれ弦音の出力毎にずらした遅延出力を加算して左チャンネルの弦音信号として生成し、右チャンネルと中央定位で各位相をそれぞれ弦音の出力毎にずらした遅延出力を加算して右チャンネルの弦音信号として生成して出力する、
請求項2に記載の電子楽器。
In accordance with the specification of the pitch, from the cumulative signal in which the outputs of the left channel, right channel, and centrally located string sounds output by each of the plurality of closed loops provided corresponding to the specified pitch are accumulated, The left channel and center localization generate a left channel string sound signal by adding the delayed outputs with each phase shifted for each string sound output, and the right channel and center location each phase shifted for each string sound output. Adds the output and generates and outputs the right channel string sound signal.
The electronic musical instrument according to claim 2 .
前記各位相をそれぞれ弦音の出力毎にずらした遅延出力は、累算する弦音の周期に対応し、指数を用いて算出した時間設定で遅延した出力である、
請求項3に記載の電子楽器。
The delayed output in which each phase is shifted for each string tone output corresponds to the period of the string tone to be accumulated, and is an output delayed by a time setting calculated using an index.
The electronic musical instrument according to claim 3 .
電子楽器が、
入力される励振信号を遅延および帰還させる複数の閉ループ処理を実行する際に、
左チャンネル用の弦音信号の生成に用いられる第1閉ループ処理と、
右チャンネル用の弦音信号の生成に用いられる第2閉ループ処理と、
左チャンネルと右チャンネルで共用する中央定位の弦音信号の生成に用いられる第3閉ループ処理と、
を実行する楽音発生方法。
electronic musical instruments,
When performing multiple closed-loop processes that delay and feed back the incoming excitation signal,
a first closed-loop process used to generate a string tone signal for the left channel;
a second closed-loop process used to generate a string tone signal for the right channel;
a third closed-loop process used to generate a centrally located string sound signal shared by the left channel and the right channel;
A musical sound generation method that executes.
コンピュータに、入力される励振信号を遅延および帰還させる複数の閉ループ処理を実行させる際に、
左チャンネル用の弦音信号の生成に用いられる第1閉ループ処理と、
右チャンネル用の弦音信号の生成に用いられる第2閉ループ処理と、
左チャンネルと右チャンネルで共用する中央定位の弦音信号の生成に用いられる第3閉ループ処理と、
を実行させるプログラム。
When a computer performs multiple closed-loop processes that delay and feed back an incoming excitation signal,
a first closed-loop process used to generate a string tone signal for the left channel;
a second closed-loop process used to generate a string tone signal for the right channel;
a third closed-loop process used to generate a centrally located string sound signal shared by the left channel and the right channel;
A program to run.
JP2022000591A 2020-09-15 2022-01-05 Electronic musical instruments, musical sound generation methods and programs Active JP7375836B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022000591A JP7375836B2 (en) 2020-09-15 2022-01-05 Electronic musical instruments, musical sound generation methods and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020154616A JP7006744B1 (en) 2020-09-15 2020-09-15 Electronic musical instruments, musical instrument generation methods and programs
JP2022000591A JP7375836B2 (en) 2020-09-15 2022-01-05 Electronic musical instruments, musical sound generation methods and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020154616A Division JP7006744B1 (en) 2020-09-15 2020-09-15 Electronic musical instruments, musical instrument generation methods and programs

Publications (3)

Publication Number Publication Date
JP2022049019A JP2022049019A (en) 2022-03-28
JP2022049019A5 JP2022049019A5 (en) 2022-04-15
JP7375836B2 true JP7375836B2 (en) 2023-11-08

Family

ID=80624132

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020154616A Active JP7006744B1 (en) 2020-09-15 2020-09-15 Electronic musical instruments, musical instrument generation methods and programs
JP2022000591A Active JP7375836B2 (en) 2020-09-15 2022-01-05 Electronic musical instruments, musical sound generation methods and programs

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020154616A Active JP7006744B1 (en) 2020-09-15 2020-09-15 Electronic musical instruments, musical instrument generation methods and programs

Country Status (1)

Country Link
JP (2) JP7006744B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259006B1 (en) 1996-08-30 2001-07-10 Raoul Parienti Portable foldable electronic piano
JP2015143764A (en) 2014-01-31 2015-08-06 ヤマハ株式会社 Resonance sound generator and resonance sound generating program
JP2017173632A (en) 2016-03-24 2017-09-28 ヤマハ株式会社 Performance signal generation device and performance signal generation method
JP2018116161A (en) 2017-01-18 2018-07-26 ヤマハ株式会社 Resonance signal generator, electronic music device, resonance signal generation method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3823824B2 (en) 2001-12-27 2006-09-20 ヤマハ株式会社 Electronic musical sound generator and signal processing characteristic adjustment method
JP5311863B2 (en) 2008-03-31 2013-10-09 ヤマハ株式会社 Electronic keyboard instrument
JP5821230B2 (en) 2011-03-28 2015-11-24 ヤマハ株式会社 Music signal generator
JP6455878B2 (en) * 2014-10-30 2019-01-23 株式会社コルグ Resonant sound generator and program
JP6878966B2 (en) 2017-03-08 2021-06-02 カシオ計算機株式会社 Electronic musical instruments, pronunciation control methods and programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259006B1 (en) 1996-08-30 2001-07-10 Raoul Parienti Portable foldable electronic piano
JP2015143764A (en) 2014-01-31 2015-08-06 ヤマハ株式会社 Resonance sound generator and resonance sound generating program
JP2017173632A (en) 2016-03-24 2017-09-28 ヤマハ株式会社 Performance signal generation device and performance signal generation method
JP2018116161A (en) 2017-01-18 2018-07-26 ヤマハ株式会社 Resonance signal generator, electronic music device, resonance signal generation method and program

Also Published As

Publication number Publication date
JP2022048662A (en) 2022-03-28
JP7006744B1 (en) 2022-01-24
JP2022049019A (en) 2022-03-28

Similar Documents

Publication Publication Date Title
JP6806120B2 (en) Electronic musical instruments, musical tone generation methods and programs
CN108242231B (en) Musical sound generation device, electronic musical instrument, musical sound generation method, and storage medium
CN108242232B (en) Musical sound generation device, electronic musical instrument, musical sound generation method, and storage medium
EP3800630A1 (en) Electronic musical instrument, method of generating musical sound, and storage medium
US11893968B2 (en) Electronic musical instrument, electronic keyboard musical instrument, and method of generating musical sound
JP2017049349A (en) Musical sound signal generation device
JP7331344B2 (en) Electronic musical instrument, musical tone generating method and program
JP7375836B2 (en) Electronic musical instruments, musical sound generation methods and programs
JP4649888B2 (en) Voice effect imparting device and voice effect imparting program
WO2022059407A1 (en) Electronic musical instrument, method of generating musical sound, and program
JP7156345B2 (en) Electronic musical instrument, musical tone generating method and program
JP2015087436A (en) Voice sound processing device, control method and program for voice sound processing device
JP5211437B2 (en) Voice processing apparatus and program
JPH0398096A (en) Musical sound synthesizer
JPH0398094A (en) Musical sound synthesizer
JP4172369B2 (en) Musical sound processing apparatus, musical sound processing method, and musical sound processing program
JP2023067673A (en) musical tone generator
JP2005300799A (en) Electronic musical instrument
JP2009025476A (en) Additive synthesis sound source device and its control method
JPH04133099A (en) Musical sound synthesizer
JPH03101798A (en) Musical sound signal generating device
JPH06222758A (en) Electronic musical instrument
JPH08146966A (en) Musical tone synthesizing device
JPH0876764A (en) Musical sound generating device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150