JPH03242698A - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JPH03242698A
JPH03242698A JP2040722A JP4072290A JPH03242698A JP H03242698 A JPH03242698 A JP H03242698A JP 2040722 A JP2040722 A JP 2040722A JP 4072290 A JP4072290 A JP 4072290A JP H03242698 A JPH03242698 A JP H03242698A
Authority
JP
Japan
Prior art keywords
musical
data
sound
generation
performance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2040722A
Other languages
Japanese (ja)
Other versions
JPH07111633B2 (en
Inventor
Kenji Itakura
板倉 健司
Masatada Wachi
和智 正忠
Takeshi Adachi
健 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2040722A priority Critical patent/JPH07111633B2/en
Publication of JPH03242698A publication Critical patent/JPH03242698A/en
Publication of JPH07111633B2 publication Critical patent/JPH07111633B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To enable musical sound control matching the speed of performance by providing a touch data generating means, a sound generation interval detecting means which detects intervals of musical sound generation according to performance information, and a control means which corrects touch data. CONSTITUTION:A key-ON detecting circuit 2 which detects the ON/OFF state of a key and the strength of an initial touch and an after-touch detecting circuit 3 which detects the after-touch strength are connected to keyboard 1. Then a ROM 6 is stored with program data, timbre data on a musical sound, etc., and registers where various data generated during performance are stored are set on a RAM 7. A sound source circuit 9 has sixteen sound generation channels, where musical sound data are received individually to generate musical sound at the same time. Then touch sensitivity is corrected according to the sound generation interval of the musical sound to enable the musical sound control matching the speed of music.

Description

【発明の詳細な説明】 (a)産業上の利用分野 この発明はいわゆるタッチデータに基づいて楽音を制御
する電子楽器に関する。
DETAILED DESCRIPTION OF THE INVENTION (a) Field of Industrial Application This invention relates to an electronic musical instrument that controls musical tones based on so-called touch data.

(b)従来の技術 現在実用化されている電子楽器の多くは楽音発生のオン
/オフのみならず発生する楽音の発音レベル等の楽音状
態を制御できるようになっている。楽音状態を制御する
パラメータとしては楽音発音開始時の押鍵操作の強さ(
イニシャルタッチデータ)および楽音発音中の押鍵操作
の強さ(アフタタッチデータ)等が用いられる。
(b) Prior Art Many of the electronic musical instruments currently in practical use are capable of controlling not only the on/off of musical tone generation but also the musical tone state such as the sound generation level of the generated musical tone. The parameters that control the musical tone state include the strength of the key press at the start of musical tone generation (
Initial touch data) and the strength of key presses during musical tone generation (aftertouch data) are used.

イニシャルタッチデータは、楽音発音開始時に発生する
ため、発音開始時からその楽音の発音時間全体にわたり
発音レベル等を一様に制御することができる。また、ア
フタタッチデータは、楽音発生中にそのデータ内容を変
化させることができるため、発音レヘルを各時点毎に自
由に変化させることができる。
Since the initial touch data is generated at the start of musical sound generation, it is possible to uniformly control the sound generation level and the like over the entire sound generation time of the musical tone from the start of sound generation. Furthermore, since the aftertouch data can change its data content while musical tones are being generated, the pronunciation level can be changed freely at each point in time.

(C1発明が解決しようとする課題 ところで、速いパッセージなどの発音間隔が狭い曲を演
奏する場合には、タッチコントロールが難しく、特に弱
いイニシャルタッチで速く弾くという演奏が困難となる
。つまり、早く弾くときは自然と強いタッチとなってし
まい、イニシャルタッチが強くなってしまう。同様にア
フタタッチも強くなりしかもそれが短時間で終わってし
まうため、速いパッセージではアフタタッチデータが急
激に上下し楽音が不安定となる欠点があった。
(C1 Problem to be solved by the invention By the way, when playing songs with narrow intervals such as fast passages, touch control is difficult, and it is especially difficult to play quickly with a weak initial touch.In other words, it is difficult to play quickly with a weak initial touch. When the time passes, the touch naturally becomes strong, and the initial touch becomes strong.Similarly, the aftertouch becomes strong and ends in a short time, so in fast passages, the aftertouch data rises and falls rapidly, and the musical sound becomes It had the drawback of being unstable.

このような欠点を解決するため、従来から特公昭63−
42268号のように、アフタタッチ検出回路から得ら
れたアフタタッチデータを、その変化が滑らかになるよ
うに補間演算等の補正処理を行うようにし、そして、こ
の補間レートを遅くしたり、タッチ感度を全体的に小さ
くすることによってアフタタッチデータの急激な変化を
抑える方式が提案されている。しかしながら、発音間隔
が長くなった場合(ゆっくり演奏した場合)、前者では
タッチデータが指の動きに追従しきれなくなって忠実な
楽音制御ができなくなる欠点があり、後者ではダイナミ
ックレンジが狭くなり表現力が不足する等の欠点が生じ
ていた。
In order to solve these shortcomings, the special public welfare system
As in No. 42268, the aftertouch data obtained from the aftertouch detection circuit is subjected to correction processing such as interpolation calculation so that the change is smooth, and the interpolation rate is slowed down or the touch sensitivity is adjusted. A method has been proposed for suppressing rapid changes in aftertouch data by reducing the overall value of . However, when the interval between sounds becomes long (when played slowly), the former has the disadvantage that the touch data cannot fully follow the finger movements, making it impossible to faithfully control the musical tone, while the latter has the disadvantage that the dynamic range becomes narrower, making it difficult to express the sound. There were drawbacks such as a lack of.

この発明は、楽音の発音間隔に基づき、たとえば速く弾
くときにはタッチデータの変化を鈍くするなどのタッチ
感度の補正をするようにしたことにより、曲の速さに合
わせた楽音制御が可能になる電子楽器を提供することを
目的とする。
This invention is an electronic device that makes it possible to control musical tones in accordance with the speed of a piece of music by correcting touch sensitivity by, for example, slowing down the changes in touch data when playing quickly, based on the interval between musical tones. The purpose is to provide musical instruments.

(d1課題を解決するための手段 この発明は、楽音の発生および発生する楽音の音高を指
示する演奏情報を発生する演奏情報発生手段と、前記演
奏情報に基づき楽音信号を発生する音源手段と、楽音制
御のためのタッチデータを発生するタッチデータ発生手
段と、前記演奏情報に基づき楽音の発音間隔を検出する
発音間隔検出手段と、この発音間隔検出手段の検出結果
に基づき前記タッチデータを補正し、この補正したタッ
チデータを前記音源手段に対して楽音信号の状態を制御
する楽音制御情報として供給する制御手段と、を有する
ことを特徴とする。
(Means for Solving Problem d1) The present invention comprises a performance information generation means for generating performance information indicating the generation of a musical tone and the pitch of the generated musical tone, and a sound source means for generating a musical tone signal based on the performance information. , a touch data generating means for generating touch data for controlling musical tones; a sounding interval detecting means for detecting sounding intervals of the musical tones based on the performance information; and correcting the touch data based on the detection result of the sounding interval detecting means. and a control means for supplying the corrected touch data to the sound source means as musical tone control information for controlling the state of musical tone signals.

さらに、この発明は、楽音の発生および発生する楽音の
音高を指示する演奏情報を発生する演奏情報発生手段と
、前記演奏情報に基づき楽音信号を発生する音源手段と
、楽音発生時の楽音制御のためのイニシャルタッチデー
タを出力するイニシャルタッチデータ発生手段と、発音
発生中の楽音制御のためのアフタタッチデータを出力す
るアフタタ・7チデ一タ発生手段と、前記演奏情報に基
づき楽音の発音間隔を検出する発音間隔検出手段と、こ
の発音間隔検出手段の検出結果および前記イニシャルタ
ッチデータ発生手段が出力したイニシャルタッチデータ
に基づき前記アフタタッチデータを補正し、この補正し
たアフタタッチデータを前記音源手段に対して楽音信号
の状態を制御する楽音制御情報として供給する制御手段
と、を有することを特徴とする。
Further, the present invention provides performance information generation means for generating performance information indicative of the generation of a musical tone and the pitch of the generated musical tone, a sound source means for generating a musical tone signal based on the performance information, and a musical tone control when generating a musical tone. initial touch data generating means for outputting initial touch data for controlling musical tones during generation of musical tones; aftertouch data generating means for outputting aftertouch data for controlling musical tones during generation of musical tones; sound generation interval detection means for detecting the interval; and the aftertouch data is corrected based on the detection result of the sound generation interval detection means and the initial touch data outputted by the initial touch data generation means, and the corrected aftertouch data is applied to the sound source. The present invention is characterized by comprising a control means for supplying musical tone control information for controlling the state of musical tone signals to the means.

(e)発明の作用 この発明の電子楽器では、タッチデータ発生手段が出力
したタッチデータに基づいて楽音の発音レベル等の楽音
の状態を制御する。このタッチデータは連続する楽音の
発音間隔(発音間隔検出手段が検出する。)に基づいて
補正される(制御手段)、これにより、連続する楽音の
発音間隔が異なることにより(たとえば、速いパッセー
ジ等で発音間隔が短くなることにより)、タッチが演奏
者の意志とは異なった状態となり、楽音が不安定乙こな
るのを防止することができる。
(e) Effects of the Invention In the electronic musical instrument of the present invention, the state of musical tones, such as the sound production level of musical tones, is controlled based on the touch data output by the touch data generating means. This touch data is corrected (control means) based on the sounding interval of consecutive musical tones (detected by the sounding interval detecting means). (by shortening the sound interval), it is possible to prevent the touch from being in a state different from the performer's intention, and the musical sound from becoming unstable.

(fl実施例 第1図はこの発明の実施例である電子鍵盤楽器のブロッ
ク図である。鍵盤1は複数のキーを有しており、約5オ
クターブ程度の音域を有している。これらの各キーには
それぞれオン/オフおよびイニシャルタッチを検出する
スイッチセンサおよびアフタタッチ強度を検出する圧力
センサ等が設けられている。この鍵盤Iにはキーのオン
/オフおよびイニシャルタッチ強度を検出するキーオン
検出回路2およびアフタタッチ強度を検出するアフタタ
ッチ検出回路3が接続されており、これらの回路2,3
はバス5に接続されている。バス5にはCPU4が接続
されており、CPU4はこのハス5を介してデータ等の
送受を行う。バス5にはCPU4.キーオン検出回路2
.アフタタッチ検出回路3のほか、ROM6.RAM7
.タイマ回路8および音源回路9が接続されている。R
OM6にはプログラムデータや楽音の音色データ等が記
憶されており、RAM7には演奏中に発止した種々のデ
ータを記憶するレジスタが設定される。タイマ回路8は
一部タイミング毎にCPU4に対して割り込みをかける
回路である。音源回路9は16チヤンネルの発音チャン
ネルを有しており、それぞれ別個に楽音データを受は付
けて同時に楽音を発生することができる。また楽音発生
中に楽音制御データを受は付けて発生中の楽音のピッチ
、発音レベルや音色等を制御することができる。音源回
路9から発生された楽音信号はサウンドシステム10に
入力され増幅されてスピーカ等から出力される。
(fl Embodiment FIG. 1 is a block diagram of an electronic keyboard instrument that is an embodiment of the present invention. The keyboard 1 has a plurality of keys and has a range of approximately 5 octaves. Each key is equipped with a switch sensor that detects on/off and initial touch, and a pressure sensor that detects aftertouch strength.This keyboard I has a key-on sensor that detects key on/off and initial touch strength. A detection circuit 2 and an aftertouch detection circuit 3 that detects aftertouch strength are connected, and these circuits 2 and 3 are connected to each other.
is connected to bus 5. A CPU 4 is connected to the bus 5, and the CPU 4 sends and receives data, etc. via the bus 5. Bus 5 has CPU4. Key-on detection circuit 2
.. In addition to the aftertouch detection circuit 3, the ROM 6. RAM7
.. A timer circuit 8 and a sound source circuit 9 are connected. R
The OM6 stores program data, timbre data of musical tones, etc., and the RAM7 has registers for storing various data generated during performance. The timer circuit 8 is a circuit that interrupts the CPU 4 at certain timings. The tone generator circuit 9 has 16 sound generation channels, and can receive and receive musical tone data separately from each channel and simultaneously generate musical tones. Furthermore, by receiving musical tone control data while musical tones are being generated, it is possible to control the pitch, sound level, timbre, etc. of the musical tones being generated. A musical tone signal generated from the sound source circuit 9 is input to a sound system 10, amplified, and output from a speaker or the like.

第2図は前記ROM6およびRAM7に設定される記憶
エリアを示す図である。
FIG. 2 is a diagram showing storage areas set in the ROM 6 and RAM 7.

同図(A)はROM6の記憶データの一部を示す。FIG. 2A shows part of the data stored in the ROM 6.

THREはアフタタッチ切換タイミングデータである。THRE is aftertouch switching timing data.

1つの楽音の発生時間がこのデータの値以上継続したと
き、遅いパッセージであるとして、アフタタッチ強度を
ノーマル状態に切り換える。
When the generation time of one musical tone continues longer than the value of this data, it is determined that the passage is slow and the aftertouch strength is switched to the normal state.

ITTはイニシャルタッチデータ制御期間データである
。キーオン直後のこの時間はアフタタッチデータを無視
してイニシャルタッチデータによって発音レベル等を制
御する。
ITT is initial touch data control period data. During this period immediately after the key is turned on, the aftertouch data is ignored and the sound level etc. are controlled using the initial touch data.

同図(B)はRAM7の記憶エリアの一部を示す。FIG. 2B shows a part of the storage area of the RAM 7.

K ON +1)〜α勅はキーオンフラグである。この
フラグは各発音チャンネル毎に設定されており、キーオ
ンがあったときこのキーが割り当てられた発音チャンネ
ルのフラグがセットされ、キーオフがあったときリセッ
トされる。
K ON +1) to α is a key-on flag. This flag is set for each sound generation channel, and when a key is turned on, the flag of the sound generation channel to which this key is assigned is set, and when the key is turned off, it is reset.

K CD Tl)〜Qlflはキーコードレジスタであ
る。各発音チャンネル毎に設定されており、そのチャン
ネルに割り当てられたキーのキーコードが記憶される。
K CD Tl) to Qlfl are key code registers. It is set for each sound generation channel, and the key code of the key assigned to that channel is stored.

INT(1)〜αυはイニシャルタッチデータレジスタ
である。このレジスタは各発音チャンネル毎に設定され
ており、そのチャンネルに割り当てられたキーのイニシ
ャルタッチデータが記憶される。
INT(1) to αυ are initial touch data registers. This register is set for each sound generation channel, and stores the initial touch data of the key assigned to that channel.

このレジスタには、キーオンイベントが発生したとき、
そのキーのイニシャルタッチデータが記憶される。
This register is set when a key-on event occurs.
Initial touch data for that key is stored.

A F T (1)〜Q6)はアフタタッチデータレジ
スタである。このレジスタは各チャンネル毎に設定され
ており、そのチャンネルに割り当てられたキーのアフタ
タッチデータが記憶される。
A F T (1) to Q6) are aftertouch data registers. This register is set for each channel, and stores the aftertouch data of the key assigned to that channel.

T (1)〜αQは発音時間レジスタである。このレジ
スタはタイマレジスタであり、各チャンネルの楽音の発
音継続時間を計数する。
T (1) to αQ are sound generation time registers. This register is a timer register and counts the duration of the sound generation of each channel.

TIMEは発音間隔レジスタである。このレジスタには
任意のキーがオンされたとき後述のmの値が記憶される
TIME is a sound generation interval register. This register stores the value of m, which will be described later, when any key is turned on.

mはタイマレジスタである。タイマ割り込み動作によっ
てこのレジスタの値は歩進され、キーオンがある毎にク
リアされる。
m is a timer register. The value of this register is incremented by a timer interrupt operation and cleared every time the key is turned on.

i、jはチャンネルポインタである。iは通常動作用の
チャンネルポインタであり、jは割り込み動作用のチャ
ンネルポインタである。
i and j are channel pointers. i is a channel pointer for normal operation, and j is a channel pointer for interrupt operation.

第3図は同電子鍵盤楽器のフローチャートである。同図
(A)はメインルーチンを示す。装置の電源がオンされ
ると、まずイニシャライズ動作(nl)を実行してレジ
スタのリセット等を行い、こののちn2およびn12で
キーオンイベントおよびキーオフイベントの有無を判断
する。キーオフイベントがあったときにはn3〜nil
の動作を実行し、キーオフイベントがあったときにはn
13〜n17の動作を実行する。この後その他の処理(
音色操作子に関する処理)を実行しくn18)、n2に
戻る。
FIG. 3 is a flowchart of the electronic keyboard instrument. FIG. 3A shows the main routine. When the power of the device is turned on, an initialization operation (nl) is first performed to reset the registers, and then the presence or absence of a key-on event and a key-off event is determined at n2 and n12. n3 to nil when there is a key-off event
and when there is a key-off event, n
13 to n17 are executed. After this, other processing (
Then execute the process related to the timbre controller (n18) and return to n2.

n3ではオンされたキーを何れかの発音チャンネルに割
り当て、この割り当てチャンネル番号をチャンネルポイ
ンタ1に記憶する(n4)。次に、このiで示されるチ
ャンネルのキーオンフラグK ON (ilをセントし
くn5)、また、オンイベントのあったキーのキーコー
ドを当該チャンネルiのキーコードレジスタK CD 
fitにセントする(n6)。次にTIMEレジスタに
タイマカウンタmの値をセットしくn?)、オンイベン
トのあったキーについてのキーオン時の押鍵速度をイニ
シャルタッチデータとして当該チャンぶルiのイニシャ
ルタッチデータレジスタINT(ilにセットする(n
8)。そして、これらK CD fil、  I N 
T (ilのデータおよびノートオン信号を音源回路9
のチャンネルiに送出して発音チャンネルiの発音処理
を実行する(n9)。この後、チャンネルiの発音時間
レジスタT (1)およびタイマレジスタmをクリアし
て(nlo、n1l)、キーオンイベント処理動作を完
了する。
At n3, the turned-on key is assigned to one of the sound generation channels, and this assigned channel number is stored in channel pointer 1 (n4). Next, the key-on flag K ON of the channel indicated by this i (n5 if il is set), and the key code of the key where the on event occurred are stored in the key code register K CD of the channel i.
Cent to fit (n6). Next, set the value of timer counter m in the TIME register.n? ), set the key press speed at key-on for the key with the on-event as initial touch data to the initial touch data register INT(il) of the channel i (n
8). And these K CD fil, I N
T (il data and note-on signal are sent to the sound source circuit 9
is transmitted to channel i, and the sound generation process of sound generation channel i is executed (n9). Thereafter, the sound generation time register T(1) and timer register m of channel i are cleared (nlo, n1l), and the key-on event processing operation is completed.

一方、n13ではオフされたキーのキーコードと一致す
るキーコードを記憶しているキーコードレジスタを検索
し、一致するキーコードレジスタがあればそのチャンネ
ル番号をポインタiにセットし、該当するチャンネルが
なければ、オフされたキーはチャンネル割り当てされて
いない場合であるから、n14から直接n18に抜ける
(n14、n15)、キーオンフラグK ON fi)
をリセットしたのち(n16)、音源回路9のチャンネ
ルiにノートオフ信号を送出して音源回路9のiチャン
ネルの楽音信号をリリース状態に移行させる(nl?)
  。
On the other hand, n13 searches the key code register that stores the key code that matches the key code of the key that was turned off, and if there is a matching key code register, sets its channel number to pointer i, and selects the corresponding channel. If not, the turned-off key is not assigned a channel, so it exits directly from n14 to n18 (n14, n15), key-on flag K ON fi)
After resetting (n16), a note-off signal is sent to channel i of the tone generator circuit 9 to shift the musical tone signal of the i channel of the tone generator circuit 9 to the release state (nl?).
.

同図(B)はアフタタッチ処理動作である。この動作は
CPUに対する一定時間(約ILL)毎の割込動作によ
って実行される。この処理がスタートするとまず割込動
作用のチャンネルポインタjにチャンネル1を示す1を
セットする(n21)。つぎに、このポインタjが示す
チャンネルのキーオンフラグK ON (Jlがセット
されているか否かを判断しくn22)、セットされてい
なければ発音していないためアフタタッチ処理が不要で
あるのでn33にジャンプする。KONOIがセットし
ている場合には発音間隔レジスタTIMEの内容が感度
切換のしきい値データであるTHREより大きいか否か
を判断する(n23)。この条件が満たされれば発音間
隔の長いゆっくりした旋律が演奏されているとしてこの
チャンネルのアフタタッチ感度をノーマルに設定する(
n25)。TIME<THRE且つT(Jl<THRE
の場合にはjチャンネルのアフタタッチ感度を低く設定
する(n27)。この場合において感度の中心をイニシ
ャルタッチデータ(INTfJl)に設定する。すなわ
ち、 補正されたアフタタッチデータAFT1は、INT−α
AFTmax AFT 1 =αAFT+ ま ただし、AFTmax  :AFTの最大値α:感度係
数(0〈α〈1) で求められる。こののち発音時間レジスタT(jlがイ
ニシャルタッチ制御時間(ITT)を超えたか否かを判
断する(n26)。超えている場合にはn29以下の動
作を実行し、超えていない場合にはn33にスキップす
る。
FIG. 3B shows an aftertouch processing operation. This operation is executed by interrupting the CPU at fixed time intervals (approximately ILL). When this process starts, first, a channel pointer j for interrupt operation is set to 1 indicating channel 1 (n21). Next, the key-on flag K ON of the channel indicated by this pointer j (determine whether Jl is set or not (n22)). If it is not set, no sound is being generated and aftertouch processing is not necessary, so jump to n33. do. If KONOI is set, it is determined whether the contents of the sound generation interval register TIME are greater than THRE, which is threshold data for sensitivity switching (n23). If this condition is met, it is assumed that a slow melody with long sound intervals is being played, and the aftertouch sensitivity of this channel is set to normal (
n25). TIME<THRE and T(Jl<THRE
In this case, the aftertouch sensitivity of the j channel is set low (n27). In this case, the center of sensitivity is set to initial touch data (INTfJl). That is, the corrected aftertouch data AFT1 is INT-α
AFTmax AFT 1 = αAFT+ Also, AFTmax : Maximum value of AFT α : Sensitivity coefficient (0<α<1). After this, it is determined whether or not the sound generation time register T (jl) has exceeded the initial touch control time (ITT) (n26). skip.

また、n24でTOIがTHRE以上であることが判断
された場合には発音継続時間が十分に長いとしてjチャ
ンネルのアフタタッチ感度をノーマル状態に設定したの
ち(n28:第4図(B)後半部参照)、n29に進む
。すなわち、T(Jl≧THREの場合には当然にT(
jl>ITTであるためn26の判断をスキップしてn
29に進む。
In addition, if n24 determines that the TOI is greater than or equal to THRE, the aftertouch sensitivity of the j channel is set to normal, assuming that the sound duration time is sufficiently long (n28: Second half of Figure 4 (B) ), proceed to n29. That is, in the case of T(Jl≧THRE, naturally T(
Since jl>ITT, the judgment of n26 is skipped and n
Proceed to step 29.

n29ではチャンネルjに割り当てられているキーにつ
いてのアフタタッチデータを読み込み、レジスタAFT
OIにセットする。次にイニシャルタッチデータとセン
トされたアフタタッチ出力とを滑らかに結ぶ補間データ
を作成しくn30)、補間データとアフタタッチ出力と
を比較して大きい方をアフタタッチデータとして音源回
路9に送出する(n31)。次に、T(J)に1を加算
したのち(n32)、チャンネルを1進ませ(n 33
)、全チャンネルについての処理が完了するまでn34
の判断でn22に戻る。全チャンネルに関する処理が終
了したのちタイマレジスタmに1を加算して(n35)
リターンする。
n29 reads aftertouch data for the key assigned to channel j, and registers AFT.
Set to OI. Next, create interpolation data that smoothly connects the initial touch data and the sent aftertouch output (n30), compare the interpolated data and the aftertouch output, and send the larger one to the sound source circuit 9 as aftertouch data ( n31). Next, after adding 1 to T(J) (n32), advance the channel by 1 (n33
), n34 until processing for all channels is completed.
Return to n22 based on the judgment. After processing for all channels is completed, add 1 to timer register m (n35).
Return.

以上のような動作を行うことにより、ノーマルモードで
は、第4図(A)に示すようにアフタタッチ検出回路3
の出力が補正されることなく、そのまま音源回路9に供
給される。これに対し、オフセットコントロールモード
では、第4図(B)に示すように、押鍵直後はアフタタ
ッチ検出回路3の出力(第図(A)と同じ)がその前の
押鍵との間隔(発音間隔)応じて補正されて音源回路9
に供給され、そしてその後はアフタタッチ検出回路3の
出力がそのまま音源回路9に供給される。
By performing the above operations, in the normal mode, the aftertouch detection circuit 3 is activated as shown in FIG. 4(A).
The output is directly supplied to the sound source circuit 9 without being corrected. On the other hand, in the offset control mode, as shown in FIG. 4(B), immediately after a key is pressed, the output of the aftertouch detection circuit 3 (same as in FIG. 4(A)) is set at the interval ( sound source circuit 9.
After that, the output of the aftertouch detection circuit 3 is supplied as is to the sound source circuit 9.

これにより、第4図に示すように速いパッセージを弾く
場合にはイニシャルタッチ出力を中心とする狭い範囲に
発音レベルの変動が抑えられ、一方ゆっくりとしたパフ
セージを弾く場合にはアフタタッチによって充分な表情
づけを行うことができる。
As a result, as shown in Figure 4, when playing a fast passage, the fluctuations in the sound level are suppressed to a narrow range centered on the initial touch output, while when playing a slow passage, the aftertouch is sufficient. Can express facial expressions.

実施例では、アフタタッチデータで楽音の音量を制御す
るようにしたが、これに限らず楽音の音色、音量など何
を制御するようにしてもよい。
In the embodiment, the aftertouch data is used to control the volume of the musical tone, but the present invention is not limited to this, and it may be possible to control anything such as the timbre or volume of the musical tone.

実施例では、発音チャンネル数が16の16音同時発音
としたが、発音数はこれに限らない。また、単音発音も
可能である。
In the embodiment, the number of sound generation channels is 16, and 16 tones are generated simultaneously, but the number of sound generation is not limited to this. In addition, single-note pronunciation is also possible.

実施例では、アフタタッチは各キー毎に独立して検出す
るようにしたが、このこの限りではなく、全キー共通あ
るいは各鍵域毎に共通でアフタタッチを検出するように
してもよい。
In the embodiment, aftertouches are detected independently for each key, but the present invention is not limited to this, and aftertouches may be detected commonly for all keys or for each key range.

実施例では、アフタタッチ感度の切り換えを2種類とし
ているが、これより多くてもよい。
In the embodiment, there are two types of aftertouch sensitivity switching, but there may be more than this.

実施例では、アフタタッチデータの補正範囲はイニシャ
ルタッチの値を中心としているが、この限りではない。
In the embodiment, the aftertouch data correction range is centered around the initial touch value, but this is not the case.

実施例では、前回の押鍵との間隔を発音間隔として音量
制御をしているが、これに限らず、たとえば、前の複数
回の押鍵間隔の平均値を用いるなどどのような方法を用
いて発音間隔を求めてもよい。
In the embodiment, the volume is controlled using the interval from the previous key press as the sound generation interval; however, the volume control is not limited to this, and any method may be used, such as using the average value of the previous key press intervals. You can also find the pronunciation interval by

実施例では、発音間隔に応じてアフタタッチデータを補
正するようにしたが、同様にイニシャルタッチデータを
発音間隔に応じて補正するようにしてもよい。すなわち
、発音間隔が短いときはイニシャルタッチデータの感度
を下げる等の処理を行うようにする(第3図(B)のn
23.n25n27に準じた処理をイニシャルタッチデ
ータに対して行う。この場合、n27に相当する処理と
しては、例えば検出したイニシャルタッチデータに対し
て1より小さい係数を乗算するようにすればよい、)。
In the embodiment, the aftertouch data is corrected according to the sound generation interval, but the initial touch data may be similarly corrected according to the sound generation interval. In other words, when the sound interval is short, processing such as lowering the sensitivity of the initial touch data is performed (n in Figure 3 (B)).
23. Processing similar to n25n27 is performed on the initial touch data. In this case, as the process corresponding to n27, for example, the detected initial touch data may be multiplied by a coefficient smaller than 1).

実施例では、発音間隔と共にイニシャルタッチの情報を
加味してアフタタッチデータを補正したが、イニシャル
タッチは考慮せず発音間隔だけで補正してもよい。
In the embodiment, the aftertouch data is corrected by taking into account the information on the initial touch as well as the pronunciation interval, but the aftertouch data may be corrected only based on the pronunciation interval without considering the initial touch.

実施例では、アフタタッチデータの補正を演算により行
うようにしたが、たとえば、テーブル等を用いてアフタ
タッチデータの変換を行うようにしてもよい。
In the embodiment, the aftertouch data is corrected by calculation, but the aftertouch data may be converted using a table or the like, for example.

また、この発明は鍵盤のない音源ユニットのような機種
にも応用が可能である。
Further, the present invention can be applied to a model such as a sound source unit without a keyboard.

さらに、実施例ではソフトウェアにより制御した例を示
したが、専用のハードウェア制御でも可能である。
Further, although the embodiment shows an example in which control is performed by software, it is also possible to control by dedicated hardware.

(幻発明の効果 以上のようにこの発明の電子楽器によれば発音間隔によ
りタッチデータを補正することができる。すなわち、発
音間隔が狭く早く弾くときは、タッチデータの変化を鈍
くするなどのタッチ感度の補正をするようしたことによ
り、演奏の速さに合わせた楽音制御が可能になり、演奏
者の意志にあった演奏が可能となる。
(Effects of the Phantom Invention As described above, according to the electronic musical instrument of this invention, it is possible to correct the touch data according to the sound interval. In other words, when playing quickly with a narrow sound interval, the touch data changes slowly, etc.) By correcting the sensitivity, it is possible to control the musical tone in accordance with the speed of the performance, and it is possible to perform the performance in accordance with the player's will.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこ発明の実施例である電子楽器のブロック図、
第2図(A)、(B)は同制御部のメモリの一部構成を
示す図、第3図(A)、(B)は同制御部の動作を示す
フローチャート、第4図(A)。 (B)は同電子楽器によって発音された楽音の発音レジ
スタ変化を示す図である。 1−鍵盤、2−キーオン検出回路、 3−アフタタッチ検出回路、9−音源回路。
FIG. 1 is a block diagram of an electronic musical instrument that is an embodiment of the present invention.
Figures 2 (A) and (B) are diagrams showing a partial configuration of the memory of the control unit, Figures 3 (A) and (B) are flowcharts showing the operation of the control unit, and Figure 4 (A). . (B) is a diagram showing changes in the sound register of musical tones produced by the electronic musical instrument. 1-keyboard, 2-key-on detection circuit, 3-aftertouch detection circuit, 9-sound source circuit.

Claims (2)

【特許請求の範囲】[Claims] (1)楽音の発生および発生する楽音の音高を指示する
演奏情報を発生する演奏情報発生手段と、前記演奏情報
に基づき楽音信号を発生する音源手段と、 楽音制御のためのタッチデータを発生するタッチデータ
発生手段と、 前記演奏情報に基づき楽音の発音間隔を検出する発音間
隔検出手段と、 この発音間隔検出手段の検出結果に基づき前記タッチデ
ータを補正し、この補正したタッチデータを前記音源手
段に対して楽音信号の状態を制御する楽音制御情報とし
て供給する制御手段と、を有することを特徴とする電子
楽器。
(1) Performance information generation means that generates performance information that instructs the generation of musical sounds and the pitch of the generated musical sounds; sound source means that generates musical sound signals based on the performance information; and generates touch data for controlling musical sounds. a touch data generating means for detecting the sounding interval of musical tones based on the performance information, a sounding interval detecting means for detecting the sounding interval of musical tones based on the performance information, correcting the touch data based on the detection result of the sounding interval detecting means, and transmitting the corrected touch data to the sound source. An electronic musical instrument comprising: control means for supplying musical tone control information for controlling the state of musical tone signals to the means.
(2)楽音の発生および発生する楽音の音高を指示する
演奏情報を発生する演奏情報発生手段と、前記演奏情報
に基づき楽音信号を発生する音源手段と、 楽音発生時の楽音制御のためのイニシャルタッチデータ
を出力するイニシャルタッチデータ発生手段と、 発音発生中の楽音制御のためのアフタタッチデータを出
力するアフタタッチデータ発生手段と、前記演奏情報に
基づき楽音の発音間隔を検出する発音間隔検出手段と、 この発音間隔検出手段の検出結果および前記イニシャル
タッチデータ発生手段が出力したイニシャルタッチデー
タに基づき前記アフタタッチデータを補正し、この補正
したアフタタッチデータを前記音源手段に対して楽音信
号の状態を制御する楽音制御情報として供給する制御手
段と、 を有することを特徴とする電子楽器。
(2) performance information generation means for generating performance information instructing the generation of musical tones and the pitch of the generated musical tones; sound source means for generating musical tone signals based on the performance information; initial touch data generation means for outputting initial touch data; aftertouch data generation means for outputting aftertouch data for controlling musical tones during generation of tones; and sound generation interval detection for detecting sound generation intervals of musical tones based on the performance information. correcting the aftertouch data based on the detection result of the sound generation interval detection means and the initial touch data output by the initial touch data generation means, and transmitting the corrected aftertouch data to the sound source means to generate a musical sound signal. An electronic musical instrument comprising: control means for supplying musical tone control information for controlling a state.
JP2040722A 1990-02-20 1990-02-20 Electronic musical instrument Expired - Fee Related JPH07111633B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2040722A JPH07111633B2 (en) 1990-02-20 1990-02-20 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2040722A JPH07111633B2 (en) 1990-02-20 1990-02-20 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH03242698A true JPH03242698A (en) 1991-10-29
JPH07111633B2 JPH07111633B2 (en) 1995-11-29

Family

ID=12588494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2040722A Expired - Fee Related JPH07111633B2 (en) 1990-02-20 1990-02-20 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JPH07111633B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271145A (en) * 2002-03-19 2003-09-25 Yamaha Corp Device for correcting sensitivity of playing operator
JP2007049323A (en) * 2005-08-09 2007-02-22 Tamura Seisakusho Co Ltd Volume adjusting device and method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271145A (en) * 2002-03-19 2003-09-25 Yamaha Corp Device for correcting sensitivity of playing operator
JP2007049323A (en) * 2005-08-09 2007-02-22 Tamura Seisakusho Co Ltd Volume adjusting device and method therefor

Also Published As

Publication number Publication date
JPH07111633B2 (en) 1995-11-29

Similar Documents

Publication Publication Date Title
JPS6342268B2 (en)
JP2671472B2 (en) Electronic musical instrument
JP5188863B2 (en) Electronic musical instruments
US6750390B2 (en) Automatic performing apparatus and electronic instrument
JP3239411B2 (en) Electronic musical instrument with automatic performance function
JPH0916172A (en) Musical performance practice device
JPH03242698A (en) Electronic musical instrument
JPH03242697A (en) Electronic musical instrument
US5300728A (en) Method and apparatus for adjusting the tempo of auto-accompaniment tones at the end/beginning of a bar for an electronic musical instrument
JP2990780B2 (en) Music signal generator
JP2625668B2 (en) Automatic performance device
JP2601039B2 (en) Electronic musical instrument
JP3210582B2 (en) Automatic performance device and electronic musical instrument equipped with the automatic performance device
JP3252914B2 (en) Electronic wind instrument
JP2007279490A (en) Electronic musical instrument
JPH08234733A (en) Electronic musical instrument
JP3042183B2 (en) Electronic musical instrument
JP2569822B2 (en) Electronic keyboard instrument
JP3203734B2 (en) Performance support device
JP3047431B2 (en) Electronic musical instrument
JP2722880B2 (en) Electronic musical instrument
JP2770770B2 (en) Electronic musical instrument
JPH08221072A (en) Automatic accompaniment device
JPH04181995A (en) Automatic accompanying device
KR950010018B1 (en) Metronome intensity control method of electronic musical instruments

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071129

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081129

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees