JPH03120594A - Musical sound signal generator - Google Patents

Musical sound signal generator

Info

Publication number
JPH03120594A
JPH03120594A JP1259416A JP25941689A JPH03120594A JP H03120594 A JPH03120594 A JP H03120594A JP 1259416 A JP1259416 A JP 1259416A JP 25941689 A JP25941689 A JP 25941689A JP H03120594 A JPH03120594 A JP H03120594A
Authority
JP
Japan
Prior art keywords
sound source
data
voice
edit
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1259416A
Other languages
Japanese (ja)
Other versions
JP2580794B2 (en
Inventor
Hiroyuki Toda
裕行 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP1259416A priority Critical patent/JP2580794B2/en
Priority to US07/591,840 priority patent/US5354948A/en
Publication of JPH03120594A publication Critical patent/JPH03120594A/en
Application granted granted Critical
Publication of JP2580794B2 publication Critical patent/JP2580794B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To attain complicated and diverse sound generation by forming a composite tone color by generating a partial musical sound signal having an element tone color corresponding to distributed parameter information with plural sound source means of different sound source systems. CONSTITUTION:A tone color parameter generating means comprises one composite tone color by plural element tone colors, and generates element type information to instruct at which sound source means the partial musical sound signal corresponding to each element tone color should be generated at every element tone color, and the parameter information at every element tone color. A distribution means distributes the parameter information corresponding to the element tone color to a sound source means corresponding to the element tone color type information at every element tone color, and each of the sound source means 1, 2 generates the partial musical sound signal having the element tone color corresponding to the distributed parameter information, respectively. Therefore, it is possible to form one composite tone color by combining the sound source means 1, 2 of different sound source systems, and to attach expansion on the sound generation, and to realize the complicated and diverse sound generation.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、電子楽器や音源モジュール等において利用
される楽音信号発生装置に関し、特に。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a musical tone signal generating device used in electronic musical instruments, sound source modules, etc.

音源方式が異なる複数の音源を具備し、複数のエレメン
ト音色により1つの複合音色を構成し、各エレメント音
色毎にそれに対応する部分楽音信号を前記各音源に適宜
割り当てて発生するようにしたものに関する。
Relating to a device comprising a plurality of sound sources with different sound source systems, one composite tone is composed of a plurality of element tones, and a partial musical tone signal corresponding to each element tone is appropriately assigned to each of the sound sources to be generated. .

〔従来の技術〕[Conventional technology]

音源方式が異なる複数の音源回路を具えた楽音信号発生
装置の従来例としては特開昭59−168493号に示
されたものがある。そこにおいては、自然楽器音等から
サンプリングした複数周期波形を記憶したメモリを使用
し、このメモリから波形を読み出すことにより楽音信号
を発生するいわばPCM音源と1周波数変調演算等の波
形演算を実行することにより楽音信号を発生するいわば
波形演算系音源とを具備し、押鍵に応じて両音源から発
生した波形信号を加算することにより最終的な楽音信号
を合成するようにした電子楽器が開示されている。
A conventional example of a musical tone signal generating apparatus including a plurality of tone generator circuits using different tone generator systems is disclosed in Japanese Patent Application Laid-open No. 168493/1983. In this process, a memory that stores multi-period waveforms sampled from natural musical instrument sounds, etc. is used, and by reading the waveforms from this memory, a so-called PCM sound source that generates a musical tone signal and waveform calculations such as one-frequency modulation calculations are executed. An electronic musical instrument is disclosed, which is equipped with a so-called waveform calculation system sound source that generates a musical tone signal, and which synthesizes a final musical tone signal by adding the waveform signals generated from both sound sources in response to a key depression. ing.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、上述のような従来の電子楽器は、異なる2つの
音源で発生した2つの楽音波形信号を単に加算合成する
だけのものであったため、音作りに制限があった。
However, the conventional electronic musical instruments as described above simply add and synthesize two musical waveform signals generated by two different sound sources, and therefore have limitations in sound creation.

この発明は、音源方式が異なる複数の音源を具備するも
のにおいて、複数のエレメント音色により1つの複合音
色を構成し、各エレメント音色毎にそれに対応する部分
楽音信号を前記各音源に適宜割り当てて発生するように
することにより、異なる複数の音源を様々な組合せで活
用し、音作りに広がりをもたせ、より複雑かつ多様な音
作りを可能にした楽音信号発生装置を提供しようとする
ものである。また、そのような楽音信号発生装置におい
て、音色データの変更若しくは設定等の編集作業に便な
らしめるようにしようとするものである。
In a device equipped with a plurality of sound sources with different sound source systems, the present invention comprises a plurality of element tones to form one composite tone, and generates a partial tone signal corresponding to each element tone by appropriately assigning it to each of the sound sources. By doing so, the present invention aims to provide a musical tone signal generating device that utilizes a plurality of different sound sources in various combinations, broadens the scope of sound creation, and enables more complex and diverse sound creation. Further, in such a musical tone signal generating device, it is intended to facilitate editing work such as changing or setting tone color data.

(課題を解決するための手段〕 この発明に係る楽音信号発生装置は、互いに異なる音源
方式で楽音信号を形成する複数の音源手段と、複数のエ
レメント音色により1つの複合音色を構成し、各エレメ
ント音色毎にそれに対応する部分楽音信号を前記どの音
源手段で発生すべきかを指示するエレメントタイプ情報
及び各エレメント音色毎のパラメータ、情報を少なくと
も発生する音色パラメータ発生手段と、各エレメント音
色毎の前記エレメントタイプ情報に応じてそのエレメン
ト音色、に対応す−る前記パラメータ情報を、該エレメ
ントタイプ情報が指示する前記音源手段に分配する分配
手段とを具備し、各音源手段では、分装置されたパラメ
ータ情、報に対応するエレメント音色を持つ部分楽音信
号をそれぞれ発生し、これらの部分楽音信号の組合せに
より前記複合音色に対応する楽音信号を発生するように
したものである。
(Means for Solving the Problems) A musical tone signal generating device according to the present invention includes a plurality of sound source means for forming musical tone signals using mutually different sound source methods, and a plurality of element tones to form one composite tone, and each element timbre parameter generating means for generating at least element type information indicating which sound source means should generate a partial musical tone signal corresponding to each timbre, parameters for each element timbre, and information; and the element for each element timbre. distribution means for distributing the parameter information corresponding to the element tone according to the type information to the sound source means designated by the element type information, each sound source means distributing the divided parameter information. , partial musical tone signals having element tones corresponding to the respective signals are generated, and a musical tone signal corresponding to the composite tone is generated by a combination of these partial musical tone signals.

また、前記1つの複合音色における前記エレメント音色
の1つに関して、そのパラメータ情報の内容の変更若し
くは設定を指示するエディツト指示手段と、このエディ
ツト指示手段により指示されたエレメント音色に関する
前記エレメントタイプ情報に応じて、前記各音源手段の
音源方式に適したパラメータ情報の内容の変更若しくは
設定が行われるよう制御するエディツト制御手段とを更
に具えるものである。
Further, an edit instruction means for instructing a change or setting of the parameter information regarding one of the element tones in the one composite tone, and an edit instruction means for instructing to change or set parameter information regarding one of the element tones in the one composite tone; The apparatus further includes an edit control means for controlling the content of the parameter information to be changed or set in a manner suitable for the sound source method of each of the sound source means.

また、前記音色パラメータ発生手段は、複数の前記複合
音色に関して前記パラメータ情報及びエレメントタイプ
情報を含む音色データを七才しぞれ記憶したデータメモ
リを含むものであり、複数の前記複合音色のうち1つを
選択して、その音色データの内容の変更若しくは設定を
指示するエディツト指示手段と、このエディツト指示手
段で指示された複合音色に関する前記音色データを前記
データメモリから読み出して記憶するエディツト用記憶
手段と、このエディツト用記憶手段に記憶した音色デー
タに対して変更若しくは設定を施すエディツト実行手段
とを更に具えるものである。
Further, the timbre parameter generating means includes a data memory storing timbre data including the parameter information and element type information regarding the plurality of composite tones, and one of the plurality of composite tones is stored. an editing instruction means for selecting one and instructing to change or set the contents of the tone data; and an editing storage means for reading out and storing the tone data related to the composite tone specified by the editing instruction means from the data memory. and an edit execution means for changing or setting the timbre data stored in the editing storage means.

これを図により示すと第1図(a)= (bL (o)
のようである。
This is illustrated graphically in Figure 1 (a) = (bL (o)
It seems like.

〔作 用〕[For production]

複数のエレメント音色により1つの複合音色を構成し、
各エレメント音色毎にそれに対応する部分楽音信号をど
の音源手段で発生すべきかをエレメントタイプ情報によ
り個別に指示することができる。従って、異なる音源方
式からなる音源手段を様々な組合せで活用して1つの複
合音色を形成することができ、音作りに広がりをもたせ
、より複雑かつ多様な音作りが可能になる。
One composite tone is composed of multiple element tones,
For each element tone color, it is possible to individually instruct which sound source means should generate the corresponding partial tone signal using the element type information. Therefore, one composite timbre can be formed by utilizing various combinations of sound source means having different sound source systems, which broadens the scope of sound creation and enables more complex and diverse sound creation.

また、前記1つの複合音色における前記エレメント音色
の1つに関して、そのパラメータ情報の内容の変更若し
くは設定を指示することができ。
Furthermore, it is possible to instruct the change or setting of the parameter information regarding one of the element tones in the one composite tone.

指示されたエレメント音色に関する前記エレメントタイ
プ情報に応じて、前記各音源手段の音源方式に適したパ
ラメータ情報の内容の変更若しくは設定が行われるよう
自動的に制御される。従って、音色データの編集作業の
際に、どのエレメント音色がどの音源方式によるかを、
いちいち指示する必要がなく1編集作業の操作性がよ、
くなる。
Depending on the element type information regarding the designated element tone color, the content of the parameter information suitable for the sound source system of each sound source means is automatically controlled to be changed or set. Therefore, when editing tone data, you need to know which element tone is based on which sound source method.
There is no need to give instructions one by one, making it easier to perform one editing task.
It becomes.

また、音色データの編集作業を行おうとする所望の複合
音色の音色データをデータメモリからエディツト用記憶
手段に記憶し、ここに記憶されている音色データに対し
て変更、設定等のデータ編集を施すようにしたので、エ
ディツト用記憶手段の記憶容量を余分に確保しておけば
、データ量の拡張等に備えることができ、編集作業の自
由度が向上する。
Also, the timbre data of the desired composite timbre for which timbre data editing work is to be performed is stored from the data memory into the editing storage means, and data editing such as changes and settings are performed on the timbre data stored here. Therefore, by securing extra storage capacity of the editing storage means, it is possible to prepare for expansion of the data amount, etc., and the degree of freedom in editing work is improved.

(実施例〕 以下、添付図面を参照してこの発明の一実施例を詳細に
説明しよう。
(Embodiment) Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

倉体璽玖■夷 第2図はこの発明に係る楽音信号発生装置を適用した電
子楽器の一例を示すハード祷成ブロック図であり、この
例では、中央処理ユニット(CPU)10、プログラム
及びデータROMl1.データ及びワーキングRAM1
2を含むマイクロコンピュータの制御の下で各種処理が
実行される。
Figure 2 is a hardware block diagram showing an example of an electronic musical instrument to which the musical tone signal generator according to the present invention is applied.In this example, a central processing unit (CPU) 10, programs and data ROMl1. Data and working RAM1
Various processes are executed under the control of microcomputers including 2.

データ及びアドレスバス13を介して鍵盤回路14、操
作パネル15等その他各種回路がマイクロコンピュータ
に接続されている。
A keyboard circuit 14, an operation panel 15, and other various circuits are connected to the microcomputer via a data and address bus 13.

鍵盤回路14は1発生すべき楽音の音高を指定するため
の複数の鍵を具えた鍵盤に対応して設けられており、該
鍵盤の各軸に対応するキースイッチを含む回路である。
The keyboard circuit 14 is provided corresponding to a keyboard having a plurality of keys for specifying the pitch of a musical tone to be generated, and is a circuit including key switches corresponding to each axis of the keyboard.

この鍵盤回路14は各キースイッチのオン・オフを検出
するキースキャン回路を含んでいてもよいし、若しくは
、キースキャン“はマイクロコンピュータによって行な
うようになっていてもよい。
The keyboard circuit 14 may include a key scan circuit for detecting whether each key switch is turned on or off, or the key scan may be performed by a microcomputer.

操作パネル15は、音色、音量、音高、効果等を選択・
設定・制御するための各種操作子を含むものである。各
種の選択・設定処理を行なうために表示部DPY及びフ
ァンクションスイッチ部FSWが設けられている。
The operation panel 15 allows you to select and select tone, volume, pitch, effect, etc.
It includes various operators for setting and controlling. A display section DPY and a function switch section FSW are provided to perform various selection and setting processes.

演奏コントローラ16は、演奏中において楽音の音色、
音量、音高等を制御するための操作子であり1例えば制
御ホイールや制御ペダルあるいはプレスコントローラな
どを含む。
The performance controller 16 controls the tone of the musical tone during the performance.
It is an operator for controlling volume and pitch, and includes, for example, a control wheel, a control pedal, or a press controller.

トーンジェネレータ部TOは、2つの異なる音源回路、
例えばPCM音源17とFM音源18を含んでおり、鍵
盤で押圧された鍵に対応する音高の楽音信号を面音源1
7.18で夫々同時に発生することが可能である。各音
源17.18はそれぞれN個及びM個の楽音発生チャン
ネルを有している。以下、この実施例では、N=M=1
6であるとし、各音源17.18ではそれぞれ16チヤ
ンネル時分割で楽音信号の発生が可能であるとする。
The tone generator section TO has two different sound source circuits,
For example, it includes a PCM sound source 17 and an FM sound source 18, and the surface sound source 1 outputs a musical tone signal of a pitch corresponding to a key pressed on the keyboard.
7.18 each can occur simultaneously. Each sound source 17, 18 has N and M tone generation channels, respectively. Hereinafter, in this example, N=M=1
6, and each of the sound sources 17 and 18 is capable of generating musical tone signals in 16 channels time-divisionally.

鍵盤回路14におけるキーオン・キーオフの検出、操作
パネル15における各種操作子の振作状態の検出、演奏
コントローラ16の操作状態の検出、及び押圧鍵に対応
する楽音の発音割当て処理等の各種処理がマイクロコン
ピュータの制御のもとで行なわれ、必要なデータがバス
13を介してトーンジェネレータ部TOに与えられる。
The microcomputer performs various processes such as detecting key-on and key-off in the keyboard circuit 14, detecting the shaking states of various operators on the operation panel 15, detecting the operating states of the performance controller 16, and assigning musical tones corresponding to pressed keys. The necessary data is provided to the tone generator section TO via the bus 13.

トーンジェネレータ部TOでは与えられたデータに基づ
き楽音信号を発生し、この楽音信号はサウンドシステム
19を経由して空間的に発音される。
The tone generator section TO generates a musical tone signal based on the supplied data, and this musical tone signal is spatially produced via the sound system 19.

トーンジェネレータ TOの− 第3図を参照してトーンジェネレータ部TGの一例につ
き説明すると、PCM音源17は各種の音色に対応する
楽音波形をそれぞれ予め記憶した波形メモリ20を含ん
でおり、基本的には、発生すべき楽音の音高に対応して
変化するアドレスデータに応じて該波形メモリ20から
楽音波形サンプル値データを順次読み出すことにより楽
音信号を発生する「波形メモリ読み出し方式」からなる
音源方式を採用するものである。この場合、波形メモリ
20に記憶する楽音波形は1周期波形のみであってもよ
いが、複数周期波形である方が音質の向上が図れるので
好ましい、複数周期波形を波形メモリに記憶しこれを読
み出す方式は1例えば特開昭52−121313号に示
されたように発音開始から終了までの全波形を記憶しこ
れを1回読み出す方式、あるいは特開昭58−1423
96号に示されたようにアタック部の複数周期波形と持
続部の1又は複数周期波形を記憶し、アタック部の波形
を1回読み出した後持続部の波形を繰返し読み呂す方式
、あるいは特開昭60−147793号に示されたよう
に離散的にサンプリングした複数の波形を記憶し、読み
出すべき波形を時間的に順次切換えて指定し、指定され
た波形を繰返し読み出す方式、など種々の方式が公知で
あり。
To explain an example of the tone generator section TG with reference to FIG. 3 of the tone generator TO, the PCM sound source 17 includes a waveform memory 20 in which musical waveforms corresponding to various tones are stored in advance. This is a sound source system that includes a "waveform memory read method" that generates a musical tone signal by sequentially reading out musical waveform sample value data from the waveform memory 20 in accordance with address data that changes in accordance with the pitch of the musical tone to be generated. This will be adopted. In this case, the musical sound waveform stored in the waveform memory 20 may be a single-period waveform, but it is preferable to use a multi-period waveform because the sound quality can be improved. A multi-period waveform is stored in the waveform memory and read out. There are two methods: 1, for example, as shown in JP-A No. 52-121313, the entire waveform from the start of sound generation to the end is stored and read out once, or JP-A-58-1423.
As shown in No. 96, there is a method in which a multi-cycle waveform of the attack part and one or more cycle waveforms of the sustain part are stored, and the waveform of the sustain part is read repeatedly after the waveform of the attack part is read out once, or the waveform of the sustain part is read repeatedly. There are various methods such as a method of storing a plurality of discretely sampled waveforms, sequentially switching and specifying the waveforms to be read out in time, and repeatedly reading out the specified waveforms, as shown in Japanese Patent Publication No. 147793/1983. is publicly known.

これらを適宜採用してよい、この実施例では、例えばア
タック部の複数周期波形を1回読み出した後持続部の波
形を繰返し読み出す方式を採用しているものと仮定する
These methods may be adopted as appropriate. In this embodiment, it is assumed that a method is adopted in which, for example, the multi-cycle waveform of the attack portion is read out once, and then the waveform of the continuation portion is repeatedly read out.

FM音源18は、楽音の音高に対応する所望の周波数で
変化する位相角パラメータデータとして所定の周波数変
調演算を実行して楽音波形サンプル値データを求める。
The FM sound source 18 performs a predetermined frequency modulation calculation on the phase angle parameter data that changes at a desired frequency corresponding to the pitch of the musical tone to obtain musical waveform sample value data.

いわゆるFM音源方式を採用するものである。This uses a so-called FM sound source method.

各音源17.18は、前述のように、それぞれ16チヤ
ンネル時分割で最大16個の楽音信号を発生することが
可能であり、また1発生楽音信号に対して振幅エンベロ
ープを付与する周知の機能も具備しているものとする。
As mentioned above, each of the sound sources 17 and 18 is capable of generating up to 16 musical tone signals in a 16-channel time-sharing manner, and also has the well-known function of imparting an amplitude envelope to a single generated musical tone signal. It shall be equipped.

PCM音源17の各チャンネルに割当てられた鍵のキー
コードKCと該軸の押鍵又は離鍵を示すキーオン信号K
ON、及び音色、音量、音高等を設定・制御するための
各種の制御データが、マイクロコンピュータからバス1
3を介してPCM音源制御レジスタ21に与えられる。
A key code KC of a key assigned to each channel of the PCM sound source 17 and a key-on signal K indicating a key press or release of the corresponding axis.
ON, and various control data for setting and controlling tone, volume, and pitch, are transmitted from the microcomputer to bus 1.
3 to the PCM sound source control register 21.

pcM’1g17では、レジスタ21に記憶されたこれ
らのデータに基づき、各チャンネルに割当てられた音の
楽音信号をそれぞれ発生する。
Based on these data stored in the register 21, the pcM'1g17 generates musical tone signals for the tones assigned to each channel.

同様に、FM音源18の各チャンネルに割当てられた鍵
のキーコードKCと該軸の押鍵又は離鍵を示すキーオン
信号KON、及び音色、音量、音高等を設定・制御する
ための各種の制御データが。
Similarly, the key code KC of the key assigned to each channel of the FM sound source 18, the key-on signal KON indicating the key press or release of the corresponding axis, and various controls for setting and controlling the tone, volume, and pitch. The data is.

マイクロコンピュータからバス13を介してFM音源制
御レジスタ22に与えられる。FM音源18では、レジ
スタ22に記憶されたこれらのデータに基づき、各チャ
ンネルに割当てられた音の楽音信号をそれぞれ発生する
The signal is applied from the microcomputer to the FM sound source control register 22 via the bus 13. Based on these data stored in the register 22, the FM sound source 18 generates musical tone signals of the tones assigned to each channel.

周知のように、FM音源方式においては、基本的には、
搬送波信号と変調波信号をそれぞれ発生し、搬送波信号
を変調波信号によって変調することにより、所望のスペ
クトル構成を持つ楽音信号を合成する。従って、FM音
源18においては。
As is well known, in the FM sound source system, basically,
A carrier wave signal and a modulated wave signal are respectively generated, and the carrier wave signal is modulated by the modulated wave signal, thereby synthesizing a musical tone signal having a desired spectral configuration. Therefore, in the FM sound source 18.

搬送波関数と変調波関数を内部で発生することができる
ようになっている。
The carrier wave function and modulation wave function can be generated internally.

この実施例においては、FM音源18において変調波関
数を内部で発生することができるのみならず、モジュレ
ータ入力端子MDTを介して外部から変調波信号を導入
できるようにもなっており。
In this embodiment, not only can a modulated wave function be generated internally in the FM sound source 18, but also a modulated wave signal can be introduced from the outside via the modulator input terminal MDT.

PCM音源17で発生した楽音信号をこのFM音源18
のモジュレータ入力端子MDTに入力スル構成となって
いる。モジュレータ入力端子MDTに入力されたPCM
音源17の出力楽音信号は、FM音源18に内部におい
て適宜レベル制御され。
The musical tone signal generated by the PCM sound source 17 is transferred to this FM sound source 18.
It has an input through configuration to the modulator input terminal MDT. PCM input to modulator input terminal MDT
The output musical sound signal of the sound source 17 is appropriately level-controlled internally by the FM sound source 18.

また、該PCM音源出力楽音信号を変調波信号として使
用するか否かが制御される。
Further, it is controlled whether or not the PCM sound source output musical tone signal is used as a modulated wave signal.

混合回路23はP’CM音源17で発生した楽音信号と
FM音源18で発生した楽音信号とを混合するためのも
のであり、その混合の制御は混合制御レジスタ24から
与えられる制御データによって行なおれる。この混合制
御データは1選択された音色等に応じて、マイクロコン
ピュータからバス13を介して与えられる。なお、この
混合演算は加算に限らず、減算であってもよい、なお、
PCM音源17とFM音源18における16チヤンネル
の時分割タイミングは同期しており、同じ押圧鍵に対応
する楽音信号をPCM音源17とFM音源18において
同時に発生する場合は、PCM音源17とFM音源18
において同じタイミングのチャンネルに該押圧鍵に対応
する楽音信号を割り当てるようにする。
The mixing circuit 23 is for mixing the musical tone signal generated by the P'CM sound source 17 and the musical tone signal generated by the FM tone source 18, and the mixing is controlled by control data given from the mixing control register 24. It will be done. This mixing control data is given from the microcomputer via the bus 13 in accordance with the selected tone, etc. Note that this mixed operation is not limited to addition, but may also be subtraction.
The time division timings of the 16 channels in the PCM sound source 17 and the FM sound source 18 are synchronized, and when musical tone signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and FM sound source 18, the PCM sound source 17 and the FM sound source 18
Then, the musical tone signal corresponding to the pressed key is assigned to the channel at the same timing.

混合回路23の出力は効果付与回路25に与えられ、リ
バーブ効果やパン(PAN)効果など各種効果が必要に
応じて付与される。効果付与を制御する制御データは、
マイクロコンピュータからバス13を介して効果制御レ
ジスタ26に与えられ、これが効果付与回路25に与え
られる。
The output of the mixing circuit 23 is applied to an effect applying circuit 25, and various effects such as a reverb effect and a panning (PAN) effect are applied as necessary. The control data that controls the effect addition is
The signal is applied from the microcomputer to the effect control register 26 via the bus 13, and this is applied to the effect applying circuit 25.

効果付与回路25から出力された楽音信号は。The musical tone signal output from the effect adding circuit 25 is as follows.

ディジタル/アナログ変換器27に与えられ、アナログ
信号に変換された後、サウンドシステム19に向けて送
出される。なお、チャンネル時分割状態を解除するため
に各チャンネルの楽音信号をアキュムレートするアキュ
ムレータが適宜設けられるが、特に図示しない、このア
キュムレータはディジタル/アナログ変換器27の前段
1例えば混合回路23の内部等、に設けるとよい。
The signal is applied to a digital/analog converter 27, converted into an analog signal, and then sent out to the sound system 19. Incidentally, in order to cancel the channel time division state, an accumulator for accumulating musical tone signals of each channel is appropriately provided, but this accumulator is not particularly shown in the figure, but is installed in the stage 1 preceding the digital/analog converter 27, for example, inside the mixing circuit 23, etc. It is recommended to set it in .

FM    の         1 次に第4図を参照してFM音源18の内部構成の一例に
つき説明すると、この例のFM音源18においては1音
につ一116個の演算ユニットOPl〜OP6を使用し
てFM演算を行ない、楽音信号を合成する。各演算ユニ
ットOPI〜OPe間の接続態様を選択的に切り換える
ことにより、FM演算のアルゴリズムを選択し、所望の
音色の楽音合成を行なう、第4図の例では、ハード的に
は1個の演算ユニットOPを具備し、これを6タイムス
ロツトで時分割使用することにより6個の演算ユニット
OPI〜OP6として機能させている。
FM No. 1 Next, an example of the internal configuration of the FM sound source 18 will be explained with reference to FIG. Performs calculations and synthesizes musical tone signals. In the example of FIG. 4, in which the FM calculation algorithm is selected by selectively switching the connection mode between each calculation unit OPI to OPe, and musical tone synthesis of a desired tone is performed, one calculation is performed in terms of hardware. It is equipped with a unit OP, which is time-divisionally used in six time slots to function as six arithmetic units OPI to OP6.

位相データ発生回路28は、各チャンネルに割当てられ
た鍵のキーコードKCとキーオン信号KONを入力し、
該キーコードKCに対応する位相データP1〜P6を各
演算ユニットOPI〜OP6に対応して1チヤンネルに
っき6タイムスロツト時分割でかつ16チヤンネル時分
割で発生する。
The phase data generation circuit 28 inputs the key code KC of the key assigned to each channel and the key-on signal KON,
Phase data P1 to P6 corresponding to the key code KC is generated in correspondence to each arithmetic unit OPI to OP6 in a time-division manner of 6 time slots per channel and in a time-division manner of 16 channels.

エンベロープ発生回路29はキーオン信号KONに基づ
き各演算ユニットOP1〜OP6に対応するエンベロー
プレベルデータELI〜EL6を1チヤンネルにつき6
タイムスロツト時分割でかつ16チヤンネル時分割で発
生する。
The envelope generation circuit 29 generates envelope level data ELI to EL6 corresponding to each arithmetic unit OP1 to OP6 based on the key-on signal KON, 6 times per channel.
This occurs by time slot time division and 16 channel time division.

選択された音色等に応じた種々のパラメータデータ若し
くは制御データは、バス13を介して制御レジスタ22
(第3図)に与えられ、該制御レジスタ22からFMM
源18内の各回路(位相データ発生回路28.エンベロ
ープ発生回路29゜演算ユニットoP、その他の回路)
に対して、各演算ユニットOP1〜OP6のタイムスロ
ットに対応して時分割的に(及び必要に応じて各チャン
ネル毎に時分割的に)、供給される。これらのパラメー
タにより、位相データP1〜P6の係数を制御したり、
エンベロープレベルデータELL〜EL8の発生態様(
つまりエンベロープ波形)を制御したり、FM演算の態
様を制御する0例えば。
Various parameter data or control data corresponding to the selected tone etc. are sent to the control register 22 via the bus 13.
(FIG. 3) from the control register 22 to the FMM
Each circuit in the source 18 (phase data generation circuit 28, envelope generation circuit 29° arithmetic unit oP, other circuits)
is supplied in a time-division manner (and in a time-division manner for each channel as necessary) corresponding to the time slots of each arithmetic unit OP1 to OP6. These parameters control the coefficients of phase data P1 to P6,
How the envelope level data ELL to EL8 are generated (
For example, 0 controls the envelope waveform) or controls the mode of FM calculation.

演算ユニットOPl〜OP6を複数系列に分けて並列的
に配列し、各系列の出力を加算するようにした接続態様
が選択可能であるとすると、その加算系列数に応じて音
量レベルを補正するためのレベル補正データLCがその
ようなFM演演算制御パラメータ1つに含まれる。また
、自己の演算ユニットの出力信号を変調波信号としてセ
ルフフィードバックする際のフィードバックレベルを設
定するフィードバックレベルデータFLI〜FL6もそ
のようなFMM算制御パラメータに含−まれる。
If it is possible to select a connection mode in which the arithmetic units OPl to OP6 are divided into multiple series and arranged in parallel, and the outputs of each series are added, then the volume level can be corrected according to the number of series to be added. level correction data LC is included in one such FM operation control parameter. Also included in such FMM calculation control parameters are feedback level data FLI to FL6 that set the feedback level when self-feeding back the output signal of the own arithmetic unit as a modulated wave signal.

また、各演算ユニットOP1〜OP6の接続態様を設定
する制御信号もそのようなFMM算制御パラメータに含
まれる。更に、PGM音源17の楽音信号を変調信号と
して各オペレータOPI〜OP6で使用する際にそのレ
ベルを制御する外部入力レベル制御データEXTL1〜
EXTL6もそのようなFMM算制御パラメータに含ま
れる。
Furthermore, control signals for setting the connection mode of each of the arithmetic units OP1 to OP6 are also included in such FMM calculation control parameters. Furthermore, external input level control data EXTL1~ which controls the level when the musical tone signal of the PGM sound source 17 is used as a modulation signal by each operator OPI~OP6.
EXTL6 is also included in such FMM calculation control parameters.

演算ユニットoPは、入力された位相データP1−P6
を変調するための加算器31と、正弦波のサンプル値を
対数表現データ形式で記憶した正弦波テーブル32と、
振幅レベル制御用の加算器33と、対数/リニア変換回
路34と、変調信号を加算するための加算器35を含ん
でいる。加算器31は、各演算ユニットOPi〜OP6
のタイムスロットに対応して時分割的に与えられる位相
データP1〜P6と加算器35から与えられる波形信号
(すなわち変調信号)とを加算し、位相変調を行うもの
である。加算器33は、加算器31の出力に応じて正弦
波テーブル32から読み出された対数表現の正弦波サン
プル値データにエンベロープレベルデータELL〜EL
6及びレベル補正データLCを加算するものである。デ
ータEL1〜EL6.LCも対数表現形式で与えるもの
とし、加算器β、3における対数同士の加算により実質
的に振幅係数の乗算を行う、対数/リニア変換回路34
は、対数表現の加算器33の出力をリニア表現のデータ
に変換する。
The arithmetic unit oP receives input phase data P1-P6.
an adder 31 for modulating the sine wave; a sine wave table 32 storing sample values of the sine wave in logarithmic representation data format;
It includes an adder 33 for amplitude level control, a logarithmic/linear conversion circuit 34, and an adder 35 for adding modulation signals. The adder 31 includes each operation unit OPi to OP6.
Phase data P1 to P6 given in a time-divisional manner corresponding to the time slots of 1 and 35 are added to a waveform signal (that is, a modulation signal) given from the adder 35 to perform phase modulation. The adder 33 adds envelope level data ELL to EL to the logarithmically expressed sine wave sample value data read from the sine wave table 32 in accordance with the output of the adder 31.
6 and level correction data LC are added. Data EL1 to EL6. LC is also given in a logarithmic representation format, and the logarithm/linear conversion circuit 34 substantially performs multiplication of amplitude coefficients by adding logarithms in adder β, 3.
converts the output of the adder 33 in logarithmic representation into data in linear representation.

演算ユニット接続態様設定回路36は、演算ユニットO
Pの出力を夫々入力したフィードバックレジスタFR,
lステージシフトレジスタSR。
The arithmetic unit connection mode setting circuit 36 connects the arithmetic unit O
Feedback registers FR each input the output of P,
l stage shift register SR.

メモリMl、M2.アキュムレータARと、レジスタS
R及びメモリMl、M2及びアキュムレータARの出力
を入力したセレクタ37と、フィードバックレジスタF
Rの出力にフィードバックレベルデータFL (FLI
〜FL6)を乗算するための乗算器あるいはシフト回路
38と、アキュムレータARの出力をラッチするレジス
タ39とを具えている。レジスタ39の出力がこのFM
M源18で合成された楽音信号として出力される。
Memories Ml, M2. Accumulator AR and register S
a selector 37 into which the outputs of R, memories Ml, M2 and accumulator AR are input, and a feedback register F.
Feedback level data FL (FLI
~FL6), and a register 39 that latches the output of the accumulator AR. The output of register 39 is this FM
The M source 18 outputs the synthesized musical tone signal.

各レジスタFR39,メモリMl、M2、アキュムレー
タARは16チヤンネル分の記憶容量を持ち、チャンネ
ルクロックパルスφchに従って16チヤンネル時分割
処理される。ただし、シフトレジスタSRはクロックパ
ルスφに従って各タイムスロット毎にシフト制御される
Each register FR39, memories M1, M2, and accumulator AR have a storage capacity for 16 channels, and time-division processing of the 16 channels is performed according to the channel clock pulse φch. However, the shift register SR is shifted and controlled for each time slot according to the clock pulse φ.

フィードバックレジスタFR、メモリMl、M2、レジ
スタ39には、ロード入力りとリセット入力Rが有り、
制御信号がこれらの入力り、Rに加わり、データのロー
ド及びリセットを制御する。
The feedback register FR, memories Ml, M2, and register 39 have a load input and a reset input R.
Control signals are applied to these inputs, R, to control data loading and resetting.

また、アキュムレータARにはキュムレ−トイネーブル
入力ACとリセット入力Rが有り、上記制御信号がこれ
らの入力AC,Hに加えられ、データのアキュムレート
及びリセットを制御する。上記制御信号はセレクタ37
の選択制御入力にも加えられ、との入力からのデータを
選択すべきかを制御する。セレクタ37及びシフト回路
38の出力が演算ユニットOPの変調信号入力用加算器
35に加わり、そこで加算される。
The accumulator AR also has an accumulation enable input AC and a reset input R, and the control signal is applied to these inputs AC and H to control data accumulation and reset. The above control signal is the selector 37
is also added to the selection control input of to control whether data from the input of is to be selected. The outputs of the selector 37 and shift circuit 38 are applied to the modulation signal input adder 35 of the arithmetic unit OP and are added there.

フィードバックレジスタFRは、自己の演算ユニット又
は前段の演算ユニットに帰還させるべき所定の演算ユニ
ットの演算結果たる波形信号データをストアするもので
ある。この所定の演算ユニットの演算結果が演算ユニッ
トOPから出力されるタイムスロットにおいてロード入
力りに信号“1”が与えられる。帰還路が形成されるべ
き演算ユニットのタイムスロットでフィードバックレベ
ルデータFLI〜FL6が適当な値を示し、レジスタP
Rの出力信号をその値に応じてシフトしたものを加算器
35に与える。帰還路が設けられない演算ユニットのタ
イムスロットではフィードバックレベルデータFLI〜
FI、6はレベルOに対応する内容となり、シフト回路
38を遮断し、その出力を0にする。
The feedback register FR stores waveform signal data that is the calculation result of a predetermined calculation unit that is to be fed back to its own calculation unit or to the preceding calculation unit. A signal "1" is applied to the load input in a time slot in which the calculation result of this predetermined calculation unit is output from the calculation unit OP. At the time slot of the arithmetic unit in which the feedback path is to be formed, the feedback level data FLI to FL6 indicate an appropriate value, and the register P
The output signal of R is shifted according to its value and is applied to the adder 35. In the time slot of the arithmetic unit where a feedback path is not provided, the feedback level data FLI~
FI, 6 has the content corresponding to level O, shuts off the shift circuit 38, and sets its output to 0.

シフトレジスタSRはクロックパルスφに従ってシフト
するもので、成るタイムスロットにおける演算結果を次
のタイムスロットにおいて出力する。メモリMl、M2
は、任意のタイムスロットにおける演算結果を保持する
ためのものである。
The shift register SR shifts according to the clock pulse φ, and outputs the operation result in one time slot in the next time slot. Memory Ml, M2
is used to hold the calculation result in an arbitrary time slot.

アキュムレータARは、各演算ユニットOPI〜OP6
のうち任意の1又は複数のユニットの出力信号を加算す
るものであり、加算すべきユニットに対応するタイムス
ロットでアキュムレートイネーブル入力ACに信号“1
″が与えられる。セレクタ37は、各演算ユニットOP
1〜OP6に対応する各タイムスロットにおいて演算ユ
ニットOPの入力W i n lに与えるべき波形信号
(変調信号)として、レジスタSR、メモリMl、M2
゜アキュムレータARのうち適宜の出力信号を選択する
ことにより、所定の接続態様に従う各演算ユニットOP
I〜OP6の相互接続を実現する。出力レジスタ39で
は、全演算ユニットOPI〜OP6のタイムスロットが
1巡するl演算サイクルの最後でロード入力りに信号5
′1”が与えられ、これに基づきアキュムレータARの
出力をラッチする。こうして、各演算ユニットOP1〜
OP6を所定の接続態様で接続して演算を行った結果得
られた楽音信号の1サンプル値データがレジスタ39に
ラッチされる。
The accumulator AR is connected to each arithmetic unit OPI to OP6.
The output signals of any one or more of the units are added, and the signal “1” is input to the accumulation enable input AC in the time slot corresponding to the unit to be added.
” is given.The selector 37 selects each arithmetic unit OP
As a waveform signal (modulation signal) to be applied to the input W in l of the arithmetic unit OP in each time slot corresponding to 1 to OP6, the register SR, memories Ml, M2
゜By selecting an appropriate output signal from the accumulator AR, each arithmetic unit OP according to a predetermined connection mode
Realizes interconnection of I to OP6. The output register 39 outputs a signal 5 to the load input at the end of an operation cycle in which the time slots of all operation units OPI to OP6 go around once.
'1' is given, and the output of the accumulator AR is latched based on this.In this way, each arithmetic unit OP1~
One sample value data of the musical tone signal obtained as a result of the calculation performed by connecting the OP6 in a predetermined connection manner is latched in the register 39.

モジュレータ入力端子MDTを介して各チャンネルごと
に時分割で入力されるPCM音源17の出力信号は、外
部データ入力インタフェイス4゜に取り込まれ、各チャ
ンネルごとの時分割タイミングで出力され、シフト回路
41に入力される。
The output signal of the PCM sound source 17, which is inputted in a time-division manner for each channel via the modulator input terminal MDT, is taken into the external data input interface 4°, outputted at the time-division timing for each channel, and is sent to the shift circuit 41. is input.

シフト回路41に与えられる外部入力レベル制御データ
EXTL1〜EXTL6は、各演算オペレータOPI〜
OP6のタイムスロットでそれぞれ適当な値を示し、変
調波信号として使用するPCM音源出力信号のレベルを
それぞれ制御する。PCM音源出力信号を変調波信号と
して使用しない演算ユニットのタイムスロットでは外部
入力レベル制御データEXTLI 〜EXTL6はレベ
)LIOに対応する内容となり、シフト回路41を遮断
し、その出力を0にする。シフト回路41の出力は加算
器35に加わり、該加算器35から加算器31に変調波
信号として与えられる。
External input level control data EXTL1 to EXTL6 given to the shift circuit 41 are input to each operation operator OPI to
Appropriate values are respectively indicated in the time slot OP6, and the levels of the PCM sound source output signals used as modulated wave signals are respectively controlled. In a time slot of an arithmetic unit that does not use a PCM sound source output signal as a modulated wave signal, the external input level control data EXTLI-EXTL6 have contents corresponding to the level LIO, and the shift circuit 41 is shut off and its output is set to 0. The output of the shift circuit 41 is applied to an adder 35, and is provided from the adder 35 to the adder 31 as a modulated wave signal.

一例として、6つの演算ユニットOPI〜oP6を第5
図のように接続する場合につき説明する。
As an example, six arithmetic units OPI to oP6 are connected to the fifth
The case of connecting as shown in the figure will be explained.

この接続態様では、自己又は他の演算ユニットに出力信
号を帰還させるべき所定の演算ユニットとしてOF2が
選ばれており、この演算ユニットOP4の出力信号をフ
ィードバックレジスタFRにストアし、このレジスタF
Rの出力信号を自己のユニットOP4及び前段のユニッ
トOP5.OP6の入力側に帰還させることは勿論のこ
と、自己のユニットOP4に並列に設けられた別系列の
ユニットOPI、OP2にも入力し、更には自己の後段
のユニットOP3にも入力するようにしている。レジス
タFRの出力を各ユニットOPI〜OP6の変調信号入
力に導く経路に設けられた乗算器(シフト回路38に対
応)に乗数として入力されるデータFLI〜FL6は各
演算ユニットOP1〜OP6に対応するフィードバック
レベルデータである。なお、演算ユニットOPI〜o 
p a ニ加えられるレジスタFRの出力信号はこれら
のユニットOPI〜OP3にとってはフィードバック信
号ではないが、このように自己又は前段の演算ユニット
にフィードバックする信号を別系列あるいは後段の演算
ユニットにも加えるようにする接続態様も実施可能であ
る。
In this connection mode, OF2 is selected as the predetermined arithmetic unit whose output signal should be fed back to itself or another arithmetic unit, and the output signal of this arithmetic unit OP4 is stored in the feedback register FR, and this register F
R's output signal to its own unit OP4 and the preceding unit OP5. It goes without saying that it is fed back to the input side of OP6, but also inputted to units OPI and OP2 of other series installed in parallel with own unit OP4, and furthermore inputted to unit OP3 of its own subsequent stage. There is. Data FLI to FL6, which are input as multipliers to multipliers (corresponding to the shift circuit 38) provided in the path leading the output of the register FR to the modulation signal input of each unit OPI to OP6, correspond to each arithmetic unit OP1 to OP6. This is feedback level data. In addition, the calculation unit OPI~o
The output signal of the register FR that is added to p a is not a feedback signal for these units OPI to OP3, but in this way, it is possible to apply a signal that is fed back to the self or previous stage arithmetic unit to another series or a subsequent stage arithmetic unit. It is also possible to implement the following connection mode.

また、外部データ入力インタフェイス40の出力を各ユ
ニットOPI〜OP6の変調信号入力に導く経路に設け
られた乗算!(シフト回路41に対応)に乗数として入
力されるデータEXTL1〜EXTL6は各演算ユニッ
トOPI〜OP6に対応する外部入力レベル制御データ
である。
Also, multiplication! Data EXTL1-EXTL6 inputted as multipliers (corresponding to shift circuit 41) are external input level control data corresponding to each arithmetic unit OPI-OP6.

各演算ユニットOPI〜OP6に対応する時分割タイム
スロットを示すと第6図(a)のようであり、1チャン
ネル分の1サンプリング時間に対応するl演算サイクル
における6つのタイムスロット1〜6は時間の早い順に
演算ユニットOP6〜OPIに対応している。従って、
各タイムスロット1〜6において、各演算ユニットOP
q〜OP1に対応する位相データP6〜P1、エンベロ
ープレベルデータEL8〜ELL、フィードバックレベ
ルデータFL6〜FLIが第6図(a)に示すように供
給される。
The time division time slots corresponding to each operation unit OPI to OP6 are shown in FIG. 6(a), and the six time slots 1 to 6 in the l operation cycle corresponding to one sampling time for one channel are They correspond to the arithmetic units OP6 to OPI in ascending order. Therefore,
In each time slot 1 to 6, each arithmetic unit OP
Phase data P6-P1, envelope level data EL8-ELL, and feedback level data FL6-FLI corresponding to q-OP1 are supplied as shown in FIG. 6(a).

第5図の接続を実現する場合、各タイムスロット1〜6
における演算ユニットOPの出力信号の取込み先は第6
図(b)のようにし、セレクタ37での選択は第6図(
a)のようにする。
When realizing the connection shown in Figure 5, each time slot 1 to 6
The destination of the output signal of the arithmetic unit OP is the sixth
The selection with the selector 37 is as shown in FIG. 6 (b).
Do as in a).

また、各演算ユニットOPl〜OP6に対応する外部入
力レベル制御データEXTLI〜EXTL6の供給タイ
ミング及び外部データ入力インタフェイス40から出力
される1チャンネル分の楽音信号の1サンプルデータW
D (t)のタイミングは第6図(d)のようである。
Furthermore, the supply timing of external input level control data EXTLI to EXTL6 corresponding to each arithmetic unit OPl to OP6 and one sample data W of one channel of musical tone signal output from the external data input interface 40 are also provided.
The timing of D (t) is as shown in FIG. 6(d).

なお、前述のように、PCM音源17とFM音源18に
おける16チヤンネルの時分割タイミングは同期してお
り、同じ押圧鍵に対応する楽音信号をPCM音源17と
FM音源18において同時に発生する場合は、PCM音
源17とFMf源18において同じタイミングのチャン
ネルに該押圧鍵に対応する楽音信号を割り当てるように
しているので、同じ押圧鍵に対応するPCM音源17の
出力楽音信号をFM音源18における変調波信号として
利用することが容易に行なえる。
As mentioned above, the time division timings of the 16 channels in the PCM sound source 17 and the FM sound source 18 are synchronized, and when musical tone signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and the FM sound source 18, Since the musical tone signal corresponding to the pressed key is assigned to the channel at the same timing in the PCM sound source 17 and the FM f source 18, the output musical tone signal of the PCM sound source 17 corresponding to the same pressed key is used as the modulated wave signal in the FM sound source 18. It can be easily used as

議」郵E佼二ju1井 次に、操作パネル15における操作子や表示部の一例に
つき第7図により説明する1表示部DPYは1例えば液
晶デイスプレィからなり、音色、音量、音高、効果等を
選択・設定・変更するための複数の画面のうちいずれか
を選択的に表示することができる。以下では、1つの画
面をページという、ファンクシ1ンスイッチ部FSWは
、表示部DPYの下側に配列された複数のファンクショ
ンスイッチF1〜F8を具備している。各ファンクショ
ンスイッチF1〜F8の機能は表示部DPYの画面状態
つまりページ内容によって切り替わる0表示部DPYの
画面では、各ファンクションスイッチFl−F8に対応
する位置に、該各ファンクションスイッチF1〜F8に
現在割当てられている機能を示す表示がなされる。ファ
ンクションスイッチF1〜F8の隣のシフトキー5HI
FTは1表示部DPYの画面における各ファンクション
スイッチF1〜F8の機能表示をシフトするものである
。このシフトキー5HIFTは、1画面(1ページ)に
おいて各ファンクションスイッチF1〜F8に2重の機
能が割当てられているとき使用する。
Next, an example of the controls and display section of the operation panel 15 will be explained with reference to FIG. It is possible to selectively display one of multiple screens for selecting, setting, and changing. Hereinafter, one screen will be referred to as a page, and the function switch unit FSW includes a plurality of function switches F1 to F8 arranged below the display unit DPY. The functions of each function switch F1 to F8 are switched depending on the screen state of display unit DPY, that is, the page content.0 On the screen of display unit DPY, the positions corresponding to each function switch Fl-F8 are currently assigned to each function switch F1 to F8. A display will be displayed indicating the functions being used. Shift key 5HI next to function switches F1 to F8
FT is for shifting the function display of each function switch F1 to F8 on the screen of one display unit DPY. This shift key 5HIFT is used when dual functions are assigned to each of the function switches F1 to F8 on one screen (one page).

ζ− 1−タ入力部42は、数値データを入力するためのスラ
イド式操作子である。
The ζ-1 data input section 42 is a sliding type operator for inputting numerical data.

ボイスキーVOICEは、表示部DPYにおいてボイス
選択ページを呼び出すために操作するキースイッチであ
る。ボイス選択ページとは、所望のボイスつまり音色(
詳しくは複合音色)を選択するときの表示画面である。
The voice key VOICE is a key switch operated to call up a voice selection page on the display unit DPY. The voice selection page is where you can select the desired voice or tone (
This is the display screen when selecting a composite tone.

エディツトキーEDITは、所望のボイスの内容を変更
・修正する編集作業を開始するときに操作するキースイ
ッチである。
The edit key EDIT is a key switch that is operated when starting editing work to change or modify the contents of a desired voice.

ストアキー5TOREは1編集作業が終了したときに1
編集済みのボイスデータを保存するために操作するキー
スイッチである。
Store key 5TORE is 1 when 1 editing work is completed.
This is a key switch operated to save edited voice data.

エンターキーENTERは、データ等の入力を確定する
ために操作するキースイッチである。
The enter key ENTER is a key switch operated to confirm input of data or the like.

カーソルキーC5Rは、表示部DPYにおけるカーソル
表示を左右または上下に動かしたり、数値データの増減
を指示する際に操作するキースイッチである。
The cursor key C5R is a key switch operated to move the cursor displayed on the display unit DPY left and right or up and down, or to instruct numerical data to increase or decrease.

操作パネル15においてはその他のスイッチや操作子等
があるが、それらについては説明を省略する。
Although there are other switches and operators on the operation panel 15, explanations of these will be omitted.

ボイノ1JU1L4鋭3− 電子楽器において利用可能な音色には、ピアノやバイオ
リン等の既存楽器の音色を模倣するいわば楽器音色と、
演奏者によって任意に設定したり変更することの可能な
音色など、種々の音色がある。この実施例では、後者の
ような音色をボイスということにする。ただし、ボイス
において前者のような楽器音色のような音色を排除する
意味合いは全くない、すなわち、成るボイスはピアノな
らピアノのような楽器音色を模倣するものであってもよ
い、また、この実施例において、音色とはボイスのこと
を指すものとして以下説明を行なうが、電子楽器全体と
しては、そのようなボイスのほかに楽器音色や何らかの
プリセット音色などが更に選択可能な仕様であっても一
向に差し支えない、なお、この実施例では、複数の系列
で発生した楽音信号を合成して1つのボイスに対応する
楽音信号を発生するようになっており、その場合、1つ
のボイスの構成要素である各々の系列の楽音信号または
その音色をエレメントまたはエレメント音色ということ
にする。その意味で、この実施例におけるボイスとは、
複数のエレメント音色を複合した「複合音色」であると
いってもよい。
Boino 1 JU 1 L 4 Kei 3 - The tones that can be used with electronic musical instruments include musical instrument tones that imitate the tones of existing instruments such as pianos and violins.
There are various tones, including tones that can be arbitrarily set or changed by the performer. In this embodiment, the latter type of tone is called a voice. However, there is no meaning in excluding the former type of instrumental timbre in the voice; in other words, the voice may imitate the timbre of an instrument such as a piano if it is a piano. In the following explanation, timbre refers to voice, but for the electronic musical instrument as a whole, there is no problem even if the specification allows selection of instrument tones or some preset tones in addition to such voices. In this embodiment, musical tone signals generated in a plurality of sequences are synthesized to generate a musical tone signal corresponding to one voice. The series of musical tone signals or their timbres will be referred to as elements or element timbres. In that sense, the voice in this example is
It can be said that it is a "composite tone" that is a combination of multiple element tones.

次に、ボイスデータメモリVDMとボイスエディットバ
ッ7アメモリVEBのメモリフォーマットの一例につき
第8図を参照して説明する。
Next, an example of the memory format of the voice data memory VDM and the voice edit buffer memory VEB will be explained with reference to FIG.

ボイスデータメモリVDMは、各ボイス毎に。Voice data memory VDM is for each voice.

当該ボイスを実現するボイスデータをそれぞれ記憶する
ものである。ボイスエディツトバッファメモリVEBは
、編集作業中のボイスのボイスデータを記憶するバッフ
ァである。これらのボイスデータメモリVDMとボイス
エディツトバッファメモリVEBは、読み書き可能なメ
モリからなり。
Each voice data that realizes the voice is stored. The voice edit buffer memory VEB is a buffer that stores voice data of the voice being edited. These voice data memory VDM and voice edit buffer memory VEB consist of readable and writable memories.

例えばデータ及びワーキングRAM12(第2図)の一
部が利用される。
For example, a portion of the data and working RAM 12 (FIG. 2) is utilized.

ボイスデータメモリVDMは、ボイスナンバO乃至nで
区別される各ボイス毎にそのボイスデータを記憶するボ
イスデータエリアを有する。各ボイスデータエリアの先
頭アドレスはボイスポインタVOICEPによって指示
される。
The voice data memory VDM has a voice data area that stores voice data for each voice distinguished by voice numbers O to n. The starting address of each voice data area is indicated by the voice pointer VOICEP.

1つのボイスデータエリアは、「ボイス名」を記憶する
エリアと、「ボイスモード」を記憶するエリアと、「コ
モンデータ」を記憶する。エリアと、4つの個別のエレ
メントに対応するパラメータデータをそれぞれ記憶する
4つの「エレメントパラメータデータ」エリアとからな
る。
One voice data area stores an area for storing "voice name", an area for storing "voice mode", and "common data". area, and four "element parameter data" areas each storing parameter data corresponding to four individual elements.

この実施例では、1つのボイスは最大で4つのエレメン
トを使用して合成することができる。1つのエレメント
は、PCM音源17またはFM音源18で1つのチャン
ネルを使用して発生される1つの系列の楽音信号に対応
している。所望の音色(エレメント音色)、を実現する
ためのパラメータデータの種類は、PCM音源17とF
M音源18とでは異なっており、また、そのデータ内容
も各エレメント音色毎に異なる。その一方で、どのエレ
メント音色にも共通するパラメータデータもある。この
ように、当該ボイスにおいてどのエレメントにも共通す
るパラメータデータを「コモンデータ」ということにし
、これを「コモンデータ」エリアに記憶する。一方、各
エレメント毎に異なるパラメータデータを「エレメント
パラメータデータ」ということにし、これをそれぞれの
エレメントに対応する「エレメントパラメータデータ」
エリアに記憶する。各「エレメントパラメータデータ」
エリアの先頭アドレスはエレメントスタートポインタE
 S P (1)〜E S P (4)によって指示さ
れる。各エレメントスタートポインタE S P (1
)〜E S P (4)によってそれぞれ指示されるエ
レメントを、エレメント1乃至4として区別する。
In this embodiment, one voice can be synthesized using up to four elements. One element corresponds to one series of musical tone signals generated by the PCM sound source 17 or FM sound source 18 using one channel. The type of parameter data to achieve the desired tone (element tone) is the PCM sound source 17 and F.
It is different from the M tone source 18, and the data content is also different for each element tone. On the other hand, there is also parameter data that is common to all element tones. In this way, parameter data that is common to all elements in the voice is called "common data" and is stored in the "common data" area. On the other hand, the parameter data that differs for each element is called "element parameter data", and this is the "element parameter data" corresponding to each element.
Store in area. Each “element parameter data”
The start address of the area is element start pointer E.
It is indicated by S P (1) to E S P (4). Each element start pointer E S P (1
) to E S P (4) are distinguished as elements 1 to 4.

「ボイスモード」とは、そのボイスを実現するために使
用する音源の種類と系列数の組合せを主に指示するもの
である。予め定められた複数のボイスモードのうちどの
モードであるかを指示する「ボイスモードデータ」をこ
の「ボイスモード」エリアに記憶する。後述するように
、「ボイスモ−ド」が何であるかによって、4つのエレ
メントの各々が、PCM音源とFM音源のどちらを使用
するか、あるいはどちらも使用しないか、が判明する。
The "voice mode" mainly indicates the combination of the type of sound source and the number of sequences used to realize the voice. "Voice mode data" indicating which mode is selected among a plurality of predetermined voice modes is stored in this "voice mode" area. As will be described later, depending on the "voice mode", it is determined whether each of the four elements uses a PCM sound source, an FM sound source, or neither.

ボイスエディツトバッファメモリVERは、1つのボイ
スのボイスデータ1式を記憶できる容量を持ち、詳しく
は、コモンデータバッファCDBと、FMエディツトバ
ッファFMEBと、PCMエディツトバッファPCME
Bとを有する。コモンデータバッファCDBにおいては
、「ボイス名」を記憶するエリアと、「ボイスモード」
を記憶するエリアと、「コモンデータ」を記憶するエリ
アとを有する。FMエディツトバッファFMEBは、4
つのエレメントのパラメータデータをそれぞれ記憶でき
るFMエレメントエディツトバッファ1乃至4を有する
。PCMエディツトバッファPCMEBも、4つのエレ
メントのパラメータデータをそれぞれ記憶できるPCM
エレメントエディツトバッファ1乃至4を有する。
The voice edit buffer memory VER has a capacity that can store one set of voice data for one voice.
It has B. Common data buffer CDB has an area for storing "voice name" and "voice mode".
It has an area for storing "common data" and an area for storing "common data". FM edit buffer FMEB is 4
It has FM element edit buffers 1 to 4 which can each store parameter data of two elements. The PCM edit buffer PCMEB is also a PCM that can store parameter data for each of the four elements.
It has element edit buffers 1 to 4.

このように、異なる音源に対応するエディツトバッファ
FMEB、PCMEBをそれぞれエレメントの最大数分
だけ設けた理由は1編集中にボイスモードを変更した場
合でも即座に対応できるようにするためである0例えば
、2つのエレメントでFM音源を使用し、別の2つのエ
レメントでPCM音源を使用するボイスモードのボイス
の編集作業する場合、まず、そのボイスのボイスデータ
がボイスデータメモリVDMからボイスエディツトバッ
ファメモリVERにコピーされる。その場合のコピーの
仕方は、「ボイス名」、「ボイスモード」及び「コモン
データ」はコモンデータバッファCDBにコピーし、F
M音源に対応する2つのエレメントのパラメータデータ
はFMエディツトバッファFMEBにおける2つのFM
エレメントエディツトバッファ1及び2にコピーし、P
CM音源に対応する2つのエレメントのパラメータデー
タはPCMエディツトバッファPCMEBにおける2つ
のPCMエレメントエディツトバッファ1及び2にコピ
ーする。そして、コピーされなかった残りの2つのFM
エレメントエディツトバッファ3及び4には、FM音源
用の「エレメントパラメータデータ」の所定の初期値(
若しくは基準値)をそれぞれ記憶しておく、コピーされ
なかった残りの2つのPCMエレメントエディツトバッ
ファ3及び4にも同様に、PCM音源用の「エレメント
パラメータデータ」の所定の初期値(若しくは基準値)
をそれぞれ記憶しておく、このようにしておけば、編集
作業中にコモンデータバッファCDBに記憶したボイス
モードデータを変更することにより、例えば、4つのエ
レメントすべてをFM音源(またはPCM音源)とする
ボイスモードに変わった場合、4つのFMエレメントエ
ディツトバッファ1乃至4(またはPCMエレメントエ
ディツトバッファ1乃至4)の内容を即座に有効に使用
することができる。つまり、エレメントエディツトバッ
ファの総数をエレメントの最大数4のみにすると、上記
のような例の場合、エレメントエディツトバッファのデ
ータ内容をPCM用からFM用に(またはその逆に)変
更しなければならず1面倒である。ところが、この実施
例のようにすれば、そのような面倒はない。
In this way, the reason why edit buffers FMEB and PCMEB corresponding to different sound sources are provided for the maximum number of elements is to be able to respond immediately even if the voice mode is changed during one edit. When editing a voice in a voice mode where two elements use an FM sound source and two other elements use a PCM sound source, the voice data for that voice is first transferred from the voice data memory VDM to the voice edit buffer memory. Copied to VER. In that case, copy the "Voice name", "Voice mode" and "Common data" to the common data buffer CDB, and
The parameter data of the two elements corresponding to the M sound source are stored in the two FMs in the FM edit buffer FMEB.
Copy to element edit buffers 1 and 2 and press P
Parameter data of two elements corresponding to the CM sound source are copied to two PCM element edit buffers 1 and 2 in the PCM edit buffer PCMEB. And the remaining two FMs that were not copied
Element edit buffers 3 and 4 contain predetermined initial values (
Similarly, the remaining two PCM element edit buffers 3 and 4 that were not copied store predetermined initial values (or reference values) of "element parameter data" for the PCM sound source. )
If you do this, by changing the voice mode data stored in the common data buffer CDB during editing, you can, for example, set all four elements to FM sound sources (or PCM sound sources). When changing to voice mode, the contents of the four FM element edit buffers 1 to 4 (or PCM element edit buffers 1 to 4) can be used immediately and effectively. In other words, if the total number of element edit buffers is set to the maximum number of elements, 4, then in the example above, the data content of the element edit buffer must be changed from PCM to FM (or vice versa). However, it is a hassle. However, if this embodiment is used, such trouble is not required.

なお1合計8個のエレメントエディツトバッファのうち
使用中の最大4個のエレメントエディツトバッファのそ
れぞれの先頭アドレスはエディツトスタートポインタE
 o S (1)〜E D S (4)によって指示さ
れる。
Note that the start address of each of the maximum 4 element edit buffers in use out of a total of 8 element edit buffers is the edit start pointer E.
It is indicated by o S (1) to E D S (4).

メ〕−べj−ドの一腹明一 次に「ボイスモード」について説明すると、この実施例
において、ボイスモードは10有る。ボイスモードは、
使用する音源の種類と系列数の組合せを主に定義し、更
に単音/複音の区別及び複音の場合は同時発音数を定義
する。使用する音源の種類と系列数の組合せは、4つの
エレメント1〜4で使用する音源がPCMまたはFMの
どちらであるか、あるいはこのエレメントを使用しない
か、を明かにすることにより定義することができる。こ
れは「エレメントタイプ」と称するデータによって定義
される。「エレメントタイプ」には、0、l、2の3タ
イプがあり、それぞれの内容は次の通りである。
To explain the ``voice modes'' first, there are 10 voice modes in this embodiment. The voice mode is
The combination of the type of sound source to be used and the number of sequences is mainly defined, and furthermore, the distinction between single notes and multiple notes and the number of simultaneous pronunciations in the case of multiple notes are defined. The combination of the type of sound source to be used and the number of sequences can be defined by clarifying whether the sound source used in four elements 1 to 4 is PCM or FM, or whether this element is not used. can. This is defined by data called "element type". There are three types of "element types": 0, 1, and 2, and the contents of each are as follows.

エレメントタイプ0・・・不使用 エレメントタイブト・・FM音源を使用するエレメント
タイプ2・・・PCM音源を使用する各ボイスモードに
おける4つの各エレメント1〜4のエレメントタイプは
、第9図に示すような内容のエレメントタイプテーブル
ETTに予め記憶されている。このエレメントタイプテ
ーブルETTには、実質的な同時可能発音数を示すデー
タも記憶されている。実質的な同時可能発音数とは。
Element type 0: Element type not used Element type 2: Using FM sound source Element type 2: Using PCM sound source The element types of each of the four elements 1 to 4 in each voice mode are shown in Figure 9. The contents are stored in advance in the element type table ETT. This element type table ETT also stores data indicating the actual number of simultaneous pronunciations. What is the actual number of simultaneous polyphony?

別の言い方をすれば、異なる押圧鍵の楽音信号を同時に
発音できる最大値である。
In other words, it is the maximum value at which musical tone signals of different pressed keys can be generated simultaneously.

ボイスモード1〜3は、単音発音モードのボイスであり
、同時可能発音数は1である。
Voice modes 1 to 3 are voices in single note production mode, and the number of simultaneous pronunciations is one.

ボイスモード1では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプ0つまり不使用である。従って、FM音源
のエレメント音色からなる単音1系列のボイスである。
In voice mode 1, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are element type 0, that is, not used. Therefore, it is a single series of voices consisting of element tones of an FM sound source.

ボイスモード2では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0つまり不使用である。従って、FM
音源のエレメント音色からなる単音2系列(2系列とは
同じ押圧鍵に係る楽音が2チヤンネルで発生されること
)のボイスである。
In voice mode 2, elements 1 and 2 are element type 1, that is, FM sound source, and the other elements 3 and 4 are element type 0, that is, not used. Therefore, F.M.
The voice consists of two single-note series (two series means that musical tones related to the same pressed key are generated in two channels) consisting of element tones of the sound source.

ボイスモード3では、全エレメント1〜4がエレメント
タイプ1つまりFM音源である。従って。
In voice mode 3, all elements 1 to 4 are element type 1, that is, FM sound sources. Therefore.

FM音源のエレメント音色からなる単音4系列(4系列
とは同じ押圧鍵に係る楽音が4チヤンネルで発生される
こと)のボイスである。
The voices are four series of single notes (four series means that musical tones related to the same pressed key are generated in four channels) consisting of element tones of an FM sound source.

ボイスモード4〜10は、複音発音モードのボイスであ
り、同時発音可能数はそれぞれテーブルに記された通り
である。
Voice modes 4 to 10 are voices in multitone mode, and the number of voices that can be produced simultaneously is as shown in the table.

ボイスモード4では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプOつまり不使用である。従って、FM音源
のエレメント音色からなる複音1系列のボイスであり、
同時発音可能数は16音である。
In voice mode 4, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are element type O, that is, not used. Therefore, it is a series of multiple-tone voices consisting of element tones of an FM sound source,
The number of sounds that can be produced simultaneously is 16.

ボイスモード5では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0っまり不使用である。従って、FM
音源のエレメント音色からなる複音2系列のボイスであ
り、同時発音可能数は8音である。
In voice mode 5, elements 1 and 2 are of element type 1, that is, FM sound source, and the other elements 3 and 4 are of element type 0 and are not used. Therefore, F.M.
It is a two-series voice consisting of the element tones of the sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード6では、エレメント1がエレメントタイプ
2つまりPCM音源であり、他のエレメント2〜4はエ
レメントタイプ0つまり不使用である。従って、PCM
音源のエレメント音色からなる複音1系列のボイスであ
り、同時発音可能数は16音である。
In voice mode 6, element 1 is element type 2, that is, a PCM sound source, and the other elements 2 to 4 are element types 0, that is, unused. Therefore, PCM
This is a single series of multiple-tone voices made up of the element tones of the sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモード7では、エレメント1と2がエレメントタ
イプ2つまりPCM音源であり、他のエレメント3,4
はエレメントタイプ0つまり不使用である。従って、P
CM音源のエレメント音色からなる複音2系列のボイス
であり、同時発音可能数は8音である。
In voice mode 7, elements 1 and 2 are element type 2, that is, PCM sound sources, and other elements 3 and 4
is element type 0, that is, it is not used. Therefore, P
This is a two-series voice consisting of the element tones of a commercial sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード8では、全エレメント1〜4がエレメント
タイプ2つまりPCM音源である。従って、PCM音源
のエレメント音色からなる複音4系列のボイスであり、
同時発音可能数は4音である。
In voice mode 8, all elements 1 to 4 are element type 2, that is, PCM sound sources. Therefore, it is a four-series voice consisting of element tones of a PCM sound source,
The number of notes that can be produced simultaneously is four.

ボイスモード9では、エレメント1がエレメントタイプ
1つまりFM音源、エレメント2がエレメントタイプ2
つまりPCM音源であり、他のエレメント3,4はエレ
メントタイプ0つまり不使用である。従って、PCM音
源のエレメント音色とFM音源のエレメント音色の組合
せからなる複音2系列のボイスであり、同時発音可能数
は16音である。
In voice mode 9, element 1 is element type 1, or FM sound source, and element 2 is element type 2.
That is, it is a PCM sound source, and the other elements 3 and 4 are element type 0, that is, they are not used. Therefore, it is a two-series voice consisting of a combination of element tones of the PCM sound source and element tones of the FM sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモードlOでは、エレメント1と2がエレメント
タイプ1つまりFM音源、エレメント3と4がエレメン
トタイプ2つまりPCM音源である。従って、PCM音
源2系列とFM音源2系列の組合せからなる複音4系列
のボイスであり、同時発音可能数は8音である。
In voice mode IO, elements 1 and 2 are element type 1, that is, FM sound source, and elements 3 and 4 are element type 2, that is, PCM sound source. Therefore, there are four series of multiple-tone voices consisting of a combination of two series of PCM sound sources and two series of FM sound sources, and the number of simultaneous sounds that can be produced is eight.

マイクロコンピュータによる 理に関゛する説第10図
はデータ及びワーキングRAM12内のレジスタにおい
てストアされる主要なデータを例示したものであり、そ
れぞれの役割はフローチヤードの説明に従い、追って明
かにされる。
10 shows an example of the main data stored in the data and registers in the working RAM 12, and the role of each will be clarified later in accordance with the explanation of the flowchart.

第11図はエントリポイントテーブルEPTの内容の一
例を示す、エントリポイントテーブルEPTは、表示部
DPYにおける表示画面(ページ)と操作パネル15に
おけるオンスイッチとの対応に応じて、該スイッチのオ
ンイベントに応じて次に実行すべきルーチンを指示する
テーブルである。
FIG. 11 shows an example of the contents of the entry point table EPT. The entry point table EPT responds to the on event of the switch according to the correspondence between the display screen (page) on the display unit DPY and the on switch on the operation panel 15. This is a table that indicates the next routine to be executed according to the selected routine.

次に、マイクロコンピュータによって実行される処理の
一例につき第12図以降のフローチャートを参照して説
明する。
Next, an example of the process executed by the microcomputer will be described with reference to the flowcharts from FIG. 12 onwards.

第12図はメインルーチンの一例を示しており、まず、
電源投入時に所定の初期化処理を行ない。
Figure 12 shows an example of the main routine.
Performs predetermined initialization processing when the power is turned on.

各レジスタやメモリの内容を初期設定する1次に。Primary level that initializes the contents of each register and memory.

「キースキャン及び割当処理」では、鍵盤回路14にお
ける各キースイッチをスキャンしてそのオン・オフを検
出し、押圧鍵を複数の発音チャンネルのうち何れかに割
当てる処理を行う、この「キースキャン及び割当処理」
において実行される処理の一つに「キーオンイベント処
理」があり、その−例は第25図及び第26図に示され
ており。
The "key scan and assignment process" scans each key switch in the keyboard circuit 14 to detect whether it is on or off, and then assigns the pressed key to one of a plurality of sound generation channels. "Assignment processing"
One of the processes executed in this process is "key-on event processing", an example of which is shown in FIGS. 25 and 26.

詳細は追って説明する。この「キーオンイベント処理」
では、鍵が新たに押圧されたとき、その鍵に対応する楽
音信号の発生をPCM音源17及び/またはFM音源1
8のチャンネルに割当てる処理を行なう。
Details will be explained later. This "key-on event processing"
Now, when a key is newly pressed, the PCM sound source 17 and/or the FM sound source 1 generates a musical tone signal corresponding to that key.
Processing for assigning to 8 channels is performed.

「演奏コントローラ処理」では、演奏コントローラ16
の操作を検出し、操作状態が変化したとき所定の処理を
行なう。
In "performance controller processing", the performance controller 16
detects the operation, and performs predetermined processing when the operation state changes.

「ファンクションスイッチ処理」では、ファンクション
スイッチ部FSWのオンイベント(オフからオンに変化
したこと)を検出し、オンイベントが検出されたなら、
第13図に示すようなファンクションスイッチオンイベ
ントルーチンを行なう。
In "function switch processing", an on event (change from off to on) of the function switch unit FSW is detected, and if the on event is detected,
A function switch-on event routine as shown in FIG. 13 is performed.

「その他パネルスキャン処理」では、操作パネル15に
おけるその他の操作子やキースイッチをスキャンしてそ
のオン・オフを検出し、その検出に基づき各種処理を行
う、その−例としては、オンされたキースイッチと表示
部DPYの現在のページに応じて第11図のエントリポ
イントテーブルEPTを参照し、第14図乃至第24図
に示すようなスイッチオンイベントサブルーチンを呼び
出す。
"Other panel scan processing" scans other controls and key switches on the operation panel 15 to detect whether they are on or off, and performs various processes based on the detection. The entry point table EPT shown in FIG. 11 is referred to in accordance with the switch and the current page of the display unit DPY, and the switch-on event subroutines shown in FIGS. 14 to 24 are called.

エントリポイントテーブルEPTの 第11図のエントリポイントテーブルEPTは。Entry point table EPT The entry point table EPT in FIG.

たて欄が各キー若□しくはスイッチのオンイベントを示
し、機種がそのスイッチオンイベント時点での表示部D
I’Yのページを示す、たて欄と横欄の交点に記された
記号が、呼び出されるべきサブルーチン(つまり該サブ
ルーチンのエントリポイント)を示す、各サブルーチン
の説明は追って行なう、なお、ここで、記号rNoEP
Jは「ノー・エントリポイント」を意味し、呼び出され
るべきサブルーチン(つまりエントリポイント)がない
ことを示す。
The vertical column indicates the on event of each key or switch, and the model shows the display area D at the time of the switch on event.
The symbol written at the intersection of the vertical column and the horizontal column indicating the I'Y page indicates the subroutine to be called (that is, the entry point of the subroutine).Each subroutine will be explained later. , symbol rNoEP
J means "no entry point" and indicates that there is no subroutine (ie, entry point) to be called.

ファンクションスイッチ  時の 理 何らかのファンクションスイッチF1〜F8がオンされ
たとき第13図のファンクションスイッチオンイベント
ルーチンが行なわれる。ここでは。
When any of the function switches F1 to F8 is turned on, the function switch on event routine shown in FIG. 13 is executed. here.

まず、オンされたファンクションスイッチの番号をファ
ンクションスイッチバッファFSWBUFに記憶し、次
に、このファンクションスイッチバッファF SWB 
U Fと現在ページPAGEとにより第11図のエント
リポイントテーブルEPTを参照し、該ページにおいて
該ファンクションスイッチに割当てられている所定のイ
ベント処理サブルーチンのエントリポイントデータを得
て、これをエントリポイントバッフ7EPBUFに記憶
する。そして、このエントリポイントバッファEPBU
Fの内容がノー・エントリポイントNoEPではないこ
とを確認した後、このエントリポイントバッフ7EPB
UFの内容に対応するイベント処理サブルーチンをコー
ルする。なお、現在ページPAGEとは、表示部DPY
の現在の表示ページを示すものである。
First, the number of the turned-on function switch is stored in the function switch buffer FSWBUF, and then the number of the function switch turned on is stored in the function switch buffer FSWBUF.
The entry point table EPT in FIG. 11 is referred to using UF and the current page PAGE, and the entry point data of the predetermined event processing subroutine assigned to the function switch in the page is obtained, and this data is stored in the entry point buffer 7EPBUF. to be memorized. And this entry point buffer EPBU
After confirming that the contents of F are not no entry point NoEP, this entry point buffer 7EPB
Call the event processing subroutine corresponding to the contents of the UF. Note that the current page PAGE refers to the display unit DPY.
This shows the currently displayed page.

ボイスの  について この電子楽器において1発音のために、若しくは編集作
業のために、現在選択されている1つのボイスを示すボ
イスナンバは、所定のレジスタつまりボイスナンバレジ
スタに記憶される。このボイスナンバレジスタに記憶さ
れているボイスナンバをVNで示す、このボイスナンバ
VNを参照することにより現在どのボイスが選択されて
いるかがわかる。
Regarding Voices A voice number indicating one voice currently selected for one sound generation or for editing work in this electronic musical instrument is stored in a predetermined register, that is, a voice number register. The voice number stored in this voice number register is indicated by VN. By referring to this voice number VN, it is possible to know which voice is currently selected.

所望のボイスの選択は1表示部DPYに第27図に例示
するような「ボイス選択」ページを呼び出すことにより
行なう0表示部DPYの表示画面が「ボイス選択」以外
のページのと−き、ボイスキーVOICE (第7図)
を押すことにより、エントリポイントテーブルEPT 
(第11図)では「ボイス選択サブルーチンJ EPV
を呼び出し。
The desired voice is selected by calling up the "Voice Selection" page shown in FIG. VOICE (Figure 7)
Entry point table EPT by pressing
(Fig. 11), "Voice selection subroutine J EPV
call.

ボイスの選択が可能になる。Voice selection becomes possible.

ボイス選択サブルーチンEPVにつき第14図を参照し
て説明すると、まず、表示部DPYのページを指示する
現在ページPAGEの内容を、「ボイス選択」ページを
指示する「1」にセットする(ステップ50)。
To explain the voice selection subroutine EPV with reference to FIG. 14, first, the contents of the current page PAGE, which indicates the page on the display section DPY, is set to "1", which indicates the "voice selection" page (step 50). .

次に1表示部DPYの画面表示を第27図に例示するよ
うな「ボイス選択jページにし、選択可能な各ボイスの
ボイス名をボイスナンバと共に表示すると共に、カーソ
ルをボイスナンバVNによって指示される特定のボイス
の位置に置く(ステップ51)。
Next, the screen display of the first display section DPY is changed to the "Voice selection page" as shown in FIG. It is placed at a specific voice position (step 51).

次に、ボイスデータメモリVDM (第8図)を読み出
すためのボイスデータポインタVOI CEPを、現在
のボイスナンバVNに対応する値に設定する(ステップ
52)。
Next, the voice data pointer VOI CEP for reading out the voice data memory VDM (FIG. 8) is set to a value corresponding to the current voice number VN (step 52).

次に、ボイスデータポインタVOI CE Pによって
指示されたボイスデータエリアからボイスモードデータ
を読み出し、これをボイスモードレジスタVMODEに
セットする。つまりVMODEは現在選択さ九ているボ
イスのボイスモードを示す、また、エレメントスタート
ポインタE S P (1)〜ESP(4)を、ボイス
データポインタVOICEPによって指示されたボイス
データエリアにおける4つの「エレメントパラメータデ
ータ」エリアに対応する値にそれぞれ設定する(ステッ
プ53)。
Next, voice mode data is read from the voice data area indicated by the voice data pointer VOI CE P and set in the voice mode register VMODE. In other words, VMODE indicates the voice mode of the currently selected voice, and element start pointers ESP (1) to ESP (4) are used to indicate the four "elements" in the voice data area indicated by the voice data pointer VOICEP. The parameters are set to the values corresponding to the "parameter data" area (step 53).

次に、ボイスモードレジスタVMODEの内容に応じて
エレメントタイプテーブルETT (第9図)を参照し
、そのボイスモードにおける同時発音可能数(エレメン
トタイプテーブルETTの同時発音可能数の欄の値)を
決定し、これを同時発音可能数レジスタN5CHにスト
アする(ステップ54)。
Next, depending on the contents of the voice mode register VMODE, refer to the element type table ETT (Fig. 9) and determine the number of simultaneous sounds (the value in the column of the number of simultaneous sounds in the element type table ETT) in that voice mode. This is then stored in the register N5CH for the number of simultaneous sounds (step 54).

このようにして表示部DPYで第27図に例示するよう
な「ボイス選択」ページを表示した状態において1次に
、データ入力部42またはカーソルキーC8R(第7図
)を操作すると、これに応じてボイスナンバVNが変更
され、所望のボイスを選択することができる。
When the data input section 42 or the cursor key C8R (FIG. 7) is operated in the state in which the "Voice Selection" page as shown in FIG. 27 is displayed on the display section DPY in this way, the The voice number VN is changed and the desired voice can be selected.

この点について説明すると、rボイス選択」ページを表
示した状態において、データ入力部42が操作されると
、エントリポイントテーブルEPT(第11図)では「
ボイス選択数値入力サブルーチンJEPDS(1)を呼
び出す、また、「ボイス選択」ページを表示した状態に
おいて、カーソルキーC8Rが操作されると、エントリ
ポイントテーブルEPT (第11図)では「ボイス選
択カーソルキーオンイベントサブルーチンJ EPCD
(1)を呼び出す、なお、カーソルキーC5Hには。
To explain this point, when the data input section 42 is operated while the "r Voice Selection" page is displayed, the entry point table EPT (Fig. 11)
When the voice selection numeric input subroutine JEPDS (1) is called and the cursor key C8R is operated while the "Voice selection" page is displayed, the entry point table EPT (Figure 11) shows a "Voice selection cursor key on event". Subroutine J EPCD
Call (1), and press cursor key C5H.

上下方向カーソルと左右方向カーソルの2種類があり、
それぞれの処理内容は幾分具なるが、説明の便宜上、カ
ーソルキーC5Rが1つであるとして説明する。
There are two types of cursors: up and down cursors and left and right cursors.
Although the details of each process are somewhat different, for convenience of explanation, the explanation will be based on the assumption that there is only one cursor key C5R.

ボイス選択数値入力サブルーチンE P D S (1
)とボイス選択カーソルキーオンイベントサブルーチン
EPCD(1)につき第15図を参照して説明すると、
まず、データ入力部42が操作された場合は、このデー
タ入力部42によって入力された数値に応じてボイスナ
ンバVNを変更する(ステップ55)。
Voice selection numerical value input subroutine E P D S (1
) and the voice selection cursor key-on event subroutine EPCD (1) will be explained with reference to FIG.
First, when the data input section 42 is operated, the voice number VN is changed according to the numerical value inputted by the data input section 42 (step 55).

次に、表示部DPYにおけるカーソルの位置を新しいボ
イスナンバVNによって指示される特定のボイスの位置
に移す(ステップ56)。
Next, the position of the cursor on the display section DPY is moved to the position of the specific voice indicated by the new voice number VN (step 56).

次に行なうステップ57,58.59の処理は第14図
のステップ52,53.54の処理と同じものであり、
新しいボイスナンバVNに対応してボイスデータポイン
タVOICEP及びエレメントスタートポインタE S
 P (1)〜E S P (4)の設定と、ボイスモ
ードVMODEのセットと、そのボイスモードに応じた
同時発音可能数レジスタN5CHの設定を行なう。
The processes of steps 57, 58, and 59 to be performed next are the same as the processes of steps 52, 53, and 54 in FIG.
The voice data pointer VOICEP and element start pointer E S correspond to the new voice number VN.
The settings of P (1) to E S P (4), the voice mode VMODE, and the simultaneous sound generation register N5CH corresponding to the voice mode are performed.

カーソルキーC5Rが押された場合は、ボイスナンバV
Nの値を1増加する(ステップ60)。
If cursor key C5R is pressed, voice number V
The value of N is increased by 1 (step 60).

この増加はモジュロ16で行なう、モジュロ16とした
理由は、選択可能なボイス数を16としたためである。
This increase is done by modulo 16. The reason for modulo 16 is that the number of selectable voices is 16.

その後、上述のステップ56〜59の処理を行なう。Thereafter, the processes of steps 56 to 59 described above are performed.

上記から明らかなように、データ入力部42の操作によ
れば所望のボイスナンバを一度で入力することができ、
カーソルキーC5Rでは1回の抑圧毎にボイスナンバV
Nを1つづつずらすことにより最終的に所望のボイスナ
ンバを入力する。
As is clear from the above, a desired voice number can be input at once by operating the data input section 42.
With cursor key C5R, voice number V is pressed every time it is suppressed.
By shifting N by one, the desired voice number is finally input.

王fイツト骸1詮、o1人 所望のボイスのボイスデータを変更・修正する編集作業
を行なう場合、まず、上述のように表示部DPYに「ボ
イス選択」ページを呼び出して所望のボイスの選択を行
ない、各レジスタの内容VN、VOICEP、VMOD
E、N5CH,ESP (1)〜E S P (4)を
該所望のボイスに対応する内容に設定する0次に、エデ
ィツトキーEDIT(第7図)を押すことにより、エデ
ィツト処理に入ることができる。
When performing editing work to change or modify the voice data of a desired voice, first call up the "Voice Selection" page on the display DPY as described above and select the desired voice. contents of each register VN, VOICEP, VMOD
Set E, N5CH, ESP (1) to ESP (4) to the contents corresponding to the desired voice.Next, by pressing the edit key EDIT (Figure 7), you can enter the editing process. .

表示部DPYの表示画面が「ボイス選択」ページのとき
、エディツトキーEDITを押すことにより、エントリ
ポイントテーブルEPT(第11図)では「エディツト
導入ルーチンJ EPEDを呼び出す、このエディツト
導入ルーチンEPEDの詳細例は第16図に示されてい
る。
When the display screen of the display unit DPY is the "Voice Selection" page, pressing the edit key EDIT will cause the entry point table EPT (Figure 11) to display "Call the edit introduction routine J EPED." A detailed example of this edit introduction routine EPED is shown below. It is shown in FIG.

エディツト導入ルーチンEPEDでは、まず。In the edit introduction routine EPED, first.

ボイスナンバVNに応じたボイスデータエリアからボイ
スデータ1式を読み出して、ボイスエディツトバッファ
VER(第8図)にコピーする(ステップ61)、以後
、種々の編集操作は、ボイスエディツトバッファメモリ
VERに記憶されているボイスデータに対して施される
。いわば、ボイスエディツトバッファメモリVERは、
ボイスデータを編集するための専用のバッファである。
A set of voice data is read from the voice data area corresponding to the voice number VN and copied to the voice edit buffer VER (Fig. 8) (step 61). From now on, various editing operations will be performed using the voice edit buffer memory VER. This is applied to voice data stored in . In other words, the voice edit buffer memory VER is
This is a dedicated buffer for editing voice data.

ボイスエディツトバッファメモリVERに対するボイス
データ1式のコピーの仕方は、前述した通りである。す
なわち、「ボイス名」、rボイスモード」及び「コモン
データ」はコモンデータバッファCDHにコピーする。
The method of copying one set of voice data to the voice edit buffer memory VER is as described above. That is, "voice name", "r voice mode" and "common data" are copied to the common data buffer CDH.

また、最大で4つのエレメントに対応する各パラメータ
データは、そのエレメントタイプに応じて、FM音源に
対応するものはFMエディツトバッファF、!1llE
Bにおける4つのFMエレメントエディツトバッファ1
乃至4のうち番号の若いものに対して順にコピーし、P
CM1i源に対応するものはPCMエディツトバッファ
PCMEBにおける4つのPCMエレメントエディツト
バッファ1乃至4のうち番号の若いものに対して順にコ
ピーする。そして、データがコピーされなかった残りの
FMエレメントエディツトバッファには、FM音源用の
「エレメントパラメータデータ」の所定の初期値(若し
くは基準値)をそれぞれ記憶し、同様に、データがコピ
ーされなかった残りのPCMエレメントエディツトバッ
ファには、PCM音源用の「エレメントパラメータデー
タ」の所定の初期値(若しくは基準値)をそれぞれ記憶
する。
Also, each parameter data corresponding to up to four elements is stored in the FM edit buffer F, !, corresponding to the FM sound source, depending on the element type. 1llE
4 FM element edit buffers 1 in B
Copy the numbers from 4 to 4 in order of the lowest number, and
Those corresponding to the CM1i source are copied in order to the one with the smallest number among the four PCM element edit buffers 1 to 4 in the PCM edit buffer PCMEB. Then, predetermined initial values (or reference values) of "element parameter data" for the FM sound source are stored in the remaining FM element edit buffers to which data has not been copied, and similarly, if data has not been copied, The remaining PCM element edit buffers each store predetermined initial values (or reference values) of "element parameter data" for the PCM sound source.

次に、ボイスデータポインタVOICEPの値をエディ
ツトバッファメモリVERの先頭アドレスにセットし、
かつ、エディツトスタートポインタE D S (1)
〜E D S (4)の値を、FMエディツトバッフ7
FMEBにおける4つのFMエレメントエディツトバッ
ファ1乃至4とPCMエディツトバッファPCMEBに
おける4つのPCMエレメントエディツトバッファ1乃
至4のうち、4つの各エレメントに対応するパラメータ
データをコピーしたエレメントエディツトバッファの先
頭アドレスにそれぞれセットする。従って、FMエディ
ツトバッファFMEB及びPCMエディツトバッファP
CMEBにおける合計8個のエレメントエディットバッ
ファのうち、現在編集作業中のボイスに関する各エレメ
ント1乃至4に対応するパラメータデータを記憶してい
るものが、エディツトスタートポインタE D S (
1)〜E D S (4)によってそれぞれ指示される
Next, set the value of the voice data pointer VOICEP to the start address of the edit buffer memory VER,
And edit start pointer EDS (1)
~E D S (4) value, FM edit buffer 7
Four FM element edit buffers 1 to 4 in FMEB and PCM edit buffer The beginning of the element edit buffer where the parameter data corresponding to each of the four elements is copied among the four PCM element edit buffers 1 to 4 in PCMEB. Set each address. Therefore, the FM edit buffer FMEB and the PCM edit buffer P
Of the eight element edit buffers in CMEB, the one that stores parameter data corresponding to each element 1 to 4 for the voice currently being edited is the edit start pointer E D S (
1) to E D S (4), respectively.

次に、コモンデータバッファCDBからボイスモードデ
ータを読み出して、これをVMODEにセットし、この
ボイスモードVMODEが10個のボイスモード1〜1
0(第9図参照)のうちとれどれであるかを調べる(ス
テップ63)。
Next, read the voice mode data from the common data buffer CDB and set it in VMODE.
0 (see FIG. 9) is checked (step 63).

ボイスモードVMODEの内容がエレメント1のみを使
用するボイスモード1,4または6を示す場合は、ステ
ップ64に行き、エディツトモードEMODEが2より
も大であるかを調べる。
If the contents of voice mode VMODE indicate voice mode 1, 4, or 6 using only element 1, the process goes to step 64 to see if edit mode EMODE is greater than 2.

エディツトモードEMODEとは、現時点での編集作業
の内容を示すもので、O乃至5のいずれかの値をとり、
その値と編集内容との関係は次の通りである。
Edit mode EMODE indicates the content of the current editing work, and takes a value from O to 5.
The relationship between the value and the editing content is as follows.

EMODE=O:ボイスモードの選択 EMODE=l :コモンデータの編集EMODE=2
 :エレメント1のデータ編集EMODE=3 :エレ
メント2のデータ編集EMODE=4 :エレメント3
のデータ編集EMODE=5 :エレメント4のデータ
編集従って、エディツトモードEMODEが2よりも大
とは、エレメント2または3,4のデータ編集を行なう
モードであることを意味し、エレメントlのみを使用す
るボイスモード1,4または6においては不要のもので
ある。従って、ステップ64がYESの場合は、ステッ
プ65に行き、エディツトモードEMODEを0にリセ
ットする。
EMODE=O: Voice mode selection EMODE=l: Common data editing EMODE=2
:Element 1 data editing EMODE=3 :Element 2 data editing EMODE=4 :Element 3
Data editing EMODE = 5: Data editing of element 4 Therefore, if the edit mode EMODE is greater than 2, it means that the mode is for editing data of elements 2, 3, and 4, and only element l is used. This is unnecessary in voice modes 1, 4, or 6. Therefore, if step 64 is YES, the process goes to step 65 and the edit mode EMODE is reset to 0.

ボイスモードVMODEの内容がエレメント1と2のみ
を使用するボイスモード2,5,7または9を示す場合
は、ステップ66に行き、エディツトモードEMODE
が3よりも大であるかを調べる。エディツトモードEM
ODEが3よりも大とは、エレメント3または4のデー
タ編集を行なうモードであることを意味し、エレメント
1と2のみを使用するボイスモード2,5.7または9
においては不要のものである。従って、ステップ66が
YESの場合は、ステップ67に行き、エディツトモー
ドEMODF:をOにリセットする。
If the contents of voice mode VMODE indicate voice mode 2, 5, 7, or 9, which uses only elements 1 and 2, go to step 66 and enter edit mode EMODE.
Check whether is greater than 3. Edit mode EM
ODE greater than 3 means that the mode is for data editing of element 3 or 4, voice mode 2, 5.7 or 9 that uses only elements 1 and 2.
It is unnecessary in this case. Therefore, if step 66 is YES, the process goes to step 67 and the edit mode EMODF: is reset to O.

ボイスモードVMODEの内容が全エレメント1〜4を
使用するボイスモード3,8または10を示す場合は、
エディツトモードEMODEの判断は行なわずに、ステ
ップ68に行く。
If the contents of voice mode VMODE indicate voice mode 3, 8 or 10 using all elements 1 to 4,
The process goes to step 68 without making a determination as to whether the edit mode is EMODE.

ステップ68では、エディツトモードEMODEの値が
0〜5のいずれであるかを調べ、それに応じたエディツ
ト導入サブルーチン(ステップ69〜74)を実行する
In step 68, it is determined which value of the edit mode EMODE is from 0 to 5, and the corresponding edit introduction subroutine (steps 69 to 74) is executed.

本不丞i二五進択 エディツトモードEMODEの値が0であれば、ボイス
モード選択導入サブルーチンVMSSUBを行なう、こ
のサブルーチンVMSSUBの一例は第17図に示され
ている。
If the value of this non-binary selection edit mode EMODE is 0, the voice mode selection introduction subroutine VMSSUB is executed. An example of this subroutine VMSSUB is shown in FIG.

まず、ステップ75では、表示部DPYのページを指示
する現在ページPAGEの内容を、「ボイスモード選択
」ページを指示する所定の値nEにセットする。
First, in step 75, the contents of the current page PAGE indicating the page on the display section DPY are set to a predetermined value nE indicating the "voice mode selection" page.

次のステップ76では1表示部DPYの画面表示を第2
8図に例示するような「ボイスモード選択」ページにし
、各ボイスモード1〜10における音源と系列数の組合
せ情報及び単音/複音の区別を示す情報を表示し、現在
のボイスモードVMODEによって指示される特定のボ
イスモード(つまり現在選択されているボイスモード)
の位置にカーソルを置くと共に、現在選択されている該
ボイスモードにおける各エレメント1〜4の音源タイプ
を右上に表示する(これをエレメント構成表示という)
、また、各ファンクシヨシスイッチF1〜F5に対応す
る表示としてrB40DEJ。
In the next step 76, the screen display of the first display section DPY is changed to the second
The "Voice Mode Selection" page as illustrated in Figure 8 is displayed, and the combination information of the sound source and number of sequences in each voice mode 1 to 10 and information indicating the distinction between single notes and double notes are displayed, and the page is displayed as indicated by the current voice mode VMODE. specific voice mode (i.e. the currently selected voice mode)
Place the cursor at the position, and display the sound source type of each element 1 to 4 in the currently selected voice mode in the upper right corner (this is called element configuration display).
, and rB40DEJ as a display corresponding to each function switch F1 to F5.

rcOM」、rE IJ、rE 2J、rE3J、rE
+Jを表示し、各ファンクションスイッチF1〜F5の
機能がエディツトモード選択機能となっていることを示
す、rMODEJはボイスモード選択を示し。
rcOM”, rE IJ, rE 2J, rE3J, rE
+J is displayed to indicate that the function of each function switch F1 to F5 is an edit mode selection function, and rMODEJ indicates voice mode selection.

rcOMJはコモンデータエディツトを示し、「El」
〜「E4」はそれぞれエレメント1〜4のデータ編集を
行なうエディツトモードを示す、このファンクションス
イッチ表示においては、@在のエディツトモード(この
例ではボイスモード選択M0DE)を通常に表示し、他
のエディツトモードを白抜きで表示してそれらのエディ
ツトモードがファンクションスイッチ操作によって選択
可能であることを示す。
rcOMJ stands for Common Data Edit, “El”
~ "E4" indicates the edit mode for editing data of elements 1 to 4, respectively. In this function switch display, the current edit mode (voice mode selection M0DE in this example) is normally displayed, and other The edit modes are displayed in white to indicate that these edit modes can be selected by operating the function switch.

なお、表示部DPYの画面表示を第28図に例示するよ
うな「ボイスモード選択」ページにする処理は、上述の
ようなボイスモード選択導入サブルーチンVMSSUB
によらずに、ボイスモード選択サブルーチンEPVMに
よってもよい、つまり、ボイスモード選択ページ以外の
エディツトモードのページにおいては、上述のように、
ファンクションスイッチF1にボイスモード選択が割当
てられるようになっており1表示部DPYにおいてこれ
らのエディツトモードのページが表示されているときフ
ァンクションスイッチF1がオンされると、エントリポ
イントテーブルEPT (第11図)では「ボイスモー
ド選択サブルーチン」EPVMを呼び出す。
Note that the process of changing the screen display of the display unit DPY to the "voice mode selection" page as illustrated in FIG. 28 is performed by the voice mode selection introduction subroutine VMSSUB as described above.
In other words, in edit mode pages other than the voice mode selection page, as described above,
Voice mode selection is assigned to the function switch F1, and when the function switch F1 is turned on while these edit mode pages are displayed on the 1 display section DPY, the entry point table EPT (Fig. 11) ) calls the "voice mode selection subroutine" EPVM.

このボイスモード選択サブルーチンEPVMは第17図
においてボイスモード選択導入サブルーチンVMSSU
Bと一緒に示されている。まず。
This voice mode selection subroutine EPVM is the voice mode selection introduction subroutine VMSSU in FIG.
Shown together with B. first.

ステップ77において、エディツトモードEMODEを
「ボイスモード選択」を示す「0」にセットし1次に前
記ステップ75.7Gの処理を行なう。
In step 77, the edit mode EMODE is set to "0" indicating "voice mode selection", and the process of step 75.7G is first performed.

このようにして表示部DPYで第28図に例示するよう
な「ボイスモード選択」ページを表示した状態において
1次に、データ入力部42またはカーソルキーC5Rを
操作すると、これに応じてボイスモードVMODEの値
が変更され、所望のボイスモードを選択することができ
る。
In this way, when the data input section 42 or the cursor key C5R is operated while the "Voice Mode Selection" page as shown in FIG. 28 is displayed on the display section DPY, the voice mode VMODE is selected accordingly. The desired voice mode can be selected.

この点について説明すると、「ボイスモード選択」ペー
ジを表示した状態において、データ入力部42が操作さ
れると、エントリポイントテーブルEPT(第11図)
では「ボイスモード選択数値入力サブルーチンJ EP
DS(nE)を呼び出す、また、「ボイスモード選択j
ページを表示した状態において、カーソルキーC8Rが
操作されると、エントリポイントテ−ブルEPT (第
11図)では「ボイスモード選択カーソルキーオンイベ
ントサブルーチンJ EpcD(nE)を呼び出す。
To explain this point, when the data input section 42 is operated while the "voice mode selection" page is displayed, the entry point table EPT (Fig. 11)
``Voice mode selection numeric input subroutine J EP
Call up DS (nE), or select “Voice mode selection
When the cursor key C8R is operated while the page is displayed, the entry point table EPT (FIG. 11) calls the voice mode selection cursor key-on event subroutine JEpcD(nE).

ボイスモード選択数値入力サブルーチンEPDS(nE
)とボイスモード選択カーソルキーオンイベントサブル
ーチンEPCD(nE)につき第18図を参照して説明
すると、まず、データ入力部42が操作された場合は、
このデータ入力部42によって入力された数値に応じて
ボイスモードVMODEを変更すル(ステップ78)。
Voice mode selection numerical value input subroutine EPDS (nE
) and the voice mode selection cursor key-on event subroutine EPCD(nE) will be explained with reference to FIG. 18. First, when the data input section 42 is operated,
The voice mode VMODE is changed according to the numerical value input by the data input section 42 (step 78).

次に1表示部DPYにおけるカーソルの位置を新しいボ
イスモードVMODEによって指示される特定のボイス
モードの位置に移す(ステップ79)。
Next, the position of the cursor in one display section DPY is moved to the position of the specific voice mode indicated by the new voice mode VMODE (step 79).

新しいボイスモードVMODEに応じてエレメントタイ
プテーブルETT (第9図)から該ボイスモードにお
ける各エレメント1〜4の音源タイプを読み出し、これ
に応じたエレメント構成表示を表示部DPYの画面右上
にて行なう(ステップ80)。
In accordance with the new voice mode VMODE, the sound source type of each element 1 to 4 in the voice mode is read from the element type table ETT (Fig. 9), and the element configuration corresponding to this is displayed at the upper right of the screen of the display unit DPY ( Step 80).

次に、新しいボイスモードVMODEに応じてエディツ
トバッファメモリVERにおける各エレメント1〜4の
エディツトスタートポインタEDS (1)〜E o 
S (4)の値を再設定する(ステップ81)、これは
、各エディツトスタートポインタED S (1) 〜
E D S (4)を、新しいボイスモードVMODE
に合わせるためである。
Next, in accordance with the new voice mode VMODE, the edit start pointers EDS(1) to Eo of each element 1 to 4 in the edit buffer memory VER are set.
Resetting the value of S (4) (step 81), this is done for each edit start pointer EDS (1) ~
E D S (4), new voice mode VMODE
This is to match.

次に、新しいボイスモードVMODEの内容に応じてエ
レメントタイプテーブルETTを参照し、そのボイスモ
ードにおける同時発音可能数(エレメントタイプテーブ
ルETTの同時発音可能数の欄の値)を決定し、これを
同時発音可能数レジスタN5CHにストアする(ステッ
プ82)。
Next, according to the contents of the new voice mode VMODE, refer to the element type table ETT, determine the number of simultaneous sounds in that voice mode (the value in the column for the number of simultaneous sounds in the element type table ETT), and It is stored in the register N5CH for the number of sounds that can be produced (step 82).

カーソルキーC5Rが押された場合は、ボイスモードV
MODEの値を1増加する(ステップ83)、ボイスモ
ードの値が1から10の範囲で変化するようにするため
に、l増加したVMODEの値がlOよりも大となった
ら、このVMODEの値を「1」にリセットする(ステ
ップ84.85)、その後、上述のステップ79〜82
の処理を行なう。
If cursor key C5R is pressed, voice mode V
The value of MODE is increased by 1 (step 83). In order to make the voice mode value change in the range of 1 to 10, if the increased value of VMODE is greater than lO, the value of this VMODE is to "1" (step 84.85), then steps 79-82 described above
Process.

上記から明らかなように、データ入力部42の掻作によ
れば所望のボイスモードを一度で選択することができ、
カーソルキーC8Rでは1回の抑圧毎にボイスモードV
MODEの値を1つづつずらすことにより最終的に所望
のボイスモードを選択する。
As is clear from the above, a desired voice mode can be selected at once by clicking the data input section 42.
With cursor key C8R, voice mode V is set for each suppression.
By shifting the value of MODE one by one, the desired voice mode is finally selected.

2iK兄二見魚1−開− 第16図のステップ68でエディツトモードEMODE
の値が1であると判断されると、コモンデータエディツ
ト導入サブルーチンC0M5UBを行なう、このサブル
ーチンC0M5UBの一例は第19図に示されている。
2iK Brother Futami Fish 1 - Open - Edit mode EMODE at step 68 in Figure 16
When it is determined that the value of is 1, the common data edit introduction subroutine C0M5UB is executed. An example of this subroutine C0M5UB is shown in FIG.

まず、ステップ86では1表示部DPYのページを指示
する現在ページPAGEの内容を、「コモンデータエデ
ィツト」ページを指示する所定の値nE+1にセットす
る。
First, in step 86, the content of the current page PAGE indicating the page of one display section DPY is set to a predetermined value nE+1 indicating the "common data edit" page.

次のステップ87では1表示部DPYの画面表示を第2
9図に例示するような「コモンデータエディツト」メニ
ューのページにし、各種コモンデータ名を表示し、現在
選択されているコモンデータ名にカーソルを置くと共に
、現在選択されているボイスモードVMODEにおける
各エレメント1〜4の音源タイプを右上に表示する。ま
た、前述と同様に各ファンクションスイッチFi−F5
に対応する表示を行う、なお、ここで、現在選択されて
いるボイスモードVMODEにおけるエレメント構成に
おいて使用しないエレメントに対応するファンクション
スイッチ表示はなされない。
In the next step 87, the screen display of the first display section DPY is
Display the "Common Data Edit" menu page as shown in Figure 9, display the various common data names, place the cursor on the currently selected common data name, and edit each of the currently selected voice modes VMODE. The sound source types of elements 1 to 4 are displayed in the upper right corner. In addition, as described above, each function switch Fi-F5
Note that function switches corresponding to elements that are not used in the element configuration in the currently selected voice mode VMODE are not displayed.

第29図の例ではrE3J、rE4Jが表示されていな
い。
In the example of FIG. 29, rE3J and rE4J are not displayed.

なお1表示部DPYの画面表示を第29図に例示するよ
うな「コモンデータエディツト」メニューのページにす
る処理は、上述のようなコモンデータエディツト導入サ
ブルーチンC0M5UBによらずに、コモンデータエデ
ィツトサブルーチンEPCOMによってもよい、つまり
、「コモンデータエディツト」メニューのページ以外の
エディツトモードのページに−おいては、前述のように
、ファンクションスイッチF2にコモンデータの編集を
選択する機能が割当てられるようになっており。
Note that the process of changing the screen display of display unit DPY to the "Common Data Edit" menu page as illustrated in FIG. In other words, on edit mode pages other than the "common data edit" menu page, the function to select common data editing may be assigned to function switch F2, as described above. It is now possible to

表示部DPYにおいてこれらのエディツトモードのペー
ジが表示されているときファンクションスイッチF2が
オンされると、エントリポイントテーブルEPT(第1
1図)では「コモンデータエディツトサブルーチンJ 
EPCOMを呼び出す。
When function switch F2 is turned on while these edit mode pages are displayed on display unit DPY, entry point table EPT (first
Figure 1) shows the “Common Data Edit Subroutine J”.
Call EPCOM.

このコモンデータエディツトサブルーチンEPCOMは
第19図においてコモンデータエディツト導入サブルー
チンC0M5UBと一緒に示されている。ここでは、ス
テップ88において、エディツトモードEMODEを「
コモンデータエディツト」を示す「1」にセットし、次
に前記ステップ86.87の処理を行なう。
This common data edit subroutine EPCOM is shown together with the common data edit introduction subroutine C0M5UB in FIG. Here, in step 88, the edit mode EMODE is set to "
"Common Data Edit" is set to "1", and then the processing of steps 86 and 87 is performed.

このようにして表示部DPYで第29図に例示するよう
な「コモンデータエディツト」メニューのページを表示
した状態において1次に、データ入力部42またはカー
ソルキーC8Rを操作すると、これに応じてカーソルが
動き、所望のコモンデータを選択することができる。所
望のコモンデータを選択した後、エンターキーENTE
R(第7図)を押すと、エントリポイントテーブルEP
T(第11図)を参照して「コモンデータエディツト」
の下位のサブルーチンEPET (nE+1)が呼び出
され、これに従い1表示部DPYのページが下位ページ
に切り替わり、所望のコモンデータの詳細内容の変更・
修正を行なうことができる。
In this way, when the data input section 42 or the cursor key C8R is operated while the "Common Data Edit" menu page as shown in FIG. 29 is displayed on the display section DPY, the The cursor moves and desired common data can be selected. After selecting the desired common data, press the enter key ENTE.
Press R (Figure 7) to display the entry point table EP.
"Common Data Edit" with reference to T (Figure 11)
The lower subroutine EPET (nE+1) is called, and accordingly the page of 1 display section DPY is switched to the lower page, and the detailed contents of the desired common data can be changed and
Corrections can be made.

この下位のサブルーチンEPET (nE+1)につい
ては説明を省略する。
Description of this lower subroutine EPET (nE+1) will be omitted.

一各エレメントのデータ編−S− ニーではエレメント1に関するデータ編集についてその
詳細を説明し、他のエレメント2〜4に関するデータ編
集はこれとほぼ同様の処理であるため詳細説明を省略す
る。
1. Data of Each Element -S- In this section, the details of data editing for element 1 will be explained, and the detailed explanation of data editing for other elements 2 to 4 will be omitted because the processing is almost the same as this.

第16図のステップ68でエディツトモードEMODE
の値が2であると判断されると、エレメント1のエディ
ツト導入サブルーチンE I SUBを行なう、このサ
ブルーチンEISUBの一例は第20図に示されている
In step 68 of Fig. 16, edit mode EMODE is set.
When the value of is determined to be 2, the edit introduction subroutine E I SUB of element 1 is performed. An example of this subroutine EISUB is shown in FIG.

まず、ステップ89では、ボイスモードVMODEに応
じてエレメントタイプテーブルETTを参照し、エレメ
ント1の音源タイプを読み出し。
First, in step 89, the element type table ETT is referred to according to the voice mode VMODE, and the sound source type of element 1 is read out.

これをエレメントタイプバッファETBUFにストアす
る。
Store this in the element type buffer ETBUF.

次に、ステップ90では、エレメントタイプバッファE
TBUFの値を調べる。「0」つまりこのエレメントが
不使用であればこのサブルーチンを終了するが、「1」
つまりFMタイプであれば。
Next, in step 90, element type buffer E
Check the value of TBUF. "0" means that this element is not used, this subroutine ends, but "1"
In other words, if it's an FM type.

ステップ91に行き、表示部DPYのページを指示する
現在ページPAGEの内容を、rFMデータエディツト
」ページを指示する所定の値nE+2にセットする。
Go to step 91, and set the contents of the current page PAGE, which indicates the page of the display section DPY, to a predetermined value nE+2, which indicates the "rFM data edit" page.

次のステップ92では、表示部DPYの画面表示を第3
0図に例示するようなrFMデータエディツト」メニュ
ーのページにし、各種のFMパラメータデータ名を表示
し、WA在選択されているFMパラメータデータ名にカ
ーソルを置くと共に、現在選択されているボイスモード
VMODEにおける各エレメント1〜4の音源タイプを
右上に表示する。また、前述と同様に各ファンクション
スイッチF1〜F5に対応する表示を行う。
In the next step 92, the screen display of the display unit DPY is changed to the third
Display the "rFM Data Edit" menu page as shown in Figure 0, display various FM parameter data names, place the cursor on the currently selected FM parameter data name, and select the currently selected voice mode. The sound source type of each element 1 to 4 in VMODE is displayed in the upper right corner. Further, similar to the above, displays corresponding to each of the function switches F1 to F5 are performed.

FMパラメータの一例につき説明すると、AlgoはF
M演算ユニットoP1〜OP6の接続組合せを設定する
アルゴリズムパラメータである。0pEGは各演算ユニ
ットOPI〜OPS毎のエンベロープ波形を設定するパ
ラメータである。また、FB PCLは各演算ユニット
OPI〜OI’6毎のフィードバックレベルデータFL
I〜FL6及び外部入力レベル制御データEXTLl−
EXTL6(第4図参照)を設定するパラメータである
To explain an example of the FM parameter, Algo
This is an algorithm parameter for setting connection combinations of M calculation units oP1 to OP6. 0pEG is a parameter that sets the envelope waveform for each calculation unit OPI to OPS. In addition, FB PCL is feedback level data FL for each operation unit OPI to OI'6.
I to FL6 and external input level control data EXTLl-
This is a parameter for setting EXTL6 (see FIG. 4).

一方、エレメントタイプバッファETBUFの値が「2
」つまりPCMタイプであれば、ステップ93に行き1
表示部DPYのページを指示する現在ページPAGEの
内容を、「PCMデータエディツト」ページを指示する
所定の値nE+3にセットする。
On the other hand, the value of element type buffer ETBUF is "2".
” In other words, if it is a PCM type, go to step 93 and
The contents of the current page PAGE indicating the page of the display section DPY are set to a predetermined value nE+3 indicating the "PCM data edit" page.

次のステップ94では、表示部DPYの画面表示を第3
1図に例示するようなrPCMデータエディツト」メニ
ューのページにし、各種のPCMパラメータデータ名を
表示し、現在選択さ九ているPCMパラメータデータ名
にカーソルを置くと共に、現在選択されているボイスモ
ードVMODEにおける各エレメント1〜4の音源タイ
プを右上に表示する。また、前述と同様に各ファンクシ
ョンスイッチFl〜F5に対応する表示を行う。
In the next step 94, the screen display of the display unit DPY is changed to the third
1) Display the various PCM parameter data names, place the cursor on the currently selected PCM parameter data name, and select the currently selected voice mode. The sound source type of each element 1 to 4 in VMODE is displayed in the upper right corner. Further, in the same manner as described above, displays corresponding to each of the function switches Fl to F5 are performed.

ステップ95では、エディツトモードEMODEをエレ
メント1のデータ編集を指示する。「2」にセットする
。このステップ95による「2」のセットは、エディツ
トモードEMOI)Hの値がまだ「2」以外のとき有効
である。
In step 95, the edit mode EMODE is instructed to edit the data of element 1. Set to "2". The setting of "2" in step 95 is valid when the value of the edit mode EMOI)H is still other than "2".

なお、表示部DPYの画面表示を第30図または第31
図に例示するようなrFMデータエディツト」メニュー
またはrPCMデータエディツト」メニューのページに
する処理は、上述のようなエレメント1の導入サブルー
チンEISUBによらずに、エレメント1のエディツト
サブルーチンEPEIによってもよい、つまり、各種エ
ディツトモードのページにおいては、前述のように、フ
ァンクションスイッチF3にエレメント1のデータ編集
を選択する機能が割当てられるようになっており1表示
部DPYにおいてこれらのエディツトモードのページが
表示されているときファンクションスイッチF3がオン
されると、エントリポイントテーブルEPT (第11
図)では「エレメント1のエディツトサブルーチンJE
PEIを呼び出す。
In addition, the screen display of the display unit DPY is shown in FIG. 30 or 31.
The process of creating a page for the ``rFM Data Edit'' menu or ``rPCM Data Edit'' menu as illustrated in the figure can be performed not by the introduction subroutine EISUB of element 1 as described above, but also by the edit subroutine EPEI of element 1. In other words, in the pages of various edit modes, the function to select the data edit of element 1 is assigned to function switch F3 as described above, and these edit modes are displayed on the 1 display DPY. When function switch F3 is turned on while the page is displayed, entry point table EPT (11th
), "Element 1 Edit Subroutine JE
Call P.E.I.

このエレメント1のエディツトサブルーチンEPEIは
第20図においてエレメント1の導入サブルーチンE 
I 5tJBと一緒に示されている。ここでは、ステッ
プ96において、エディツトモードEMODEが「エレ
メント1のエディツト」を示す「2」に既にセットされ
ているかを調べ、YESならばこのサブルーチンを更に
行なうことなく、リターンするが、NOならば別のエデ
ィツトモードからエレメント1のエディツトモードに切
り替えられたことを意味するので、このサブルーチンを
続行し、前述のステップ89〜95の処理を行なう。
The edit subroutine EPEI of element 1 is the introduction subroutine E of element 1 in FIG.
Shown with I 5tJB. Here, in step 96, it is checked whether the edit mode EMODE has already been set to "2" indicating "editing element 1", and if YES, the process returns without further execution of this subroutine, but if NO This means that the edit mode for element 1 has been switched from another edit mode, so this subroutine is continued and the processes of steps 89 to 95 described above are performed.

このようにして表示部DPYで第30図または第31図
に例示するようなrFMデータエディツト」メニューま
たはrPCMデータエディツト」メニューのページを表
示した状態において、次に。
With the rFM data edit menu or rPCM data edit menu page as exemplified in FIG. 30 or 31 displayed on the display unit DPY in this way, the next step is as follows.

データ入力部42またはカーソルキーC8Rを操作する
と、これに応じてカーソルが動き、所望のパラメータデ
ータを選択することができる。所望のパラメータデータ
を選択した後、エンターキーENTER(第7図)を押
すと、エントリポイントテーブルEPT(第11図)を
参照してrFMデータエディツト」メニューまたはrP
CMデータエディツト」メニューの下位のサブルーチン
EPET(nE+2)またはEPET(nE+3)が呼
び出され、これに従い、表示部DPYのページが下位ペ
ージに切り替わり、所望のFMまたはPCMパラメータ
データの詳細内容の変更・修正を行なうことができる。
When the data input section 42 or the cursor key C8R is operated, the cursor moves accordingly, allowing desired parameter data to be selected. After selecting the desired parameter data, press the ENTER key (Fig. 7) to select the rFM data edit menu or rP with reference to the entry point table EPT (Fig. 11).
The subroutine EPET(nE+2) or EPET(nE+3) below the "CM Data Edit" menu is called, and the page on the display DPY changes to the lower page to change/change the details of the desired FM or PCM parameter data. Corrections can be made.

この下位のサブルーチンEPET(nE+2)またはE
PET(nE+3)については説明を省略する。
This lower subroutine EPET (nE+2) or E
Description of PET (nE+3) will be omitted.

FMパラメータデータの詳細内容の変更・修正の一例を
説明すると、第30図のrFMデータエディツト」メニ
ューのページにおいて1番号9のパラメータFB PC
Lのエディツトを選択すると(つまりカーソルを番号9
に合わせてエンターキーENTERを押すと)1表示部
DPYは第32図のようなフィードバック及びPCMレ
ベルエディツトのページに切り替わる。このページ画面
において、カーソルキーC8Rとデータ入力部42を適
宜操作して、FM音源18の各演算ユニットOPL〜O
P6毎にフィードバックレベルとPCMレベルをそれぞ
れ所望の値に設定する。フィードバックレベルとは、前
述のように、自己の演算ユニット出力を自己の変調波信
号として帰還する比率を設定するレベルデータであり、
これが第4図におけるフィードバックレベルデータFL
I〜FL6に対応する。PCMレベルとは、PCM音源
17の出力楽音信号をFM音源18の各演算ユニットO
Pi〜OP6に変調波信号として入力する比率を設定す
るレベルデータであり、これが第4図における外部入力
レベル制御データEXTL1〜EXTL6に対応する。
To explain an example of changing/correcting the detailed contents of FM parameter data, on the "rFM Data Edit" menu page in Figure 30, the parameter 1 number 9 FB PC
When you select Edit L (that is, move the cursor to number 9)
When the enter key ENTER is pressed at the same time as ), the display section DPY 1 switches to the feedback and PCM level edit page as shown in FIG. 32. On this page screen, operate the cursor key C8R and data input section 42 as appropriate to
The feedback level and PCM level are each set to desired values for each P6. As mentioned above, the feedback level is level data that sets the ratio at which the output of the own arithmetic unit is fed back as the own modulated wave signal.
This is the feedback level data FL in Figure 4.
Corresponds to I to FL6. The PCM level refers to the output musical tone signal of the PCM sound source 17 at each calculation unit O of the FM sound source 18.
This is level data for setting the ratio to be input as a modulated wave signal to Pi to OP6, and this corresponds to external input level control data EXTL1 to EXTL6 in FIG. 4.

前述のように、フィードバックやPCMの変調波信号を
使用しない場合はこれらのレベルデータの値を0に設定
する。
As described above, when feedback and PCM modulated wave signals are not used, the values of these level data are set to 0.

以上はエレメント1に関するデータ編集についての説明
であるが、他のエレメント2〜4に関するデータ編集に
ついてもはこれとほぼ同様の手順で行なうことができる
The above is a description of data editing regarding element 1, but data editing regarding other elements 2 to 4 can be performed using substantially the same procedure.

すなわち、第16図のステップ68でエディツトモード
EMODEの値が3であると判断された場合はエレメン
ト2のエディツト導入サブルーチンE2SUBを行ない
(ステップ?2)、EMODE=4の場合はエレメント
3のエディツト導入サブルーチンE3SUBを行ない(
ステップ73)、EMODE=5の場合はエレメント4
のエディツト導入サブルーチンE4SUBを行なう(ス
テップ74)、また、表示部DPYにおいてエディツト
モードのページが表示されているときファンクションス
イッチF4乃至F6をオンすることにより、エントリポ
イントテーブルEPT(第11図)ではエレメント2乃
至4の「エディツトサブルーチン」を呼び出し、これを
実行する。
That is, if it is determined that the value of the edit mode EMODE is 3 at step 68 in FIG. Execute the installation subroutine E3SUB (
step 73), element 4 if EMODE=5
By executing the edit introduction subroutine E4SUB (step 74) and turning on the function switches F4 to F6 while the edit mode page is displayed on the display section DPY, the entry point table EPT (Fig. 11) is The "edit subroutine" of elements 2 to 4 is called and executed.

X 」7り(壜 所望のエディツトが終了したときストアキー5TORE
 (第7図)を押して、エディツト終了済みのボイスデ
ータをボイスエディツトバッファメモリVEBからボイ
スデータメモリVDMに戻すモードとする。
X”7 (When the desired edit is completed, store key 5TORE
(FIG. 7) is pressed to set the mode in which the edited voice data is returned from the voice edit buffer memory VEB to the voice data memory VDM.

表示部DPYの表示画面が何らかのエディツトモードの
ページのとき、ストアキー5TOREが押されると、エ
ントリポイントテーブルEPT(第11図)では「スト
アサブルーチンJ EPSTを呼び出す、このストアサ
ブルーチンEPSTの詳細例は第21図に示されている
When the display screen of the display unit DPY is in some kind of edit mode page, when the store key 5TORE is pressed, the entry point table EPT (Figure 11) says ``Call store subroutine J EPST.'' A detailed example of this store subroutine EPST is It is shown in FIG.

ストアサブルーチンEPSTでは、まず、ページバッフ
ァPAGEBUFに現在ページPAGEのページデータ
を移し、現在ページPAGEの内容を、「ストア」ペー
ジを指示する所定の値nsにセットする。ページバッフ
ァPAGEBtJFはストア処理途中で若しくはストア
処理終了後に画面を元のページに戻すために設けられて
いる0次に、表示部DPYの画面表示を第33図に例示
するような「ストア」ページにし、現在のボイスナンバ
及びボイス名を表示すると共に、各ボイスナンバに対応
するボイス名をそれぞれ表示し、ストアボイスナンバ5
TVNによって指示されるボイスナンバの位置にカーソ
ルを置く、また、ファンクションスイッチF1に対応し
てクイツトキーQUITの表示を行ない、ファンクショ
ンスイッチF8に対応してスタートキー5TRTの表示
を行なう。
In the store subroutine EPST, first, page data of the current page PAGE is transferred to the page buffer PAGEBUF, and the contents of the current page PAGE are set to a predetermined value ns indicating a "store" page. The page buffer PAGEBtJF is provided to return the screen to the original page during the store process or after the store process is completed.Next, the screen display on the display unit DPY is changed to the "store" page as shown in FIG. 33. , displays the current voice number and voice name, displays the voice name corresponding to each voice number, and stores voice number 5.
The cursor is placed at the position of the voice number indicated by TVN, and the QUIT key is displayed in correspondence with the function switch F1, and the start key 5TRT is displayed in correspondence with the function switch F8.

このようにして表示部DPYで第33図に例示するよう
な「ストア」ページを表示した状態において1次に、デ
ータ入力部42またはカーソルキーC5Rを操作すると
、これに応じてストアボイスナンバ5TVNの値が変更
され、編集済みのボイスデータをストアしようとする所
望のボイスナンバを選択することができる。
In this way, when the data input section 42 or the cursor key C5R is operated while the "Store" page as shown in FIG. 33 is displayed on the display section DPY, the store voice number 5 TVN is changed accordingly. The desired voice number whose value is changed and the edited voice data is to be stored can be selected.

この点について説明すると、「ストア」ページを表示し
た状態において、データ入力部42が操作されると、エ
ントリポイントテーブルEPT(第11図)では「スト
アボイスナンバ数値入力サブルーチンJ EPDS(n
S)を呼び出す、また、「ストア」ページを表示した状
態において、カーソルキーC8Rが操作されると、エン
トリポイントテーブルEPT(第11図)ではストアボ
イスナンバ選択用の「カーソルキーオンイベントサブル
ーチンJ Epco(nS)を呼び出す。
To explain this point, when the data input section 42 is operated while the "Store" page is displayed, the "Store Voice Number Numerical Input Subroutine J EPDS (n
Also, when the cursor key C8R is operated while the "Store" page is displayed, the entry point table EPT (Fig. 11) calls "Cursor key on event subroutine J Epco ( nS).

ストアボイスナンバ数値入力サブルーチンEPDS(n
S)とカーソルキーオンイベントサブルーチンEPCD
(ns)につき第22図を参照して説明すると、まず、
データ入力部42が操作された場合は、このデータ入力
部42によって入力された数値に応じてストアボイスナ
ンバ5TVNの値を変更する1次に、表示部DPYにお
けるカーソルの位置を新しいストアボイスナンバ5TV
Nによって指示される特定のボイスナンバの位置に移す
、また、カーソルキーC8Rが押された場合は、ストア
ボイスナンバ5TVNの値をモジュロ16で1増加し、
その後1表示部DPYにおけるカーソルの位置を新しい
ストアボイスナンバ5TVNによって指示される特定の
ボイスナンバの位置に移す。
Store voice number numerical input subroutine EPDS (n
S) and cursor key-on event subroutine EPCD
To explain (ns) with reference to FIG. 22, first,
When the data input section 42 is operated, the value of the store voice number 5TVN is changed according to the numerical value inputted by the data input section 42.First, the cursor position on the display section DPY is changed to the new store voice number 5TVN.
Move to the specific voice number position indicated by N. Also, if cursor key C8R is pressed, increase the value of store voice number 5TVN by 1 modulo 16,
Thereafter, the position of the cursor in one display section DPY is moved to the position of a specific voice number indicated by the new store voice number 5TVN.

こうして、編集済みのボイスデータをストアしようとす
る所望のボイスナンバをストアボイスナンバ5TVNに
登録した後、スタートキー5TRT(つまりファンクシ
ョンスイッチF8)をオンする。そうすると、エントリ
ポイントテーブルEPTにより第23図の「ストア実行
サブルーチン」が呼び出される。ここでは、まず、「ス
トア」ページの画面の下の方にrNov Storin
gJというよなストア実行中であることを示す表示を行
なう。
After registering the desired voice number in which the edited voice data is to be stored in the store voice number 5TVN, the start key 5TRT (that is, the function switch F8) is turned on. Then, the "store execution subroutine" shown in FIG. 23 is called by the entry point table EPT. Here, first, select rNov Storin at the bottom of the "Store" page.
A display such as gJ is displayed to indicate that the store is being executed.

そして、ストアボイスナンバ5TVNに応じてストアボ
イスポインタ5TVPを設定する。このストアボイスポ
インタ5TVPは、5TvNのボイスナンバに対応する
ボイスデータメモリVDMにおけるボイスデータエリア
の先頭アドレスを指示するものである。
Then, a store voice pointer 5TVP is set according to the store voice number 5TVN. This store voice pointer 5TVP indicates the start address of the voice data area in the voice data memory VDM corresponding to the voice number 5TvN.

そして・、ストアボイスポインタ5TVPによって指示
されたボイスメモリVDMにおけるボイスデータエリア
にボイスエディツトバッファメモリVERのデータを転
送する。その場合、ボイスエディツトバッファメモリV
ERのデータを全部転送するのではなく、ボイスモード
VMODEの内容に応じて必要なものを転送する。まず
、コモンデータバッファCDBの「ボイス名」、「ボイ
スモード」及び「コモンデータ」は、ボイスメモリVD
Mにおけるボイスデータエリアの対応するエリアに転送
される0次に、FMエディツトバッファFMEBにおけ
る4つのFMエレメントエディツトバッファ1乃至4と
PCMエディツトバッファPCMEBにおける4つのP
CMエレメントエディツトバッファ1乃至4のうち、ボ
イスモード■MODEの内容に応じて必要なもののみ、
ボイスメモリVDMにおけるボイスデータエリアの対応
するエレメントパラメータデータエリアに転送される。
Then, the data in the voice edit buffer memory VER is transferred to the voice data area in the voice memory VDM indicated by the store voice pointer 5TVP. In that case, the voice edit buffer memory V
Rather than transferring all ER data, necessary data is transferred according to the contents of the voice mode VMODE. First, the "voice name", "voice mode" and "common data" of the common data buffer CDB are stored in the voice memory VD.
Next, the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB and the four P in the PCM edit buffer PCMEB are transferred to the corresponding area of the voice data area in M.
Of CM element edit buffers 1 to 4, only those necessary according to the contents of voice mode ■MODE,
It is transferred to the corresponding element parameter data area of the voice data area in the voice memory VDM.

その後、現在ページPAGEの内容を次ページns+1
に変更し、所定のストアエンド表示(例えば画面の下部
にrcompletaNと表示する)を行なう。
After that, change the contents of the current page PAGE to the next page ns+1
, and a predetermined store end display (for example, rcompleteN is displayed at the bottom of the screen).

ページ番f−nsの「ストア」ページ若しくはnS+1
の「ストアエンド」ページにおいて、ファンクションス
イッチF1はクイツトキーQUITとして機能し、これ
がオンされると、第24図のクイツトキーオンイベント
サブルーチンが実行される。ここでは、ページバッファ
PAGEBUFのページデータを現在ページPAGEに
移し、この現在ページPAGEで指示されるページに入
るためのルーチンをコールする。これにより、ストア処
理途中で若しくはストア処理終了後に、クイツトキーQ
UITがオンされると、表示部DPYの画面はストア処
理に入る直前の処理のページ画面に戻される。これによ
り、エディツトのやり直等が行なえる。
"Store" page with page number f-ns or nS+1
On the "Store End" page, the function switch F1 functions as a quick key QUIT, and when it is turned on, the quick key on event subroutine shown in FIG. 24 is executed. Here, a routine is called to move the page data in the page buffer PAGEBUF to the current page PAGE, and to enter the page indicated by the current page PAGE. As a result, QuitKeyQ can be used during the store process or after the store process
When the UIT is turned on, the screen of the display unit DPY is returned to the page screen of the process immediately before starting the store process. This allows you to redo edits, etc.

J?!v」31月。J? ! v” 31st month.

鍵が新たな押圧されると、第25図のキーオンイベント
処理を行ない、該押圧鍵の発音をいずれか1又は複数の
チャンネルに割当てる。
When a new key is pressed, the key-on event process shown in FIG. 25 is performed, and the sound produced by the pressed key is assigned to one or more channels.

まず、キーオンイベントに係る押圧鍵のキーコードをキ
ーコードレジスタKCODEにストアし、それに対応す
るタッチデータをタッチデータレジスタTDATAにス
トアする(ステップ100)。
First, the key code of the pressed key related to the key-on event is stored in the key code register KCODE, and the corresponding touch data is stored in the touch data register TDATA (step 100).

次に、同時発音可能数レジスタN5CHに登録した同時
発音可能数に応じて1次割当てチャンネルASCHを決
定し、この1次割当てチャンネルASCHに新押圧鍵を
仮りに割当てる(ステップ101)。
Next, a primary allocation channel ASCH is determined according to the number of simultaneous sounds registered in the simultaneous sound generation register N5CH, and a new pressed key is provisionally allocated to this primary allocation channel ASCH (step 101).

1次割当てチャンネルASCHとは、実際の発音チャン
ネルではなく、実際の発音チャンネルに割当てる前段階
で使用されるものである。1次割当てチャンネルASC
Hの数は同時発音可能数に対応している。同一鍵の多系
列発音の場合は、実際の発音チャンネルにおいては同一
鍵が複数チャンネルに発音割当てされるが、1次割当て
チャンネルASCHには同一鍵は1チヤンネルにしか割
当てられない、同時発音可能数N5CH1全部で16チ
ヤンネルある実際の発音チャンネル、及び1次割当てチ
ャンネルASCHの関係の一例を示すと次のようである
。なお、全部で16チヤンネルある実際の発音チャンネ
ルの各々を0乃至15の番号で表わし、1次割当てチャ
ンネルASCHの各々を0乃至15の番号で表わす。
The primary allocation channel ASCH is not an actual sound generation channel, but is used at a stage prior to allocation to an actual sound generation channel. Primary allocation channel ASC
The number of H corresponds to the number of sounds that can be produced simultaneously. In the case of multi-sequence pronunciation of the same key, the same key is assigned to multiple channels in the actual pronunciation channel, but the same key can only be assigned to one channel in the primary assignment channel ASCH, which is the number of simultaneous pronunciations possible. An example of the relationship between the actual sound generation channels, of which there are 16 in total on N5CH1, and the primary assigned channel ASCH is as follows. Note that each of the actual sound generation channels, which are 16 in total, is represented by a number from 0 to 15, and each of the primary allocation channels ASCH is represented by a number from 0 to 15.

同時発音可能数N5CH=1のとき: 1次割当てチャンネルASCHは「0」のみ。When the number of simultaneous sounds N5CH=1: The primary assigned channel ASCH is only “0”.

実際の発音チャンネルは、系列数(使用するエレメント
の数)に応じて、「0」乃至「3」、を使用する。ただ
し、各発音チャンネルには同一鍵が割当てられる。
As the actual sound generation channel, "0" to "3" are used depending on the number of sequences (number of elements used). However, the same key is assigned to each sound generation channel.

同時発音可能数N5CH=4のとき: 1次割当てチャンネルASCHはrOJ乃至「3」の合
計4個。
When the number of simultaneous sounds N5CH = 4: There are a total of 4 primary assigned channels ASCH from rOJ to "3".

実際の発音チャンネルは、[0」乃至「3」のグループ
、「4」乃至′[7」のグループ、「8」乃至「11」
のグループ、「12」乃至「15」のグループ、の合計
4グループを使用する。各グループには異なる鍵が割当
てられる。同一グループ内のチャンネルには、系列数(
使用するエレメントの数)に応じて、同一鍵が割当てら
れる6例えば、使用するエレメントが1個だけなら同一
グループ内の1チヤンネルにだけ押圧鍵が割当てられ、
使用するエレメントが2個なら同一グループ内の2チヤ
ンネルに同じ押圧鍵が割当てられる。
The actual pronunciation channels are groups [0] to "3", groups "4" to '[7], and groups "8" to "11".
A total of four groups are used: the group "12" to "15". Each group is assigned a different key. Channels within the same group have a number of series (
For example, if only one element is used, a press key is assigned to only one channel in the same group,
If two elements are used, the same press key is assigned to two channels within the same group.

同時発音可能数N5CH=8のとき: 1次割当てチャンネルASCHはrOJ乃至「7」の合
計8個。
When the number of simultaneous sounds N5CH=8: There are a total of 8 primary assigned channels ASCH from rOJ to "7".

実際の発音チャンネルは、rOJ及び「1」のグループ
、「2」及び「3」のグループ、「4」及び「5」のグ
ループ、「6」及び「7」のグループ、「8」及び「9
」のグループ、「1o」及びrll」のグループ、r1
2J及び「13」のグループ、「14」及び「15」の
グループ、の合計8グループを使用する。各グループに
は異なる鍵が割当てられる。同一グループ内のチャンネ
ルには、系列数(使用するエレメントの数)に応じて、
同一鍵が割当てられる。
The actual pronunciation channels are rOJ and "1" group, "2" and "3" group, "4" and "5" group, "6" and "7" group, "8" and "9" group.
' group, '1o' and rll' group, r1
A total of 8 groups are used: 2J and "13" groups, and "14" and "15" groups. Each group is assigned a different key. For channels within the same group, depending on the number of series (number of elements used),
The same key is assigned.

同時発音可能数N5CH=16のとき:1次割当てチャ
ンネルASCHはrOJ乃至「15」の合計16個。
When the number of simultaneous sounds N5CH=16: There are a total of 16 primary assigned channels ASCH from rOJ to "15".

実際の発音チャンネルは、「0」乃至[15」を個別に
使用する。各発音チャンネルには異なる鍵が割当てられ
る。系列数(使用するエレメントの数)は1である。
As actual sound generation channels, "0" to "15" are used individually. A different key is assigned to each sound channel. The number of sequences (the number of elements used) is one.

ステップ101においては、N5CHの同時発音可能数
に応じて上述のように決定される1次割当てチャンネル
ASCHのいずれかに新押圧鍵を仮割当てする。なお、
以下では、記号ASCHはこのステップlo1で仮割当
て決定された1つの1次割当てチャンネルの番号を特定
しているデータとして説明する。
In step 101, a new pressed key is provisionally assigned to one of the primary assignment channels ASCH determined as described above according to the number of N5CHs that can be sounded simultaneously. In addition,
In the following, the symbol ASCH will be explained as data specifying the number of one primary allocation channel whose provisional allocation was determined in step lo1.

次のステップ102では前ステップ101で仮割当て決
定がなされたかを調べる0例えば、同時発音可能数より
も多い鍵が同時に押圧された場合は、ステップ101で
仮割当て決定がなされないことがあり、その場合はステ
ップ102はNoとなる。仮割当て決定がなされたなら
ばステップ102はYESであり、ステップ103に行
く。
In the next step 102, it is checked whether the provisional assignment was determined in the previous step 101. For example, if more keys than the number of keys that can be played simultaneously are pressed at the same time, the provisional assignment may not be determined in step 101. In this case, step 102 becomes No. If the provisional allocation decision has been made, step 102 is YES, and the process proceeds to step 103.

ステップ103ではエレメント番号iを「1」にセット
する。
In step 103, element number i is set to "1".

ステップ104では、現在選択されているボイスに関す
るi番目のエレメントの音源タイプをエレメントタイプ
テーブルETTから引出し、これをエレメントタイプバ
ッファETBUFに登録する。
In step 104, the sound source type of the i-th element regarding the currently selected voice is extracted from the element type table ETT and registered in the element type buffer ETBUF.

次のステップ105では、i番目のニレメン1〜に関す
る楽音信号の発生を割当てるAVAのチャンネルを決定
し、決定したチャンネルの番号をチャンネルバッファC
HBUFに登録する。この割当てチャンネルは、@在選
択されているボイスのボイスモードVMODEとステッ
プ101で仮割当てした1次割当てチャンネルASCH
とに基づき、第26図のような実割当てルーチンにより
決定する。この詳細については後述する。
In the next step 105, the AVA channel to which the generation of musical tone signals related to the i-th Niremen 1~ is assigned is determined, and the determined channel number is transferred to the channel buffer C.
Register with HBUF. This assigned channel is the voice mode VMODE of the currently selected voice and the primary assigned channel ASCH provisionally assigned in step 101.
Based on this, the actual allocation routine as shown in FIG. 26 is used. The details will be described later.

次のステップ106では、エレメントタイプバッファE
TBUFに記憶したi番目のエレメントのタイプがO,
l、2のいずれであるかを調べる。
In the next step 106, the element type buffer E
The type of the i-th element stored in TBUF is O,
Check whether it is 1 or 2.

FM音源であることを示す「1」ならば、ステップ10
7に行き、FM音源18におけるチャンネルバッファC
HBUFによって指示されるチャンネルに対して、i番
目のエレメントのパラメータデータとコモンデータ、及
びKCODEとTDATA内のキーコードとタッチデー
タ、及びキーオンを示すキーオン信号KONを送出する
If it is “1” indicating that it is an FM sound source, step 10
7 and channel buffer C in FM sound source 18
The parameter data and common data of the i-th element, the key code and touch data in KCODE and TDATA, and a key-on signal KON indicating key-on are sent to the channel specified by HBUF.

エレメントタイプがPCM音源であることを示す「2」
ならば、ステップ108に行き、PCM音源17におけ
るチャンネルバッファCHBUFによって指示されるチ
ャンネルに対して、i番目のエレメントのパラメータデ
ータとコモンデータ。
"2" indicates that the element type is a PCM sound source
If so, the process goes to step 108, and the parameter data and common data of the i-th element are sent to the channel indicated by the channel buffer CHBUF in the PCM sound source 17.

及びKCODEとTDATA内のキーコードとタッチデ
ータ、及びキーオンを示すキーオン信号KONを送出す
る。
Then, the key code and touch data in KCODE and TDATA, and a key-on signal KON indicating key-on are sent out.

ステップ107または108の後、ステップ109に行
く、一方、i番目のエレメントのタイプが不使用を示す
「0」ならば、ステップ107または108のようなト
ーンジェネレータのチャンネルに対するデータ送出は行
なわずに、ステップ109に行く。
After step 107 or 108, go to step 109. On the other hand, if the type of the i-th element is "0" indicating non-use, data is not sent to the tone generator channel as in step 107 or 108, and Go to step 109.

ステップ109ではiが4以上であるかを調べ、NOな
らばステップ110に行き、iを1増加してからステッ
プ104に戻り、ステップ104〜109のルーチンを
縁り返す、つまり別のエレメントに関する楽音信号の発
音割当てチャンネルを決定する処理を行なう、iが4以
上になると、このキーオンイベント処理を終了する。
In step 109, it is checked whether i is 4 or more, and if NO, the process goes to step 110, increments i by 1, then returns to step 104, and repeats the routine of steps 104 to 109, that is, a musical tone related to another element. Processing is performed to determine the channel to which the signal is to be sounded. When i becomes 4 or more, this key-on event processing is terminated.

第26図の実割当てルーチンについて説明すると、まず
ステップ111では、ボイスモードVMODEが1乃至
10のいずれであるかを調べる。
To explain the actual allocation routine of FIG. 26, first, in step 111, it is checked whether the voice mode VMODE is from 1 to 10.

同時発音可能数N5CHが1であるボイスモードl、2
.3の場合は、ステップ112に行き。
Voice mode l, 2 where the number of simultaneous sounds N5CH is 1
.. If it is 3, go to step 112.

i−1の値に対応するチャンネルを実割当てチャンネル
として決定し、チャンネルバッファCHDUFに登録す
る。従って、i=1のときは1−1=0のチャンネルに
割当て、i=2のときはi −1=1のチャンネルに割
当てる。というように。
The channel corresponding to the value of i-1 is determined as the actual allocated channel and registered in the channel buffer CHDUF. Therefore, when i=1, the channel is assigned to 1-1=0, and when i=2, the channel is assigned to i-1=1. Like that.

「0」乃至「3」のチャンネルに順次同一鍵を割当てる
。なお、使用しないエレメントに関してはステップ10
7またはlO8のようなデータ送出処理が行なわれない
ため、実質的に割当てがなされていないのと同じである
The same key is sequentially assigned to channels "0" to "3". For elements that are not used, step 10
Since data transmission processing such as 7 or 108 is not performed, it is essentially the same as no allocation being made.

同時発音可能数N5CHが8であり、かつ一種類の音源
のみが使用されるボイスモード5または7の場合は、ス
テップ113に行き、2XASCH+i−1の演算結果
に対応するチャンネルを実割当てチャンネルとして決定
し、チャンネルバッファCHBUFに登録する。従って
、成る鍵をASCH=Oに仮割当てした場合、i=1の
ときは演算結果rOJに対応するチャンネルに割当て。
If the number of simultaneous sounds N5CH is 8 and the voice mode is 5 or 7 in which only one type of sound source is used, the process goes to step 113, and the channel corresponding to the calculation result of 2XASCH+i-1 is determined as the actual assigned channel. and register it in the channel buffer CHBUF. Therefore, if the key is temporarily assigned to ASCH=O, when i=1, it is assigned to the channel corresponding to the calculation result rOJ.

i=2のときは演算結果「1」に対応するチャンネルに
割当てる。というように、rOJ及び「1」のチャンネ
ルに同一鍵を割当てる。また、別の鍵をASCH=1に
仮割当てした場合、i=1のときは演算結果「2」に対
応するチャンネルに割当て、i=2のときは「3」のチ
ャンネルに割当てる、というように、「2」及び「3」
のチャンネルに同一鍵を割当てる。
When i=2, the channel corresponding to the calculation result "1" is assigned. As such, the same key is assigned to the rOJ and "1" channels. Also, when another key is provisionally assigned to ASCH=1, when i=1, it is assigned to the channel corresponding to the calculation result "2", when i=2, it is assigned to the channel "3", and so on. , "2" and "3"
Assign the same key to each channel.

同時発音可能数N5CHが4であるボイスモード8の場
合は、ステップ114に行き、4XASCH+i−1の
演算結果に対応するチャンネルを実割当てチャンネルと
して決定し、チャンネルバッファCHBUFに登録する
。従って、成る鍵をASCH=Oに仮割当てした場合、
i=1のときは演算結果rOJに対応するチャンネルに
割当て、i=2のときは「1」のチャンネルに割当て、
i=3のときは「2」のチャンネルに割当てる。i=4
のときはr3Jのチャンネルに割当てる。というように
、「0」乃至「3」のチャンネルに同一鍵を順次割当て
る。また、別の鍵をASCH=1に仮割当てした場合、
i=1のときは演算結果「4」に対応するチャンネルに
割当て、i=2のときは「5」のチャンネルに割当てる
。というように、r4」乃至「7」のチャンネルに同一
鍵を順次割当てる。
In the case of voice mode 8 in which the number of simultaneous sounds N5CH is 4, the process goes to step 114, and the channel corresponding to the calculation result of 4XASCH+i-1 is determined as the actual allocated channel, and is registered in the channel buffer CHBUF. Therefore, if we temporarily assign the key to ASCH=O,
When i = 1, it is assigned to the channel corresponding to the calculation result rOJ, when i = 2, it is assigned to the channel "1",
When i=3, it is assigned to channel "2". i=4
In this case, it is assigned to the r3J channel. The same key is sequentially assigned to channels "0" to "3". Also, if another key is provisionally assigned to ASCH=1,
When i=1, the channel corresponding to the calculation result "4" is allocated, and when i=2, the channel corresponding to the calculation result "5" is allocated. The same key is sequentially assigned to channels "r4" to "7".

同時発音可能数N5CHが16であるボイスモード4,
6.または9の場合は、ステップ115に行き、1次割
当てチャンネルASCHの値をそのまま実割当てチャン
ネルとし、チャンネルバッファCHBUFに登録する。
Voice mode 4 where the number of simultaneous sounds N5CH is 16,
6. Or, in the case of 9, the process goes to step 115, where the value of the primary allocated channel ASCH is used as the actual allocated channel and is registered in the channel buffer CHBUF.

従って、例えば成る鍵をASCH=Oに仮割当てした場
合、iの値に無関係に、実割当てチャンネルの「0」に
該軸が割当てられる。従って、2種類の音源が使用され
るボイスモード9の場合は、例えば成る鍵をASCH=
Oに仮割当てした場合、FM音源に対応するエレメント
1の楽音信号はFM音源のチャンネル「0」に割当てら
れ、PCM音源に対応するエレメント2の楽音信号はP
CM音源の同じチャンネルrOJに割当てられる。こう
して、同一鍵が異音源の同一チャンネルに割当てられる
Therefore, if a key consisting of, for example, is provisionally assigned to ASCH=O, the axis will be assigned to "0" of the actual assigned channel, regardless of the value of i. Therefore, in the case of voice mode 9 where two types of sound sources are used, for example, the key consisting of ASCH=
If the musical tone signal of element 1 corresponding to the FM sound source is temporarily assigned to channel "0" of the FM sound source, the musical tone signal of element 2 corresponding to the PCM sound source is assigned to channel "0" of the FM sound source.
It is assigned to the same channel rOJ of the CM sound source. In this way, the same key is assigned to the same channel of different sound sources.

同時発音可能数N5CHが8であり、かつ2種類の音源
が使用されるボイスモード10の場合は、ステップ11
6に行き、2XASCH+■od((i−1)/2)の
演算結果に対応するチャンネルを実割当てチャンネルと
して決定し、チャンネルバッファCHBUFに登録する
。従って、成る鍵をASCH=Oに仮割当てした場合、
i=1のときはl1lod((i −1)/ 2) =
 Oであるから演算結果rOJに対応するチャンネルに
割当てる、i =2のときはmod((i  l)/ 
2) = 1であるから演算結果「1」に対応するチャ
ンネルに割当てる、i=3のときはw+od((i −
1)/ 2) = Oであるから演算結果rOJに対応
するチャンネルに割当てる。
In the case of voice mode 10 where the number of simultaneous sounds N5CH is 8 and two types of sound sources are used, step 11
6, the channel corresponding to the calculation result of 2XASCH + od ((i-1)/2) is determined as the actual allocated channel, and is registered in the channel buffer CHBUF. Therefore, if we temporarily assign the key to ASCH=O,
When i=1, l1lod((i −1)/2) =
O, so it is assigned to the channel corresponding to the calculation result rOJ. When i = 2, mod ((i l)/
2) Since = 1, allocate to the channel corresponding to the calculation result "1". When i = 3, w + od ((i -
Since 1)/2) = O, it is assigned to the channel corresponding to the calculation result rOJ.

i=4のときは5od((i −1)/ 2) == 
1であるから演算結果「1」に対応す・るチャンネルに
割当てる、というように、FM音源に対応するエレメン
ト1,2の楽音信号はFM音源のチャンネル「0」及び
「1」に割当て、PCM音源に対応するエレメント3.
4の楽音信号はPCM音源の同じチャンネルrOJ及び
「1」にそれぞれ割当てる。また、別の鍵をASCH=
1に仮割当てした場合は。
When i=4, 5od((i −1)/2) ==
1, so the musical sound signals of elements 1 and 2 corresponding to the FM sound source are assigned to channels "0" and "1" of the FM sound source, and the PCM Element 3 corresponding to the sound source.
Musical tone signals No. 4 are assigned to the same channels rOJ and “1” of the PCM sound source, respectively. Also, add another key to ASCH=
If provisionally assigned to 1.

FM音源に対応するエレメント1,2の楽音信号はFM
音源のチャンネル「2」及び「3」に割当て、PCM音
源に対応するエレメント3,4の楽音信号はP CM−
f[の同じチャンネル「2」及び「3」にそれぞれ割当
てる。
The musical sound signals of elements 1 and 2 corresponding to the FM sound source are FM.
Musical sound signals of elements 3 and 4 assigned to sound source channels "2" and "3" and corresponding to the PCM sound source are PCM-
Assign to the same channels "2" and "3" of f[, respectively.

麦史桝 音源の種類はPCMとFMに限らず、他のものを使用し
てもよい0例−えば、変調演算型の音源としては、FM
に限らず、振幅変調演算(AM)や窓関数演算によるも
のなどが知られており、それらを適宜使用してよい、ま
た、高調波合成方式による音源や、フィルタを使用した
減算方式音源などを使用してもよい、また、第1及び第
2の音源手段の音源方式は異なっているべきであるが、
基本原理は同じであってもそれぞれに特有の音作りがで
きる構成であればよい、また、第1及び第2の音源手段
の一方がFM音源、他方がAM音源というような組合せ
も可能である。
The type of sound source is not limited to PCM and FM, but other types may also be used.For example, as a modulation calculation type sound source, FM
In addition, methods using amplitude modulation calculation (AM) and window function calculation are known, and these may be used as appropriate.Also, sound sources using harmonic synthesis methods, subtraction method sound sources using filters, etc. may be used, and the sound source methods of the first and second sound source means should be different,
Even if the basic principle is the same, any configuration is sufficient as long as it can produce a unique sound.Also, it is possible to combine the first and second sound source means such that one of them is an FM sound source and the other is an AM sound source. .

上記実施例では、各音源における系列数(つまりエレメ
ント数)が1選択されたボイスのボイスモードによって
自動的に決まるようになっている。
In the above embodiment, the number of sequences (that is, the number of elements) in each sound source is automatically determined depending on the voice mode of one selected voice.

例えば、第9図を参照すると、ボイスモード5では、F
M音源の系列数=2.PCM音源の系列数=0である。
For example, referring to FIG. 9, in voice mode 5, F
Number of sequences of M sound sources = 2. The number of PCM sound source sequences=0.

また、ボイスモード7では、FM音源の系列数=O,P
CM音源の系列数=2である。
In addition, in voice mode 7, the number of FM sound source series = O, P
The number of series of CM sound sources=2.

また、ボイスモード10では、FM音源の系列数=2.
PCM音源の系列数=2である。しかし。
In addition, in voice mode 10, the number of FM sound source sequences = 2.
The number of PCM sound source sequences is 2. but.

このようにモードによって各音源の系列数を自動的に決
定せずに、を演奏者によって個別に任意に設定できるよ
うにしてもよい、その場合の一実施例としては、第9図
のエレメントタイプテーブルETTに類似したテーブル
を、任意に作成できるような構成とすればよい。
In this way, the number of sequences for each sound source may not be automatically determined depending on the mode, but may be set individually and arbitrarily by the performer. In this case, as an example, the element type shown in FIG. The configuration may be such that a table similar to table ETT can be created arbitrarily.

各音源内のチャンネルは時分割型に限らず、並列型であ
ってもよい。
The channels within each sound source are not limited to the time division type, but may be of the parallel type.

同時に発生可能なボイスは1つに限らず、複数としでも
よい、その場合は、チャンネル割当てをDVA (ダイ
ナミック・ボイス・アロケーション)の手法を用いて行
なうとよい。
The number of voices that can be generated at the same time is not limited to one, but may be multiple. In that case, it is preferable to allocate channels using a DVA (dynamic voice allocation) technique.

一方の音源しか使用しないボイスモードにおいては、使
用しない他方の音源を適宜の目的のために活用してよい
1例えば、使用しない音源で、シーケンサや外部から与
えられる演奏情報に対応する楽音を発生するようにして
もよい、また、使用する音源のチャンネルがオールビジ
ィのときは。
In a voice mode in which only one sound source is used, the other sound source that is not used may be used for appropriate purposes.For example, the unused sound source may generate musical tones that correspond to performance information given from a sequencer or external source. Also, if the channel of the sound source you are using is all busy.

あふれた音を本来使用しない方の音源で便宜的に発生す
るようにしてもよい。
For convenience, the overflowing sound may be generated by a sound source that is not originally used.

2つの音源の出力楽音信号を同時に発音制御するために
、上記実施例では混合回路23を設け、電気回路上にて
両音源の出力楽音信号を加算(または減算)合成するよ
うにしているが、これに限らず、両音源の出力楽音信号
を、それぞれ発音レベル制御した上で、別々のスピーカ
から発音し、空間的に加算合成するようにしてもよい。
In order to simultaneously control the output musical tone signals of the two sound sources, the mixing circuit 23 is provided in the above embodiment, and the output musical tone signals of both sound sources are added (or subtracted) and synthesized on the electric circuit. However, the present invention is not limited to this, and the output musical sound signals of both sound sources may be outputted from separate speakers after controlling their respective sounding levels, and may be spatially added and synthesized.

〔発明の効果〕〔Effect of the invention〕

以上の通り、この発明によれば、複数のエレメント音色
により1つの複合音色を構成し、各エレメント音色毎に
それに対応する部分楽音信号をどの音源手段で発生すべ
きかをエレメントタイプ情報により個別に指示すること
ができるようにしたので、異なる音源方式からなる音源
手段を様々な組合せで活用して1つの複合音色を形成す
ることができ、音作りに広がりをもたせ、より複雑かつ
多様な音作りが可能になる、という優れた効果を奏する
As described above, according to the present invention, one composite tone is composed of a plurality of element tones, and element type information individually instructs which sound source means should generate a partial tone signal corresponding to each element tone. As a result, it is possible to use sound source means consisting of different sound source methods in various combinations to form a single composite tone, which expands the scope of sound creation and allows for more complex and diverse sound creation. It has the excellent effect of making it possible.

また、前記1つの複合音色における前記エレメント音色
の1つに関して、そのパラメータ情報の内容の変更若し
くは設定を指示することができ、指示されたエレメント
音色に関する前記エレメントタイプ情報に応じて、前記
各音源手段の音源方式に適したパラメータ情報の内容の
変更若しくは設定が行われるよう自動的に制御されるの
で、音色データの編集作業の際に、どのエレメント音色
がどの音源方式によるかを、いちいち指示する必要がな
く、編集作業の操作性がよくなる、という優れた効果を
奏する。
Further, with respect to one of the element tones in the one composite tone, it is possible to instruct the content of parameter information to be changed or set, and each of the sound source means Since the content of the parameter information is automatically changed or set to suit the sound source method, it is not necessary to specify which element tone is based on which sound source method each time when editing tone data. This has the excellent effect of improving the operability of editing work.

また、音色データの編集作業を行おうとする所望の複合
音色の音色データをデータメモリがらエディツト用記憶
手段に記憶し、ここに記憶されている音色データに対し
て変更、設定等のデータ編集を施すようにしたので、エ
ディツト用記憶手段の記憶容量を余分に確保しておけば
1編集によってデータ盆を拡張したり、エレメントの音
源方式を変更したりする場合等に備えることができ、M
集作業の自由度が向上する、という優れた効果を奏する
Also, the tone data of the desired composite tone for which tone data editing work is to be performed is stored in the editing storage means from the data memory, and data editing such as changes and settings are performed on the tone data stored here. Therefore, by securing extra storage capacity in the editing storage means, you can prepare for cases such as expanding the data tray or changing the sound source method of an element by one edit.
This has the excellent effect of improving the degree of freedom in collection work.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の概要を示す機能ブロック図。 第2図はこの発明に係る楽音信号発生装置の一実施例を
適用した電子楽器の全体構成を軸承するブロック図、 第3図は第2図におけるトーンジェネレータ部の一例を
示すブロック図、 第4図は第3図におけるFM音源の一例を示すブロック
図。 第5図は第4図におけるFM演算ユニットの接続組合せ
の一例を示すatMブロック図。 第6図は第4図において第5図の接続組合せを実現する
ための各種信号のタイミングチャート。 第7図は第2図の操作パネルにおける表示部及びスイッ
チ等の一例を示す図。 第8図はボイスデータメモリとボイスエディツトバッフ
ァメモリのメモリマツプを例示する図。 第9図はエレメントタイプテーブルの内容を示す図、 第10図は各種レジスタを一覧する図。 第11図はエントリポイントテーブルの内容を示す図。 第12図は第2図においてコンピュータによって実行さ
れるメインルーチンを軸承するフローチャート。 第13図乃至第26図は第12図のメインルーチンの過
程で実行される各種のサブルーチンやスイッチオン・イ
ベントルーチンの一例を示すフローチャート。 第27図乃至第33図は第2図及、び第7図に示した表
示部における各種の表示画面の内容を例示する図、であ
る。 14・・・鍵盤回路、15・・・操作パネル、TO・・
・トーンジェネレータ部、17・・・PCM音源、18
・・・FM音源、DPY・・・表示部、FSW・・・フ
ァンクションスイッチ部。
FIG. 1 is a functional block diagram showing an overview of the invention. 2 is a block diagram illustrating the overall structure of an electronic musical instrument to which an embodiment of the musical tone signal generating device according to the present invention is applied; FIG. 3 is a block diagram showing an example of the tone generator section in FIG. 2; The figure is a block diagram showing an example of the FM sound source in FIG. 3. FIG. 5 is an atM block diagram showing an example of a connection combination of FM processing units in FIG. 4. 6 is a timing chart of various signals for realizing the connection combination of FIG. 5 in FIG. 4; FIG. FIG. 7 is a diagram showing an example of a display section, switches, etc. on the operation panel of FIG. 2. FIG. 8 is a diagram illustrating a memory map of a voice data memory and a voice edit buffer memory. FIG. 9 is a diagram showing the contents of the element type table, and FIG. 10 is a diagram listing various registers. FIG. 11 is a diagram showing the contents of the entry point table. FIG. 12 is a flowchart illustrating the main routine executed by the computer in FIG. 2; 13 to 26 are flowcharts showing examples of various subroutines and switch-on event routines executed in the course of the main routine of FIG. 12. FIGS. 27 to 33 are diagrams illustrating the contents of various display screens on the display section shown in FIGS. 2 and 7. 14...Keyboard circuit, 15...Operation panel, TO...
・Tone generator section, 17... PCM sound source, 18
...FM sound source, DPY...display section, FSW...function switch section.

Claims (5)

【特許請求の範囲】[Claims] (1)互いに異なる音源方式で楽音信号を形成する複数
の音源手段と、 複数のエレメント音色により1つの複合音色を構成し、
各エレメント音色毎にそれに対応する部分楽音信号を前
記どの音源手段で発生すべきかを指示するエレメントタ
イプ情報及び各エレメント音色毎のパラメータ情報を少
なくとも発生する音色パラメータ発生手段と、 各エレメント音色毎の前記エレメントタイプ情報に応じ
てそのエレメント音色に対応する前記パラメータ情報を
、該エレメントタイプ情報が指示する前記音源手段に分
配する分配手段と を具備し、各音源手段では、分配されたパラメータ情報
に対応するエレメント音色を持つ部分楽音信号をそれぞ
れ発生し、これらの部分楽音信号の組合せにより前記複
合音色に対応する楽音信号を発生するようにした楽音信
号発生装置。
(1) One composite tone is composed of a plurality of sound source means that form musical tone signals using mutually different sound source methods and a plurality of element tones,
timbre parameter generation means for generating at least element type information indicating which sound source means should generate a partial tone signal corresponding to each element tone, and parameter information for each element tone; and distribution means for distributing the parameter information corresponding to the element tone according to the element type information to the sound source means designated by the element type information, and each sound source means corresponds to the distributed parameter information. A musical tone signal generating device that generates partial musical tone signals each having an element tone, and generates a musical tone signal corresponding to the composite tone by combining these partial musical tone signals.
(2)前記1つの複合音色における前記エレメント音色
の1つに関して、そのパラメータ情報の内容の変更若し
くは設定を指示するエディット指示手段と、 このエディット指示手段により指示されたエレメント音
色に関する前記エレメントタイプ情報に応じて、前記各
音源手段の音源方式に適したパラメータ情報の内容の変
更若しくは設定が行われるよう制御するエディット制御
手段と を更に具えた請求項1に記載の楽音信号発生装置。
(2) Edit instruction means for instructing the change or setting of parameter information regarding one of the element tones in the one composite tone, and the element type information regarding the element tone instructed by the edit instruction means. 2. The musical tone signal generating apparatus according to claim 1, further comprising edit control means for controlling the content of parameter information to be changed or set in accordance with the sound source method of each of said sound source means.
(3)前記音色パラメータ発生手段は、複数の前記複合
音色に関して前記パラメータ情報及びエレメントタイプ
情報を含む音色データをそれぞれ記憶したデータメモリ
を含むものであり、 複数の前記複合音色のうち1つを選択して、その音色デ
ータの内容の変更若しくは設定を指示するエディット指
示手段と、 このエディット指示手段で指示された複合音色に関する
前記音色データを前記データメモリから読み出して記憶
するエディット用記憶手段と、このエディット用記憶手
段に記憶した音色データに対して変更若しくは設定を施
すエディット実行手段と を更に具えた請求項1に記載の楽音信号発生装置。
(3) The timbre parameter generation means includes a data memory storing timbre data including the parameter information and element type information regarding the plurality of composite timbres, and selects one of the plurality of composite timbres. an editing instruction means for instructing to change or set the content of the timbre data; an editing storage means for reading out and storing the timbre data regarding the composite timbre instructed by the editing instruction means from the data memory; 2. The musical tone signal generating apparatus according to claim 1, further comprising edit execution means for changing or setting the tone color data stored in the editing storage means.
(4)前記エディット用記憶手段は、1つの複合音色を
構成するエレメント音色の最大数よりも多くのエレメン
ト音色に関するパラメータ情報を記憶できる容量を持つ
ものである請求項3に記載の楽音信号発生装置。
(4) The musical tone signal generating device according to claim 3, wherein the editing storage means has a capacity capable of storing parameter information regarding more element tones than the maximum number of element tones constituting one composite tone. .
(5)前記エディット用記憶手段は、1つの複合音色を
構成するエレメント音色の最大数に等しい数だけエレメ
ント音色に関するパラメータ情報を記憶できるエリアを
、前記音源手段の数分だけ持つものである請求項4に記
載の楽音信号発生装置。
(5) The editing storage means has an area equal to the maximum number of element tones constituting one composite tone, and has as many areas as the sound source means, in which parameter information regarding the element tones can be stored. 4. The musical tone signal generating device according to 4.
JP1259416A 1989-10-04 1989-10-04 Electronic musical instrument Expired - Fee Related JP2580794B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1259416A JP2580794B2 (en) 1989-10-04 1989-10-04 Electronic musical instrument
US07/591,840 US5354948A (en) 1989-10-04 1990-10-02 Tone signal generation device for generating complex tones by combining different tone sources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1259416A JP2580794B2 (en) 1989-10-04 1989-10-04 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH03120594A true JPH03120594A (en) 1991-05-22
JP2580794B2 JP2580794B2 (en) 1997-02-12

Family

ID=17333805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1259416A Expired - Fee Related JP2580794B2 (en) 1989-10-04 1989-10-04 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2580794B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412154A (en) * 1992-01-14 1995-05-02 Yamaha Corporation Tone color control apparatus for musical tone signal producer
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPH01118898A (en) * 1987-11-02 1989-05-11 Matsushita Electric Ind Co Ltd Electronic musical instrument

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPH01118898A (en) * 1987-11-02 1989-05-11 Matsushita Electric Ind Co Ltd Electronic musical instrument

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412154A (en) * 1992-01-14 1995-05-02 Yamaha Corporation Tone color control apparatus for musical tone signal producer
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program

Also Published As

Publication number Publication date
JP2580794B2 (en) 1997-02-12

Similar Documents

Publication Publication Date Title
US4628789A (en) Tone effect imparting device
JPH0370236B2 (en)
US5354948A (en) Tone signal generation device for generating complex tones by combining different tone sources
US5596645A (en) Sound image localization control device for controlling sound image localization of plural sounds independently of each other
US5406022A (en) Method and system for producing stereophonic sound by varying the sound image in accordance with tone waveform data
US5602358A (en) Effect imparting device and electronic musical instrument incorporating same
JPH0883066A (en) Electronic musical instrument
JPH03120594A (en) Musical sound signal generator
JPH08234731A (en) Electronic musical instrument
JPH0210439B2 (en)
JP2513041B2 (en) Music signal generator
JP2538809B2 (en) Musical sound generator
JPH06202654A (en) Electronic musical instrument
JP2580793B2 (en) Music signal generator
JPH0638192B2 (en) Musical sound generator
JP2580794C (en)
JPH0584919B2 (en)
JP2701177B2 (en) Tone generator
JP3094759B2 (en) Music signal distribution processor
JPH0313994A (en) Electronic musical instrument
JP2643480B2 (en) Electronic musical instrument
JP2888712B2 (en) Music generator
JP3241832B2 (en) Music generator
JP3022170B2 (en) Control device
JPS62186293A (en) Electronic musical apparatus

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees