JPH03120593A - Musical sound signal generator - Google Patents

Musical sound signal generator

Info

Publication number
JPH03120593A
JPH03120593A JP1259414A JP25941489A JPH03120593A JP H03120593 A JPH03120593 A JP H03120593A JP 1259414 A JP1259414 A JP 1259414A JP 25941489 A JP25941489 A JP 25941489A JP H03120593 A JPH03120593 A JP H03120593A
Authority
JP
Japan
Prior art keywords
sound source
voice
musical tone
data
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1259414A
Other languages
Japanese (ja)
Other versions
JP2513041B2 (en
Inventor
Hiroyuki Toda
裕行 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP1259414A priority Critical patent/JP2513041B2/en
Priority to US07/591,840 priority patent/US5354948A/en
Publication of JPH03120593A publication Critical patent/JPH03120593A/en
Application granted granted Critical
Publication of JP2513041B2 publication Critical patent/JP2513041B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To realize more complicated and diverse sound generation by specifying and allocating the number of musical sound signals to be emitted simultaneously to first and second sound source means, and generating the musical sound signal at every channel of each sound source means. CONSTITUTION:A sound source and system number combining information generating means generates sound source and system number combination information consisting of information to specify the numbers (a) and (b) of musical sound signals to be generated simultaneously, respectively at first and second sound sources corresponding to common sounding instruction information. An allocation means allocates the occurrence of the musical sound signal to (a) channels out of N channels of the first sound source and (b) channels out of M channels of the second sound source means corresponding to the sounding instruction information and the combination information, and generates the musical sound signal at every channel, respectively. Therefore, by arbitrarily instructing the numbers (a) and (b) of musical sound signals to be emitted simultaneously, and performing an appropriate allocation processing corresponding to the above instruction, more complicated and diverse sound generation can be performed by generating the various kinds of combination of two different sound sources.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、電子楽器や音源モジュール等において利用
される楽音信号発生装置に関し、特に、音源方式が異な
る複数の音源を具備し、楽音発生のために使用する音源
の組合せを任意に選択できるようにしたものに関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a musical tone signal generating device used in electronic musical instruments, sound source modules, etc., and in particular, it is equipped with a plurality of sound sources with different sound source methods, and is capable of generating musical sounds. This invention relates to a device that allows the user to arbitrarily select a combination of sound sources to be used.

〔従来の技術〕[Conventional technology]

音源方式が異なる複数の音源回路を具えた楽音信号発生
装置の従来例としては特開昭59−168493号に示
されたものがある。そこにおいては、自然楽器音等から
サンプリングした複数周期波形を記憶したメモリを使用
し、このメ・モリから波形を読み出すことにより楽音信
号を発生するいわばPCM音源と、周波数変調演算等の
波形演算を実行することにより楽音信号を発生するいわ
ば波形演算系音源とを具備し、押鍵に応じて両音源から
発生した波形信号を加算することにより最終的な楽音信
号を合成するようにした電子楽器が開示されている。
A conventional example of a musical tone signal generating apparatus including a plurality of tone generator circuits using different tone generator systems is disclosed in Japanese Patent Application Laid-open No. 168493/1983. This uses a memory that stores multi-period waveforms sampled from natural musical instrument sounds, etc., and uses a so-called PCM sound source that generates musical tone signals by reading the waveforms from this memory, and waveform calculations such as frequency modulation calculations. An electronic musical instrument is provided with a so-called waveform calculation type sound source that generates a musical sound signal by executing the operation, and synthesizes a final musical sound signal by adding the waveform signals generated from both sound sources in response to a key press. Disclosed.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、上述のような従来の電子楽器は、異なる2つの
音源で発生した2つの楽音波形信号を単に加算合成する
だけのものであったため、音作りに制限があった。
However, the conventional electronic musical instruments as described above simply add and synthesize two musical waveform signals generated by two different sound sources, and therefore have limitations in sound creation.

この発明は、異なる複数の音源を様々な組合せで活用す
ることにより、音作りに広がりをもたせ。
This invention expands the scope of sound creation by utilizing different sound sources in various combinations.

より複雑かつ多様な音作りを可能にした楽音信号発生装
置を提供しようとするものである。
The present invention aims to provide a musical tone signal generating device that enables more complex and diverse sound creation.

〔課題を解決するための手段〕[Means to solve the problem]

この発明に係る楽音信号発生装置は、N個のチャンネル
で楽音信号を発生可能な第1の音源手段と、M個のチャ
ンネルで楽音信号を発生可能な、前記第1の音源手段と
は異なる音源方式からなる第2の音源手段と、前記第1
の音源手段において共通の発音指示情報に対応して同時
に発生すべき楽音信号の数aと第2の音源手段において
該共通の発音指示情報に対応して同時に発生すべき楽音
信号の数すとを夫々特定する情報からなる音源・系列数
組合せ情報を発生する音源・系列数組合せ情報発生手段
と、発音指示情報と前記音源・系列数組合せ情報に応じ
て、前記第1の音源手段におけるN個のチャンネルのう
ち前@a個のチャンネルに該発音指示情報に対応する楽
音信号の発生を割当て、かつ、前記第2の音源手段にお
けるM個のチャンネルのうち前記す個のチャンネルに該
発音指示情報に対応する楽音信号の発生を割当てる割当
て手段とを具え、この割当てに従って前記各音源手段の
各チャンネルでそれぞれ楽音信号を発生するようにした
ものである。二九を図により示すと第1図のようである
The musical sound signal generating device according to the present invention includes a first sound source means capable of generating musical sound signals on N channels, and a sound source different from the first sound source means capable of generating musical sound signals on M channels. a second sound source means consisting of a second sound source means;
The number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the sound source means and the number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the second sound source means. sound source/sequence number combination information generating means for generating sound source/sequence number combination information consisting of information specifying each; The generation of musical tone signals corresponding to the sound generation instruction information is assigned to the previous @a channels among the channels, and the generation of musical tone signals corresponding to the sound generation instruction information is assigned to the above channels among the M channels in the second sound source means. The apparatus further includes an allocating means for allocating generation of corresponding musical tone signals, and musical tone signals are generated in each channel of each sound source means in accordance with this assignment. The number 29 is illustrated in Figure 1.

〔作 用〕 第1の音源手段と第2の音源手段は異なる音源方式から
なるものであり、例えば、一方がPCM音源方式である
とすると、他方がFM音源方式のようなものである。ま
た、それぞれの音源手段は。
[Function] The first sound source means and the second sound source means are of different sound source systems; for example, if one is a PCM sound source system, the other is an FM sound source system. Also, each sound source means.

それぞれに固有の楽音発生チャンネルN及びMを有して
おり、それぞれの関係はN=Mであってもよいし、また
N1Mであってもよい。
Each of them has its own musical sound generation channels N and M, and the relationship between them may be N=M or N1M.

音源・系列数組合せ情報発生手徘は、第1の音源手段に
おいて共通の発音指示情報に対応して同時に発生すべき
楽音信号の数(つまり系列数)aと、第2の音源手段に
おいて該共通の発音指示情報に対応して同時に発生すべ
き楽音信号の数(つまり系列数)bと、を夫々特定する
情報からなる音源・系列数組合せ情報を発生する。
The sound source/sequence number combination information generation means includes the number a of musical tone signals (that is, the number of sequences) to be generated simultaneously in correspondence with the common pronunciation instruction information in the first sound source means, and the number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the second sound source means. The sound source/number of series combination information is generated, which includes information specifying the number of musical tone signals (that is, the number of series) b to be generated simultaneously in response to the sound generation instruction information.

この音源・系列数組合せ情報におけるaとをの特定の仕
方はどのような形態でもよい0例えば。
A and a in this sound source/sequence number combination information may be specified in any manner, for example, 0.

数値aとbを直接指示していてもよいし、あるいは数a
とをの種々の組合せに対応する複数のモードのうちいず
れか1つのモードを指示することにより間接的に数値a
とbを特定するようになっていてもよい、また1選択可
能な各種音色に対応して前記aとをの組合せを予め準備
しておき1選択された音色に対応して所定の該aとbを
特定するようにしてもよい。
The numbers a and b may be indicated directly, or the number a
By instructing any one mode among a plurality of modes corresponding to various combinations of and , the numerical value a can be indirectly
Alternatively, combinations of a and b may be prepared in advance in correspondence with various selectable tones, and a predetermined combination of a and b may be specified in correspondence with the selected tone. b may be specified.

なお、a=bであってもよいし、またa#bであっても
よく、またaまたはbは0であってもよく、1であって
もよく、勿論2以上であってもよい、しかし、a及びb
はそれぞれの音源手段の最大チャンネル数N及びMを越
えることがないのは勿論である0例えば、a=0のとき
は1発音指示情報に対応して第1の音源手段において発
生すべき楽音信号の数が0であること、つまりこの第1
の音源手段を利用しないことを意味する。また、a=1
のときは1発音指示情報に対応して第1の音源手段にお
いて発生すべき楽音信号の数が1であること、つまり系
列数が1であることを意味する。また、a=2以上のと
きは、共通の発音指示情報に対応して第1の音源手段に
おいて発生すべき楽音信号の数が2以上であること、つ
まり多系列で楽音信号を発生することを意味する。
Note that a=b may be, or a#b may be, and a or b may be 0, 1, or of course 2 or more. However, a and b
Of course, does not exceed the maximum number of channels N and M of each sound source means. is 0, that is, this first
This means not using any sound source means. Also, a=1
When , it means that the number of musical tone signals to be generated in the first sound source means in response to one sound generation instruction information is one, that is, the number of sequences is one. Further, when a=2 or more, the number of musical tone signals to be generated in the first sound source means in response to the common sound generation instruction information is 2 or more, that is, musical tone signals are generated in multiple series. means.

なお1発音指示情報とは、この楽音信号発生装置に対し
て楽音信号の発生を指示する情報のことであり、典型的
には、鍵盤における押鍵に対応して与えられるキーコー
ド等の音高指定情報である。
Note that 1. The sound generation instruction information is information that instructs the musical tone signal generation device to generate a musical tone signal, and typically, the tone generation instruction information is information that instructs the musical tone signal generation device to generate a musical tone signal. This is specified information.

しかし、音高指定情報に限らず、リズム音等音高指定の
必要のない楽音の発生の場合には1発音タイミングのみ
を指示する情報であってもよい。
However, the information is not limited to pitch designation information, and may be information that instructs only one sound generation timing in the case of generation of musical tones such as rhythm tones that do not require pitch designation.

割当て手段では1発音指示情報と前記音源・系列数組合
せ情報に応じて、第1の音源手段におけるN個のチャン
ネルのうちa個のチャンネルに該発音指示情報に対応す
る楽音信号の発生を割当て。
The allocating means allocates the generation of musical tone signals corresponding to the sound generation instruction information to a channels among the N channels in the first sound source means in accordance with the one sound generation instruction information and the sound source/sequence number combination information.

かつ、前記第2の音源手段におけるM個のチャンネルの
うち前記す個のチャンネルに該発音指示情報に対応する
楽音信号の発生を割当てる。この割当てに従って各音源
手段の各チャンネルでそれぞれ楽音信号を発生する。
Further, generation of musical tone signals corresponding to the sound generation instruction information is assigned to the M channels of the second sound source means. Musical tone signals are generated in each channel of each sound source means according to this assignment.

従って、a、bを所望の値に特定し1例えば成る鍵を押
圧して所望の音高を指定することにより発音指示を行な
うと、該押圧鍵に対応する楽音信号の発生が、第1の音
源手段におけるN個のチャンネルのうちa個のチャンネ
ルに割当てられ、また、第2の音源手段におけるM個の
チャンネルのうちb個のチャンネルに割当てられる。こ
れにより、該押圧鍵に対応する楽音信号は、第1の音源
手段ではa系列で発生され、第2の音源手段ではb系列
で発生される。最終的に、第1の音源手段の発生楽音信
号と第2の音源手段の発生楽音信号とを加算合成して、
1つの押圧鍵に対応する楽音信号が出されるようになっ
ていてよい、つまり、最終的な楽音信号は、第1の音源
手段で発生したa個の特色を持つ部分的楽音信号(例え
ばこれをエレメントという)と第2の音源手段で発生し
たb個の特色を持つ部分的楽音信号(つまりエレメント
)を合成したものである。
Therefore, if you specify desired values for a and b and instruct a sound by pressing a key consisting of, for example, 1 and specifying a desired pitch, the generation of the musical tone signal corresponding to the pressed key will be the first one. It is assigned to a channels out of N channels in the sound source means, and it is assigned to b channels out of M channels in the second sound source means. Thereby, the musical tone signal corresponding to the pressed key is generated in the a series by the first sound source means, and in the b series by the second sound source means. Finally, the musical tone signal generated by the first sound source means and the musical tone signal generated by the second sound source means are added and synthesized,
A musical tone signal corresponding to one pressed key may be output, that is, the final musical tone signal may be a partial musical tone signal having a number of characteristics generated by the first sound source means (for example, element) and a partial musical tone signal (namely, element) having b characteristics generated by the second sound source means.

それぞれの音源手段におけるエレメント数つまりaとb
は、任意に設定若しくは指定可能である。
The number of elements in each sound source means, that is, a and b
can be arbitrarily set or specified.

割当て手段では、その都度のaとbに応じて、適切な割
当て処理を行なう、典型的には、aとをの変動に応じて
、各音源手段における異なる発音指示情報に対応する同
時発音可能数が変動する。すなわち、概して、−チャン
ネル数N&aで除した商。
The allocation means performs appropriate allocation processing depending on a and b each time.Typically, according to variations in a and b, the number of simultaneous pronunciations corresponding to different pronunciation instruction information in each sound source means is determined. changes. That is, in general, - the quotient divided by the number of channels N&a.

及びMをbで除した商が、各音源手段における異なる発
音指示情報に対応する同時発音可能数として決定され、
決定された同時発音可能数に従って割当てを行なう0例
えば、N=16.a=4で複音発生する場合、最大4音
のポリフォニック楽器として割当て処理を行ない、aの
値が変動すればポリフォニック数も変動し、それに応じ
た割当て処理を行なう。
and the quotient of M divided by b is determined as the number of possible simultaneous pronunciations corresponding to different pronunciation instruction information in each sound source means,
Assignment is performed according to the determined number of simultaneous sounds. For example, N=16. When multiple tones are generated when a=4, assignment processing is performed as a polyphonic instrument with a maximum of four notes.If the value of a changes, the polyphonic number also changes, and assignment processing is performed accordingly.

このように、第1の音源手段において共通の発音指示情
報に対応して同時に発生すべき楽音信号の数aと第2の
音源手段において該共通の発音指示情報に対応して同時
に発生すべき楽音信号の数すとを夫々特定する音源・系
列数組合せ情報を発生するように構成することにより、
これらのaとbをそれぞれ任意に指定できるようにし、
また、これに応じて適切な割当て処理を行なうようにし
たことにより、2つの異なる音源を様々な粗金せで活用
することができ、より複雑かつ多様な音作りを行なうこ
とができるようになる。
In this way, the number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the first sound source means, and the number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the second sound source means. By configuring the system to generate sound source/sequence number combination information that specifies each number of signals,
These a and b can be specified arbitrarily,
In addition, by performing appropriate allocation processing according to this, it is possible to utilize two different sound sources in various ways, making it possible to create more complex and diverse sounds. .

〔実施例〕〔Example〕

以下、添付図面を参照してこの発明の一実施例を詳細に
説明しよう。
Hereinafter, one embodiment of the present invention will be described in detail with reference to the accompanying drawings.

倉止皇處災l 第2図はこの発明に係る楽音信号発生装置を適用した電
子楽優の一例を示すハード構成ブロック図であり、この
例では、中央処理ユニット(CPU)10.プログラム
及びデータROM11、データ及びワーキングRAM1
2を含むマイクロコンピュータの制御の下で各種処理が
実行される。
Figure 2 is a block diagram of the hardware configuration of an example of an electronic music player to which the musical tone signal generating device according to the present invention is applied.In this example, a central processing unit (CPU) 10. Program and data ROM11, data and working RAM1
Various processes are executed under the control of microcomputers including 2.

データ及びアドレスバス13を介して鍵盤回路14、操
作パネル15等その他各種回路がマイクロコンピュータ
に接続されている。
A keyboard circuit 14, an operation panel 15, and other various circuits are connected to the microcomputer via a data and address bus 13.

鍵盤回路工4は1発生すべき楽音の音高を指定するため
の複数の鍵を具えた鍵盤に対応して設けられており、該
鍵盤の各軸に対応するキースイッチを含む回路である。
The keyboard circuitry 4 is provided corresponding to a keyboard having a plurality of keys for specifying the pitch of a musical tone to be generated, and is a circuit including key switches corresponding to each axis of the keyboard.

この鍵盤回路14は各キースイッチのオン・オフを検出
するキースキャン回路を含んでいてもよいし、若しくは
、キースキャンはマイクロコンピュータによって行なう
ようになっていてもよい。
The keyboard circuit 14 may include a key scan circuit for detecting whether each key switch is on or off, or the key scan may be performed by a microcomputer.

操作パネル15は、音色、音量、音高、効果等を選択・
設定・制御するための各種操作子を含むもので、ある、
各種の選択・設定処理を行なうために表示部DPY及び
ファンクションスイッチ部FSWが設けられている。
The operation panel 15 allows you to select and select tone, volume, pitch, effect, etc.
It includes various operators for setting and controlling.
A display section DPY and a function switch section FSW are provided to perform various selection and setting processes.

演奏コントローラ16は、演奏中において楽音の音色、
音量、音高等を制御するための操作子であり、例えば制
御ホイールや制御ペダルあるいはプレスコントローラな
どを含む。
The performance controller 16 controls the tone of the musical tone during the performance.
It is an operator for controlling volume and pitch, and includes, for example, a control wheel, a control pedal, or a press controller.

トーンジェネレータ部TGは、2つの異なる音源回路、
例えばPCM音源17とFM音源18を含んでおり、鍵
盤で押圧された鍵に対応する音高の楽音信号を両音源1
7.18で夫々同時に発生することが可能である。各音
源17.18はそれぞれN個及びM個の楽音発生チャン
ネルを有している。以下、この実施例では、N=M=1
6であるとし、各音源17.18ではそれぞれ16チヤ
ンネル時分割で楽音信号の発生が可能であるとする′。
The tone generator section TG has two different sound source circuits,
For example, it includes a PCM sound source 17 and an FM sound source 18, and both sound sources 1 and 1 output musical tone signals of pitches corresponding to keys pressed on the keyboard.
7.18 each can occur simultaneously. Each sound source 17, 18 has N and M tone generation channels, respectively. Hereinafter, in this example, N=M=1
6, and each of the sound sources 17 and 18 is capable of generating musical tone signals in 16 channels time-divisionally.

鍵盤回路、14におけるキーオン・キーオフの検出、操
作パネル15における各種操作子の操作状態の検出、演
奏コントローラ16の操作状態の検出、及び押圧鍵に対
応する楽音の発音割当て処理等の各種処理がマイクロコ
ンピュータの制御のもとで行なわれ、必要なデータがバ
ス13を介してトーンジェネレータ部TOに与えられる
。トーンジェネレータ部TGでは与えられたデータに基
づき楽音信号を発生し、この楽音信号はサウンドシステ
ム19を経由して空間的に発音される。
Various processes such as key-on/key-off detection in the keyboard circuit 14, detection of the operation status of various operators on the operation panel 15, detection of the operation status of the performance controller 16, and processing for assigning musical tones corresponding to pressed keys are performed by the microprocessor. This is carried out under the control of a computer, and necessary data is provided to the tone generator section TO via bus 13. The tone generator section TG generates a musical tone signal based on the supplied data, and this musical tone signal is spatially produced via the sound system 19.

トーンジェネレータ TGの− 第3図を参照してトーンジェネレータ部TGの一例につ
き説明すると、PCM音源17は各種の音色に対応する
楽音波形をそれぞれ予め記憶した波形メモリ20を含ん
でおり、基本的には、発生すべき楽音の音高に対応して
変化するアドレスデータに応じて該波形メモリ2oから
楽音波形サンプル値データを順次読み出すことにより楽
音信号を発生する「波形メモリ読み出し方式」からなる
音源方式を採用するものである。この場合、波形メモリ
20に記憶する楽音波形は1周期波形のみであってもよ
いが、複数周期波形である方が音質の向上が図れるので
好ましい、複数周期波形を波形メモリに記憶しこれを読
み出す方式は1例えば特開昭52−121313号に示
されたように発音開始から終了までの全波形を記憶しこ
れを1回読み出す方式、あるいは特開昭58−1423
96号に示されたようにアタック部の複数周期波形と持
続部の1又は複数周期波形を記憶し、アタック部の波形
を1回読み出した後持続部の波形を繰返し読み出す方式
、あるいは特開昭60−147793号に示されたよう
に離散的にサンプリングした複数の波形を記憶し、読み
出すべき波形を時間的に順次切換えて指定し、指定され
た波形を繰返し読み出す方式、など種々の方式が公知で
あり、これらを適宜採用してよい、この実施例では1例
えばアタック部の複数周期波形を1回読み出した後持続
部の波形を繰返し読み出す方式を採用しているものと仮
定する。
Tone Generator TG - An example of the tone generator section TG will be explained with reference to FIG. This is a sound source method consisting of a "waveform memory read method" that generates a musical tone signal by sequentially reading out musical waveform sample value data from the waveform memory 2o in accordance with address data that changes in accordance with the pitch of the musical tone to be generated. This will be adopted. In this case, the musical sound waveform stored in the waveform memory 20 may be a single-period waveform, but it is preferable to use a multi-period waveform because the sound quality can be improved. A multi-period waveform is stored in the waveform memory and read out. There are two methods: 1, for example, as shown in JP-A No. 52-121313, the entire waveform from the start of sound generation to the end is stored and read out once, or JP-A-58-1423.
96, a method in which a multi-cycle waveform of an attack part and one or more cycle waveforms of a sustaining part is stored, and the waveform of the sustaining part is repeatedly read out after reading the waveform of the attack part once, or Various methods are known, such as a method of storing a plurality of discretely sampled waveforms, sequentially switching and specifying the waveforms to be read out in time, and repeatedly reading out the specified waveforms, as shown in No. 60-147793. In this embodiment, it is assumed that a method is adopted in which, for example, the multi-cycle waveform of the attack part is read out once and then the waveform of the continuation part is read out repeatedly.

FM音源18は、楽音の音高に対応する所望の周波数で
変化する位相角パラメータデータとして所定の周波数変
調演算を実行して楽音波形サンプル値データを求める。
The FM sound source 18 performs a predetermined frequency modulation calculation on the phase angle parameter data that changes at a desired frequency corresponding to the pitch of the musical tone to obtain musical waveform sample value data.

いわゆるFMii源方式を採用するものである。The so-called FMii source method is adopted.

各音源17.18は、前述のように、それぞれ16チヤ
ンネル時分割で最大16個の楽音信号を発生することが
可能であり、また1発生楽音信号に対して振幅エンベロ
ープを付与する周知の機能も具備しているものとする。
As mentioned above, each of the sound sources 17 and 18 is capable of generating up to 16 musical tone signals in a 16-channel time-sharing manner, and also has the well-known function of imparting an amplitude envelope to a single generated musical tone signal. It shall be equipped.

PCM音[17の各チャンネルに割当てられた鍵のキー
コードKCと該軸の押鍵又は離鍵を示すキーオン信号K
ON、及び音色、音量、音高等を設定・制御するための
各種の制御データが、マイクロコンピュータからパス1
3を介してPCM音源制御レジスタ21に与えられる。
PCM sound [Key code KC of the key assigned to each channel of 17 and key-on signal K indicating key press or release of the corresponding axis
ON, and various control data for setting and controlling tone, volume, and tone height, are sent from the microcomputer to path 1.
3 to the PCM sound source control register 21.

PCM音源17では、レジスタ21に記憶されたこれら
のデータに基づき、各チャンネルに割当てられた音の楽
音信号をそれぞれ発生する。
Based on these data stored in the register 21, the PCM sound source 17 generates musical tone signals of the tones assigned to each channel.

同様に、FM音源18の各チャンネルに割当てられた鍵
のキーコードKCと該軸の押鍵又は離鍵を示すキーオン
信号KON、及び音色、音量、音高等を設定・制御する
ための各種の制御データが。
Similarly, the key code KC of the key assigned to each channel of the FM sound source 18, the key-on signal KON indicating the key press or release of the corresponding axis, and various controls for setting and controlling the tone, volume, and pitch. The data is.

マイクロコンピュータからパス13を介してFM音源制
御レジスタ22に与えられる。FM音源18では、レジ
スタ22に記憶されたこれらのデータに基づき、各チャ
ンネルに割当てられた音の楽音信号をそれぞれ発生する
The signal is applied from the microcomputer to the FM sound source control register 22 via a path 13. Based on these data stored in the register 22, the FM sound source 18 generates musical tone signals of the tones assigned to each channel.

周知のように、FM音源方式においては、基本的には、
搬送波信号と変調波信号をそれぞれ発生し、搬送波信号
を変調波信号によって変調することにより、所望のスペ
クトル構成を持つ楽音信号を合成する。従って、FM音
源18においては。
As is well known, in the FM sound source system, basically,
A carrier wave signal and a modulated wave signal are respectively generated, and the carrier wave signal is modulated by the modulated wave signal, thereby synthesizing a musical tone signal having a desired spectral configuration. Therefore, in the FM sound source 18.

搬送波関数と変調波関数を内部で発生することができる
ようになっている。
The carrier wave function and modulation wave function can be generated internally.

この実施例においては、FM音源18において変調波関
数を内部で発生することができるのみならず、モジュレ
ータ入力端子MDTを介して外部から変調波信号を導入
できるようにもなっており。
In this embodiment, not only can a modulated wave function be generated internally in the FM sound source 18, but also a modulated wave signal can be introduced from the outside via the modulator input terminal MDT.

PCM音源17で発生した楽音信号をこのFM音源18
のモジュレータ入力端子MDTに入力する構成となって
いる。モジュレータ入力端子MDTに入力されたPCM
音源17の出力楽音信号は。
The musical tone signal generated by the PCM sound source 17 is transferred to this FM sound source 18.
The configuration is such that the signal is input to the modulator input terminal MDT of. PCM input to modulator input terminal MDT
The output musical tone signal of the sound source 17 is as follows.

FM音源18に内部において適宜レベル制御され、また
、該PCM音源出力楽音信号を変調波信号として使用す
るか否かが制御される。
The level is appropriately controlled within the FM sound source 18, and whether or not the musical sound signal output from the PCM sound source is used as a modulated wave signal is controlled.

混合回路23はPCM音源17で発生した楽音信号とF
M音源18で発生した楽音信号とを混合するためのもの
であり、その混合の制御は混合制御レジスタ24から与
えられる制御データによって行なわれる。この混合制御
データは1選択された音色等に応じて、マイクロコンピ
ュータからパス13を介して与えられる。なお、この混
合演算は加算に限らず、減算であってもよい、なお、P
CM音源17とFM音源18における16チヤンネルの
時分割タイミングは同期しており、同じ押圧鍵に対応す
る楽音信号をPCM音源17とFM音源18において同
時に発生する場合は、PCM音源17とFM音源18に
おいて同じタイミングのチャンネルに該押圧鍵に対応す
る楽音信号を割り当てるようにする。
The mixing circuit 23 mixes the musical tone signal generated by the PCM sound source 17 and the F
It is used to mix the musical tone signal generated by the M sound source 18, and the mixing is controlled by control data given from the mixing control register 24. This mixing control data is given from the microcomputer via a path 13 in accordance with the selected timbre, etc. Note that this mixed operation is not limited to addition, but may also be subtraction.
The time division timings of the 16 channels in the CM sound source 17 and the FM sound source 18 are synchronized, and when musical tone signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and FM sound source 18, the PCM sound source 17 and the FM sound source 18 Then, the musical tone signal corresponding to the pressed key is assigned to the channel at the same timing.

混合回路23の出力は効果付与回路25に与えられ、リ
バーブ効果やパン(PAN)効果など各種効果が必要に
応じて付与される。効果付与を制御する制御データは、
マイクロコンピュータからバス13を介して効果制御レ
ジスタ26に与えられ、これが効果付与回路25に与え
られる。
The output of the mixing circuit 23 is applied to an effect applying circuit 25, and various effects such as a reverb effect and a panning (PAN) effect are applied as necessary. The control data that controls the effect addition is
The signal is applied from the microcomputer to the effect control register 26 via the bus 13, and this is applied to the effect applying circuit 25.

効果付与回路25から出力された楽音信号は。The musical tone signal output from the effect adding circuit 25 is as follows.

ディジタル/アナログ変換器27に与えられ、アナログ
信号に変換された後、サウンドシステム19に向けて送
出される。なお、チャンネル時分割状態を解除するため
に各チャンネルの楽音信号をアキュムレートするアキュ
ムレータが適宜設けられるが、特に図示しない、このア
キュムレータはディジタル/アナログ変換器27の前段
、例えば混合回路23の内部等、に設けるとよい。
The signal is applied to a digital/analog converter 27, converted into an analog signal, and then sent out to the sound system 19. Incidentally, in order to cancel the channel time division state, an accumulator for accumulating musical tone signals of each channel is appropriately provided, but this accumulator is not particularly shown in the figure, but is installed at a stage before the digital/analog converter 27, for example, inside the mixing circuit 23, etc. It is recommended to set it in .

FMの 次に第4図を参照してFMM源18の内部構成の一例に
つき説明すると、この例のFMM源18においては1音
につき6個の演算ユニットOPI〜OP6を使用してF
M演算を行ない、楽音信号を合成する。各演算ユニット
021〜026間の接続態様を選択的に切り換えること
により、FM演算のアルゴリズムを選択し、所望の音色
の楽音合成を行なう、第4図の例では、ハード的には1
個の演算ユニットoPを具備し、これを6タイムスロツ
トで時分割使用することにより6個の演算ユニットOP
I〜OP6として機能させている。
Next to FM, an example of the internal configuration of the FMM source 18 will be explained with reference to FIG.
M calculations are performed to synthesize musical tone signals. In the example shown in FIG. 4, in which the FM calculation algorithm is selected by selectively switching the connection mode between each calculation unit 021 to 026, and musical tone synthesis of a desired tone is performed.
Equipped with 6 arithmetic units oP, which are time-divisionally used in 6 time slots, 6 arithmetic units OP are provided.
It is functioning as I to OP6.

位相データ発生回路28は、各チャンネルに割当てられ
た鍵のキーコードKCとキーオン信号KONを入力し、
該キーコードKCに対応する位相データP1〜P6を各
演算ユニットOPI〜OP6に対応して1チヤンネルに
つき6タイムスロツト時分割でかつ16チヤンネル時分
割で発生する。
The phase data generation circuit 28 inputs the key code KC of the key assigned to each channel and the key-on signal KON,
Phase data P1 to P6 corresponding to the key code KC is generated in time division for 6 time slots per channel and time division for 16 channels in correspondence to each arithmetic unit OPI to OP6.

エンベロープ発生回路29はキーオン信号KONに基づ
き各演算ユニットOPl〜OP6に対応するエンベロー
プレベルデータELL〜EL6を1チヤンネルにつき6
タイムスロツト時分割でかつ16チヤンネル時分割で発
生する。
The envelope generation circuit 29 generates envelope level data ELL to EL6 corresponding to each arithmetic unit OPl to OP6 based on the key-on signal KON, six per channel.
This occurs by time slot time division and 16 channel time division.

選択された音色等に応じた種々のパラメータデータ若し
くは制御データは、バス13を介して制御レジスタ22
(第3図)に与えられ、該制御レジスタ22からFMM
源18内の各回路(位相データ発生回路28.エンベロ
ープ発生回路29゜演算ユニットOP、その他の回路)
に対して、各演算ユニットOPI〜OP6のタイムスロ
ットに対応して時分割的に(及び必要に応じて各チャン
ネル毎に時分割的に)、供給される。これらのパラメー
タにより1位相データPL−P6の係数を制御したり1
.エンベロープレベルデータELL〜EL6の発生態様
(つまりエンベロープ波形)を制御したり、FM演算の
態様を制御する0例えば、演算ユニットOP1〜OP6
を複数系列に分けて並列的に配列し、各系列の出力を加
算するようにした接続態様が選択可能であるとすると、
その加算系列数に応じて音量レベルを補正するためのレ
ベル補正データLCがそのようなFM演演算制御バスメ
ータ1つに含まれる。また、自己の演算ユニットの出力
信号を変調波信号としてセルフフィートイ(ツクする際
のフィードバックレベルを設定するフィードバックレベ
ルデータFLI〜FL6もそのようなFMM算制御パラ
メータに含まれる。
Various parameter data or control data corresponding to the selected tone etc. are sent to the control register 22 via the bus 13.
(FIG. 3) from the control register 22 to the FMM
Each circuit in the source 18 (phase data generation circuit 28, envelope generation circuit 29° arithmetic unit OP, other circuits)
is supplied in a time-division manner (and in a time-division manner for each channel as necessary) corresponding to the time slots of each arithmetic unit OPI to OP6. These parameters control the coefficients of 1 phase data PL-P6,
.. For example, arithmetic units OP1 to OP6 control the manner in which envelope level data ELL to EL6 are generated (that is, the envelope waveform) and the manner of FM calculation.
Assuming that it is possible to select a connection mode in which the is divided into multiple series and arranged in parallel, and the outputs of each series are added,
Level correction data LC for correcting the volume level according to the number of addition series is included in one such FM operation control bus meter. Also included in such FMM calculation control parameters are feedback level data FLI to FL6 that set the feedback level when self-feeding the output signal of its own calculation unit as a modulated wave signal.

また、各演算ユニットOPI〜OP6の接続態様を設定
する制御信号もそのようなFMM算制御パラメータに含
まれる。更に、PCM音源17の楽音信号を変調信号と
して各オペレータOPI〜OP6で使用する際にそのレ
ベルを制御する外部入力レベル制御データEXTLI〜
EXTL6もそのようなFMM算制御パラメータに含ま
れる。
Also included in such FMM calculation control parameters are control signals that set the connection mode of each of the arithmetic units OPI to OP6. Furthermore, external input level control data EXTLI~ controls the level when the musical tone signal of the PCM sound source 17 is used as a modulation signal by each operator OPI~OP6.
EXTL6 is also included in such FMM calculation control parameters.

演算ユニットOPは、入力された位相データP1−P6
を変調するための加算器31と、正弦波のサンプル値を
対数表現データ形式で記憶した正弦波テーブル32と、
振幅レベル制御用の加算器33と、対数/リニア変換回
路34と、変調信号を加算するための加算器35を含ん
でいる。加算器31は、各演算ユニットOPI〜OP6
のタイムスロットに対応して時分割的に与え、られる位
相データP1〜P6と加算器35から与えられる波形信
号(すなわち変調信号)とを加算し1位相変調を行うも
のである。加算器33は、加算器31の出力に応じて正
弦波テーブル32から読み出された対数表現の正弦波サ
ンプル値データにエンベロープレベルデータELI〜E
L6及びレベル補正データLCを加算するものである。
The arithmetic unit OP receives input phase data P1-P6.
an adder 31 for modulating the sine wave; a sine wave table 32 storing sample values of the sine wave in logarithmic representation data format;
It includes an adder 33 for amplitude level control, a logarithmic/linear conversion circuit 34, and an adder 35 for adding modulation signals. The adder 31 includes each operation unit OPI to OP6.
One phase modulation is performed by adding the phase data P1 to P6 provided in a time-division manner corresponding to the time slots and the waveform signal (ie, modulation signal) provided from the adder 35. The adder 33 adds envelope level data ELI to ELI to the logarithmically expressed sine wave sample value data read from the sine wave table 32 in accordance with the output of the adder 31.
This is to add L6 and level correction data LC.

データEL1〜EL6.LCも対数表現形式で与えるも
のとし、加算器33における対数同士の加算により実質
的に振幅係数の乗算を行う、対数/リニア変換回路34
は、対数表現の加算器33の出力をリニア表現のデータ
に変換する。
Data EL1 to EL6. LC is also given in a logarithmic expression format, and the logarithm/linear conversion circuit 34 substantially multiplies the amplitude coefficient by adding logarithms in the adder 33.
converts the output of the adder 33 in logarithmic representation into data in linear representation.

演算ユニット接続態様設定回路36は、演算ユニットo
Pの出力を夫々入力したフィードバックレジスタFR,
lステージシフトレジスタSR。
The arithmetic unit connection mode setting circuit 36 connects the arithmetic unit o
Feedback registers FR each input the output of P,
l stage shift register SR.

メモリMl、M2.アキュムレータARと、レジスタS
R及びメモリMl、M2及びアキュムレータARの出力
を入力したセレクタ37と、フィードバックレジスタF
Rの出力にフィードバックレベルデータFL (FLI
〜FLY)を乗算するための乗算器あるいはシフト回路
38と、アキュムレータARの出力をラッチするレジス
タ39とを具えている。レジスタ39の出力がこのFM
音源18で合成された楽音信号として出力される。
Memories Ml, M2. Accumulator AR and register S
a selector 37 into which the outputs of R, memories Ml, M2 and accumulator AR are input, and a feedback register F.
Feedback level data FL (FLI
~FLY) and a register 39 for latching the output of the accumulator AR. The output of register 39 is this FM
It is output as a musical tone signal synthesized by the sound source 18.

各レジスタFR39,メモリMl、M2、アキュムレー
タARは16チヤンネル分の記憶容址を持ち、チャンネ
ルクロックパルスφChに従って16チヤンネル時分割
処理される。ただし、シフトレジスタSRはクロックパ
ルスφに従って各タイムスロット毎にシフト制御される
Each register FR39, memories M1, M2, and accumulator AR have a storage capacity for 16 channels, and time-division processing of the 16 channels is performed according to the channel clock pulse φCh. However, the shift register SR is shifted and controlled for each time slot according to the clock pulse φ.

フィードバックレジスタFR、メモリMl、M2、レジ
スタ39には、ロード入力りとリセット入力Rが有り、
制御信号がこれらの入力り、Hに加わり、データのロー
ド及びリセットを制御する。
The feedback register FR, memories Ml, M2, and register 39 have a load input and a reset input R.
Control signals are applied to these inputs to control data loading and resetting.

また、アキュムレータARにはキュムレ−トイネーブル
入力ACとリセット入力Rが有り、上記制御信号がこれ
らの入力AC,Hに加えられ、データのアキュムレート
及びリセットを制御する。上記制御信号はセレクタ37
の選択制御入力にも加えられ、との入力からのデータを
選択すべきかを制御する。セレクタ37及びシフト回路
38の出力が演算ユニットOPの変調信号入力用加算器
35に加わり、そこで加算される。
The accumulator AR also has an accumulation enable input AC and a reset input R, and the control signal is applied to these inputs AC and H to control data accumulation and reset. The above control signal is the selector 37
is also added to the selection control input of to control whether data from the input of is to be selected. The outputs of the selector 37 and shift circuit 38 are applied to the modulation signal input adder 35 of the arithmetic unit OP and are added there.

フィードバックレジスタFRは、自己の演算ユニット又
は前段の演算ユニットに帰還させるべき所定の演算ユニ
ットの演算結果たる波形信号データをストアするもので
ある。この所定の演算ユニットの演算結果が演算ユニッ
トOPから出力されるタイムスロットにおいてロード入
力りに信号“1”が与えられる。帰還路が形成されるべ
き演算ユニットのタイムスロットでフィードバックレベ
ルデータFLI−FL6が適当な値を示し、レジスタF
Rの出力信号をその値に応じてシフトしたものを加算器
35に与える。帰還路が設けられない演算ユニットのタ
イムスロットではフィードバックレベルデータFLI〜
FL6はレベルOに対応する内容となり、シフト回路3
8を遮断し、その出力を0にする。
The feedback register FR stores waveform signal data that is the calculation result of a predetermined calculation unit that is to be fed back to its own calculation unit or to the preceding calculation unit. A signal "1" is applied to the load input in a time slot in which the calculation result of this predetermined calculation unit is output from the calculation unit OP. Feedback level data FLI-FL6 indicates an appropriate value in the time slot of the arithmetic unit where the feedback path is to be formed, and the register F
The output signal of R is shifted according to its value and is applied to the adder 35. In the time slot of the arithmetic unit where a feedback path is not provided, the feedback level data FLI~
FL6 has contents corresponding to level O, and shift circuit 3
8 and its output becomes 0.

シフトレジスタSRはクロックパルスφに従ってシフト
するもので、成るタイムスロットにおける演算結果を次
のタイムスロットにおいて出力する。メモリMl、M2
は、任意のタイムスロットにおける演算結果を保持する
ためのものである。
The shift register SR shifts according to the clock pulse φ, and outputs the operation result in one time slot in the next time slot. Memory Ml, M2
is used to hold the calculation result in an arbitrary time slot.

アキュムレータARは、各演算ユニットOF1〜OP6
のうち任意の1又は複数のユニットの出力信号を加算す
るものであり、加算すべきユニットに対応するタイムス
ロットでアキュムレートイネーブル入力ACに信号“1
”が与えられる。セレクタ37は、各演算ユニットOP
I〜OP6に対応する各タイムスロットにおいて演算ユ
ニットOPの入力Wintに与えるべき波形信号(変調
信号)として、レジスタSR,メモリMl、M2゜アキ
ュムレータARのうち適宜の出力信号を選択することに
より、所定の接続態様に従う各演算ユニットOPI〜O
P6の相互接続を実現する。出力レジスタ39では、全
演算ユニットOPI〜OP6のタイムスロットが1巡す
る1演算サイクルの最後でロード入力りに信号“1″が
与えられ。
The accumulator AR is connected to each calculation unit OF1 to OP6.
The output signals of any one or more of the units are added, and the signal “1” is input to the accumulation enable input AC in the time slot corresponding to the unit to be added.
” is given.The selector 37 selects each arithmetic unit OP
By selecting an appropriate output signal from register SR, memory Ml, and M2° accumulator AR as the waveform signal (modulation signal) to be given to input Wint of arithmetic unit OP in each time slot corresponding to I to OP6, a predetermined Each arithmetic unit OPI to O according to the connection mode
Realize P6 interconnection. In the output register 39, a signal "1" is applied to the load input at the end of one arithmetic cycle in which the time slots of all the arithmetic units OPI to OP6 go around once.

これに基づきアキュムレータARの出力をラッチする。Based on this, the output of accumulator AR is latched.

こうして、各演算ユニットOPI〜OP6を所定の接続
態様で接続して演算を行った結果得られた楽音信号の1
サンプル値データがレジスタ39にラッチされる。
In this way, one of the musical tone signals obtained as a result of performing calculations by connecting each calculation unit OPI to OP6 in a predetermined connection manner.
Sample value data is latched into register 39.

モジュレータ入力端子MDTを介して各チャンネルごと
に時分割で入力されるPCM音源17の出力信号は、外
部データ入力インタフェイス40に取り込まれ、各チャ
ンネルごとの時分割タイミングで出力され、シフト回路
41に入力される。
The output signal of the PCM sound source 17, which is input in a time-division manner for each channel via the modulator input terminal MDT, is taken into the external data input interface 40, outputted at the time-division timing for each channel, and sent to the shift circuit 41. is input.

シフト回路41に与えられる外部入力レベル制御データ
EXTLI〜EXTL6は、各演算オペレータOPI〜
OP6のタイムスロットでそれぞれ適当な値を示し、変
調波信号として使用するPCM音源出力信号のレベルを
それぞれ制御する。PCM音源出力信号を変調波信号と
して使用しない演算ユニットのタイムスロットでは外部
入力レベル制御データEXTLI 〜EXTL6はレベ
ルOに対応する内容となり、シフト回路41を遮断し。
External input level control data EXTLI to EXTL6 given to the shift circuit 41 are input to each operation operator OPI to
Appropriate values are respectively indicated in the time slot OP6, and the levels of the PCM sound source output signals used as modulated wave signals are respectively controlled. In the time slot of the arithmetic unit that does not use the PCM sound source output signal as a modulated wave signal, the external input level control data EXTLI to EXTL6 have contents corresponding to level O, and the shift circuit 41 is shut off.

その出力をOにする。シフト回路41の出力は加算器3
5に加わり、該加算器35から加算器31に変調波信号
として与えられる。
Set its output to O. The output of the shift circuit 41 is sent to the adder 3
5 and is applied from the adder 35 to the adder 31 as a modulated wave signal.

一例として、6つの演算ユニットOPI〜OP6を第5
図のように接続する場合につき説明する。
As an example, six arithmetic units OPI to OP6 are connected to the fifth
The case of connecting as shown in the figure will be explained.

この接続態様では、自己又は他の演算ユニットに出力信
号を帰還させるべき所定の演算ユニットとしてOF2が
選ばれており、この演算ユニットOP4の出力信号をフ
ィードバックレジスタFRにストアし、このレジスタF
Rの出力信号を自己のユニットOP4及び前段のユニッ
トOP5.OP6の入力側に帰還させることは勿論のこ
と、自己のユニットOP4に並列に設けられた別系列の
ユニットOPI、OP2にも入力し、更には自己の後段
のユニットOP3にも入力するようにしている。レジス
タFRの出力を各ユニットoP1〜OP6の変調信号入
力に導く経路に設けられた乗算器(シフト回路38に対
応)に乗数として入力されるデータFLI〜FL6は各
演算ユニットoP1〜OP6に対応するフィードバック
レベルデータである。なお、演算ユニットOPI〜OP
3に加えられるレジスタFRの出力信号はこれらのユニ
ットOP1〜OP3にとってはフィードバック信号では
ないが、このように自己又は前段の演算ユニットにフィ
ードバックする信号を別系列あるいは後段の演算ユニッ
トにも加えるようにする接続態様も実施可能である。
In this connection mode, OF2 is selected as the predetermined arithmetic unit whose output signal should be fed back to itself or another arithmetic unit, and the output signal of this arithmetic unit OP4 is stored in the feedback register FR, and this register F
R's output signal to its own unit OP4 and the preceding unit OP5. It goes without saying that it is fed back to the input side of OP6, but also inputted to units OPI and OP2 of other series installed in parallel with own unit OP4, and furthermore inputted to unit OP3 of its own subsequent stage. There is. Data FLI to FL6, which are input as multipliers to multipliers (corresponding to the shift circuit 38) provided in the paths leading the output of the register FR to the modulation signal inputs of the units oP1 to OP6, correspond to the respective arithmetic units oP1 to OP6. This is feedback level data. In addition, the calculation units OPI to OP
The output signal of register FR added to 3 is not a feedback signal for these units OP1 to OP3, but in this way, a signal that is fed back to the self or previous stage arithmetic unit can also be applied to another series or a subsequent stage arithmetic unit. It is also possible to implement such a connection mode.

また、外部データ入力インタフェイス40の出力を各ユ
ニットOPI〜OP6の変調信号入力に導く経路に設け
られた乗算器(シフト回路41に対応)に乗数として入
力されるデータEXTLI〜EXTL6は各演算ユニッ
トOPI〜OP6に対応する外部入力レベル制御データ
である。
Furthermore, data EXTLI to EXTL6, which is input as a multiplier to a multiplier (corresponding to the shift circuit 41) provided in a path leading the output of the external data input interface 40 to the modulation signal input of each unit OPI to OP6, is input to each arithmetic unit. This is external input level control data corresponding to OPI to OP6.

各演算ユニットOPI〜OP6に対応する時分割タイム
スロットを示すと第6図(a)のようであり、1チャン
ネル分の1サンプリング時間に対応する1演算サイクル
における6つのタイムスロット1〜6は時間の早い順に
演算ユニットOP6〜OPIに対応している。従って、
各タイムスロット1〜6において、各演算ユニットOP
6〜OP1に対応する位相データP6〜P1.エンベロ
ープレベルデータEL6〜ELL、フィードバックレベ
ルデータFL6〜FL1が第6図(a)に示すように供
給される。
The time division time slots corresponding to each operation unit OPI to OP6 are shown in FIG. 6(a), and the six time slots 1 to 6 in one operation cycle corresponding to one sampling time for one channel are They correspond to the arithmetic units OP6 to OPI in ascending order. Therefore,
In each time slot 1 to 6, each arithmetic unit OP
Phase data P6 to P1.6 to OP1. Envelope level data EL6 to ELL and feedback level data FL6 to FL1 are supplied as shown in FIG. 6(a).

第5図の接続を実現する場合、各タイムスロット1〜6
における演算ユニットOPの出力信号の取込み先は第6
図(b)のようにし、セレクタ37での選択は第6図(
c)のようにする。
When realizing the connection shown in Figure 5, each time slot 1 to 6
The destination of the output signal of the arithmetic unit OP is the sixth
The selection with the selector 37 is as shown in FIG. 6 (b).
Do as in c).

また、各演算ユニットOPI〜OP6に対応する外部入
力レベル制御データEXTLI〜EXTL6の供給タイ
ミング及び外部データ入力インタフェイス40から出力
される1チャンネル分の楽音信号の1サンプルデータW
D (t)のタイミングは第6図(d)のようである。
Also, the supply timing of external input level control data EXTLI to EXTL6 corresponding to each arithmetic unit OPI to OP6 and one sample data W of a musical tone signal for one channel outputted from the external data input interface 40.
The timing of D (t) is as shown in FIG. 6(d).

なお、前述のように、PCM音源17とFM音源18に
おける16チヤンネルの時分割タイミングは同期してお
り、同じ押圧鍵に対応する楽音信号をPCM音源17と
FM音源18において同時に発生する場合は、PCM音
源17とFM音源18において同じタイミングのチャン
ネルに該押圧鍵に対応する楽音信号を割り当てるように
しているので、同じ押圧鍵に対応するPCM音源17の
出力楽音信号をFM音源18における変調波信号として
利用することが容易に行なえる。
As mentioned above, the time division timings of the 16 channels in the PCM sound source 17 and the FM sound source 18 are synchronized, and when musical tone signals corresponding to the same pressed key are generated simultaneously in the PCM sound source 17 and the FM sound source 18, Since the musical sound signal corresponding to the pressed key is assigned to the channel at the same timing in the PCM sound source 17 and the FM sound source 18, the output musical sound signal of the PCM sound source 17 corresponding to the same pressed key is used as the modulated wave signal in the FM sound source 18. It can be easily used as

孫」ビEΔ二m匹 次に、操作パネル15における操作子や表示部の一例に
つき第7図により説明する0表示部DPYは、例えば液
晶デイスプレィからなり、音色。
Next, an example of the controls and display section of the operation panel 15 will be explained with reference to FIG. 7.The display section DPY consists of, for example, a liquid crystal display, and displays tone.

音量、音高、効果等を選択・設定・変更するための複数
の画面のうちいずれかを選択的に表示することができる
。以下では、1つの画面をページという、ファンクショ
ンスイッチ部FSWは1表示部DPYの下側に配列され
た複数のファンクションスイッチF1〜F8を具備して
いる。各ファンクションスイッチF1〜F8の機能は表
示部DPYの画面状態つまりページ内容によって切り替
わる0表示部DPYの画面では、各ファンクションスイ
ッチF1〜F8に対応する位置に、該各ファンクション
スイッチFl−F8に現在割当てられている機能を示す
表示がなされる。ファンクションスイッチF1〜F8の
隣のシフトキー5HIFTは1表示部DPYの画面にお
ける各ファンクシ1ンスイツチF1〜F8の機能表示を
シフトするものである。このシフトキー5HIFTは、
1画面(1ページ)において各ファンクションスイッチ
F1〜F8に2重の機能が割当てられているとき使用す
る。
Any one of a plurality of screens for selecting, setting, and changing the volume, pitch, effect, etc. can be selectively displayed. Hereinafter, one screen will be referred to as a page, and the function switch unit FSW includes a plurality of function switches F1 to F8 arranged below one display unit DPY. The functions of each function switch F1 to F8 change depending on the screen state of display section DPY, that is, the page contents.0 On the screen of display section DPY, the positions corresponding to each function switch F1 to F8 are currently assigned to each function switch Fl to F8. A display will be displayed indicating the functions being used. The shift key 5HIFT next to the function switches F1-F8 is used to shift the display of the functions of the function switches F1-F8 on the screen of the display unit DPY. This shift key 5HIFT is
This is used when dual functions are assigned to each function switch F1 to F8 on one screen (one page).

データ入力部42は、数値データを入力するためのスラ
イド式操作子である。
The data input section 42 is a sliding type operator for inputting numerical data.

ボイスキーVOICEは1表示部DPYにおいてボイス
選択ページを呼び出すために操作するキースイッチであ
る。ボイス選択ページとは、所望のボイスつまり音色(
詳しくは複合音色)を選択するときの表示画面である。
The voice key VOICE is a key switch operated in order to call up the voice selection page on the 1 display section DPY. The voice selection page is where you can select the desired voice or tone (
This is the display screen when selecting a composite tone.

エデイツトキーEDITは、所望のボイスの内容を変更
・修正する編集作業を開始するときに操作するキースイ
ッチである。
The edit key EDIT is a key switch that is operated when starting editing work to change or modify the content of a desired voice.

ストアキー5TOREは、編集作業が終了したときに1
編集済みのボイスデータを保存するために操作するキー
スイッチである。
Store key 5TORE is set to 1 when editing is completed.
This is a key switch operated to save edited voice data.

エンターキーENTERは、データ等の入力を確定する
ために操作するキースイッチである。
The enter key ENTER is a key switch operated to confirm input of data or the like.

カーソルキーC8Rは1表示部DPYにおけるカーソル
表示を左右または上下に動かしたり、数値データの増減
を指示する際に操作するキースイッチである。
The cursor key C8R is a key switch operated to move the cursor display on the 1-display section DPY left and right or up and down, or to instruct numerical data to increase or decrease.

操作パネル15においてはその他のスイッチや操作子等
があるが、それらについては説明を省略する。
Although there are other switches and operators on the operation panel 15, explanations of these will be omitted.

ボイスに ゛する1 電子余量において利用可能な音色には、ピアノやバイオ
リン等の既存楽器の音色を模倣するいbば楽器音色と、
演奏者によって任意に設定したり変更することの可能な
音色など、種々の音色がある。この実施例では、後者の
ような音色をボイスということにする。ただし、ボイス
において前者のような楽器音色のような音色を排除する
意味合いは全くない、すなわち、成るボイスはピアノな
らピアノのような楽器音色を模倣するものであってもよ
い、また、この実施例において、・音色とはボイスのこ
とを指すものとして以下説明を行なうが、電子楽器全体
としては、そのようなボイスのほかに楽器音色や何らか
のプリセット音色などが更に選択可能な仕様であっても
一向に差し支えない、なお、この実施例では、複数の系
列で発生した楽音信号を合成して1つのボイスに対応す
る楽音信号を発生するようになっており、その場合。
Voice 1 The tones available in the electronic reserve include instrumental tones that imitate the tones of existing instruments such as pianos and violins;
There are various tones, including tones that can be arbitrarily set or changed by the performer. In this embodiment, the latter type of tone is called a voice. However, there is no meaning in excluding the former type of instrumental timbre in the voice; in other words, the voice may imitate the timbre of an instrument such as a piano if it is a piano. In the following explanation, ``Tone'' refers to voice, but as a whole electronic musical instrument, in addition to such voice, even if it is specified that musical instrument tone or some kind of preset tone can be selected, there is no difference at all. In this embodiment, musical tone signals generated in a plurality of series are synthesized to generate a musical tone signal corresponding to one voice.

1つのボイスの構成要素である各々の系列の楽音信号ま
たはその音色をエレメントまたはエレメント音色という
ことにする。その意味で、この実施例におけるボイスと
は、複数のエレメント音色を複合した「複合音色」であ
るといってもよい。
Each series of musical tone signals or timbres thereof that are constituent elements of one voice will be referred to as elements or element timbres. In that sense, the voice in this embodiment can be said to be a "composite tone" that is a combination of a plurality of element tones.

次に、ボイスデータメモリVDMとボイスエデイツトバ
ッファメモリVERのメモリフォーマットの一例につき
第8図を参照して説明する。
Next, an example of the memory format of the voice data memory VDM and voice edit buffer memory VER will be explained with reference to FIG.

ボイスデータメモリVDMは、各ボイス毎に、当該ボイ
スを実現するボイスデータをそれぞれ記憶するものであ
る。ボイスエデイツトバッファメモリVERは1編集作
業中のボイスのボイスデータを記憶するバッファである
。これらのボイスデータメモリVDMとボイスエデイツ
トバッファメモリVERは、読み書き可能なメモリから
なり。
The voice data memory VDM stores voice data for realizing each voice. The voice edit buffer memory VER is a buffer that stores voice data of a voice being edited. These voice data memory VDM and voice edit buffer memory VER consist of readable and writable memories.

例えばデータ及びワーキングRAM12(第2図)の一
部が利用される。
For example, a portion of the data and working RAM 12 (FIG. 2) is utilized.

ボイスデータメモリVDMは、ボイスナンバ0乃至nで
区別される各ボイス毎にそのボイスデータを記憶するボ
イスデータエリアを有する。各ボイスデータエリアの先
頭アドレスはボイスポインタVOI CE Pによって
指示される。
The voice data memory VDM has a voice data area that stores voice data for each voice distinguished by voice numbers 0 to n. The starting address of each voice data area is indicated by the voice pointer VOI CE P.

1つのボイスデータエリアは、「ボイス名」を記憶する
エリアと、「ボイスモード」を記憶するエリアと、「コ
モンデータ」を記憶するエリアと。
One voice data area includes an area for storing "voice name", an area for storing "voice mode", and an area for storing "common data".

4つの個別のエレメントに対応するパラメータデータを
それぞれ記憶する4つの「ニレメンドパラメ−タデiり
」エリアとからなる。
It consists of four "new parameter data" areas each storing parameter data corresponding to four individual elements.

この実施例では、1つのボイスは最大で4つのエレメン
トを使用して合成することができる。1つのエレメント
は、PCM音源17またはFM音源18で1つのチャン
ネルを使用して発生される1つの系列の楽音信号に対応
している。所望の音色(エレメント音色)を実現するた
めのパラメータデータの種類は、PCM音源17とFM
音源18とでは異なっており、また、そのデータ内容も
各エレメント音色毎に異なる。その一方で、どのエレメ
ント音色にも共通するパラメータデータもある。このよ
うに、当該ボイスにおいてどのエレメントにも共通する
パラメータデータを「コモンデータ」ということにし、
これを「コモンデータフエリアに記憶する。一方、各エ
レメント毎に異なるパラメータデータを「エレメントパ
ラメータデータ」ということにし、これをそれぞれのエ
レメントに対応する「エレメントパラメータデータ」エ
リアに記憶する。各「エレメントパラメータデータ」エ
リアの先頭アドレスはエレメントスタートポインタE 
S P (1)〜E S P (4)によって指示され
る。各エレメントスタートポインタE S P (1)
〜E S P (4)によってそれぞれ指示される工、
レメントを、エレメント1乃至4として区別する。
In this embodiment, one voice can be synthesized using up to four elements. One element corresponds to one series of musical tone signals generated by the PCM sound source 17 or FM sound source 18 using one channel. The types of parameter data for realizing the desired tone (element tone) are PCM sound source 17 and FM.
The sound source 18 is different, and the data content is also different for each element tone. On the other hand, there is also parameter data that is common to all element tones. In this way, parameter data that is common to all elements in the voice is called "common data."
This is stored in the "common data area." On the other hand, parameter data that differs for each element is referred to as "element parameter data," and is stored in the "element parameter data" area corresponding to each element. The start address of each "element parameter data" area is the element start pointer E.
It is indicated by S P (1) to E S P (4). Each element start pointer E S P (1)
〜E S P (4) respectively,
The elements are distinguished as elements 1 to 4.

「ボイスモード」とは、そのボイスを実現するために使
用する音源の種類と系列数の組合せを主に指示するもの
である。予め定められた複数のボイスモードのうちどの
モードであるかを指示する「ボイスモードデータ」をこ
の「ボイスモード」エリアに記憶する。後述するように
、「ボイスモードJが何であるかによって、4つのエレ
メントの各々が、PCM音源とFM音源のどちらを使用
するか、あるいはどちらも使用しないか、が判明する。
The "voice mode" mainly indicates the combination of the type of sound source and the number of sequences used to realize the voice. "Voice mode data" indicating which mode is selected among a plurality of predetermined voice modes is stored in this "voice mode" area. As described later, it is determined whether each of the four elements uses a PCM sound source, an FM sound source, or neither, depending on the voice mode J.

ボイスエデイツトバッファメモリVERは、1つのボイ
スのボイスデータ1式を記憶できる容量を持ち、詳しく
は、コモンデータバッファCDBと、FMエデイツトバ
ッフ7FMEBと、PCMエテエデイツトバッフアPC
Bとを有する。コモンデータバッファCDBにおいては
、「ボイス名」を記憶するエリアと、「ボイスモード」
を記憶するエリアと、「コモンデータ」を記憶するエリ
アとを有する。FMエデイツトバッファFMEBは、4
つのエレメントのパラメータデータをそれぞれ記憶でき
るFMエレメントエデイツトバッファ1乃至4を有する
。PCMエデエデイツトバッフアPcBも、4つのエレ
メントのパラメータデータをそれぞれ記憶できるPCM
エレメントエデイツトバッファ1乃至4を有する。
The voice edit buffer memory VER has a capacity that can store one set of voice data for one voice, and in detail, it has a common data buffer CDB, an FM edit buffer 7FMEB, and a PCM edit buffer PC.
It has B. Common data buffer CDB has an area for storing "voice name" and "voice mode".
It has an area for storing "common data" and an area for storing "common data". FM edit buffer FMEB is 4
It has FM element edit buffers 1 to 4 which can each store parameter data of two elements. The PCM editor buffer PcB is also a PCM that can store parameter data for each of the four elements.
It has element edit buffers 1 to 4.

このように、異なる音源に対応するエデイツトバッファ
FMEB、PCMEBをそれぞれエレメントの最大数分
だけ設けた理由は1編狼中にボイスモードを変更した場
合でも即座に対応できるようにするためである0例えば
、2つのエレメントでFM音源を使用し、別の2つのエ
レメントでPCM音源を使用するボイスモードのボイス
の編集作業する場合、まず、そのボイスのボイスデータ
がボイスデータメモリVDMがらボイスエデイツトバッ
ファメモリVERにコピーされる。その場合のコピーの
仕方は、「ボイス名」、「ボイスモード」及び「コモン
データ」はコモンデータバッファCDBにコピーL、F
M音源に対応する2つのエレメントのパラメータデータ
はFMエデイツトバッファFMEBにおける2つのFM
エレメントエデイツトバッファ1及び2にコピーし、P
CM音源に対応する2つのエレメントのパラメータデー
タはPCMエデエデイツトバッフアPCBにおける2つ
のPCMエレメントエデイツトバッファ1及び2にコピ
ーする。そして、コピーされながった残りの2つのFM
エレメントエディットバッファ3及び4には、FM音源
用の「エレメントパラメータデータ」の所定の初期値(
若しくは基準値)をそれぞれ記憶しておく、コピーされ
なかった残りの2つのPCMエレメントエデイツトバッ
ファ3及び4にも同様に、PCM音源用の「エレメント
パラメータデータ」の所定の初期値(若しくは基準値)
をそれぞれ記憶しておく、このようにしておけば、編集
作業中にコモンデータバッファCDBに記憶したボイス
モードデータを変更することにより、例えば、4つのエ
レメントすべてをFM音源(またはPCM音源)とする
ボイスモードに変わった場合、4つのFMエレメントエ
デイツトバッファ1乃至4(またはPCMエレメントエ
デイツトバッファ1乃至4)の内容を即座に有効に使用
することができる。つまり、エレメントエデイツトバッ
ファの総数をエレメントの最大数4のみにすると、上記
のような例の場合、エレメントエデイツトバッファのデ
ータ内容をPCM用からFM用に(またはその逆に)、
変更しなければならず、面倒である。ところが、この実
施例のようにすれば、そのような面倒はない。
The reason why edit buffers FMEB and PCMEB that correspond to different sound sources are provided for the maximum number of elements is so that even if the voice mode is changed during one song, it can be handled immediately. For example, when editing a voice in voice mode where two elements use an FM sound source and two other elements use a PCM sound source, the voice data for that voice is first transferred from the voice data memory VDM to the voice edit buffer. Copied to memory VER. In that case, copy the "Voice name", "Voice mode" and "Common data" to the common data buffer CDB L, F.
The parameter data of the two elements corresponding to the M sound source are stored in the two FMs in the FM edit buffer FMEB.
Copy to element edit buffers 1 and 2, and
Parameter data of two elements corresponding to the CM sound source are copied to two PCM element edit buffers 1 and 2 in the PCM edit buffer PCB. And the remaining two FMs that were not copied
Element edit buffers 3 and 4 contain predetermined initial values (
Similarly, the remaining two PCM element edit buffers 3 and 4 that were not copied store predetermined initial values (or reference values) of "element parameter data" for the PCM sound source. )
If you do this, by changing the voice mode data stored in the common data buffer CDB during editing, you can, for example, set all four elements to FM sound sources (or PCM sound sources). When changing to voice mode, the contents of the four FM element edit buffers 1 to 4 (or PCM element edit buffers 1 to 4) can be used immediately and effectively. In other words, if the total number of element edit buffers is set to 4, the maximum number of elements, in the example above, the data contents of the element edit buffer can be changed from PCM to FM (or vice versa).
It has to be changed, which is troublesome. However, if this embodiment is used, such trouble is not required.

なお1合計8個のエレメントエデイツトバッファのうち
使用中の最大4個のエレメントエデイツトバッファのそ
れぞれの先頭アドレスはエデイツトスタートポインタE
 D S (1)〜E D S (4)によって指示さ
れる。
Note that the start address of each of the maximum 4 element edit buffers in use out of a total of 8 element edit buffers is the edit start pointer E.
It is indicated by D S (1) to E D S (4).

ボイスモードの 日 次に「ボイスモード」について説明すると、この実施例
において、ボイスモードは10有る。ボイスモードは、
使用する音源の種類と系列数の組合せを主に定義し、更
に単音/複音の区別及び複音の場合は同時発音数を定義
する。使用する音源の種類と系列数の組合せは、4つの
エレメント1〜4で使用する音源がPCMまたはFMの
どちらであるか、あるいはこのエレメントを使用しない
か、を明かにすることにより定義することができる。こ
れは「エレメントタイプ」と称するデータによって定義
される。「エレメントタイプ」には、0、l、2の3タ
イプがあり、それぞれの内容は次の通りである。
Voice Modes To explain the "voice modes" on a daily basis, in this embodiment, there are 10 voice modes. The voice mode is
The combination of the type of sound source to be used and the number of sequences is mainly defined, and furthermore, the distinction between single notes and multiple notes and the number of simultaneous pronunciations in the case of multiple notes are defined. The combination of the type of sound source to be used and the number of sequences can be defined by clarifying whether the sound source used in four elements 1 to 4 is PCM or FM, or whether this element is not used. can. This is defined by data called "element type". There are three types of "element types": 0, 1, and 2, and the contents of each are as follows.

エレメントタイプO・・・不使用 エレメントタイブト・・FM音源を使用するエレメント
タイプ2・・・PCM音源を使用する各ボイスモードに
おける4つの各エレメント1〜4の工°レメントタイプ
は、第9図に示すような内容のエレメントタイプテーブ
ルETTに予め記憶されている。このエレメントタイプ
テーブルETTには、実質的な同時可能発音数を示すデ
ータも記憶されている。実質的な同時可能発音数とは。
Element type O: Element type not used: Element type 2, which uses an FM sound source: Element type 2, which uses a PCM sound source The element types of each of the four elements 1 to 4 in each voice mode are shown in Figure 9. The contents are stored in advance in the element type table ETT as shown in FIG. This element type table ETT also stores data indicating the actual number of simultaneous pronunciations. What is the actual number of simultaneous polyphony?

別の言い方をすれば、異なる押圧鍵の楽音信号を同時に
発音できる最大値である。
In other words, it is the maximum value at which musical tone signals of different pressed keys can be generated simultaneously.

ボイスモード1〜3は、単音発音モードのボイスであり
、同時可能発音数は1である。
Voice modes 1 to 3 are voices in single note production mode, and the number of simultaneous pronunciations is one.

ボイスモード1では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプ0っまり不使用である。従って、FM音源
のエレメント音色からなる単音l系列のボイスである。
In voice mode 1, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are of element type 0 and are not used. Therefore, it is a voice of a single tone l series consisting of element tones of an FM sound source.

ボイスモード2では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0つまり不使用である。従って、FM
音源のエレメント音色からなる単音2系列(2系列とは
同じ押圧鍵に係る楽音が2チヤンネルで発生されること
)のボイスである。
In voice mode 2, elements 1 and 2 are element type 1, that is, FM sound source, and the other elements 3 and 4 are element type 0, that is, not used. Therefore, F.M.
The voice consists of two single-note series (two series means that musical tones related to the same pressed key are generated in two channels) consisting of element tones of the sound source.

ボイスモード3では、全エレメント1〜4がエレメント
タイプ1つまりFM音源である。従って。
In voice mode 3, all elements 1 to 4 are element type 1, that is, FM sound sources. Therefore.

FM音源のエレメント音色からなる単音4系列(4系列
とは同じ押圧鍵に係る楽音が4チヤンネルで発生される
こと)のボイスである。
The voices are four series of single notes (four series means that musical tones related to the same pressed key are generated in four channels) consisting of element tones of an FM sound source.

ボイスモード4〜10は、複音発音モードのボイスであ
り、同時発音可能数はそれぞれテーブルに記された通り
である。
Voice modes 4 to 10 are voices in multitone mode, and the number of voices that can be produced simultaneously is as shown in the table.

ボイスモード4では、エレメント1がエレメントタイプ
1つまりFM音源であり、他のエレメント2〜4はエレ
メントタイプ0つまり不使用である。従って、FM音源
のエレメント音色からなる複音1系列のボイスであり、
同時発音可能数は16音である。
In voice mode 4, element 1 is element type 1, that is, an FM sound source, and the other elements 2 to 4 are element types 0, that is, not used. Therefore, it is a series of multiple-tone voices consisting of element tones of an FM sound source,
The number of notes that can be produced simultaneously is 16.

ボイスモード5では、エレメント1と2がエレメントタ
イプ1つまりFM音源であり、他のエレメント3,4は
エレメントタイプ0つまり不使用である。従って、FM
音源のエレメント音色からなる複音2系列のボイスであ
り、同時発音可能数は8音である。
In voice mode 5, elements 1 and 2 are element type 1, that is, FM sound source, and the other elements 3 and 4 are element type 0, that is, not used. Therefore, F.M.
It is a two-series voice consisting of the element tones of the sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード6では、エレメント1がエレメントタイプ
2つまりPCM音源であり、他のエレメント2〜4はエ
レメントタイプOつまり不使用である。従って、PCM
音源のエレメント音色からなる複音1系列のボイスであ
り、同時発音可能数は16音である。
In voice mode 6, element 1 is element type 2, that is, a PCM sound source, and the other elements 2 to 4 are element type O, that is, not used. Therefore, PCM
This is a single series of multiple-tone voices made up of the element tones of the sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモード7では、エレメント1と2がエレメントタ
イプ2つまりPCM音源であり、他のエレメント3,4
はエレメントタイプ0つまり不使用である。従って、P
CM音源のエレメント音色からなる複音2系列のボイス
であり、同時発音可能数は8音である。
In voice mode 7, elements 1 and 2 are element type 2, that is, PCM sound sources, and other elements 3 and 4
is element type 0, that is, it is not used. Therefore, P
This is a two-series voice consisting of the element tones of a commercial sound source, and the number of sounds that can be produced simultaneously is eight.

ボイスモード8では、全エレメント1〜4がエレメント
タイプ2つまりPCM音源である。従って、PCM音源
のエレメント音色からなる複音4系列のボイスであり、
同時発音可能数は4音である。
In voice mode 8, all elements 1 to 4 are element type 2, that is, PCM sound sources. Therefore, it is a four-series voice consisting of element tones of a PCM sound source,
The number of notes that can be produced simultaneously is four.

ボイスモード9では、エレメント1がエレメントタイプ
1つまりFM音源、エレメント2がエレメントタイプ2
つまりPCM音源□であり、他のエレメント3,4はエ
レメントタイプ0つまり不使用である。従って、PCM
音源のエレメント音色とFM音源のエレメント音色の組
合せからなる複音2系列のボイスであり、同時発音可能
数は16音である。
In voice mode 9, element 1 is element type 1, or FM sound source, and element 2 is element type 2.
In other words, it is a PCM sound source □, and the other elements 3 and 4 are element type 0, that is, they are not used. Therefore, PCM
It is a two-series voice consisting of a combination of element tones of the sound source and element tones of the FM sound source, and the number of sounds that can be produced simultaneously is 16.

ボイスモード10では、エレメント1と2がエレメント
タイプ1つまりFM音源、エレメント3と4がエレメン
トタイプ2つまりPCM音源である。従って、PCM音
源2系列とFM音源2系列の組合せからなる複音4系列
のボイスであり、同時発音可能数は8音である。
In voice mode 10, elements 1 and 2 are element type 1, that is, FM sound source, and elements 3 and 4 are element type 2, that is, PCM sound source. Therefore, there are four series of multiple-tone voices consisting of a combination of two series of PCM sound sources and two series of FM sound sources, and the number of simultaneous sounds that can be produced is eight.

マイクロコンピュータによる fmKJLm 敬胛第1
0図はデータ及びワーキングRAM12内のレジスタに
おいてストアされる主要なデータを例示したものであり
、それぞれの役割はフローチャートの説明に従い、追っ
て明かにされる。
fmKJLm honor by microcomputer 1st
FIG. 0 illustrates the main data stored in the data and registers in the working RAM 12, and the role of each will be clarified later in accordance with the explanation of the flowchart.

第11図はエントリポイントテーブルEFTの内容の一
例を示す、エントリポイントテーブルEPTは、表示部
DPYにおける表示画面(ページ)と操作パネル15に
おけるオンスイッチとの対応に応じて、該スイッチのオ
ンイベントに応じて次に実行すべきルーチンを指示する
テーブルである。
FIG. 11 shows an example of the contents of the entry point table EFT. The entry point table EPT responds to the on event of the switch according to the correspondence between the display screen (page) on the display unit DPY and the on switch on the operation panel 15. This is a table that indicates the next routine to be executed according to the selected routine.

次に、マイクロコンピュータによって実行される処理の
一例につき第12図以降のフローチャートを参照して説
明する。
Next, an example of the process executed by the microcomputer will be described with reference to the flowcharts from FIG. 12 onwards.

第12図はメインルーチンの一例を示しており。FIG. 12 shows an example of the main routine.

まず、電源投入時に所定の初期化処理を行ない。First, when the power is turned on, a predetermined initialization process is performed.

各レジスタやメモリの内容を初期設定する1次に。Primary level that initializes the contents of each register and memory.

「キースキャン及び割当処理」では、鍵盤回路14にお
ける各キースイッチをスキャンしてそのオン・オフを検
出し、押圧鍵を複数の発音チャンネルのうち何れかに割
当てる処理を行う、この「キースキャン及び割当処理」
において実行される処理の一つにゴキーオンイベント処
理」があり、その−例は第25図及び第26図に示され
ており。
The "key scan and assignment process" scans each key switch in the keyboard circuit 14 to detect whether it is on or off, and then assigns the pressed key to one of a plurality of sound generation channels. "Assignment processing"
One of the processes executed in this process is "go-key-on event process", an example of which is shown in FIGS. 25 and 26.

詳細は追って説明する。この「キーオンイベント処理」
では、11が新たに押圧されたとき、その鍵に対応する
楽音信号の発生をPCM音源17及び/またはFM音源
18のチャンネルに割当てる処理を行なう。
Details will be explained later. This "key-on event processing"
Now, when key 11 is newly pressed, processing is performed to allocate the generation of musical tone signals corresponding to that key to the channels of PCM sound source 17 and/or FM sound source 18.

「演奏コントローラ処理」では、演奏コントローラ16
の操作を検出し、操作状態が変化したとき所定の処理を
行なう。
In "performance controller processing", the performance controller 16
detects the operation, and performs predetermined processing when the operation state changes.

[ファンクションスイッチ処理」では、ファンクション
スイッチ部FSWのオンイベント(オフからオンに変化
したこと)を検出し、オンイベントが検出されたなら、
第13図に示すようなファンクションスイッチオンイベ
ントルーチンを行なう。
[Function switch processing] detects the on event (change from off to on) of the function switch unit FSW, and if the on event is detected,
A function switch-on event routine as shown in FIG. 13 is performed.

「その他パネルスキャン処理」では、操作パネル15に
おけるその他の操作子やキースイッチをスキャンしてそ
のオン・オフを検出し、その検出に基づき各種処理を行
う、その−例としては、オンされたキースイッチと表示
部DPYの現在のページに応じて第11図のエントリポ
イントテーブルEPTを参照し、第14図乃至第24図
に示すようなスイッチオンイベントサブルーチンを呼び
出す。
"Other panel scan processing" scans other controls and key switches on the operation panel 15 to detect whether they are on or off, and performs various processes based on the detection. The entry point table EPT shown in FIG. 11 is referred to in accordance with the switch and the current page of the display unit DPY, and the switch-on event subroutines shown in FIGS. 14 to 24 are called.

エントリポイントテーブルEPTの 第11図のエントリポイントテーブルEPTは。Entry point table EPT The entry point table EPT in FIG.

たて欄が各キー若しくはスイッチのオンイベントを示し
、横棚がそのスイッチオンイベント時点での表示部DP
Yのページを示す、たて欄と横棚の交点に記された記号
が、呼び出されるべきサブルーチン(つまり該サブルー
チンのエントリポイント)を示す、各サブルーチンの説
明は追って行なう、なお、ここで、記号rN o E 
PJは「ノー・エントリポイント」を意味し、呼び出さ
れるべきサブルーチン(つまりエントリポイント)がな
いことを示す。
The vertical column shows the on event of each key or switch, and the horizontal shelf shows the display part DP at the time of the switch on event.
The symbol written at the intersection of the vertical column and the horizontal shelf that indicates the page Y indicates the subroutine to be called (that is, the entry point of the subroutine).Each subroutine will be explained later. rN o E
PJ means "no entry point" and indicates that there is no subroutine (or entry point) to be called.

ファンクションスイ チ   の 理 何らかのファンクションスイッチF1〜F8がオンされ
たとき第13図のファンクシ、!ンスイッチオンイベン
トルーチンが行なわれる。ここでは。
When any of the function switches F1 to F8 is turned on, the functions shown in Fig. 13, ! A switch-on event routine is performed. here.

まず、オンされたファンクションスイッチの番号をファ
ーンクションスイツチパツフ7FSWBUFに記憶し1
次に、このファンクションスイッチバッファFSWBU
Fと現在ページPAGEとにより第11図のエントリポ
イントテーブルEPTを参照し、該ページにおいて該フ
ァンクションスイッチに割当てられている所定のイベン
ト処理サブルーチンのエントリポイントデータを得て、
これをエントリポイントバッファEPBUFに記憶する
。そして、このエントリポイントバッファEPBUFの
内容がノー・エントリポイントNoEPではないことを
確認した後、このエントリポイントバッフ7EPBUF
の内容に対応するイベント処理サブルーチンをコールす
る。なお、現在ページPAGEとは1表示部DPYの現
在の表示ページを示すものである。
First, store the number of the function switch that was turned on in the function switch puff 7FSWBUF.
Next, this function switch buffer FSWBU
F and the current page PAGE, refer to the entry point table EPT in FIG. 11, obtain the entry point data of the predetermined event processing subroutine assigned to the function switch on the page,
This is stored in the entry point buffer EPBUF. After confirming that the contents of this entry point buffer EPBUF are not No Entry Point NoEP, this entry point buffer 7EPBUF
Calls the event processing subroutine corresponding to the contents of. Note that the current page PAGE indicates the current display page of one display section DPY.

ボイス塵IKKλ賎工 この電子楽器において1発音のために、若しくは編集作
業のために、現在選択されている1つのボイスを示すボ
イスナンバは、所定のレジスタつまりボイスナンバレジ
スタに記憶される。このボイスナンバレジスタに記憶さ
れているボイスナンバをVNで示す、このボイスナンバ
VNを参照することにより現在どのボイスが選択されて
いるかがわかる。
In this electronic musical instrument, a voice number indicating a currently selected voice for one sound generation or for editing work is stored in a predetermined register, that is, a voice number register. The voice number stored in this voice number register is indicated by VN. By referring to this voice number VN, it is possible to know which voice is currently selected.

所望のボイスの選択は、表示部DPYに第27図に例示
するような「ボイス選択jページを呼び出すことにより
行なう1表示部DPYの表示画面が「ボイス選択」以外
のページのとき、ボイスキーVOICE (第7図)を
押すことにより、エントリポイントテーブルEPT (
第11図)では「ボイス選択サブルーチンJ EPVを
呼び串し。
The desired voice can be selected by calling up the "Voice selection page" on the display section DPY as shown in FIG. By pressing the entry point table EPT (Fig. 7)
11), ``Call voice selection subroutine JEPV.''

ボイスの選択が可能になる。Voice selection becomes possible.

ボイス選択サブルーチンEPVにつき第14図を参照し
て説明すると、まず1表示部DPYのページを指示する
現在ページPAGEの内容を。
The voice selection subroutine EPV will be explained with reference to FIG. 14. First, the contents of the current page PAGE which indicates the page of the first display section DPY will be explained.

[ボイス選択」ページを指示する「1」にセットする(
ステップ50)。
Set to “1” to indicate the “Voice Selection” page (
Step 50).

次に1表示部DPYの画面表示を第27図に例示するよ
うな「ボイス選択」ページにし、選択可能な各ボイスの
ボイス名をボイスナンバと共に表示すると共に、カーソ
ルをボイスナンバVNによって指示される特定のボイス
の位置に置く(ステップ51)。
Next, the screen display of the first display section DPY is changed to the "Voice Selection" page as shown in FIG. 27, and the voice name of each selectable voice is displayed together with the voice number, and the cursor is moved to It is placed at a specific voice position (step 51).

次に、ボイスデータメモリVDM (第8図)を読み出
すためのボイスデータポインタVOICEPを、現在の
ボイスナンバVNに対応する値に設定する(ステップ5
2)。
Next, the voice data pointer VOICEP for reading the voice data memory VDM (Fig. 8) is set to a value corresponding to the current voice number VN (step 5).
2).

次に、ボイスデータポインタVOICEPによって指示
されたボイスデータエリアがらボイスモードデータを読
み出し、これをボイスモードレジスタVMODEにセッ
トする。っまりVMODEは現在選択されているボイス
のボイスモードを示す、また、エレメントスタートポイ
ンタE S P (1)〜ESP(4)を、ボイスデー
タポインタVOICEPによって指示されたボイスデー
タエリアにおける4つの[エレメントパラメータデータ
」エリアに対応する値にそれぞれ設定する(ステップ5
3)。
Next, voice mode data is read from the voice data area indicated by the voice data pointer VOICEP and set in the voice mode register VMODE. VMODE indicates the voice mode of the currently selected voice, and element start pointers ESP (1) to ESP (4) are used to indicate the four [elements] in the voice data area indicated by the voice data pointer VOICEP. Set the values corresponding to the "Parameter data" area (Step 5)
3).

次に、ボイスモードレジスタVMODEの内容に応じて
エレメントタイプテーブルETT (第9図)を参照し
、そのボイスモードにおける同時発音可能数(エレメン
トタイプテーブルETTの同時発音可能数の欄の値)を
決定し、これを同時発音可能数レジスタN5CHにスト
アする(ステップ54)。
Next, depending on the contents of the voice mode register VMODE, refer to the element type table ETT (Fig. 9) and determine the number of simultaneous sounds (the value in the column of the number of simultaneous sounds in the element type table ETT) in that voice mode. This is then stored in the register N5CH for the number of simultaneous sounds (step 54).

このようにして表示部DPYで第27図に例示するよう
な「ボイス選択」ページを表示した状態において1次に
、データ入力部42またはカーソルキーC8R(第7図
)を操作すると、これに応じてボイスナンバVNが変更
され、所望のボイスを選択することができる。
When the data input section 42 or the cursor key C8R (FIG. 7) is operated in the state in which the "Voice Selection" page as shown in FIG. 27 is displayed on the display section DPY in this way, the The voice number VN is changed and the desired voice can be selected.

この点について説明すると、「ボイス選択」ページを表
示した状態において、データ入力部42が操作されると
、エントリポイントテーブルEPT(第11図)では「
ボイス選択数値入力サブルーチンJEPDS(1)を呼
び出す、また、「ボイス選択」ページを表示した状態に
おいて、カーソルキーC8Rが操作されると、エントリ
ポイントテーブルEPT(第11図)では「ボイス選択
カーソルキーオンイベントサブルーチンJ EPCD(
1)を呼び出す、なお、カーソルキーC8Rには、上下
方向カーソルと左右方向カーソルの2種類があり、それ
ぞれの処理内容は幾分具なるが、説明の便宜上、カーソ
ルキーC8Rが1つであるとして説明する。
To explain this point, when the data input section 42 is operated while the "Voice Selection" page is displayed, the entry point table EPT (FIG. 11) displays "
When the voice selection numeric input subroutine JEPDS (1) is called and the cursor key C8R is operated while the "Voice selection" page is displayed, the entry point table EPT (Figure 11) shows the "Voice selection cursor key on event". Subroutine J EPCD (
1) There are two types of cursor key C8R: up/down cursor and left/right cursor, and the processing contents of each are somewhat different, but for the sake of explanation, we will assume that there is only one cursor key C8R. explain.

ボイス選択数値入力サブルーチンE P D S (1
)とボイス選択カーソルキーオンイベントサブルーチン
EPCD(1)につき第15図番参照して説明すると、
まず、データ入力部42が操作された場合は、このデー
タ入力部42によって入力された数値に応じてボイスナ
ンバVNを変更する(ステップ55)。
Voice selection numerical value input subroutine E P D S (1
) and voice selection cursor key-on event subroutine EPCD (1) will be explained with reference to Figure 15.
First, when the data input section 42 is operated, the voice number VN is changed according to the numerical value inputted by the data input section 42 (step 55).

次に、表示部DPYにおけるカーソルの位置を新しいボ
イスナンバVNによって指示される特定のボイスの位置
に移す(ステップ56)。
Next, the position of the cursor on the display section DPY is moved to the position of the specific voice indicated by the new voice number VN (step 56).

次に行なうステップ57.58.59の処理は第14図
のステップ52,53.54の処理と同じものであり、
新しいボイスナンバVNに対応してボイスデータポイン
タVOICEP及びエレメントスタートポインタE S
 P (1)〜E S P (4)の設定と、ボイスモ
ードVMODEのセットと、そのボイスモードに応じた
同時発音可能数レジスタN5CH,の設定を行なう。
The processing of steps 57, 58, and 59 to be performed next is the same as the processing of steps 52, 53, and 54 in FIG.
The voice data pointer VOICEP and element start pointer E S correspond to the new voice number VN.
P(1) to ESP(4) are set, the voice mode VMODE is set, and the simultaneous sound generation register N5CH is set according to the voice mode.

カーソルキーC8Rが押された場合は、ボイスナンバV
Nの値を1増加する(ステップ60)。
If cursor key C8R is pressed, voice number V
The value of N is increased by 1 (step 60).

この増加はモジュロ16で行なう、モジュロ16とした
理由は1選択可能なボイス数を16としたためである。
This increase is done by modulo 16. The reason for modulo 16 is that the number of voices that can be selected is 16.

その後、上述のステップ56〜59の処理を行なう。Thereafter, the processes of steps 56 to 59 described above are performed.

上記から明らかなように、データ入力部42の操作によ
れば所望のボイスナンバを一度で入力することができ、
カーソルキーC8Rでは1回の抑圧毎にボイスナンバV
Nを1つづつずらすことにより最終的に所望のボイスナ
ンバを入力する。
As is clear from the above, a desired voice number can be input at once by operating the data input section 42.
With cursor key C8R, voice number V is pressed every time it is suppressed.
By shifting N by one, the desired voice number is finally input.

ニーイツト 理への 入 所望のボイスのボイスデータを変更・修正する編集作業
を行なう場合、まず、上述のように表示部DPYに「ボ
イス選択」ページを呼び出して所望のボイスの選択を行
ない、各レジスタの内容VN、VOICEP、VMOD
E、N5CH,ESP (1)〜E S P (4)を
該所望のボイスに対応する内容に設定する1次に、エデ
イツトキーEDIT(第7図)を押すことにより、エデ
イツト処理に入ることができる。
When performing editing work to change or modify the voice data of a desired voice, first call up the "Voice Selection" page on the display DPY as described above, select the desired voice, and select each register. Contents of VN, VOICEP, VMOD
Set E, N5CH, ESP (1) to E S P (4) to the contents corresponding to the desired voice. 1. Next, press the edit key EDIT (Fig. 7) to enter the edit process. .

表示部DPYの表示画面が「ボイス選択」ページのとき
、エデイツトキーEDITを押すことにより、エントリ
ポイントテーブルEPT (第11図)では「エデイツ
ト導入ルーチンJ EPEDを呼び出す、このエデイツ
ト導入ルーチンEPEDの詳細例は第16図に示されて
いる。
When the display screen of the display unit DPY is the "Voice selection" page, by pressing the edit key EDIT, the entry point table EPT (Figure 11) will display "Calling edit introduction routine J EPED." A detailed example of this edit introduction routine EPED is shown below. It is shown in FIG.

エデイツト導入ルーチンEPEDでは、まず。In the editor introduction routine EPED, first.

ボイスナンバVNに応じたボイスデータエリアからボイ
スデータ1式を読み出して、ボイスエデイツトバッファ
VER(第8図)にコピーする(ステップ61)、以後
、種々の編集操作は、ボイスエデイツトバッファメモリ
VERに記憶されているボイスデータに対して施される
。いわば、ボイスエデイツトバッファメモリVERは、
ボイスデータを編集するための専用のバッファである。
A set of voice data is read from the voice data area corresponding to the voice number VN and copied to the voice edit buffer VER (Fig. 8) (step 61). From now on, various editing operations will be performed using the voice edit buffer memory VER. This is applied to voice data stored in . In other words, the voice edit buffer memory VER is
This is a dedicated buffer for editing voice data.

ボイスエデイツトバッファメモリVEBに対するボイス
データ1式のコピーの仕方は、前述した通りである。す
なわち、「ボイス名」、「ボイスモード」及び「コモン
データ」はコモンデータバッファCDBにコピーする。
The method of copying one set of voice data to the voice edit buffer memory VEB is as described above. That is, the "voice name", "voice mode" and "common data" are copied to the common data buffer CDB.

また、最大で4つのエレメントに対応する各パラメータ
データは、そのエレメントタイプに応じて、FM音源に
対応するものはFMエデイツトバッファFMEBにおけ
る4つのFMエレメントエデイツトバッファl乃至4の
うち番号の若いものに対して順にコピーし、PCM音源
に対応するものはPCMエデイツトバッファPCMEB
における4つのPCMエレメントエデイツトバッファ1
乃至4のうち番号の若いものに対して順にコピーする。
In addition, each parameter data corresponding to a maximum of four elements is stored in the FM edit buffer FMEB, depending on the element type, and the one corresponding to the FM sound source is stored in the lowest number of the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB. The items corresponding to the PCM sound source are copied to the PCM edit buffer PCMEB.
4 PCM element edit buffer 1 in
4 to 4, copies are made in order of the smallest number.

そして、データがコピーされなかった残りのFMエレメ
ントエデイツトバッファには、FM音源用の「エレメン
トパラメータデータ」の所定の初期値(若しくは基準値
)をそれぞれ記憶し、同様に、データがコピーされなか
った残りのPCMエレメントエデイツトバッファには、
PCM音源用の「エレメントパラメータデータJの所定
の初期値(若しくは基準値)をそれぞれ記憶する。
The remaining FM element edit buffers to which data was not copied store predetermined initial values (or reference values) of "element parameter data" for the FM sound source, and similarly, the remaining FM element edit buffers to which no data were copied are stored with predetermined initial values (or reference values) of "element parameter data" for the FM sound source. The remaining PCM element edit buffer contains
Predetermined initial values (or reference values) of element parameter data J for the PCM sound source are stored.

次に、ボイスデータポインタVOI CE Pの値をエ
デイツトバッファメモリVERの先頭アドレスにセット
し、かつ、エデイツトスタートポインタE D S (
1)〜E D S (4)の値を、FMエデイツトバッ
フ7FMEBにおける4つのFMエレメントエデイツト
バッファl乃至4とPCMエデイツトバッファPCME
Bにおける4つのPCMエレメントエデイツトバッファ
1乃至4のうち、4つの各エレメントに対応するパラメ
ータデータをコピーしたエレメントエデイツトバッファ
の先頭アドレスにそれぞれセットする。従って、FMエ
デイツトバッファFMEB及びPCMエデイツトバッフ
ァPCMEHにおける合計8個のエレメントエデイツト
バッファのうち、現在編集作業中のボイスに関する各エ
レメント1乃至4に対応するパラメータデータを記憶し
ているものが、エデイツトスタートポインタE D S
 (1)〜E D S (4)によってそれぞれ指示さ
れる。
Next, the value of the voice data pointer VOI CE P is set to the start address of the edit buffer memory VER, and the value of the edit start pointer ED S (
1) to ED S (4) to the four FM element edit buffers 1 to 4 in FM edit buffer 7FMEB and the PCM edit buffer PCME.
Of the four PCM element edit buffers 1 to 4 in B, parameter data corresponding to each of the four elements is set at the start address of the copied element edit buffer. Therefore, among a total of eight element edit buffers in the FM edit buffer FMEB and the PCM edit buffer PCMEH, the one that stores parameter data corresponding to each element 1 to 4 regarding the voice currently being edited is Edit start pointer EDS
(1) to E D S (4), respectively.

次に、コモンデータバッファCDBからボイスモードデ
ータを読み出して、これをVMODEにセットし、この
ボイスモードVMODEが10個のボイスモード1〜1
0(第9図参照)のうちとれとれであるかを調べる(ス
テップ63)。
Next, read the voice mode data from the common data buffer CDB and set it in VMODE.
0 (see FIG. 9) is checked (step 63).

ボイスモードVMODEの内容がエレメント1のみを使
用するボイスモード1,4または6を示す場合は、ステ
ップ64に行き、エデイツトモードEMODEが2より
も大であるかを調べる。
If the contents of voice mode VMODE indicate voice mode 1, 4, or 6 using only element 1, the process goes to step 64 to see if edit mode EMODE is greater than 2.

エデイツトモードEMODEとは、現時点での編集作業
の内容を示すもので、0乃至5のいずれかの値をとり、
その値と編集内容との関係は次の通りである。
Edit mode EMODE indicates the content of the current editing work, and takes a value from 0 to 5.
The relationship between the value and the editing content is as follows.

EMODE=O:ボイスモードの選択 EMODE=1 :コモンデータの編集EMODE=2
 :エレメント1のデータ編集EMODE=3 :エレ
メント2のデータ編集EMODE=4 :エレメント3
のデータ編集EMODE=5 :エレメント4のデータ
編集従って、エデイツトモードEMODEが2よりも大
とは、エレメント2または3,4のデータ編集を行なう
モードであることを意味し、エレメントlのみを使用す
るボイスモード1,4または6においては不要のもので
ある。従って、ステップ64がYESの場合は、ステッ
プ65に行き、エデイツトモードEMODEを0にリセ
ットする。
EMODE=O: Voice mode selection EMODE=1: Common data editing EMODE=2
:Element 1 data editing EMODE=3 :Element 2 data editing EMODE=4 :Element 3
EMODE = 5: Data editing of element 4 Therefore, if the edit mode EMODE is greater than 2, it means that the mode is for editing data of elements 2, 3, and 4, and only element l is used. This is unnecessary in voice modes 1, 4, or 6. Therefore, if step 64 is YES, the process goes to step 65 and the edit mode EMODE is reset to 0.

ボイスモードVMODEの内容がエレメント1と2のみ
を使用するボイスモード2,5,7または9を示す場合
は、ステップ66に行き、エデイツトモードEMODE
が3よりも大であるかを調べる。エデイツトモードEM
ODEが3よりも大とは、エレメント3または4のデー
タ編集を行なうモードであることを意味し、エレメント
lと2のみを使用するボイスモード2,5.7または9
においては不要のものである。従って、ステップ66が
YESの場合は、ステップ67に行き、エデイツトモー
ドEMODEを0にリセットする。
If the contents of voice mode VMODE indicate voice mode 2, 5, 7 or 9, which uses only elements 1 and 2, go to step 66 and enter edit mode EMODE.
Check whether is greater than 3. Edit mode EM
ODE greater than 3 means that the mode edits the data of element 3 or 4, and voice mode 2, 5.7 or 9 uses only elements l and 2.
It is unnecessary in this case. Therefore, if step 66 is YES, the process goes to step 67 and the edit mode EMODE is reset to 0.

ボイスモードVMODEの内容が全エレメント1〜4を
使用するボイスモード3,8または10を示す場合は、
エデイツトモードEMODEの判断は行なわずに、ステ
ップ68に行く。
If the contents of voice mode VMODE indicate voice mode 3, 8 or 10 using all elements 1 to 4,
The process goes to step 68 without making a determination as to whether the edit mode is EMODE.

ステップ68では、エデイツトモードEMODEの値が
0〜5のいずれであるかを調べ、それに応じたエデイツ
ト導入サブルーチン(ステップ69〜74)を実行する
In step 68, it is determined which value of the edit mode EMODE is from 0 to 5, and the corresponding edit introduction subroutine (steps 69 to 74) is executed.

ボイノS肚−E】」2 エデイツトモードEMODEの値が0であれば。Boino S 肚-E】”2 If the value of edit mode EMODE is 0.

ボイスモード選択導入サブルーチンVMSSUBを行な
う、このサブルーチンVMSSUBの一例は第171!
1に示されている。
An example of the subroutine VMSSUB that performs the voice mode selection introduction subroutine VMSSUB is No. 171!
1.

まず、ステップ75では1表示部DPYのページを指示
する現在ページPAGEの内容を、「ボイスモード選択
」ページを指示する所定の値nEにセットする。
First, in step 75, the content of the current page PAGE indicating the page of 1 display section DPY is set to a predetermined value nE indicating the "voice mode selection" page.

次のステップ76では、表示部DPYの画面表示を第2
8図に例示するような「ボイスモード選択」ページにし
、各ボイスモード1〜lOにおける音源と系列数の組合
せ情報及び単音/複音の区別を示す情報を表示し、現在
のボイスモードVMODEによって指示される特定のボ
イスモード(つまり現在選択されているボイスモード)
の位置にカーソルを置くと共に、現在選択されている該
ボイスモードにおける各エレメント1〜4の音源タイプ
を右上に表示する(これをエレメント構成表示という)
、また、各ファンクションスイッチF1〜F5に対応す
る表示としてrMo D EJ。
In the next step 76, the screen display of the display unit DPY is changed to the second
The "Voice Mode Selection" page as shown in Figure 8 is displayed, and the combination information of the sound source and number of sequences in each voice mode 1 to IO and the information indicating the distinction between single notes and double notes are displayed. specific voice mode (i.e. the currently selected voice mode)
Place the cursor at the position, and display the sound source type of each element 1 to 4 in the currently selected voice mode in the upper right corner (this is called element configuration display).
, and rMo DEJ as a display corresponding to each function switch F1 to F5.

rcOMJ、rE IJ、rE 2」、rE 3J、r
E4Jを表示し、各ファンクションスイッチF1〜F5
の機能がエデイツトモード選択機能となっていることを
示す、 「MODEJはボイスモード選択を示し、rc
OMJはコモンデータエデイツトを示し、「El」〜「
E4」はそれぞれエレメント1〜4のデータ編集を行な
うエデイツトモードを示す、このファンクションスイッ
チ表示においては、現在のエデイツトモード(この例で
はボイスモード選択MODE)を通常に表示し、他のエ
デイツトモードを白抜きで表示してそれらのエデイツト
モードがファンクションスイッチ操作によって選択可能
であるこ、とを示す。
rcOMJ, rE IJ, rE 2'', rE 3J, r
Display E4J and press each function switch F1 to F5.
"MODEJ indicates voice mode selection, rc
OMJ stands for Common Data Editor, and "El" to "
"E4" indicates the edit mode for editing the data of elements 1 to 4. In this function switch display, the current edit mode (voice mode selection MODE in this example) is normally displayed, and other edit modes are The modes are displayed in white to indicate that these edit modes can be selected by operating the function switch.

なお、表示部DPYの画面表示を第28図に例示するよ
うな「ボイスモード選択jページにする処理は、上述の
ようなボイスモード選択導入サブルーチンVMSSUB
によらずに、ボイスモード選択サブルーチンEPVMに
よってもよい、つまり、ボイスモード選択ページ以外の
エデイツトモードのページにおいては、上述のように、
ファンクシ1ンスイツチF1にボイスモード選択が割当
てられるようになっており、表示部DPYにおいてこれ
らのエデイツトモードのページが表示されているときフ
ァンクションスイッチF1がオンされると、エントリポ
イントテーブルEPT (第11図)では「ボイスモー
ド選択サブルーチン」EPVMを呼び出す。
Note that the process of changing the screen display of the display unit DPY to the "Voice mode selection j page" as exemplified in FIG.
In other words, in edit mode pages other than the voice mode selection page, as described above,
Voice mode selection is assigned to function switch F1, and when function switch F1 is turned on while these edit mode pages are displayed on display unit DPY, entry point table EPT (11th In the example shown in the figure), the ``Voice Mode Selection Subroutine'' EPVM is called.

このボイスモード選択サブルーチンEPVMは第17図
においてボイスモード選択導入サブルーチンVMSSU
Bと一緒に示されている。まず。
This voice mode selection subroutine EPVM is the voice mode selection introduction subroutine VMSSU in FIG.
Shown together with B. first.

ステップ77において、エデイツトモードEMODEを
「ボイスモード選択」を示す「0」にセットし1次に前
記ステップ75.76の処理を行なう。
In step 77, the edit mode EMODE is set to "0" indicating "voice mode selection", and the processes of steps 75 and 76 are first performed.

このようにして表示部DPYで第28図に例示するよう
な「ボイスモード選択」ページを表示した状態において
1次に、データ入力部42またはカーソルキーC8Rを
操作すると、これに応じてボイスモードVMODEの値
が変更され、所望のボイスモードを選択することができ
る。
In this way, when the data input section 42 or the cursor key C8R is operated while the "voice mode selection" page as shown in FIG. 28 is displayed on the display section DPY, the voice mode VMODE is selected accordingly. The desired voice mode can be selected.

この点について説明すると、「ボイスモード選択」ペー
ジを表示した状態において、データ入力部42が操作さ
れると、エントリポイントテーブルEPT (第11図
)では「ボイスモード選択数値入力サブルーチンJ E
PDS(nE)を呼び出す、また、「ボイスモード選択
」ページを表示した状態において、カーソルキーC8R
が操作されると、エントリポイントテーブルEPT (
第11図)では「ボイスモード選択カーソルキーオンイ
ベントサブルーチンJ EPCD(nE)を呼び出す。
To explain this point, when the data input section 42 is operated while the "Voice Mode Selection" page is displayed, the "Voice Mode Selection Numerical Input Subroutine J E
Call up PDS (nE), or press cursor key C8R while the "Voice mode selection" page is displayed.
is manipulated, the entry point table EPT (
11) calls the voice mode selection cursor key-on event subroutine JEPCD(nE).

ボイスモード選択数値入力サブルーチンEPDS(nE
)とボイスモード選択カーソルキーオンイベントサブル
ーチンEPCD(nE)につき第18図を参照して説明
すると、まず、データ入力部42が操作された場合は、
このデータ入力部42によって入力された数値に応じて
ボイスモードVMODEを変更する(ステップ78)。
Voice mode selection numerical value input subroutine EPDS (nE
) and the voice mode selection cursor key-on event subroutine EPCD(nE) will be explained with reference to FIG. 18. First, when the data input section 42 is operated,
The voice mode VMODE is changed according to the numerical value input by the data input section 42 (step 78).

次に1表示部DPYにおけるカーソルの位置を新しいボ
イスモードVMODEによって指示される特定のボイス
モードの位置に移す(ステップ79)。
Next, the position of the cursor in one display section DPY is moved to the position of the specific voice mode indicated by the new voice mode VMODE (step 79).

新しいボイスモードVMODEに応じてエレメントタイ
プテーブルETT (第9図)から該ボイスモードにお
ける各エレメント1〜4の音源タイプを読み出し、これ
に応じたエレメント構成表示を表示部DPYの画面右上
にて行なう(ステップ80)。
In accordance with the new voice mode VMODE, the sound source type of each element 1 to 4 in the voice mode is read from the element type table ETT (Fig. 9), and the element configuration corresponding to this is displayed at the upper right of the screen of the display unit DPY ( Step 80).

次に、新しいボイスモードVMODEに応じてエデイツ
トバッファメモリVERにおける各エレメント1〜4の
エデイツトスタートポインタEDS (1)〜E D 
S (4)の値を再設定する(ステップ81)、これは
、各エデイツトスタートポインタEDS(1) 〜ED
S(4)を、新シイボイスモードVMODEに合わせる
ためである。
Next, the edit start pointers EDS (1) to E D of each element 1 to 4 in the edit buffer memory VER are set according to the new voice mode VMODE.
Resetting the value of S (4) (step 81), this is done for each edit start pointer EDS (1) ~ED
This is to make S(4) compatible with the new voice mode VMODE.

次に、新しいボイスモードVMODEの内容に応じてエ
レメントタイプテーブルETTを参照し。
Next, the element type table ETT is referred to according to the contents of the new voice mode VMODE.

そのボイスモードにおける同時発音可能数(エレメント
タイプテーブルETTの同時発音可能数の欄の値)を決
定し、これを同時発音可能数レジスタN5CHにストア
する(ステップ82)。
The number of simultaneous sounds in the voice mode (the value in the column of the number of simultaneous sounds in the element type table ETT) is determined and stored in the simultaneous sound possible number register N5CH (step 82).

カーソルキーC8Rが押された場合は、ボイスモードV
MODEの値を1増加する(ステップ83)、ボイスモ
ードの値が1から10の範囲で変化するようにするため
に、1増加したVMODEの値が10よりも大となった
ら、このVMODEの値を「1」にリセットする(ステ
ップ84,85)、その後、上述のステップ79〜82
の処理を行なう。
If cursor key C8R is pressed, voice mode V
The value of MODE is increased by 1 (step 83). If the value of VMODE increased by 1 is greater than 10, the value of this VMODE is is reset to "1" (steps 84, 85), then steps 79 to 82 described above
Process.

上記から明らかなように、データ入力部42の操作によ
れば所望のボイスモードを一度で選択することができ、
カーソルキーC5Rでは1回の抑圧毎にボイスモードV
MODEの値を1つづつずらすことにより最終的に所望
のボイスモードを選択する。
As is clear from the above, a desired voice mode can be selected at once by operating the data input section 42,
With cursor key C5R, voice mode V is set for each suppression.
By shifting the value of MODE one by one, the desired voice mode is finally selected.

コモンデータの凝来 第16図のステップ68でエデイツトモードEMODE
の値が1であると判断されると、コモンデータエデイツ
ト導入サブルーチンC0M5UBを行なう、このサブル
ーチンC0M5UBの一例は第19図に示されている。
Consolidation of common data At step 68 in Figure 16, edit mode EMODE is set.
When it is determined that the value of is 1, the common data edit introduction subroutine C0M5UB is executed. An example of this subroutine C0M5UB is shown in FIG.

まず、ステップ86では1表示部DPYのページを指示
する現在ページPAGEの内容を、「コモンデータエデ
イツト」ページを指示する所定の値nE+1にセットす
る。
First, in step 86, the content of the current page PAGE indicating the page of one display section DPY is set to a predetermined value nE+1 indicating the "common data edit" page.

次のステップ87では1表示部DPYの画面表示を第2
9図に例示するような「コモンデータエデイツト」メニ
ューのページにし、各種コモンデータ名を表示し、現在
選択されているコモンデータ名にカーソルを置くと共に
、@在選択されているボイスモードVMODEにおける
各エレメント1〜4の音源タイプを右上に表示する。ま
た、前述と同様に各ファンクションスイッチF1〜F5
に対応する表示を行う、なお、ここで、現在選択されて
いるボイスモードVMODEにおけるエレメント構成に
おいて使用しないエレメントに対応するファンクション
スイッチ表示はなされない。
In the next step 87, the screen display of the first display section DPY is
Display the "Common Data Edit" menu page as shown in Figure 9, display the various common data names, place the cursor on the currently selected common data name, and select the The sound source type of each element 1 to 4 is displayed in the upper right corner. In addition, as described above, each function switch F1 to F5
Note that function switches corresponding to elements that are not used in the element configuration in the currently selected voice mode VMODE are not displayed.

第29図の例ではrE3J、rE4Jが表示されていな
い。
In the example of FIG. 29, rE3J and rE4J are not displayed.

なお、表示部DPYの画面表示を第29図に例示するよ
うな「コモンデータエデイツト」メニューのページにす
る処理は、上述のようなコモンデータエデイツト導入サ
ブルーチンC0M5UBによらずに、コモンデータエデ
イツトサブルーチンEPCOMによってもよい、つまり
、「コモンデータエデイツト」メニューのページ以外の
エデイツトモードのページにおいては、前述のように、
ファンクションスイッチF2にコモンデータの編集を選
択する機能が割当てられるようになっており。
Note that the process of changing the screen display of the display unit DPY to the "Common Data Edit" menu page as illustrated in FIG. In other words, in edit mode pages other than the "common data edit" menu page, as described above,
The function of selecting common data editing is now assigned to function switch F2.

表示部DPYにおいてこれらのエデイツトモードのペー
ジが表示されているときファンクションスイッチF2が
オンされると、エントリポイントテーブルEPT(第1
1図)では「コモンデータエデイツトサブルーチンJ 
EPCOMを呼び出す。
When function switch F2 is turned on while these edit mode pages are displayed on display unit DPY, entry point table EPT (first
1), the “common data edit subroutine J
Call EPCOM.

このコモンデータエデイツトサブルーチンEPCOMは
第19図においてコモンデータエデイツト導入サブルー
チンC0M5UBと一緒に示されている。ここでは、ス
テップ88において、エデイツトモードEMODEを「
コモンデータエデイツト」を示す「1」にセットし1次
に前記ステップ86.87の処理を行なう。
This common data edit subroutine EPCOM is shown together with the common data edit introduction subroutine C0M5UB in FIG. Here, in step 88, the edit mode EMODE is set to "
The flag is set to "1" indicating "common data edit" and the processing of steps 86 and 87 is performed first.

このようにして表示部DPYで第29図に例示するよう
な「コモンデータエデイツト」メニューのページを表示
した状態において、次に、データ入力部42またはカー
ソルキーC8Rを操作すると、これに応じてカーソルが
動き、所望のコモンデータを選択することができる。所
望のコモンデータを選択した後、エンターキーENTE
R(第7図)を押すと、エントリポイントテーブルEP
T(第11図)を参照して「コモンデータエデイツト」
の下位のサブルーチンEPET (nE+1)が呼び出
され、これに従い1表示部DPYのページが下位ページ
に切り替わり、所望のコモンデータの詳細内容の変更・
修正を行なうことができる。
With the "Common Data Edit" menu page shown in FIG. 29 displayed on the display section DPY in this way, next time you operate the data input section 42 or the cursor key C8R, the The cursor moves and desired common data can be selected. After selecting the desired common data, press the enter key ENTE.
Press R (Figure 7) to display the entry point table EP.
"Common Data Edit" with reference to T (Figure 11)
The lower subroutine EPET (nE+1) is called, and accordingly the page of 1 display section DPY is switched to the lower page, and the detailed contents of the desired common data can be changed and
Corrections can be made.

この下位のサブルーチンEPET (nE+1)につい
ては説明を省略する。
Description of this lower subroutine EPET (nE+1) will be omitted.

実子yノア1−(釘を二り報l ここではエレメント1に関するデータ編集についてその
詳細を説明し、他のエレメント2〜4に関するデータ編
集はこれとほぼ同様の処理であるため詳細説明を省略す
る。
Biological child y Noah 1 - (Nail report) Here, we will explain the details of data editing regarding element 1, and the detailed explanation will be omitted since data editing regarding other elements 2 to 4 is almost the same process. .

第16図のステップ68でエデイツトモードEMODE
の値が2であると判断されると、エレメント1のエデイ
ツト導入サブルーチンE I SUBを行なう、このサ
ブルーチンEISUBの一例は第20図に示されている
In step 68 of Fig. 16, edit mode EMODE is selected.
When the value of is determined to be 2, the edit introduction subroutine E I SUB of element 1 is performed. An example of this subroutine EISUB is shown in FIG.

まず、ステップ89では、ボイスモードVMODEに応
じてエレメントタイプテーブルETTを参照し、エレメ
ント1の音源タイプを読み出し。
First, in step 89, the element type table ETT is referred to according to the voice mode VMODE, and the sound source type of element 1 is read out.

これをエレメントタイプバッファETBUFにストアす
る。
Store this in the element type buffer ETBUF.

次に、ステップ90では、エレメントタイプバッファE
TBUFの値を調べる。「O」つまりこのエレメントが
不使用であればこのサブルーチンを終了するが、「1」
つまりFMタイプであれば。
Next, in step 90, element type buffer E
Check the value of TBUF. "O", that is, if this element is not used, this subroutine ends, but "1"
In other words, if it's an FM type.

ステップ91に行き1表示部DPYのページを指示する
現在ページPAGEの内容を、rFMデータエデイツト
」ページを指示する所定の値nE+2にセットする。
The program goes to step 91 and sets the contents of the current page PAGE, which indicates the page of 1 display section DPY, to a predetermined value nE+2, which indicates the "rFM data edit" page.

次のステップ92では、表示部DPYの画面表示を第3
0図に例示するようなrFMデータエデイツト」メニュ
ーのページにし、各種のFMパラメータデータ名を表示
し、現在選択されているFMパラメータデータ名にカー
ソルを置くと共に。
In the next step 92, the screen display of the display unit DPY is changed to the third
0), display various FM parameter data names, and place the cursor on the currently selected FM parameter data name.

現在選択されているボイスモードVMODEにおける各
エレメント1〜4の音源タイプを右上に表示する。また
、前述と同様に各ファンクションスイッチF1〜F5に
対応する表示を行う。
The sound source type of each element 1 to 4 in the currently selected voice mode VMODE is displayed in the upper right corner. Further, similar to the above, displays corresponding to each of the function switches F1 to F5 are performed.

FMパラメータの一例につき説明すると、AlgoはF
M演算ユニットOPI〜OP6の接続組合せを設定する
アルゴリズムパラメータである。0pEGは各演算ユニ
ットOPI〜OPS毎のエンベロープ波形を設定するパ
ラメータである。また。
To explain an example of the FM parameter, Algo
This is an algorithm parameter for setting connection combinations of M calculation units OPI to OP6. 0pEG is a parameter that sets the envelope waveform for each calculation unit OPI to OPS. Also.

Fil PCLは各演算ユニットOPI〜OPe毎のフ
ィードバックレベルデータFLI〜FL6及び外部入力
レベル制御データEXTLL〜EXTL6(第4図参照
)を設定するパラメータである。
Fil PCL is a parameter for setting feedback level data FLI-FL6 and external input level control data EXTLL-EXTL6 (see FIG. 4) for each arithmetic unit OPI-OPe.

一方、エレメントタイプバッファETBUFの値がr2
JつまりPCMタイプであれば、ステップ93に行き、
表示部DPYのページを指示する現在ページPAGEの
内容を、rPCMデータエデイツト」ページを指示する
所定の値nE+3にセットする。
On the other hand, the value of element type buffer ETBUF is r2
J, that is, if it is a PCM type, go to step 93,
The contents of the current page PAGE, which indicates the page of the display section DPY, are set to a predetermined value nE+3, which indicates the "rPCM Data Edit" page.

次のステップ94では、表示部DPYの画面表示を第3
1図に例示するようなrPCMデータエデイツト」メニ
ューのページにし、各種のPCMパラメータデータ名を
表示し、現在選択されているPCMパラメータデータ名
にカーソルを置くと共に、現在選択されているボイスモ
ードVMODEにおける各エレメント1〜4の音源タイ
プを右上に表示する。また、前述と同様に各ファンクシ
ョンスイッチF1〜F5に対応する表示を行う。
In the next step 94, the screen display of the display unit DPY is changed to the third
1, display the various PCM parameter data names, place the cursor on the currently selected PCM parameter data name, and select the currently selected voice mode VMODE. The sound source type of each element 1 to 4 is displayed in the upper right corner. Further, similar to the above, displays corresponding to each of the function switches F1 to F5 are performed.

ステップ95では、エデイツトモードEMODEをエレ
メント1のデータ編集を指示するr2」にセットする。
In step 95, the edit mode EMODE is set to "r2" which instructs data editing of element 1.

このステップ95による「2」のセットは、エデイツト
モードEMODEの値がまだ「2」以外のとき有効であ
る。
The setting of "2" in step 95 is valid when the value of the edit mode EMODE is still other than "2".

なお1表示部DPYの画面表示を第30図または第31
図に例示するようなrFMデータエデイツト」メニュー
またはrPCMデータエデイツト」メニューのページに
する処理は、上述のようなエレメント1の導入サブルー
チンEISUBによらずに、エレメント1のエデイツト
サブルーチンEPE1によってもよい、つまり、各種エ
デイツトモードのページにおいては、前述のように、フ
ァンクションスイッチF3にエレメント1のデータ編集
を選択する機能が割当てられるようになっており、表示
部DPYにおいてこれらのエデイツトモードのページが
表示されているときファンクションスイッチF3がオン
されると、エントリポイントテーブルEPT (第11
図)では「エレメント1のエデイツトサブルーチンJ 
EPEIを呼び出す。
The screen display of 1 display section DPY is shown in Fig. 30 or 31.
The process of creating a page for the ``rFM Data Edit'' menu or the ``rPCM Data Edit'' menu as illustrated in the figure can be performed not by the introduction subroutine EISUB of element 1 as described above, but also by the edit subroutine EPE1 of element 1. In other words, on the various edit mode pages, the function to select the data edit of element 1 is assigned to the function switch F3 as described above, and these edit modes are displayed on the display DPY. When function switch F3 is turned on while the page is displayed, entry point table EPT (11th
), "Edit subroutine J of element 1"
Call EPEI.

このエレメント1のエデイツトサブルーチンEPEAは
第20図においてエレメント1の導入サブルーチンEI
SUBと一緒に示されている。ここでは、ステップ96
において、エデイツトモードEMODEが「エレメント
1のエデイツト」を示す「2」に既にセットされている
かを調べ、YESならばこのサブルーチンを更に行なう
ことなく、リターンするが、NOならば別のエデイツト
モードからエレメント1のエデイツトモードに切り替え
られたことを意味するので、このサブルーチンを続行し
、前述のステップ89〜95の処理を行なう。
The edit subroutine EPEA of element 1 is the introduction subroutine EI of element 1 in FIG.
Shown with SUB. Here, step 96
, check whether the edit mode EMODE has already been set to ``2'' indicating ``edit element 1'', and if YES, return without executing this subroutine further, but if NO, change to another edit mode. Since this means that the mode has been switched to the edit mode of element 1, this subroutine is continued and the processes of steps 89 to 95 described above are performed.

このようにして表示部DPYで第30図または第31図
に例示するようなrFMデータエデイツト」メニューま
たはrPCMデータエデイツト」メニューのページを表
示した状態において1次に、データ入力部42またはカ
ーソルキーC5Rを操作すると、ニオ5に応じてカーソ
ルが動き、所望のパラメータデータを選択すること、が
できる、所望のパラメータデータを選択した後、エンタ
ーキーENTER(第7図)を押すと、エントリポイン
トテーブルEPT (第11図)を参照してrFMデー
タエデイツト」メニューまたはrPC,Mデータエデイ
ツト」メニューの下位のサブルーチンEPET(nE+
2)またはEPET(nE+3)が呼び出され、これに
従い1表示部DPYのページが下位ページに切り替わり
、所望のFMまたはPCMパラメータデータの詳細内容
の変更・修正を行なうことができる。この下位のサブル
ーチンEPET(nE+2)またはEPET(nE+3
)については説明を省略する。
In this manner, with the page of the "rFM Data Edit" menu or the "rPCM Data Edit" menu as exemplified in FIG. 30 or FIG. 31 displayed on the display unit DPY, By operating the key C5R, the cursor moves according to the NIO 5 and the desired parameter data can be selected. After selecting the desired parameter data, press the enter key ENTER (Fig. 7) to enter the entry point. Refer to table EPT (Fig. 11) and select subroutine EPET (nE+
2) or EPET(nE+3) is called, and accordingly the page of 1 display section DPY is switched to a lower page, and the detailed contents of the desired FM or PCM parameter data can be changed or corrected. This lower subroutine EPET(nE+2) or EPET(nE+3)
), the explanation will be omitted.

FMパラメータデータの詳細内容の変更・修正の一例を
説明すると、第30図のrFMデータエデイツト」メニ
ューのページにおいて1番号9のパラメータFB PC
Lのエデイツトを選択すると(つまりカーソルを番号9
に合わせてエンターキーENTERを押すと)1表示部
DPYは第32図のようなフィードバック及びPCMレ
ベルエデイツトのページに切り替わる。このページ画面
において、カーソルキーC5Rとデータ入力部42を適
宜操作して、FM音源18の各演算ユニットOP1〜O
P6毎にフィードバックレベルと20Mレベルをそれぞ
れ所望の値に設定する。フィードバックレベルとは、前
述のように、自己の演算ユニット出力を自己の変調波信
号として帰還する比率を設定するレベルデータであり、
これが第4図におけるフィードバックレベルデータFL
1〜FL6に対応する。PCMレベルとは、PCM音源
17の出力楽音信号をFM音源18の各演算ユニットO
Pl〜OP6に変調波信号として入力する比率を設定す
るレベルデータであり、これが第4図における外部入力
レベル制御データEXTL1〜EXTL6に対応する。
To explain an example of changing/correcting the detailed contents of FM parameter data, on the "rFM Data Edit" menu page in Figure 30, the parameter 1 number 9 FB PC
Select L edit (that is, move the cursor to number 9)
When the enter key ENTER is pressed at the same time, the display section DPY1 changes to the feedback and PCM level edit page as shown in FIG. On this page screen, operate the cursor key C5R and data input section 42 as appropriate to
The feedback level and 20M level are each set to desired values for each P6. As mentioned above, the feedback level is level data that sets the ratio at which the output of the own arithmetic unit is fed back as the own modulated wave signal.
This is the feedback level data FL in Figure 4.
Corresponds to 1 to FL6. The PCM level refers to the output musical tone signal of the PCM sound source 17 at each calculation unit O of the FM sound source 18.
This is level data for setting the ratio to be input as a modulated wave signal to Pl to OP6, and this corresponds to external input level control data EXTL1 to EXTL6 in FIG. 4.

前述のように、フィードバックやPCMの変調波信号を
使用しない場合はこれらのレベルデータの値をOに設定
する。
As described above, when feedback and PCM modulated wave signals are not used, the values of these level data are set to O.

以上はエレメント1に関するデータ編集につぃての説明
であるが、他のエレメント2〜4に関するデータ編集に
ついてもはこれとほぼ同様の手順で行なうことができる
The above is a description of data editing regarding element 1, but data editing regarding other elements 2 to 4 can be performed using substantially the same procedure.

すなわち、第16図のステップ68でエデイツトモード
EMODEの値が3であると判断された場合はエレメン
ト2のエデイツト導入サブルーチンE2SUBを行ない
(ステップ72)、EMODE=4の場合はエレメント
3のエデイツト導入サブルーチンE3SUBを行ない(
ステップ73)、EMODE=5の場合はエレメント4
のエデイツト導入サブルーチンE4SUBを行なう(ス
テップ74)、また、表示部DPYにおいてエデイツト
モードのページが表示されているときファンクションス
イッチF4乃至F6をオンすることにより、エントリポ
イントテーブルEPT (第11図)ではエレメント2
乃至4の「エデイツトサブルーチン」を呼び出し、これ
を実行する。
That is, if it is determined in step 68 of FIG. 16 that the value of the edit mode EMODE is 3, the edit introduction subroutine E2SUB of element 2 is executed (step 72), and if EMODE=4, the edit introduction of element 3 is executed. Executes subroutine E3SUB (
step 73), element 4 if EMODE=5
By executing the edit introduction subroutine E4SUB (step 74) and turning on the function switches F4 to F6 while the edit mode page is displayed on the display DPY, the entry point table EPT (Fig. 11) is element 2
The ``edit subroutine'' from 4 to 4 is called and executed.

X h7り(限 所望のエデイツトが終了したときストアキー5TORE
 (第7図)を押して、エデイツト終了済みのボイスデ
ータをボイスエデイツトバッファメモリVEBからボイ
スデータメモリVDMに戻すモードとする。
X h7ri (when the desired edit is completed, store key 5TORE
(FIG. 7) is pressed to set the mode in which edited voice data is returned from the voice edit buffer memory VEB to the voice data memory VDM.

表示部DPYの表示画面が何らかのエデイツトモードの
ページのとき、ストアキー5TOREが押されると、エ
ントリポイントテーブルEPT(第11図)では「スト
アサブルーチンJ EPSTを呼び出す、このストアサ
ブルーチンEPSTの詳細例は第21図に示されている
When the display screen of the display unit DPY is in some kind of edit mode page, when the store key 5TORE is pressed, the entry point table EPT (Figure 11) says "Calls the store subroutine J EPST. A detailed example of this store subroutine EPST is It is shown in FIG.

ストアサブルーチンEPSTでは、まず、ページバッフ
ァPAGEBUFに現在ページPAGEのページデータ
を移し、現在ページPAGEの内容を、「ストア」ペー
ジを指示する所定の値nsにセットする。ページバッフ
ァPAGEBtJFはストア処理途中で若しくはストア
処理終了後に画面を元のページに戻すために設けられて
いる1次に。
In the store subroutine EPST, first, page data of the current page PAGE is transferred to the page buffer PAGEBUF, and the contents of the current page PAGE are set to a predetermined value ns indicating a "store" page. The page buffer PAGEBtJF is a primary buffer provided to return the screen to the original page during the store process or after the store process is completed.

表示部DPYの画面表示を第33図に例示するような「
ストア」ページにし、現在のボイスナンバ及びボイス名
を表示すると共に、各ボイスナンバに対応するボイス名
をそれぞれ表示し、ストアボイスナンバ5TVNによっ
て指示されるボイスナンバの位置にカーソルを置く、ま
た、ファンクションスイッチF1に対応してクイツトキ
ーQUITの表示を行ない、ファンクションスイッチF
8に対応してスタートキー5TRTの表示を行なう。
The screen display of the display unit DPY is as shown in FIG.
Store" page, display the current voice number and voice name, display the voice name corresponding to each voice number, and place the cursor at the position of the voice number specified by Store Voice Number 5TVN. The QUIT key is displayed corresponding to switch F1, and function switch F1 is displayed.
8, the start key 5TRT is displayed.

このようにして表示部DPYで第33図に例示するよう
な「ストアjページを表・示した状態において1次に、
データ入力部42またはカーソルキーC8Rを操作する
と、これに応じてストアボイスナンバ5TVNの値が変
更され1編集済みのボイスデータをストアしようとする
所望のボイスナンバを選択することができる。
In this way, when the display section DPY displays the "Store J page" as shown in FIG. 33, the primary
When the data input section 42 or the cursor key C8R is operated, the value of the store voice number 5TVN is changed accordingly, and it is possible to select a desired voice number in which the 1-edited voice data is to be stored.

この点について説明すると、「ストア」ページを表示し
た状態において、データ入力部42が操作されると、エ
ントリポイントテーブルEPT(第11図)では「スト
アボイスナンバ数値入力サブルーチンJ EPDS(n
s)を呼び出す、また、「ストア」ページを表示した状
態において。
To explain this point, when the data input section 42 is operated while the "Store" page is displayed, the "Store Voice Number Numerical Input Subroutine J EPDS (n
s) and with the "Store" page displayed.

カーソルキーC8Rが操作されると、エントリポイント
テーブルEPT (第11図)ではストアボイスナンバ
選択用の「カーソルキーオンイベントサブルーチンJ 
EPCD(ns)を呼び出す。
When the cursor key C8R is operated, the entry point table EPT (Fig. 11) displays the "cursor key on event subroutine J" for selecting a store voice number.
Call EPCD(ns).

ストアボイスナンバ数値入力サブルーチンEPDS(n
S)とカーソルキーオンイベントサブルーチンEPCD
(ns)につき第22図を参照して説明すると、まず、
データ入力部42が操作された場合は、このデータ入力
部42によって入力された数値に応じてストアボイスナ
ンバS TVNの値を変更する0次に、表示部DPYに
おけるカーソルの位置を新しいストアボイスナンバ5T
VNによって指示される特定のボイスナンバの位置に移
す、また、カーソルキーC8Rが押された場合は、スト
アボイスナンバ5TVNの値をモジュロ16で1増加し
、その後、表示部DPYにおけるカーソルの位置を新し
いストアボイスナンバ5TVNによって指示される特定
のボイスナンバの位置に移す。
Store voice number numerical input subroutine EPDS (n
S) and cursor key-on event subroutine EPCD
To explain (ns) with reference to FIG. 22, first,
When the data input section 42 is operated, the value of the store voice number S TVN is changed according to the numerical value inputted by the data input section 42.Next, the cursor position on the display section DPY is changed to the new store voice number. 5T
If the cursor key C8R is pressed, the value of store voice number 5TVN is increased by 1 modulo 16, and then the cursor position on the display DPY is moved to the position of the specific voice number indicated by VN. Move to the position of the specific voice number indicated by the new store voice number 5TVN.

こうして1編集済みのボイスデータをストアしようとす
る所望のボイスナンバをストアボイスナンバ5TVNに
登録した後、スタートキー5TRT(つまりファンクシ
ョンスイッチF8)をオンする。そうすると、エントリ
ポイントテーブルEPTにより第23図の「ストア実行
サブルーチン」が呼び出される。ことでは、まず、「ス
トア」ページの画面の下の方にrNov StOrin
gJというよなストア実行中である−ことを示す表示を
行なう。
After registering the desired voice number in which the 1-edited voice data is to be stored as the store voice number 5TVN, the start key 5TRT (that is, the function switch F8) is turned on. Then, the "store execution subroutine" shown in FIG. 23 is called by the entry point table EPT. First of all, at the bottom of the "Store" page, select rNov StOrin.
A display such as gJ is displayed to indicate that a store is being executed.

そして、ストアボイスナンバ5TVHに応じてストアボ
イスポインタ5TVPを設定する。このストアボイスポ
インタ5TVPは、5TVNのボイスナンバに対応する
ボイスデータ1メモリVDMにおけるボイスデータエリ
アの先頭アドレスを指示するものである。
Then, a store voice pointer 5TVP is set according to the store voice number 5TVH. This store voice pointer 5TVP indicates the start address of the voice data area in the voice data 1 memory VDM corresponding to the voice number 5TVN.

そして、ストアボイスポインタ5TVPによって指示さ
れたボイスメモリVDMにおけるボイスデータエリアに
ボイスエデイツトバッファメモリVERのデータを転送
する。その場合、ボイスエデイツトバッファメモリVE
Rのデータを全部転送するのではなく、ボイスモードV
MODEの内容に応じて必要なものを転送する。まず、
コモンデータバッファCDBの「ボイス名」、「ボイス
モード」及び「コモンデータ」は、ボイスメモリVDM
におけるボイスデータエリアの対応するエリアに転送さ
れる0次に、FMエデイツトバッファFMEBにおける
4つのFMエレメントエデイツトバッファ1乃至4とP
CMエデイツトバッファPCMEBにおける4つのPC
Mエレメントエデイツトバッファ1乃至4のうち、ボイ
スモードVMODEの内容に応じて必要なもののみ、ボ
イスメモリVDMにおけるボイスデータエリアの対応す
るエレメントパラメータデータエリアに転送される。
Then, the data in the voice edit buffer memory VER is transferred to the voice data area in the voice memory VDM indicated by the store voice pointer 5TVP. In that case, the voice edit buffer memory VE
Rather than transferring all data of R, voice mode V
Transfer necessary items according to the contents of MODE. first,
"Voice name", "Voice mode" and "Common data" of the common data buffer CDB are stored in the voice memory VDM.
Next, the four FM element edit buffers 1 to 4 in the FM edit buffer FMEB and P
4 PCs in CM edit buffer PCMEB
Of the M element edit buffers 1 to 4, only those necessary according to the contents of the voice mode VMODE are transferred to the corresponding element parameter data area of the voice data area in the voice memory VDM.

その後、現在ページPAGEの内容を次ページns+1
に変更し、所定のストアエンド表示(例えば画面の下部
にrcoa+plete!Jと表示する)を行なう。
After that, change the contents of the current page PAGE to the next page ns+1
and displays a predetermined store end display (for example, displaying rcoa+plete!J at the bottom of the screen).

ページ番号nsの「ストア」ページ若しくはnS+1の
「ストアエンド」ページにおいて、ファンクシ1ンスイ
ツチF1はクイツトキーQUITとして機能し、これが
オンされると、第24図のクイツトキーオンイベントサ
ブルーチンが実行される。ここでは、ページバッファP
AGEBUFのページデータを現在ページPAGEに移
し、この現在ページPAGEで指示されるページに入る
ためのルーチンをコールする。これにより、ストア処理
途中で若しくはストア処理終了後に、クイツトキーQU
ITがオンされると、表示部DPYの画面はストア処理
に入る直前の処理のページ画面に戻される。これにより
、エデイツトのやり直等が行なえる。
On the "store" page with page number ns or the "store end" page with page number nS+1, function switch F1 functions as a quick key QUIT, and when this is turned on, the quick key on event subroutine shown in FIG. 24 is executed. Here, page buffer P
A routine is called to move the page data of AGEBUF to the current page PAGE and enter the page indicated by this current page PAGE. As a result, the quick key QU during the store process or after the store process is completed.
When IT is turned on, the screen of the display unit DPY is returned to the page screen of the process immediately before starting the store process. This allows editing to be done again.

見立■l工簸星 鍵が新たな押圧されると、第25図のキーオンイベント
処理を行ない、該押圧鍵の発音をいずれか1又は複数の
チャンネルに割当てる。
When the Mitate ■l Technique Star key is pressed anew, the key-on event process shown in FIG. 25 is performed and the sound produced by the pressed key is assigned to one or more channels.

まず、キーオンイベントに係る押圧鍵のキーコードをキ
ーコードレジスタKCODEにストアし、それに対応す
るタッチデータをタッチデータレジスタTDATAにス
トアする(ステップ100)。
First, the key code of the pressed key related to the key-on event is stored in the key code register KCODE, and the corresponding touch data is stored in the touch data register TDATA (step 100).

次に、同時発音可能数レジスタN5CHに登録した同時
発音可能数に応じて1次割当てチャンネルASCHを決
定し、この1次割当てチャンネルASCHに新押圧鍵を
仮りに割当てる(ステップ101)。
Next, a primary allocation channel ASCH is determined according to the number of simultaneous sounds registered in the simultaneous sound generation register N5CH, and a new pressed key is provisionally allocated to this primary allocation channel ASCH (step 101).

1次割当てチャンネルASC)(とは、実際の発音チャ
ンネルではなく、実際の発音チャンネルに割当てる前段
階で使用されるものである。1次割当てチャンネルAS
CHの数は同時発音可能数に対応している。同一鍵の多
系列発音の場合は、実・際の発音チャンネルにおいては
同一鍵が複数チャンネルに発音割当てされるが、1次割
当てチャンネルASCHには同一鍵は1チヤンネルにし
か割当てられない、同時発音可能数N5CH,全部で1
6チヤンネルある実際の発音チャンネル、及び1次割当
てチャンネルASCHの関係の一例を示すと次のようで
ある。なお、全部で16チヤンネルある実際の発音チャ
ンネルの各々を0乃至15の番号で表わし、1次割当て
チャンネルASCHの各々をO乃至15の番号で表わす
Primary Assignment Channel ASC) (is not an actual sound generation channel, but is used in the stage before being assigned to an actual sound generation channel. Primary Assignment Channel AS
The number of CHs corresponds to the number of simultaneous sounds. In the case of multi-sequence pronunciation of the same key, the same key is assigned to multiple channels in the actual pronunciation channel, but the same key can only be assigned to one channel in the primary assignment channel ASCH, which is simultaneous pronunciation. Possible number N5CH, total 1
An example of the relationship between the six actual sound generation channels and the primary assigned channel ASCH is as follows. Note that each of the actual sound generation channels, which are 16 in total, is represented by a number from 0 to 15, and each of the primary assigned channels ASCH is represented by a number from O to 15.

同時発音可能数N5CH=1のとき: 1次割当てチャンネルASCHは「0」のみ。When the number of simultaneous sounds N5CH=1: The primary assigned channel ASCH is only “0”.

実際の発音チャンネルは、系列数(使用するエレメント
の数)に応じて、「0」乃至「3」を使用する。ただし
、各発音チャンネルには同一鍵が割当てられる。
The actual sound generation channels used range from "0" to "3" depending on the number of sequences (number of elements used). However, the same key is assigned to each sound generation channel.

同時発音可能数N5CH=4のとき: 1次割当てチャンネルASCHは「0」乃至「3」の合
計4個。
When the number of simultaneous sounds N5CH=4: There are a total of 4 primary assigned channels ASCH from "0" to "3".

実際の発音チャンネルは、「0」乃至「3」のグループ
、「4」乃至「7」のグループ、「8」乃至「11」の
グループ、r12J乃至「15」のグループ、の合計4
グループを使用する。各グループには異なる鍵が割当て
られる。同一グループ内のチャンネルには、系列数(使
用するエレメントの数)に応じて、同一鍵が割当てられ
る0例えば、使用するエレメントが1個だけなら同一グ
ループ内の1チヤンネルにだけ押圧鍵が割当てられ、使
用するエレメントが2個なら同一グループ内の2チヤン
ネルに同じ押圧鍵が割当てられる。
There are a total of 4 actual pronunciation channels: groups "0" to "3", groups "4" to "7", groups "8" to "11", and groups r12J to "15".
Use groups. Each group is assigned a different key. The same key is assigned to channels within the same group depending on the number of sequences (number of elements used).For example, if only one element is used, the press key is assigned to only one channel within the same group. , if two elements are used, the same press key is assigned to two channels within the same group.

同時発音可能数N5CH=8のとき: 1次割当てチャンネルASCHは「0」乃至「7」の合
計8個。
When the number of simultaneous sounds N5CH=8: There are a total of 8 primary assigned channels ASCH from "0" to "7".

実際の発音チャンネルは、「0」及び「1」のグループ
、「2」及び「3」のグループ、「4」及び「5」のグ
ループ、「6」及び「7」のグループ、「8」及び「9
」のグループ、rlOJ及び「11」のグループ、r1
2J及び「13」のグループ、r14J及び「15」の
グループ、の合計8グループを使用する。各グループに
は異なる鍵が割当てられる。同一グループ内のチャンネ
ルには、系列数(使用するエレメントの数)に応じて、
同一鍵が割当てられる。
The actual pronunciation channels are "0" and "1" groups, "2" and "3" groups, "4" and "5" groups, "6" and "7" groups, "8" and "9
' group, rlOJ and '11' group, r1
A total of eight groups are used: a group of 2J and "13" and a group of r14J and "15". Each group is assigned a different key. For channels within the same group, depending on the number of series (number of elements used),
The same key is assigned.

同時発音可能数N5CH=16のとき:1次割当てチャ
ンネルASCHは「0」乃至「15」の合計16個。
When the number of simultaneous sounds N5CH=16: There are a total of 16 primary assigned channels ASCH from "0" to "15".

実際の発音チャンネルは、「0」乃至「15」を個別に
使用する。各発音チャンネルには異なる鍵が割当てられ
る。系列数(使用するエレメントの数)は1である。
As actual sound generation channels, "0" to "15" are used individually. A different key is assigned to each sound channel. The number of sequences (the number of elements used) is one.

ステップ101においては、N5CHの同時発音可能数
に応じて上述のように決定される1次割当てチャンネル
ASCHのいずれかに新押圧鍵を仮割当てする。なお、
以下では、記号ASCHはこのステップ101で仮割当
て決定された1つの1次割当てチャンネルの番号を特定
しているデータとして説明する。
In step 101, a new pressed key is provisionally assigned to one of the primary assignment channels ASCH determined as described above according to the number of N5CHs that can be sounded simultaneously. In addition,
In the following, the symbol ASCH will be explained as data specifying the number of one primary allocation channel whose provisional allocation was determined in step 101.

次のステップ102では前ステップ101で仮割当て決
定がなされたかを調べる8例えば、同時、発音可能数よ
りも多い鍵が同時に押圧された場合は、ステップlol
で仮割当て決定がなされないことがあり、その場合はス
テップ102はNoとなる。仮割当て決定がなされたな
らばステップ102はYESであり、ステップ103に
行く。
In the next step 102, it is checked whether the provisional assignment decision was made in the previous step 1018.For example, if more keys than the number of keys that can be sounded are pressed at the same time, step lol
In some cases, a tentative allocation decision is not made in the step 102, in which case the answer to step 102 becomes No. If the provisional allocation decision has been made, step 102 is YES, and the process proceeds to step 103.

ステップ103ではエレメント番号iを「1」にセット
する。
In step 103, element number i is set to "1".

ステップ104では、現在選択されているボイスに関す
るi番目のエレメントの音源タイプをエレメントタイプ
テーブルETTから引出し、これをエレメントタイプバ
ッフ7ETBUFに登録する。
In step 104, the sound source type of the i-th element related to the currently selected voice is extracted from the element type table ETT and registered in the element type buffer 7ETBUF.

次のステップ105では、i番目のエレメントに関する
楽音信号の発生を割当てる実際のチャンネルを決定し、
決定したチャンネルの番号をチャンネルバッファCHB
UFに登録する。この割当てチャンネルは、現在選択さ
れているボイスのボイスモードVMODEとステップl
otで仮割当てした1次割当てチャンネルASCHとに
基づき。
In the next step 105, the actual channel to which the musical tone signal generation for the i-th element is assigned is determined;
Store the determined channel number in the channel buffer CHB.
Register with UF. This assigned channel is assigned to the voice mode VMODE and step l of the currently selected voice.
Based on the primary allocation channel ASCH tentatively allocated at ot.

第26図のような実割当てルーチンにより決定する。こ
の詳細については後述する。
This is determined by an actual allocation routine as shown in FIG. The details will be described later.

次のステップ106では、エレメントタイプバッファE
TBUFに記憶したi番目のエレメントのタイプが0.
1.2のいずれであるかを調べる。
In the next step 106, the element type buffer E
The type of the i-th element stored in TBUF is 0.
Check whether it is 1 or 2.

FM音源であることを示す「1」ならば、ステップ10
7に行き、FM音源18におけるチャンネルバッファC
HBUFによって指示されるチャンネルに対して、i番
目のエレメントのパラメータデータとコモンデータ、及
びKCODEとTDATA内のキーコードとタッチデー
タ、及びキーオンを示すキーオン信号KONを送出する
If it is “1” indicating that it is an FM sound source, step 10
7 and channel buffer C in FM sound source 18
The parameter data and common data of the i-th element, the key code and touch data in KCODE and TDATA, and a key-on signal KON indicating key-on are sent to the channel specified by HBUF.

エレメントタイプがPCM音源であることを示す「2」
ならば、ステップ108に行き、PCM音源17におけ
るチャンネルバッファCHBUFによって指示されるチ
ャンネルに対して、i番目のエレメントのパラメータデ
ータとコモンデータ。
"2" indicates that the element type is a PCM sound source
If so, the process goes to step 108, and the parameter data and common data of the i-th element are sent to the channel indicated by the channel buffer CHBUF in the PCM sound source 17.

及びKCODEとTDATA内のキーコードとタッチデ
ータ、及びキーオンを示すキーオン信号KONを送出す
る。
Then, the key code and touch data in KCODE and TDATA, and a key-on signal KON indicating key-on are sent out.

ステップ107または108の後、ステップ109に行
<、 一方、i番目のエレメントのタイプが不使用を示
す「0」ならば、ステップ107または108のような
トーンジェネレータのチャンネルに対するデータ送出は
行なわずに、ステップ109に行く。
After step 107 or 108, step 109 returns to line <. On the other hand, if the type of the i-th element is "0" indicating unused, data is not sent to the tone generator channel as in step 107 or 108. , go to step 109.

ステップ109ではiが4以上であるかを調べ、Noな
らばステップ110に行き、iを1増加してからステッ
プ104に戻り、ステップ104〜109のルーチンを
繰り返す、つまり別のエレメントに関する楽音信号の発
音割当てチャンネルを決定する処理を行なう、iが4以
上になると、このキーオンイベント処理を終了する。
In step 109, it is checked whether i is 4 or more, and if no, the process goes to step 110, increments i by 1, returns to step 104, and repeats the routine of steps 104 to 109. Processing for determining the sound generation allocation channel is performed. When i becomes 4 or more, this key-on event processing is terminated.

第26図の実割当てルーチンについて説明すると、まず
ステップ111では、ボイスモードVMODEが1乃至
10のいずれであるかを調べる。
To explain the actual allocation routine of FIG. 26, first, in step 111, it is checked whether the voice mode VMODE is from 1 to 10.

同時発音可能数N5CHが1であるボイスモード1,2
.3の場合は、ステップ112に行き。
Voice modes 1 and 2 where the number of simultaneous sounds N5CH is 1
.. If it is 3, go to step 112.

i−1の値に対応するチャンネルを実割当てチャンネル
として決定し、チャンネルバッファCHBUFに登録す
る。従って、i=1のときは1−1=0のチャンネルに
割当て、i=2のときは1−1=1のチャンネルに割当
てる、というように。
The channel corresponding to the value of i-1 is determined as the actual allocated channel and registered in the channel buffer CHBUF. Therefore, when i=1, it is assigned to the channel 1-1=0, when i=2, it is assigned to the channel 1-1=1, and so on.

「0」乃至「3」のチャンネルに順次同一鍵を割当てる
。なお、使用しないエレメントに関してはステップ10
7または108のようなデータ送出処理が行なわれない
ため、実質的に割当てがなされていないのと同じである
The same key is sequentially assigned to channels "0" to "3". For elements that are not used, step 10
Since data transmission processing such as 7 or 108 is not performed, it is essentially the same as no allocation being made.

同時発音可能数N5CHが8であり、かつ一種類の音源
のみが使用されるボイスモード5°または7の場合は、
ステップ113に行き、2xASCH+ i−1の演算
結果に対応するチャンネルを実割当てチャンネルとして
決定し、チャンネルバッファCHBUFに登録する。従
って、成る鍵をASCH=Oに仮割当てした場合、i=
1のときは演算結果「0」に対応するチャンネルに割当
て。
If the number of simultaneous sounds N5CH is 8 and the voice mode is 5° or 7 where only one type of sound source is used,
In step 113, the channel corresponding to the calculation result of 2xASCH+i-1 is determined as the actual allocated channel, and is registered in the channel buffer CHBUF. Therefore, if we tentatively assign a key to ASCH=O, then i=
When it is 1, it is assigned to the channel corresponding to the calculation result "0".

i=2のときは演算結果「1」に対応するチャンネルに
割当てる。というように、「O」及び「1」のチャンネ
ルに同一鍵を割当てる。また、別の鍵をASCH=1に
仮割当てした場合、i=1のときは演算結果「2」に対
応するチャンネルに割当て、i =2のときは「3」の
チャンネルに割当てる、というように、「2」及び「3
」のチャンネルに同一鍵を割当てる。
When i=2, the channel corresponding to the calculation result "1" is assigned. As such, the same key is assigned to channels "O" and "1". Also, when another key is provisionally assigned to ASCH=1, when i=1, it is assigned to the channel corresponding to the calculation result "2", when i=2, it is assigned to the channel "3", and so on. , “2” and “3
” Assign the same key to the channels.

同時発音可能数N5CHが4であるボイスモード8の場
合は、ステップ114に行き、4 XASCH+i−1
の演算結果に対応するチャンネルを実割当てチャンネル
として決定し、チャンネルバッファCHBUFに登録す
る。従って、成る鍵をASCH=Oに仮割当てした場合
、i=1のときは演算結果rOJに対応するチャンネル
に割当て。
In the case of voice mode 8 where the number of simultaneous sounds N5CH is 4, go to step 114 and perform 4 XASCH+i-1
The channel corresponding to the calculation result is determined as the actual allocated channel and registered in the channel buffer CHBUF. Therefore, if the key is temporarily assigned to ASCH=O, when i=1, it is assigned to the channel corresponding to the calculation result rOJ.

i=2のときは「1」のチャンネルに割当て、i=3の
ときは「2」のチャンネルに割当てる、i=4のときは
「3」のチャンネルに割当てる、というように、rOJ
乃至r3Jのチャンネルに同一鍵を順次割当てる。また
、別の鍵をASCH=1に仮割当てした場合、i=1の
ときは演算結果「4」に対応するチャンネルに割当て、
i=2のときは「5」のチャンネルに割当てる、という
ように、「4」乃至「7」のチャンネルに同一鍵を順次
割当てる。
When i = 2, it is assigned to channel "1", when i = 3, it is assigned to channel "2", when i = 4, it is assigned to channel "3", and so on.
The same key is sequentially assigned to channels r3J to r3J. Also, if another key is provisionally assigned to ASCH=1, when i=1, it is assigned to the channel corresponding to the calculation result "4",
When i=2, the same key is assigned to channel "5", and so on, and so on, the same key is assigned sequentially to channels "4" to "7".

同時発音可能数N5CHが16であるボイスモード4,
6.または9の場合は、ステップ115に行き、1次割
当てチャンネルASCHの値をそのまま実割当てチャン
ネルとし、チャンネルバッファCHBUFに登録する。
Voice mode 4 where the number of simultaneous sounds N5CH is 16,
6. Or, in the case of 9, the process goes to step 115, where the value of the primary allocated channel ASCH is used as the actual allocated channel and is registered in the channel buffer CHBUF.

従って1例えば成る鍵をASCH=Oに仮割当てした場
合、iの値に無関係に、実割当てチャンネルのrOJに
該軸が割当てられる。従って、2種類の音源が使用され
るボイスモード9の場合は、、例えば成る鍵をASCH
=Oに仮割当てした場合、FM音源に対応するエレメン
ト1の楽音信号はFM音源のチャンネルrOJに割当て
られ、PCM音源に対応する工レメント2の楽音信号は
PCM音源の同じチャンネル「0」に割当てられる。こ
うして、同一鍵が異音源の同一チャンネルに割当てられ
る。
Therefore, if a key consisting of, for example, 1 is tentatively assigned to ASCH=O, the axis is assigned to rOJ of the actual assigned channel, regardless of the value of i. Therefore, in the case of voice mode 9 where two types of sound sources are used, for example, the key consisting of ASCH
=O, the musical sound signal of element 1 corresponding to the FM sound source is assigned to channel rOJ of the FM sound source, and the musical sound signal of element 2 corresponding to the PCM sound source is assigned to the same channel "0" of the PCM sound source. It will be done. In this way, the same key is assigned to the same channel of different sound sources.

同時発音可能数N5CHが8であり、かつ2種類の音源
が使用されるボイスモード10の場合は。
In the case of voice mode 10, where the number of simultaneous sounds N5CH is 8 and two types of sound sources are used.

ステップ116に行き、2XASCH+mod((i−
1)/2)の演算結果に対応するチャンネルを実割当て
チャンネルとして決定し、チャンネルバッファCHBU
Fに登録する。従って、成る鍵をASCH=Oに仮割当
てした場合、i=1のときは5od((i −1)/ 
2) =Oであるから演算結果rOJに対応するチャン
ネルに割当てる。i:2のときはnod((i −1)
/ 2) = 1であるから演算結果「1」に対応する
チャンネルに割当てる、i=3のときはa+od((i
 −1)/ 2) =Oであるから演算結果rOJに対
応するチャンネルに割当てる、i=4のときはnod(
(i −1)/ 2) = 1であるから演算結果「1
」に対応するチャンネルに割当てる。というように、F
M音源に対応するエレメント1,2の楽音信号はFM音
源のチャンネル「0」及びrl」に割当て、PCM音源
に対応するエレメント3.4の楽音信号はPCM音源の
同じチャンネル「0」及び「1」にそれぞれ割当てる。
Go to step 116 and set 2XASCH+mod((i-
The channel corresponding to the calculation result of 1)/2) is determined as the actual allocated channel, and the channel buffer CHBU is
Register to F. Therefore, if a key consisting of
2) Since =O, allocate to the channel corresponding to the calculation result rOJ. When i:2, nod((i −1)
/ 2) = 1, so it is assigned to the channel corresponding to the calculation result "1". When i = 3, a + od ((i
-1)/2)=O, so it is assigned to the channel corresponding to the calculation result rOJ. When i=4, nod(
(i −1)/2) = 1, so the calculation result is “1
” to the corresponding channel. So, F
The musical sound signals of elements 1 and 2 corresponding to the M sound source are assigned to channels "0" and "rl" of the FM sound source, and the musical sound signals of element 3.4 corresponding to the PCM sound source are assigned to the same channels "0" and "1" of the PCM sound source. ” respectively.

また、別の鍵をASCH=1に仮割当てした場合は。Also, if another key is provisionally assigned to ASCH=1.

FM音源に対応するエレメント1,2の楽音信号はFM
音源のチャンネル「2」及び「3」に割当て、PCM音
源に対応するエレメント3,4の楽音信号はPCMf源
の同じチャンネル「2」及び「3」にそれぞれ割当てる
The musical sound signals of elements 1 and 2 corresponding to the FM sound source are FM.
The musical sound signals of elements 3 and 4 corresponding to the PCM sound source are assigned to the same channels "2" and "3" of the PCMf source, respectively.

棗叉舅 音源の種類はPCMとFMに限らず、他のものを使用し
て−もよい0例えば変調演算型の音源としては、FMに
限らず、振幅変調演算(AM)や窓関数演算によるもの
などが知られており、それらを使用してもよい、また、
高調波合成方式による音源や、フィルタを使用した減算
方式音源などを使用してもよい。
The types of sound sources are not limited to PCM and FM, but other types may also be used.For example, modulation calculation type sound sources are not limited to FM, but may also be based on amplitude modulation calculations (AM) or window function calculations. things are known and may be used, and
A sound source based on a harmonic synthesis method, a subtraction method sound source using a filter, or the like may be used.

上記実施例では、各音源における系列数(つまりエレメ
ント数)a、bが、選択されたボイスのボイスモードに
よって自動的に決まるようになっている0例えば、第9
図を参照すると、ボイスモード5では、FM音源の系列
数a=2.PCM音源の系列数b=oである。また、ボ
イスモード7では、FM音源の系列数a=o、PCM音
源の系列数b=2である。また、ボイスモード1oでは
In the above embodiment, the number of sequences (that is, the number of elements) a and b in each sound source is automatically determined depending on the voice mode of the selected voice.
Referring to the figure, in voice mode 5, the number of FM sound source sequences a=2. The number of sequences of the PCM sound source is b=o. Furthermore, in voice mode 7, the number of FM sound source series a=o, and the number of PCM sound source series b=2. Also, in voice mode 1o.

FM音源の系列数a=2.PCM音源の系列数b=2で
ある。しかし、このようにモードによって各音源の系列
数a、bを自動的に決定せずに、a。
Number of FM sound source sequences a=2. The number of PCM sound source sequences b=2. However, without automatically determining the number of sequences a and b for each sound source depending on the mode, a.

bを演奏者によって個別に任意に設定できるようにして
もよい、その場合の一実施例としては、第9図のエレメ
ントタイプテーブルETTに類似したテーブルを、任意
に作成できるような構成とすればよい。
b may be set individually and arbitrarily by each performer. In this case, one example is a configuration in which a table similar to the element type table ETT shown in FIG. 9 can be arbitrarily created. good.

各音源内のチャンネルは時分割型に限らず、並列型であ
ってもよい。
The channels within each sound source are not limited to the time division type, but may be of the parallel type.

同時に発生可能なボイスは1つに限らず、複数としても
よい、その場合は、チャンネル割当てをDVA (ダイ
ナミック・ボイス・アロケーション)の手法を用いて行
なうとよい。
The number of voices that can be generated at the same time is not limited to one, but may be multiple. In that case, it is preferable to allocate channels using a DVA (dynamic voice allocation) technique.

一方の音源しか使用しないボイスモードにおいては、使
用しない他方の音源を適宜の目的のために活用してよい
0例えば、使用しない音源で、シーケンサや外部から与
えら九る演奏情報に対応する楽音を発生するようにして
もよい、また、使用する音源のチャンネルがオールビジ
ィのときは。
In a voice mode in which only one sound source is used, the other sound source that is not used may be used for appropriate purposes. You can also enable this to occur if the sound source channel you are using is all busy.

あふれた音を本来使用しない方の音源で便宜的に発生す
るようにしてもよい。
For convenience, the overflowing sound may be generated by a sound source that is not originally used.

〔発明の効果〕〔Effect of the invention〕

以上の通り、この発明によれば、第1の音源手段におい
て共通の発音指示情報に対応して同時に発生すべき楽音
信号の数aと第2の音源手段において該共通の発音指示
情報に対応して同時に発生すべき楽音信号の数すとを夫
々特定する音源・系列数組合せ情報を発生するように構
成することにより、これらのaとbをそれぞれ任意に指
定できるようにし、また、これに応じて適切な割当て処
理を行なうようにしたので、2つの異なる音源を様々な
組合せで活用することができ、より複雑かつ多様な音作
りを行なうことができるようになる。
As described above, according to the present invention, the number a of musical tone signals to be generated simultaneously in response to common pronunciation instruction information in the first sound source means and the number a of musical tone signals to be generated simultaneously in correspondence with the common pronunciation instruction information in the second sound source means. By configuring the system to generate sound source/sequence number combination information that specifies the number of musical tone signals that should be generated at the same time, it is possible to specify each of these a and b arbitrarily. Since appropriate allocation processing is performed using the sound sources, two different sound sources can be used in various combinations, making it possible to create more complex and diverse sounds.

という優れた効果を奏する。It has this excellent effect.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の概要を示す機能ブロック図。 第2図はこの発明に係る楽音信号発生装置の一実施例を
適用した電子楽器の全体構成を軸承するブロック図、 第3図は第2図におけるトーンジェネレータ部の一例を
示すブロック図。 第4図は第3図におけるFM音源の一例を示すブロック
図。 第5図は第4図におけるFM演算ユニットの接続組合せ
の一例を示す機能ブロック図、第6図は第4図において
第5図の接続組合せを実現するための各種信号のタイミ
ングチャート、第7図は第2図の操作パネルにおける表
示部及びスイッチ等の一例を示す図、 第8図はボイスデータメモリとボイスエデイツトバッフ
ァメモリのメモリマツプを例示する図。 第9図はエレメントタイプテーブルの内容を示す図。 第10図は各種レジスタを一覧する図。 第11図はエントリポイントテーブルの内容を示す図。 第12図は第2図においてコンピュータによって実行さ
れるメインルーチンを軸承するフローチャート、 第13図乃至第26図は第12図のメインルーチンの過
程で実行される各種のサブルーチンやスイッチオンイベ
ントルーチンの一例を示すフローチャート。 第27図乃至第33図は第2図及び第7図に示した表示
部における各種の表示画面の内容を例示する図、である
。 14・・・鍵盤回路、IS・・・操作パネル、TO・・
・トーンジェネレータ部、17・・・PCM音源、18
・・・FM音源、DPY・・・表示部、FSW・・・フ
ァンクションスイッチ部。
FIG. 1 is a functional block diagram showing an overview of the invention. FIG. 2 is a block diagram illustrating the overall structure of an electronic musical instrument to which an embodiment of the musical tone signal generating device according to the present invention is applied, and FIG. 3 is a block diagram showing an example of the tone generator section in FIG. 2. FIG. 4 is a block diagram showing an example of the FM sound source in FIG. 3. Fig. 5 is a functional block diagram showing an example of the connection combination of the FM processing units in Fig. 4, Fig. 6 is a timing chart of various signals to realize the connection combination of Fig. 5 in Fig. 4, and Fig. 7 8 is a diagram illustrating an example of a display section, switches, etc. on the operation panel of FIG. 2, and FIG. 8 is a diagram illustrating a memory map of a voice data memory and a voice edit buffer memory. FIG. 9 is a diagram showing the contents of the element type table. FIG. 10 is a diagram listing various registers. FIG. 11 is a diagram showing the contents of the entry point table. FIG. 12 is a flowchart showing the main routine executed by the computer in FIG. 2, and FIGS. 13 to 26 are examples of various subroutines and switch-on event routines executed in the course of the main routine in FIG. 12. Flowchart showing. FIGS. 27 to 33 are diagrams illustrating the contents of various display screens on the display section shown in FIGS. 2 and 7. 14...Keyboard circuit, IS...Operation panel, TO...
・Tone generator section, 17... PCM sound source, 18
...FM sound source, DPY...display section, FSW...function switch section.

Claims (7)

【特許請求の範囲】[Claims] (1)N個のチャンネルで楽音信号を発生可能な第1の
音源手段と、 M個のチャンネルで楽音信号を発生可能な、前記第1の
音源手段とは異なる音源方式からなる第2の音源手段と
、 前記第1の音源手段において共通の発音指示情報に対応
して同時に発生すべき楽音信号の数aと第2の音源手段
において該共通の発音指示情報に対応して同時に発生す
べき楽音信号の数bとを夫々特定する情報からなる音源
・系列数組合せ情報を発生する音源・系列数組合せ情報
発生手段と、発音指示情報と前記音源・系列数組合せ情
報に応じて、前記第1の音源手段におけるN個のチャン
ネルのうち前記a個のチャンネルに該発音指示情報に対
応する楽音信号の発生を割当て、かつ、前記第2の音源
手段におけるM個のチャンネルのうち前記を個のチャン
ネルに該発音指示情報に対応する楽音信号の発生を割当
てる割当て手段とを具え、この割当てに従って前記各音
源手段の各チャンネルでそれぞれ楽音信号を発生するよ
うにした楽音信号発生装置。
(1) A first sound source means capable of generating musical sound signals on N channels; and a second sound source composed of a sound source method different from the first sound source means capable of generating musical sound signals on M channels. a number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the first sound source means, and a number a of musical tone signals to be generated simultaneously in response to the common pronunciation instruction information in the second sound source means; sound source/sequence number combination information generating means for generating sound source/sequence number combination information consisting of information specifying the number b of signals, respectively; Allocating generation of musical tone signals corresponding to the sound generation instruction information to the a channels among the N channels in the sound source means, and assigning the a channels out of the M channels in the second sound source means to the a channels. A musical tone signal generating device comprising: an allocating means for allocating generation of musical tone signals corresponding to the sound generation instruction information, and generating musical tone signals in each channel of each of the sound source means according to the assignment.
(2)前記音源・系列数組合せ情報発生手段は、前記数
aとをの種々の組合せに対応する複数のモードのうちい
ずれか1つのモードを選択する手段を含み、選択された
モードを示す情報を前記音源・系列数組合せ情報として
発生するものである請求項1に記載の楽音信号発生装置
(2) The sound source/sequence number combination information generation means includes means for selecting any one mode from among a plurality of modes corresponding to various combinations of the number a and the number a, and the information indicating the selected mode. 2. The musical tone signal generating apparatus according to claim 1, wherein the musical tone signal generating apparatus generates as the sound source/sequence number combination information.
(3)前記音源・系列数組合せ情報発生手段は、前記数
aとbを個別に任意に指定するための手段を含み、該数
aとbを夫々個別に指定する情報を前記音源・系列数組
合せ情報として発生するものである請求項1に記載の楽
音信号発生装置。
(3) The sound source/sequence number combination information generation means includes means for individually and arbitrarily specifying the numbers a and b, and the sound source/sequence number combination information generating means includes means for individually and arbitrarily specifying the numbers a and b, and 2. The musical tone signal generating device according to claim 1, wherein the musical tone signal generating device is generated as combination information.
(4)前記割当て手段は、前記チャンネル数N、Mと前
記数a、bにより、前記各音源手段における異なる発音
指示情報に対応する同時発音可能数を夫々決定し、決定
された同時発音可能数に従って割当てを行なうものであ
る請求項1に記載の楽音信号発生装置。
(4) The allocating means determines the number of possible simultaneous sounds corresponding to different sound generation instruction information in each of the sound source means, based on the numbers N and M of channels and the numbers a and b, and determines the number of possible simultaneous sounds corresponding to different sound generation instruction information in each of the sound source means. 2. The musical tone signal generating apparatus according to claim 1, wherein the musical tone signal generating apparatus performs the allocation according to the following.
(5)音色選択手段を更に具え、 前記音源・系列数組合せ情報発生手段は、該音色選択手
段によって選択された音色に応じて、予め準備された該
音色に対応して前記数aとbを特定する情報を前記音源
・系列数組合せ情報として発生するものである請求項1
に記載の楽音信号発生装置。
(5) further comprising a timbre selection means, wherein the sound source/sequence number combination information generation means generates the numbers a and b in accordance with the timbre prepared in advance according to the timbre selected by the timbre selection means; Claim 1, wherein the identifying information is generated as the sound source/sequence number combination information.
The musical tone signal generating device described in .
(6)前記音源・系列数組合せ情報発生手段は、前記数
aとbの種々の組合せに対応する複数のボイスモードの
うちいずれか1つのボイスモードを、前記音色選択手段
によって選択された音色に応じて特定する手段を含み、
特定されたボイスモードを示す情報を前記音源・系列数
組合せ情報として発生するものである請求項5に記載の
楽音信号発生装置。
(6) The sound source/sequence number combination information generation means converts any one voice mode among the plurality of voice modes corresponding to various combinations of the numbers a and b into the timbre selected by the timbre selection means. including means for identifying accordingly;
6. The musical tone signal generating device according to claim 5, wherein information indicating the specified voice mode is generated as the sound source/sequence number combination information.
(7)1音色に対応する楽音が1または複数の楽音信号
エレメントにより構成され、これらの各楽音信号エレメ
ントを前記第1及び第2の音源手段のどちらで発生する
かを指示することにより、前記数aとbを実質的に特定
するようにした請求項5に記載の楽音信号発生装置。
(7) A musical tone corresponding to one timbre is composed of one or more musical tone signal elements, and by instructing which of the first and second sound source means should generate each of these musical tone signal elements, 6. The musical tone signal generating device according to claim 5, wherein the numbers a and b are substantially specified.
JP1259414A 1989-10-04 1989-10-04 Music signal generator Expired - Fee Related JP2513041B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1259414A JP2513041B2 (en) 1989-10-04 1989-10-04 Music signal generator
US07/591,840 US5354948A (en) 1989-10-04 1990-10-02 Tone signal generation device for generating complex tones by combining different tone sources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1259414A JP2513041B2 (en) 1989-10-04 1989-10-04 Music signal generator

Publications (2)

Publication Number Publication Date
JPH03120593A true JPH03120593A (en) 1991-05-22
JP2513041B2 JP2513041B2 (en) 1996-07-03

Family

ID=17333779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1259414A Expired - Fee Related JP2513041B2 (en) 1989-10-04 1989-10-04 Music signal generator

Country Status (1)

Country Link
JP (1) JP2513041B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06222776A (en) * 1992-12-03 1994-08-12 Internatl Business Mach Corp <Ibm> Generation method of audio signal
US5448009A (en) * 1992-07-07 1995-09-05 Yamaha Corporation Electronic musical instrument including tone generator controller capable of conducting efficient control on different types of tone generators

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55121492A (en) * 1979-03-14 1980-09-18 Nippon Musical Instruments Mfg Electronic musical instrument
JPS576896A (en) * 1980-06-16 1982-01-13 Nippon Musical Instruments Mfg Musical tone wave synthesizing system for electronic musical instrument
JPS58102296A (en) * 1981-12-15 1983-06-17 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPH01230098A (en) * 1989-01-12 1989-09-13 Casio Comput Co Ltd Electronic musical instrument

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55121492A (en) * 1979-03-14 1980-09-18 Nippon Musical Instruments Mfg Electronic musical instrument
JPS576896A (en) * 1980-06-16 1982-01-13 Nippon Musical Instruments Mfg Musical tone wave synthesizing system for electronic musical instrument
JPS58102296A (en) * 1981-12-15 1983-06-17 ヤマハ株式会社 Electronic musical instrument
JPS59168493A (en) * 1983-03-16 1984-09-22 ヤマハ株式会社 Musical tone waveform generator
JPH01230098A (en) * 1989-01-12 1989-09-13 Casio Comput Co Ltd Electronic musical instrument

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5448009A (en) * 1992-07-07 1995-09-05 Yamaha Corporation Electronic musical instrument including tone generator controller capable of conducting efficient control on different types of tone generators
JPH06222776A (en) * 1992-12-03 1994-08-12 Internatl Business Mach Corp <Ibm> Generation method of audio signal

Also Published As

Publication number Publication date
JP2513041B2 (en) 1996-07-03

Similar Documents

Publication Publication Date Title
EP1065651B1 (en) Music apparatus with pitch shift of input voice dependently on timbre change
US4628789A (en) Tone effect imparting device
JPS61176991A (en) Electronic musical instrument
JPH0370236B2 (en)
US5354948A (en) Tone signal generation device for generating complex tones by combining different tone sources
USRE30736E (en) Tone wave generator in electronic musical instrument
US5406022A (en) Method and system for producing stereophonic sound by varying the sound image in accordance with tone waveform data
JPH096350A (en) Effect adding device and electronic musical instrument using the same
US5074183A (en) Musical-tone-signal-generating apparatus having mixed tone color designation states
JPH03120593A (en) Musical sound signal generator
JP3525811B2 (en) Setting method for music processing means, setting method for waveform data generating means, musical sound generating method, and computer-readable recording medium on which program is recorded
JPS6048759B2 (en) electronic musical instruments
JP2538809B2 (en) Musical sound generator
JP2580794B2 (en) Electronic musical instrument
JPH0638192B2 (en) Musical sound generator
JP2580793B2 (en) Music signal generator
JP2701177B2 (en) Tone generator
JPH0584919B2 (en)
JPS62186293A (en) Electronic musical apparatus
JPH0313994A (en) Electronic musical instrument
JP2580794C (en)
JPH0642146B2 (en) Musical sound generator
JP3094759B2 (en) Music signal distribution processor
JPH0792665B2 (en) Parameter setting device for electronic musical instruments
JPS6341080B2 (en)

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090430

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees