JP2005107029A - Musical sound generating device, and program for realizing musical sound generating method - Google Patents

Musical sound generating device, and program for realizing musical sound generating method Download PDF

Info

Publication number
JP2005107029A
JP2005107029A JP2003338451A JP2003338451A JP2005107029A JP 2005107029 A JP2005107029 A JP 2005107029A JP 2003338451 A JP2003338451 A JP 2003338451A JP 2003338451 A JP2003338451 A JP 2003338451A JP 2005107029 A JP2005107029 A JP 2005107029A
Authority
JP
Japan
Prior art keywords
data
waveform
velocity
element data
tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003338451A
Other languages
Japanese (ja)
Other versions
JP3835443B2 (en
Inventor
Yoshihisa Ito
義久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003338451A priority Critical patent/JP3835443B2/en
Publication of JP2005107029A publication Critical patent/JP2005107029A/en
Application granted granted Critical
Publication of JP3835443B2 publication Critical patent/JP3835443B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical sound generating device in which specifying of rendition is made simpler and to provide a program with which a musical sound generating method is realized. <P>SOLUTION: A plurality of waveform data belonging to guitar sound, for example is classified for every rendition. Each waveform data which are classified, i.e., each rendition corresponding waveform data group is mapped onto an NV plane (a plane which is formed by a note number abscissa and a velocity ordinate) so that rendition corresponding waveform group is easily specified by hand playing (real time key pressing operations) of a player using a keyboard. Each rendition corresponding waveform data group is corresponding to any one of first to fourth element data. A note-on event, in which at least a note number and a velocity are included, is generated in accordance with the key pressing operation of the player. Employing the note number and the velocity, any one of the rendition corresponding waveform data being mapped onto the NV plane is uniquely selected. By generating musical sound based on the selected rendition corresponding waveform data, musical sound having tone corresponding to one rendition is generated by a single key pressing operation. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、楽器の奏法に応じた音色の楽音を生成する楽音生成装置および楽音生成方法を実現するためのプログラムに関する。   The present invention relates to a musical sound generation apparatus and a program for realizing a musical sound generation method that generate musical tones according to the playing style of a musical instrument.

楽器特有の奏法に応じた音色の楽音を生成する楽音生成装置は、従来から知られている。   2. Description of the Related Art Musical tone generating apparatuses that generate musical tones corresponding to musical instrument-specific playing methods are conventionally known.

このような楽音生成装置として、実楽器、たとえばギターを、通常奏法、ミュート奏法およびグリッサンド奏法などの各奏法で演奏したときに発生する各演奏音をそれぞれサンプリングし、このサンプリングして得られた各サンプリング波形データ、すなわちノーマル波形データ、ミュート波形データおよびグリッサンド波形データなどにそれぞれ異なる音色番号(通常、バンクセレクトデータおよびプログラムチェンジデータによって指定される)を対応付けて波形メモリに記憶しておき、リアルタイム演奏しながら奏法スイッチを用いて奏法を指定することにより、あるいは、自動演奏データに奏法コードを埋め込むことにより、指定された奏法(音色番号)に対応する波形データを波形メモリから読み出し、該波形データに基づいて楽音を生成することで、1つの楽器音色の中で様々な奏法に応じた音色の楽音を生成するようにしたものがある(たとえば、特許文献1参照)。
特開平10−214083号公報
As such a musical sound generating device, each performance sound generated when playing a real musical instrument, for example, a guitar, with each performance method such as a normal performance method, a mute performance method, and a glissando performance method is sampled, and each of the obtained sound samples is obtained. Sampling waveform data, that is, normal waveform data, mute waveform data, and glissando waveform data are associated with different tone numbers (usually specified by bank select data and program change data) and stored in the waveform memory in real time. By specifying a performance method using a performance switch while performing or by embedding a performance code in automatic performance data, waveform data corresponding to the specified performance method (tone number) is read from the waveform memory, and the waveform data Based on effortless By generating a are those which is adapted to generate a musical tone corresponding to various rendition styles in a single instrument sounds (e.g., see Patent Document 1).
Japanese Patent Laid-Open No. 10-214083

しかし、上記従来の楽音生成装置では、目的の奏法に応じた音色の楽音を生成するために、奏法スイッチを用いて手動で奏法を指定したり、予め奏法コードを演奏データに埋め込んで奏法を指定したりする必要があり、奏法の指定に面倒な操作や設定を行わなければならなかった。   However, in the above conventional musical tone generation device, in order to generate a musical tone of a timbre according to the desired performance style, a performance style is manually specified using a performance style switch, or a performance style code is specified in advance by embedding performance style codes in performance data. It was necessary to perform a troublesome operation and setting to specify the rendition style.

本発明は、この点に着目してなされたものであり、奏法の指定をより簡単化することが可能となる楽音生成装置および楽音生成方法を実現するためのプログラムを提供することを目的とする。   The present invention has been made paying attention to this point, and it is an object of the present invention to provide a musical sound generating apparatus and a program for realizing a musical sound generating method capable of further simplifying specification of a performance style. .

上記目的を達成するため、請求項1に記載の楽音生成装置は、複数のエレメントデータに基づいて複数のエレメント音を生成し、該生成された複数のエレメント音を合成して、1つの楽音を生成する楽音生成装置において、前記複数のエレメントデータのそれぞれに、少なくとも1つの奏法に応じた音色の楽音を生成するためのデータを設定し、該各エレメントデータに基づいて、当該奏法に応じた音色の楽音を生成する生成手段と、前記各エレメントデータに、当該エレメントデータが選択されるための条件である、ノートナンバ領域およびベロシティ領域を設定し、該領域設定された各エレメントデータを記憶するエレメントデータ記憶手段と、少なくともノートナンバとベロシティを発生する発生手段と、該発生手段によって発生されたノートナンバおよびベロシティが前記設定されたノートナンバ領域およびベロシティ領域に含まれるエレメントデータを前記記憶手段から検索するエレメントデータ検索手段とを有し、前記生成手段は、前記検索手段によって検索されたエレメントデータに基づいて、当該奏法に応じた音色の楽音を生成することを特徴とする。   In order to achieve the above object, a musical sound generating apparatus according to claim 1 generates a plurality of element sounds based on a plurality of element data, and synthesizes the generated plurality of element sounds to generate one musical sound. In the musical tone generating apparatus to generate, in each of the plurality of element data, data for generating a musical tone having a tone color corresponding to at least one playing style is set, and a tone color corresponding to the playing style is set based on each element data Generating means for generating a musical tone of the sound, and an element for storing a note number area and a velocity area, which are conditions for selecting the element data, in each element data, and storing each element data set in the area Data storage means, generating means for generating at least note number and velocity, and generated by the generating means Element data search means for searching element data included in the note number area and velocity area in which the note number and velocity are set from the storage means, and the generation means searches for the element data searched by the search means On the basis of this, a musical tone having a timbre corresponding to the performance style is generated.

好ましくは、前記各エレメントデータによってそれぞれ参照される波形セットデータを記憶する波形セットデータ記憶手段と、前記各波形セットデータにより、ノートナンバおよびベロシティによって形成される平面上にマッピングされた複数の奏法に対応する複数の波形データであって、該波形セットデータによって、複数の奏法に応じた音色の楽音を生成するために参照されるものを記憶する波形データ記憶手段と、前記エレメントデータ検索手段により検索されたエレメントデータによって参照される波形セットデータを、前記波形セットデータ記憶手段から検索する波形セットデータ検索手段と、該波形セットデータ検索手段により検索された波形セットデータによって参照される波形データを、前記発生されたノートナンバおよびベロシティに基づいて前記波形データ記憶手段から検索する波形データ検索手段とをさらに有し、前記生成手段は、前記波形データ検索手段によって検索された波形データに基づいて、当該奏法に応じた音色の楽音を生成することを特徴とする(請求項2)。   Preferably, waveform set data storage means for storing waveform set data respectively referred to by each element data, and a plurality of performance methods mapped on a plane formed by note number and velocity by each waveform set data. Waveform data storage means for storing a plurality of corresponding waveform data, which are referred to in order to generate musical tones corresponding to a plurality of performance styles by the waveform set data, and search by the element data search means Waveform set data search means for searching the waveform set data referred to by the element data stored from the waveform set data storage means, and waveform data referenced by the waveform set data searched by the waveform set data search means, The generated note number and Waveform data search means for searching from the waveform data storage means on the basis of the lossiness, and the generating means is based on the waveform data searched by the waveform data search means, and the musical tone of the tone corresponding to the performance style Is generated (claim 2).

さらに好ましくは、前記各波形データは、対応する奏法毎にグループ化されて、各波形セットデータの前記平面には、複数の波形データがグループ単位でマッピングされ、前記各波形セットデータにおいては、該波形データグループ内のいずれの波形データを参照するかを決定するためのノートナンバ領域およびベロシティ領域が設定され、前記波形データ検索手段は、前記発生されたノートナンバおよびベロシティが、前記検索された波形セットデータに設定された前記ノートナンバ領域およびベロシティ領域に含まれる波形データを検索することを特徴とする(請求項3)。   More preferably, each of the waveform data is grouped for each corresponding rendition style, and a plurality of waveform data is mapped in groups on the plane of each waveform set data. A note number area and a velocity area for determining which waveform data in the waveform data group is to be referred to are set, and the waveform data search means is configured to determine whether the generated note number and velocity are the searched waveform. Waveform data included in the note number area and velocity area set in the set data is searched for (claim 3).

また、さらに好ましくは、前記波形データグループのうち、少なくとも一部は、前記平面上、ベロシティの強さが強くなるに従って、弱音のための奏法に対応するものから強音のための奏法に対応するものへと順次マッピングされることを特徴とする(請求項4)。   More preferably, at least a part of the waveform data group corresponds to a performance method for a strong sound from one corresponding to a performance method for a weak sound as the velocity intensity increases on the plane. It is characterized by being sequentially mapped into a thing (claim 4).

また、好ましくは、前記各エレメントデータは、それぞれ、前記発生されたベロシティを発音音量に変換するベロシティカーブデータを含み、前記ベロシティカーブデータのうち、少なくとも2つは、当該エレメントデータに隣接するエレメントデータに含まれるベロシティカーブデータに対して、略連続性を有し、前記生成手段は、前記検索された波形データおよび前記検索されたエレメントデータに含まれるベロシティカーブデータに基づいて、当該奏法に応じた音色の楽音を生成することを特徴とする(請求項5)。   Preferably, each of the element data includes velocity curve data for converting the generated velocity into a sound volume, and at least two of the velocity curve data are element data adjacent to the element data. Is substantially continuous with respect to the velocity curve data included in the data, and the generation means responds to the performance based on the searched waveform data and the velocity curve data included in the searched element data. A timbre tone is generated (claim 5).

また、請求項6に記載のプログラムは、請求項1と同様の技術的思想によって実現できる。   The program according to claim 6 can be realized by the same technical idea as that of claim 1.

以上説明したように、請求項1または6に記載の発明によれば、各エレメントデータに、当該エレメントデータが選択されるための条件である、ノートナンバ領域およびベロシティ領域を設定し、該領域設定された各エレメントデータを記憶するエレメントデータ記憶手段から、発生されたノートナンバおよびベロシティが前記設定されたノートナンバ領域およびベロシティ領域に含まれるエレメントデータが検索され、該検索されたエレメントデータに基づいて、当該奏法に応じた音色の楽音が生成されるので、ノートナンバおよびベロシティを1回発生させるだけで、1つの奏法に応じた音色の楽音を生成することができ、これにより、奏法の指定をより簡単化することが可能となる。また、1つのエレメントデータに少なくとも1つの奏法を対応付け、1つのエレメントデータに基づいて、少なくとも1つの奏法に応じた音色の楽音を生成するようにしたので、少なくともエレメントデータ数と同じ奏法数の奏法対応音源を実現することができる。   As described above, according to the invention described in claim 1 or 6, the note number area and the velocity area, which are conditions for selecting the element data, are set for each element data, and the area setting is performed. Element data storage means for storing each element data thus obtained is searched for element data including the generated note number and velocity in the set note number area and velocity area, and based on the searched element data Since a musical tone having a tone corresponding to the playing style is generated, a musical tone having a tone corresponding to one playing style can be generated by generating a note number and velocity only once. It becomes possible to simplify further. In addition, since at least one performance method is associated with one element data, a tone tone corresponding to at least one performance method is generated based on one element data. A performance-compatible sound source can be realized.

請求項2に記載に発明によれば、検索されたエレメントデータによって参照される波形セットデータが、波形セットデータ記憶手段から検索され、該検索された波形セットデータによって参照される波形データが、前記発生されたノートナンバおよびベロシティに基づいて波形データ記憶手段から検索され、該検索された波形データに基づいて、当該奏法に応じた音色の楽音が生成されるので、すなわち、エレメントデータと波形セットデータの2段階で、奏法に対応した波形データを選択し、この波形データに基づいて、奏法に応じた音色の楽音を生成するようにしたので、エレメントデータ数より多い奏法数の奏法対応音源を実現することができる。   According to the invention described in claim 2, the waveform set data referenced by the retrieved element data is retrieved from the waveform set data storage means, and the waveform data referenced by the retrieved waveform set data is Based on the generated note number and velocity, search is made from the waveform data storage means, and on the basis of the searched waveform data, a timbre tone corresponding to the performance style is generated, that is, element data and waveform set data. In the two stages, the waveform data corresponding to the performance style is selected, and based on this waveform data, the tone color corresponding to the performance style is generated. can do.

請求項4に記載に発明によれば、前記波形データグループのうち、少なくとも一部は、前記平面上、ベロシティの強さが強くなるに従って、弱音のための奏法に対応するものから強音のための奏法に対応するものへと順次マッピングされるので、演奏者は、発生されるベロシティを制御することで、ある程度意識的に、奏法に応じた音色の楽音を弾き分ける(意図通りに生成させる)ことができる。   According to the fourth aspect of the present invention, at least a part of the waveform data group corresponds to a performance method for a weak sound as a result of a strong sound as the velocity strength increases on the plane. Since the music is mapped sequentially to the one corresponding to the performance method, the performer consciously plays the tone of the timbre according to the performance method by controlling the velocity generated (generates it as intended). be able to.

請求項5に記載に発明によれば、前記各エレメントデータは、それぞれ、前記発生されたベロシティを発音音量に変換するベロシティカーブデータを含み、前記ベロシティカーブデータのうち、少なくとも2つは、当該エレメントデータに隣接するエレメントデータに含まれるベロシティカーブデータに対して、略連続性を有し、前記検索された波形データおよび前記検索されたエレメントデータに含まれるベロシティカーブデータに基づいて、当該奏法に応じた音色の楽音が生成されるので、演奏者は、上記弾き分けを聴感上実感することができる。   According to the fifth aspect of the present invention, each of the element data includes velocity curve data for converting the generated velocity into a sound volume, and at least two of the velocity curve data include the element data. The velocity curve data included in the element data adjacent to the data has substantially continuity, and depends on the performance method based on the searched waveform data and the velocity curve data included in the searched element data. Since the musical tone of the tone is generated, the performer can feel the above-mentioned playing separation in terms of hearing.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る楽音生成装置の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a musical sound generating apparatus according to an embodiment of the present invention.

同図に示すように、本実施の形態の楽音生成装置は、音高情報を入力するための鍵盤を含む演奏操作子1と、各種情報を入力するための複数のスイッチを含む設定操作子2と、演奏操作子1の操作状態を検出する検出回路3と、設定操作子2の操作状態を検出する検出回路4と、装置全体の制御を司るCPU5と、該CPU5が実行する制御プログラムや、各種テーブルデータ等を記憶するROM6と、演奏データ、各種入力情報および演算結果等を一時的に記憶するRAM7と、タイマ割込み処理における割込み時間や各種時間を計時するタイマ8と、各種情報等を表示する、たとえば液晶ディスプレイ(LCD)若しくはCRT(Cathode Ray Tube)ディスプレイおよび発光ダイオード(LED)等を備えた表示装置9と、前記制御プログラムを含む各種アプリケーションプログラムや各種演奏データ、各種データ等を記憶する外部記憶装置10と、外部からのMIDI(Musical Instrument Digital Interface)メッセージを入力したり、MIDIメッセージを外部に出力したりするMIDIインターフェース(I/F)11と、演奏データ等に基づいてデジタル楽音信号を生成する楽音信号生成回路12と、該デジタル楽音信号を生成するための基礎となる波形データを複数種類記憶する波形メモリ13と、楽音信号生成回路12からのデジタル楽音信号をアナログ楽音信号に変換するためのDAC(Digital-to-Analog Converter)14と、該DAC14からのアナログ楽音信号を増幅した後、音響に変換する、アンプおよびスピーカを含むサウンドシステム15とにより構成されている。   As shown in the figure, the musical tone generating apparatus of this embodiment includes a performance operator 1 including a keyboard for inputting pitch information, and a setting operator 2 including a plurality of switches for inputting various information. A detection circuit 3 for detecting the operation state of the performance operator 1, a detection circuit 4 for detecting the operation state of the setting operator 2, a CPU 5 for controlling the entire apparatus, a control program executed by the CPU 5, Display ROM 6 for storing various table data, RAM 7 for temporarily storing performance data, various input information and calculation results, timer 8 for measuring interrupt time and various times in timer interrupt processing, and displaying various information For example, a display device 9 having a liquid crystal display (LCD) or CRT (Cathode Ray Tube) display and a light emitting diode (LED), and the control program And an external storage device 10 for storing various application programs, various performance data, various data, and the like, and a MIDI interface for inputting an external MIDI (Musical Instrument Digital Interface) message and outputting a MIDI message to the outside ( I / F) 11, a musical tone signal generating circuit 12 for generating a digital musical tone signal based on performance data, etc., a waveform memory 13 for storing a plurality of types of waveform data as a basis for generating the digital musical tone signal, A digital-to-analog converter (DAC) 14 for converting a digital musical sound signal from the musical sound signal generation circuit 12 into an analog musical sound signal, an amplifier for amplifying the analog musical sound signal from the DAC 14 and then converting it into sound; and And a sound system 15 including a speaker.

上記構成要素3〜12は、バス16を介して相互に接続され、CPU5にはタイマ8が接続され、MIDII/F11には他のMIDI機器100が接続され、楽音信号生成回路12には波形メモリ13およびDAC14が接続され、DAC14にはサウンドシステム15が接続されている。   The above components 3 to 12 are connected to each other via a bus 16, a timer 8 is connected to the CPU 5, another MIDI device 100 is connected to the MID II / F 11, and a waveform memory is connected to the tone signal generation circuit 12. 13 and the DAC 14 are connected, and the sound system 15 is connected to the DAC 14.

外部記憶装置10としては、たとえば、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD−ROMドライブおよび光磁気ディスク(MO)ドライブ等を挙げることができる。そして、外部記憶装置10には、前述のように、CPU5が実行する制御プログラムも記憶でき、ROM6に制御プログラムが記憶されていない場合には、この外部記憶装置10に制御プログラムを記憶させておき、それをRAM7に読み込むことにより、ROM6に制御プログラムを記憶している場合と同様の動作をCPU5にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   Examples of the external storage device 10 include a flexible disk drive (FDD), a hard disk drive (HDD), a CD-ROM drive, and a magneto-optical disk (MO) drive. As described above, the external storage device 10 can also store a control program to be executed by the CPU 5. If no control program is stored in the ROM 6, the control program is stored in the external storage device 10. By reading it into the RAM 7, it is possible to cause the CPU 5 to perform the same operation as when the control program is stored in the ROM 6. In this way, control programs can be easily added and upgraded.

MIDII/F11は、専用のものに限らず、RS−232CやUSB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースより構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信してもよい。   The MIDII / F11 is not limited to a dedicated one, and may be configured by a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (I Triple 1394) or the like. In this case, data other than MIDI messages may be transmitted and received simultaneously.

楽音信号生成回路12は、レジスタ部121、波形データ読み出し処理部122、フィルタ処理部123、エンベロープ処理部124、チャンネル(ch)累算部125および効果処理部126によって構成されている。   The musical tone signal generation circuit 12 includes a register unit 121, a waveform data read processing unit 122, a filter processing unit 123, an envelope processing unit 124, a channel (ch) accumulation unit 125, and an effect processing unit 126.

レジスタ部121は、複数の発音チャンネルにそれぞれ対応した複数組のレジスタからなり、該各レジスタは、バス16を介して供給された、楽音信号生成回路12の各構成要素122〜126を制御するための各種データを一時的に記憶する。波形データ読み出し処理部122は、波形メモリ13に記憶されている複数の波形データから、目的の波形データを読み出す。   The register unit 121 includes a plurality of sets of registers respectively corresponding to a plurality of sound generation channels, and each register controls each component 122 to 126 of the musical tone signal generation circuit 12 supplied via the bus 16. Are temporarily stored. The waveform data read processing unit 122 reads target waveform data from a plurality of waveform data stored in the waveform memory 13.

波形メモリ13は、複数種類の楽器の楽音波形をそれぞれサンプリングして生成した複数組の波形データを、各楽器音色に対応付けて記憶するようにしている。通常、1種類の楽器音色に対して、所定の音域毎(各音高毎でもよい)、異なる波形データの組がそれぞれ用意されている。なお、ベロシティの大きさに応じて、複数組の波形データを用意しておくようにしてもよい。   The waveform memory 13 stores a plurality of sets of waveform data generated by sampling the musical sound waveforms of a plurality of types of musical instruments in association with each musical instrument tone color. Usually, a set of different waveform data is prepared for each predetermined tone range (may be for each pitch) for one kind of instrument tone color. A plurality of sets of waveform data may be prepared in accordance with the magnitude of velocity.

波形メモリ13は、ROMで構成してもよいし、RAMで構成してもよい。また、ROMおよびRAMを併用してもよい。RAMで構成する場合には、他の記憶媒体(たとえば、ハードディスク)に波形データを記憶させておき、本実施の形態の楽音生成装置に電源を投入するときなどに、他の記憶媒体から波形データを読み出して、RAMに書き込むようにすればよい。そして、RAMを使用することで、新たに作成した波形データを利用しやすくなる。また、EEPROM(Electrically Erasable and Programmable ROM)のような不揮発性の書き込み可能なメモリを用いれば、前記電源投入時における波形データの書き込みを避けることができる。   The waveform memory 13 may be composed of ROM or RAM. Moreover, you may use ROM and RAM together. In the case of the RAM, the waveform data is stored in another storage medium (for example, a hard disk) and the waveform data is read from the other storage medium when the musical sound generating apparatus of the present embodiment is turned on. May be read out and written into the RAM. By using the RAM, it becomes easy to use newly created waveform data. If a nonvolatile writable memory such as an EEPROM (Electrically Erasable and Programmable ROM) is used, it is possible to avoid writing waveform data when the power is turned on.

フィルタ処理部123は、デジタルフィルタによって構成され、波形データ読み出し処理部122によって読み出された波形データをフィルタ処理し、生成される楽音信号に所望の周波数特性を付与する。エンベロープ処理部124は、振幅エンベロープ波形を形成する波形形成部と乗算器(いずれも図示せず)により構成され、フィルタ処理部123からの波形データ(波形信号)に所望の振幅エンベロープを付与してデジタル楽音信号として出力する。   The filter processing unit 123 is constituted by a digital filter, filters the waveform data read by the waveform data read processing unit 122, and gives a desired frequency characteristic to the generated musical sound signal. The envelope processing unit 124 includes a waveform forming unit that forms an amplitude envelope waveform and a multiplier (both not shown), and gives a desired amplitude envelope to the waveform data (waveform signal) from the filter processing unit 123. Output as a digital musical tone signal.

なお、波形データ読み出し処理部122、フィルタ処理部123およびエンベロープ処理部124は、複数の時分割チャンネルタイミングに同期して各処理を実行する。この複数の時分割チャンネルは、複数の発音チャンネルにそれぞれ対応する。本実施の形態では、時分割チャンネル数として、たとえば、128チャンネルのものを採用している。時分割チャンネル数は、同時発音数に対応する。このように同時発音数の多い楽音生成装置では、複数のエレメント音を生成し、これを合成して、1つの楽音を生成することも行われている。   The waveform data read processing unit 122, the filter processing unit 123, and the envelope processing unit 124 execute each process in synchronization with a plurality of time division channel timings. The plurality of time division channels correspond to a plurality of sound generation channels, respectively. In the present embodiment, for example, the number of time division channels is 128 channels. The number of time division channels corresponds to the number of simultaneous sounds. In such a musical sound generating device having a large number of simultaneous pronunciations, a plurality of element sounds are generated and synthesized to generate one musical sound.

後述のように、本実施の形態の楽音生成装置も、基本的には複数のエレメント音を合成して1つの楽音を生成するように構成されている。この場合、1つのエレメント音を生成するために、1つの時分割チャンネル(発音チャンネル)を使用するので、たとえば4つのエレメント音によって1つの楽音を生成するには、4チャンネル分の時分割チャンネル(発音チャンネル)を使用することになる。したがって、当然ながら同時発音数は減少するが、1音の発音品質は向上する。   As will be described later, the musical sound generation apparatus according to the present embodiment is basically configured to generate a single musical sound by synthesizing a plurality of element sounds. In this case, since one time division channel (sound generation channel) is used to generate one element sound, for example, in order to generate one musical sound by four element sounds, time division channels (four channels) ( Pronunciation channel). Therefore, although the number of simultaneous pronunciations is naturally reduced, the sound quality of one sound is improved.

チャンネル累算部125は、エンベロープ処理部124から、複数の時分割チャンネルタイミングに同期して供給されるデジタル楽音信号を累算した後、出力する。効果処理部126は、チャンネル累算部125からのデジタル楽音信号に、コーラスやリバーブなどの音楽的効果を付与する。   The channel accumulating unit 125 accumulates the digital musical tone signals supplied from the envelope processing unit 124 in synchronization with a plurality of time division channel timings, and then outputs them. The effect processing unit 126 gives a musical effect such as chorus or reverb to the digital musical tone signal from the channel accumulation unit 125.

図2は、1音色分のボイスデータのデータマップの一例を示す図である。ボイスデータは、予め複数音色分、前記ROM6または外部記憶装置10に記憶されている。ユーザ(演奏者)がいずれかのボイスデータを選択すると、そのボイスデータが、ROM6または外部記憶装置10から読み出されて、前記RAM7に確保されたボイスバッファに格納される。   FIG. 2 shows an example of a data map of voice data for one tone color. Voice data is stored in advance in the ROM 6 or the external storage device 10 for a plurality of timbres. When the user (performer) selects any voice data, the voice data is read from the ROM 6 or the external storage device 10 and stored in a voice buffer secured in the RAM 7.

図2に示すように、ボイスデータは、第1〜第4エレメントデータ21〜24と、該各エレメントデータ21〜24に共通に使用されるコモンデータ20とによって構成されている。   As shown in FIG. 2, the voice data includes first to fourth element data 21 to 24 and common data 20 used in common for the element data 21 to 24.

コモンデータ20は、当該ボイスの名称を示すボイス名データ201と、当該ボイスが選択される条件である、バンクセレクト番号202およびプログラムチェンジ番号203と、当該ボイスに固有の音律を指定するための音律指定データ204と、すべてのエレメント音に対して共通の効果を付与するためのエフェクトパラメータ205と、すべてのエレメントに対して共通に用いられるその他データ206とによって構成されている。   The common data 20 includes voice name data 201 indicating the name of the voice, a bank select number 202 and a program change number 203 which are conditions for selecting the voice, and a temperament for designating a temperament specific to the voice. It is constituted by designated data 204, an effect parameter 205 for giving a common effect to all element sounds, and other data 206 used in common for all elements.

各エレメントデータ21〜24は、それぞれ同様のデータ形式によって構成されているので、図2では、第3番目のエレメントを代表させて、その詳細なデータ構成が図示されている。   Since the element data 21 to 24 are configured in the same data format, FIG. 2 shows the detailed data configuration of the third element as a representative.

エレメントデータ23は、当該エレメントの有効(オン)/無効(オフ)を示すエレメントオン/オフデータ231と、当該エレメントによって参照される波形セットの番号を示す波形セット番号データ232と、当該エレメントが選択される条件である、ノートナンバおよびベロシティの各範囲(レンジ)をそれぞれ示すノートナンバレンジデータ233およびベロシティレンジデータ234と、当該エレメントを発生する際に使用されるベロシティカーブの特性を示すベロシティカーブデータ235と、当該エレメントを発生する際に使用されるフィルタの種類やその値を示すフィルタパラメータデータ236と、当該エレメントのエンベロープを決定するEG(envelope generator)に設定されるEGパラメータデータ237と、当該エレメントを発生する際に使用されるその他データ238とによって構成されている。   The element data 23 includes element on / off data 231 indicating valid (on) / invalid (off) of the element, waveform set number data 232 indicating the number of the waveform set referred to by the element, and the element selected Note number range data 233 and velocity range data 234 indicating the respective range (range) of the note number and velocity, and velocity curve data indicating the characteristics of the velocity curve used when generating the element 235, filter parameter data 236 indicating the type and value of the filter used when generating the element, EG parameter data 237 set in an EG (envelope generator) that determines the envelope of the element, Eleme It is constituted by the other data 238 to be used in generating and.

なお、ボイスバッファは、前述のように、RAM7上に確保されているため、ボイスバッファに格納されたボイスデータは、ユーザが自由に編集することができるようになっている。   Since the voice buffer is secured on the RAM 7 as described above, the voice data stored in the voice buffer can be freely edited by the user.

図3は、エレメントデータ21〜24によって参照される波形セットデータのデータマップの一例を示す図である。なお、波形セットデータは、予め前記ROM6または外部記憶装置10内に複数セット設けられ、各波形セットデータは、同様のデータ形式によって構成されている。図示例の波形セットデータは、その中の1つを代表としたものである。また、各波形セットデータには、番号(波形セット番号)が付与され、各波形セットデータは、この波形セット番号によって管理されている。   FIG. 3 is a diagram illustrating an example of a data map of waveform set data referred to by the element data 21 to 24. A plurality of waveform set data are provided in advance in the ROM 6 or the external storage device 10, and each waveform set data is configured in the same data format. The waveform set data in the illustrated example is representative of one of them. Each waveform set data is assigned a number (waveform set number), and each waveform set data is managed by this waveform set number.

図3に示すように、波形セットデータは、当該波形セットの名称を示す波形セット名データ30と、当該波形セットを構成するリージョンデータの個数を示すリージョン数データ31と、該リージョン数データ31によって示される個数(図示例では、n個)のリージョンデータk32(k=1,…,n)とによって構成されている。   As shown in FIG. 3, waveform set data includes waveform set name data 30 indicating the name of the waveform set, region number data 31 indicating the number of region data constituting the waveform set, and region number data 31. It is composed of the indicated number (n in the illustrated example) of region data k32 (k = 1,..., N).

各リージョンデータk32は、それぞれ同様のデータ形式によって構成されているので、図3では、第2番目のリージョンデータを代表させて、その詳細なデータ構成が図示されている。   Since each region data k32 is configured in the same data format, FIG. 3 shows the detailed data configuration of the second region data as a representative.

リージョンデータk32は、当該リージョンデータが選択される条件である、ノートナンバおよびベロシティの各範囲(レンジ)をそれぞれ示すノートナンバレンジデータ321およびベロシティレンジデータ322と、当該リージョンデータに割り当てられた波形データの番号を示す波形データ番号データ323と、当該波形データを読み出すときに必要なアドレス情報(具体的には、読み出し開始アドレス、ループ読み出し開始アドレスおよびループ読み出し終了アドレスなど)を示すデータ324と、その他データ325とによって構成されている。   The region data k32 includes note number range data 321 and velocity range data 322 indicating the range (range) of note number and velocity, which are conditions for selecting the region data, and waveform data assigned to the region data. Waveform data number data 323 indicating the number of the data, data 324 indicating address information (specifically, read start address, loop read start address, loop read end address, etc.) necessary for reading the waveform data, and others Data 325.

前述のように、波形メモリ13には、複数個の波形データが記憶されている。各波形データには、それぞれユニークな番号(波形データ番号)が付与され、各波形データは、この波形データ番号によって管理されている。   As described above, the waveform memory 13 stores a plurality of waveform data. Each waveform data is assigned a unique number (waveform data number), and each waveform data is managed by this waveform data number.

なお、本実施の形態では、波形セットデータは、メーカで作成され、楽音生成装置に組み込まれるデータであって、ユーザが編集できないように構成されている。各波形セットデータに含まれる複数のリージョンは、ノートナンバおよびベロシティが相互に重ならないように、また各範囲間に隙間ができないように設定されているので、任意のノートナンバとベロシティで参照することにより、いずれか1つのリージョンが特定され、いずれか1つの波形データが決定される。   In the present embodiment, the waveform set data is data that is created by a manufacturer and incorporated in the musical sound generation device, and is configured so that the user cannot edit it. The multiple regions included in each waveform set data are set so that note numbers and velocities do not overlap each other, and there is no gap between each range, so you can refer to them with any note number and velocity. As a result, any one region is specified, and any one waveform data is determined.

図4は、ある1つの楽器音色(図示例では、ギター音色)に属する複数の波形データをNV平面にマッピングした一例を示す図である。ここで、NV平面とは、ノートナンバを横軸(または縦軸)とし、ベロシティを縦軸(または横軸)としたときに形成される平面である。   FIG. 4 is a diagram illustrating an example in which a plurality of waveform data belonging to a certain instrument timbre (guitar timbre in the illustrated example) is mapped onto the NV plane. Here, the NV plane is a plane formed when the note number is the horizontal axis (or vertical axis) and the velocity is the vertical axis (or horizontal axis).

同図に示すように、ギター音色に属する複数の波形データは奏法毎に分類され、分類後の各波形データ群、つまり各奏法対応波形データ群が、演奏者が鍵盤を用いて行う手弾き演奏(リアルタイム押鍵操作)によって指定され易いように、NV平面にマッピングされている。そして、各奏法対応波形データ群は、それぞれ、前記第1〜第4エレメントデータ21〜24のいずれかに対応付けられている。   As shown in the figure, multiple waveform data belonging to the guitar tone are classified for each performance style, and each group of waveform data after classification, that is, each performance style-corresponding waveform data group, is played by the player using the keyboard. It is mapped to the NV plane so that it can be easily specified by (real-time key pressing operation). Each rendition style corresponding waveform data group is associated with one of the first to fourth element data 21 to 24, respectively.

具体的には、第2エレメントが、ギター音色で使われる頻度の高い音域に設定された通常発音音域であるノートナンバD1〜D#5を含むD1〜G8に範囲設定されるとともに、手弾き演奏で最も使用頻度が高いベロシティ81〜120の通常強度領域に範囲設定される。そして、第2エレメントの参照する波形セットデータにおいて、通常奏法のメゾフォルテ(mf)、フォルテッシモ(ff)およびスラップ奏法(Slap)に対応する波形データ群が、強度データ(ベロシティ)1〜89,90〜105,106〜127にそれぞれ範囲設定されるとともに、前記通常発音音域、すなわちノートナンバD1〜D#5の領域に範囲設定され、特殊奏法であるハンマリング奏法(Hammer)に対応する波形データ群が、全ベロシティ領域の前記通常発音音域を超えるノートナンバE5〜G8の高音領域に範囲設定される。ここで、エレメントと波形セットデータのノートナンバの範囲設定により、NV平面におけるノートナンバ方向のマッピングが決まり、同波形セットデータのベロシティの範囲設定とベロシティカーブ(図5)の設定により、NV平面におけるベロシティ方向のマッピングが決まる。すなわち、図4のように、メゾフォルテ(mf)、フォルテッシモ(ff)およびスラップ奏法(Slap)の波形データ群は、NV平面において、第2エレメントのノートナンバ範囲の中のノートナンバD1〜D#5の領域であって、第2エレメントのベロシティ範囲の中のベロシティ81〜95,96〜110,111〜120の各領域にそれぞれマッピングされ、ハンマリング奏法(Hammer)の波形データ群は、同ノートナンバ範囲の中のノートナンバE5〜G8の領域であって、同ベロシティ範囲の中のベロシティ81〜120の領域にマッピングされる。   Specifically, the second element is set in a range from D1 to G8 including note numbers D1 to D # 5, which are normal tone ranges set in a high frequency range used for guitar tones, and hand-playing performance The range is set in the normal intensity region of velocities 81 to 120 having the highest use frequency. In the waveform set data referred to by the second element, waveform data groups corresponding to the mesoforte (mf), fortissimo (ff) and slap performance (Slap) of the normal performance method are intensity data (velocity) 1 to 89, 90 to A range of waveform data is set to 105 and 106 to 127, respectively, and is set to the normal sound generation range, that is, the range of note numbers D1 to D # 5, and a waveform data group corresponding to a hammering performance (Hammer) which is a special performance method. The range is set to the high sound region of note numbers E5 to G8 exceeding the normal sound generation sound region of the entire velocity region. Here, note number direction mapping in the NV plane is determined by setting the note number range of the element and waveform set data, and in the NV plane by setting the velocity range and velocity curve (FIG. 5) of the waveform set data. Velocity direction mapping is determined. That is, as shown in FIG. 4, waveform data groups of mesoforte (mf), fortissimo (ff), and slap performance (Slap) are recorded in note numbers D1 to D # 5 in the note number range of the second element on the NV plane. , Which are mapped to velocities 81 to 95, 96 to 110, and 111 to 120 in the velocity range of the second element, respectively. It is an area of note numbers E5 to G8 in the range, and is mapped to an area of velocities 81 to 120 in the same velocity range.

一方、第1エレメントは、第2エレメントと同じノートナンバD1〜G8に範囲設定されるとともに、通常の演奏ではあまり使用されないベロシティ121〜127の強強度領域に範囲設定される。この第1エレメントの参照する波形セットデータにおいて、特殊奏法であるスライド奏法(Slide)に対応する波形データ群が、全ベロシティ領域の前記通常発音音域に範囲設定され、特殊奏法であるハーモニクス奏法(Harmonics)に対応する波形データ群が、全ベロシティ領域の前記高音領域に範囲設定される。その結果、NV平面において、スライド奏法(Slide)の波形データ群は、ノートナンバD1〜D#5の領域であって、ベロシティ121〜127の領域にマッピングされ、ハーモニクス奏法(Harmonics)の波形データ群は、ノートナンバG5〜G8の領域であって、ベロシティ121〜127の領域にマッピングされる。   On the other hand, the range of the first element is set to the same note numbers D1 to G8 as the second element, and the range is set to a strong intensity region of velocities 121 to 127 that is not often used in normal performance. In the waveform set data referred to by the first element, a group of waveform data corresponding to a slide performance (Slide) which is a special performance technique is set in the normal sounding range of all velocity areas, and a harmonic performance (Harmonics) which is a special performance technique. ) Is set in the treble region of the entire velocity region. As a result, on the NV plane, the waveform data group of the slide performance technique (Slide) is mapped to the area of the note numbers D1 to D # 5 and the velocity 121 to 127, and the waveform data group of the harmonic performance technique (Harmonics) Are mapped to the areas of note numbers G5 to G8 and velocities 121 to 127.

さらに、第3エレメントは、第2エレメントと同じノートナンバD1〜G8に範囲設定されるとともに、前記通常強度領域の下に位置するベロシティ1〜80の弱強度領域に範囲設定される。この第3エレメントの参照する波形セットデータにおいて、弱音の特殊奏法であるデッドノート奏法(Dead Note)およびミュート奏法(Mute)に対応する波形データ群が、強度データ1〜56,57〜127の領域に範囲設定されるとともに、前記通常発音音域に範囲設定され、ハンマリング奏法(Hammer)に対応する波形データ群が、全ベロシティ領域の前記通常発音音域を超えるノートナンバE5〜G8の高音領域に範囲設定される。このハンマリング奏法の波形データ群は、第2エレメントのものと同一でよい。その結果、第3エレメントの各波形データ群が、図4のようにマッピングされる。   Further, the third element is set in the range of the same note numbers D1 to G8 as the second element, and is set in the weak intensity region of velocities 1 to 80 located below the normal intensity region. In the waveform set data referred to by the third element, the waveform data group corresponding to the dead note performance method (Dead Note) and the mute performance method (Mute), which are special performance methods for weak sounds, is an area of intensity data 1 to 56, 57 to 127. And the waveform data group corresponding to the hammering technique (Hammer) is in the high sound region of note numbers E5 to G8 exceeding the normal sound range in all the velocity regions. Is set. The waveform data group of this hammering technique may be the same as that of the second element. As a result, each waveform data group of the third element is mapped as shown in FIG.

最後に、第4エレメントは、ノートナンバC−2〜C#1の低音領域に範囲設定されるとともに、全ベロシティ領域に範囲設定される。第4エレメントの参照する波形セットデータは、効果音(SFX)に対応する波形データ群である。この波形データ群は、フレットノイズとか、ギターのボディを叩いた音とかの、個々に独立性の高い音の波形データで構成される。したがって、該波形データ群の各波形データは、第4エレメントのノートナンバC−2〜C#1の領域の各ノートナンバにそれぞれ範囲設定される。   Finally, the fourth element is set in the low frequency range of note numbers C-2 to C # 1, and is set in the entire velocity range. The waveform set data referred to by the fourth element is a waveform data group corresponding to the sound effect (SFX). This waveform data group is composed of waveform data of highly independent sounds such as fret noise and a sound of hitting the guitar body. Accordingly, each waveform data of the waveform data group is set in the range of each note number in the area of note numbers C-2 to C # 1 of the fourth element.

なお、第2および第3エレメントの参照する波形セットデータでは、特徴が同じで強度の異なる奏法の波形データ群を同じ音域の異なるベロシティ領域に範囲設定している。そのため、それらの奏法間でベロシティカーブを共有でき、各エレメントで設定可能な1つのベロシティカーブをそのベロシティカーブとすることができる。   In the waveform set data referred to by the second and third elements, a group of waveform data having rendition styles having the same characteristics but different intensities are set in different velocity areas in the same sound range. Therefore, a velocity curve can be shared between the performance styles, and one velocity curve that can be set in each element can be used as the velocity curve.

また、エレメントないし波形セットデータでは、ベロシティ“0”を除外して範囲設定しているが、これは、ベロシティ“0”が休符として使用される場合があるためである。   In the element or waveform set data, the range is set excluding the velocity “0” because the velocity “0” may be used as a rest.

以上のように、複数の奏法の波形データ群が、ユーザの編集可能なエレメントとメーカで設定する波形セットデータとによってNV平面にマッピングされる。ユーザが各エレメントの編集を行うことにより、NV平面における各奏法の波形データ群のマッピングや、マッピングされた波形データ群のベロシティカーブを調整することができる。   As described above, a plurality of rendition style waveform data groups are mapped onto the NV plane by the user-editable elements and the waveform set data set by the manufacturer. When the user edits each element, it is possible to adjust the waveform data group mapping of each performance style on the NV plane and the velocity curve of the mapped waveform data group.

なお、図4のマッピング例は、あくまで一例に過ぎず、これに限られるわけではない。図7および図8は、図4とは異なったマッピング例を示している。   Note that the mapping example in FIG. 4 is merely an example, and is not limited thereto. 7 and 8 show mapping examples different from those in FIG.

図5は、第1〜第3エレメントデータ21〜23に含まれるベロシティカーブデータの特性の一例を示す図である。ここで、ベロシティカーブとは、ベロシティ(押鍵速度)値を音量(強度データ)に変換するときの変換特性を意味する。なお、第4エレメントデータ24に含まれるベロシティカーブデータの特性が図示されていないが、これは、第4エレメントデータ24がノートナンバC−2〜C#1の全ベロシティ領域0〜127にマッピングされており、他のエレメントデータのベロシティカーブとの関係を考慮することなく任意のベロシティカーブに設定してよいからである。   FIG. 5 is a diagram illustrating an example of characteristics of velocity curve data included in the first to third element data 21 to 23. Here, the velocity curve means a conversion characteristic when converting a velocity (key pressing speed) value into a volume (strength data). Although the characteristics of the velocity curve data included in the fourth element data 24 are not shown, this is because the fourth element data 24 is mapped to all the velocity areas 0 to 127 of the note numbers C-2 to C # 1. This is because an arbitrary velocity curve may be set without considering the relationship with the velocity curve of other element data.

図5に示すように、各エレメントデータ21〜23にそれぞれ含まれるベロシティカーブデータの特性は、エレメントデータ毎に独立かつ最も相応しく設定されているので、局所的には、エレメントデータ間で多少不連続になっているものの(尤も、各エレメントデータに基づいて生成される楽音は、それぞれ異なる奏法の楽音であるので、エレメントデータ間でベロシティカーブデータの特性が多少不連続になることにより、各エレメント音の音量が多少異なったとしても、演奏者には判別し難い)、演奏者が鍵盤を用いて行う手弾き演奏(リアルタイム押鍵操作)によって、奏法に応じた音色の楽音が生成され易いように、大局的には、ほぼ連続性が保たれるようにしてある。   As shown in FIG. 5, the characteristics of the velocity curve data included in each of the element data 21 to 23 are set independently and most appropriately for each element data, so locally, there is some discontinuity between the element data. However, since the musical tone generated based on each element data is a musical tone having a different performance method, the velocity curve data characteristics between the element data become somewhat discontinuous, so that each element sound Even if the sound volume is slightly different, it is difficult for the performer to discriminate), and by the hand-playing performance (real-time key pressing operation) performed by the performer using the keyboard, it is easy to generate a musical tone according to the playing style. In general, continuity is maintained.

本実施の形態では、弱音、すなわち第3エレメントデータ23に基づいて生成される音には、ある程度強い音(大きな音量の音)まで発音できるように、ベロシティ値が0〜80の領域が割り当てられている。このような領域を弱音に割り当てたのは、実験の結果、これが最適と判断したからであるが、もちろん、これに限られるわけではない。   In the present embodiment, a weak sound, that is, a sound generated based on the third element data 23, is assigned a region having a velocity value of 0 to 80 so that even a sound that is somewhat strong (a sound with a large volume) can be generated. ing. The reason why such a region is assigned to a weak sound is that, as a result of an experiment, it has been determined that it is optimal, but of course, it is not limited to this.

本実施の形態では、ベロシティは、7ビットのデータであり、ベロシティ値は、0〜127の整数値で表現される。そして、この0〜127の全ベロシティ領域を、ノートナンバの範囲設定が重なる第1〜第3エレメントデータ21〜23に分けて割り当てるようにしている。したがって、その限られた128の分解能のベロシティ領域に、各エレメントの奏法で必要とされるベロシティの変化幅、各エレメントの奏法に適したベロシティカーブの形状、手弾き演奏するのに支障のない全ベロシティ領域に亘るベロシティカーブの形状などを考慮しつつ、各エレメントのベロシティ領域の範囲設定やベロシティカーブを決めなければならない。このため、実験を行って、最適な分割方法等を決定する必要がある。   In the present embodiment, the velocity is 7-bit data, and the velocity value is expressed by an integer value of 0 to 127. Then, all the velocity areas of 0 to 127 are divided and assigned to the first to third element data 21 to 23 having overlapping note number range settings. Therefore, in the limited velocity region of 128 resolutions, the change in velocity required for the performance of each element, the shape of the velocity curve suitable for the performance of each element, and all the things that do not hinder hand playing. It is necessary to determine the velocity region range setting and velocity curve of each element in consideration of the shape of the velocity curve over the velocity region. For this reason, it is necessary to determine the optimal division method and the like by conducting an experiment.

たとえば、第3エレメントデータ23に含まれるベロシティカーブデータの割当て領域の上限を70以下にすると、それだけ、第2エレメントデータ22に含まれるベロシティカーブデータの割当て領域が広がって、第2エレメントデータ22に基づいて生成される楽音の表現力が増すが、第3エレメントデータ23に基づいて生成される楽音の表現力が、演奏者が通常求める表現力より劣ってしまうため、これを採用できない。逆に、第3エレメントデータ23に含まれるベロシティカーブデータの割当て領域の上限を85以上にした場合、それだけ、第3エレメントデータ23に含まれるベロシティカーブデータの割当て領域が広がって、第3エレメントデータ23に基づいて生成される楽音の表現力が増すが、第2エレメントデータ22に基づいて生成される楽音の表現力が、演奏者が通常求める表現力より劣ってしまうため、これも採用できない。すなわち、実験では、ベロシティ領域中、第3エレメントデータ23と第2エレメントデータ22との境界は、70〜85の範囲内に設けた方がよいとの結論が得られた。もちろん、この結論は、採用する制約条件などによって変化するので、普遍的なものではない。   For example, when the upper limit of the velocity curve data allocation area included in the third element data 23 is set to 70 or less, the velocity curve data allocation area included in the second element data 22 is increased accordingly, and the second element data 22 is increased. Although the expressive power of the musical sound generated based on the third element data 23 increases, the expressive power of the musical sound generated based on the third element data 23 is inferior to the expressive power normally required by the performer. On the contrary, when the upper limit of the velocity curve data allocation area included in the third element data 23 is set to 85 or more, the velocity curve data allocation area included in the third element data 23 is increased accordingly, and the third element data Although the expressive power of the musical sound generated based on 23 is increased, the expressive power of the musical sound generated based on the second element data 22 is inferior to the expressive power normally required by the performer. That is, in the experiment, it was concluded that the boundary between the third element data 23 and the second element data 22 should be provided within the range of 70 to 85 in the velocity region. Of course, this conclusion is not universal because it changes depending on the constraints used.

以上のように構成された楽音生成装置が実行する制御処理を、図6を参照して詳細に説明する。   A control process executed by the musical tone generation apparatus configured as described above will be described in detail with reference to FIG.

図6は、本実施の形態の楽音生成装置、特にCPU5が実行するノートオンイベント処理の手順を示すフローチャートである。本ノートオンイベント処理は、CPU5が実行するメインルーチンに含まれる一処理であり、メインルーチンには、初期化処理、ボイスデータ選択処理およびノートオフイベント処理等の各種処理が含まれているが、これらの処理は、本発明の特徴を説明するために必須のものではないので、その説明を省略する。ただし、ボイスデータ選択処理は、本ノートオンイベント処理の前提となるものであるので、本ノートオンイベント処理を説明する前に、簡単に説明する。   FIG. 6 is a flowchart showing a procedure of note-on event processing executed by the tone generator of the present embodiment, particularly the CPU 5. This note-on event process is a process included in the main routine executed by the CPU 5, and the main routine includes various processes such as an initialization process, a voice data selection process, and a note-off event process. Since these processes are not indispensable for explaining the features of the present invention, a description thereof will be omitted. However, since the voice data selection process is a premise of the note-on event process, it will be briefly described before the note-on event process.

ボイスデータ選択処理は、演奏者がパート(PT)毎に指定したボイスデータを前記ROM6または外部記憶装置10から読み出して、前記RAM7に確保されたボイスバッファVB(PT)に格納する処理である。演奏者が、たとえば、前記表示装置9上に一覧表示されたボイスデータから、あるパートのボイスデータとして、いずれかを指定すると、このボイスデータを選択するための情報、すなわちバンクセレクトデータおよびプログラムチェンジデータが生成される。ボイスデータ選択処理は、生成されたバンクセレクトデータとプログラムチェンジデータに一致するボイスデータを、ROM6または外部記憶装置10から選択する。具体的には、前記図2で説明したように、各ボイスデータのコモンデータには、それぞれバンクセレクト番号およびプログラムチェンジ番号が含まれているので、ボイスデータ選択処理では、これらの番号と上記生成されたバンクセレクトデータおよびプログラムチェンジデータとを比較し、一致した場合に、そのボイスデータを読み出して、ボイスバッファVB(PT)に格納する。   The voice data selection process is a process of reading voice data designated by the performer for each part (PT) from the ROM 6 or the external storage device 10 and storing it in the voice buffer VB (PT) secured in the RAM 7. For example, when a performer designates any one of the voice data listed on the display device 9 as voice data of a certain part, information for selecting the voice data, that is, bank select data and program change Data is generated. In the voice data selection process, voice data that matches the generated bank select data and program change data is selected from the ROM 6 or the external storage device 10. Specifically, as described with reference to FIG. 2, the common data of each voice data includes a bank select number and a program change number, respectively. The selected bank select data and program change data are compared, and if they match, the voice data is read and stored in the voice buffer VB (PT).

このようにして、ボイスバッファVB(PT)には、パート毎に選択されたボイスデータが格納されている。   In this way, the voice buffer VB (PT) stores the voice data selected for each part.

ノートオンイベントは、演奏者の押鍵操作によって発生する。この他に、本実施の形態の楽音生成装置に自動演奏機能が備えられている場合には、この自動演奏機能による自動演奏によっても、ノートオンイベントは発生する。   The note-on event is generated by the player's key pressing operation. In addition to this, when the musical sound generating apparatus of the present embodiment is provided with an automatic performance function, a note-on event is also generated by automatic performance by this automatic performance function.

ノートオンイベントには、少なくとも、パート番号、ノートナンバおよびベロシティが含まれているので、まず、これらのデータを前記RAM7に格納しておく。すなわち、パート番号を領域PT(以下、この領域PTに格納された内容を「パートPT」という)に、ノートナンバを領域NN(以下、この領域NNに格納された内容を「ノートナンバNN」という)に、ベロシティを領域VE(以下、この領域VEに格納された内容を「ベロシティVE」という)に格納しておく(ステップS1)。   Since the note-on event includes at least a part number, a note number, and a velocity, first, these data are stored in the RAM 7. That is, the part number is the area PT (hereinafter, the contents stored in the area PT are referred to as “part PT”), and the note number is the area NN (hereinafter, the contents stored in the area NN are referred to as “note number NN”). ), The velocity is stored in the region VE (hereinafter, the content stored in the region VE is referred to as “velocity VE”) (step S1).

次に、パートPTに選択されたボイスデータ、すなわちボイスバッファVB(PT)に格納されているボイスデータに含まれる各エレメントデータのVNリミット、すなわち、ベロシティ(V)レンジの上下限値およびノートナンバ(N)レンジの上下限値から、発音するエレメント数を検出する(ステップS2)。より具体的には、ボイスデータ内の4つのエレメントデータ中、ノートナンバNNおよびベロシティVEが、それぞれノートナンバレンジおよびベロシティレンジ内に含まれるものを検索し、その個数を検出する。   Next, the VN limit of each element data included in the voice data selected for the part PT, that is, the voice data stored in the voice buffer VB (PT), that is, the upper and lower limit values of the velocity (V) range and the note number. (N) The number of sounding elements is detected from the upper and lower limits of the range (step S2). More specifically, note number NN and velocity VE are searched for in the four element data in the voice data, and the numbers included in the note number range and velocity range are detected.

そして、前記楽音信号生成回路12の全発音チャンネルの中から、検出されたエレメント数分の発音チャンネルを確保して、各発音エレメントに割り当てた(ステップS3)後、最初の発音エレメントを指定する(ステップS4)。   Then, sound generation channels corresponding to the number of detected elements are secured from all the sound generation channels of the tone signal generation circuit 12 and assigned to each sound generation element (step S3), and the first sound generation element is designated (step S3). Step S4).

以下、検出された発音エレメント数分、ステップS5〜S8の処理を繰り返し、最後の発音エレメントに対して、ステップS5〜S8の処理を終了すると、割り当てた全発音チャンネルに発音開始を指示して(ステップS9→S10)、本ノートオンイベント処理を終了する。   Thereafter, the processing of steps S5 to S8 is repeated for the number of detected sounding elements, and when the processing of steps S5 to S8 is completed for the last sounding element, the start of sounding is instructed to all assigned sounding channels ( Step S9 → S10), the note-on event process is terminated.

ステップS5では、当該エレメントの波形セット番号が示す波形セットを検索し、その波形セットに含まれる各リージョンデータk32のVNリミット、すなわち、ベロシティ(V)レンジの上下限値およびノートナンバ(N)レンジの上下限値から、当該エレメント音を発音するために読み出す波形データの番号を決定するとともに、その読み出しアドレス情報等を取得する。より具体的には、当該波形セット内のn個のリージョンデータk32中、ノートナンバNNおよびベロシティVEが、それぞれノートナンバレンジおよびベロシティレンジ内に含まれる1つのリージョンを検索し、そのリージョンに含まれる波形データ番号および読み出しアドレス情報等を読み出す。   In step S5, the waveform set indicated by the waveform set number of the element is searched, and the VN limit of each region data k32 included in the waveform set, that is, the upper and lower limit values of the velocity (V) range and the note number (N) range. From the upper and lower limit values, the number of the waveform data to be read for generating the element sound is determined, and the read address information and the like are acquired. More specifically, note number NN and velocity VE are searched for one region included in the note number range and velocity range, respectively, among n region data k32 in the waveform set, and are included in the region. Reads waveform data number and read address information.

ステップS6では、当該エレメントのベロシティカーブデータが示すベロシティカーブに基づいて、ベロシティVEを強度データに変換する。   In step S6, the velocity VE is converted into intensity data based on the velocity curve indicated by the velocity curve data of the element.

ステップS7では、前記レジスタ部121中、割り当てた発音チャンネルに対応するレジスタに、当該エレメントの各種データを設定する。ここで、各種データとは、前記取得された読み出しアドレス情報、ノートナンバNNおよび前記音律指定データに応じたピッチ情報、上記決定された強度データ、前記フィルタパラメータデータ、前記EGパラメータデータおよびエフェクトパラメータなどである。   In step S7, various data of the element are set in the register corresponding to the assigned tone generation channel in the register unit 121. Here, the various data refers to the acquired read address information, note number NN and pitch information corresponding to the temperament designation data, the determined intensity data, the filter parameter data, the EG parameter data, the effect parameters, etc. It is.

ステップS8では、次の発音エレメントを指定する。   In step S8, the next sounding element is designated.

このように、本ノートオンイベント処理では、1つのノートオンイベントで、複数のエレメント音を生成し、これを合成して1つの楽音を発音するようにしている。本発明の特徴は、1つのエレメントに少なくとも1つの奏法を、演奏者が鍵盤を用いて行う手弾き演奏(リアルタイム押鍵操作)によって奏法に応じた音色の楽音が生成され易いように割当て、1回の押鍵操作で、つまり1つのノートオンイベントで、1つの奏法に応じた音色の楽音を発生させることにある。したがって、1つのノートオンイベントで指定されるエレメントは、1つだけであるので、前記ステップS5〜S8の処理を繰り返す必要はない。しかし、本ノートオンイベント処理のように構成すれば、複数パートが選択され、あるパートは、1つの奏法の楽音を1つのエレメントで発生し、他のあるパートは、1つの楽音を複数のエレメント音を合成して発生するような場合にも対応できるので、このようにしている。   In this way, in this note-on event process, a plurality of element sounds are generated by one note-on event and synthesized to generate one musical sound. A feature of the present invention is that at least one performance method is assigned to one element so that a musical tone having a tone corresponding to the performance method can be easily generated by a hand-playing performance (real-time key pressing operation) performed by the performer using a keyboard. One tone-on tone is generated by one key-on operation, that is, one note-on event. Therefore, since there is only one element designated by one note-on event, it is not necessary to repeat the processing of steps S5 to S8. However, if configured as in this note-on event processing, a plurality of parts are selected, one part generates a musical tone of one rendition, and one other part generates one musical sound by a plurality of elements. This is done because it can cope with the case where sound is synthesized.

以上説明したように、本実施の形態の楽音生成装置では、1回の押鍵操作で、1つの奏法に応じた音色の楽音を発生させるようにしたので、奏法の指定をより簡単化することが可能となる。   As described above, in the musical tone generating apparatus according to the present embodiment, the musical tone having the tone corresponding to one playing style is generated by one key pressing operation, so that the designation of the playing style is further simplified. Is possible.

また、1つのエレメントデータに少なくとも1つの奏法を対応付け、1つのエレメントデータに基づいて、少なくとも1つの奏法に応じた音色の楽音を生成するようにしたので、少なくともエレメントデータ数と同じ奏法数の奏法対応音源を実現することができる。そして、各エレメントデータは、ユーザによって編集可能に構成したので、各エレメントデータ単位で、奏法に応じた音色を自由に編集することができる。   In addition, since at least one performance method is associated with one element data, a tone tone corresponding to at least one performance method is generated based on one element data. A performance-compatible sound source can be realized. Since each element data is configured to be editable by the user, it is possible to freely edit the timbre corresponding to the playing style in units of each element data.

さらに、各エレメントデータは、それぞれ、波形セットデータを参照し、各波形セットデータは、それぞれ、複数の奏法に対応した波形データを参照するというように、エレメントデータと波形セットデータの2段階で、奏法に対応した波形データを選択し、この波形データに基づいて、奏法に応じた音色の楽音を生成するようにしたので、エレメントデータ数より多い奏法数の奏法対応音源を実現することができる。   Furthermore, each element data refers to the waveform set data, and each waveform set data refers to the waveform data corresponding to a plurality of renditions, so that the element data and the waveform set data are in two stages. Since the waveform data corresponding to the rendition style is selected and the tone of the timbre corresponding to the rendition style is generated based on this waveform data, it is possible to realize a rendition style sound source with a rendition number larger than the number of element data.

また、奏法に応じた音色の楽音を生成するときには、選択された波形データとともに、その波形データを参照したエレメントデータも使用するので、換言すれば、エレメントデータを基本として、奏法に応じた音色の楽音を生成するので、たとえば、エレメント毎にしか、ベロシティカーブデータを設定できない音源であっても、問題なく奏法対応音源を実現することができる。   In addition, when generating musical tones corresponding to the playing style, element data referring to the waveform data is also used together with the selected waveform data. In other words, based on the element data, the tone color corresponding to the playing style is used. Since the musical sound is generated, for example, even a sound source for which velocity curve data can be set only for each element can realize a performance-compatible sound source without problems.

さらに、NV平面上、ベロシティ値が弱い方から強い方にかけて、弱音のための奏法に対応する波形データから強音のための奏法に対応する波形データを順次マッピングしたので、押鍵操作で検出されるベロシティにより、演奏者は、ある程度意識的に、奏法に応じた音色の楽音を弾き分けることができる。さらに、各ベロシティカーブデータに略連続性を持たせたので、演奏者は、この弾き分けを聴感上実感することができる。   Furthermore, on the NV plane, the waveform data corresponding to the performance method for the weak sound is mapped sequentially from the waveform data corresponding to the performance method for the weak sound from the weaker to the stronger velocity value. The velocity allows the performer to play different musical tones according to the playing style consciously to some extent. Furthermore, since each velocity curve data is provided with substantially continuity, the performer can actually feel this playing division in the sense of hearing.

なお、本実施の形態では、奏法に応じた音色の楽音の生成を指示するための操作子として、鍵盤を用いたが、これに限られるわけではないことは、言うまでもない。   In the present embodiment, the keyboard is used as an operator for instructing the generation of musical tones corresponding to the playing style, but it goes without saying that the present invention is not limited to this.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU5やMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU 5 or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU5などが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the case where the CPU 5 or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の一実施の形態に係る楽音生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the musical tone production | generation apparatus which concerns on one embodiment of this invention. 1音色分のボイスデータのデータマップの一例を示す図である。It is a figure which shows an example of the data map of the voice data for 1 tone color. 図2の各エレメントデータによって参照される波形セットデータのデータマップの一例を示す図である。It is a figure which shows an example of the data map of the waveform set data referred with each element data of FIG. ある1つの楽器音色(図示例では、ギター音色)に属する複数の波形データをNV平面にマッピングした一例を示す図である。It is a figure which shows an example which mapped several waveform data which belongs to a certain musical instrument timbre (in the example of illustration, a guitar timbre) on the NV plane. 図2の第1〜第3エレメントデータに含まれるベロシティカーブデータの特性の一例を示す図である。It is a figure which shows an example of the characteristic of the velocity curve data contained in the 1st-3rd element data of FIG. 本実施の形態の楽音生成装置、特にCPU5が実行するノートオンイベント処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the note-on event process which the tone generator of this Embodiment, especially CPU5 performs. 図4のマッピング例とは異なるマッピング方法でマッピングした一例を示す図である。It is a figure which shows an example mapped with the mapping method different from the mapping example of FIG. さらに図7のマッピング例とは異なるマッピング方法でマッピングした一例を示す図である。Furthermore, it is a figure which shows an example mapped with the mapping method different from the mapping example of FIG.

符号の説明Explanation of symbols

1 演奏操作子(発生手段),5 CPU(生成手段、エレメントデータ検索手段、波形セットデータ検索手段、波形データ検索手段),6 ROM(エレメントデータ記憶手段、波形セットデータ記憶手段),10 外部記憶装置(エレメントデータ記憶手段、波形セットデータ記憶手段),12 楽音信号生成回路(生成手段),13 波形メモリ(波形データ記憶手段) 1 performance operator (generating means), 5 CPU (generating means, element data searching means, waveform set data searching means, waveform data searching means), 6 ROM (element data storing means, waveform set data storing means), 10 external storage Device (element data storage means, waveform set data storage means), 12 musical tone signal generation circuit (generation means), 13 waveform memory (waveform data storage means)

Claims (6)

複数のエレメントデータに基づいて複数のエレメント音を生成し、該生成された複数のエレメント音を合成して、1つの楽音を生成する楽音生成装置において、
前記複数のエレメントデータのそれぞれに、少なくとも1つの奏法に応じた音色の楽音を生成するためのデータを設定し、該各エレメントデータに基づいて、当該奏法に応じた音色の楽音を生成する生成手段と、
前記各エレメントデータに、当該エレメントデータが選択されるための条件である、ノートナンバ領域およびベロシティ領域を設定し、該領域設定された各エレメントデータを記憶するエレメントデータ記憶手段と、
少なくともノートナンバとベロシティを発生する発生手段と、
該発生手段によって発生されたノートナンバおよびベロシティが前記設定されたノートナンバ領域およびベロシティ領域に含まれるエレメントデータを前記記憶手段から検索するエレメントデータ検索手段と
を有し、
前記生成手段は、前記検索手段によって検索されたエレメントデータに基づいて、当該奏法に応じた音色の楽音を生成することを特徴とする楽音生成装置。
In a musical sound generating apparatus for generating a plurality of element sounds based on a plurality of element data, and synthesizing the generated plurality of element sounds to generate one musical sound,
Generation means for setting data for generating a tone color corresponding to at least one playing style to each of the plurality of element data, and generating a tone color corresponding to the playing style based on each element data When,
Element data storage means for setting a note number area and a velocity area, which are conditions for selecting the element data, in each element data, and storing each element data set in the area;
Generating means for generating at least note number and velocity;
Element data search means for searching from the storage means for element data included in the set note number area and velocity area in which the note number and velocity generated by the generating means are set,
The musical sound generating device, wherein the generating means generates a musical tone having a timbre corresponding to the performance style based on the element data searched by the searching means.
前記各エレメントデータによってそれぞれ参照される波形セットデータを記憶する波形セットデータ記憶手段と、
前記各波形セットデータにより、ノートナンバおよびベロシティによって形成される平面上にマッピングされた複数の奏法に対応する複数の波形データであって、該波形セットデータによって、複数の奏法に応じた音色の楽音を生成するために参照されるものを記憶する波形データ記憶手段と、
前記エレメントデータ検索手段により検索されたエレメントデータによって参照される波形セットデータを、前記波形セットデータ記憶手段から検索する波形セットデータ検索手段と、
該波形セットデータ検索手段により検索された波形セットデータによって参照される波形データを、前記発生されたノートナンバおよびベロシティに基づいて前記波形データ記憶手段から検索する波形データ検索手段と
をさらに有し、
前記生成手段は、前記波形データ検索手段によって検索された波形データに基づいて、当該奏法に応じた音色の楽音を生成することを特徴とする請求項1に記載の楽音生成装置。
Waveform set data storage means for storing waveform set data referred to by each element data;
A plurality of waveform data corresponding to a plurality of renditions mapped on a plane formed by note numbers and velocities according to each waveform set data, and tone sounds corresponding to a plurality of renditions according to the waveform set data Waveform data storage means for storing what is referred to to generate
Waveform set data search means for searching the waveform set data referenced by the element data searched by the element data search means from the waveform set data storage means;
Waveform data search means for searching the waveform data referenced by the waveform set data searched by the waveform set data search means from the waveform data storage means based on the generated note number and velocity;
2. The musical tone generation apparatus according to claim 1, wherein the generation unit generates a musical tone having a timbre corresponding to the performance style based on the waveform data searched by the waveform data search unit.
前記各波形データは、対応する奏法毎にグループ化されて、各波形セットデータの前記平面には、複数の波形データがグループ単位でマッピングされ、
前記各波形セットデータにおいては、該波形データグループ内のいずれの波形データを参照するかを決定するためのノートナンバ領域およびベロシティ領域が設定され、
前記波形データ検索手段は、前記発生されたノートナンバおよびベロシティが、前記検索された波形セットデータに設定された前記ノートナンバ領域およびベロシティ領域に含まれる波形データを検索する
ことを特徴とする請求項2に記載の楽音生成装置。
Each waveform data is grouped for each corresponding rendition style, and on the plane of each waveform set data, a plurality of waveform data is mapped in group units,
In each waveform set data, a note number area and a velocity area for determining which waveform data in the waveform data group is to be referred to are set,
The waveform data search means searches the waveform data included in the note number area and velocity area in which the generated note number and velocity are set in the searched waveform set data. 2. A musical sound generating device according to 2.
前記波形データグループのうち、少なくとも一部は、前記平面上、ベロシティの強さが強くなるに従って、弱音のための奏法に対応するものから強音のための奏法に対応するものへと順次マッピングされることを特徴とする請求項3に記載の楽音生成装置。   At least a part of the waveform data group is sequentially mapped from one corresponding to a performance method for a weak sound to one corresponding to a performance method for a strong sound as the velocity intensity increases on the plane. The musical sound generating device according to claim 3, wherein 前記各エレメントデータは、それぞれ、前記発生されたベロシティを発音音量に変換するベロシティカーブデータを含み、
前記ベロシティカーブデータのうち、少なくとも2つは、当該エレメントデータに隣接するエレメントデータに含まれるベロシティカーブデータに対して、略連続性を有し、
前記生成手段は、前記検索された波形データおよび前記検索されたエレメントデータに含まれるベロシティカーブデータに基づいて、当該奏法に応じた音色の楽音を生成する
ことを特徴とする請求項4に記載の楽音生成装置。
Each element data includes velocity curve data for converting the generated velocity into a sound volume,
At least two of the velocity curve data have substantially continuity with respect to velocity curve data included in element data adjacent to the element data.
5. The tone generator according to claim 4, wherein the generation unit generates a musical tone having a tone color corresponding to the performance style based on the searched waveform data and velocity curve data included in the searched element data. Music generator.
複数のエレメントデータに基づいて複数のエレメント音を生成し、該生成された複数のエレメント音を合成して、1つの楽音を生成する楽音生成方法をコンピュータに実行させるプログラムであって、
前記楽音生成方法は、
前記複数のエレメントデータのそれぞれに、少なくとも1つの奏法に応じた音色の楽音を生成するためのデータを設定し、該各エレメントデータに基づいて、当該奏法に応じた音色の楽音を生成する生成ステップと、
前記各エレメントデータに、当該エレメントデータが選択されるための条件である、ノートナンバ領域およびベロシティ領域を設定し、該領域設定された各エレメントデータをエレメントデータ記憶手段を記憶させる記憶ステップと、
少なくともノートナンバとベロシティを発生する発生ステップと、
該発生ステップによって発生されたノートナンバおよびベロシティが前記設定されたノートナンバ領域およびベロシティ領域に含まれるエレメントデータを前記エレメントデータ記憶手段から検索する検索ステップと
を有し、
前記生成ステップでは、前記検索ステップによって検索されたエレメントデータに基づいて、当該奏法に応じた音色の楽音を生成する
ことを特徴とするプログラム。
A program for causing a computer to execute a musical sound generation method for generating a plurality of element sounds based on a plurality of element data, and synthesizing the generated plurality of element sounds to generate one musical sound,
The musical sound generation method is:
A generation step of setting data for generating a timbre tone corresponding to at least one playing style in each of the plurality of element data, and generating a timbre tone corresponding to the playing style based on each element data When,
A storage step of setting a note number area and a velocity area, which are conditions for selecting the element data, in each element data, and storing each element data set in the area in an element data storage unit;
A generation step that generates at least note number and velocity,
A search step for retrieving element data included in the set note number area and velocity area in which the note number and velocity generated in the generation step are included from the element data storage means;
In the generating step, a musical tone having a tone color corresponding to the performance style is generated based on the element data searched in the searching step.
JP2003338451A 2003-09-29 2003-09-29 Music generator Expired - Fee Related JP3835443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003338451A JP3835443B2 (en) 2003-09-29 2003-09-29 Music generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003338451A JP3835443B2 (en) 2003-09-29 2003-09-29 Music generator

Publications (2)

Publication Number Publication Date
JP2005107029A true JP2005107029A (en) 2005-04-21
JP3835443B2 JP3835443B2 (en) 2006-10-18

Family

ID=34533967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003338451A Expired - Fee Related JP3835443B2 (en) 2003-09-29 2003-09-29 Music generator

Country Status (1)

Country Link
JP (1) JP3835443B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158435A (en) * 2006-12-26 2008-07-10 Yamaha Corp Parameter setting device for electronic musical instrument, and program
JP2008170561A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008170560A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008170559A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008191657A (en) * 2007-01-09 2008-08-21 Yamaha Corp Musical sound generator and program
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program
JP2011186262A (en) * 2010-03-10 2011-09-22 Yamaha Corp Apparatus for generating musical tone signal
US8383924B2 (en) 2010-03-10 2013-02-26 Yamaha Corporation Musical tone signal generating apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158435A (en) * 2006-12-26 2008-07-10 Yamaha Corp Parameter setting device for electronic musical instrument, and program
JP2008170561A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008170560A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008170559A (en) * 2007-01-09 2008-07-24 Yamaha Corp Musical sound generating device and program
JP2008191657A (en) * 2007-01-09 2008-08-21 Yamaha Corp Musical sound generator and program
JP2008191680A (en) * 2007-01-09 2008-08-21 Yamaha Corp Musical sound generator and program
JP2011191794A (en) * 2007-01-09 2011-09-29 Yamaha Corp Musical sound generator and program
JP2009198919A (en) * 2008-02-22 2009-09-03 Yamaha Corp Musical sound generating device and tone data editing display program
JP2011186262A (en) * 2010-03-10 2011-09-22 Yamaha Corp Apparatus for generating musical tone signal
US8383924B2 (en) 2010-03-10 2013-02-26 Yamaha Corporation Musical tone signal generating apparatus

Also Published As

Publication number Publication date
JP3835443B2 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
JP4274272B2 (en) Arpeggio performance device
JP2003263159A (en) Musical sound generation device and computer program for generating musical sound
JP5152373B2 (en) Musical sound generating apparatus and program
JP3835443B2 (en) Music generator
JP3915807B2 (en) Automatic performance determination device and program
JP3867578B2 (en) Electronic music apparatus and program for electronic music apparatus
JP4614307B2 (en) Performance data processing apparatus and program
JP2002229567A (en) Waveform data recording apparatus and recorded waveform data reproducing apparatus
JP4802947B2 (en) Performance method determining device and program
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP4803042B2 (en) Musical sound generating apparatus and program
JP4803043B2 (en) Musical sound generating apparatus and program
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP4305315B2 (en) Automatic performance data characteristic changing device and program thereof
JP6127549B2 (en) Music data editing method, program for realizing the music data editing method, and music data editing apparatus
JP5070842B2 (en) Musical sound generating apparatus and program
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP4067007B2 (en) Arpeggio performance device and program
JP3832147B2 (en) Song data processing method
JP3775039B2 (en) Melody generator and recording medium
JP3407563B2 (en) Automatic performance device and automatic performance method
JP6183002B2 (en) Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus
JP3820817B2 (en) Music signal generator
JP2001215971A (en) Device and method for generating musical sound signal
JP2018146853A (en) Phrase database generation device, phrase database generation method, and phrase database generation program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060227

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060717

R150 Certificate of patent or registration of utility model

Ref document number: 3835443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees