JP3674154B2 - Music synthesizer - Google Patents

Music synthesizer Download PDF

Info

Publication number
JP3674154B2
JP3674154B2 JP15525096A JP15525096A JP3674154B2 JP 3674154 B2 JP3674154 B2 JP 3674154B2 JP 15525096 A JP15525096 A JP 15525096A JP 15525096 A JP15525096 A JP 15525096A JP 3674154 B2 JP3674154 B2 JP 3674154B2
Authority
JP
Japan
Prior art keywords
pitch
data
tone
frame
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15525096A
Other languages
Japanese (ja)
Other versions
JPH103288A (en
Inventor
茂樹 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP15525096A priority Critical patent/JP3674154B2/en
Publication of JPH103288A publication Critical patent/JPH103288A/en
Application granted granted Critical
Publication of JP3674154B2 publication Critical patent/JP3674154B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音高に対応する複数種類1組の楽音パラメータのセットを複数の所定の音高にそれぞれ対応させ、この複数種類の楽音パラメータのセットに基づいて楽音を合成する楽音合成装置に関する。
【0002】
【従来の技術】
従来、この種の装置として、例えば特開平5−108077号公報に開示されている音源装置がある。この音源装置は、BPFアレイやFFTアナライザ等により楽音波形データをスペクトル分析して、そのスペクトルの周波数帯域に対応する複数チャンネルの周波数データと強度データを1組の楽音パラメータとして記憶回路に記憶し、楽音発生時に記憶回路から各チャンネルの周波数データと強度データを時系列に読み出して楽音を合成するものである。このような分析合成方式によれば、周波数データや強度データのような楽音パラメータは加工性がよいので、楽音波形を柔軟に制御することができる。
【0003】
また、特開平5−108077号公報には上記音源装置を電子鍵盤楽器に適用する例として、周波数データと強度データからなるボイスデータを1音色に1組だけ備え、鍵盤で指定された音高に応じて周波数データをシフト部でシフトすることにより各鍵に対応する音高の楽音を発生する方法や、このシフトを必要としない方法として、全ての鍵に対応するボイスデータを用いるマルチサンプリングの例が示されている。
【0004】
【発明が解決しようとする課題】
ところで、ピッチベンドやポルタメント等の制御で楽音の音高(ピッチ)を連続的に変化させる場合すなわち鍵に対応する離散的な音高変化ではなくて滑らかに音高変化させる場合、上記従来の装置であれば、シフト部により周波数データを連続的にシフトすることが考えられるが、このようにすると、聴感上、不自然な音質となることがある。このことは、マルチサンプリングの場合でも、周波数データのみをシフトさせただけでは同様に音質的に問題がある。
【0005】
本発明は、音高に対応する複数種類1組の楽音パラメータのセットを複数の所定の音高にそれぞれ対応させ、この複数種類の楽音パラメータのセットに基づいて楽音を合成する楽音合成装置において、指定音高に対応した自然な音質を得るとともに指定音高の変化に対して自然な音質的変化を伴ったピッチシフト感を得ることを課題とする。
【0006】
【課題を解決するための手段】
上記の課題を解決するためになした本発明の楽音合成装置は、音高に対応する複数種類1組の楽音パラメータのセットを複数の所定の音高毎に記憶した楽音パラメータ記憶手段と、発音すべき楽音の音高を指定する音高指定手段と、前記複数の所定の音高のうち、前記指定された音高以下の第1の音高と前記入力された音高より高い第2の音高とを決定し、該第1の音高の楽音パラメータのセットと前記第2の音高の楽音パラメータのセットとを前記楽音パラメータ記憶手段からそれぞれ読み出すとともに、該読み出した楽音パラメータ同種対応の楽音パラメータ間を前記指定された音高による前記第1および第2の音高間の比例配分で補間して前記指定された音高に対応する複数種類1組の楽音パラメータのセットをそれぞれ生成する楽音パラメータ生成手段と、該生成された複数種類1組の楽音パラメータのセットに基づいて上記指定された音高に対応する楽音を合成する楽音合成手段とを備えたことを特徴とする。
【0007】
【作用】
本発明の楽音合成装置において、楽音は音高に対応する複数種類1組の楽音パラメータのセットに基づいて合成される。また、発音すべき楽音の音高を指定すると、指定された音高以下の第1の音高の楽音パラメータのセットと入力された音高より高い第2の音高の楽音パラメータのセットとが楽音パラメータ記憶手段からそれぞれ読み出され、この読み出した楽音パラメータ同種対応の楽音パラメータ間を指定された音高による第1および第2の音高間の比例配分で補間して、指定された音高に対応する複数種類1組の楽音パラメータのセットがそれぞれ生成される。したがって、例えば指定された音高が連続的に変化するとその音高に対応する複数種類1組の楽音パラメータのセットが、2つの所定の音高に対応する楽音パラメータ間で連続的に変化する。この楽音パラメータは音高に応じた楽音の音質に影響するので指定音高の変化に対して自然な音質的変化となる。
【0008】
なお、本発明の楽音合成装置の好ましい例は、所定の音高に対応する楽音波形の周波数データと強度データとを楽音パラメータとしてメモリに記憶しておき、指定された音高に応じて前記所定の音高に対応する周波数データと強度データをそれぞれ補間して該指定された音高に対応する周波数データと強度データをそれぞれ生成し、該補間によって生成された周波数データと強度データとに基づいて上記指定された音高に対応する楽音を合成するようにしたことを特徴とする請求項1記載の楽音合成装置である。
【0009】
【発明の実施の形態】
図6は本発明実施例の楽音合成装置で用いる音色パラメータを得るための楽音の分析方法を説明する図である。図6(A) は分析部のブロック図であり、分析部は複数(128個)のバンドパスフィルタ(BPF)を並列に接続した構成になっており、各BPFは0〜127のチャンネルナンバで識別される。また、各BPFのバンド幅は125Hzで、そのろ過帯域は0チャンネルが0〜125Hz、1チャンネルが125〜250Hz、2チャンネルが250〜375Hz…であり、図6(B) のように0Hzから16kHzまで順に並べられている。
【0010】
さらに、このBPFはFFT機能を有しており、BPFを通過するスペクトルの周波数データおよび強度データを検出することができる。なお、周波数はバンド中心周波数からのずれとして検出されるが、このずれをバンド中心周波数に加算することにより絶対値の周波数データが得られる。なお、このような分析部は高速のFFTアナライザを用いて実現することもできる。さらにチャンネル数は音源の規格に対応するものであって実施例の128チャンネルに限らず、バンド幅も125Hzに限定されるものではない。
【0011】
分析する楽音に対応する楽音波形データは波形の振幅情報を32kHzで時系列にサンプリングしたPCM波形データであり、このPCM波形データが分析部に入力されると、図6(C) に示したように分析部は連続する2048サンプル点の各サンプリングデータを1組のデータ(1フレーム)として扱う。ただし、各フレームは64サンプルづつのずれでオーバーラップしている。そして、1フレーム分のサンプリングデータが分析部に入力される毎に、各チャンネルのBPFはそのフレームの周波数データFreqと強度データMag とを順次出力する。
【0012】
この実施例では、上記周波数データFreqと強度データMag が所定の音高の楽音波形データに対応する複数種類1組の楽音パラメータである。また、この実施例はマルチサンプリングの場合であり、例えば鍵盤楽器の鍵に対応する音高の各元波形データについて上記のように分析し、図7に示したように、それぞれ各チャンネルの周波数データFj k と強度データMj k (jはフレームナンバ、kはチャンネルナンバ)を各フレーム毎にテーブル化して記憶する。なお、一つの音高の楽音波形データに対応する上記所定フレーム数の周波数データおよび強度データの一まとまりをボイスデータという。
【0013】
また、この実施例における元楽音波形データは、楽音の立ち上がりに対応するアタック部と持続音に対応するサスティン部とを有する楽音波形データであり、分析で得られた各音高に対応するボイスデータは、図8に示したようにアタック部のフレームデータ(Freq,Mag のセット)とループ部のフレームデータに分けられている。ループ部の最初のフレームアドレスはループスタートアドレスLOOPSTART 、また、ループ部の最後のフレームアドレスはループエンドアドレスLOOPEND として決められており、波形データの生成時(楽音発生時)には、フレームアドレスのアドレス制御を行って、アタック部のフレームデータを一通り読み出した後、ループ部のフレームデータを繰り返し読み出すことにより持続時間の長い楽音波形の発生を可能にしている。
【0014】
図1は本発明実施例の楽音合成装置のブロック図である。この楽音合成装置は電子楽器の音源に用いられ、例えば図示しない鍵盤の押鍵により発生するキーオンパルスKONP、ピッチベンドやポルタメント等の制御で発生する指定ピッチPITCH 、操作パネル等で指定された音色データTC、メモリに記憶されたループスタートアドレスLOOPSTART およびループエンドアドレスLOOPEND 等が入力される。
【0015】
音色パラメータメモリ群は、1〜LのL個(L種類)のピッチ(音高)の楽音について前記のように分析して得られた各ボイスデータをピッチPITCH 1 〜PITCH L に対応する音色パラメータメモリ(TPM p1 〜TPM pL )11 〜1L にそれぞれ記憶したものである。すなわち、各音色パラメータメモリ11 〜1L には、128チャンネル分についての周波数データFreqと強度データMag のセットがアタック部とループ部の所定時間フレーム数づつ0〜mフレームとして記憶されている。なお、これらのボイスデータに対応するピッチはPITCH 1 <PITCH 2 <…<PITCH L の音高順になっている。
【0016】
各音色パラメータメモリ11 〜1L には各ボイスデータをフレーム単位で読み出すためのフレーム進行制御部21 〜2L がそれぞれ対応して接続されている。また、フレーム進行制御部21 〜2L には64進のカウンタ3が接続されており、このカウンタ3は、キーオンパルスKONPでリセットされて元波形データにおけるサンプリングクロックφf でカウントアップし、そのキャリー信号をフレームクロックFrame clock として各フレーム進行制御部21 〜2L に出力する。そして、各フレーム進行制御部21 〜2L は、このフレームクロックFrame clock によって対応する音色パラメータメモリ11 〜1L にフレームアドレスAD1 〜ADL を出力し、各音色パラメータメモリ11 〜1L はフレームアドレスAD1 〜ADL で指定された各フレームデータをセレクタ(SEL)4に出力する。
【0017】
図5はフレーム進行制御部21 〜2L の構成を示す図である。なお、各フレーム進行制御部21 〜2L は同じ構成になっており、同図の説明では符号の添字を省略する。フレームカウンタ21は前記カウンタ3からのフレームクロックFrame clock によってカウントアップされ、そのカウント値は対応する音色パラメータメモリ1に対する次のフレームアドレスとして音色パラメータメモリ1に出力されるとともに1段のディレイ回路(シフトレジスタ)22に供給される。また、このディレイ回路22の出力は現在のフレームアドレスとして音色パラメータメモリ1に出力される。
【0018】
一方、フレームカウンタ21のリセット端子にはキーオンパルスKONPが入力され、プリセット端子にはループスタートアドレスLOOPSTART が入力される。また、ロード端子には比較回路23が接続されており、比較回路23にはループエンドアドレスLOOPEND およびフレームカウンタ21の出力が入力される。そして、比較回路23はフレームカウンタ21の出力値がLOOPEND と等しくなったときフレームカウンタ21に対してロード信号LOADを出力する。
【0019】
以上の構成によりフレーム進行制御部2および音色パラメータメモリ1は次のように動作する。キーオン時にはKONPが出力されてフレームカウンタ21がリセットされ、フレームクロックFrame clock によってフレームが更新する毎に現在のフレームアドレスと次のフレームアドレスをそれぞれ音色パラメータメモリ1に順次出力する。そして、音色パラメータメモリ1において0フレーム(アタック部の先頭)から読み出しがスタートし、ループエンドアドレスまで読み出したとき、比較回路23が出力するLOAD信号によりLOOPSTART がフレームカウンタ21にプリセットされ、この値からカウントが再開される。そして、キーオンが継続している限りこの動作が繰り返される。
【0020】
すなわち、各音色パラメータメモリ11 〜1L において、キーオンによってアタック部からループ部にかけて周波数データと強度データ(128チャンネル分)が順次読み出され、キーオフとなるまでループ部の周波数データと強度データが繰り返して読み出される。なお、音色パラメータメモリ11 〜1L は、1フレーム周期内で現在のフレームと次のフレームの各周波数データと強度データを出力する。これにより、後述説明するフレーム補間が行われる。
【0021】
図1において、音色パラメータメモリ11 〜1L から出力される各音色パラメータのセット(周波数データFreqと強度データMag )はセレクタ4の対応する入力端子(IN1 〜INL ) にそれぞれ入力され、セレクタ4はメモリ選択制御部5の制御により入力端子(IN1 〜INL ) から選択された2セットの音色パラメータを2つの出力端子( OUTa,OUT b) を介してそれぞれパラメータ補間部6に出力する。そして、後述説明するように、指定されたピッチPITCH に応じてパラメータ補間部6で周波数データFreqと強度データMag がそれぞれ補間され、この補間されたの音色パラメータの1セットがフレーム補間部7に供給される。
【0022】
このようにして、フレーム補間部7には1フレーム時間であるサンプリングクロックの64クロック毎に現在のフレームと次のフレームにそれぞれ対応する音色パラメータが供給されるとともに、カウンタ3からサンプリングクロックに対応するクロックのカウント値が供給される。そして、フレーム補間部7は、図9に示したように、現在と次の各フレームj,j+1間の63点における周波数データFreqと強度データMag をその前後のフレームの周波数データFreqと強度データMag からそれぞれ直線補間して算出する。なお、補間は各チャンネル毎に同一チャンネルのデータを用いて行われる。
【0023】
フレーム補間部7で算出された周波数データFreqと強度データMag は加工部8を介して合成部9に出力され、合成部9でこの音色パラメータのセットに基づいて楽音波形データが合成され、図示しないサウンドシステム等に出力される。なお、加工部8ではピッチPITCH や音色データTCに応じて周波数データ,強度データを加工し、音色に変化を与えるが、この加工部8で従来のような周波数データのみのシフトは行う必要がない。また、合成部9は、128チャンネル毎の周波数データ,強度データを合成して1個の波形データを合成する回路である。合成はFFT合成を用いても良く、加算合成を用いてもよい。なお、逆FFT合成を用いる場合はフレーム補間部7は不要となる。
【0024】
ここで、外部から指定されるピッチPITCH は、キーコードのような離散的な音高を表すデータではなくて指定音高に対応した基音の周波数のような連続する数値データであり、音色パラメータメモリ11 〜1L に設定されている各ピッチPITCH 1 〜PITCH L もピッチPITCH と同種類の数値データである。そして、メモリ選択制御部5は、指定されるピッチPITCH と音色パラメータメモリ11 〜1L に設定されている各ピッチPITCH 1 〜PITCH L の大小関係(音程の高低関係)に基づいてセレクタ4の入力端子(IN1 〜INL ) と出力端子( OUTa, OUTb) を2通りのルールで選択的に接続する。
【0025】
図3はメモリ選択制御部5の処理を示すフローチャートであり、ステップS1でPITCH i ≦PITCH <PITCH i+1 となるようなPITCH i とPITCH i+1 を検索し、ステップS2で、PITCH i に対応する音色パラメータメモリ1i (TMPPITCHi)とPITCH i+1 に対応する音色パラメータメモリ1i+1 (TMPPITCHi+1)のデータがそれぞれセレクタ4の OUTaと OUTbから出力されるようにセレクタ4に選択制御信号(i,i+1)を出力するとともに、PITCH i とPITCH i+1 をパラメータ補間部6に出力する。但し、PITCH =PITCH 1 またはPITCH =PITCH L のときはそれぞれ、 OUTaと OUTbの双方からPITCH 1 に対応する音色パラメータメモリ11 (TMPPITCH1)のデータまたはPITCH L に対応する音色パラメータメモリ1L (TMPPITCHL)のデータがそれぞれ出力されるように、選択制御信号を(1,1)または(L,L)とする。
【0026】
図4はセレクタ4の出力とパラメータ補間部6におけるデータの流れを説明する概念図である。メモリ選択制御部5の制御により、セレクタ4のOUTaからはPITCH i に対応する周波数データFreqと強度データMag が出力され、OUTbからはPITCH i+1 に対応する周波数データFreqと強度データMag が出力される。なお、各データは128チャンネル分づつセットで出力される。パラメータ補間部6では、PITCH i に対応する周波数データFreqとPITCH i+1 に対応する周波数データFreqから指定されたピッチPITCH に基づいて周波数データの補間処理を行うとともに、PITCH i に対応する強度データMag とPITCH i+1 に対応する強度データMag から指定されたピッチPITCH に基づいて強度データの補間処理を行う。そして、それぞれ補間によって得られた周波数データFreqと強度データMag が128チャンネル分づつセット出力される。
【0027】
パラメータ補間部6の補間処理は次のように行う。パラメータ補間部6はセレクタ4の出力端子OUTaから出力される周波数データFreqと強度データMag をPITCH i のデータ、出力端子OUTbから出力される周波数データFreqと強度データMag をPITCH i+1 のデータとして処理をし、メモリ選択制御部5から出力されるPITCH i ,PITCH i+1 と指定されたPITCH に基づいて次式(1),(2)の演算を行う。なお、次式中の[TMPPITCH ],[TMPPITCHi],[TMPPITCHi+1]は、PITCH ,PITCH i ,PITCH i+1 にそれぞれ対応する周波数データFreqと強度データMag の128チャンネル分のデータをマトリクス(行列)で表現したものである。
【0028】
【数1】

Figure 0003674154
【0029】
以上の演算処理により、図2に示したように、周波数データFreqと強度データMag の各々について PITCH i,PITCH i+1 の間をPITCH に応じた比例配分で直線補間を行い、PITCH に対応する周波数データFreqと強度データMag を生成する。また、この補間は各チャンネル毎に独立に行われる。
【0030】
以上のように、音色パラメータメモリ11 〜1L の各周波数データFreqと強度データMag は離散的な跳び跳びのピッチPITCH 1 〜PITCH L に対応するものであるが、指定されたピッチPITCH に応じた連続的な値となる周波数データFreqと強度データMag を得ることができる。したがって、指定されたピッチに対応する自然な音質が得られる。また、ピッチ変化に対しても自然的変化を伴ったピッチシフト感を得ることができる。
【0031】
なお、上記実施例では直線補間を行うようにしているが、適宜、補間関数を選んで補間演算を行うようにしてもよい。また、実施例では指定ピッチPITCH を挟む2つのピッチ PITCH i,PITCH i+1 に対応する音色パラメータ(周波数データFreqと強度データMag )に基づいて補間を行うようにしているが、指定ピッチPITCH に近接する2つ以上のピッチに対応する音色パラメータで補間してもよい。例えば、ピッチ PITCH i,PITCH i+1 の範囲内で指定ピッチPITCH が高い方に変化したら、さらに近接するPITCH i+2 に対応する音色パラメータを読み出して PITCH i,PITCH i+1 ,PITCH i+2 の三者で補間したり、低い方に変化した場合はPITCH i-1 , PITCH i,PITCH i+1 の三者で補間するなどしてもよい。さらに、指定ピッチを含む範囲の多数のピッチに基づいて補間してもよい。
【0032】
また、実施例は、例えば鍵盤楽器の鍵に対応するだけの音色パラメータメモリ11 〜1L を備えたマルチサンプリングの例であるが、音色パラメータメモリ11 〜1L の数はシステムに応じて適宜選択すればよい。また、実施例では、音色パラメータメモリ11 〜1L の各ボイスデータは同じフレーム時間で分析されているので、フレーム進行制御部21 〜2L を共通のフレームクロックFrame clock で動作するようにしているが、ボイスデータ個別にフレーム時間が異なるものを用い、フレーム進行制御部21 〜2L をボイスデータのフレーム時間に対応する個別のクロックで動作させるようにしてもよい。
【0033】
また、実施例では、フレーム進行制御部21 〜2L で現在のフレームと次ぎのフレームの各フレームアドレスを同時に生成し、これに対応して、パラメータ補間部6およびフレーム補間部7の動作を音色パラメータメモリ11 〜1L の出力動作に合わせて補間処理を行うようにしているが、フレーム進行制御部21 〜2L のディレイ回路22を無くして1フレーム時間に1つのフレームアドレスを生成し、フレーム補間部において前後2つのフレームについての音色パラメータを順次記憶していくことによりフレーム補間を行うようにしてもよい。
【0034】
また、本発明はハードウエアでも、ソフトウエアでも、それらの混在のシステムでも実現可能である。さらに、DSP(digital signal processor)を用いてもよいし、パーソナルコンピュータ等で処理してもよい。また、フレーム数やチャンネル数は実施例に限定されるものではなく、システムに応じて設定すればよい。
【0035】
また、実施例では、音高に対応する複数種類1組の楽音パラメータとして、周波数データFreqと強度データMag からなる音色パラメータを用いた場合について説明したが、このような楽音パラメータは音高に対応するものであればよく、このような楽音パラメータを指定音高に応じて補間することにより、指定音高に対応した自然な音質や自然なピッチシフト感得られる。
【0036】
【発明の効果】
以上説明したように本発明の楽音合成装置によれば、音高に対応する複数種類1組の楽音パラメータのセットを複数の所定の音高にそれぞれ対応させ、この複数種類1組の楽音パラメータのセットに基づいて対応する音高の楽音を合成する楽音合成装置において、指定された音高以下の第1の音高の楽音パラメータのセットと入力された音高より高い第2の音高の楽音パラメータのセットをそれぞれ読み出し、この読み出した楽音パラメータ同種対応の楽音パラメータ間を指定された音高による第1および第2の音高間の比例配分で補間して該指定された音高に対応する複数種類1組の楽音パラメータのセットをそれぞれ生成し、該補間によって生成された楽音パラメータのセットに基づいて上記指定された音高に対応する楽音を合成するようにしたので、指定音高に対応した自然な音質や、指定音高の変化に対応した自然な音質的変化を伴ったピッチシフト感を得ることができる。
【図面の簡単な説明】
【図1】本発明実施例の楽音合成装置のブロック図である。
【図2】実施例におけるパラメータ補間を説明する図である。
【図3】実施例におけるメモリ選択制御部の処理を示すフローチャートである。
【図4】実施例におけるセレクタの出力とパラメータ補間部のデータの流れを説明する概念図である。
【図5】実施例におけるフレーム進行制御部の構成を示す図である。
【図6】実施例で用いる音色パラメータを得るための楽音の分析方法を説明する図である。
【図7】実施例における1セットのボイスデータを示す図である。
【図8】実施例におけるボイスデータのアタック部とループ部の構成を説明する図である。
【図9】実施例におけるフレーム補間を説明する図である。
【符号の説明】
1 〜1L …音色パラメータメモリ、4…セレクタ、5…メモリ選択制御部、6…パラメータ補間部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a musical tone synthesizing apparatus that associates a set of plural types of musical tone parameters corresponding to pitches with a plurality of predetermined pitches, and synthesizes musical tones based on the plural types of musical tone parameter sets.
[0002]
[Prior art]
Conventionally, as this type of device, for example, there is a sound source device disclosed in JP-A-5-108077. This sound source device performs spectrum analysis of musical sound waveform data using a BPF array, an FFT analyzer, etc., and stores frequency data and intensity data of a plurality of channels corresponding to the frequency band of the spectrum in a storage circuit as a set of musical sound parameters, When a musical sound is generated, the frequency data and intensity data of each channel are read out from the storage circuit in time series to synthesize the musical sound. According to such an analysis and synthesis method, musical tone parameters such as frequency data and intensity data have good processability, so that the tone waveform can be controlled flexibly.
[0003]
Japanese Patent Laid-Open No. 5-108077 discloses an example in which the above-described sound source device is applied to an electronic keyboard instrument, and includes only one set of voice data consisting of frequency data and intensity data for one tone color, with a pitch specified by the keyboard. As an example of multi-sampling using voice data corresponding to all keys as a method for generating a musical tone with a pitch corresponding to each key by shifting the frequency data in accordance with the shift unit, or a method not requiring this shift It is shown.
[0004]
[Problems to be solved by the invention]
By the way, when the pitch (pitch) of a musical tone is continuously changed by control of pitch bend, portamento, etc., that is, when the pitch is smoothly changed instead of discrete pitch changes corresponding to keys, If there is, it is conceivable that the frequency data is continuously shifted by the shift unit. However, this may result in unnatural sound quality in terms of hearing. Even in the case of multi-sampling, there is a problem in sound quality similarly when only frequency data is shifted.
[0005]
The present invention relates to a musical sound synthesizer for associating a plurality of types of musical sound parameter sets corresponding to pitches with a plurality of predetermined musical pitches and synthesizing musical sounds based on the plural types of musical sound parameter sets. It is an object of the present invention to obtain a natural sound quality corresponding to a specified pitch and to obtain a pitch shift feeling accompanied by a natural sound quality change with respect to a change in the specified pitch.
[0006]
[Means for Solving the Problems]
A musical tone synthesizer according to the present invention for solving the above-mentioned problems is a musical tone parameter storage means for storing a set of plural types of musical tone parameters corresponding to a pitch for each of a plurality of predetermined pitches , A pitch designating unit for designating a pitch of a musical tone to be performed, a second pitch higher than the input pitch and a first pitch below the designated pitch among the plurality of predetermined pitches. A pitch parameter is determined, the musical tone parameter set for the first pitch and the musical tone parameter set for the second pitch are respectively read from the musical tone parameter storage means, and the same correspondence of the read musical tone parameters generating a plurality of types 1 set corresponding to the designated tone pitch between the tone parameter by interpolating a proportional distribution between the first and second pitch by the specified pitch of the set of tone parameters respectively Easy to do A parameter generating unit, characterized in that a tone synthesis means for synthesizing a tone corresponding to the designated tone pitch based on a set of a plurality of types a set of musical sound parameters made organism.
[0007]
[Action]
In the musical tone synthesizer of the present invention, the musical tone is synthesized based on a set of plural types of musical tone parameters corresponding to the pitch. When the pitch of a musical tone to be generated is designated, a musical sound parameter set having a first pitch that is equal to or lower than the designated pitch and a musical sound parameter set having a second pitch higher than the input pitch are obtained. Each of the tone parameters read out from the tone parameter storage means is interpolated by a proportional distribution between the first and second pitches according to the designated pitches between the tone parameters corresponding to the same kind of the read tone parameters , and the designated tone is obtained. A set of a plurality of types of musical sound parameters corresponding to high is generated. Therefore, for example, when the designated pitch changes continuously, a set of plural types of musical tone parameters corresponding to the pitch changes continuously between musical tone parameters corresponding to two predetermined pitches. Since the musical tone parameter affects the tone quality of the musical tone according to the pitch, it becomes a natural tone quality change with respect to the change in the designated pitch.
[0008]
In a preferred example of the musical tone synthesizer according to the present invention, the musical tone waveform frequency data and intensity data corresponding to a predetermined pitch are stored in a memory as musical tone parameters, and the predetermined pitch is determined according to the specified pitch. Frequency data and intensity data corresponding to the specified pitch are interpolated to generate frequency data and intensity data corresponding to the designated pitch, respectively, and based on the frequency data and intensity data generated by the interpolation 2. A musical tone synthesizing apparatus according to claim 1, wherein a musical tone corresponding to the designated pitch is synthesized.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 6 is a diagram for explaining a musical tone analysis method for obtaining a timbre parameter used in the musical tone synthesizer according to the embodiment of the present invention. FIG. 6A is a block diagram of the analysis unit. The analysis unit has a configuration in which a plurality of (128) band-pass filters (BPF) are connected in parallel, and each BPF has a channel number of 0 to 127. Identified. The bandwidth of each BPF is 125 Hz, and the filtration band is 0 to 125 Hz for 0 channel, 125 to 250 Hz for 1 channel, 250 to 375 Hz for 2 channel, etc., and from 0 Hz to 16 kHz as shown in FIG. It is arranged in order.
[0010]
Further, this BPF has an FFT function, and can detect frequency data and intensity data of a spectrum passing through the BPF. The frequency is detected as a deviation from the band center frequency, and absolute frequency data can be obtained by adding this deviation to the band center frequency. Such an analysis unit can also be realized using a high-speed FFT analyzer. Furthermore, the number of channels corresponds to the sound source standard and is not limited to 128 channels in the embodiment, and the bandwidth is not limited to 125 Hz.
[0011]
The musical sound waveform data corresponding to the musical sound to be analyzed is PCM waveform data obtained by sampling the amplitude information of the waveform in time series at 32 kHz. When this PCM waveform data is input to the analysis unit, as shown in FIG. The analysis unit treats each sampling data of 2048 sample points as one set of data (one frame). However, each frame overlaps with a shift of 64 samples. Each time sampling data for one frame is input to the analysis unit, the BPF of each channel sequentially outputs frequency data Freq and intensity data Mag of that frame.
[0012]
In this embodiment, the frequency data Freq and intensity data Mag are a plurality of types of musical tone parameters corresponding to musical tone waveform data having a predetermined pitch. Further, this embodiment is a case of multi-sampling. For example, each original waveform data of a pitch corresponding to a key of a keyboard instrument is analyzed as described above, and as shown in FIG. F j k and intensity data M j k (j is a frame number and k is a channel number) are stored in a table for each frame. A set of frequency data and intensity data of the predetermined number of frames corresponding to musical tone waveform data of one pitch is called voice data.
[0013]
The original musical sound waveform data in this embodiment is musical sound waveform data having an attack portion corresponding to the rising of a musical sound and a sustain portion corresponding to a continuous sound, and voice data corresponding to each pitch obtained by analysis. As shown in FIG. 8, the frame data is divided into the frame data of the attack part (Freq, Mag set) and the frame data of the loop part. The first frame address of the loop part is determined as the loop start address LOOPSTART, and the last frame address of the loop part is determined as the loop end address LOOPEND. When waveform data is generated (musical tone is generated), the address of the frame address By performing control and reading out the frame data of the attack portion as a whole, it is possible to generate a musical sound waveform having a long duration by repeatedly reading out the frame data of the loop portion.
[0014]
FIG. 1 is a block diagram of a musical tone synthesis apparatus according to an embodiment of the present invention. This musical tone synthesizer is used as a sound source of an electronic musical instrument, for example, key-on pulse KONP generated by pressing a key (not shown), specified pitch PITCH generated by control of pitch bend, portamento, etc., timbre data TC specified by an operation panel, etc. The loop start address LOOPSTART and the loop end address LOOPEND stored in the memory are input.
[0015]
The timbre parameter memory group is a timbre parameter corresponding to the pitches PITCH 1 to PITCH L obtained by analyzing the voice data obtained as described above with respect to the L (L type) pitches (pitch) of 1 to L. The memories (TPM p1 to TPM pL) are stored in 1 1 to 1 L , respectively. That is, in each timbre parameter memory 1 1 to 1 L , sets of frequency data Freq and intensity data Mag for 128 channels are stored as 0 to m frames for a predetermined number of time frames in the attack part and the loop part. It should be noted that the pitch corresponding to these voice data is made to the pitch order of PITCH 1 <PITCH 2 <... < PITCH L.
[0016]
Frame tone control units 2 1 to 2 L for reading out each voice data in units of frames are connected to the tone color parameter memories 1 1 to 1 L , respectively. Further, a 64 base counter 3 is connected to the frame progress control units 2 1 to 2 L. This counter 3 is reset by the key-on pulse KONP and counts up by the sampling clock φ f in the original waveform data. and outputs a carry signal to the frame clock frame clock as each frame progression control unit 2 1 to 2 L. Each frame progression control unit 2 1 to 2 L outputs the frame address AD 1 to AD L to the tone color parameter memory 1 1 to 1 L corresponding with the frame clock Frame clock, each tone color parameter memory 1 1 to 1 L outputs the frame data specified by the frame address AD 1 to AD L to the selector (SEL) 4.
[0017]
Figure 5 is a diagram showing the structure of a frame progression control unit 2 1 to 2 L. The frame progression control units 2 1 to 2 L have the same configuration, and the reference numerals are omitted in the description of FIG. The frame counter 21 is counted up by the frame clock Frame clock from the counter 3, and the count value is output to the timbre parameter memory 1 as the next frame address for the corresponding timbre parameter memory 1 and a one-stage delay circuit (shift). Register) 22. The output of the delay circuit 22 is output to the timbre parameter memory 1 as the current frame address.
[0018]
On the other hand, the key-on pulse KONP is input to the reset terminal of the frame counter 21, and the loop start address LOOPSTART is input to the preset terminal. A comparison circuit 23 is connected to the load terminal, and the loop end address LOOPEND and the output of the frame counter 21 are input to the comparison circuit 23. Then, the comparison circuit 23 outputs a load signal LOAD to the frame counter 21 when the output value of the frame counter 21 becomes equal to LOOPEND.
[0019]
With the above configuration, the frame progress control unit 2 and the timbre parameter memory 1 operate as follows. When the key is turned on, KONP is output, the frame counter 21 is reset, and the current frame address and the next frame address are sequentially output to the timbre parameter memory 1 each time the frame is updated by the frame clock Frame clock. Then, in the timbre parameter memory 1, reading starts from the 0th frame (the head of the attack portion), and when reading to the loop end address, LOOPSTART is preset in the frame counter 21 by the LOAD signal output from the comparison circuit 23, and from this value Counting resumes. This operation is repeated as long as the key-on continues.
[0020]
That is, in each timbre parameter memory 1 1 to 1 L , frequency data and intensity data (128 channels) are sequentially read from the attack part to the loop part by key-on, and the frequency data and intensity data of the loop part are read until key-off. Read repeatedly. Note that the tone color parameter memories 1 1 to 1 L output the frequency data and intensity data of the current frame and the next frame within one frame period. Thereby, frame interpolation described later is performed.
[0021]
In FIG. 1, a set of timbre parameters (frequency data Freq and intensity data Mag) output from the timbre parameter memories 11 1 to 1 L are respectively input to corresponding input terminals (IN 1 to IN L ) of the selector 4. The selector 4 outputs two sets of timbre parameters selected from the input terminals (IN 1 to IN L ) under the control of the memory selection control unit 5 to the parameter interpolation unit 6 via the two output terminals (OUTa, OUT b). To do. Then, as will be described later, the parameter interpolation unit 6 interpolates the frequency data Freq and the intensity data Mag according to the designated pitch PITCH, and supplies one set of the interpolated timbre parameters to the frame interpolation unit 7. Is done.
[0022]
In this way, the frame interpolation unit 7 is supplied with timbre parameters corresponding to the current frame and the next frame every 64 clocks of the sampling clock, which is one frame time, and corresponds to the sampling clock from the counter 3. A clock count value is provided. Then, as shown in FIG. 9, the frame interpolation unit 7 converts the frequency data Freq and intensity data Mag at 63 points between the current and next frames j and j + 1 to the frequency data Freq and intensity data Mag of the previous and subsequent frames. Are calculated by linear interpolation. Interpolation is performed using the same channel data for each channel.
[0023]
The frequency data Freq and intensity data Mag calculated by the frame interpolating unit 7 are output to the synthesizing unit 9 through the processing unit 8, and the synthesizing unit 9 synthesizes musical sound waveform data based on the set of timbre parameters, not shown. Output to sound system. The processing unit 8 processes the frequency data and the intensity data according to the pitch PITCH and the timbre data TC to change the timbre, but the processing unit 8 does not need to shift only the frequency data as in the prior art. . The synthesizing unit 9 is a circuit for synthesizing one waveform data by synthesizing frequency data and intensity data for each 128 channels. For the synthesis, FFT synthesis may be used, or addition synthesis may be used. Note that the frame interpolation unit 7 is not required when inverse FFT synthesis is used.
[0024]
Here, the pitch PITCH specified from the outside is not continuous pitch data such as a key code, but continuous numeric data such as the frequency of the fundamental tone corresponding to the specified pitch, and the timbre parameter memory. 1 1 to 1 each is set to L pitch pITCH 1 ~PITCH L is also the same type of numeric data and pitch pITCH. Then, the memory selection control unit 5, the selector 4 based on the magnitude relation of the pitch PITCH 1 ~PITCH L set in the pitch PITCH and tone color parameter memory 1 1 to 1 L designated (a relationship among the pitch) The input terminals (IN 1 to IN L ) and output terminals (OUTa, OUTb) are selectively connected according to two rules.
[0025]
Figure 3 is a flow chart showing the processing of the memory selection control unit 5 searches the PITCH i and PITCH i + 1 such that PITCH i ≦ PITCH <PITCH i + 1 in step S1, in step S2, the PITCH i Selector 4 so that the data of tone parameter memory 1 i + 1 (TMP PITCHi + 1 ) corresponding to corresponding tone parameter memory 1 i (TMP PITCHi ) and PITCH i + 1 are output from OUTa and OUTb of selector 4, respectively. A selection control signal (i, i + 1) is output to, and PITCH i and PITCH i + 1 are output to the parameter interpolation unit 6. However, when PITCH = PITCH 1 or PITCH = PITCH L , the tone parameter memory 1 1 (TMP PITCH1 ) data corresponding to PITCH 1 or the tone parameter memory 1 L corresponding to PITCH L from both OUTa and OUTb ( The selection control signal is (1, 1) or (L, L) so that the data of TMP PITCHL ) is output.
[0026]
FIG. 4 is a conceptual diagram illustrating the output of the selector 4 and the data flow in the parameter interpolation unit 6. Under the control of the memory selection control unit 5, the frequency data Freq and intensity data Mag corresponding to PITCH i are output from OUTa of the selector 4, and the frequency data Freq and intensity data Mag corresponding to PITCH i + 1 are output from OUTb. Is done. Each data is output as a set for 128 channels. The parameter interpolation section 6, performs interpolation processing of the frequency data based on the pitch PITCH designated by the frequency data Freq corresponding to the frequency data Freq and PITCH i + 1 corresponding to PITCH i, intensity data corresponding to PITCH i Intensity data interpolation processing is performed based on the pitch PITCH specified from the intensity data Mag corresponding to Mag and PITCH i + 1 . Then, frequency data Freq and intensity data Mag obtained by interpolation are output as a set for 128 channels.
[0027]
The interpolation processing of the parameter interpolation unit 6 is performed as follows. The parameter interpolation unit 6 uses the frequency data Freq and intensity data Mag output from the output terminal OUTa of the selector 4 as PITCH i data, and the frequency data Freq and intensity data Mag output from the output terminal OUTb as PITCH i + 1 data. Processing is performed, and the following expressions (1) and (2) are performed based on PITCH i and PITCH i + 1 output from the memory selection control unit 5 and designated PITCH. Incidentally, in the following formula [TMP PITCH], [TMP PITCHi ], [TMP PITCHi + 1] is, PITCH, PITCH i, PITCH i + 1 to 128 channels of data of the corresponding frequency data Freq and intensity data Mag Is expressed in a matrix.
[0028]
[Expression 1]
Figure 0003674154
[0029]
By the above calculation process, as shown in FIG. 2, linear interpolation is performed between PITCH i and PITCH i + 1 for each of frequency data Freq and intensity data Mag with proportional distribution according to PITCH. Frequency data Freq and intensity data Mag are generated. This interpolation is performed independently for each channel.
[0030]
As described above, each frequency data Freq and intensity data Mag in the timbre parameter memories 11 1 to 1 L correspond to the discrete jump pitches PITCH 1 to PITCH L , but according to the designated pitch PITCH. It is possible to obtain frequency data Freq and intensity data Mag that are continuous values. Therefore, a natural sound quality corresponding to the designated pitch can be obtained. Further, it is possible to obtain a pitch shift feeling accompanied by a natural change with respect to a pitch change.
[0031]
In the above-described embodiment, linear interpolation is performed, but an interpolation function may be selected as appropriate to perform interpolation calculation. In the embodiment, the interpolation is performed based on the timbre parameters (frequency data Freq and intensity data Mag) corresponding to the two pitches PITCH i and PITCH i + 1 sandwiching the designated pitch PITCH. You may interpolate with the timbre parameter corresponding to two or more adjacent pitches. For example, when the designated pitch PITCH changes to a higher value within the range of pitch PITCH i and PITCH i + 1 , the tone parameters corresponding to the closer PITCH i + 2 are read and PITCH i , PITCH i + 1 , PITCH i + Interpolation may be performed by the three of the two , or may be interpolated by the three of PITCH i-1 , PITCH i , and PITCH i + 1 if the value changes to the lower one. Furthermore, interpolation may be performed based on a large number of pitches in a range including the designated pitch.
[0032]
Further, embodiments, for example, is an example of a multi-sampling having a tone color parameter memory 1 1 to 1 L of the just corresponds to the key of the keyboard instrument, the number of tone color parameter memory 1 1 to 1 L, depending on the system What is necessary is just to select suitably. In the embodiment, the voice data of the tone color parameter memory 1 1 to 1 L so have been analyzed at the same frame time, to work a frame progression control unit 2 1 to 2 L with a common frame clock Frame clock However, the voice data having different frame times may be used, and the frame progress control units 2 1 to 2 L may be operated by individual clocks corresponding to the voice data frame time.
[0033]
In the embodiment, the frame progress control units 2 1 to 2 L simultaneously generate the frame addresses of the current frame and the next frame, and correspondingly, the operations of the parameter interpolation unit 6 and the frame interpolation unit 7 are performed. Interpolation processing is performed in accordance with the output operation of the timbre parameter memory 1 1 to 1 L , but one frame address is generated per frame time without the delay circuit 22 of the frame progress control unit 2 1 to 2 L. The frame interpolation may be performed by sequentially storing the timbre parameters for the two frames before and after the frame interpolation unit.
[0034]
Further, the present invention can be realized by hardware, software, or a mixed system thereof. Furthermore, a DSP (digital signal processor) may be used, or processing may be performed by a personal computer or the like. Further, the number of frames and the number of channels are not limited to the embodiment, and may be set according to the system.
[0035]
Further, in the embodiment, a case has been described where a tone color parameter composed of frequency data Freq and intensity data Mag is used as a set of plural types of tone parameters corresponding to pitches. Such tone parameters correspond to pitches. By interpolating such musical tone parameters according to the designated pitch, natural sound quality corresponding to the designated pitch and a natural pitch shift feeling can be obtained.
[0036]
【The invention's effect】
As described above, according to the musical tone synthesizer of the present invention, a plurality of types of musical tone parameter sets corresponding to pitches are respectively associated with a plurality of predetermined pitches, and the plural types of musical tone parameter sets. A musical tone synthesizer that synthesizes musical tones corresponding to a pitch based on a set, and a musical tone having a second musical pitch that is higher than the input pitch and a musical tone parameter set of a first musical pitch that is equal to or lower than a designated pitch. Each set of parameters is read out, and the corresponding musical tone parameters corresponding to the read musical tone parameters are interpolated by a proportional distribution between the first and second pitches according to the designated pitches, so as to correspond to the designated pitches. A plurality of types of musical sound parameter sets are generated, and musical sounds corresponding to the specified pitches are synthesized based on the musical sound parameter sets generated by the interpolation. Because it was Unishi, it is possible to obtain and natural sound quality corresponding to the designated pitch, a pitch shift feeling accompanied by natural sound quality changes in response to changes in the designated pitch.
[Brief description of the drawings]
FIG. 1 is a block diagram of a musical tone synthesis apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating parameter interpolation in the embodiment.
FIG. 3 is a flowchart illustrating processing of a memory selection control unit in the embodiment.
FIG. 4 is a conceptual diagram illustrating a selector output and a data flow of a parameter interpolation unit in the embodiment.
FIG. 5 is a diagram illustrating a configuration of a frame progress control unit in the embodiment.
FIG. 6 is a diagram for explaining a musical sound analysis method for obtaining a timbre parameter used in the embodiment.
FIG. 7 is a diagram showing a set of voice data in the embodiment.
FIG. 8 is a diagram illustrating a configuration of an attack part and a loop part of voice data in the embodiment.
FIG. 9 is a diagram illustrating frame interpolation in the embodiment.
[Explanation of symbols]
1 1 to 1 L : Tone parameter memory, 4 ... selector, 5 ... memory selection control unit, 6 ... parameter interpolation unit.

Claims (1)

音高に対応する複数種類1組の楽音パラメータのセットを複数の所定の音高毎に記憶した楽音パラメータ記憶手段と、
発音すべき楽音の音高を指定する音高指定手段と、
前記複数の所定の音高のうち、前記指定された音高以下の第1の音高と前記入力された音高より高い第2の音高とを決定し、該第1の音高の楽音パラメータのセットと前記第2の音高の楽音パラメータのセットとを前記楽音パラメータ記憶手段からそれぞれ読み出すとともに、該読み出した
楽音パラメータ同種対応の楽音パラメータ間を前記指定された音高による前記第1および第2の音高間の比例配分で補間して前記指定された音高に対応する複数種類1組の楽音パラメータのセットをそれぞれ生成する楽音パラメータ生成手段と、
該生成された複数種類1組の楽音パラメータのセットに基づいて上記指定された音高に対応する楽音を合成する楽音合成手段と
を備えたことを特徴とする楽音合成装置。
Musical tone parameter storage means for storing a set of plural types of musical tone parameters corresponding to pitches for each of a plurality of predetermined pitches ;
A pitch designating means for designating the pitch of the musical sound to be pronounced;
Of the plurality of predetermined pitches, a first pitch below the designated pitch and a second pitch higher than the input pitch are determined, and a musical tone of the first pitch A set of parameters and a set of musical tone parameters of the second pitch are read from the musical tone parameter storage means, respectively, and between the musical tone parameters corresponding to the same kind of the read musical tone parameters , the designated pitch is set. and tone parameter generating means for generating each of a plurality of types a set of sets of musical tone parameters corresponding to the pitch which is the designated by interpolating a proportional distribution between the first and second pitch by,
A tone synthesis means for synthesizing a tone corresponding to the tone pitch which is the designated based on a set of a plurality of types a set of musical sound parameters made organism
Musical tone synthesizing apparatus comprising the.
JP15525096A 1996-06-17 1996-06-17 Music synthesizer Expired - Fee Related JP3674154B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15525096A JP3674154B2 (en) 1996-06-17 1996-06-17 Music synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15525096A JP3674154B2 (en) 1996-06-17 1996-06-17 Music synthesizer

Publications (2)

Publication Number Publication Date
JPH103288A JPH103288A (en) 1998-01-06
JP3674154B2 true JP3674154B2 (en) 2005-07-20

Family

ID=15601824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15525096A Expired - Fee Related JP3674154B2 (en) 1996-06-17 1996-06-17 Music synthesizer

Country Status (1)

Country Link
JP (1) JP3674154B2 (en)

Also Published As

Publication number Publication date
JPH103288A (en) 1998-01-06

Similar Documents

Publication Publication Date Title
JPH079588B2 (en) Musical sound generator
EP0169659B1 (en) Sound generator for electronic musical instrument
EP0167847B1 (en) Tone signal generation device
JP3674154B2 (en) Music synthesizer
JP2010217475A (en) Musical sound signal generating device
JP2559209B2 (en) Music signal generator
US5218155A (en) Tone signal processing apparatus for PCM waveform interpolation and filtering
JP2663496B2 (en) Signal interpolator for musical tone signal generator
JP3525482B2 (en) Sound source device
JP3520931B2 (en) Electronic musical instrument
JP2990897B2 (en) Sound source device
JPH064079A (en) Musical sound synthesizing device
KR20030090526A (en) Musical tone signal generating apparatus
JP5493408B2 (en) Waveform data generation method
JP3538908B2 (en) Electronic musical instrument
JP2722482B2 (en) Tone generator
US5817964A (en) Electronic musical instrument and method for storing a plurality of waveform sampling data at a single address
JP3304701B2 (en) Music synthesizer
JP3651675B2 (en) Electronic musical instruments
JPH0525116B2 (en)
JP2712943B2 (en) Sound source device
JPH11175070A (en) Sound source device and electronic musical instrument using same
JP5655273B2 (en) Waveform data generation method
JPH0122632B2 (en)
JPH05216479A (en) Electronic musical instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050418

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees