JP3660379B2 - Sound source control information storage method and sound source control apparatus - Google Patents

Sound source control information storage method and sound source control apparatus Download PDF

Info

Publication number
JP3660379B2
JP3660379B2 JP30002394A JP30002394A JP3660379B2 JP 3660379 B2 JP3660379 B2 JP 3660379B2 JP 30002394 A JP30002394 A JP 30002394A JP 30002394 A JP30002394 A JP 30002394A JP 3660379 B2 JP3660379 B2 JP 3660379B2
Authority
JP
Japan
Prior art keywords
musical score
score data
sound source
data
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP30002394A
Other languages
Japanese (ja)
Other versions
JPH08160957A (en
Inventor
文子 沖田
馨 山上
武 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP30002394A priority Critical patent/JP3660379B2/en
Publication of JPH08160957A publication Critical patent/JPH08160957A/en
Application granted granted Critical
Publication of JP3660379B2 publication Critical patent/JP3660379B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、発生する音の音程、発音、消音、音色効果等の音楽情報を時間順に記録した譜面データからなる音源制御情報の記憶方法に関する。
【0002】
また、本発明は、記憶されている譜面データを所定の間隔で取り込んで、この取り込んだ譜面データに基づいて音源装置を制御して、楽曲等を自動演奏する音源制御装置に関し、特に、ビデオゲーム装置あるいは情報処理装置等において、演算結果あるいは使用者の操作に応じて音源装置を制御して効果音、背景音楽(BGM)等を発生させる音源制御装置に関する。
【0003】
【従来の技術】
従来より、ビデオゲーム装置あるいはパーソナルコンピュータ等の情報処理装置においては、ゲームの進行あるいは使用者の操作に応じて楽音、効果音等を発生させることが行なわれている。
【0004】
このようなビデオゲーム装置あるいはパーソナルコンピュータ等では、例えば基本波とその高調波を合成した波形の周波数を可変することによって音程のある音を発生するいわゆるFM音源、あるいは基本となる基本波の波形を記憶しておき、指示された音程等に応じて基本波の読み出し周期を可変して音程を発生させるいわゆるPCM音源等が音を発生する音源装置として使用されている。
【0005】
そして、このようなビデオゲーム装置あるいはパーソナルコンピュータでは、例えば、使用者の操作等に応じて、発生させる効果音、背景音楽(BGM)の演奏の開始及び停止、音量等を即座に実時間(リアルタイム)で変更することができるようになっている。
【0006】
例えばBGM等の再生においては、発生する音の音程、発音、消音、音色効果等の音楽情報を時間情報と共に時間順に並べた譜面データを予め用意しておき、これらをリアルタイムに解釈しながら、音源装置の音程、発音及び消音レジスタを逐次設定することによって行なわれている。
【0007】
このように、譜面データの形式でBGM等のデータを用意することは、プログラムの実行によって逐次音源装置の音程、発音及び消音等を制御する場合等に比較して、再生時に容易に音色、音量、音程等を変化させることができ、使用者の操作に高速に応答するリアルタイム性が重要となるマルチメディアコンピュータ、ゲーム等に適した方法である。
【0008】
また、このような譜面データに基づく音源装置の制御は、例えば図16に示すように、演算処理装置(CPU)として1つのCPU201のみを備えたビデオゲーム装置では、このCPU201を時分割で使用して、一定時間間隔毎に、譜面データを読み出し、読み出した譜面データに基づいて音源装置202の発音タイミング、発音期間、発音音程、音量等を制御してBGM等を発生させるようになっている。
【0009】
このように、CPU201を時分割で使用して譜面データを解釈する方法は、CPU201の処理能力が十分高ければ、特別な周辺装置等を必要としないためコストも安く、プログラムも作成しやすい。
【0010】
ところで、上記譜面データは、図17に示すように、ファイルを識別するファイルヘッダ情報と、譜面データからなるファイルとして光学ディスクに記録されている。
【0011】
このような、譜面データは、使用に先だって光学ディスク装置205から読み出され、メモリ204の所定のアドレスに記憶されるようになっている。
【0012】
【発明が解決しようとする課題】
しかしながら、このような譜面データの記憶を行なった場合には、個々の譜面データが記憶されているメモリ204上のアドレスを管理する必要があり、また、譜面データの再生を行なう際等に、譜面データを特定するためには、個々の譜面データが記憶されているメモリ204上のアドレスを指定する必要があった。
【0013】
また、一般に、複数の譜面データの再生は同時には行なわれていなかったため、複数の譜面データの再生を独立に設定することができなかった。
【0014】
しかしながら、実際のゲーム等の処理では、使用者からの入力等に対応させて、再生する譜面データを変更することが要求されるが、前の譜面データの再生が終了するまで待たなければならず、入力に対する応答時間が長くなる問題があった。
【0015】
本発明は、上述のような問題点に鑑みてなされたものであり、譜面データの管理が容易な音源制御情報を記憶することができる音源情報の記憶方法を提供することを目的とする。
【0016】
また、本発明は、入力に対する応答を高速化することができる及び音源制御装置を提供することを目的とする。
【0017】
【課題を解決するための手段】
本発明に係る音源制御情報の記憶方法は、音源を制御するための制御情報を時間情報と共に記録した音源制御情報を記憶装置に記憶する音源制御情報の記憶方法であって、1連の音源制御情報からなる譜面データに識別情報を付加し、識別情報を付加した複数の譜面データを連結した連結譜面データを記憶する際に、連結譜面データを構成する各々の譜面データに対して割り当てた譜面識別情報と、連結譜面データが記録されているアドレスを示す先頭アドレス情報と、連結譜面データを構成する個々の譜面データが記憶されているアドレスの先頭アドレス情報からの相対的な位置を示す相対アドレス情報と、譜面識別情報と先頭アドレス及び相対アドレスとの対応を示す対応情報とを記憶することを特徴とする。
【0018】
また、本発明に係る音源制御装置は、譜面データを読み出して、読み出した譜面データに基づいて音源の制御を行なう音源制御装置であって、一連の音源制御情報からなる譜面データに識別情報を付加して連結した連結譜面データと共に、個々の譜面データを識別する譜面識別情報と、連結譜面データが記録されているアドレスを示す先頭アドレス情報と、連結譜面データを構成する個々の譜面データが記憶されているアドレスの先頭アドレス情報からの相対的な位置を示す相対アドレス情報と、譜面識別情報と先頭アドレス及び相対アドレスとの対応を示す対応情報とが記憶された記憶装置と、選択された譜面識別情報に対応する譜面データを対応情報を参照して記憶装置から読み出す読み出し制御部と、読み出し制御部によって読み出された譜面データに基づいて音源の制御を行なう再生部とを有することを特徴とする。
【0019】
また、本発明に係る音源制御装置は、複数の譜面識別情報に対応する譜面データの再生状態を保持する再生状態保持部を有し、読み出し制御部が選択された複数の譜面識別情報に対応する譜面データを前記対応情報を参照して記憶装置から読み出し、再生部が、譜面データに基づいて音源の制御を行なうデータ再生部を複数有し、複数のデータ再生部によって上記再生状態保持部に保持された譜面データの再生状態に基づいて譜面データに基づく音源の制御を行なうことを特徴とする。
【0020】
【作用】
本発明に係る音源制御情報の記憶方法では、1連の音源制御情報からなる譜面データに識別情報を付加し、識別情報を付加した複数の譜面データを連結した連結譜面データを記憶する際に、連結譜面データを構成する各々の譜面データに対して割り当てた譜面識別情報と、
連結譜面データが記録されているアドレスを示す先頭アドレス情報と、
連結譜面データを構成する個々の譜面データが記憶されているアドレスの先頭アドレス情報からの相対的な位置を示す相対アドレス情報と、
譜面識別情報と先頭アドレス及び相対アドレスとの対応を示す対応情報とを記憶する。
【0021】
このように記憶された音源制御情報は、本発明の音源制御装置によって再生される。
【0022】
この音源制御装置では、再生される譜面データの譜面識別情報が選択されると、読み出し制御部が選択された譜面識別情報に対応する譜面データを対応情報を参照して記憶装置から読み出し、再生部が読み出し制御部によって読み出された譜面データに基づいて音源の制御を行なう。
【0023】
これによって、譜面識別情報を選択するだけで、選択された譜面識別情報に対応する譜面データの再生が行なわれる。
【0024】
また、読み出し状態保持部は、複数の譜面識別情報に対応する譜面データの読み出し状態を保持する。そして、複数の譜面識別情報が選択されると、読み出し制御部は、選択された複数の譜面識別情報に対応する譜面データを対応情報を参照して記憶装置から読み出す。
【0025】
再生部は、再生状態保持部に保持された譜面データの再生状態に基づいて複数のデータ再生部により音源の制御を行なう。
【0026】
ここで、再生状態保持部のある識別情報に対応する再生状態は、各々独立に設定されるため、ある識別情報に対応する再生状態が設定されると、他の譜面データが再生されているか否かに関わらず、設定された再生状態に対応する譜面データの再生状態が変化し、例えば譜面データの再生が開始され、再生された譜面データに基づいて音源が制御される。
【0027】
【実施例】
以下、本発明に係る音源制御装置を、例えばビデオゲーム装置において、楽音、効果音等を発生する音源制御部として適用した実施例について説明する。
【0028】
また、本発明に係る音源制御情報の記憶方法は、この音源制御部によって使用される音源制御情報の記憶に適用されている。
【0029】
このビデオゲーム装置は、例えば光学ディスク等の補助記憶装置に記憶されているゲームプログラムを読み出して実行することにより、使用者からの指示に応じてゲームを行なうようになっており、図1に示すような構成を有している。
【0030】
すなわち、このビデオゲーム装置は、中央演算処理装置(CPU)及びその周辺装置等からなる制御系50と、フレームバッファに描画を行なうグラフィックプロセッシングユニット(GPU)等からなるグラフィックシステム60と、楽音、効果音等を発生するサウンドプロセッシングユニット(SPU)等からなるサウンドシステム70と、補助記憶装置である光学ディスクの制御を行なう光学ディスク制御部80と、使用者からの指示を入力するコントローラからの指示入力及びゲームの設定等を記憶する補助メモリからの入出力を制御する通信制御部90と、上記制御系50〜通信制御部90が接続されているバス100等を備えている。
【0031】
上記制御系50は、CPU51と、割り込み制御、ダイレクトメモリアクセス(DMA)転送の制御等を行なう周辺装置制御部52と、RAMからなる主記憶装置(メインメモリ)53と、メインメモリ53、グラフィックシステム60、サウンドシステム70等の管理を行なういわゆるオペレーティングシステム等のプログラムが格納されたROM54とを備えている。
【0032】
CPU51は、ROM54に記憶されているオペレーティングシステムを実行することにより装置全体の制御を行なう。
【0033】
上記グラフィックシステム60は、座標変換等の処理を行なうジオミトリトランスファエンジン(GTE)61と、CPU51からの描画指示に従って描画を行なう画像処理装置(GPU)62と、該GPU62により描画された画像を記憶するフレームバッファ63と、離散コサイン変換などの直行変換により圧縮されて符号化された画像データを復号化する画像デコーダ64とを備えている。
【0034】
GTE61は、例えば複数の演算を並列に実行する並列演算機構を備え、CPU51からの演算要求に応じて。座標変換、光源計算、行列あるいはベクトルの演算を高速に行なうことができるようになっている。
【0035】
具体的には、このGTE61は、1つの三角形状のポリゴンに同じ色で描画するフラットシェーディングを行なう演算の場合では、1秒間に最大150万程度のポリゴンの座標演算を行なうことができるようになっており、これによってこのビデオゲーム装置では、CPU51の負荷を低減すると共に、高速な座標演算を行なうことができるようになっている。
【0036】
GPU62は、CPU51からの描画命令に従って、フレームメモリ62に対して多角形(ポリゴン)等の描画を行なう。このGPU62は、1秒間に最大36万程度のポリゴンの描画を行なうことができるようになっている。
【0037】
フレームバッファ63は、いわゆるデュアルポートRAMからなり、GPU62からの描画あるいはメインメモリからの転送と、表示のための読み出しとを同時に行なうことができるようになっている。
【0038】
このフレームバッファ63は、1Mバイトの容量を有し、それぞれ16ビットの横1024で縦512の画素のマトリックスとして扱われる。
【0039】
このフレームバッファ63のうちの任意の領域をビデオ出力として出力することができるようになっている。
【0040】
また、このフレームバッファ63には、ビデオ出力として出力される表示領域の他に、GPU62がポリゴン等の描画を行なう際に参照するカラールックアップテーブル(CLUT)が記憶されるCLUT領域と、描画時に座標変換されてGPU62によって描画されるポリゴン等の中に挿入(マッピング)される素材(テクスチャ)が記憶されるテクスチャ領域が設けられている。これらのCLUT領域とテクスチャ領域は表示領域の変更等に従って動的に変更されるようになっている。
【0041】
なお、上記GPU62は、上述のフラットシェーディングの他にポリゴンの頂点の色から補完してポリゴン内の色を決めるグーローシェーディングと、上記テクスチャ領域に記憶されているテクスチャをポリゴンに張り付けるテクスチャマッピングを行なうことができるようになっている。
【0042】
これらのグーローシェーディング又はテクスチャマッピングを行なう場合には、上記GTE61は、1秒間に最大50万程度のポリゴンの座標演算を行なうことができる。
【0043】
画像デコーダ64は、上記CPU51からの制御により、メインメモリ53に記憶されている静止画あるいは動画の画像データを復号化してメインメモリ53に記憶する。
【0044】
また、この再生された画像データは、GPU62を介してフレームバッファ63に記憶することにより、上述のGPU62によって描画される画像の背景として使用することができるようになっている。
【0045】
上記サウンドシステム70は、CPU51からの指示に基づいて、楽音、効果音等を発生する音声処理装置(SPU)71と、該SPU71により、波形データ等が記録されるサウンドバッファ72と、SPU71によって発生される楽音、効果音等を出力するスピーカ73とを備えている。
【0046】
上記SPU71は、16ビットの音声データを4ビットの差分信号として適応差分符号化(Adaptive defferential Pulse Code Moduretion :ADPCM)された音声データを再生するADPCM復号機能と、サウンドバッファ72に記憶されている波形データを再生することにより、効果音等を発生する再生機能と、サウンドバッファ72に記憶されている波形データを変調させて再生する変調機能等を備えている。
【0047】
このような機能を備えることによってこのサウンドシステム70は、CPU51からの指示によってサウンドバッファ72に記録された波形データに基づいて楽音、効果音等を発生するいわゆるPCM音源として使用することができるようになっている。
【0048】
上記光学ディスク制御部80は、光学ディスクに記録されたプログラム、データ等を再生する光学ディスク装置81と、例えばエラー訂正(ECC)符号化されて記録されているプログラム、データ等を復号するデコーダ82と、光学ディスク装置81からの再生データを一時的に記憶することにより、光学ディスクからの読み出しを高速化するバッファ83とを備えている。
【0049】
また、光学ディスク装置81で再生される光学ディスクに記録されている音声データとしては、上述のADPCMデータの他に音声信号をアナログ/デジタル変換したいわゆるPCMデータがある。
【0050】
ADPCMデータとして、例えば16ビットのデジタルデータ(PCMデータ)の差分を4ビットで表わして記録されている音声データは、デコーダ82で復号化された後、16ビットのデジタルデータに伸張されて上述のSPU71に供給される。
【0051】
また、PCMデータとして、例えば16ビットのデジタルデータとして記録されている音声データは、デコーダ82で復号化された後、上記SPU71に供給され、あるいは直接スピーカ73を駆動するために使用される。
【0052】
また、通信制御部90は、バス100を介してCPU51との通信の制御を行なう通信制御機91と、使用者からの指示を入力するコントローラ92と、ゲームの設定等を記憶するメモリカード93とを備えている。
【0053】
コントローラ92は、使用者からの指示を入力するために、例えば16個の指示キーを有し、通信制御機91からの指示に従って、この指示キーの状態を、同期式通信により、通信制御機91に毎秒60回程度送信する。そして、通信制御機91は、コントローラ92の指示キーの状態をCPU51に送信する。
【0054】
これにより、使用者からの指示がCPU51に入力され、CPU51は、実行しているゲームプログラム等に基づいて使用者からの指示に従った処理を行なう。
【0055】
また、CPU51は、実行しているゲームの設定等を記憶する必要があるときに、該記憶するデータを通信制御機91に送信し、通信制御機91はCPU51からのデータをメモリカード93に記憶する。
【0056】
このメモリカード93は、通信制御機91を介してバス100に接続されており、バス100から分離されているため、電源を入れた状態で、着脱することができる。これにより、ゲームの設定等を複数のメモリカード93に記憶することができるようになっている。
【0057】
また、このビデオゲーム装置は、バス100に接続されたパラレル入出力(I/O)101と、シリアル入出力(I/O)102とを備えている。
【0058】
そして、パラレルI/O101を介して周辺機器との接続を行なうことができるようになっており、また、シリアルI/O102を介して他のビデオゲーム装置との通信を行なうことができるようになっている。
【0059】
ところで、上記メインメモリ53、GPU62、画像デコーダ64及びデコーダ82等の間では、プログラムの読み出し、画像の表示あるいは描画等を行なう際に、大量の画像データを高速に転送する必要がある。
【0060】
このため、このビデオゲーム装置では、上述のようにCPU51を介さずに周辺装置制御部52からの制御により上記メインメモリ53、GPU62、画像デコーダ64及びデコーダ82等の間で直接データの転送を行なういわゆるDMA転送を行なうことができるようになっている。
【0061】
これにより、データ転送によるCPU51の負荷を低減させることができ、高速なデータの転送を行なうことができようになっている。
【0062】
このビデオゲーム装置では、電源が投入されると、CPU51が、ROM54に記憶されているオペレーティングシステムを実行する。
【0063】
このオペレーティングシステムの実行により、CPU51は、上記グラフィックシステム60、サウンドシステム70等の制御を行なう。
【0064】
また、オペレーティングシステムが実行されると、CPU51は、動作確認等の装置全体の初期化を行なった後、光学ディスク制御部80を制御して、光学ディスクに記録されているゲーム等のプログラムを実行する。
【0065】
このゲーム等のプログラムの実行により、CPU51は、使用者からの入力に応じて上記グラフィックシステム60、サウンドシステム70等を制御して、
画像の表示、効果音、楽音の発生等を制御するようになっている。
【0066】
ところで、このビデオゲーム装置は、ゲームの進行あるいは使用者の操作に応じて楽音、効果音等を発生させるために、効果音等の音声を発生する音源及び該音源の制御を行なう音源制御部を備えている。
【0067】
この音源は、上記CPU51及びSPU71によって実現されており、音源制御部は、上記CPU51によって実現されている。
【0068】
具体的には、上記SPU71は、図2に示すように、CPU51からの指示に応じてサウンドバッファ72に記録された波形データを読み出し、この読み出した波形データのピッチを変換するピッチ変換部111と、クロックを発生するクロックジェネレータ112と、該クロックジェネレータ112の出力に基づいてノイズを発生するノイズジェネレータ113と、ピッチ変換部111とノイズジェネレータ113との出力を切り換えるスイッチ114と、該スイッチ114の出力のレベルを調整して、出力波形の振幅を可変し、発生する音の包絡線(エンベロープ)を変換するエンベロープジェネレータ115と、発音を行なうか否かを切り換えるミュート処理部116と、音量及び左右のチャンネルのバランスを調整する左右のボリューム117L、117Rを備えている。
【0069】
サウンドバッファ72には、予め発音される音を構成する1周期分の波形データがいくつか記憶されている。この波形データは上述の4ビットのADPCMデータとして記憶されており、読み出し時にSPU71によって16ビットのPCMデータに変換された後、上記ピッチ変換部111に供給されるようになっている。
【0070】
このため、PCMデータをそのまま記憶する場合に比して、波形データを記憶するために要するサウンドバッファ72内の領域を低減させ、より多くの波形データを記憶することができる。
【0071】
また、メインメモリ53には、予めサウンドバッファ72に記憶された1周期分の波形データに対応する音のエンベロープ、すなわち、音の立ち上がり、立ち下がり等の情報が記録されている。
【0072】
なお、この図2には、1音声(1ボイス)分の回路構成を示したが、この音源は、合計で24ボイス分のピッチ変換部111〜ボリューム117L、117Rを備えており、各ボイスのボリューム117L、117Rの出力が合成されて、左右2チャンネル分の音声出力として出力されるようになっている。
【0073】
すなわち、この音源は、24ボイス分の発音を同時に行なうことができるようになっている。
【0074】
また、各ボイス毎に、上記サウンドバッファ72に記憶された波形データ、エンベロープ、音量、左右チャンネルのバランス等を独立に設定することができるようになっている。
【0075】
これにより、この音源は、複数のボイスを使用して、和音の発生あるいは複数の楽器による演奏等を行なうことができるようになっている。
【0076】
また、この音源は、音声出力に、時間を前後させた音声出力を合成するいわゆるリバーブ処理を行なうことができるようになっている。
【0077】
すなわち、上記SPU71は、24ボイス分の音声が合成された音声出力にリバーブ処理を行なうか否かを選択するスイッチ118L、118Rと、該スイッチ118Lから供給される音声出力を時間的に前後させるリバーブ処理部119と、時間的に前後させた音声出力の音量を調節するボリューム120と、該ボリューム120の出力を、時間的に前後させる前の音声出力に合成する加算部121bと、該加算部121の出力の音量を調節するマスターボリューム122とを備えている。
【0078】
また、この音源では、上述のように発生した音声出力に上記デコーダ82から供給される光学ディスクから読み出された音声信号を合成することができるようになっている。
【0079】
具体的には、上記SPU71は、光学ディスクからの音声信号を上述の音声出力に合成するか否かを選択するスイッチ123と、合成する音声信号の音量を調節して加算部121aに供給するミキシングボリューム124と、合成する音声信号にリバーブ処理を行なうか否かを選択するスイッチ125とを備えている。
【0080】
なお、上述の図2には、左チャンネルのみについてリバーブ処理部119、ボリューム120及びミキシングボリューム124等の構成を示したが、これらは、右チャンネルについても同様な構成を有する。
【0081】
ここで、この音源の動作を説明する。
【0082】
CPU51は、発音する必要が生じたときに、サウンドバッファ72に記憶された波形データの中から発音する波形データを選択する選択信号と、発音する音の音程とを上記ピッチ変換部111に供給すると共に、メインメモリ53に記憶されたエンベロープの中から発音する波形データに対応するエンベロープを読み出して上記エンベロープジェネレータ115に供給する。
【0083】
ピッチ変換部111は、指示された音程にしたがって、波形データの読み出しステップを可変して波形データを読み出す。また、ピッチ変換部111は、1周期分の波形データの読み出しが終了すると、発音の指示が供給されている期間中、同一の波形データを最初から繰り返し読み出す。
【0084】
これにより、発音の指示が供給されている間中、指示された音程に対応した波形データが再生される。このような波形データは、スイッチ114を介してエンベロープジェネレータ115に供給される。
【0085】
エンベロープジェネレータ115は、CPU51から供給されたエンベロープに基づいて、ピッチ変換部111からの波形データの振幅を変換する。
【0086】
これにより1ボイス分の音声が発生される。同様に残りの23ボイス分の音声が発生され、各々のボリューム117L、ボリューム117Rによって音量、左右チャンネルのバランスが調整された後、上述のようにリバーブ処理等の処理が行なわれた後、合成される。
【0087】
かくして、CPU51からの指示に応じた音声が発生される。
【0088】
このような音源の制御を行なう音源制御部は、CPU51が音源制御プログラムを実行することによって実現されている。
【0089】
このビデオゲーム装置では、発生させる効果音、背景音楽(BGM)等に使用する波形データ、発生する音の音程、発音、消音、音色効果等の音楽情報を時間情報と共に時間順に並べた譜面データを予めメインメモリ53に記憶しておき、音源制御部は、これらの譜面データを例えば一定時間間隔毎に、逐次読み出して、上記音源の音程、発音及び消音レジスタを逐次設定することによって効果音、BGM等を再生するようになっている。
【0090】
具体的には、この譜面データは、演奏される単位(シーケンス)の譜面データ毎に1つのファイルとされた単一譜面データあるいは、複数のシーケンスの譜面データが1つのファイルとされた連結譜面データからなる。
【0091】
上記単一譜面データは、例えば図3に示すように、1つのファイルヘッダ情報と、1シーケンス分の譜面データとからなり、1シーケンス分の譜面データは、当該譜面データの属性を表わす1つのデータヘッダ情報と、1つのシーケンスデータとからなる。
【0092】
ファイルヘッダ情報は、当該ファイルがサウンドデータであることを表わすサウンドIDと、バージョン等を表わすバージョン番号とからなる。
【0093】
データヘッダ情報は、当該譜面データのシーケンス情報の時間分解能、テンポ及び拍子を示す四分音符の分解能、曲のテンポ、拍子とからなる。
【0094】
シーケンスデータは、1つのシーケンス内の楽音を構成する楽音データとからなる。
【0095】
また、上記連結譜面データは、例えば図4に示すように、1つのファイルヘッダ情報と、複数のシーケンスの譜面データとからなり、個々のシーケンスの譜面データは、それぞれ、上述の単一譜面データと同様に、当該譜面データの属性を表わす1つのデータヘッダ情報と、1つのシーケンスデータとからなる。
【0096】
この連結譜面データの場合、上記データヘッダ情報は、連結譜面データ中の個々の譜面データを識別するための譜面データIDと、当該譜面データのシーケンス情報の時間分解能、テンポ及び拍子を示す四分音符の分解能、曲のテンポ、拍子とからなる。
【0097】
また、上記単一譜面データ及び連結譜面データの楽曲データは、例えば図5に示すように、あるボイスの発音を指示するキーオンと、あるボイスの消音を指示するキーオフと、あるボイスの音程を変更するピッチ属性の変更等のデータからなる。これらのデータは、CPU51によって解釈され、上述のようにCPU51によって音源の制御が行なわれる。
【0098】
上述のような単一譜面データ及び連結譜面データは、例えば図6に示すように、各シーケンス毎に形成された譜面データから構成される。
【0099】
すなわち、例えば譜面データA、Bにそれぞれ上記ファイルヘッダ情報が付加されて、単一譜面データが構成される。また、譜面データC、D、Eにそれぞれ譜面データIDとして、P−1、P−2、P−3が付加されて結合され、さらにファイルヘッダ情報が付加されて連結譜面データPが形成される。このとき、譜面データIDは、連結譜面データP内の結合順となっている。
【0100】
このように形成された単一譜面データ及び連結譜面データは、光学ディスク等に記録されており、再生に先だってメインメモリ53に読み出される。
【0101】
このような単一譜面データ及び連結譜面データは、CPU51によって実行される音源制御プログラムによって実現される音源制御部によって再生される。
【0102】
この音源駆動部は、例えば図7に示す構成を有し、単一譜面データ及び連結譜面データを再生して音源の制御を行なう。
【0103】
すなわち、この音源制御部は、上記コントローラ92等からなるコントローラ104と、メインメモリ53の譜面データ保持部53aに保持されている単一譜面データあるいは連結譜面データから、再生する譜面データを選択する譜面データ選択部105と、譜面データ選択部105で選択された譜面データを取得する譜面データ取得部106と、上記サウンドシステム70等からなる音源を制御する発音/消音情報制御部107等を備えている。
【0104】
上記譜面データ選択部105は、さらに、入力装置104からの入力に応じて選択される譜面データの選択情報を管理する譜面データ選択情報管理部105aと、譜面データの状態等を保持する譜面データ選択情報保持部105bと、譜面データ選択情報保持部105bに保持されている譜面データの状態等を解析する譜面データ選択情報制御部105cとからなる。
【0105】
ここで、上記単一譜面データA、B及び連結譜面データPは、例えば図8に示すように、ファイルヘッダ情報が削除され、各々独立に上記譜面データ保持部53aに保持されている。
【0106】
これらの単一譜面データA、Bには、それぞれを識別する譜面IDとして「4」、「5」が割り当てられ、この譜面IDにしたがって、そのアドレスが管理されている。
【0107】
また、連結譜面データPの各々の譜面データC、D、Eには、それぞれを識別する譜面IDとして「1」、「2」、「3」が割り当てられ、この譜面IDにしたがって、そのアドレスが管理されている。
【0108】
具体的には、例えば図9(a)に示すように、メインメモリ53に、これらの譜面IDに対して譜面データID、譜面データが記憶されているアドレス、ポインタ等が参照テーブルとして記憶されている。
【0109】
この参照テーブルには、例えば単一譜面データA、Bに対する譜面ID4、5に対応させて、譜面データA、Bが記憶されているアドレスADDR1、ADDR2とポインタpt4、pt5が保持されている。
【0110】
また、この参照テーブルには、例えば連結譜面データPの譜面データC、D、Eに対する譜面ID1、2、3に対応させて、譜面データC、D、Eの譜面データIDであるP−1、P−2、P−3と、ポインタpt1、pt2、pt3が記憶されている。
【0111】
これらの譜面データIDにより構成される符号Pに対しては、メインメモリ53に、例えば図9(b)に示すように、この符号Pに対応する連結譜面データPが記録されているスタートアドレスSADDR1がスタートアドレス参照テーブルとして記憶されている。
【0112】
また、上記譜面データIDであるP−1、P−2、P−3に対しては、メインメモリ53に、例えば図9(c)に示すように、連結譜面データPのスタートアドレスSADDR1に対する開始アドレス(オフセットアドレス)がオフセット参照テーブルとして記憶されている。
【0113】
具体的には、譜面データIDであるP−1に対応するオフセットアドレスは、対応する譜面データCが連結譜面データの最初の譜面データであるために0となり、譜面データIDであるP−2に対応するオフセットアドレスは、対応する譜面データDのスタートアドレスSADDR1に対する開始アドレスOADDR1となり、譜面データIDであるP−3に対応するオフセットアドレスは、対応する譜面データEのスタートアドレスSADDR1に対する開始アドレスOADDR2となる。
【0114】
すなわち、連結譜面データを構成する譜面データは、参照テーブル、スタートアドレス参照テーブル及びオフセット参照テーブルを参照することによって譜面IDを指定するだけで読み出される。
【0115】
これにより、連結譜面データを構成する譜面データの読み出しは、例えば図10に示すように、上記譜面IDを指定するだけで可能となり、実際のアドレスを指定して読み出す場合に比較してアドレスの指定が容易となる。
【0116】
ところで、この音源制御部では、上述の音源の24ボイスを各譜面データの再生処理に割り当てることにより、複数の譜面データの再生処理を行なうことができるようになっている。
【0117】
この複数の譜面データの再生処理は、各々の処理で再生している譜面データに対応する参照テーブル上のポインタに従って、その進行が制御されている。すなわち、このポインタは、各々の譜面データの現在再生されている位置を示していおり、再生が開始されていないときは、譜面データの先頭を示している。
【0118】
また、上記譜面データ保持部105bには、例えば図11に示すように、譜面IDに対する譜面データの再生状態が譜面データ選択情報属性テーブルとして保持されている。
【0119】
この譜面データの再生状態は、上述の入力装置104からの入力あるいはゲームの進行等による他のプログラムからの指示によって設定される。
【0120】
また、譜面データの再生状態は、例えば再生が開始されていないときはStopとなり、再生中であるときはPlayとなり、一時停止状態であるときはPauseとなる。
【0121】
すなわち、上述の図11に示す譜面データ選択情報属性テーブルは、譜面IDが1である譜面データが再生中で、譜面IDが2である譜面データが再生が開始されておらず、譜面IDが3である譜面データが一時停止状態で、譜面IDが4である譜面データが再生中で、譜面IDが5である譜面データが開始されていない状態を示している。
【0122】
ここで、この再生装置による譜面データの再生動作を、図12に示すフローチャートを用いて説明する。
【0123】
まず、譜面データの再生が開始されると、ステップS1に進み、ステップS1において、譜面データ選択情報管理部105aは、入力装置104からの入力があるか否かを確認し、入力があればステップS2に進み、入力がなければステップS6に進む。
【0124】
ステップS2において、譜面データ選択情報制御部105cは、上記入力が、指示された譜面IDに対する再生の要求か否かを判断し、再生の要求でなければステップS4に進み、再生の要求であれば続くステップS3に進み、譜面データ選択情報保持部105bの指示された譜面IDに対応する譜面データの状態をPlayとした後、ステップS6に進む。
【0125】
ステップS4において、譜面データ選択情報制御部105cは、上記入力が、指示された譜面IDに対する停止の要求か否かを判断し、停止の要求でなければステップS6に進み、停止の要求であれば続くステップS5に進み、譜面データ選択情報保持部105bの指示された譜面IDに対応する譜面データの状態をStopとした後、ステップS6に進む。
【0126】
ステップS6において、譜面データ選択情報制御部105cは、譜面データ選択情報保持部105bに保持されている各譜面IDに対応する譜面データの状態を解析し、続くステップS7において、再生状態となっている譜面IDが存在するか否かを判定し、再生状態となっている譜面IDがなければ上記ステップS1に戻り、入力を待機する。また、このステップS7において、再生状態となっている譜面IDがあれば、再生状態となっている譜面IDに対応する各々の譜面データの発音処理を開始して、ステップS8に進む。
【0127】
なお、このステップS8以降の処理は、周辺装置制御部52によって一定間隔毎に発生されるタイマ割り込みにしたがって各譜面データ毎に行なわれるが、以下の説明では、1つの譜面データについてのみ説明する。
【0128】
すなわち、このステップS8において、譜面データ取得部106は、再生状態となっている譜面IDに対応する譜面データの読み出しを譜面データ保持部53aに指示する。
【0129】
そして、続くステップS9において、譜面データ取得部106は、譜面データが終了したか否かを判断し、譜面データが終了していれば発音処理を終了し、譜面データが終了していなければ続くステップS10に進む。
【0130】
ステップS10において、譜面データ取得部106は、ステップS9において読み出された譜面データが、現在の割り込み期間中に再生するデータであるか否かを判断し、現在の割り込み期間中に再生するデータでなければ発音処理を終了し、現在の割り込み期間中に再生するデータであればステップS11に進む。
【0131】
ステップS11において、発音/消音情報制御部107は、現在の割り込み期間中に再生されるデータが、あるボイスの発音を指示するキーオンであるか否かを判断し、キーオンでなければステップS13に進み、キーオンであれば続くステップS12に進み、指定されたボイスの発音を音源に指示した後、ステップS8に戻り、次の割り込みを待機する。
【0132】
ステップS13において、発音/消音情報制御部107は、現在の割り込み期間中に再生されるデータが、あるボイスの消音を指示するキーオフであるか否かを判断し、キーオフでなければステップS8に戻り、次の割り込みを待機する。また、キーオフであれば続くステップS14に進み、指定されたボイスの消音を音源に指示した後、ステップS8に戻り、次の割り込みを待機する。
【0133】
これにより、上述の譜面データ選択情報属性テーブルに従って、その再生が選択されている譜面IDに対応する譜面データの再生が行なわれる。
【0134】
また、この音源制御部では、上述の参照テーブル等を参照することによって譜面IDを指定するだけで譜面データの特定を行なうことができ譜面データの管理が容易となる。
【0135】
譜面データ選択情報属性テーブルを変更することによって、各々の譜面IDに対する譜面データの再生状態を独立に設定できるため、他の譜面データの再生状態に関わらず、譜面データの再生を指示することができ、例えば使用者からの入力あるいは、他のプログラムからの要求等に対する応答時間を向上させることができる。
【0136】
ところで、上述の図7に示す音源制御部は、さらに具体的には、例えば図13に示すような構成を有する。なお、この図13は、オペレーティングシステム、音源制御プログラム及びゲームプログラム等の実行によって上記CPU51が行なう処理を等価的にブロック図で示したものである。
【0137】
この音源制御部は、上記周辺装置制御部52を制御して所定時間毎にCPU51に対するタイマ割り込みを発生させるタイマ割り込み制御部130と、周辺装置制御部52からのタイマ割り込みによって所定時間毎に起動され、上記譜面データに基づいて上記音源の制御を行なうサウンド制御部140と、ビデオゲーム装置全体の負荷状態を調べて上記タイマ割り込み制御部130に供給するシステム負荷情報制御部150と、上記コントローラ92の状態を調べる入力要求制御部160とを有する。
【0138】
また、オペレーティングシステム及びゲームプログラムの実行によって上記CPU51で上記サウンド制御部140の処理と同時に実行される処理としては、上記グラフィックシステム60による描画等を制御する描画制御部170と、使用者からの入力によって、発生する効果音、楽音等の選択、表示する画像の選択、ゲームの進行の制御等の処理を行なうメインルーチン部180とがある。
【0139】
上記タイマ割り込み制御部130は、タイマ割り込みを発生させる間隔を保持するタイマ割り込み間隔保持部131と、タイマ割り込み管理部132と、サウンド制御部140と上記メインルーチン部180との切り換えの制御を行なう制御切り換え管理部133とからなる。
【0140】
上記サウンド制御部140は、上述の譜面データを保持する譜面データ保持部141と、譜面データの読み出しを管理するデータ取得管理部142と、データ取得管理部142の動作を制御する時間情報管理部143と、読み出された譜面データに基づいて上記音源の発音/消音等を制御する発音/消音情報制御部144と、上記タイマ割り込み間隔保持部131からのタイマ割り込み間隔に応じた内部分解能を保持する内部分解能保持部145、上述の音源等からなる。
【0141】
上記音源は、上述のSPU71、サウンドバッファ72等から構成され、発音/消音情報制御部144の制御により、サウンドバッファ72からなる波形データ保持部146に記憶されている波形データを読み出して音声を発生させる発音部147と、発生した音声を増幅して音量等を調整する増幅部148等からなる。この発音部147、増幅部148は、上述のようにSPU71の一機能として実現されている。
【0142】
上記システム負荷情報制御部150は、システム負荷情報を取得するシステム負荷情報取得部151と、システム負荷を判断するシステム負荷判断部152と、システム負荷しきい値を保持するシステム負荷しきい値保持部153とからなる。
【0143】
入力要求制御部160は、上述のコントローラ92等からなる入力装置161と、入力装置161からの入力要求を解析する入力要求解析部162とからなる。
【0144】
上記描画制御部170は、上述のCPU51、GTE61、GPU62及びフレームバッファ63等から構成され、GTE61等からなる制御時描画情報保持部171と、CPU51等からなる描画情報制御部172と、GPU62等からなる描画装置173と、フレームバッファ63等からなる描画情報保持部174と、描画装置173からのビデオ出力に基づいて画像を表示する表示装置175等からなる。
【0145】
以下、この音源制御部の動作を説明する。
【0146】
この音源制御部では、予め、タイマ割り込み間隔保持部131に、システム負荷あるいは、入力要求に応じたタイマ割り込み間隔が保持されている。具体的には、例えばシステム負荷が軽いときのタイマ割り込み間隔として240分の1秒が、システム負荷が重いときのタイマ割り込み間隔として、システム負荷が軽いときのタイマ割り込み間隔より長い60分の1秒が保持されている。
【0147】
この音源制御部では、処理が開始されると、CPU51が実行するメインルーチン部180によって、入力装置161からの入力に応じた描画制御部170の制御、サウンド制御部140によって発生される楽音等の選択、システム負荷情報制御部150等の処理が並列に実行される。
【0148】
このとき、システム負荷情報取得部151は、CPU51の負荷情報を取得してシステム負荷判断部152に供給し、システム負荷判断部152は、システム負荷しきい値保持部153に保持されているしきい値と比較してシステム負荷を判断し、判断結果をタイマ割り込み間隔保持部131に供給する。
【0149】
タイマ割り込み間隔保持部131は、システム負荷判断部152からのシステム負荷判断あるいは入力要求解析部162の出力に基づいて、タイマ割り込み間隔を選択してタイマ割り込み管理部132及び内部分解能保持部145に供給する。
【0150】
具体的には、タイマ割り込み間隔保持部131は、システム負荷判断部152からの判断結果に基づいて、システム負荷が軽いときは、割り込み間隔を240分の1秒とし、システム負荷が重いときは、割り込み間隔を60分の1秒とする。
【0151】
タイマ割り込み管理部132は、タイマ割り込み間隔保持部131から供給されたタイマ割り込み間隔に基づいて周辺装置制御部52を制御し、一定間隔毎にタイマ割り込みを発生させ、制御切り換え管理部133は、タイマ割り込みに基づいて一定間隔毎にメインルーチン部180とサウンド制御部140の処理とを切り換え、サウンド制御部140の処理を開始する。
【0152】
制御切り換え管理部133の切り換えによって処理が開始されると、サウンド制御部140では、時間情報管理部143が、内部分解能保持部145に保持されている内部分解能すなわちタイマ割り込み間隔に応じて、データ取得管理部142を制御して譜面データ保持部141に保持されている譜面データからタイマ割り込み間隔分の読み出しを指示し、読み出された譜面データを発音/消音情報制御部144に供給する。
【0153】
発音/消音情報制御部144は、時間情報管理部143から供給された譜面データに基づいて、発音部147を制御する。これにより、発音部147は、波形データ保持部146に保持されている波形データに基づいて音声を発生する。
【0154】
具体的には、発音/消音情報制御部144の実行により、上述の説明と同様に、CPU51がピッチ変換部111、エンベロープジェネレータ115等を制御することによって音声の発生を制御する。このように発生された音声は、増幅部148によってレベルが調整された後、スピーカ73によって出力される。
【0155】
これによりタイマ割り込み間隔保持部131から供給されるタイマ割り込み間隔分の譜面データに基づく音声データが出力される。
【0156】
このサウンド制御部140は、上述のようにタイマ割り込み間隔保持部131によって設定されたタイマ割り込み間隔毎に起動され、これによって、タイマ割り込み間隔分の譜面データに基づく音声が順次発生される。
【0157】
すなわち、タイマ割り込み間隔が240分の1秒であるときは、例えば図14(a)に示すように、240分の1秒毎に譜面データが再生される。
【0158】
このとき、実際のサウンド処理部140の処理時間は、240分の1秒より短くなっている。
【0159】
例えば時刻t11から時刻t12まで、時刻t12から時刻t13まで、時刻t12から時刻t14まで、時刻t14から時刻t15までの間に、それぞれ、音符が2つ再生される。すなわち、時刻t11から時刻t15までの60分の1秒間に、音符が2つ再生される。
【0160】
また、タイマ割り込み間隔が60分の1秒であるときは、例えば図14(b)に示すように、60分の1秒毎に譜面データが再生される。例えば時刻t21から時刻t22までの60分の1秒間に、音符が8つ再生される。
【0161】
すなわち、上述のタイマ割り込み間隔を240分の1秒とした場合と同様に60分の1秒間に音符が8つ再生される。
【0162】
これにより、この音源処理装置では、同一の譜面データを用いて、タイマ割り込み間隔を変化させても、この変化させたタイマ割り込み間隔に応じて譜面データの読み出しを制御することにより、所定のテンポで譜面データが再生される。
【0163】
上述のようにサウンド制御部140を割り込みによって起動して処理を行なった場合、実際のCPU51の処理負荷は、タイマ割り込み間隔が240分の1秒であるときは、例えば図15(a)に示すように、サウンド制御部140の処理がCPU51の処理能力の25%を占めている。また、タイマ割り込み間隔が60分の1秒であるときは、例えば図15(b)に示すように、サウンド制御部140の処理がCPU51の処理能力の12.5%を占めている。
【0164】
すなわち、実際に音源を制御するためのCPU51の負荷はタイマ割り込み間隔が短くなってもさほど変化しないが、タイマ割り込み間隔が短くなると、タイマ割り込みが頻繁に発生すると、タイマ割り込みのための処理のオーバーヘッドが大きくなるため、サウンド制御部140の処理負荷が増大する。
【0165】
上述のように、この音源制御部では、タイマ割り込み間隔保持部131によって選択されたタイマ割り込み間隔は、システム負荷が軽いときは、割り込み間隔はサウンド制御部140の処理負荷が比較的大きくなる240分の1秒とされ、システム負荷が重いときは、サウンド制御部140の処理負荷が比較的小さくなる60分の1秒とされている。
【0166】
これにより、この音源制御装置では、何等譜面データを変更することなく、システム負荷に応じてサウンド制御部140の処理負荷を可変することができる。このため、システム負荷が重いときは、サウンド制御部140の処理負荷が小さくなり、例えば描画等の処理を円滑に行なうことができる。
【0167】
なお、上述の実施例では本発明の音源制御情報の記憶方法及び音源制御装置をビデオゲーム装置において音源の制御を行なう音源制御部に適用した例について説明したが、音源の制御を行なう音源制御情報を記憶する記憶方法あるいは音源制御情報に基づいて音源の制御を行なう構成となっていれば、例えば自動演奏装置、パーソナルコンピュータ等の装置にも適用することができ、その他、本発明の技術的思想を逸脱しない範囲であれば適宜変更することができることは勿論である。
【0168】
【発明の効果】
本発明に係る音源制御情報の記憶方法は、連結譜面データを構成する各々の譜面データに対して割り当てた識別情報と、上記先頭アドレス及び相対アドレスとの対応を示す対応情報とを記憶する。
【0169】
これにより、対応情報を参照することにより、識別情報を指定するだけで対応する譜面データの記憶されているアドレスの指定が可能となり、譜面データの管理が容易な音源制御情報を記憶することができる。
【0170】
また、本発明に係る音源制御装置は、譜面識別情報を選択するだけで、
対応情報が参照されて、選択された譜面識別情報に対応する譜面データが読み出される。
【0171】
これにより、譜面データが連結されて連結譜面データとして記憶されている譜面データの読み出しを容易に行なうことができる。
【0172】
また、本発明に係る音源制御装置は、複数の識別情報に対応する譜面データに対して独立に再生状態を設定することができ、ある譜面データの再生が終了する前に、入力に対して即座に他の譜面データの再生を開始することができ、入力に対する応答を高速化することができる。
【図面の簡単な説明】
【図1】本発明に係る音源制御装置を適用したビデオゲーム装置の構成を示すブロック図である。
【図2】上記ビデオゲーム装置を構成するSPUの具体的な構成を示すブロック図である。
【図3】上記ビデオゲーム装置を構成する音源を制御するための譜面データのフォーマットを示す図である。
【図4】上記ビデオゲーム装置を構成する音源を制御するための譜面データのフォーマットを示す図である。
【図5】上記譜面データを構成する楽曲データのフォーマットを示す図である。
【図6】上記譜面データの形成を説明するための図である。
【図7】上記譜面データに基づいて上記音源を制御する音源制御部の構成を示す図である。
【図8】上記音源制御部を構成する譜面データ保持部に保持されている譜面データの状態を示す図である。
【図9】上記譜面データの読み出しに際して参照される参照テーブルの構造を示す図である。
【図10】上記音源制御部による譜面データの再生動作を説明するための図である。
【図11】上記音源制御部による譜面データの管理を説明するための図である。
【図12】上記音源制御部による譜面データの再生動作を説明するためのフローチャートである。
【図13】上記音源制御部の詳細な構成を示すブロック図である。
【図14】上記音源制御部を構成するサウンド制御部が、タイマ割り込みによって行なう処理を説明するための図である。
【図15】上記サウンド制御部の処理と他の処理の負荷に比率を示す図である。
【図16】従来の音源制御装置の構成を示すブロック図である。
【図17】従来の音源制御装置で用いられている譜面データのフォーマットを示す図である。
【符号の説明】
50 制御系
51 CPU
52 周辺装置制御部
53 メインメモリ
53a 譜面データ保持部
54 ROM
60 グラフィックシステム
61 GTE
62 GPU
63 フレームバッファ
64 画像デコーダ
65 ディスプレイ装置
70 サウンドシステム
71 SPU
72 サウンドバッファ
73 スピーカ
80 光学ディスク制御部
81 光学ディスク装置
82 デコーダ
83 バッファ
90 通信制御部
91 通信制御機
92 コントローラ
100 バス
104 入力装置
105 譜面データ選択部
105a 譜面データ選択情報管理部
105b 譜面データ選択情報保持部
105c 譜面データ選択情報制御部
106 譜面データ取得部
107 発音/消音情報制御部
111 ピッチ変換部
112 クロックジェネレータ
113 ノイズジェネレータ
114、118L、118R、123、125 スイッチ
115 エンベロープジェネレータ
116 ミュート処理部
117L、117R、120、124 ボリューム
119 リバーブ処理部
121a、121b 加算部
122 マスターボリューム
124 ミキシングボリューム
140 サウンド制御部
141 譜面データ保持部
142 データ取得管理部
143 時間情報管理部
144 発音/消音情報制御部
145 内部分解能保持部145
150 システム負荷情報制御部
151 システム負荷情報取得部
152 システム負荷判断部
153 システム負荷しきい値保持部
160 入力要求制御部
161 入力装置
162 入力要求解析
170 描画制御部
171 制御時描画情報保持部
172 描画情報制御部
173 描画装置
174 描画情報保持部
175 表示装置
[0001]
[Industrial application fields]
The present invention relates to a method for storing sound source control information composed of musical score data in which music information such as a pitch of a generated sound, pronunciation, mute, and timbre effect is recorded in time order.
[0002]
The present invention also relates to a sound source control device that takes in stored musical score data at a predetermined interval, controls a sound source device based on the taken musical score data, and automatically plays music and the like, and in particular, a video game. The present invention relates to a sound source control device that controls a sound source device in accordance with a calculation result or a user operation to generate sound effects, background music (BGM), and the like.
[0003]
[Prior art]
Conventionally, in an information processing apparatus such as a video game apparatus or a personal computer, musical sounds, sound effects, etc. are generated in accordance with the progress of a game or a user's operation.
[0004]
In such a video game device or personal computer, for example, a so-called FM sound source that generates a sound having a pitch by changing the frequency of a waveform obtained by synthesizing a fundamental wave and its harmonics, or a fundamental waveform of a fundamental wave. A so-called PCM sound source or the like that generates a pitch by changing the fundamental wave read cycle in accordance with a pitch or the like that is stored is used as a sound source device that generates sound.
[0005]
In such a video game device or personal computer, for example, in response to a user's operation, sound effects to be generated, background music (BGM) start / stop, volume, etc. are immediately transmitted in real time (real time). ) Can be changed.
[0006]
For example, in the reproduction of BGM or the like, musical score data in which music information such as the pitch of a generated sound, pronunciation, mute, and timbre effect is arranged in time order together with time information is prepared in advance, This is done by sequentially setting the pitch, sound generation and mute registers of the device.
[0007]
In this way, preparing data such as BGM in the form of musical score data makes it easier to reproduce the tone, volume, and so on when playing the program, as compared to the case where the pitch, sounding and muting of the sound source device are sequentially controlled. This is a method suitable for a multimedia computer, a game, and the like that can change the pitch and the like, and that is sensitive to real-time response to a user's operation at high speed.
[0008]
In addition, as shown in FIG. 16, for example, in a video game apparatus having only one CPU 201 as an arithmetic processing unit (CPU), the control of the sound source device based on the musical score data uses this CPU 201 in time division. The musical score data is read at regular time intervals, and the BGM and the like are generated by controlling the sound generation timing, sound generation period, sound pitch, volume, etc. of the sound source device 202 based on the read music score data.
[0009]
In this way, the method of interpreting musical score data using the CPU 201 in a time-sharing manner requires a special peripheral device or the like if the processing capability of the CPU 201 is sufficiently high, so that the cost is low and it is easy to create a program.
[0010]
By the way, as shown in FIG. 17, the musical score data is recorded on the optical disc as a file composed of file header information for identifying a file and musical score data.
[0011]
Such musical score data is read from the optical disk device 205 prior to use and stored at a predetermined address in the memory 204.
[0012]
[Problems to be solved by the invention]
However, when such musical score data is stored, it is necessary to manage the address on the memory 204 where the individual musical score data is stored, and when reproducing musical score data, etc. In order to specify the data, it is necessary to specify an address on the memory 204 in which each musical score data is stored.
[0013]
In general, a plurality of musical score data are not reproduced at the same time, so that the reproduction of the plural musical score data cannot be set independently.
[0014]
However, in actual game processing or the like, it is required to change the musical score data to be reproduced in accordance with the input from the user, etc., but it is necessary to wait until the reproduction of the previous musical score data is finished. There is a problem that the response time to the input becomes long.
[0015]
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a sound source information storage method capable of storing sound source control information that allows easy management of musical score data.
[0016]
It is another object of the present invention to provide a sound source control device that can speed up response to input.
[0017]
[Means for Solving the Problems]
The sound source control information storage method according to the present invention is a sound source control information storage method for storing sound source control information in which control information for controlling a sound source is recorded together with time information in a storage device. Identification information is assigned to each musical score data constituting the connected musical score data when storing the musical score data obtained by adding identification information to the musical score data composed of information and connecting a plurality of musical score data added with the identification information. Information, leading address information indicating the address where the linked score data is recorded, and relative address information indicating the relative position from the leading address information of the address where each score data constituting the linked score data is stored And correspondence information indicating the correspondence between the musical score identification information and the head address and relative address.
[0018]
The sound source control device according to the present invention is a sound source control device that reads out musical score data and controls the sound source based on the read musical score data, and adds identification information to the musical score data composed of a series of sound source control information. Along with the connected musical score data, musical score identification information for identifying individual musical score data, head address information indicating the address where the linked musical score data is recorded, and individual musical score data constituting the linked musical score data are stored. A storage device storing relative address information indicating a relative position of the current address from the head address information, correspondence information indicating the correspondence between the score identification information and the start address and the relative address, and the selected score identification A reading control unit that reads out the musical score data corresponding to the information from the storage device with reference to the corresponding information, and read by the reading control unit And having a reproduction unit for controlling the sound source based on the score data.
[0019]
In addition, the sound source control device according to the present invention includes a reproduction state holding unit that holds a reproduction state of musical score data corresponding to a plurality of musical score identification information, and the read control unit corresponds to the selected plural musical score identification information. The musical score data is read from the storage device with reference to the correspondence information, and the reproducing unit has a plurality of data reproducing units for controlling the sound source based on the musical score data, and is held in the reproduction state holding unit by the plural data reproducing units. The sound source is controlled based on the musical score data based on the reproduced state of the musical score data.
[0020]
[Action]
In the method for storing sound source control information according to the present invention, when identifying information is added to music score data composed of a series of sound source control information, and connected musical score data obtained by concatenating a plurality of music score data to which identification information is added is stored. Musical score identification information assigned to each musical score data constituting the linked musical score data;
Start address information indicating the address where the linked score data is recorded,
Relative address information indicating the relative position from the start address information of the address where the individual musical score data constituting the linked musical score data is stored;
Correspondence information indicating the correspondence between the musical score identification information and the start address and relative address is stored.
[0021]
The sound source control information stored in this way is reproduced by the sound source control device of the present invention.
[0022]
In this sound source control device, when the musical score identification information of the musical score data to be reproduced is selected, the read control unit reads the musical score data corresponding to the selected musical score identification information from the storage device with reference to the correspondence information, and the reproducing unit The sound source is controlled based on the musical score data read by the read control unit.
[0023]
Thus, only by selecting the musical score identification information, the musical score data corresponding to the selected musical score identification information is reproduced.
[0024]
The reading state holding unit holds a reading state of musical score data corresponding to a plurality of musical score identification information. When a plurality of music score identification information is selected, the read control unit reads music score data corresponding to the selected music score identification information from the storage device with reference to the correspondence information.
[0025]
The reproduction unit controls the sound source by the plurality of data reproduction units based on the reproduction state of the musical score data held in the reproduction state holding unit.
[0026]
Here, since the reproduction state corresponding to certain identification information of the reproduction state holding unit is set independently, if the reproduction state corresponding to certain identification information is set, whether or not other musical score data is reproduced. Regardless, the reproduction state of the musical score data corresponding to the set reproduction state changes, for example, reproduction of musical score data is started, and the sound source is controlled based on the reproduced musical score data.
[0027]
【Example】
Hereinafter, an embodiment will be described in which the sound source control device according to the present invention is applied as a sound source control unit for generating musical sounds, sound effects, etc. in a video game device, for example.
[0028]
The sound source control information storage method according to the present invention is applied to storage of sound source control information used by the sound source control unit.
[0029]
This video game apparatus is adapted to play a game in response to an instruction from a user by reading and executing a game program stored in an auxiliary storage device such as an optical disk, for example, as shown in FIG. It has such a configuration.
[0030]
That is, the video game apparatus includes a control system 50 including a central processing unit (CPU) and its peripheral devices, a graphic system 60 including a graphic processing unit (GPU) that performs drawing in a frame buffer, musical sounds, and effects. An instruction input from a sound system 70 including a sound processing unit (SPU) for generating sound, an optical disk control unit 80 for controlling an optical disk as an auxiliary storage device, and a controller for inputting an instruction from a user And a communication control unit 90 that controls input and output from an auxiliary memory that stores game settings and the like, and a bus 100 to which the control system 50 to communication control unit 90 are connected.
[0031]
The control system 50 includes a CPU 51, a peripheral device control unit 52 that performs interrupt control, direct memory access (DMA) transfer control, and the like, a main storage device (main memory) 53 including a RAM, a main memory 53, and a graphic system. 60, and a ROM 54 storing a program such as a so-called operating system for managing the sound system 70 and the like.
[0032]
The CPU 51 controls the entire apparatus by executing an operating system stored in the ROM 54.
[0033]
The graphic system 60 stores a geometry transfer engine (GTE) 61 that performs processing such as coordinate transformation, an image processing device (GPU) 62 that performs drawing in accordance with a drawing instruction from the CPU 51, and an image drawn by the GPU 62. And an image decoder 64 for decoding image data compressed and encoded by an orthogonal transform such as a discrete cosine transform.
[0034]
The GTE 61 includes, for example, a parallel calculation mechanism that executes a plurality of calculations in parallel, and according to a calculation request from the CPU 51. Coordinate conversion, light source calculation, matrix or vector calculation can be performed at high speed.
[0035]
Specifically, this GTE 61 can perform coordinate calculations of up to about 1.5 million polygons per second when performing flat shading that draws the same color on one triangular polygon. Thus, in this video game apparatus, the load on the CPU 51 can be reduced and high-speed coordinate calculation can be performed.
[0036]
The GPU 62 draws a polygon (polygon) or the like in the frame memory 62 in accordance with a drawing command from the CPU 51. This GPU 62 can draw a maximum of about 360,000 polygons per second.
[0037]
The frame buffer 63 is formed of a so-called dual port RAM, and can perform drawing from the GPU 62 or transfer from the main memory and reading for display at the same time.
[0038]
The frame buffer 63 has a capacity of 1 Mbyte, and is treated as a matrix of pixels of 16 bits wide 1024 and 512 pixels vertically.
[0039]
An arbitrary area in the frame buffer 63 can be output as a video output.
[0040]
In addition to the display area that is output as video output, the frame buffer 63 includes a CLUT area that stores a color look-up table (CLUT) that is referred to when the GPU 62 draws polygons and the like. A texture area is provided in which a material (texture) to be inserted (mapped) into a polygon or the like that is coordinate-transformed and drawn by the GPU 62 is stored. These CLUT area and texture area are dynamically changed according to the change of the display area.
[0041]
In addition to the flat shading described above, the GPU 62 performs Gouraud shading that complements the colors of the polygon vertices to determine the color within the polygon, and texture mapping that attaches the texture stored in the texture area to the polygon. It can be done.
[0042]
When performing these Gouraud shading or texture mapping, the GTE 61 can perform coordinate calculations of up to about 500,000 polygons per second.
[0043]
The image decoder 64 decodes still image or moving image data stored in the main memory 53 under the control of the CPU 51 and stores the decoded image data in the main memory 53.
[0044]
Further, the reproduced image data is stored in the frame buffer 63 via the GPU 62 so that it can be used as the background of the image drawn by the GPU 62 described above.
[0045]
The sound system 70 is generated by a sound processing unit (SPU) 71 that generates musical sounds, sound effects, and the like based on an instruction from the CPU 51, a sound buffer 72 in which waveform data and the like are recorded by the SPU 71, and an SPU 71. And a loudspeaker 73 for outputting musical sounds, sound effects and the like.
[0046]
The SPU 71 has an ADPCM decoding function for reproducing audio data that has been adaptively differentially encoded (ADPCM) using 16-bit audio data as a 4-bit differential signal, and a waveform stored in the sound buffer 72. A reproduction function for generating sound effects by reproducing data and a modulation function for modulating and reproducing waveform data stored in the sound buffer 72 are provided.
[0047]
By providing such a function, the sound system 70 can be used as a so-called PCM sound source that generates musical sounds, sound effects, and the like based on waveform data recorded in the sound buffer 72 according to instructions from the CPU 51. It has become.
[0048]
The optical disk control unit 80 includes an optical disk device 81 that reproduces programs, data, and the like recorded on the optical disk, and a decoder 82 that decodes programs, data, and the like that are recorded after being error-corrected (ECC) encoded, for example. And a buffer 83 that speeds up the reading from the optical disk by temporarily storing the reproduction data from the optical disk device 81.
[0049]
In addition to the above ADPCM data, the audio data recorded on the optical disk reproduced by the optical disk device 81 includes so-called PCM data obtained by analog / digital conversion of an audio signal.
[0050]
As ADPCM data, for example, audio data recorded by representing a difference of 16-bit digital data (PCM data) in 4 bits is decoded by a decoder 82 and then expanded to 16-bit digital data. Supplied to the SPU 71.
[0051]
Also, as PCM data, for example, audio data recorded as 16-bit digital data is decoded by the decoder 82 and then supplied to the SPU 71 or used to drive the speaker 73 directly.
[0052]
The communication control unit 90 also includes a communication controller 91 that controls communication with the CPU 51 via the bus 100, a controller 92 that inputs instructions from the user, and a memory card 93 that stores game settings and the like. It has.
[0053]
The controller 92 has, for example, 16 instruction keys for inputting instructions from the user. According to the instructions from the communication controller 91, the controller 92 changes the state of the instruction keys by synchronous communication. Is transmitted about 60 times per second. The communication controller 91 transmits the state of the instruction key of the controller 92 to the CPU 51.
[0054]
Thereby, an instruction from the user is input to the CPU 51, and the CPU 51 performs processing according to the instruction from the user based on the game program being executed.
[0055]
Further, when it is necessary to store the settings of the game being executed, the CPU 51 transmits the stored data to the communication controller 91, and the communication controller 91 stores the data from the CPU 51 in the memory card 93. To do.
[0056]
Since the memory card 93 is connected to the bus 100 via the communication controller 91 and is separated from the bus 100, the memory card 93 can be attached and detached while the power is turned on. As a result, game settings and the like can be stored in a plurality of memory cards 93.
[0057]
The video game apparatus also includes a parallel input / output (I / O) 101 and a serial input / output (I / O) 102 connected to the bus 100.
[0058]
Then, it is possible to connect to peripheral devices via the parallel I / O 101, and to communicate with other video game devices via the serial I / O 102. ing.
[0059]
By the way, a large amount of image data needs to be transferred between the main memory 53, the GPU 62, the image decoder 64, the decoder 82, and the like at high speed when reading a program, displaying or drawing an image.
[0060]
Therefore, in this video game apparatus, data is directly transferred between the main memory 53, the GPU 62, the image decoder 64, the decoder 82, and the like by the control from the peripheral device control unit 52 without using the CPU 51 as described above. So-called DMA transfer can be performed.
[0061]
Thus, the load on the CPU 51 due to data transfer can be reduced, and high-speed data transfer can be performed.
[0062]
In this video game apparatus, when the power is turned on, the CPU 51 executes the operating system stored in the ROM 54.
[0063]
By executing the operating system, the CPU 51 controls the graphic system 60, the sound system 70, and the like.
[0064]
When the operating system is executed, the CPU 51 initializes the entire apparatus such as operation check, and then controls the optical disk control unit 80 to execute a program such as a game recorded on the optical disk. To do.
[0065]
By executing the program such as this game, the CPU 51 controls the graphic system 60, the sound system 70, etc. according to the input from the user,
It controls the display of images, the generation of sound effects, musical sounds, and the like.
[0066]
By the way, this video game apparatus includes a sound source that generates sound such as sound effects and a sound source control unit that controls the sound sources in order to generate musical sounds, sound effects, and the like in accordance with the progress of the game or user operation. I have.
[0067]
This sound source is realized by the CPU 51 and the SPU 71, and the sound source control unit is realized by the CPU 51.
[0068]
Specifically, as shown in FIG. 2, the SPU 71 reads waveform data recorded in the sound buffer 72 in response to an instruction from the CPU 51, and a pitch conversion unit 111 that converts the pitch of the read waveform data. A clock generator 112 for generating a clock, a noise generator 113 for generating noise based on the output of the clock generator 112, a switch 114 for switching outputs of the pitch converter 111 and the noise generator 113, and an output of the switch 114 The envelope generator 115 that changes the amplitude of the output waveform and converts the envelope of the generated sound (envelope), the mute processing unit 116 that switches whether or not to generate sound, the volume and the left and right Left and right volume adjustments for channel balance Arm 117L, it is equipped with a 117R.
[0069]
The sound buffer 72 stores several pieces of waveform data for one cycle constituting a sound that is sounded in advance. This waveform data is stored as the above-mentioned 4-bit ADPCM data, and is converted into 16-bit PCM data by the SPU 71 at the time of reading, and then supplied to the pitch converter 111.
[0070]
For this reason, compared with the case where the PCM data is stored as it is, the area in the sound buffer 72 required for storing the waveform data can be reduced, and more waveform data can be stored.
[0071]
The main memory 53 stores sound envelopes corresponding to one cycle of waveform data stored in the sound buffer 72 in advance, that is, information such as the rise and fall of the sound.
[0072]
Although FIG. 2 shows a circuit configuration for one voice (one voice), this sound source includes pitch converters 111 to 117L and 117R for a total of 24 voices. The outputs of the volumes 117L and 117R are combined and output as audio outputs for two left and right channels.
[0073]
That is, this sound source can simultaneously generate 24 voices.
[0074]
For each voice, the waveform data, envelope, volume, left / right channel balance, etc. stored in the sound buffer 72 can be set independently.
[0075]
As a result, the sound source can generate chords or perform with a plurality of musical instruments using a plurality of voices.
[0076]
In addition, this sound source can perform so-called reverberation processing for synthesizing a sound output with a sound output that has been shifted in time.
[0077]
That is, the SPU 71 includes switches 118L and 118R that select whether or not to perform reverberation processing on the sound output obtained by synthesizing the sounds of 24 voices, and the reverb that moves the sound output supplied from the switch 118L back and forth in time. A processing unit 119, a volume 120 that adjusts the volume of the audio output that has been moved back and forth in time, an adder 121b that synthesizes the output of the volume 120 with the audio output before being moved back and forth in time, And a master volume 122 for adjusting the output volume.
[0078]
In addition, this sound source can synthesize an audio signal read from the optical disk supplied from the decoder 82 with the audio output generated as described above.
[0079]
Specifically, the SPU 71 selects a switch 123 for selecting whether or not to synthesize an audio signal from the optical disk into the above-described audio output, and mixes the volume of the audio signal to be synthesized to be supplied to the adding unit 121a. A volume 124 and a switch 125 for selecting whether to perform reverberation processing on the audio signal to be synthesized are provided.
[0080]
In FIG. 2, the configuration of the reverberation processing unit 119, the volume 120, the mixing volume 124, etc. is shown only for the left channel, but these also have the same configuration for the right channel.
[0081]
Here, the operation of this sound source will be described.
[0082]
The CPU 51 supplies a selection signal for selecting the waveform data to be generated from the waveform data stored in the sound buffer 72 and the pitch of the sound to be generated to the pitch converter 111 when it is necessary to generate the sound. At the same time, an envelope corresponding to the waveform data to be generated is read from the envelope stored in the main memory 53 and supplied to the envelope generator 115.
[0083]
The pitch conversion unit 111 reads the waveform data by changing the waveform data reading step according to the instructed pitch. In addition, when the reading of the waveform data for one cycle is completed, the pitch conversion unit 111 repeatedly reads the same waveform data from the beginning during the period in which the sound generation instruction is supplied.
[0084]
Thereby, while the sound generation instruction is supplied, the waveform data corresponding to the instructed pitch is reproduced. Such waveform data is supplied to the envelope generator 115 via the switch 114.
[0085]
The envelope generator 115 converts the amplitude of the waveform data from the pitch converter 111 based on the envelope supplied from the CPU 51.
[0086]
As a result, voice for one voice is generated. Similarly, the remaining 23 voices are generated, and the volume and balance of the left and right channels are adjusted by the respective volumes 117L and 117R, and then subjected to processing such as reverb processing as described above, and then synthesized. The
[0087]
Thus, a sound corresponding to the instruction from the CPU 51 is generated.
[0088]
The sound source control unit that controls the sound source is realized by the CPU 51 executing the sound source control program.
[0089]
In this video game apparatus, musical score data in which music information such as sound effects to be generated, waveform data used for background music (BGM), pitches of generated sounds, pronunciation, mute, timbre effects, etc. are arranged in time order along with time information. The sound source control unit stores in advance in the main memory 53, the sound source control unit sequentially reads out the musical score data, for example, at regular time intervals, and sequentially sets the pitch, sound generation and mute registers of the sound source, thereby creating sound effects, BGM. Etc. to play.
[0090]
Specifically, this musical score data is a single musical score data made into one file for each musical score data of a unit to be played (sequence) or connected musical score data in which musical score data of a plurality of sequences is made into one file. Consists of.
[0091]
For example, as shown in FIG. 3, the single musical score data includes one file header information and one sequence of musical score data, and one sequence of musical score data is one piece of data representing the attribute of the musical score data. It consists of header information and one sequence data.
[0092]
The file header information includes a sound ID indicating that the file is sound data and a version number indicating a version and the like.
[0093]
The data header information includes the time resolution of the sequence information of the musical score data, the resolution of a quarter note indicating the tempo and the time signature, the tempo of the music, and the time signature.
[0094]
The sequence data is composed of musical tone data constituting musical tone in one sequence.
[0095]
Further, for example, as shown in FIG. 4, the connected musical score data includes one file header information and musical score data of a plurality of sequences, and the musical score data of each sequence includes the single musical score data and the above-described single musical score data, respectively. Similarly, it consists of one data header information representing the attribute of the musical score data and one sequence data.
[0096]
In the case of this connected musical score data, the data header information includes a musical score data ID for identifying individual musical score data in the connected musical score data, and a quarter note indicating the time resolution, tempo, and time signature of the sequence information of the musical score data. Resolution, song tempo, and time signature.
[0097]
In addition, the music data of the single musical score data and the linked musical score data is changed in the key-on for instructing the sound of a certain voice, the key-off instructing the muting of a certain voice, and the pitch of a certain voice as shown in FIG. It consists of data such as change of pitch attribute to be performed. These data are interpreted by the CPU 51, and the sound source is controlled by the CPU 51 as described above.
[0098]
Single musical score data as described above and Linking The musical score data is composed of musical score data formed for each sequence, for example, as shown in FIG.
[0099]
That is, for example, the above-mentioned file header information is added to the musical score data A and B, respectively, to constitute single musical score data. In addition, musical score data C, D, and E are combined with musical score data IDs P-1, P-2, and P-3, respectively, and further file header information is added to form linked musical score data P. . At this time, the musical score data ID is in the joining order in the connected musical score data P.
[0100]
Single musical score data formed in this way and Linking The musical score data is recorded on an optical disk or the like, and is read out to the main memory 53 prior to reproduction.
[0101]
Such single musical score data and Linking The musical score data is reproduced by a sound source control unit realized by a sound source control program executed by the CPU 51.
[0102]
This sound source drive unit has, for example, the configuration shown in FIG. Linking Play music data and control the sound source.
[0103]
That is, the sound source control unit includes a single musical score data stored in the musical score data holding unit 53a of the main memory 53 and the controller 104 including the controller 92 or the like. Linking A musical score data selection unit 105 for selecting musical score data to be reproduced from musical score data, a musical score data acquisition unit 106 for acquiring musical score data selected by the musical score data selection unit 105, and a sound source including the sound system 70 and the like are controlled. A pronunciation / mute information control unit 107 is provided.
[0104]
The musical score data selection unit 105 further includes a musical score data selection information management unit 105a that manages selection information of musical score data selected in response to an input from the input device 104, and a musical score data selection that maintains the status of musical score data. An information holding unit 105b and a musical score data selection information control unit 105c for analyzing the status of the musical score data held in the musical score data selection information holding unit 105b.
[0105]
Here, as shown in FIG. 8, for example, the single musical score data A and B and the connected musical score data P are deleted from the file header information and are independently held in the musical score data holding unit 53a.
[0106]
In these single musical score data A and B, as musical score ID which identifies each “4”, “5” Are assigned and their addresses are managed according to the musical score ID.
[0107]
In addition, each musical score data C, D, E of the linked musical score data P has a musical score ID for identifying each “1”, “2”, “3” Are assigned and their addresses are managed according to the musical score ID.
[0108]
Specifically, for example, as shown in FIG. 9A, the main memory 53 stores a musical score data ID, an address where musical score data is stored, a pointer, and the like as a reference table for these musical score IDs. Yes.
[0109]
This reference table holds addresses ADDR1 and ADDR2 and pointers pt4 and pt5 in which the music score data A and B are stored in association with the music score IDs 4 and 5 for the single music score data A and B, for example.
[0110]
Further, in this reference table, for example, P-1, which is a musical score data ID of musical score data C, D, E, corresponding to musical score IDs 1, 2, 3 for musical score data C, D, E of the connected musical score data P, P-2 and P-3 and pointers pt1, pt2, and pt3 are stored.
[0111]
These musical score data IDs Composed of For the code P, the concatenation corresponding to the code P is stored in the main memory 53, for example, as shown in FIG. Musical score A start address SADDR1 in which data P is recorded is stored as a start address reference table.
[0112]
Further, for the musical score data IDs P-1, P-2, and P-3, the start to the start address SADDR1 of the linked musical score data P is stored in the main memory 53, for example, as shown in FIG. An address (offset address) is stored as an offset reference table.
[0113]
Specifically, the offset address corresponding to the musical score data ID P-1 is 0 because the corresponding musical score data C is the first musical score data of the linked musical score data, and the musical score data ID P-2 is changed to P-2. The corresponding offset address is the start address OADDR1 corresponding to the start address SADDR1 of the corresponding musical score data D, and the offset address corresponding to the musical score data ID P-3 is the start address OADDR2 corresponding to the start address SADDR1 of the corresponding musical score data E Become.
[0114]
That is, the musical score data constituting the linked musical score data is read out only by specifying the musical score ID by referring to the reference table, the start address reference table, and the offset reference table.
[0115]
As a result, the musical score data constituting the linked musical score data can be read out only by designating the musical score ID, as shown in FIG. 10, for example. Becomes easy.
[0116]
By the way, this sound source control unit can perform the reproduction processing of a plurality of musical score data by assigning 24 voices of the above-mentioned sound source to the reproduction processing of each musical score data.
[0117]
The progress of the reproduction processing of the plurality of musical score data is controlled in accordance with the pointer on the reference table corresponding to the musical score data reproduced in each processing. That is, this pointer indicates the position at which each musical score data is currently reproduced. When reproduction is not started, the pointer indicates the beginning of the musical score data.
[0118]
In addition, the musical score data holding unit 105b holds, as shown in FIG. 11, for example, a musical score data reproduction state for a musical score ID as a musical score data selection information attribute table.
[0119]
The reproduction state of the musical score data is set by an input from the above-described input device 104 or an instruction from another program such as a game progress.
[0120]
Further, the reproduction state of the musical score data is, for example, “Stop” when reproduction is not started, “Play” when reproduction is in progress, and “Pause” when reproduction is paused.
[0121]
That is, in the musical score data selection information attribute table shown in FIG. 11 described above, the musical score data whose musical score ID is 1 is being reproduced, the musical score data whose musical score ID is 2 has not been reproduced, and the musical score ID is 3 The musical score data with a musical score ID of 4 is being played back, and the musical score data with a musical score ID of 5 is not started.
[0122]
Here, the reproduction operation of musical score data by this reproduction apparatus will be described with reference to the flowchart shown in FIG.
[0123]
First, when the reproduction of the musical score data is started, the process proceeds to step S1. In step S1, the musical score data selection information management unit 105a checks whether there is an input from the input device 104, and if there is an input, the step Proceed to S2, and if there is no input, proceed to Step S6.
[0124]
In step S2, the musical score data selection information control unit 105c determines whether or not the input is a reproduction request for the instructed musical score ID. If it is not a reproduction request, the process proceeds to step S4. Proceeding to step S3, the musical score data corresponding to the musical score ID instructed by the musical score data selection information holding unit 105b is set to Play, and the process proceeds to step S6.
[0125]
In step S4, the score data selection information control unit 105c determines whether or not the input is a stop request for the instructed score ID. If not, the process proceeds to step S6. Proceeding to step S5, the musical score data corresponding to the musical score ID instructed by the musical score data selection information holding unit 105b is set to Stop, and the process proceeds to step S6.
[0126]
In step S6, the musical score data selection information control unit 105c analyzes the state of the musical score data corresponding to each musical score ID held in the musical score data selection information holding unit 105b, and in the subsequent step S7, the reproduction state is set. It is determined whether or not there is a musical score ID. If there is no musical score ID that is in a reproduction state, the process returns to step S1 to wait for input. In step S7, if there is a musical score ID in the reproduction state, the sound generation processing of each musical score data corresponding to the musical score ID in the reproduction state is started, and the process proceeds to step S8.
[0127]
The processing after step S8 is performed for each musical score data in accordance with a timer interrupt generated at regular intervals by the peripheral device control unit 52. In the following description, only one musical score data will be described.
[0128]
That is, in this step S8, the musical score data acquisition unit 106 instructs the musical score data holding unit 53a to read the musical score data corresponding to the musical score ID in the reproduction state.
[0129]
In step S9, the musical score data acquisition unit 106 determines whether or not the musical score data has been completed. If the musical score data has been completed, the sound generation process is terminated. If the musical score data has not been completed, the musical score data acquisition unit 106 continues. Proceed to S10.
[0130]
In step S10, the musical score data acquisition unit 106 determines whether the musical score data read in step S9 is data to be reproduced during the current interruption period, and is data reproduced during the current interruption period. If not, the sound generation process is terminated, and if the data is to be reproduced during the current interruption period, the process proceeds to step S11.
[0131]
In step S11, the sound / mute information control unit 107 determines whether or not the data reproduced during the current interruption period is a key-on for instructing the sound of a certain voice. If not, the process proceeds to step S13. If the key is on, the process proceeds to the next step S12, where the sound source is instructed to sound the designated voice, and then the process returns to step S8 to wait for the next interruption.
[0132]
In step S13, the sound production / mute information control unit 107 determines whether or not the data reproduced during the current interruption period is a key-off instructing to mute a certain voice. If not, the process returns to step S8. Wait for the next interrupt. If the key is off, the process proceeds to the next step S14, where the sound source is instructed to mute the designated voice, and then the process returns to step S8 to wait for the next interruption.
[0133]
Thereby, according to the above-mentioned musical score data selection information attribute table, musical score data corresponding to the musical score ID whose reproduction is selected is reproduced.
[0134]
Further, in this sound source control unit, it is possible to specify music score data only by designating a music score ID by referring to the above-described reference table and the like, and music score data can be easily managed.
[0135]
By changing the musical score data selection information attribute table, the musical score data playback state for each musical score ID can be set independently, so that the musical score data can be instructed to be played regardless of the playback status of other musical score data. For example, the response time to an input from a user or a request from another program can be improved.
[0136]
Incidentally, the sound source control unit shown in FIG. 7 has a configuration shown in FIG. 13, for example. FIG. 13 is an equivalent block diagram showing processing performed by the CPU 51 by executing an operating system, a sound source control program, a game program, and the like.
[0137]
The sound source control unit is activated at predetermined time intervals by a timer interrupt control unit 130 that controls the peripheral device control unit 52 to generate a timer interrupt to the CPU 51 every predetermined time, and a timer interrupt from the peripheral device control unit 52. A sound control unit 140 that controls the sound source based on the musical score data, a system load information control unit 150 that checks the load state of the entire video game device and supplies the load state to the timer interrupt control unit 130, and the controller 92 And an input request control unit 160 for checking the state.
[0138]
Further, the CPU 51 executes the operating system and the game program at the same time as the processing of the sound control unit 140. The drawing control unit 170 that controls the drawing by the graphic system 60 and the input from the user. The main routine unit 180 performs processing such as selection of sound effects and musical sounds generated, selection of images to be displayed, and control of game progress.
[0139]
The timer interrupt control unit 130 controls the switching between the timer interrupt interval holding unit 131, the timer interrupt management unit 132, the sound control unit 140, and the main routine unit 180 that hold intervals for generating timer interrupts. And a switching management unit 133.
[0140]
The sound control unit 140 includes a musical score data holding unit 141 that holds the above musical score data, a data acquisition management unit 142 that manages reading of musical score data, and a time information management unit 143 that controls the operation of the data acquisition management unit 142. And a sound generation / mute information control unit 144 for controlling the sound generation / mute of the sound source based on the read musical score data, and an internal resolution corresponding to the timer interrupt interval from the timer interrupt interval holding unit 131. The internal resolution holding unit 145 includes the above-described sound source.
[0141]
The sound source is composed of the above-described SPU 71, sound buffer 72, and the like, and generates sound by reading out the waveform data stored in the waveform data holding unit 146 comprising the sound buffer 72 under the control of the sound production / mute information control unit 144. A sound generation unit 147 for amplifying, and an amplification unit 148 for amplifying the generated sound to adjust the volume and the like. The sound generation unit 147 and the amplification unit 148 are realized as one function of the SPU 71 as described above.
[0142]
The system load information control unit 150 includes a system load information acquisition unit 151 that acquires system load information, a system load determination unit 152 that determines a system load, and a system load threshold value holding unit that holds a system load threshold value 153.
[0143]
The input request control unit 160 includes an input device 161 including the above-described controller 92 and the like, and an input request analysis unit 162 that analyzes an input request from the input device 161.
[0144]
The drawing control unit 170 includes the CPU 51, GTE 61, GPU 62, frame buffer 63, and the like, and includes a control-time drawing information holding unit 171 including the GTE 61, a drawing information control unit 172 including the CPU 51, and the GPU 62. A drawing information holding unit 174 including a frame buffer 63, a display device 175 for displaying an image based on a video output from the drawing device 173, and the like.
[0145]
Hereinafter, the operation of the sound source control unit will be described.
[0146]
In this sound source control unit, a timer interrupt interval corresponding to a system load or an input request is held in the timer interrupt interval holding unit 131 in advance. Specifically, for example, 1/240 seconds as a timer interrupt interval when the system load is light, and 1/60 seconds as a timer interrupt interval when the system load is heavy, which is longer than the timer interrupt interval when the system load is light Is held.
[0147]
In the sound source control unit, when the process is started, the main routine unit 180 executed by the CPU 51 controls the drawing control unit 170 according to the input from the input device 161, the musical sound generated by the sound control unit 140, and the like. The selection, system load information control unit 150 and the like are executed in parallel.
[0148]
At this time, the system load information acquisition unit 151 acquires the load information of the CPU 51 and supplies the load information to the system load determination unit 152. The system load determination unit 152 is stored in the system load threshold holding unit 153. The system load is determined by comparing with the value, and the determination result is supplied to the timer interrupt interval holding unit 131.
[0149]
The timer interrupt interval holding unit 131 selects a timer interrupt interval based on the system load determination from the system load determining unit 152 or the output of the input request analyzing unit 162 and supplies the timer interrupt interval to the timer interrupt managing unit 132 and the internal resolution holding unit 145. To do.
[0150]
Specifically, based on the determination result from the system load determination unit 152, the timer interrupt interval holding unit 131 sets the interrupt interval to 1/240 second when the system load is light, and when the system load is heavy, The interrupt interval is 1/60 second.
[0151]
The timer interrupt management unit 132 controls the peripheral device control unit 52 based on the timer interrupt interval supplied from the timer interrupt interval holding unit 131 and generates a timer interrupt at regular intervals. The control switching management unit 133 Based on the interrupt, the processing of the main routine unit 180 and the sound control unit 140 is switched at regular intervals, and the processing of the sound control unit 140 is started.
[0152]
When the process is started by the switching of the control switching management unit 133, in the sound control unit 140, the time information management unit 143 acquires data according to the internal resolution held in the internal resolution holding unit 145, that is, the timer interrupt interval. The management unit 142 is controlled to instruct reading of the timer interrupt interval from the musical score data held in the musical score data holding unit 141, and the read musical score data is supplied to the pronunciation / mute information control unit 144.
[0153]
The sound generation / mute information control unit 144 controls the sound generation unit 147 based on the musical score data supplied from the time information management unit 143. As a result, the sound generation unit 147 generates a sound based on the waveform data held in the waveform data holding unit 146.
[0154]
Specifically, by the execution of the sound generation / mute information control unit 144, the CPU 51 controls the generation of sound by controlling the pitch conversion unit 111, the envelope generator 115, and the like, as described above. The sound generated in this way is output by the speaker 73 after the level is adjusted by the amplifying unit 148.
[0155]
As a result, audio data based on the musical score data for the timer interrupt interval supplied from the timer interrupt interval holding unit 131 is output.
[0156]
The sound control unit 140 is activated at each timer interrupt interval set by the timer interrupt interval holding unit 131 as described above, and thereby sounds based on the musical score data for the timer interrupt interval are sequentially generated.
[0157]
That is, when the timer interruption interval is 1/240 second, the musical score data is reproduced every 1/240 second as shown in FIG. 14A, for example.
[0158]
At this time, the actual processing time of the sound processing unit 140 is shorter than 1/240 second.
[0159]
For example, two notes are reproduced from time t11 to time t12, from time t12 to time t13, from time t12 to time t14, and from time t14 to time t15. That is, two notes are reproduced in 1/60 second from time t11 to time t15.
[0160]
When the timer interruption interval is 1/60 second, the musical score data is reproduced every 1/60 second as shown in FIG. 14B, for example. For example, eight notes are reproduced in 1/60 second from time t21 to time t22.
[0161]
That is, eight notes are reproduced in 1/60 second as in the case where the timer interruption interval is set to 1/240 second.
[0162]
As a result, even if the timer interrupt interval is changed using the same musical score data, the sound source processing device controls the reading of the musical score data in accordance with the changed timer interrupt interval, so that the predetermined musical tempo is used. Music score data is played back.
[0163]
As described above, when the sound control unit 140 is activated and processed by interruption, the actual processing load of the CPU 51 is, for example, as shown in FIG. 15A when the timer interruption interval is 1/240 second. Thus, the processing of the sound control unit 140 accounts for 25% of the processing capacity of the CPU 51. When the timer interrupt interval is 1/60 second, for example, as shown in FIG. 15B, the processing of the sound control unit 140 occupies 12.5% of the processing capacity of the CPU 51.
[0164]
That is, the load on the CPU 51 for actually controlling the sound source does not change much even when the timer interrupt interval is shortened. However, when the timer interrupt interval is shortened, if timer interrupts occur frequently, the processing overhead for timer interrupts Increases, the processing load of the sound control unit 140 increases.
[0165]
As described above, in the sound source control unit, the timer interrupt interval selected by the timer interrupt interval holding unit 131 is 240 minutes when the processing load of the sound control unit 140 is relatively large when the system load is light. When the system load is heavy, the processing load of the sound control unit 140 is relatively reduced to 1 / 60th of a second.
[0166]
Thereby, in this sound source control device, the processing load of the sound control unit 140 can be varied according to the system load without changing any musical score data. For this reason, when the system load is heavy, the processing load of the sound control unit 140 is reduced, and for example, drawing and the like can be performed smoothly.
[0167]
In the above embodiment, the example of applying the sound source control information storage method and the sound source control device of the present invention to the sound source control unit for controlling the sound source in the video game device has been described. However, the sound source control information for controlling the sound source is described. Can be applied to devices such as an automatic performance device and a personal computer as long as the sound source is controlled based on the storage method or the sound source control information. Of course, it can be changed as long as it does not deviate from the above.
[0168]
【The invention's effect】
The sound source control information storage method according to the present invention stores identification information assigned to each piece of musical score data constituting the connected musical score data and correspondence information indicating the correspondence between the head address and the relative address.
[0169]
Thus, by referring to the correspondence information, it is possible to specify the address where the corresponding musical score data is stored simply by specifying the identification information, and it is possible to store the sound source control information that facilitates the management of the musical score data. .
[0170]
In addition, the sound source control device according to the present invention only selects the musical score identification information,
The correspondence information is referred to, and the musical score data corresponding to the selected musical score identification information is read out.
[0171]
Thereby, it is possible to easily read the musical score data stored as the linked musical score data by connecting the musical score data.
[0172]
In addition, the sound source control device according to the present invention can set the reproduction state independently for the musical score data corresponding to the plurality of identification information, and immediately before the reproduction of certain musical score data, In addition, the reproduction of other musical score data can be started, and the response to the input can be speeded up.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video game device to which a sound source control device according to the present invention is applied.
FIG. 2 is a block diagram showing a specific configuration of an SPU that constitutes the video game apparatus.
FIG. 3 is a diagram showing a format of musical score data for controlling sound sources constituting the video game apparatus.
FIG. 4 is a diagram showing a format of musical score data for controlling sound sources constituting the video game apparatus.
FIG. 5 is a diagram showing a format of music data constituting the musical score data.
FIG. 6 is a diagram for explaining the formation of the musical score data.
FIG. 7 is a diagram illustrating a configuration of a sound source control unit that controls the sound source based on the musical score data.
FIG. 8 is a diagram showing a state of musical score data held in a musical score data holding unit constituting the sound source control unit.
FIG. 9 is a diagram showing the structure of a reference table that is referred to when reading the musical score data.
FIG. 10 is a diagram for explaining a musical score data reproduction operation by the sound source control unit;
FIG. 11 is a diagram for explaining management of musical score data by the sound source control unit.
FIG. 12 is a flowchart for explaining a musical score data reproduction operation by the sound source control unit;
FIG. 13 is a block diagram illustrating a detailed configuration of the sound source control unit.
FIG. 14 is a diagram for describing processing performed by a timer interrupt by a sound control unit constituting the sound source control unit.
FIG. 15 is a diagram illustrating a ratio between the processing of the sound control unit and the load of other processing.
FIG. 16 is a block diagram showing a configuration of a conventional sound source control device.
FIG. 17 is a diagram showing a format of musical score data used in a conventional sound source control device.
[Explanation of symbols]
50 Control system
51 CPU
52 Peripheral device controller
53 Main memory
53a Music score data holding part
54 ROM
60 graphics system
61 GTE
62 GPU
63 Frame buffer
64 image decoder
65 Display device
70 Sound system
71 SPU
72 Sound Buffer
73 Speaker
80 Optical disk controller
81 Optical disk device
82 Decoder
83 buffers
90 Communication control unit
91 Communication controller
92 Controller
100 buses
104 Input device
105 Musical data selection part
105a Music score data selection information management unit
105b Music score data selection information holding unit
105c Musical score data selection information control unit
106 Music score data acquisition unit
107 Pronunciation / mute information control unit
111 Pitch converter
112 clock generator
113 Noise generator
114, 118L, 118R, 123, 125 switches
115 Envelope Generator
116 Mute processing section
117L, 117R, 120, 124 volumes
119 Reverb processing unit
121a, 121b adder
122 Master volume
124 mixing volume
140 Sound controller
141 Music data storage
142 Data Acquisition Manager
143 Time Information Management Department
144 Pronunciation / mute information control unit
145 Internal resolution holding unit 145
150 System load information control unit
151 System load information acquisition unit
152 System Load Judgment Unit
153 System load threshold value holding unit
160 Input request control unit
161 Input device
162 Input request analysis
170 Drawing controller
171 Drawing information storage unit during control
172 Drawing information control unit
173 Drawing device
174 Drawing information holding unit
175 Display device

Claims (4)

音源制御情報からなる譜面データに、譜面データを識別するための譜面データIDを付加したものを複数連結して構成される連結譜面データを記録した記録媒体から、前記連結譜面データを読み出して、メモリに記憶する音源制御装置であって、  The connected musical score data is read out from a recording medium in which connected musical score data is formed by connecting a plurality of musical score data IDs for identifying musical score data to musical score data composed of sound source control information, and a memory A sound source control device for storing
それぞれの譜面データIDに譜面IDを割り当て、参照テーブルとして前記メモリに記憶し、  A musical score ID is assigned to each musical score data ID, and stored in the memory as a reference table.
前記メモリにおける連結譜面データの記憶場所を示すアドレスをスタートアドレス参照テーブルとして前記メモリに記憶し、  An address indicating the storage location of the linked musical score data in the memory is stored in the memory as a start address reference table,
各譜面データIDごとに、対応する譜面データの連結譜面データ内におけるアドレスをオフセット参照テーブルとして前記メモリに記憶するアドレス管理手段を備えることを特徴とする音源制御装置。  A sound source control apparatus, comprising: an address management unit that stores, in each memory score, an address in the linked musical score data of the corresponding musical score data in the memory as an offset reference table.
請求項1に記載の音源制御装置であって、  The sound source control device according to claim 1,
再生すべき譜面データに対応する譜面IDを指定を受け付けると、  When the designation of the musical score ID corresponding to the musical score data to be reproduced is accepted,
前記参照テーブルに基づいて対応する譜面データIDを特定し、  Identify the corresponding musical score data ID based on the reference table,
前記スタートアドレス参照テーブルおよび前記オフセット参照テーブルに基づいて、前記特定された譜面データIDに対応する譜面データの開始アドレスを算出し、算出された開始アドレスに記憶された譜面データを読み出す読み出し手段とをさらに備えることを特徴とする音源制御装置。  Based on the start address reference table and the offset reference table, a reading means for calculating a start address of the music score data corresponding to the specified music score data ID and reading out the music score data stored at the calculated start address; A sound source control apparatus further comprising:
音源制御情報からなる譜面データに、譜面データを識別するための譜面データIDを付加したものを複数連結して構成される連結譜面データを記録した記録媒体から、前記連結譜面データを読み出して、メモリに記憶する音源制御装置における音源制御方法であって、  The connected musical score data is read out from a recording medium in which connected musical score data is formed by connecting a plurality of musical score data IDs for identifying musical score data to musical score data composed of sound source control information, and a memory A sound source control method in a sound source control device for storing
それぞれの譜面データIDに譜面IDを割り当て、参照テーブルとして前記メモリに記憶するステップと、  Assigning a musical score ID to each musical score data ID and storing it in the memory as a reference table;
前記メモリにおける連結譜面データの記憶場所を示すアドレスをスタートアドレス参照テーブルとして前記メモリに記憶するステップと、  Storing an address indicating a storage location of the linked score data in the memory as a start address reference table in the memory;
各譜面データIDごとに、対応する譜面データの連結譜面データ内におけるアドレスをオフセット参照テーブルとして前記メモリに記憶するステップとを有することを特徴とする音源制御方法。  A sound source control method comprising: storing, for each score data ID, an address in the linked score data of the corresponding score data in the memory as an offset reference table.
請求項3に記載の音源制御装置における音源制御方法であって、  A sound source control method in the sound source control device according to claim 3,
再生すべき譜面データに対応する譜面IDを指定を受け付けるステップと、  A step of accepting designation of a musical score ID corresponding to musical score data to be reproduced;
前記参照テーブルに基づいて対応する譜面データIDを特定し、  Identify the corresponding musical score data ID based on the reference table,
前記スタートアドレス参照テーブルおよび前記オフセット参照テーブルに基づいて、前記特定された譜面データIDに対応する譜面データの開始アドレスを算出し、算出された開始アドレスに記憶された譜面データを読み出す読み出しステップとをさらに有することを特徴とする音源制御方法。  Based on the start address reference table and the offset reference table, a start address of the score data corresponding to the specified score data ID is calculated, and a reading step of reading the score data stored at the calculated start address is performed. A sound source control method, further comprising:
JP30002394A 1994-12-02 1994-12-02 Sound source control information storage method and sound source control apparatus Expired - Lifetime JP3660379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30002394A JP3660379B2 (en) 1994-12-02 1994-12-02 Sound source control information storage method and sound source control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30002394A JP3660379B2 (en) 1994-12-02 1994-12-02 Sound source control information storage method and sound source control apparatus

Publications (2)

Publication Number Publication Date
JPH08160957A JPH08160957A (en) 1996-06-21
JP3660379B2 true JP3660379B2 (en) 2005-06-15

Family

ID=17879783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30002394A Expired - Lifetime JP3660379B2 (en) 1994-12-02 1994-12-02 Sound source control information storage method and sound source control apparatus

Country Status (1)

Country Link
JP (1) JP3660379B2 (en)

Also Published As

Publication number Publication date
JPH08160957A (en) 1996-06-21

Similar Documents

Publication Publication Date Title
US5824935A (en) Music apparatus for independently producing multiple chorus parts through single channel
JPH06274188A (en) Karaoke device
KR100375329B1 (en) Device and method for controlling sound source
JPH07140991A (en) 'karaoke' device
JP3625880B2 (en) Sound generator
JP2003208181A (en) Waveform reproducing device
KR100384919B1 (en) Sound source data generation method, recording medium, and sound source data processing device
JP3660379B2 (en) Sound source control information storage method and sound source control apparatus
JP3919833B2 (en) Sound generator
JPH07121181A (en) Sound information processor
JP3799711B2 (en) Musical sound generation method and musical sound generator
JPH04168492A (en) Musical sound reproducing device
JP2888712B2 (en) Music generator
JP3363667B2 (en) Karaoke equipment
JP3680732B2 (en) Performance device and storage medium
JP3178176B2 (en) Automatic accompaniment device
JP3892433B2 (en) Karaoke device, karaoke method, and program
JPH1031486A (en) Method and device for performance data storage and reproducing
JP3148803B2 (en) Sound source device
JP3000441U (en) Electronic music player
JP3735172B2 (en) Performance information processing method
JP2001092450A (en) Method for generating/processing audio file
JPH1011096A (en) Karaoke device
JPH10153996A (en) Sound source karaoke (orchestration without lyrics) device
JPS6093489A (en) Automatic performer

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040614

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050317

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080325

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110325

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110325

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130325

Year of fee payment: 8