JP2010522364A - 楽器用デジタルインターフェース(midi)ファイルを処理するためのパイプライン技法 - Google Patents

楽器用デジタルインターフェース(midi)ファイルを処理するためのパイプライン技法 Download PDF

Info

Publication number
JP2010522364A
JP2010522364A JP2010501078A JP2010501078A JP2010522364A JP 2010522364 A JP2010522364 A JP 2010522364A JP 2010501078 A JP2010501078 A JP 2010501078A JP 2010501078 A JP2010501078 A JP 2010501078A JP 2010522364 A JP2010522364 A JP 2010522364A
Authority
JP
Japan
Prior art keywords
midi
files
frame
dsp
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010501078A
Other languages
English (en)
Inventor
クルカルニ、プラジャクト・ブイ.
チョイ、エディー・エル.ティー.
カマス、ニディッシュ・ラマチャンドラ
グプタ、サミア・クマー
モロイ、スティーブン
デバラパッリ、スレッシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2010522364A publication Critical patent/JP2010522364A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/004Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof with one or more auxiliary processor in addition to the main processing unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本開示は、MIDI(Musical Instrument Digital Interface)フォーマットに準拠するオーディオファイルを処理するための技法について説明する。具体的には、MIDIファイル処理に関連する様々なタスクは、汎用プロセッサ上で動作するソフトウェアと、デジタル信号プロセッサ(DSP)に関連するファームウェアと、特にMIDIファイル処理用に設計された専用ハードウェアとの間に任される。代替的に、汎用プロセッサおよびDSPの代わりにマルチスレッドDSPを使用することができる。一態様では、本開示は、第1のプロセスを使用して、MIDIファイルを解析し、MIDIファイルに関連するMIDIイベントをスケジューリングすることと、MIDI合成パラメータを生成するために第2のプロセスを使用してMIDIイベントを処理することと、合成パラメータに基づいてハードウェアユニットを使用してオーディオサンプルを生成することとを含む方法を提供する。
【選択図】 図4

Description

優先権の主張
米国特許法119条における優先権の主張
本特許出願は、本出願の譲受人に譲渡され、参照により明確に本明細書に組み込まれる、2007年3月22日に出願された「PIPELINE TECHNIQUES FOR PROCESSING MUSICAL INSTRUMENT DIGITAL INTERFACE(MIDI)FILES」と題する仮出願第60/896,455号の優先権を主張するものである。
本開示は、オーディオ装置に関し、より詳細には、楽器用デジタルインターフェース(MIDI:Musical Instrument Digital Interface)ファイルに基づいてオーディオ出力を生成するオーディオ装置に関する。
楽器用デジタルインターフェース(MIDI)は、音楽、スピーチ、トーン、アラートなどオーディオサウンドの作成、通信および/または再生に使用されるフォーマットである。MIDIフォーマットの再生をサポートする装置は、様々な「ヴォイス(voice)」を作成するために使用できるオーディオ情報の組を記憶することができる。各ヴォイスは、特定の楽器による楽音など、1つまたは複数のサウンドに対応する。たとえば、第1のヴォイスは、ピアノによって演奏される中央ハ(middle C)に対応し、第2のヴォイスは、トロンボーンによって演奏される中央Cに対応し、第3のヴォイスは、トロンボーンによって演奏されるD#に対応するなどである。特定の楽器によって演奏される楽音を再現するために、MIDI準拠装置は、低周波発振器の挙動など様々なオーディオ特性、ビブラートなどの効果、およびサウンドの認識に影響を及ぼすいくつかの他のオーディオ特性を指定する、ヴォイス用の情報のセットを含むことがある。ほとんどどんなサウンドでも、MIDIフォーマットをサポートする装置によって定義し、MIDIファイルで伝達し、再生することができる。
MIDIフォーマットをサポートする装置は、装置が音の生成を開始すべきであることを示すイベントが発生すると、楽音(または他のサウンド)を生成することができる。同様に、装置は、音の生成を停止すべきであることを示すイベントが発生すると、楽音の生成を停止する。楽曲全体は、いくつかのヴォイスがいつ開始し停止すべきかを示すイベントを指定することによって、MIDIフォーマットに従って符号化できる。このようにして、楽曲は、MIDIフォーマットに従ってコンパクトなファイルフォーマットで記憶および送信できる。
MIDIは多種多様な装置でサポートされる。たとえば、無線電話機など無線通信装置は、呼出音や他のオーディオ出力などダウンロード可能なサウンド用のMIDIファイルをサポートすることができる。アップル・コンピュータ社が販売している「iPod(登録商標)」装置やマイクロソフト社が販売している「Zune」装置などデジタル音楽プレーヤも、MIDIファイルフォーマットをサポートすることができる。MIDIフォーマットをサポートする他の装置は、様々な音楽シンセサイザ、無線モバイル装置、ダイレクト双方向通信装置(ウォーキートーキーと呼ばれることがある)、ネットワーク電話、パーソナルコンピュータ、デスクトップおよびラップトップコンピュータ、ワークステーション、衛星ラジオ装置、相互通信方式装置、ラジオ放送装置、携帯ゲーム機、装置に取り付けられた回路基板、情報キオスク、児童用の様々なコンピュータ化された玩具、自動車、船舶および航空機で使用されるオンボードコンピュータ、ならびに多種多様な他の装置を含む。
概して、本開示では、楽器用デジタルインターフェース(MIDI)フォーマットに準拠するオーディオファイルを処理するための技法について説明する。本明細書で使用するMIDIファイルという用語は、MIDIフォーマットに適合する少なくとも1つのオーディオトラックを含むファイルを指す。本開示によれば、ソフトウェア、ファームウェアおよびハードウェアを使用してMIDIファイルを効率的に処理するための技法が説明される。具体的には、MIDIファイル処理に関連する様々なタスクは、汎用プロセッサ上で動作するソフトウェアと、デジタル信号プロセッサ(DSP)に関連するファームウェアと、特にMIDIファイル処理用に設計された専用ハードウェアとの間に任される。代替的に、MIDIファイル処理に関連するタスクはDSPおよび専用ハードウェアの2つの異なるスレッド間に任せることができる。
説明される技法は、MIDIファイルの処理における効率を改善するためにパイプライン化できる。汎用プロセッサは、第1のフレーム(フレームN)用のMIDIファイルを処理することができる。第1のフレーム(フレームN)がDSPによって処理されるとき、同時に第2のフレーム(フレームN+1)が汎用プロセッサによって処理される。第1のフレーム(フレームN)がハードウェアによって処理されるとき、第2のフレーム(フレームN+1)がDSPによって同時に処理され、第3のフレーム(フレームN+2)が汎用プロセッサによって処理される。MIDIファイル処理に関連するタスクがDSPおよび専用ハードウェアの2つの異なるスレッド間に任される場合も、同様のパイプライン化が使用できる。
いずれの場合も、MIDIファイル処理が、同時に処理できる複数のパイプラインステージに分けられるので、効率を改善し、場合によっては、DSPに関連する計算リソースなど、所与のステージに必要な計算リソースを低減する。各フレームは、様々なパイプラインステージを通って汎用プロセッサからDSPに、次いでハードウェアに到るか、または第1のDSPスレッドから第2のDSPスレッドに、次いでハードウェアに到る。ハードウェアによって生成されたオーディオサンプルを、たとえば割込み駆動型技法によってDSPに戻すことができるので、オーディオサウンドをユーザに出力するより前に任意の後処理を実行することができる。
一態様では、本開示は、第1のプロセスを使用して、複数のMIDIファイルを解析(パース)し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングすることと、複数のMIDI合成パラメータを生成するために第2のプロセスを使用して前記複数のMIDIイベントを処理することと、前記複数の合成パラメータに基づいてハードウェアユニットを使用して複数のオーディオサンプルを生成することとを備える方法を提供する。
別の態様では、本開示は、複数のMIDIファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングするためのソフトウェアを実行するプロセッサと、前記複数のMIDIイベントを処理し、複数のMIDI合成パラメータを生成するDSPと、前記複数の合成パラメータに基づいて複数のオーディオサンプルを生成するハードウェアユニットとを備える装置を提供する。
別の態様では、本開示は、複数のMIDIファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングするためのソフトウェア手段と、複数のMIDI合成パラメータを生成するために前記複数のMIDIイベントを処理するためのファームウェア手段と、前記複数の合成パラメータに基づいてオーディオサンプルを生成するためのハードウェア手段とを備える装置を提供する。
別の態様では、本開示は、複数のMIDIファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングする第1のスレッドと、前記複数のMIDIイベントを処理し、複数のMIDI合成パラメータを生成する第2のスレッドとを含むマルチスレッドDSPと、前記複数の合成パラメータに基づいてオーディオサンプルを生成するハードウェアユニットとを備える装置を提供する。
別の態様では、本開示は、1つまたは複数のプロセッサによる実行時に、1つまたは複数のプロセッサに、第1のプロセスを使用して、複数のMIDIファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングさせ、複数のMIDI合成パラメータを生成するために第2のプロセスを使用して前記複数のMIDIイベントを処理させ、前記複数の合成パラメータに基づいてハードウェアユニットを使用して複数のオーディオサンプルを生成させる命令を含むコンピュータ読み取り可能な媒体を提供する。
別の態様では、本開示は、第1のプロセスを使用して、複数のMIDIファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングし、複数のMIDI合成パラメータを生成するために第2のプロセスを使用して前記複数のMIDIイベントを処理し、前記複数の合成パラメータに基づいてハードウェアユニットを使用して複数のオーディオサンプルを生成するように構成された回路を提供する。
本開示の1つまたは複数の態様の詳細について添付の図面および以下の説明において述べる。他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになるであろう。
本開示の技法を実装することができる例示的なオーディオ装置を示すブロック図。 MIDIファイルの効率的な処理のためにパイプライン化できる、第1のプロセッサ(または第1のスレッド)、第2のプロセッサ(または第2のスレッド)、および楽器用デジタルインターフェース(MIDI)ハードウェアを示すブロック図。 MIDIハードウェアの一例のより詳細なブロック図。 本開示の教示に合致する例示的な技法を示す流れ図。
本開示では、楽器用デジタルインターフェース(MIDI)フォーマットに準拠するオーディオファイルを処理するための技法について説明する。本明細書で使用するMIDIファイルという用語は、MIDIフォーマットに適合する少なくとも1つのトラックを含む任意のファイルを指す。MIDIトラックを含み得る様々なファイルフォーマットの例としては、いくつか挙げると、CMX、SMAF、XMF、SP−MIDIがある。CMXは、クアルコム社によって開発されたCompact Media Extensionsの略である。SMAFは、ヤマハ株式会社によって開発されたSynthetic Music Mobile Application Formatの略である。XMFはeXtensible Music Formatの略であり、SP−MIDIはScalable Polyphony MIDIの略である。
以下でより詳細に説明するように、本開示は、MIDIファイル処理に関連する様々なタスクを、汎用プロセッサ上で動作するソフトウェアと、デジタル信号プロセッサ(DSP)に関連するファームウェアと、特にMIDIファイル処理用に設計された専用ハードウェアとの間に任せる技法を提供する。記載の技法は、MIDIファイルの処理において効率を改善するためにパイプライン化できる。
汎用プロセッサは、MIDIファイルを解析し、MIDIファイルに関連するMIDIイベントをスケジューリングするためのソフトウェアを実行することができる。次いで、スケジューリングされたイベントは、MIDIファイル中のタイミングパラメータによって指定されたように、同期方式でDSPによって処理される。汎用プロセッサは時間同期方式でMIDIイベントをDSPに送り、DSPはMIDI合成パラメータを生成するために時間同期スケジューリングに従ってMIDIイベントを処理する。次いで、DSPはハードウェアにおける合成パラメータの処理をスケジューリングし、ハードウェアユニットが合成パラメータに基づいてオーディオサンプルを生成することができる。
汎用プロセッサは第1のフレーム(フレームN)用の複数のMIDIファイルを処理することができ、第1のフレーム(フレームN)がDSPによって処理されるとき、同時に第2のフレーム(フレームN+1)が汎用プロセッサによって処理される。さらに、第1のフレーム(フレームN)がハードウェアによって処理されるとき、同時に第2のフレーム(フレームN+1)がDSPによって処理され、その間に第3のフレーム(フレームN+2)が汎用プロセッサによって処理される。このようにして、MIDIファイル処理は、同時に処理できるパイプライン化されたステージに分けられるので、効率を改善し、場合によっては、DSPに関連する計算リソースなど、所与のステージに必要な計算リソースを低減することができる。各フレームは、様々なパイプラインステージを通って、汎用プロセッサからDSPに、次いでハードウェアに到る。場合によっては、ハードウェアによって生成されたオーディオサンプルを、たとえば割込み駆動型技法によってDSPに戻すことができるので、任意の後処理を実行することができる。次いで、オーディオサンプルはアナログ信号に変換され、これを使用してスピーカを駆動し、オーディオサウンドをユーザに出力することができる。
代替的に、MIDIファイル処理に関連するタスクを、DSPおよび専用ハードウェアの2つの異なるスレッド間に任せることができる。すなわち、(本明細書に記載のように)汎用プロセッサに関連するタスクはマルチスレッドDSPの第1のスレッドによって代替的に実行できる。この場合、DSPの第1のスレッドはスケジューリングを実行し、DSPの第2のスレッドは合成パラメータを生成し、ハードウェアユニットは合成パラメータに基づいてオーディオサンプルを生成する。この代替例は、スケジューリング用の汎用プロセッサを使用する例と同様の方法でパイプライン化することもできる。
図1は、例示的なオーディオ装置4を示すブロック図である。オーディオ装置4は、複数のMIDIファイル、たとえば少なくとも1つのMIDIトラックを含む複数のファイルを処理することが可能な任意の装置を備えることができる。オーディオ装置4の例としては、無線電話機、ネットワーク電話などの無線通信装置、デジタル音楽プレーヤ、音楽シンセサイザ、無線モバイル装置、ダイレクト双方向通信装置(ウォーキートーキーと呼ばれることがある)、パーソナルコンピュータ、デスクトップまたはラップトップコンピュータ、ワークステーション、衛星ラジオ装置、相互通信方式装置、ラジオ放送装置、携帯ゲーム機、装置に取り付けられた回路基板、キオスク装置、テレビゲームコンソール、児童用の様々なコンピュータ化された玩具、自動車で使用されるオンボードコンピュータ、船舶または航空機、あるいは多種多様な他の装置がある。
図1に示す様々な構成要素は、本開示の諸態様を説明するために与えるものである。ただし、実装形態によっては、他の構成要素が存在することがあり、図示の構成要素のいくつかが含まれないことがある。たとえば、オーディオ装置4が無線電話機である場合、オーディオファイルの無線通信を可能にするためにアンテナ、送信機、受信機、およびモデム(変調復調器)を含めることができる。
図1の例に示すように、オーディオ装置4は、MIDIファイルを記憶するためのオーディオ記憶ユニット6を含む。ここでも、MIDIファイルは一般に、MIDIフォーマットで符号化された少なくとも1つのトラックを含むオーディオファイルを指す。オーディオ記憶ユニット6は任意の揮発性または不揮発性メモリあるいは記憶装置を備えることができる。本開示では、オーディオ記憶ユニット6は、MIDIファイルをプロセッサ8に転送する記憶ユニットとみなすことができ、すなわち、プロセッサ8は、MIDIファイルを処理するために、オーディオ記憶ユニット6からMIDIファイルを取り出す。もちろん、オーディオ記憶ユニット6は、デジタル音楽プレーヤに関連する記憶ユニット、または別の装置からの情報転送に関連する一時記憶ユニットでもよい。オーディオ記憶ユニット6は、データバスまたは他の接続を介してプロセッサ8に結合される別々の揮発性メモリチップまたは不揮発性記憶装置でもよい。オーディオ記憶ユニット6からの情報の転送を可能にするために、メモリまたは記憶装置コントローラ(図示せず)を含めることができる。
本開示によれば、装置4は、MIDI処理タスクをソフトウェア、ハードウェアおよびファームウェア間に振り分けるアーキテクチャを実現する。具体的には、装置4は、プロセッサ8、DSP12およびMIDIハードウェアユニット14を含む。これらの構成要素の各々は、たとえば直接にまたはバスを介してメモリユニット10に結合できる。プロセッサ8は、複数のMIDIファイルを解析し、該複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングするためのソフトウェアを実行する汎用プロセッサを備えることができる。スケジューリングされた複数のイベントは、DSP12に時間同期的に送り、それにより該複数のMIDIファイル中の複数のタイミングパラメータによって指定されたように、同期的にDSP12によって処理することができる。DSP12は、複数のMIDI合成パラメータを生成するために、汎用プロセッサ8によって作成された時間同期スケジューリングに従って、該複数のMIDIイベントを処理する。DSP12は、MIDIハードウェアユニット14によって該複数のMIDI合成パラメータの後続の処理をスケジューリングすることもできる。MIDIハードウェアユニット14は、該複数の合成パラメータに基づいて複数のオーディオサンプルを生成する。
プロセッサ8は、多種多様な汎用シングルチップまたはマルチチップマイクロプロセッサのいずれかを備えることができる。プロセッサ8は、CISC(複合命令セットコンピュータ)設計、またはRISC(縮小命令セットコンピュータ)設計を実装することができる。概して、プロセッサ8は、ソフトウェアを実行する中央処理装置(CPU)を備える。例としては、インテル社、アップル・コンピュータ社、サン・マイクロシステムズ社、アドバンスト・マイクロ・デバイセズ(AMD)社などの企業の16ビット、32ビットまたは64ビットマイクロプロセッサがある。他の例としては、インターナショナル・ビジネス・マシーンズ(IBM)社、レッドハット社などの企業のUnix(登録商標)またはLinux(登録商標)ベースのマイクロプロセッサがある。汎用プロセッサは、ARM社から市販されているARM9を備えることができ、DSPは、クアルコム社によって開発されたQDSP4 DSPを備えることができる。
プロセッサ8は第1のフレーム(フレームN)用のMIDIファイルを処理することができ、第1のフレーム(フレームN)がDSP12によって処理されるとき、同時に第2のフレーム(フレームN+1)がプロセッサ8によって処理される。第1のフレーム(フレームN)がMIDIハードウェアユニット14によって処理されるとき、同時に第2のフレーム(フレームN+1)がDSP12によって処理され、その間に第3のフレーム(フレームN+2)がプロセッサ8によって処理される。このようにして、MIDIファイル処理は、同時に処理できるパイプライン化されたステージに分けられるので、効率を改善し、場合によっては、所与のステージに必要な計算リソースを低減することができる。DSP12は、たとえば、プロセッサ8またはMIDIハードウェア14を用いずに完全なMIDIアルゴリズムを実行する従来のDSPと比較して簡略化することが可能である。
場合によっては、MIDIハードウェア14によって生成されたオーディオサンプルは、たとえば割込み駆動型技法によってDSP12に戻される。この場合、DSPはオーディオサンプルに対して後処理技法を実行することもできる。DAC16は、デジタルであるオーディオサンプルをアナログ信号に変換し、駆動回路18が、このアナログ信号を使用して、ユーザへのオーディオサウンドの出力用のスピーカ19Aおよび19Bを駆動する。
オーディオフレームごとに、プロセッサ8は、1つまたは複数のMIDIファイルを読み込み、このMIDIファイルから複数のMIDI命令を抽出することができる。これらの複数のMIDI命令に基づいて、プロセッサ8は、DSP12による処理用の複数のMIDIイベントをスケジューリングし、このスケジューリングに従ってDSP12に該複数のMIDIイベントを送出する。具体的には、プロセッサ8によるこのスケジューリングは、複数のMIDIイベントに関連するタイミングの同期を含むことができ、このMIDIイベントは、当該複数のMIDIファイル中で指定されたタイミングパラメータに基づいて識別できる。当該複数のMIDIファイル中の複数のMIDI命令は、特定のMIDIヴォイスの開始または停止を指示することができる。他のMIDI命令は、アフタータッチ効果、ブレスコントロール効果、プログラム変更、ピッチベンド効果、パンレフトまたはライトなどの制御メッセージ、サスティンペダル効果、メインボリューム制御、タイミングパラメータなどのシステムメッセージ、照明効果キューなどのMIDI制御メッセージ、および/または他のサウンド効果に関連することができる。複数のMIDIイベントをスケジューリングした後、プロセッサ8は、DSP12が当該複数のイベントを処理できるようにこのスケジューリングをメモリ10またはDSP12に提供することができる。代替として、プロセッサ8は、DSP12に当該複数のMIDIイベントを時間同期的に送ることによってこのスケジューリングを達成することができる。
メモリ10は、プロセッサ8、DSP12、およびMIDIハードウェア14が、これらの種々の構成要素に任せられた様々なタスクを実行するために必要な情報にアクセスできるように構成できる。場合によっては、メモリ10におけるMIDI情報の記憶領域の配置は、種々の構成要素8、12、および14から効率的にアクセスできるように構成できる。
DSP12は、スケジューリングされたMIDIイベントをプロセッサ8(またはメモリ10)から受け取ると、複数のMIDI合成パラメータを生成するために当該複数のMIDIイベントを処理することができ、この複数のMIDI合成パラメータはメモリ10に戻すことができる。ここでも、これらのMIDIイベントがDSPによって処理されるタイミングはプロセッサ8によってスケジューリングされ、これにより、DSP12がそのようなスケジューリングタスクを実行する必要がなくなるので、効率性が生じる。したがって、プロセッサ8が次のオーディオフレーム用の複数のMIDIイベントをスケジューリングしている間、DSP12は第1のオーディオフレーム用の複数のMIDIイベントを処理することができる。オーディオフレームは、いくつかのオーディオサンプルを含み得る時間のブロック、たとえば10ミリ秒(ms)の間隔を備えることができる。デジタル出力は、たとえば、アナログオーディオ信号に変換可能なフレーム当たり480個のサンプルを生じることがある。多くのイベントは、多くの音またはサウンドがMIDIフォーマットに従って時間の1つのインスタンス中に含まれるように時間の1つのインスタンスに対応する。もちろん、実装形態によって、任意のオーディオフレームに与えられる時間量、ならびにフレーム当たりのサンプル数は異なることがある。
DSP12が複数のMIDI合成パラメータを生成した後、MIDIハードウェアユニット14は、該複数の合成パラメータに基づいて複数のオーディオサンプルを生成する。DSP12は、MIDIハードウェアユニット14による該複数のMIDI合成パラメータの処理をスケジューリングすることができる。MIDIハードウェアユニット14によって生成された複数のオーディオサンプルは、一定の間隔をおいてサンプリングされるアナログ信号のデジタル表現であるパルス符号変調(PCM)サンプルを備えることができる。MIDIハードウェアユニット14による例示的なオーディオ生成の追加の詳細については、以下で図3を参照しながら説明する。
場合によっては、当該複数のオーディオサンプルに対して後処理を実行する必要があることがある。この場合、MIDIハードウェアユニット14は、そのような後処理を実行するようにDSP12に指示するために、割込みコマンドをDSP12に送信することができる。この後処理は、フィルタリング、スケーリング、音量調節、または最終的にサウンド出力を向上することができる多種多様なオーディオ後処理を含むことができる。
後処理の後、DSP12は後処理済みの複数のオーディオサンプルをデジタルアナログ変換器(DAC)16に出力することができる。DAC16は、デジタルオーディオ信号をアナログ信号に変換し、このアナログ信号を駆動回路18に出力する。駆動回路18は、この信号を増幅して1つまたは複数のスピーカ19Aおよび19Bを駆動して、可聴サウンドをつくり出すことができる。
図2は、MIDIファイルの効率的な処理のためにパイプライン化できる、第1のプロセッサ(または第1のスレッド)8B、第2のプロセッサ(または第2のスレッド)12B、およびMIDIハードウェアユニット14Bを示すブロック図である。プロセッサ(またはスレッド)8B、12BおよびMIDIハードウェアユニット14Bは、図1のプロセッサ8、DSP12およびユニット14に対応する。代替的に、要素8Bおよび12Bは、マルチスレッドDSPで実行される2つの異なる処理スレッド(異なるプロセス)に対応する。この場合、DSPの第1のスレッドはスケジューリングを実行し、DSPの第2のスレッドは合成パラメータを生成し、ハードウェアユニットは合成パラメータに基づいてオーディオサンプルを生成する。この代替例は、スケジューリング用の汎用プロセッサを使用する例と同様の方法でパイプライン化することもできる。
図2に示すように、第1のプロセッサ(またはスレッド)8Bはファイルパーサモジュール22およびイベントスケジューラモジュール24を実行する。ファイルパーサモジュール22は、スケジューリングする必要がある複数のMIDIファイル中の複数のMIDIイベントを特定するために、該複数のMIDIファイルを解析する。言い換えれば、ファイルパーサは、スケジューリングする必要がある複数のMIDIイベントを示す複数のタイミングパラメータを特定するために、当該複数のMIDIファイルを調査する。次いで、イベントスケジューラモジュール24は、第2のプロセッサ(またはスレッド)12Bによって処理するための複数のイベントをスケジューリングする。第1のプロセッサ(またはスレッド)8Bは、イベントスケジューラモジュール24によって定義されたように、時間同期方式で、スケジューリングされた複数のMIDIイベントを第2のプロセッサ(またはスレッド)12Bに送る。
第2のプロセッサ(またはスレッド)12Bは、MIDI合成モジュール25と、ハードウェアコントロールモジュール26と、後処理モジュール28とを含む。MIDI合成モジュール25は、第2のプロセッサ(またはスレッド)12Bに、複数のMIDIイベントに基づいて複数の合成パラメータを生成させる実行可能命令を備える。ただし、第1のプロセッサ(またはスレッド)8Bは、このスケジューリングタスクが第2のプロセッサ(またはスレッド)12Bによる合成パラメータの生成を遅らせないように、MIDIイベントをスケジューリングする。
ハードウェアコントロールモジュール26は、MIDIハードウェアユニット14の動作を制御するための、第2のプロセッサ(またはスレッド)12Bによって実行されるソフトウェア制御である。ハードウェアコントロールモジュール26は、MIDIハードウェアユニット14にコマンドを発行することができ、MIDIハードウェアユニット14による合成パラメータの処理をスケジューリングすることができる。後処理モジュール28は、MIDIハードウェアユニット14Bによって生成されるオーディオサンプルに対して任意の後処理を実行するために第2のプロセッサ(またはスレッド)12Bによって実行されるソフトウェアモジュールである。
第2のプロセッサ(またはスレッド)12Bが合成パラメータを生成した後、MIDIハードウェアユニット14Bが、これらの合成パラメータを使用してオーディオサンプルを作成し、このオーディオサンプルは後処理され、次いでそれを使用してスピーカを駆動することができる。特定のMIDIハードウェアユニット14Cの一実装形態のさらなる詳細については、以下で図3を参照しながら説明する。ただし、本開示の教示に合致する他のMIDIハードウェア実装形態を定義することもできる。たとえば、図3に示したMIDIハードウェアユニット14Cはヴォイス合成にウェーブテーブルベースの手法を使用するが、周波数変調合成手法を含む他の手法も使用できる。
重要なことには、図2に示す構成要素、すなわち、第1のプロセッサ(またはスレッド)8B、第2のプロセッサ(またはスレッド)12BおよびMIDIハードウェアユニット14Bは、パイプライン方式で機能する。具体的には、第1のフレーム(たとえばフレームN)がハードウェアユニット14Bによって処理されているとき、第2のフレーム(たとえばフレームN+1)が第2のプロセッサ(またはスレッド)12Bによって処理されており、第3のフレーム(たとえばフレームN+2)が第1のプロセッサ(またはスレッド)8Bによって処理される、というように、オーディオフレームはこの処理パイプラインを通って行く。3ステージ実装形態において汎用プロセッサ、DSPおよびMIDIハードウェアユニット(または代替的に第1のDSPスレッド、第2のDSPスレッドおよびMIDIハードウェアユニット)を使用するMIDIファイルのそのようなパイプライン処理は、MIDIファイルを含むオーディオフレームの処理に効率を与えることができる。
図3は、オーディオ装置4のオーディオハードウェアユニット14に対応する例示的なMIDIハードウェアユニット14Cを示すブロック図である。本開示の教示に合致する他のハードウェア実装形態を定義することもできるので、図3に示す実装形態は例にすぎない。図3の例に示すように、MIDIハードウェアユニット14Cは、データを送信および受信するためのバスインターフェース30を含む。たとえば、バスインターフェース30は、AMBA高性能バス(AHB)マスターインターフェース、AHBスレーブインターフェース、およびメモリバスインターフェースを含むことができる。AMBAはadvanced microprocessor bus architectureの略である。代替として、バスインターフェース30は、AXIバスインターフェース、または別のタイプのバスインターフェースを含むことができる。AXIはadvanced extensible interfaceの略である。
さらに、MIDIハードウェアユニット14Cは調整モジュール32を含むことができる。調整モジュール32はMIDIハードウェアユニット14C内のデータフローを調整する。MIDIハードウェアユニット14Cがオーディオサンプルの合成を開始するための命令をDSP12(図1)から受け取ると、調整モジュール32は、DSP12(図1)によって生成されたオーディオフレームの合成パラメータをメモリ10から読み込む。これらの合成パラメータはオーディオフレームを再構成するために使用できる。MIDIフォーマットの場合、合成パラメータは、所与のフレーム内の1つまたは複数のMIDIヴォイスの様々な音響特性を記述する。たとえば、MIDI合成パラメータのセットは、共鳴、残響、音量のレベル、および/または1つまたは複数のヴォイスに影響を及ぼし得る他の特性を指定することができる。
調整モジュール32の指示で、合成パラメータを、メモリ10(図1)から、それぞれの処理要素34Aまたは34Nに関連するヴォイスパラメータセット(VPS)RAM46Aまたは46Nにロードすることができる。DSP12(図1)の指示で、プログラム命令がメモリ10から、それぞれの処理要素34Aまたは34Nに関連するプログラムRAMユニット44Aまたは44Nにロードされる。
プログラムRAMユニット44Aまたは44Nにロードされた命令は、VPS RAMユニット46Aまたは46Nにおける合成パラメータのリスト中に示された複数のヴォイスのうちの1つを合成するように、関連する処理要素34Aまたは34Nに指示する。任意の数の処理要素34A〜34N(集合的に「処理要素34」)があってもよく、各処理要素は、数値演算を実行することが可能な1つまたは複数のALU、ならびにデータの読取りおよび書込み用の1つまたは複数のユニットを備えることができる。わかりやすいように、2つの処理要素34Aおよび34Nしか示していないが、より多くの処理要素をMIDIハードウェアユニット14C内に含めることができる。処理要素34は、互いに並列にヴォイスを合成することができる。具体的には、複数の様々な処理要素34は、並列に動作して異なる複数の合成パラメータを処理する。このようにして、MIDIハードウェアユニット14C内の複数の処理要素34は、オーディオサンプルの生成を促進し、場合によっては改善することができる。
調整モジュール32が処理要素34の1つに対し、ヴォイスを合成するように指示すると、それぞれの処理要素は、合成パラメータに関連する1つまたは複数の命令を実行することができる。ここでも、これらの命令はプログラムRAMユニット44Aまたは44N中にロードできる。プログラムRAMユニット44Aまたは44N中にロードされた命令は、処理要素34のそれぞれ1つにヴォイス合成の実行を行わせる。たとえば、処理要素34は、合成パラメータで指定された波形について波形フェッチユニット(WFU)36に要求を送ることができる。処理要素34の各々はWFU36を使用することができる。2つ以上の処理要素34がWFU36の使用を同時に要求した場合、調停方式を使用して競合を解決することができる。
処理要素34の1つからの要求に応答して、WFU36は1つまたは複数の波形サンプルを要求元の処理要素に返す。しかしながら、波は、たとえば最大で波の1周期だけサンプル内で位相シフトできるので、WFU36は、補間を使用して位相シフトを補正するために2つのサンプルを返すことができる。さらに、ステレオ信号は2つのステレオチャネル用に2つの別々の波を含むことができるので、WFU36は、異なるチャネルに対して別々のサンプルを返すことができ、たとえばステレオ出力用に最大で4つの別々のサンプルを生じる。
WFU36が処理要素34の1つにオーディオサンプルを返した後、それぞれの処理要素は、当該複数の合成パラメータに基づいて追加のプログラム命令を実行することができる。具体的には、命令は、処理要素34の1つに、MIDIハードウェアユニット14C中の低周波発振器(LFO)38に非対称三角波を要求させる。WFU36によって返された波形にLFO38によって返された三角波を乗算することによって、それぞれの処理要素は、所望のオーディオ効果を達成するためにその波形の様々な音響特性を操作することができる。たとえば、波形に三角波を乗算すると、より所望の楽器らしく聞こえる波形が生じることがある。
合成パラメータに基づいて実行される他の命令は、処理要素34の各々に、波形を特定の回数ループさせたり、波形の振幅を調整させたり、残響を追加させたり、ビブラート効果を追加させたり、あるいは他の効果を生じさせたりすることができる。このようにして、処理要素34は、1つのMIDIフレームの間存続するヴォイスの波形を計算することができる。最終的に、それぞれの処理要素は終了命令に遭遇する。処理要素34の1つが終了命令に遭遇すると、その処理要素は調整モジュール32にヴォイス合成の終了を信号送信する。次いで、計算されたヴォイス波形は、加算バッファ40にその計算されたヴォイス波形を記憶させる別の記憶命令の指示で、加算バッファ40に供給できる。計算されたヴォイス波形は、プログラム命令の実行中の別の記憶命令の指示で加算バッファ40に供給できる。これにより加算バッファ40は、その計算されたヴォイス波形を記憶する。
加算バッファ40は、処理要素34の1つから計算された波形(計算波形)を受け取ると、その計算波形を、MIDIフレームの全体的な波形に関連する時間の適切なインスタンスに追加する。したがって、加算バッファ40は複数の処理要素34の出力を組み合わせる。たとえば、加算バッファ40は、最初に平坦波(すなわち、すべてのデジタルサンプルが0である波)を記憶することができる。加算バッファ40は、処理要素34の1つから計算波形などのオーディオ情報を受け取ると、その計算波形の各デジタルサンプルを、加算バッファ40中に記憶された波形のそれぞれのサンプルに加算することができる。このようにして、加算バッファ40は、完全なオーディオフレームの波形の全体的なデジタル表現を蓄積し、記憶する。
加算バッファ40は、本質的に、処理要素34の様々な要素からの様々なオーディオ情報を加算する。この様々なオーディオ情報は、様々な生成されたヴォイスに関連する時間の様々なインスタンスを示す。このようにして、加算バッファ40は、所与のオーディオフレーム内の全体的なオーディオコンピレーションを代表する複数のオーディオサンプルを作成する。
処理要素34は、互いに並列に、しかも独立して動作することができる。すなわち、処理要素34の各々は、合成パラメータを処理し、次いで第1の合成パラメータのために生成されたオーディオ情報が加算バッファ40に追加された後、次の合成パラメータに移動する。したがって、処理要素34の各々は、他の処理要素34とは独立して1つの合成パラメータのためのその処理タスクを実行し、合成パラメータのための処理が完了したとき、そのそれぞれの処理要素は別の合成パラメータの後続の処理のために直ちに利用可能になる。
最終的に、調整モジュール32は、処理要素34が現在のオーディオフレームに必要なすべてのヴォイスの合成を完了し、それらのヴォイスを加算バッファ40に供給したことを判断する。この時点で、加算バッファ40は、現在のオーディオフレームの完成波形を示すデジタルサンプルを含んでいる。調整モジュール32は、この判断を行うと、DSP12(図1)に割込みを送信する。この割込みに応答して、DSP12は、加算バッファ40の内容を受け取る要求を、直接メモリ交換(DME)を介して加算バッファ40中の制御ユニット(図示せず)に送信することができる。代替として、DSP12は、DMEを実行するようにあらかじめプログラムしておくこともできる。次いで、DSP12は、複数のデジタルオーディオサンプルをアナログ領域への変換のためにDAC16に供給する前に、当該複数のデジタルオーディオサンプルに対して後処理を実行することができる。本開示によれば、フレームN+2に対してMIDIハードウェアユニット14Cによって実行される処理は、フレームN+1に対するDSP12(図1)による合成パラメータの生成、およびフレームNに対するプロセッサ8(図1)による動作のスケジューリングと同時に行われる。
図3にはキャッシュメモリ48、WFU/LFOメモリ39、およびリンクリストメモリ42も示されている。キャッシュメモリ48は、WFU36が迅速かつ効率的にベース波形をフェッチするために使用することができる。WFU/LFOメモリ39は、調整モジュール32がヴォイスパラメータセットの複数のヴォイスパラメータを記憶するために使用することができる。このように、WFU/LFOメモリ39は、波形フェッチユニット36およびLFO38の動作に専用のメモリとみなすことができる。リンクリストメモリ42は、DSP12によって生成された複数のヴォイスインジケータのリストを記憶するために使用されるメモリを備えることができる。当該複数のヴォイスインジケータは、メモリ10中に記憶された1つまたは複数の合成パラメータに対するポインタを備えることができる。リスト中の各ヴォイスインジケータは、それぞれのMIDIヴォイスに対するヴォイスパラメータセットを記憶するメモリ位置を指定することができる。図3に示す様々なメモリおよびメモリ構成は例にすぎない。本明細書に記載の技法は様々な他のメモリ構成を用いて実施できる。
本開示によれば、メモリ10(図1)中に記憶される異なる複数の合成パラメータに対して複数の処理要素34が同時に動作するという条件で、任意の数の処理要素34をMIDIハードウェアユニット14C中に含めることができる。たとえば、第1のオーディオ処理要素34Aが第1のオーディオ情報を生成するために第1のオーディオ合成パラメータを処理し、その間に別のオーディオ処理要素34Nが第2のオーディオ情報を生成するために第2のオーディオ合成パラメータを処理する。次いで、加算バッファ40は、1つまたは複数のオーディオサンプルの作成において第1および第2のオーディオ情報を組み合わせることができる。同様に、第3のオーディオ処理要素(図示せず)および第4の処理要素(図示せず)は第3および第4のオーディオ情報を生成するために第3および第4の合成パラメータを処理することができ、第3および第4のオーディオ情報はオーディオサンプルの作成において加算バッファ40に蓄積することもできる。
処理要素34は、オーディオフレーム用の合成パラメータのすべてを処理することができる。それぞれの合成パラメータを処理した後、処理要素34の各々は、その処理済みオーディオ情報を加算バッファ40中の蓄積に追加し、次いで次の合成パラメータに移動する。このようにして、処理要素34は、オーディオフレームの1つまたは複数のオーディオファイルのために生成された合成パラメータのすべてを処理するために集合的に動作する。次いで、オーディオフレームが処理され、加算バッファ中の複数のサンプルが後処理のためにDSP12に送信された後、処理要素34は、次のオーディオフレームの複数のオーディオファイル用の複数の合成パラメータの処理を開始することができる。
ここでも、第1のオーディオ処理要素34Aが第1のオーディオ情報を生成するために第1のオーディオ合成パラメータを処理し、その間に第2のオーディオ処理要素34Nが第2のオーディオ情報を生成するために第2のオーディオ合成パラメータを処理する。この時点で、第1の処理要素34Aが第3のオーディオ情報を生成するために第3のオーディオ合成パラメータを処理し、その間に第2のオーディオ処理要素34Nが第4のオーディオ情報を生成するために第4のオーディオ合成パラメータを処理する。加算バッファ40は、1つまたは複数のオーディオサンプルの作成において第1、第2、第3および第4のオーディオ情報を組み合わせることができる。
図4は、本開示の教示に合致する例示的な技法を示す流れ図である。図4について図1の装置4を参照しながら説明するが、他の装置が図4の技法を実装することもできる。図4に示されたステージ1および2はマルチスレッドDSPの2つの異なるスレッドによって代替的に実行できる。
図4に示すように、第1のオーディオフレームNから始まり(51)、プロセッサ8上で実行するソフトウェアがMIDIファイルを解析し(52)、MIDIイベントをスケジューリングする(53)。スケジューリングされたイベントは、スケジュールとともに記憶されるか、またはスケジューリングに従ってDSP12に送られる。いずれの場合も、DSP12は、複数の合成パラメータを生成するためにフレームN用の複数のMIDIイベントを処理する(56)。
この時点で、DSP12がフレームN用のMIDIイベントを処理している(56)間、オーディオシーケンス中にさらなるフレームがある場合(54のはいの分岐)、プロセッサ8上で実行するソフトウェアは、次のフレーム、すなわちフレームN+1の処理を開始する(55)。したがって、DSP12がフレームN用のMIDIイベントを処理している(56)間、プロセッサ8上で実行するソフトウェアは、フレームN+1用の複数のMIDIファイルを解析し(52)、フレームN+1用の複数のMIDIイベントをスケジューリングする(53)。言い換えれば、ステージ1および2はフレームNおよびフレームN+1に対して同時に実行される。
次に、MIDIハードウェアユニット14はフレームN用の複数のオーディオサンプルを生成する(57)。この時点で、DSPはフレームN+1用のMIDIイベントを処理しており(56)、プロセッサ8上で実行するソフトウェアは、フレームN+2用の複数のMIDIファイルを解析し(52)、フレームN+2用の複数のMIDIイベントをスケジューリングしている(53)。言い換えれば、ステージ1、2および3は、フレームN、フレームN+1およびフレームN+2に対して同時に実行される。この段階的手法は、複数のオーディオフレームがパイプライン式にステージ1、2および3を通過するように後続のオーディオフレームごとに続く。フレームN+1がハードウェアユニット14によって処理されるとき、フレームN+2がDSP12によって処理され、フレームN+3が汎用プロセッサ8によって処理される。フレームN+2がハードウェアユニット14によって処理されるとき、フレームN+3がDSP12によって処理され、フレームN+4が汎用プロセッサ8によって処理され、以下同様である。
複数のオーディオサンプルが所与のフレーム用に生成された後(57)、そのフレームに対して後処理を実行することができる(58)。DSP12は、ハードウェアユニット14からの割込みコマンドに応答して任意の後処理を実行することができる。このようにして、DSP12は、MIDIイベントの処理だけでなく、生成されたオーディオフレームに対して実行する必要がある任意の後処理をも扱う。
任意のフレームに対する後処理(58)の後、DAC16はフレーム用の複数のオーディオサンプルをアナログオーディオ信号に変換し(59)、駆動回路18に供給できる。駆動回路18は、アナログオーディオ信号を使用してスピーカ19Aおよび19Bに音を出力させる(60)駆動信号を生成する。
様々な例について説明した。本明細書に記載の技法の1つまたは複数の態様は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組合せで実装できる。モジュールまたは構成要素として説明したいかなる特徴も、集積論理装置中で一緒に実装でき、または個別であるが相互運用可能な論理装置として別々に実装できる。ソフトウェアで実装した場合、これらの技術の1つまたは複数の態様は、実行されると、上記の方法の1つまたは複数を実行する命令を備えるコンピュータ読み取り可能な媒体によって少なくとも部分的に実現できる。コンピュータ読み取り可能なデータ記憶媒体は、パッケージ材料を含むことがあるコンピュータプログラム製品の一部をなすことができる。コンピュータ読み取り可能な媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリ、磁気または光データ記憶媒体などを備えることができる。本技法は、追加または代替として、命令またはデータ構造の形態で符号を搬送または伝達し、コンピュータによってアクセス、読込み、および/または実行できるコンピュータ読み取り可能な通信媒体によって、少なくとも部分的に実現できる。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)など1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価な集積または個別論理回路によって実行できる。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書に記載の技法の実装に好適な他の構造のいずれかを指す。さらに、いくつかの態様では、本明細書に記載の機能を、本開示の技法を実施するように構成または適合された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供することができる。
ハードウェアで実装した場合、本開示の1つまたは複数の態様は、本明細書に記載の技法の1つまたは複数を実施するように構成または適合された、集積回路、チップセット、ASIC、FPGA、論理回路、またはそれらの様々な組合せなどの回路を対象とすることができる。回路は、本明細書に記載のように、プロセッサと1つまたは複数のハードウェアユニットの両方を集積回路またはチップセット中に含むことができる。
また、回路は上記の機能の一部または全部を実装できることを、当業者は認識するであろうことに留意されたい。すべての機能を実装する1つの回路があってもよく、あるいはそれらの機能を実装する回路の複数のセクションがあってもよい。現在のモバイルプラットホーム技術を用いれば、集積回路は、少なくとも1つのDSP、および1つまたは複数のDSPの制御および/または1つまたは複数のDSPへの通信を行うための少なくとも1つの高度縮小命令セットコンピュータ(RISC)マシン(ARM)プロセッサを備えることができる。さらに、回路は、いくつかのセクション中に設計または実装でき、場合によっては、セクションは、本開示に記載の異なる機能を実施するために再使用できる。
様々な態様および例について説明した。ただし、以下の特許請求の範囲を逸脱することなく本開示の構成または技法に改変を加えることが可能である。たとえば、他のタイプの装置でも本明細書に記載のMIDI処理技法を実装することができる。また、図3に示した例示的なMIDIハードウェアユニット14Cは、ヴォイス合成にウェーブテーブルベースの手法を使用するが、周波数変調合成手法を含む他の手法も使用できる。これらおよび他の実施形態は以下の特許請求の範囲の範囲内にある。

Claims (48)

  1. 第1のプロセスを使用して、複数のMIDI(Musical Instrument Digital Interface)ファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングすること、
    複数のMIDI合成パラメータを生成するために、第2のプロセスを使用して、前記複数のMIDIイベントを処理すること、及び
    前記複数の合成パラメータに基づいて、ハードウェアユニットを使用して複数のオーディオサンプルを生成すること、
    を含む方法。
  2. 前記第1のプロセスはプロセッサによって実行され、前記第2のプロセスはデジタル信号プロセッサ(DSP)によって実行される、請求項1記載の方法。
  3. 前記第1のプロセスはデジタル信号プロセッサ(DSP)の第1のスレッドによって実行され、前記第2のプロセスは前記DSPの第2のスレッドによって実行される、請求項1記載の方法。
  4. 前記方法はパイプライン方式で実行される、請求項1記載の方法。
  5. 同時に、
    前記第1のプロセスが、(N+2)番目のフレーム用に、複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記第2のプロセスが、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェアユニットが、(N)番目のフレーム用の複数のオーディオサンプルを生成する、
    請求項4記載の方法。
  6. 前記複数のオーディオサンプルは、複数のパルス符号変調(PCM)サンプルを含む、請求項1記載の方法。
  7. 前記複数のオーディオサンプルは複数のデジタルサンプルを含み、
    前記方法は、さらに、
    前記複数のオーディオサンプルをアナログ出力に変換すること、及び
    前記アナログ出力をユーザに出力すること、
    を含む、請求項1記載の方法。
  8. 前記複数のMIDIファイルは、MIDIフォーマットに適合する少なくとも1つのトラックを含む複数のファイルを含む、請求項1記載の方法。
  9. 前記複数のMIDIイベントをスケジューリングすることは、前記複数のMIDIファイル中で指定された複数のタイミングパラメータに基づいて、前記複数のMIDIイベントのタイミングの同期をとることを含む、請求項1記載の方法。
  10. 前記第1のプロセスは、時間同期方式で前記複数のMIDIイベントを前記第2のプロセスに送る、請求項1記載の方法。
  11. 前記第2のプロセスは、前記ハードウェアユニットによる前記複数の合成パラメータの処理をスケジューリングする、請求項1記載の方法。
  12. 前記複数のオーディオサンプルを後処理することをさらに含む、請求項1記載の方法。
  13. 前記ハードウェアユニットは、前記後処理を開始するために割込みを発行する、請求項12記載の方法。
  14. 前記ハードウェアユニットは、異なる複数の合成パラメータを処理するために並列に動作する複数の処理要素を含む、請求項1記載の方法。
  15. 前記ハードウェアユニットは、前記複数の処理要素の出力を組み合わせる加算バッファをさらに含む、請求項14記載の方法。
  16. 複数のMIDI(Musical Instrument Digital Interface)ファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングするためのソフトウェアを実行するプロセッサと、
    前記複数のMIDIイベントを処理し、複数のMIDI合成パラメータを生成するデジタル信号プロセッサ(DSP)と、
    前記複数の合成パラメータに基づいて、複数のオーディオサンプルを生成するハードウェアユニットと、
    を備える装置。
  17. 前記プロセッサと前記DSPと前記ハードウェアユニットとがパイプライン方式で動作する、請求項16記載の装置。
  18. 同時に、
    前記プロセッサが、(N+2)番目のフレーム用に、複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記DSPが、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェアユニットが、(N)番目のフレーム用の複数のオーディオサンプルを生成する、請求項17記載の装置。
  19. 前記複数のオーディオサンプルは、複数のパルス符号変調(PCM)サンプルを含む、請求項16記載の装置。
  20. 前記複数のオーディオサンプルは、複数のデジタルオーディオサンプルを含み、
    前記装置は、さらに、
    前記複数のオーディオサンプルをアナログ出力に変換するデジタルアナログ変換器と、
    前記アナログ出力を増幅する駆動回路と、
    前記増幅されたアナログ出力をユーザに出力する1つまたは複数のスピーカと、
    を含む、請求項16記載の装置。
  21. 前記MIDIファイルは、MIDIフォーマットに適合する少なくとも1つのトラックを含む複数のファイルを含む、請求項16記載の装置。
  22. 前記プロセッサは、前記複数のMIDIファイル中で指定されたタイミングパラメータに基づいて前記複数のMIDIイベントのタイミングの同期をとるための前記ソフトウェアを実行する、請求項16記載の装置。
  23. 前記プロセッサは、時間同期方式で前記複数のMIDIイベントを前記DSPに送る、請求項16記載の装置。
  24. 前記DSPは、前記ハードウェアユニットによる前記複数の合成パラメータの処理をスケジューリングする、請求項16記載の装置。
  25. 前記DSPが前記複数のオーディオサンプルを後処理する、請求項16記載の装置。
  26. 前記ハードウェアユニットは、前記後処理を開始するために前記DSPに対して割込みを発行する、請求項25記載の装置。
  27. 前記ハードウェアユニットは、異なる複数の合成パラメータを処理するために並列に動作する複数の処理要素を含む、請求項16記載の装置。
  28. 前記ハードウェアユニットが、前記複数の処理要素の出力を組み合わせる加算バッファをさらに含む、請求項27記載の装置。
  29. 複数のMIDI(Musical Instrument Digital Interface)ファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングするためのソフトウェア手段と、
    複数のMIDI合成パラメータを生成するために前記複数のMIDIイベントを処理するためのファームウェア手段と、
    前記複数の合成パラメータに基づいて、複数のオーディオサンプルを生成するためのハードウェア手段と、
    を備える装置。
  30. 前記ソフトウェア手段と前記ファームウェア手段と前記ハードウェア手段とがパイプライン方式で動作する、請求項29記載の装置。
  31. 同時に、
    前記ソフトウェア手段が、(N+2)番目のフレーム用に、複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記ファームウェア手段が、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェア手段が、(N)番目のフレーム用の複数のオーディオサンプルを生成する、請求項30記載の装置。
  32. 前記複数のオーディオサンプルが、複数のパルス符号変調(PCM)サンプルを含む、請求項29記載の装置。
  33. 前記複数のオーディオサンプルが複数のデジタルオーディオサンプルを含み、
    前記方法は、さらに、
    前記複数のオーディオサンプルをアナログ出力に変換するための手段と、
    前記アナログ出力をユーザに出力するための手段と、
    を備える、請求項29記載の装置。
  34. 前記MIDIファイルは、MIDIフォーマットに適合する少なくとも1つのトラックを含む複数のファイルを備える、請求項29記載の装置。
  35. 前記ソフトウェア手段は、前記複数のMIDIファイル中で指定された複数のタイミングパラメータに基づいて前記複数のMIDIイベントのタイミングの同期をとる、請求項29記載の装置。
  36. 前記ソフトウェア手段は、時間同期方式で前記複数のMIDIイベントを前記ファームウェア手段に送る、請求項29記載の装置。
  37. 前記ファームウェア手段は、前記ハードウェア手段による前記複数の合成パラメータの処理をスケジューリングする、請求項29記載の装置。
  38. 前記ファームウェア手段は、前記DSPを使用して前記複数のオーディオサンプルを後処理する、請求項29記載の装置。
  39. 前記ハードウェア手段は、前記後処理を開始するために前記ファームウェア手段に対して割込みを発行する、請求項38記載の装置。
  40. 前記ハードウェア手段は、異なる複数の合成パラメータを処理するために並列に動作する複数の処理要素を含む、請求項29記載の装置。
  41. 前記ハードウェア手段が、前記複数の処理要素の出力を組み合わせる加算バッファをさらに含む、請求項40記載の装置。
  42. 複数のMIDI(Musical Instrument Digital Interface)ファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングする第1のスレッドと、前記複数のMIDIイベントを処理し、複数のMIDI合成パラメータを生成する第2のスレッドと、を含むマルチスレッドデジタル信号プロセッサ(DSP)と、
    前記複数の合成パラメータに基づいて、複数のオーディオサンプルを生成するハードウェアユニットと、
    を備える装置。
  43. 前記第1のスレッドと前記第2のスレッドと前記ハードウェアユニットとがパイプライン方式で動作する、請求項42記載の装置。
  44. 同時に、
    前記第1のスレッドが、(N+2)番目のフレーム用に複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記第2のスレッドが、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェアユニットが、(N)番目のフレーム用の複数のオーディオサンプルを生成する、請求項43記載の装置。
  45. 1つまたは複数のプロセッサによる実行時に、前記1つまたは複数のプロセッサに、
    第1のプロセスを使用して、複数のMIDI(Musical Instrument Digital Interface)ファイルをパースし、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングさせ、
    複数のMIDI合成パラメータを生成するために第2のプロセスを使用して前記複数のMIDIイベントを処理させ、
    前記複数の合成パラメータに基づいてハードウェアユニットを使用して複数のオーディオサンプルを生成させる、命令を含むコンピュータ読み取り可能な媒体。
  46. 同時に、
    前記第1のプロセスが、(N+2)番目のフレーム用に複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記第2のプロセスが、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェアユニットが、(N)番目のフレーム用の複数のオーディオサンプルを生成する、請求項45記載のコンピュータ読み取り可能な媒体。
  47. 第1のプロセスを使用して、複数のMIDI(Musical Instrument Digital Interface)ファイルを解析し、前記複数のMIDIファイルに関連する複数のMIDIイベントをスケジューリングし、
    複数のMIDI合成パラメータを生成するために第2のプロセスを使用して前記複数のMIDIイベントを処理し、
    前記複数の合成パラメータに基づいてハードウェアユニットを使用して複数のオーディオサンプルを生成するように構成された回路。
  48. 同時に、
    前記第1のプロセスが、(N+2)番目のフレーム用に複数のMIDIファイルを解析し、複数のMIDIイベントをスケジューリングし、
    前記第2のプロセスが、(N+1)番目のフレーム用の複数のMIDI合成パラメータを生成し、
    前記ハードウェアユニットが、(N)番目のフレーム用の複数のオーディオサンプルを生成する、請求項47記載の回路。
JP2010501078A 2007-03-22 2008-03-17 楽器用デジタルインターフェース(midi)ファイルを処理するためのパイプライン技法 Pending JP2010522364A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US89645507P 2007-03-22 2007-03-22
US12/042,170 US7663046B2 (en) 2007-03-22 2008-03-04 Pipeline techniques for processing musical instrument digital interface (MIDI) files
PCT/US2008/057271 WO2008118675A1 (en) 2007-03-22 2008-03-17 Pipeline techniques for processing musical instrument digital interface (midi) files

Publications (1)

Publication Number Publication Date
JP2010522364A true JP2010522364A (ja) 2010-07-01

Family

ID=39773424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010501078A Pending JP2010522364A (ja) 2007-03-22 2008-03-17 楽器用デジタルインターフェース(midi)ファイルを処理するためのパイプライン技法

Country Status (7)

Country Link
US (1) US7663046B2 (ja)
EP (1) EP2126893A1 (ja)
JP (1) JP2010522364A (ja)
KR (1) KR20090130863A (ja)
CN (1) CN101636780A (ja)
TW (1) TW200847129A (ja)
WO (1) WO2008118675A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663046B2 (en) * 2007-03-22 2010-02-16 Qualcomm Incorporated Pipeline techniques for processing musical instrument digital interface (MIDI) files
US9348775B2 (en) 2012-03-16 2016-05-24 Analog Devices, Inc. Out-of-order execution of bus transactions
US10983842B2 (en) 2019-07-08 2021-04-20 Microsoft Technology Licensing, Llc Digital signal processing plug-in implementation

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114462A (ja) * 1995-10-23 1997-05-02 Yamaha Corp 楽音発生方法
JPH09146556A (ja) * 1995-09-20 1997-06-06 Yamaha Corp 楽音発生方法
JPH11126070A (ja) * 1997-10-21 1999-05-11 Yamaha Corp 楽音生成方法
JPH11133968A (ja) * 1997-10-31 1999-05-21 Yamaha Corp 波形サンプリング装置
JP2001092464A (ja) * 1999-09-27 2001-04-06 Yamaha Corp 楽音生成方法、楽音生成用データ記録方法および楽音生成用データを記録した記録媒体
JP2002123257A (ja) * 2000-10-18 2002-04-26 Korg Inc 楽音再生装置
JP2002182646A (ja) * 2000-12-19 2002-06-26 Yamaha Corp 音源付き記憶装置
JP2003044052A (ja) * 2001-07-26 2003-02-14 Kawai Musical Instr Mfg Co Ltd 電子楽器の音量制御装置
JP2003271406A (ja) * 2002-03-12 2003-09-26 Yamaha Corp データ処理装置およびデータ処理方法ならびにそのプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5865492A (ja) * 1981-10-15 1983-04-19 ヤマハ株式会社 電子楽器
US4611522A (en) * 1984-04-10 1986-09-16 Nippon Gakki Seizo Kabushiki Kaisha Tone wave synthesizing apparatus
US4966053A (en) * 1987-06-26 1990-10-30 John Dornes Music synthesizer with multiple movable bars
JPH02208697A (ja) * 1989-02-08 1990-08-20 Victor Co Of Japan Ltd Midi信号誤動作防止方式及びmidi信号記録再生装置
JP2538668Y2 (ja) * 1990-03-02 1997-06-18 ブラザー工業株式会社 メッセージ機能付き音楽再生装置
US5117726A (en) * 1990-11-01 1992-06-02 International Business Machines Corporation Method and apparatus for dynamic midi synthesizer filter control
US5747714A (en) * 1995-11-16 1998-05-05 James N. Kniest Digital tone synthesis modeling for complex instruments
US5917917A (en) * 1996-09-13 1999-06-29 Crystal Semiconductor Corporation Reduced-memory reverberation simulator in a sound synthesizer
US6105119A (en) * 1997-04-04 2000-08-15 Texas Instruments Incorporated Data transfer circuitry, DSP wrapper circuitry and improved processor devices, methods and systems
US5811706A (en) * 1997-05-27 1998-09-22 Rockwell Semiconductor Systems, Inc. Synthesizer system utilizing mass storage devices for real time, low latency access of musical instrument digital samples
US6093880A (en) * 1998-05-26 2000-07-25 Oz Interactive, Inc. System for prioritizing audio for a virtual environment
US6150599A (en) * 1999-02-02 2000-11-21 Microsoft Corporation Dynamically halting music event streams and flushing associated command queues
US6787689B1 (en) * 1999-04-01 2004-09-07 Industrial Technology Research Institute Computer & Communication Research Laboratories Fast beat counter with stability enhancement
US6665409B1 (en) * 1999-04-12 2003-12-16 Cirrus Logic, Inc. Methods for surround sound simulation and circuits and systems using the same
JP3674407B2 (ja) * 1999-09-21 2005-07-20 ヤマハ株式会社 演奏データ編集装置、方法及び記録媒体
US20020103552A1 (en) * 2000-12-04 2002-08-01 Mike Boucher Method and apparatus to reduce processing requirements for the playback of complex audio sequences
US7107110B2 (en) * 2001-03-05 2006-09-12 Microsoft Corporation Audio buffers with audio effects
US6970822B2 (en) * 2001-03-07 2005-11-29 Microsoft Corporation Accessing audio processing components in an audio generation system
US6806412B2 (en) * 2001-03-07 2004-10-19 Microsoft Corporation Dynamic channel allocation in a synthesizer component
WO2002077585A1 (en) * 2001-03-26 2002-10-03 Sonic Network, Inc. System and method for music creation and rearrangement
US7065380B2 (en) * 2001-07-19 2006-06-20 Texas Instruments Incorporated Software partition of MIDI synthesizer for HOST/DSP (OMAP) architecture
US6683241B2 (en) * 2001-11-06 2004-01-27 James W. Wieder Pseudo-live music audio and sound
US7363095B2 (en) * 2003-10-08 2008-04-22 Nokia Corporation Audio processing system
US20050185541A1 (en) * 2004-02-23 2005-08-25 Darren Neuman Method and system for memory usage in real-time audio systems
KR20050087368A (ko) * 2004-02-26 2005-08-31 엘지전자 주식회사 무선 단말기의 벨소리 처리 장치
KR100694395B1 (ko) * 2004-03-02 2007-03-12 엘지전자 주식회사 웨이브 테이블 기반의 미디 합성 방법
KR100636906B1 (ko) * 2004-03-22 2006-10-19 엘지전자 주식회사 미디 재생 장치 그 방법
JP2008518248A (ja) * 2004-10-22 2008-05-29 エルジー エレクトロニクス インコーポレイテッド Midiファイルを再生する装置及び方法
KR100598209B1 (ko) * 2004-10-27 2006-07-07 엘지전자 주식회사 Midi 재생 장치 및 방법
KR100689495B1 (ko) * 2004-12-14 2007-03-02 엘지전자 주식회사 Midi 재생 장치 및 방법
KR100655548B1 (ko) * 2004-12-15 2006-12-08 엘지전자 주식회사 미디 합성 방법
US7663046B2 (en) * 2007-03-22 2010-02-16 Qualcomm Incorporated Pipeline techniques for processing musical instrument digital interface (MIDI) files

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146556A (ja) * 1995-09-20 1997-06-06 Yamaha Corp 楽音発生方法
JPH09114462A (ja) * 1995-10-23 1997-05-02 Yamaha Corp 楽音発生方法
JPH11126070A (ja) * 1997-10-21 1999-05-11 Yamaha Corp 楽音生成方法
JPH11133968A (ja) * 1997-10-31 1999-05-21 Yamaha Corp 波形サンプリング装置
JP2001092464A (ja) * 1999-09-27 2001-04-06 Yamaha Corp 楽音生成方法、楽音生成用データ記録方法および楽音生成用データを記録した記録媒体
JP2002123257A (ja) * 2000-10-18 2002-04-26 Korg Inc 楽音再生装置
JP2002182646A (ja) * 2000-12-19 2002-06-26 Yamaha Corp 音源付き記憶装置
JP2003044052A (ja) * 2001-07-26 2003-02-14 Kawai Musical Instr Mfg Co Ltd 電子楽器の音量制御装置
JP2003271406A (ja) * 2002-03-12 2003-09-26 Yamaha Corp データ処理装置およびデータ処理方法ならびにそのプログラム

Also Published As

Publication number Publication date
KR20090130863A (ko) 2009-12-24
TW200847129A (en) 2008-12-01
US7663046B2 (en) 2010-02-16
US20080229918A1 (en) 2008-09-25
WO2008118675A1 (en) 2008-10-02
CN101636780A (zh) 2010-01-27
EP2126893A1 (en) 2009-12-02

Similar Documents

Publication Publication Date Title
JP5134078B2 (ja) 楽器ディジタルインタフェースハードウエア命令
KR101120969B1 (ko) 오디오 장치에서 기준 파형들을 취출하기 위한 대역폭 제어
KR101108460B1 (ko) 오디오 파일을 프로세싱하는 파형 페치 유닛
JP2013152477A (ja) 電子楽器デジタルインターフェースハードウェア命令セット
JP2010522364A (ja) 楽器用デジタルインターフェース(midi)ファイルを処理するためのパイプライン技法
JP2010522362A5 (ja)
US7723601B2 (en) Shared buffer management for processing audio files
US7893343B2 (en) Musical instrument digital interface parameter storage
US7663051B2 (en) Audio processing hardware elements
US7687703B2 (en) Method and device for generating triangular waves

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108