JP6056437B2 - 音データ処理装置及びプログラム - Google Patents

音データ処理装置及びプログラム Download PDF

Info

Publication number
JP6056437B2
JP6056437B2 JP2012268640A JP2012268640A JP6056437B2 JP 6056437 B2 JP6056437 B2 JP 6056437B2 JP 2012268640 A JP2012268640 A JP 2012268640A JP 2012268640 A JP2012268640 A JP 2012268640A JP 6056437 B2 JP6056437 B2 JP 6056437B2
Authority
JP
Japan
Prior art keywords
data
input
rhythm
pattern
rhythm pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012268640A
Other languages
English (en)
Other versions
JP2014044386A (ja
Inventor
大地 渡邉
大地 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012268640A priority Critical patent/JP6056437B2/ja
Publication of JP2014044386A publication Critical patent/JP2014044386A/ja
Application granted granted Critical
Publication of JP6056437B2 publication Critical patent/JP6056437B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、演奏操作等に基づいて音データを処理する音データ処理装置、及び、コンピュータを当該音データ処理装置として機能させるプログラムに関する。
各々異なる複数の伴奏音源を組み合わせて再生させる技術が知られている。例えば、特許文献1には、ユーザが、文字列や論理演算子などのテキスト入力を用いて複数のパートの各々について伴奏パターンを検索し、検索結果を複数パートについて組み合わせることで、複数のパートの伴奏パターンの合奏による自動伴奏が可能な技術が開示されている。また、特許文献2には、マルチトラック・ディジタル録音再生装置において、録音トラック数を自由に設定できるとともに、その録音トラック数の設定に応じて最大限使用可能な再生トラック数での再生を行える技術が開示されている。
特許第2550825号公報 特許第3480433号公報
しかしながら、特許文献1に記載の検索方法では、ユーザは、テキストの入力によって検索対象の伴奏パターンを検索するため、リズムやメロディのパターンを直感的あるいは体感的に入力することができない。ユーザが、伴奏音源を検索するにあたり、検索対象のリズムやメロディのパターンをより直感的に入力することが可能であると、ユーザにとってより操作性が高いものとなる。
本発明は上述の背景に鑑みてなされたものであり、選択されたパートについてユーザが意図する楽音等の音のパターンに基づいて検索された自動伴奏等に関する音データのうち、少なくともユーザの意図する音のパターンに対し所定の条件に合う音データを特定することを目的とする。
上述の課題を解決するため、本発明に係る音データ処理装置は、複数の演奏パートのなかから選択された特定パートについて入力パターンを取得するパターン取得手段と、前記複数の演奏パートをそれぞれ個別の音のデータで構成し、その音のデータを組み合わせた音データを複数記憶したデータベースを検索して、前記音データに含まれる前記特定パートの音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する検索手段と、前記取得された検索結果のうち、前記特定パートの音のパターンが所定の範囲に入る楽音データを特定する特定手段とを備えることを特徴とする。
好ましい態様において、前記特定パートをユーザの指定に基づいて選択するパート選択手段を備え、前記検索手段は、前記パート選択手段によって選択された特定パートについて前記音データを検索して、前記音データが示す音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得することを特徴とする。
また別の好ましい態様において、ユーザにより指定されたコードの入力を受け付けるコード受付手段を備え、その演奏パートがコードである前記音のデータを含む音データは楽音のコードを識別するコード識別情報と対応付けられており、前記検索手段は、前記特定パートがコードである場合、前記コード受付手段により入力が受け付けられたコードを識別するコード識別情報と対応付けられた前記音データを検索して、当該音データが示す音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得することを特徴とする。
また別の好ましい態様において、前記ユーザによって指定された音の音高を表す音高情報の入力を受け付ける音高受付手段と、前記特定手段により特定された音データのなかの一つを出力する出力手段とを備え、前記音データは楽音の調性の基音の音高を表すキー情報と対応付けられており、前記出力手段は、前記特定された音データが示す楽音を、当該音データに対応付けられたキー情報が表す調性の基音の音高を前記音高受付手段により受け付けられた音高情報が表す音高に応じてシフトして出力することを特徴とする。
また別の好ましい態様において、前記期間における指定時刻を時間経過に伴って進行させるとともに、当該指定時刻をユーザに通知する通知手段を備え、前記パターン取得手段は、前記通知手段により前記指定時刻が通知されているときにユーザによって入力された操作に基づいて、当該操作のパターンに対応する前記指定時刻の並びを表す入力パターンを取得するものであることを特徴とする。
また、本発明は、コンピュータを、複数の演奏パートのなかから選択された特定パートについて入力パターンを取得するパターン取得手段と、前記複数の演奏パートをそれぞれ個別の音のデータで構成し、その音のデータを組み合わせた音データを複数記憶したデータベースを検索して、前記音データに含まれる前記特定パートの楽音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する検索手段と、前記取得された検索結果のうち、前記特定パートの音のパターンが所定の範囲に入る音データを特定する特定手段として機能させるためのプログラムを提供する。
さらに、本発明は、複数の演奏パートの中から選択された特定パートについて、リズムのパターンを示す入力データを取得する取得手段と、前記複数の演奏パートの各々について1以上の音データおよび当該音データにおけるリズムのパターンを示す参照データが登録されたデータベースから、前記入力データと前記参照データとの比較結果に基づいて、1以上の音データおよび当該音データに対応する参照データを検索結果として取得する検索手段と、前記検索結果に含まれる参照データに対する編集指示を受け付ける受け付け手段と、前記編集指示に応じて編集された参照データに対応する楽音を再生する再生手段とを有する音データ編集装置を提供する。
好ましい態様において、前記再生手段は、前記楽音を繰り返し再生してもよい。
別の好ましい態様において、この音データ編集装置は、前記編集指示に応じて編集された参照データに対応する音データを生成する生成手段を有し、前記再生手段は、前記生成手段により生成された音データに基づいて、前記楽音を再生してもよい。
さらに別の好ましい態様において、この音データ編集装置は、前記編集指示に応じて編集された参照データおよび当該参照データに対応して前記生成手段により生成された音データの組を前記データベースに登録する登録手段を有してもよい。
さらに、本発明は、コンピュータに、複数の演奏パートの中から選択された特定パートについて、リズムのパターンを示す入力データを取得するステップと、前記複数の演奏パートの各々について1以上の音データおよび当該音データにおけるリズムのパターンを示す参照データが登録されたデータベースから、前記入力データと前記参照データとの比較結果に基づいて、1以上の音データおよび当該音データに対応する参照データを検索結果として取得するステップと、前記検索結果に含まれる参照データに対する編集指示を受け付けるステップと、前記編集指示に応じて編集された参照データに対応する楽音を再生するステップとを実行させるためのプログラムを提供する。
本発明によれば、選択されたパートについてユーザが意図する楽音のパターンに基づいて検索された自動伴奏等に関する音データのうち、少なくともユーザの意図する音パターンに対し所定の条件に合う音データを特定することができる。
第1実施形態に係るシステムの構成図 リズム入力装置を表す模式図 第1実施形態に係る情報処理装置のハードウェア構成を表すブロック図 自動伴奏DBに含まれるテーブルの内容を表す模式図 自動伴奏DBに含まれるテーブルの内容を表す模式図 自動伴奏DBに含まれるテーブルの内容を表す模式図 第1実施形態に係る情報処理装置及びその周辺の機能的構成を表すブロック図 第1実施形態に係る情報処理装置が行う処理のフロー図 検索処理のフロー図 オンセット時刻間隔の分布表を表す図 リズムパターンにおけるズレの計算を説明するための模式図 自動伴奏データについての検索結果の一例を表した模式図 BPMの同期処理を説明する模式図 キーテーブルの一例を表す図 ループ再生モードにおける処理を説明するための模式図 演奏再生モードにおける処理を説明するための模式図 スタイルデータに関するテーブルの一例を表す図 スタイルデータに関するテーブルの一例を表す図 第2実施形態に係る情報処理装置が行う処理のフロー図 スタイルデータの検索結果の一例を表した模式図 スタイルデータの構成表示画面の一例を表す図 楽音データにおける各構成音に対して、フェードアウトが適用された場合を表す模式図 オンセット時刻間隔テーブルの一例を表す図 距離参照表の一例を表す図 オンセット時刻テーブルの一例を表す図 音高パターンを用いた検索の処理内容を表す模式図 複数小節のリズムパターンを検索する場合の処理内容を表す模式図 移動通信端末を表す図 第3実施形態に係る機能構成を示す図 第3実施形態におけるUI画面を例示する図 第3実施形態に係るフォローチャート シーケンサー領域82の入力画面の一例を示す図 シーケンサー領域82の入力画面の別の例を示す図 変形例44に係るUIを例示する図
以下、本発明の実施形態について説明する。
1.第1実施形態
(音楽データ作成システム)
第1実施形態は、音楽データ処理システムの一例としての音楽データ作成システムであり、音楽データの一例として自動伴奏データを作成するシステムである。本実施形態における自動伴奏データは、電子楽器やシーケンサなどに読み込まれ、いわゆるMIDIの自動伴奏データと同様の役割を果たす。
1−1.構成
図1は、第1実施形態における音楽データ作成システム100を表す図である。音楽データ作成システム100は、リズム入力装置10、及び情報処理装置20を備えており、各々が通信線により接続されて相互に通信ができるようになっている。この通信は、無線によって実現されてもよい。第1実施形態において、リズム入力装置10は、入力手段として例えば鍵盤とパッドを備えている。ユーザが、リズム入力装置10に設けられた鍵盤を押鍵することにより、リズム入力装置10は、押鍵されたこと、すなわち演奏操作がなされたことを示すトリガーデータと、押鍵の強度、すなわち当該演奏操作の強度を示すベロシティデータとを、1小節を単位として、情報処理装置20に入力する。ここで、トリガーデータは、ユーザが鍵盤を押鍵する毎に生成されるものであって、押鍵されたことを示すキーオン情報で表される。トリガーデータの各々にはベロシティデータが対応付けられている。1小節内に生成されたトリガーデータとベロシティデータの集合は、この1小節において、ユーザがリズム入力装置10を用いて入力したリズムのパターン(入力リズムパターンという)を表している。ユーザは、この入力リズムパターンを鍵盤の鍵域に対応したパートについて入力することになる。また、打楽器を示すパートについては、ユーザは、パッドを使って入力リズムパターンを入力する。このように、リズム入力装置10は、ユーザによる演奏操作が入力される入力手段の一例である。
情報処理装置20は、例えばPC(Personal Computer)である。情報処理装置20は
、自動伴奏データとその自動伴奏データを構成する各パートに用いられる楽音データを複数含んだデータベースとそれを利用するアプリケーションを備えている。このアプリケーションは、楽音データを検索する際に入力された入力リズムパターン(すなわちこの場合リズムパターンが検索キーである)に基づいてパートを選択するための選択機能と、作成中の自動伴奏データや作成後の自動伴奏データを再生する再生機能とを備えている。自動伴奏データは、各々が固有のリズムパターンを持つ複数のパートで構成され、各パートは、例えば、ベース、和音からなるコード、単音からなるフレーズ、バスドラム、スネアドラム、ハイハット、及びシンバル等であり、それらを組み合わせたものとなっている。具体的には、これらのデータは、自動伴奏データテーブルと該テーブルに規定されるリズムパターンデータ(例えばtxt形式のデータ)や楽音データ(例えばWAVE形式のデータ)等の各種ファイルで構成される。各パートのデータである楽音データは、それぞれ1つの音色で所定の長さ(例えば、2小節、4小節又は8小節など)を有する演奏音の波形を示す波形データであり、例えばWAVEやmp3といったファイルフォーマットで記録されたものである。なお、データベースには、自動伴奏データを差替えする際に利用される、現時点では自動伴奏データにおいて未使用の楽音データも記録されている。
そして情報処理装置20は、このデータベースから、入力リズムパターンが入力された際のパートについて、選択機能によってリズム入力装置10から入力された入力リズムパターンと同一又は類似したリズムを持つ楽音データを検索し、検索結果の楽音データを有する自動伴奏データの名称等を一覧表示する。そして情報処理装置20は、一覧からユーザによって選択された自動伴奏データに基づく音を出力する。このとき、情報処理装置20は、検索結果の自動伴奏データに基づく音を繰り返し再生する。このように、ユーザが、複数のパートのいずれかについて入力した入力リズムパターンから自動伴奏データを検索し、その検索結果のなかから一つを選択すると、情報処理装置20は、選択された自動伴奏データに基づく音を再生する。既に選択されているパートがあれば、そのパートに所定のタイミング(例えば拍のタイミング)が同期するように、必要に応じてテンポを速くあるいは遅く変更させて再生する。このように、音楽データ作成システム100では、各々異なる複数のパートが選択されて、選択されたパートについてユーザがリズムパターンを入力することで検索が行われる。そして、ユーザが、検索結果が表す自動伴奏データから任意のパートの自動伴奏データを選択して組み合わせることで、これらの自動伴奏データが同期しながら再生される。なお、検索機能は、ユーザが操作部25(後述)を操作することによってそのON/OFFが切り替えられる。
情報処理装置20がアプリケーションプログラムを実行するときの動作のモードとして、ループ再生モード、演奏再生モード、及び演奏ループ再生モードがある。ユーザは、情報処理装置20に備えられた操作部25(後述)を用いて、動作のモードを変更することが可能である。上記動作のモードがループ再生モードの場合、情報処理装置20は、各々異なるリズムパターンを持つ楽音データを複数記憶したデータベースにおいて、リズム入力装置10から入力された入力リズムパターンと同一又は最も類似したリズムパターンを有する楽音データを検索し、検索結果の楽音データを音に変換して出力する。このとき、情報処理装置20は、検索結果の楽音データに基づく音を繰り返し再生する。一方、上記動作のモードが演奏再生モードの場合、情報処理装置20は、上記検索結果の楽音データを音として出力するだけでなく、検索結果の楽音データにおける構成音を用いた演奏操作に基づく音を出力することが可能である。また、上記動作のモードが演奏ループ再生モードである場合、情報処理装置20は、検索結果の楽音データに基づく音を繰り返し出力するともに、ユーザが検索結果フレーズにおける構成音を用いて行った演奏操作に基づく音を繰り返し出力することが可能である。
図2は、リズム入力装置10を表す模式図である。リズム入力装置10は、入力手段として鍵盤11及び入力パッド12を備えている。ユーザが、これらの入力手段を用いてリズムパターンを入力すると、情報処理装置20は入力リズムパターンに基づいて、楽音データを検索する。リズム入力装置10における鍵盤11の予め決められた鍵域又は入力パッド12の種類には、各々異なる上記パートの何れかが対応付けられている。例えば、鍵盤11の全鍵域は、2つのスプリットポイントで低音域鍵盤、中音域鍵盤と高音域鍵盤に分けられる。低音域鍵盤は、ベース入力音域鍵盤11aとして利用され、ベースのパートが対応付けられている。中音域鍵盤は、コード入力音域鍵盤11bとして利用され、和音からなるコードのパートが対応付けられている。高音域鍵盤は、フレーズ入力音域鍵盤11cとして利用され、単音からなるフレーズのパートが対応付けられている。また、バスドラム入力パッド12aには、バスドラムのパートが対応付けられている。スネアドラム入力パッド12bには、スネアドラムのパートが対応付けられている。ハイハット入力パッド12cには、ハイハットのパートが対応付けられている。シンバル入力パッド12dには、シンバルのパートが対応付けられている。ユーザは、リズム入力装置10において、押鍵する鍵盤11の鍵域又は押下する入力パッド12の種類を指定して演奏操作を行うことで、指定した入力手段に対応付けられたパートについて楽音データを検索することが可能である。このように、鍵盤11及び入力パッド12が演奏操作子の各々と対応することとなる。
例えば、ユーザが、ベース入力音域鍵盤11aに相当する鍵盤を押鍵してリズムパターンを入力すると、情報処理装置20は、当該リズムパターンと同一又は所定の類似度の範囲に含まれるリズムパターンを持つベースの楽音データを特定し、この特定されたベースの楽音データを検索結果として表示する。以降において、ユーザがリズムパターンを入力する際に操作する対象であることから、ベース入力音域鍵盤11a、コード入力音域鍵盤11b、フレーズ入力音域鍵盤11c、バスドラム入力パッド12a、スネアドラム入力パッド12b、ハイハット入力パッド12c、及びシンバル入力パッド12dのことを、演奏操作子と呼ぶ場合がある。ユーザがリズム入力装置10における或る演奏操作子を操作すると、リズム入力装置10は、当該操作に応じた例えば操作信号を情報処理装置20に入力する。ここで、この操作信号は、例えばMIDI(Musical Instrument Digital Interface)形式の情報(以下、MIDI情報という)とする。MIDI情報には、上述したトリガーデータ及びベロシティデータのほかに、演奏操作子が鍵盤であればノートナンバーが含まれ、演奏操作子がパッドであればチャンネル情報が含まれる。情報処理装置20は、受け取ったMIDI情報から、対象のパートを特定する。
また、リズム入力装置10は、BPM入力操作子13を備える。ここで、BPMとは、1分間における拍の数であって、リズム入力装置10においてユーザに通知される楽音のテンポを表す。BPM入力操作子13は、例えば液晶ディスプレイなどの表示面とホイールとで構成される。ユーザがホイールを回転させると、回転の停止位置に応じた値のBPMが表示面に表示される。以降、BPM入力操作子13を用いて入力されたBPMのことを入力BPMという。リズム入力装置10は、入力リズムパターンとともに、入力BPMを識別する情報を含むMIDI情報を情報処理装置20に入力する。情報処理装置20は、MIDI情報に含まれる入力BPMに基づいて、音を音声出力部26(後述)から出力したり、光を表示部24(後述)に点滅させて、ユーザに対してテンポと演奏進行タイミングを報知する(いわゆるメトロノームの機能である)。ユーザは、これらの音あるいは光から体感するテンポおよび演奏進行タイミングに基づいて、演奏操作子を操作する。
図3は情報処理装置20のハードウェア構成を表すブロック図である。情報処理装置20は、制御部21、記憶部22、入出力インターフェース部23、表示部24、操作部25、及び音声出力部26を備えており、各部がバスを介して接続されている。制御部21は、情報処理装置20の各部を制御する制御装置であり、例えばCPUおよびメモリー(ROMおよびRAM)を有する。記憶部22は、各種のデータおよびプログラムを記憶する記憶装置であり、例えばHDDを有する。入出力インターフェース部23は、リズム入力装置10との間で命令やデータの入出力を中継するインターフェースである。表示部24は、データ処理に伴って文字または画像もしくはこれらの組み合わせを表示する表示装置であり、例えばLCDを有する。操作部25は、ユーザの操作を受け付け、受け付けた操作に応じた信号を制御部21に供給する入力装置であり、例えば、キーパッド、キーボード、またはタッチスクリーン、もしくはこれらの組み合わせを有する。音声出力部26は、データ処理に伴って音声を出力する装置であり、例えば、スピーカーおよび増幅器を有する。この例で、記憶部22は、自動伴奏DB221を記憶している。自動伴奏DB221は、自動伴奏データに関する各種情報と、楽音データと、これらのデータに関する各種情報を含んでいる。
図4、図5A及び図5Bは、自動伴奏DB221に含まれるテーブルの内容を表す模式図である。自動伴奏DB221には、パートテーブル、楽器種類テーブル、リズムカテゴリテーブル及びリズムパターンテーブルが含まれ、そして自動伴奏データの中に含まれる自動伴奏データテーブルが含まれている。図4(a)はパートテーブルの一例を表したものである。「パートID」は、自動伴奏データを構成するパートを一意に識別するための識別子であり、例えば2桁の数字で表される。「パート名」は、パートの種類を表す名称であり、上述した「ベース」、「コード」、「フレーズ」、「バスドラム」、「スネアドラム」、「ハイハット」、及び「シンバル」といった異なるパート毎に、パートIDが対応付けられてパートテーブルに記述されている。なお、「パート名」は図4(a)に表された内容に限ったものではない。「ノートナンバー」は、各パートが、鍵盤においてどの鍵域に割り当てられているかを表すMIDI情報である。MIDI情報では、鍵盤における「中央ハ」にノートナンバー「60」が割り当てられる。このノートナンバーを基準として、例えば図4(a)に示されるように、「ベース」のパートには、ノートナンバーが第1の閾値「45」以下のノートナンバーが割り当てられ、「フレーズ」のパートには、ノートナンバーが第2の閾値「75」以上のノートナンバーが割り当てられ、「コード」のパートには、ノートナンバーが「46」以上であって「74」以下のノートナンバーが割り当てられている。なお、上述した第1の閾値及び第2の閾値は一例であり、この値に限ったものではない。また、第1の閾値及び第2の閾値はユーザにより変更可能としてもよい。
「チャンネル情報」は、各パートが、どの入力パッドに割り当てられているかを表すMIDI情報である。例えば図4(a)に示されるように、「バスドラム」のパートには「12a」のチャンネル情報が割り当てられ、「スネアドラム」のパートには「12b」のチャンネル情報が割り当てられ、「ハイハット」のパートには「12c」のチャンネル情報が割り当てられ、「シンバル」のパートには「12d」のチャンネル情報が割り当てられている。
図4(b)は楽器種類テーブルの一例を表したものである。「楽器種類ID」は、楽器の種類を一意に識別するための識別子であり、例えば3桁の数字で表される。「楽器種類」は、楽器の種類を表す名称であり、例えば「ウッドベース」、「エレキベース」、「スラップベース」といった、異なる楽器の種類毎に、楽器種類IDが対応付けられて楽器種類テーブルに記述されている。例えば楽器種類「ウッドベース」は、「001」の楽器種類IDに対応付けられて楽器種類テーブルに記述されている。その他の楽器種類についても、同様に各楽器種類IDに対応付けられて、楽器種類テーブルに記述されている。なお、「楽器種類」は図4(b)に表された内容に限ったものではない。
図4(c)は、リズムカテゴリテーブルの一例を表したものである。「リズムカテゴリID」は、リズムパターンのカテゴリ(リズムカテゴリという)を一意に識別するための識別子であり、例えば2桁の数字で表される。ここでリズムパターンとは、予め定められた長さの期間において各々の音が発音される時刻の並びを表す。特にここにおいて、リズムパターンとは、1小節において各々の音が発音される時刻の並びを表す。「リズムカテゴリ」は、リズムカテゴリを表す名称であり、例えば「8分」、「16分」、「8分3連」といった、異なるリズムカテゴリ毎に、リズムカテゴリIDが対応付けられてリズムカテゴリテーブルに記述されている。例えば「8分」のリズムカテゴリは、「01」というリズムカテゴリIDが対応付けられてリズムカテゴリテーブルに記述されている。なお、「リズムカテゴリ」は図4(c)に表された内容に限ったものではない。例えば、拍子やジャンルといった大まかなカテゴリ分けをしたり、一つのリズムパターンごとに一つの別のカテゴリIDを割り当てるなど、より細かなカテゴリ分けをしたり、これらを組み合わせて複数階層のカテゴリを付与してもよい。
図5Aは、リズムパターンテーブルの一例を表したものである。リズムパターンテーブルには、パートを一意に識別するパートID毎にグループ化されたリズムパターンレコードが複数記述されている。図5Aにおいては、リズムパターンテーブルの一例として、パートが「ベース」(パートIDが「01」)である複数のリズムパターンレコードが表されている。1件のリズムパターンレコードは、「自動伴奏ID」、「パートID」、「楽器種類ID」、「リズムカテゴリID」、「リズムパターンID」、「リズムパターンデータ」、「アタック強度パターンデータ」、「楽音データ」、「キー」、「ジャンル」、「BPM」及び「コード」といった複数の項目からなる。このリズムパターンテーブルが、それぞれのパート毎に記述されている。
「自動伴奏ID」は、自動伴奏データを一意に識別するための識別子であり、各パートについて1つずつのリズムパターンレコードの組み合わせに対して、同一のIDが割り当てられている。例えば、同一の自動伴奏IDを有する自動伴奏データは、例えばジャンル、キー又はBPMといった項目について同一の内容を有するように予め組み合わせられることで、この自動伴奏データが複数のパートについて合奏で再生されたときに違和感の少ないものとなっている。上述したように「楽器種類ID」は、楽器の種類を一意に識別するための識別子である。同一のパートIDを持つリズムパターンレコードは、楽器種類ID毎にグループ化されており、ユーザはリズム入力装置10を用いてリズムの入力を行う前に、操作部25を用いて楽器の種類を選択することが可能である。ユーザによって選択された楽器の種類は、RAMに記憶される。「リズムカテゴリID」は、各々のリズムパターンレコードが、前述したリズムカテゴリのうち、どのリズムカテゴリに属するかを識別するための識別子である。例えば、図5Aにおいて「リズムカテゴリID」が「01」であるリズムパターンレコードは、図4(c)のリズムカテゴリテーブルに表されるように、「8分」のリズムカテゴリに属する。「リズムパターンID」は、各々のリズムパターンレコードを一意に識別するための識別子であり、例えば9桁の数字からなる。この9桁の数字は、「パートID」2桁と、「楽器種類ID」3桁と、「リズムカテゴリID」2桁と、枝番2桁との組み合わせである。
「リズムパターンデータ」は、1小節を構成するフレーズにおける各構成音の発音開始時刻が記録されたデータファイルであり、例えばテキストファイルに、各構成音の発音開始時刻が記述されたものである。この発音開始時刻は、入力リズムパターンにおける、演奏操作がなされたことを示すトリガーデータに相当する。ここで、各構成音の発音開始時刻は、予め1小節の長さを1として正規化されている。つまり、「リズムパターンデータ」に記述される各構成音の発音開始時刻は、0から1の間の値を取る。
なお、リズムパターンデータは、例えば、オペレーターによって市販のオーディオループ素材からゴーストノートが除外されることで作成される。しかし、リズムパターンデータを作成する方法はこれに限らず、予めコンピュータによって自動的にゴーストノートが除外されることで抽出されてもよい。例えば、リズムパターンデータの抽出元のデータがMIDI形式の場合、コンピュータによって以下のような方法でリズムパターンデータが作成されてもよい。コンピュータのCPUは、MIDI形式のデータから、チャンネルごとの構成音開始時刻を1小節の間、抽出し、リズム入力と判断しづらいゴーストノート(
例えば、極端に小さなベロシティデータを持つものなど)を除外する。そしてコンピュータのCPUは、ゴーストノートを除外した後のMIDI形式のデータにおいて、和音入力のように一定時間内に複数の入力があった場合、これら複数の入力を1つのリズム入力にまとめる処理を行うことで、リズムパターンデータの作成を自動で行う。
また、ドラムスパートに関しては、1つのチャンネル内にバスドラム、スネアドラム、シンバルといった複数の楽器音が存在する場合もある。このような場合、コンピュータのCPUは、以下のようにしてリズムパターンデータの抽出を行う。ドラムスの場合、ノートナンバーごとに対応している楽器音が決まっている場合が多い。例えば、ドラムスパートでノートナンバー「40」にスネアドラムの音色が割り当てられているとする。これに基づいてコンピュータのCPUは、伴奏音源のドラムスパートが収録されたチャンネルにおいて、スネアドラムの音が割り当てられているノートナンバーの構成音開始時刻を抽出することで、スネアドラムのリズムパターンデータの抽出を行う。
「アタック強度パターンデータ」は、1小節を構成するフレーズにおける各構成音のアタック強度が記録されたデータファイルであり、例えばテキストファイルに上記各構成音のアタック強度が数値として記述されたものである。このアタック強度は、入力リズムパターンにおける、演奏操作の強度を示すものであるベロシティデータに相当する。つまり、アタック強度とは、各構成音の強度を意味する。アタック強度は、MIDI情報のベロシティデータそのものとしてテキストファイルに記述されてもよい。
「楽音データ」は、リズムパターンレコードに基づく音そのものに関するデータファイルの名前であり、例えばWAVEやmp3といった音声ファイルフォーマットからなる楽音データのファイルを示す。「キー」は、楽音データが示す楽音のキー(調)を表す。「ジャンル」は、リズムパターンレコードが所属する音楽のジャンルを表す。「BPM」は、1分間における拍の数であって、リズムパターンレコードに含まれる楽音データに基づく音のテンポを表す。
「コード」は、楽音データが示す楽音の和音の種類を表す。「コード」は、そのパートがコード(和音の種類)であるリズムパターンレコードにおいて設定される。図5Aにおいては、「パートID」が「02」であるリズムパターンレコードにおいて、「コード」の一例として「Maj7」が示されている。パートがコードであるリズムパターンレコードは、一のリズムパターンIDについて複数種類の「コード」を有し、各々の「コード」に応じた楽音データを有する。図5Aの場合、リズムパターンIDが「020040101」のリズムパターンレコードは、図示しない例えば「Maj」、「7」、「min」、「dim」、「Sus4」などの複数種類のコードについて、各々のコードに応じた楽音データを有する。このとき、同一のリズムパターンIDを有するリズムパターンレコードは、「楽音データ」と「コード」以外については同じ内容を有する。ここで、各リズムパターンレコードは、各コードのルート音(「キー」と同じ音高)のみで構成された楽音データと、各コードのルート音を除いたそれぞれの構成音で構成された楽音データとを有するようにしてもよい。この場合、制御部21は、ルート音で構成された楽音データが示す楽音と、ユーザにより指定されたコードを示し、ルート音を除く構成音で構成された楽音データが示す楽音とを同時に再生させる。図5Aにおいては、パートが“ベース”であるリズムパターンレコードを一例として表したが、実際にはリズムパターンテーブルには、図5Aにその一部を表しているように、複数の種類のパート(ここでは、コード、フレーズ、バスドラム、スネアドラム、ハイハット、シンバル)に応じたリズムパターンレコードが記述されている。
図5Bは、自動伴奏データテーブルの一例を表す。このテーブルは、自動伴奏時に、パート毎に、どの楽音データをどのような条件で利用するかを規定するテーブルである。自動伴奏データテーブルの構成は、リズムパターンテーブルと同様である。テーブルの1行目に記述される自動伴奏データは、関連する特定パートが組み合わされたものであり、合奏時の自動伴奏に関する情報を規定する。この合奏時の自動伴奏に関する情報は、他のデータと区別されるために、「パートID」が「99」であり、「楽器種類ID」が「999」であり、リズムパターンIDが「999990101」となっている。これらの各値は、そのデータが合奏による自動伴奏のデータであることを表している。また、合奏時の自動伴奏に関する情報は、各パートの楽音データが組み合わされて合成された一の楽音データを有する。この楽音データ「BeBop01.wav」が再生されると、全てのパートが組み合わさった状態で楽音が再生されることとなる。なお、自動伴奏データとして複数パートを一つの楽音データで演奏できるファイルは必ずしも必要ではなく、ないときには、楽音データの情報は空欄となる。合奏時の自動伴奏に関する情報における「リズムパターンデータ」及び「アタック強度パターンデータ」には、合奏時の自動伴奏の楽音(すなわちBeBop01.wav)に基づくリズムパターンとアタック強度とが記述されている。また、図13Bにおいて、パートID「01」で表される2行目以降の自動伴奏データは、パート毎にユーザによって選択された内容を表す。ここでは、ユーザによって、パートID「01」〜「07」までの各パートについて、特定の楽器が指定されたうえで、「BeBop」スタイルの自動伴奏データが選択されている。また、リズム楽器に相当するパートの「キー」を未指定としたが、音高変換するときには、基準となる音高を指定するようにし、指定された音高と基準となる音高の音程に応じて、楽音データの音高を変換するようにしてもよい。
図6は、情報処理装置20及びその周辺の機能構成を表すブロック図である。制御部21は、ROMや記憶部22に記憶されたアプリケーションを構成する各プログラムをRAMに読み出して実行することにより、テンポ取得部211、進行部212、通知部213、パート選択部214、パターン取得部215、検索部216、特定部217、出力部218、コード受付部219及び音高受付部220の各機能を実現する。以降において、これら各部を主体として処理の説明を行うことがあるが、処理の主体の実体は、制御部21である。なお、以降の説明において「オンセット」とは、リズム入力装置10における入力状態がオフからオンに切り替わることを指す。例えば、「オンセット」とは、リズム入力装置10の入力手段が鍵盤であれば鍵盤が押鍵された状態のことであり、リズム入力装置10の入力手段がパッドであればパッドを叩かれた状態のことであり、リズム入力装置10の入力手段がボタンであればボタンが押下された状態のことである。これに対して「オフセット」とは、リズム入力装置10の入力手段が鍵盤であれば鍵盤が押鍵されてから離された状態のことであり、リズム入力装置10の入力手段がパッドであればパッドに対する打撃が完了した状態のことであり、リズム入力装置10の入力手段がボタンであれば押下されたボタンから指が離された状態のことである。また、以降の説明において「オンセット時刻」とは、リズム入力装置10における入力状態がオフからオンに切り替わった時の各々の時刻を表す。換言すれば、「オンセット時刻」とは、リズム入力装置10においてトリガーデータが発生した時刻を表す。これに対して、「オフセット時刻」とは、リズム入力装置10における入力状態がオンからオフに切り替わった時の各々の時刻を表す。換言すれば、「オフセット時刻」とは、リズム入力装置10において発生したトリガーデータが消滅した時刻を表す。また、以降の説明において「オンセット情報」とは、オンセット時刻においてリズム入力装置10から情報処理装置20へ入力される情報である。「オンセット情報」には、上述したトリガーデータ以外に、鍵盤のノートナンバーやチャンネル情報等が含まれている。
テンポ取得部211は、ユーザによって指定されたBPM、すなわち指定テンポを取得する。ここで、ユーザによって指定されたBPMとは、BPM入力操作子13及び後述するBPM指定スライダ201のうち少なくともいずれかを用いて指定されたBPMのことである。BPM入力操作子13及びBPM指定スライダ201は連動しており、ユーザがその一方を用いてBPMを指定すると、指定されたBPMが他方の表示欄に表示される。進行部212は、図示しないスイッチによるユーザのテンポ報知の開始指示を受けて、指定テンポに基づいて、指示を受けたタイミングから小節内の指定時刻(演奏進行タイミング)を進行させる。通知部213は、小節内の指定時刻をユーザに通知する。具体的には通知部213は、1小節の長さを1として正規化した場合に、進行中の時間軸において、数十msec(ミリ秒)ごとにクロック信号(以降において小節線クロックという)としてパターン取得部215に出力する。つまり、小節線クロックは、指定時刻が1小節中のどこに位置するかを表すものであり、0から1の間の値をとる。通知部213は、ユーザによって指定された指定テンポに基づいて小節線クロックを生成する。
パート選択部214は、複数の演奏パートのなかからユーザの指定に基づいて特定パートを選択する。具体的には、パート選択部214は、リズム入力装置10から入力されるMIDI情報に含まれるパートを識別する情報が、ノートナンバーであるかチャンネル情報であるかを特定する。そしてパート選択部214は、特定した内容と自動伴奏DB221に含まれるパートテーブルとに基づいて、ユーザによって操作されたのはどの演奏操作子であるか、すなわち、楽音データを構成する複数のパートのうちどのパートを指定して入力が行われたか、を特定し、検索すべきパートの楽音データとリズムパターンテーブル等を選択する。パート選択部214は、受け取ったMIDI情報がノートナンバーである場合、当該ノートナンバーとパートテーブルの記述内容とを比較して、ユーザによる操作が、ベース入力音域鍵盤11a、コード入力音域鍵盤11b、或いはフレーズ入力音域鍵盤11cのいずれに対するものであるかを特定し、対応するパートの楽音データとリズムパターンテーブル等選択する。また、パート選択部214は、受け取ったMIDI情報がチャンネル情報である場合、当該ノートナンバーとパートテーブルの記述内容とを比較して、ユーザによる操作が、バスドラム入力パッド12a、スネアドラム入力パッド12b、ハイハット入力パッド12c、或いはシンバル入力パッド12dのいずれに対するものであるかを特定し、対応する楽音データとリズムパターンテーブル等を選択する。パート選択部214は、選択したパートに対応するパートIDを検索部216に出力する。
パターン取得部215は、複数の演奏パートのなかから選択された特定パートについて入力パターンを取得する。具体的にはパターン取得部215は、小節線クロックを基準として、リズム入力装置10から入力される、トリガーデータが発生した時刻、すなわちオンセット時刻を1小節毎にRAMに記憶させる。このようにして、1小節を単位として、RAMに記憶されたオンセット時刻の並びが、入力リズムパターンとなる。ここで記憶されるオンセット時刻は、小節線クロックに基づいているため、上記小節線クロックと同様に、0から1の間の値をとる。また、小節線クロックは、外部から情報処理装置20に入力されるものを用いてもよい。
また、ユーザが、1小節を単位としたリズムパターンを正確に入力できるように、情報処理装置20からユーザに対して小節線が開始する時刻をフィードバックする必要がある。これは、例えばメトロノームのように、小節や拍の時刻で、情報処理装置20が、音や光を発したり画面の表示内容を変更したりすることで、ユーザに対して視覚的或いは聴覚的に小節線の位置が伝えられればよい。このとき、通知部213から出力される小節線クロックに基づいて、音声出力部26が音を発したり、表示部24が光を発したりする。また、その他の方法として、小節線クロックにあわせて、予め小節線の位置を表す例えばクリック音を付加した伴奏音を出力部218が再生してもよい。この場合、ユーザは、伴奏音源から自らが感じる小節線に合わせて、リズムパターンを入力する。
検索部216は、楽音のデータを組み合わせた楽音データを複数記憶したデータベースである自動伴奏DB221を検索して、特定パートの楽音データに含まれる楽音のリズムパターンと入力リズムパターンとの比較結果に基づいて、楽音データを検索結果として取得する。自動伴奏DB221は、複数の演奏パートについてそれぞれ個別の楽音のデータで構成されている。また、検索部216は、検索結果を表示部24に表示させる。また、検索部216は検索結果を表示部24に表示させ、ユーザが取得した検索結果のなかから所望の楽音データを選択すると、これを自動伴奏データ中の一つのパートの自動伴奏パートデータとして登録する。そして、ユーザは、各パートについて、この作業を繰り返すことで、自動伴奏データを作成する。
自動伴奏DB221は、複数の演奏パートについてそれぞれ個別の楽音データと自動伴奏データと、それぞれのデータの情報を管理する複数のテーブルとで構成されている。特定部217は、取得された検索結果のうち、特定パートの楽音のパターンが所定の範囲に入る楽音データを特定する。この所定の範囲は、例えば両者の類似の度合いが高い順番で昇順に並べたときの楽音のパターンの個数で表され、記憶部22に記憶されており、操作部25を用いてユーザにより変更可能としてもよい。つまり、この所定の範囲が広いほど、特定部217は、検索結果から多くの楽音データを特定し、所定の範囲が狭いほど、特定部217は、検索結果のうち類似の度合いが高い楽音データのみを特定することになる。例えば、ユーザが、入力したリズムパターンにより近い検索結果を得たい場合には、上記所定の範囲を狭く設定することで、所望する検索結果が得られやすくなる。一方、ユーザが、入力したリズムパターンに対してより多くの検索結果を得たい場合には、上記所定の範囲を広く設定すればよい。また、希望する類似度が高いものだけでなく、高すぎず低すぎずのもの等のある程度似ているもの等を検索したいときは、検索対象とする類似度の上限値と下限値を設定できるようにし、システムであるいは予めユーザが設定するようにすればよい。出力部218は、楽音データや自動伴奏データの再生時に、小節内の現在位置、すなわち小節線クロックに基づくデータ位置から特定された楽音データを読み出して、この楽音データが示す楽音を、この楽音データに対応付けられた演奏テンポと指定テンポとの関係に基づく速度で再生し、楽音の再生信号を音声出力部26に出力する。音声出力部26は、この再生信号に基づく音声を出力する。また、出力部218は、演奏再生モード及び演奏ループ再生モードにおける、検索結果の楽音データにおける構成音を用いた、ユーザによる演奏操作を制御する。コード受付部219は、ユーザにより指定されたコードの入力を受け付ける。音高受付部220は、ユーザによって指定された音の音高を表す音高情報の入力を受け付ける。
1−2.動作
1−2−1.検索
次に、図7及び図8を用いて、検索機能がONの状態において、制御部21が入力リズムパターンに基づいて自動伴奏データの検索を行う一連の処理について説明を行う。
図7は、情報処理装置20が行う処理のフロー図である。
まず、ユーザが、リズム入力装置10の図示しない操作子で自動伴奏データ作成を指示すると、本フローのプログラムが実行される。情報処理装置20は、ユーザの指示に基づいて、プログラムの実行開始後、初期設定を行う。(ステップSa0)。初期設定では、ユーザは、操作部25を用いて各鍵域それぞれに対応する楽器種類および入力パッドに対応する楽器種類を指定し、BPM入力操作子13を用いてBPMを入力する。また、制御部21は、図4、図5A及び図5Bに示した各種テーブルをRAMに読み出す。初期設定後、ユーザは、リズム入力装置10を用いて、鍵盤11における所定の鍵域又は入力パッド12a〜12dにおけるいずれか、すなわちパートを指定してリズムパターンを入力する。リズム入力装置10は、指定されたパートを識別する情報と、指定された楽器種類を識別する情報と、入力BPMを識別する情報と、入力リズムパターンとを含むMIDI情報を情報処理装置20に送信する。制御部21は、入出力インターフェース部23を用いてリズム入力装置10からMIDI情報を受信すると、図7に示すフローに沿って処理を実行する。
まず、制御部21は、受信したMIDI情報に含まれる、ユーザにより入力されたBPMを識別する情報を取得すると、これをRAMに読み出された自動伴奏テーブルに記録すべき自動伴奏データのBPMとして記憶させる(ステップSa1)。次に、制御部21は、受信したMIDI情報に含まれる、ノートナンバーやチャンネル情報といったユーザにより選択されたパートを識別する情報と、自動伴奏DB221に含まれるパートテーブルとに基づいて、ユーザにより指定されたパートのパートIDを取得すると、これをRAMに読み出されたパートテーブルと自動伴奏テーブルに記録すべきパートのパートIDとして記憶させる(ステップSa2)。ここでは、ユーザが、ベース入力音域鍵盤11aを用いてリズムパターンを入力し、制御部21が、図4(a)に示されるようにパートIDとして「01」を取得し、これをRAMに記憶させたとする。
次に、制御部21は、受信したMIDI情報に含まれる、ユーザにより指定された楽器種類を識別する情報と、自動伴奏DB221に含まれる楽器種類テーブルとに基づいて、ユーザにより指定された楽器種類の楽器種類IDを取得すると、これをRAMに読み出された楽器種類テーブルと自動伴奏テーブルに記録すべきパートの楽器種類IDとして記憶させる(ステップSa3)。ここでは、ユーザが、操作部25を用いて楽器種類に「エレキベース」を指定することで、制御部21が、図4(b)に示されるように楽器種類IDとして「002」を取得し、これをRAMに読み出された自動伴奏テーブルに記録すべきパートの楽器種類IDとして記憶させたとする。次に、制御部21は、受信したMIDI情報に含まれる入力リズムパターンを取得すると、これをRAMに記憶させる(ステップSa4)。次に制御部21は、自動伴奏DB221から、ユーザが指定したパート及び楽器種類について、入力リズムパターンと同一又は類似したリズムパターンを持つ楽音データを検索する(ステップSa5)。ステップSa5の詳細について、次に図8を用いて説明する。
図8は検索処理のフロー図である。初めに、制御部21は、リズムパターンテーブルに記述された全てのリズムパターンを用いて、リズムカテゴリ毎にオンセット時刻間隔の分布を計算する(ステップSb1)。ここで、リズムパターンレコードにおけるリズムパターンデータには、1小節の長さを1として正規化された各構成音の発音開始時刻、すなわちオンセット時刻が含まれている。ここでオンセット時刻間隔とは、時間軸上で隣り合うオンセット時刻同士の間隔であり、0から1の間の数値で表される。また、ここにおいて、上述したオンセット時刻間隔の分布は、1小節を48の時刻で均等に区切った場合に、各々の時刻に相当するオンセット時刻間隔の個数で表される。なお、本実施形態において1小節を48の時刻で区切る理由は、4拍子系のリズムを前提として一拍を12等分すれば、8分、8分3連、16分といった複数の異なるリズムカテゴリを識別するのに適した分解能となるためである。ここで、分解能とは、シーケンサや、本実施形態におけるアプリケーションプログラムのようなシーケンスソフトで表現できる、最も短い長さの音符のことである。本実施形態における分解能は、1小節で48であるため、1つの四分音符を12に分割可能な設定となっている。
なお、以降の説明では、入力リズムパターンに対する説明においても、リズムパターンレコードと対応する意味で、「オンセット時刻間隔」という言葉を用いる。つまり、入力リズムパターンにおいては、時間軸上で隣り合うオンセット時刻同士の間隔が、オンセット時刻間隔に相当する。ステップSb1で求められるリズムカテゴリ毎のオンセット時刻間隔の分布は、後述するステップSb3で求められる入力リズムパターンにおけるオンセット時刻間隔の分布との、比較対象となるものである。処理フローの冒頭において、ステップSb1の計算を行うのは、処理の対象となるリズムパターンレコード及びリズムカテゴリが変更されることがなく同一である場合、ステップSb1で求められるオンセット時刻間隔の分布は一定であって、一度計算で求めてしまえば、その後計算をやり直す必要がなくなるためである。従って、ステップSb1における計算は、情報処理装置20の電源がONされたときや、検索処理の起動時に行われるようにしてもよい。また、ステップSb1で求められるオンセット時刻間隔の分布についてのデータを、制御部21が、予め計算してROM等に記憶しておくことで、検索処理の起動時に上記データを読み込むようにしてもよい。
ここで、具体的なオンセット時刻の数値を用いて、ステップSb1におけるオンセット時刻間隔の分布を計算する方法を説明する。一例として、以下の(a)で表される8分のリズムパターンが、リズムパターンレコードにおけるリズムパターンデータに記述されていたとする。
(a)0,0.25,0.375,0.5,0.625,0.75,0.875
制御部21は、(a)のリズムパターンから、以下の(b)で表されるオンセット時刻間隔を算出する。
(b)0.25,0.125,0.125,0.125,0.125,0.125
次に制御部21は、(b)で算出された各々のオンセット時刻間隔に48を乗算し、さらに0.5を加算した数値の小数点以下を切り捨てる処理(クオンタイズという)を行うことで、以下の(c)で表す数値群を算出する。
(c)12,6,6,6,6,6
ここでクオンタイズとは、制御部21が、各オンセット時刻間隔を分解能にあわせて補正することを意味している。クオンタイズを行う理由は、以下のとおりである。リズムパターンテーブルにおけるリズムパターンデータに記述された発音開始時刻は、分解能(ここでは48)に従ったものとなっている。よって、オンセット時刻間隔を用いてリズムパターンテーブルを検索する際には、検索に用いるオンセット時刻間隔も分解能に従ったものでないと、検索の精度が低くなってしまう。このような理由により、制御部21は、(b)で表される各々のオンセット時刻間隔に対して、上述したクオンタイズの処理を施す。
上述の例に従って、例えば以下のような8分のリズムパターン、16分のリズムパターン、及び8分3連のリズムパターンが2つずつ、各リズムパターンレコードにおけるリズムパターンデータに記述されている場合を考える。
・8分カテゴリ
(A)0,0.25,0.375,0.5,0.625,0.75,0.875
(B)0,0.121,0.252,0.37,0.51,0.625,0.749,0.876
・16分カテゴリ
(C)0,0.125,0.1875,0.251,0.374,0.4325,0.5,0.625,0.6875,0.75,0.876,0.9325
(D)0,0.625,0.125,0.1875,0.251,0.3125,0.375,0.4325,0.5,0.5625,0.625,0.6875,0.75,0.8125,0.875,0.9325
・8分3連カテゴリ
(E)0,0.0833,0.1666,0.25,0.3333,0.4166,0.5,0.5833,0.6666,0.75,0.8333,0.91666
(F)0,0.1666,0.25,0.3333,0.4166,0.5,0.6666,0.75,0.8333,0.91666
制御部21は、上記(A)〜(F)に対して上述したのと同様の計算方法を用いて、リズムカテゴリ毎にオンセット時刻間隔の分布を求める。図9(a)は、制御部21がリズムカテゴリ毎に計算したオンセット時刻間隔の分布を、分布表に割り当てたものである。
ステップSb1の次に、制御部21は、RAMに記憶されたパートID及び楽器種類IDを用いて、リズムパターンテーブルを検索する(ステップSb2)。なお、楽器種類の指定は必須ではなく、楽器種類がユーザにより指定されなかった場合、制御部21は、パートIDのみに従ってリズムパターンテーブルを検索する。以降の処理において、制御部21は、ステップSb2における検索結果のリズムパターンレコードを処理の対象とする。
ここで、上述したように、入力リズムパターンには、1小節の長さを1として正規化されたオンセット時刻が含まれている。ステップSb2の次に、制御部21は、RAMに記憶された入力リズムパターンにおける、オンセット時刻間隔の分布をステップSb1と同様の方法で計算する(ステップSb3)。ここにおいて、入力リズムパターンは、上述した(a)のようなものであり、(b)で算出された各々のオンセット時刻間隔にクオンタイズ処理が施されることで、入力リズムパターンについて、(c)のような数値群が算出されるものとする。図9(b)は、制御部21が入力リズムパターンについて計算したオンセット時刻間隔の分布を、分布表に割り当てたものである。
ここで、図9(a)〜図9(c)に示された分布表を参照しながらオンセット時刻間隔の分布についてさらに説明を行う。
図9(a)は入力リズムパターンにおけるオンセット時刻間隔の分布表である。図9(a)において、横軸は、1小節を48の時刻で区切ったときの時刻の間隔(時刻間隔という)を表し、縦軸は、横軸で表された各々の時刻間隔に相当する、クオンタイズされたオンセット時刻間隔の個数の比率を表す。図9(a)では、入力リズムパターンに基づく、上述した(c)の数値群が分布表に割り当てられている。この個数比率は、合計が1となるように制御部21によって正規化されている。図9(a)では、クオンタイズされたオンセット時刻間隔である(c)の数値群において、最も個数が多い「6」の時刻間隔に分布のピークがあることが分かる。
ステップSb3の次に、制御部21は、リズムパターンテーブルに記述されたリズムカテゴリ毎のリズムパターンに基づくオンセット時刻間隔の分布表(ここでは図9(a))と、入力リズムパターンに基づくオンセット時刻間隔の分布表(ここでは図9(b))とを用いて、両者の類似度を表す距離(以降において単に類似度距離という)を算出する(ステップSb4)。図9(c)は、リズムパターンテーブルに記述されたリズムカテゴリ毎のリズムパターンに基づくオンセット時刻間隔の分布(図9(b))と、入力リズムパターンに基づくオンセット時刻間隔の分布(図9(a))との差分を表す分布表である。ステップSb4における類似度距離の算出方法は以下のようなものである。まず、制御部21は、リズムパターンテーブルに記述されたリズムカテゴリ毎のリズムパターンに基づくオンセット時刻間隔の分布表と、入力リズムパターンに基づくオンセット時刻間隔の分布表とにおいて、両分布表における同一の時刻間隔毎に、個数比率の差分の絶対値を求める。そして制御部21は、各リズムカテゴリについて、上述の時刻間隔毎に求めた絶対値を全て足し合わせた値の平方根を算出する。この算出された平方根で表される値が類似度距離となる。この類似度距離は、値が小さいほど類似度が高く、値が大きいほど類似度が低いことを表す。図9(c)では、8分のリズムカテゴリにおいて、図9(a)と図9(b)とに基づく個数比率の差分が最も小さい。これは、上述の算出方法に従って、分布表に表された8分、16分、8分3連のリズムカテゴリのうち、8分のリズムカテゴリと入力リズムパターンとが、最も上記類似度の距離が小さいことを表している。
ステップSb4の次に、制御部21は、リズムパターンテーブルに記述されたリズムカテゴリのうち、類似度距離が最も小さいリズムカテゴリを、入力リズムパターンが該当するリズムカテゴリである、と判定する(ステップSb5)。つまり、ここでは制御部21は、入力リズムパターンのリズムカテゴリが8分であると特定することになる。このように、制御部21は、ステップSb2〜ステップSb5を通じて、入力リズムパターンの該当する可能性が高いリズムカテゴリを特定する。
次に制御部21は、リズムパターンテーブルに記述されたリズムパターンのうち、入力リズムパターンに対して、類似の度合いが高いリズムパターンを特定するために、リズムパターンテーブルに記述された全てのリズムパターンと入力リズムパターンとのズレの大きさを計算する(ステップSb6)。ここで、ズレの大きさとは、入力リズムパターンにおける各オンセット時刻と、リズムパターンテーブルに記述された各々のリズムパターンにおける各オンセット時刻とがどれだけ離れているかを表す。つまり、上記ズレの大きさが小さい程、入力リズムパターンとリズムパターンテーブルに記述されたリズムパターンとにおける類似の度合いが高いこととなる。
また、ステップSb5までの処理において、入力リズムパターンに該当する可能性が高いリズムカテゴリを特定する一方で、ステップSb6の処理において全てのリズムカテゴリに属するリズムパターンレコードを計算の対象としている。その理由は、以下のとおりである。リズムパターンレコードに含まれるリズムパターンデータにおいては、1小節内に8分のオンセット時刻間隔と16分のオンセット時刻間隔がほぼ同数ある場合等のように、どちらのリズムカテゴリに属するのかが紙一重であるものが存在する。このような場合に、ステップSb5において仮に入力リズムパターンに対するリズムカテゴリが正しく判定されなかったとしても、ステップSb6において全てのリズムカテゴリに属するリズムパターンレコードを計算の対象とすることで、ユーザが意図していたリズムパターンが正しく検出される可能性が高くなる。
ここで、ステップSb6における処理を、図10を参照して説明する。図10は、リズムパターンにおけるズレの計算を説明するための模式図である。図10で示されるように、入力リズムパターンをJとして、リズムパターンレコードに記述されたリズムパターンをKとすると、JとKにおけるズレの大きさの計算は、以下の手順で行われる。
(1)制御部21は、入力リズムパターンJにおける各オンセット時刻を基準として、リズムパターンKにおける最も近いオンセット時刻との時刻差の絶対値を算出する(図10における(1))。
(2)制御部21は、手順(1)で算出した各絶対値の積分値を算出する。
(3)制御部21は、リズムパターンKにおける各オンセット時刻を基準として、入力リズムパターンJにおける最も近いオンセット時刻との時刻差の絶対値を算出する(図10における(3))。
(4)制御部21は、手順(3)で算出した各絶対値の積分値を算出する。
(5)制御部21は、手順(2)で算出した積分値と手順(4)で算出した積分値との平均値を、リズムパターンJとリズムパターンKとのズレとして算出する。
なお、実施形態においては、充分な数のリズムパターンを用意していないため、図10(3)に記載されているように、制御部21は、時刻差の絶対値が基準間隔(ここでは8分なので0.125)より大きいものは積分値を算出する際に用いないという処理を行っているが、この処理は省略することも可能である。制御部21は、リズムパターンテーブルに含まれる全てのリズムパターンレコードにおけるリズムパターンについて、上述した手順(1)〜(5)の計算を行う。
次に、制御部21は、ステップSb4でリズムカテゴリ毎に算出した類似度距離と、ステップSb6で算出したリズムパターンのズレとを乗算する。そして制御部21は、リズムパターンテーブルに含まれる、RAMに記憶されたパートIDを持つ全てのリズムパターンレコードについて、入力リズムパターンとの距離を算出する(ステップSb7)。ここで上述したように、入力リズムパターンをJとし、任意のリズムパターンレコードにおけるリズムパターンをKとしたとき、ステップSb7を式で表すと以下のようになる。
JとKのリズムパターンの距離=(Jと、Kが所属するリズムカテゴリとの類似度距離)×(JとKとのリズムパターンのズレ)
ここで、JとKのリズムパターンの距離が小さいほど、KのリズムパターンがJの入力リズムパターンに類似している度合いが高いことを意味している。つまりここでは、JとKのリズムパターンの距離が、類似の度合いを表している。以降、このリズムパターンの距離が小さいことを、「類似の度合いが高い」ということがある。なお、この計算に際して、基本的には、ステップSb5で入力リズムパターンが該当すると判定されたリズムカテゴリ内から、検索結果が出力されるように、以下のような処理が行われる。制御部21は、ステップSb5で判定されたリズムカテゴリと、リズムパターンKの属するリズムカテゴリとが一致するかを判定し、一致しない場合には、上記計算式において予め定められた定数(例えば0.5)を加算する。このようにすれば、ステップSb5で判定されたリズムカテゴリと一致しないリズムカテゴリに属するリズムパターンレコードについては、リズムパターン同士の距離が大きく算出されるため、ステップSb5で入力リズムパターンが該当すると判定されたリズムカテゴリ内から、検索結果が出力されやすくなる。
そして、制御部21は、選択されたパートのリズムパターンテーブルと入力リズムパターンとに基づいて、入力リズムパターンとの距離が小さいリズムパターンデータを有する楽音データから、上記距離が小さい順番で所定の範囲に入る個数の楽音データ群を検索結果として取得し、これらをRAMに記憶させると(ステップSb8)、図8の処理を終了する。この所定の範囲は、上述したように、パラメータとして記憶部22に記憶されており、ユーザが操作部25を用いて変更可能としてもよい。ここで、制御部21は、ユーザによって入力されたBPMに近いBPMを持つ楽音データ群のみを検索結果として出力するためのフィルタリング機能を備えており、ユーザは、操作部25を介して上記フィルタリング機能を任意にON/OFFすることが可能である。上記フィルタリング機能がONに設定されている場合、ステップSb8において制御部21は、入力BPMとその差が予め決められた範囲内に収まらないBPMを有する楽音データ群を、検索結果から除外する。具体的には、例えば、ステップSb8において制御部21は、入力BPMの(1/21/2)倍から21/2倍のBPMを有する楽音データ群のみを検索結果として取得し、それ以外の楽音データを検索結果から除外する。なお、上述した(1/21/2)倍及び21/2倍という係数は一例に過ぎず、その他の値であってもよい。
制御部21がこのようなフィルタリング機能を備える理由は、以下のようなものである。本実施形態において制御部21は、検索結果の楽音データが示す楽音をユーザによって入力又は指定されたBPMで再生させることが可能である。このとき、制御部21によって、楽音データの本来のBPMとは大幅に異なるBPMがユーザにより入力されると、楽音データが示す楽音が音声出力部26によって放音される際に、ユーザに違和感を与えてしまうことがある。例えば、ユーザが、BPM240のテンポでリズムパターンを入力し、制御部21が上記リズムパターンを持つ楽音データ群を検索した結果、検索結果の楽音データ群に含まれる楽音データが示す本来のBPMが60であった場合を考える。この場合、検索結果に含まれる楽音データに基づく楽音は、本来のBPMの4倍のBPMで音声出力部26によって放音されることになるため、音が本来のBPMの4倍速で早送り再生された状態となり、結果としてユーザに違和感を与えることとなる。また、例えば楽音データがWAVEやmp3などのオーディオファイルである場合、本来のBPMとユーザによって指定されたBPMとの差が大きくなるほど、再生時の音質は劣化する。このような問題を解決するために、制御部21は、フィルタリング機能を備えているわけである。
再び図7に戻る。ステップSa5の検索処理を終えると、制御部21は、ステップSb8でRAMに記憶された楽音データ群を検索結果として表示部24に表示させる(ステップSa6)。
図11は、楽音データについての検索結果の一例を表した模式図である。図11は、ユーザがベース入力音域鍵盤11aを用いて入力したリズムパターンに基づいて、制御部21が検索結果として取得した楽音データ群が、表示部24に表示された場合を表している。表示部24の上部には、BPM指定スライダ201、キー指定鍵盤202及びコード指定ボックス203が表示される。BPM指定スライダ201は、例えば所定の長さを有する溝と、溝に設けられたつまみと、BPM表示欄とで構成される。ユーザが、操作部25を用いてつまみの位置を変更させると、制御部21は、変更後のつまみの位置に応じたBPMをBPM表示欄に表示させる。図11においては、溝の左端から右端へ向けてつまみの位置が移動されるにつれてBPM表示欄に表示されるBPMが早いものとなり、溝の右端から左端へ向けてつまみの位置が移動されるにつれてBPM表示欄に表示されるBPMが遅いものとなる。制御部21は、BPM指定スライダ201を用いて指定されたBPM(指定BPMという)で、検索結果からユーザにより選択された楽音データ群に含まれる楽音データが示す楽音を再生させる。すなわち、制御部21は、検索結果からユーザにより選択された楽音データ群に含まれる楽音データのBPMを、指定されたBPMと同期させる。なお、情報処理装置20が外部機器と同期を取って接続している場合、外部機器において指定されたBPMを情報処理装置20が受信して、受信したBPMを指定BPMとして用いるようにしてもよい。また、この場合、BPM指定スライダ201を用いて指定したBPMを外部機器に送信可能としてもよい。
キー指定鍵盤202は、所定の音域(ここでは1オクターブ)が割り当てられた鍵盤を模した画像である。キー指定鍵盤202における各鍵には、対応する音高が割り当てられている。ユーザが、操作部25を用いて或る鍵を指定すると、制御部21は、指定された鍵に割り当てられた音高を取得し、これを指定キーとしてRAMに記憶させる。制御部21は、キー指定鍵盤202を用いて指定されたキーで、検索結果からユーザにより選択された楽音データ群に含まれる楽音データが示す楽音を再生させる。すなわち、制御部21は、検索結果からユーザにより選択された楽音データ群に含まれる楽音データのキーを、指定されたキーと同期させる。なお、情報処理装置20が外部機器と同期を取って接続している場合、外部機器において指定されたキーを情報処理装置20が受信して、受信したキーを指定されたキーとして用いるようにしてもよい。また、この場合、キー指定鍵盤202を用いて指定したキーを外部機器に送信可能としてもよい。
コード指定ボックス203は、ユーザにより指定されたコードの入力を受け付ける入力ボックスである。ユーザが、操作部25を用いて、例えば、「Maj7」といった和音種類を指定して入力すると、制御部21は、入力された和音種類を指定コードとしてRAMに記憶させる。制御部21は、検索結果から楽音データ群に含まれる楽音データのうち、コード指定ボックス203を用いて指定された和音種類をもつ楽音データを検索結果として取得する。コード指定ボックス203は、プルダウン形式としてコード名称をリスト表示させてフィルタリングしてもよい。なお、情報処理装置20が外部機器と同期を取って接続している場合、外部機器において指定されたコードを情報処理装置20が受信して、受信したコードを指定されたコードとして用いるようにしてもよい。また、この場合、コード指定ボックス203を用いて指定したコードを外部機器に送信可能としてもよい。また、入力形態として、表示部上に和音種類毎にボタンを表示させ、それをクリックして指定するようにしてもよい。
表示部24の下部には、検索結果の楽音データ群が一覧として表示される。ユーザは、検索結果の一覧において、それぞれ異なるパートを表すタブ(パートタブという)のうちいずれかを指定することで、各パートについて検索結果の楽音データ群の一覧を表示させる。ドラムスのパートタブが指定された場合、ユーザが操作部25(ここではキーボード)を用いて、上、右、左といった矢印が割り当てられたキーを押下することで、制御部21は、バスドラム、スネアドラム、ハイハット及びシンバルといった、ドラムスを構成する複数のパートのうち、押下されたキーと対応したパートの検索結果を表示させる。パートタブのうち再生履歴と表示されるタブには、検索結果のうち、それまでにユーザにより選択されて再生された楽音データを有する楽音データ群が表示される。なお、上述したタブのほかに、ユーザが気にいったパート毎の波形データの組み合わせを登録したものである自動伴奏データを一覧表示するために、「自動伴奏データ」という名前のタブを追加し、登録した自動伴奏データを検索できるようにしてもよい。
検索結果において、項目「順位」は、検索結果の楽音データ群について類似度の高い順位を表す。項目「ファイル名」は、楽音データ群が有する楽音データのファイル名を表す。項目「類似度」は、入力リズムパターンと、検索結果である楽音データ群のそれぞれの楽音データが有するリズムパターンとの間の距離を表している。すなわち、「類似度」で表される数値が小さいほど、該距離が短く、入力リズムパターンに類似する度合いが高いことを意味している。制御部21は、検索結果の表示の際に、類似度の小さい順に楽音データの名前とそれに関連する情報を並べて表示させる。「キー」は、その楽音データを音高変換するときの基準の音高を表す。なお、「キー」は、リズム楽器に相当するパートのデータでは、未指定として表示される。「ジャンル」は、楽音データのそれぞれが所属するジャンルを表す。「BPM」は、楽音データのそれぞれに含まれるBPMであって、楽音データが示す楽音の本来のBPMを表す。「パート名」は、楽音データ群に含まれるパートIDにより識別されるパートの名称である。ここにおいてユーザは、「キー」、「ジャンル」及び「BPM」の少なくともいずれか1の項目を用いて、この検索結果をフィルタリングして表示させることが可能である。
再び図7に戻る。ユーザが、検索結果として表示された楽音データ群のうち1つを選択し、例えばマウスを用いてダブルクリックを行うと、制御部21は、ユーザにより選択された楽音データを、作成中の自動伴奏データの一つのパートのデータとして特定し、RAMの自動伴奏データテーブルの該当するパートの列に情報を記録する(ステップSa7)。このとき制御部21は、検索結果の表示画面において、選択されてダブルクリックが行われた楽音データの背景色を、選択されていない楽音データ群の背景色と異ならせて表示する。
次に制御部21は、小節線クロックに基づくデータ位置から、ステップSa7で特定されて自動伴奏テーブルに登録されている各パートの楽音データを読み出して、それぞれの楽音データに対応付けられたBPMとユーザにより指定されたBPMとの関係に基づく速度となるように、すなわち、特定された楽音データのBPMを指定されたBPMに同期させるように、この楽音データが示す楽音にタイムストレッチを施して、必要に応じてピッチ変換を施して再生する(ステップSa8)。ユーザにより指定されたBPMは、初回検索時には入力BPMが用いられ、検索結果に対してユーザがBPM指定スライダ201を用いてBPMを指定した場合には、この指定BPMが用いられる。なお、小節線クロックに基づくデータ位置に限らず、制御部21が、小節線の先頭から楽音データを読み出すようにしてもよい。
図12は、BPMの同期処理を説明する模式図である。タイムストレッチについては、周知の方法が用いられればよいが、例えば次のようにしてもよい。楽音データがWAVEやmp3のようなオーディオファイルの場合、この楽音データが有するBPMとユーザにより指定されたBPMとの差が大きくなるにつれて、再生時の音質が劣化する。これに対して、制御部21は次のような処理を行う。「(楽音データが有するBPM×(1/21/2))<(ユーザにより指定されたBPM)<(楽音データが有するBPM×21/2)」の場合、制御部21は、ユーザにより指定されたBPMとなるように楽音データにタイムストレッチを施す(図12(a))。また、「(ユーザにより指定されたBPM)<(楽音データが有するBPM×(1/21/2))」の場合、制御部21は、ユーザにより指定さ
れたBPMの倍のBPMとなるように楽音データにタイムストレッチを施す(図12(b))。また、「(楽音データが有するBPM×21/2)」<(ユーザにより指定されたBPM)」の場合、制御部21は、ユーザにより指定されたBPMの半分のBPMとなるように楽音データにタイムストレッチを施す(図12(c))。このようにすることで、楽音データが有するBPMとユーザにより指定されたBPMとの差が大きいことに起因して再生時の音質が劣化するような事態を少なくすることができる。上述の(1/21/2)や21/2といった係数は一例であり、他の値であってもよい。これにより、ユーザによる入力リズムパターンにおけるオンセット時刻とオフセット時刻との差が、ユーザによる押鍵時間が長いために大きくなったり、逆にユーザによる押鍵時間が短いために小さくなったりしたときに、タイムストレッチにより伸張する音の長さの変化を予め決められた範囲に収めることが可能となる。結果として、ユーザは、入力リズムパターンに対する検索結果に感じる違和感が少ないものとなる。
また、ユーザがキー指定鍵盤202を用いてキーを指定している場合、制御部21は、コードパートの楽音データが示す楽音を、この楽音データに対応付けられたキーと指定キーとの差に応じてピッチ変換させて、すなわち、特定された楽音データのキーを指定キーに同期させて再生させる。例えば、特定された楽音データに対応付けられたキーが「C」であり、指定キーが「A」であるような場合、特定された楽音データのピッチを上げる方法と下げる方法が考えられるが、ここでは、ピッチシフト量が少なく、音質の劣化を少なくすることが期待できるため、特定された楽音データのピッチを上げる方法を採用する。
図13は、キーテーブルを表す図である。キーテーブルは記憶部22に記憶されている。キーテーブルには、1オクターブを12音階で表した各キーの名称と、各キーに順番に割り振られたキーNoとが記述されている。制御部21は、ピッチ変換を行う際、キーテーブルを参照する。制御部21は、キーテーブルにおいて、特定された楽音データに対応付けられたキーに応じたキーNoから指定キーに応じたキーNoを減算した値を算出する。この値を、キー差分という。そして、制御部21は、「−6≦キー差分≦6」となる場合は、特定された楽音データを、その楽音の周波数が、「2の(キー差分/12)乗」となるようにピッチ変換する。また、制御部21は、「キー差分>7」となる場合は、特定された楽音データを、その楽音の周波数が、「2の((キー差分−12)/12)乗」となるようにピッチ変換する。また、制御部21は、「キー差分<−7」となる場合は、特定された楽音データを、その楽音の周波数が、「2の((キー差分+12)/12)乗」となるようにピッチ変換する。制御部21は、ピッチ変換を行った楽音データが示す楽音を音声出力部26から出力させる。上述の式は一例であり、再生時の音質が保障されるように予め決められればよい。
また、ユーザがコード指定ボックス203でコードを指定している場合、制御部21は、検索結果から選択された楽音データにおいて、指定されたコードに応じて音高変換された楽音データを再生させる。すなわち、制御部21は、特定された楽音データのコードを、指定されたコードに音高変換して再生する。
ステップSa8の次に、検索結果のうち別の楽音データがユーザにより選択されてクリックが行われると(ステップSa9;Yes)、制御部21は処理をステップSa7に戻す。この場合、制御部21は、新たに選択された楽音データを特定した後、作成中の自動伴奏データのパートとして特定し(ステップSa7)、ステップSa8の処理を行う。なお、楽音データは、自動伴奏データのパートとして規定のパート数に達するまで登録可能であって、例えば、ドラムパート(最大4チャンネル)、ベースパート(最大1チャンネル)、コードパート(最大3チャンネル)などのように、各パートに登録数の上限がある。例えば、ドラムパートを5つ指定しようとすると、それまで再生されていたドラムの楽音データの変わりに、新しく指定した楽音データが登録されることになる。
一方、ステップSa8の次に、検索結果のうち別の楽音データがユーザにより選択されることなく(ステップSa9;No)、ユーザにより検索処理の終了が指示されると(ステップSa10;Yes)、制御部21は、自動伴奏データテーブルと該テーブルによって指定されるファイルを一つのデータファイルにして、自動伴奏データのファイルとして記憶部22に記憶させて(ステップSa11)、処理フローを終了する。ユーザは、操作部25を用いて、記憶部22に記憶された自動伴奏データを任意に読み出させることが可能である。一方、ユーザにより検索処理の終了が指示されない場合(ステップSa10;No)、制御部21は処理をステップSa1に戻す。そして、ユーザが、異なるパートを選択してリズム入力装置10を用いてリズムパターンを入力して以降の処理が行われると、自動伴奏データの異なるパートの楽音データが登録される。そして、自動伴奏データを組み合わせるために必要とする数だけパートの登録が済んだ状態となるまでユーザが操作を行うことで、自動伴奏データが作成されることになる。また、既に再生されているパートの楽音データが示す楽音に重ねて、新たに選択されたパートの楽音データが示す楽音が出力される。このとき、制御部21は、小節線クロックに基づくデータ位置から楽音データを読み出すため、複数のパートについての楽音データの楽音が同期して出力されることとなる。
各パートの進行形態には、大別して以下のような3通りのバリエーションが考えられる。ここで、演奏進行タイミングの同期制御については、設定に従って検索された自動伴奏データをユーザが指定した後、小節単位、2拍単位、1拍単位、8分単位又は指定無しのうち、いずれかの基準を用いてクオンタイズされたタイミングで再生を開始することが可能である。1つ目の進行形態は、「節頭で同期させる」というものである。この場合、ユーザが各パートの伴奏を指定した後、小節線クロックが小節頭になった時点で対応する小節頭の位置から楽音データが再生される。2つ目の進行形態は、「拍頭で同期させる」というものである。この場合、ユーザが各パートの伴奏を指定した後、小節線クロックが拍頭になった時点で対応する拍位置から楽音データが再生される。3つ目の進行形態は、「同期しない」というものである。この場合、ユーザが各パートの伴奏を指定した直後に、対応する進行位置から楽音データが再生される。このような進行形態のバリエーションは、その設定内容が記憶部22に記憶されており、ユーザは操作部25を用いて任意の設定内容を読み出させることが可能である。
1−2−2.再生
次に、ループ再生モード、演奏再生モード、及び演奏ループ再生モードの各々において、制御部21が行う処理の詳細について説明を行う。上述したように、ユーザは、入力リズムパターンを入力することで、検索結果のリズムパターンレコードに基づく音を出力させることが可能である(ループ再生モード及び演奏ループ再生モード)。また、上述したように、ユーザは、検索結果のリズムパターンレコードにおける構成音を用いて、リズム入力装置10に対して演奏操作を行い、この演奏操作によるフレーズの音を出力させることが可能である(演奏再生モード及び演奏ループ再生モード)。以下において、ループ再生モード、演奏再生モード、及び演奏ループ再生モードにおける各々の違いについて説明する。
図14は、ループ再生モードにおいて制御部21が行う処理を説明するための模式図である。ループ再生モードは、1小節からなる検索結果のリズムパターンレコードに基づく
音を、小節線クロックが刻むBPMで、伴奏に合わせて制御部21が繰り返し再生対象として出力するモードである。小節線クロックが、1小節内における検索結果のリズムパターンレコードの各構成音の発音開始時刻を越えると、制御部21は、この構成音を再生対象とする。ここで、小節線クロックは、その値が1に達する、すなわち1小節が経過すると、再び0の値となり、以降、0から1の間の値を繰り返す。従って、この小節線クロックの繰り返しの周期で、検索結果のリズムパターンレコードに基づく音が繰り返し再生対象として出力されることとなる。図14において、矢印で表されるように、小節線クロックが、検索結果のリズムパターンレコードの各構成音の発音開始時刻を越えると、制御部21が各構成音を再生対象とするようになっている。ループ再生モードは、主に、ユーザが、検索結果フレーズがどのような音量、音色、リズムパターンで構成されているかを確認する際に指定されるモードである。
図15は、演奏再生モードにおいて制御部21が行う処理を説明するための模式図である。演奏再生モードは、ユーザがリズム入力装置10を用いて演奏操作を行うと、ユーザが演奏操作を行った時刻に対応した、検索結果フレーズの構成音が制御部21によって再生対象とされるモードである。演奏再生モードにおいては、1小節内において、ユーザが
演奏操作を行った時刻においてのみ、音が再生対象とされる。つまり、演奏再生モードは、ループ再生モードとは異なり、ユーザがリズム入力装置10を用いて演奏操作を行わない時刻においては、音が出力されることはない。ここで、ユーザが、検索結果におけるリズムパターンと全く同一のリズムパターンで演奏操作を行った場合、検索結果のリズムパターンに基づく音そのものが出力されることとなる。演奏再生モードは、ユーザが、検索結果のリズムパターンにおける構成音を用いて、自ら演奏を継続的に行いたいときに指定されるモードである。
図15では、双方向の矢印で示された区間(「01」〜「06」)における矢印で示された時刻に、ユーザがリズム入力装置10を用いて演奏操作を行ったことを表している。演奏再生モードにおいては、ベロシティデータ、トリガーデータ、検索結果のリズムパターンの各構成音の発音開始時刻、及び各構成音の波形、という4つのパラメータが制御部21に入力される。このうち、ベロシティデータ及びトリガーデータは、ユーザによるリズム入力装置10を用いた入力リズムパターンに基づくものである。また、検索結果のリズムパターンの各構成音の発音開始時刻、及び各構成音の波形は、検索結果のリズムパターンレコードに含まれるものである。演奏再生モードにおいては、ユーザがリズム入力装置10を用いて演奏操作を行う度に、ベロシティデータ及びトリガーデータが制御部21に入力され、以下のような処理が行われる。制御部21は、トリガーデータのオンセット時刻と、検索結果のリズムパターンの各構成音の発音開始時刻との時刻差が最も小さい構成音の波形を、ベロシティデータの大きさに応じた音量を指定して、音声出力部26に出力する。
さらに、制御部21は、再生に使用され、操作のあったパートの楽音データについて、それぞれ操作に応じて変更された一時楽音データとして記憶部22に記憶させる。この一時楽音データは、ユーザによる操作の都度、制御部21によって、ユーザの操作に応じた波形のものに書き換えられる。そして、自動伴奏データの再生中に一時楽音データが記憶部22に記憶されているときは、最新の一時楽音データに基づいて再生がなされる。具体的には、一時楽音データが記憶部22に記憶されているときには、上述したステップSa11では、この一時楽音データとその他の選択されたパートの楽音データとに基づいて、自動伴奏データのファイルや楽音データが記録されることになる。このように、本実施形態によれば、ユーザは、自動伴奏データの再生中に演奏操作子を操作することにより、対応するパートの楽音データを編集して新しい自動伴奏データを作成することができる。
なお、ここにおいて、検索結果のリズムパターンの各構成音のアタック強度を制御部21に対する入力パラメータとして追加することで、以下のようにしてもよい。この場合、制御部21が、トリガーデータのオンセット時刻と検索結果のリズムパターンの各構成音の発音開始時刻との時刻差が最も小さい構成音の波形を、検索結果のリズムパターンにおける各構成音のアタック強度の大きさに対するベロシティデータの大きさに応じた音量を指定して、音声出力部26に出力するようにしてもよい。なお、トリガーデータが入力されなかった区間に対応する構成音の波形は、音声出力部26に出力されない。
次に、演奏ループ再生モードは、ループ再生モードと演奏再生モードを組み合わせた内容のモードである。演奏ループ再生モードにおいては、制御部21が、1小節毎に、ユーザによってリズム入力装置10を用いた演奏操作が行われたかどうかを判定している。演奏ループ再生モードでは、ユーザがリズム入力装置10を用いて演奏操作を行うまでは、制御部21は、検索結果フレーズに基づく音声を再生対象とする。つまり、この時点では、ループ再生モードと同じ動作である。そして、ユーザが、ある小節内において、リズム入力装置10を用いて演奏操作を行うと、この1小節の間は、制御部21は演奏再生モードと同じ動作に従って処理を行う。つまり、ユーザが演奏操作を行った時刻に対応した、検索結果のリズムパターンの構成音が制御部21によって再生対象とされて発音される。演奏ループ再生モードでは、一度でもユーザによって演奏操作が行われると、その後の小節で演奏操作が行われなかった場合、直前の小節においてユーザが入力した時刻に対応した、検索結果フレーズの構成音が制御部21によって再生対象とされて発音される。制御部21は、操作のあったパートの楽音データについて、それぞれ操作に応じて変更された一時楽音データとして記憶部22に記憶させる。この一時楽音データは、ユーザによる操作の都度、制御部21によってユーザの操作に応じた波形のものに書き換えられる。そして、自動伴奏データの再生中に一時楽音データが記憶部22に記憶されているときは、最新の一時楽音データに基づいてループ再生がなされる。上述したステップSa11では、この一時楽音データとその他の選択されたパートの楽音データとに基づいて、自動伴奏データのファイルや楽音データが記録されることになる。このようにして、本実施形態によれば、ユーザは、自動伴奏データの再生中に、演奏操作子を操作することにより、対応するパートの楽音データを編集して、新しい自動伴奏データを作成することができる。演奏ループ再生モードは、ユーザが、検索結果のリズムパターンにおける構成音を用いて自ら演奏を行うとともに、検索結果のリズムパターンの構成音を、入力したリズムパターンによってループ再生させたい場合に指定されるモードである。
このように、第1実施形態によれば、選択されたパートについてユーザが意図する楽音のパターンに基づいて検索された自動伴奏に関する楽音データのうち、少なくともユーザの意図する楽音のパターンに最も近い楽音データを特定することができる。このとき、ユーザは、複数の演奏操作子に対応付けられた各々異なるパートのうち任意のパートを選択してリズムパターンを入力するため、特定のパートについてのリズムパターンを思いついたときに、このパートについてのリズムパターンを入力して検索を行うことが可能となる。また、ユーザは、パートを選択してリズムパターンを入力してそれぞれのパートの演奏として登録するだけでよいため、直感的かつ効率良く自動伴奏データを検索することが可能となる。また、このようにして検索された自動伴奏データのうち、ユーザにより選択された自動伴奏データが同期して再生されるため、ユーザは、複数のパートによる合奏の自動伴奏音を直感的かつ効率良く得ることができる。
2.第2実施形態
次に、本発明の第2実施形態について説明する。
(スタイルデータの検索システム)
2−1.構成
第2実施形態は、音楽データ処理システムの例としてのスタイルデータを検索するシステムである。第1実施形態の音楽データ作成システム100において、自動伴奏DB221が、スタイルデータを記憶するとともに、スタイルデータを検索するためのスタイルテーブルを有している。その他の構成については、第1実施形態と第2実施形態は同様である。
本実施形態におけるスタイルデータは、第1実施形態と同様に電子楽器やシーケンサなどに読み込まれ、いわゆる自動伴奏データと同様の役割を果たす。まず、以下に、本実施形態に係るスタイルデータ及びこれと関連するデータについて概略を説明する。
スタイルデータは、「Bebop01」、「HardRock01」又は「Salsa01」といったそれぞれ異なるスタイルについて集めた伴奏音データ片を、伴奏パターンの最小単位である「セクション」(1〜数小節)毎に、それぞれセクションデータとして纏めた伴奏音データ片の集合であり、記憶部22に記憶される。セクションには複数の種類があり、例えば、「イントロ」、「メイン」、「フィルイン」又は「エンディング」といった構成上の種類と、さらに各セクションにおける「ノーマル」、「バリエーション1」又は「バリエーション2」といったパターンの種類とが存在する。また、セクション毎のスタイルデータには、バスドラム、スネアドラム、ハイハット、シンバル、フレーズ、コード及びベースのそれぞれのパートについて、MIDIフォーマットに従って記述された演奏データの識別子(リズムパターンID)が含まれている。それぞれのスタイルデータの各セクションについて、制御部21により演奏データからパート毎にリズムパターンが解析され、解析結果に従った内容が、スタイルテーブルに登録される。例えば、ベースパートのデータについては、制御部21は、基準となる音高を用いて、演奏データにおける音高の時系列に沿った並びを解析し、解析結果に従った内容をスタイルテーブルに登録する。また、コードパートのデータについては、制御部21は、基準となる和音を用いて、演奏データにおいて用いられているコードを解析し、解析結果に従った内容として「Cmaj7」などのコード情報を、後述する和音進行情報テーブルに登録する。
本実施形態では、さらに各スタイルデータに対応して、セクション進行情報、和音進行情報を有する。セクション進行情報は、楽曲演奏の進行に従って、スタイルデータ中からセクションを時系列的に順次指定するための情報である。和音進行情報は、楽曲演奏の進行に従って演奏されるべき和音を時系列的に順次指定するための情報である。ここで、或る一つのスタイルデータが選択されると、選択されたスタイルデータと対応するセクション進行情報、和音進行情報に基づいて、セクション進行情報テーブルと和音進行情報テーブルとにデータがそれぞれ登録されることになる。なお、セクション進行情報を用いずに、ユーザの指定によって各セクションを選択するようにしてもよい。また、和音進行情報を用いずに、鍵盤11を用いて入力した入力音からコード情報を特定し、それらコード情報に基づいて伴奏を再生させるようにしてもよい。コード情報には、コードのルート音と、コードの種類を示す和音情報とが含まれる。
以下に、スタイルデータの構成を説明する。図16A及び図16Bは、スタイルデータに関するテーブルの一例である。これらのテーブルを構成する、スタイルテーブル、セクション進行情報、和音進行情報等について簡単に説明する。
図16Aは、スタイルテーブルの一例を表した図である。図16Aにおいては、スタイルテーブルの一例として、「ジャンル」が「Swing&JAZZ」である複数のスタイルデータが表されている。1件のスタイルデータは、「スタイルID」、「スタイル名」、「セクション」、「キー」、「ジャンル」、「BPM」、「拍子」、「ベースリズムパターンID」、「コードリズムパターンID」、「フレーズリズムパターンID」、「バスドラムリズムパターンID」、「スネアドラムリズムパターンID」、「ハイハットリズムパターンID」、及び「シンバルリズムパターンID」といった複数の項目からなる。「スタイルID」は、スタイルデータを一意に識別するための識別子である。「スタイル名」は、各スタイルデータを一意に識別する名称である。
スタイルテーブルにおいて、或るスタイル名を有するスタイルデータは、複数のセクションによって構成されている。セクションは、例えば、イントロ(I(ノーマル),II(バリエーション1),III(バリエーション2))、メイン(A(ノーマル),B(バリエーション1),C(バリエーション2),D(バリエーション3))、エンディング(1(ノーマル),2(バリエーション1),3(バリエーション2))といった複数の区間に分割され、それぞれの区間にはノーマルとバリエーションパターンのパターンを有している。つまり、「セクション」は、或るスタイル名を有するスタイルの各々が所属するセクションを表す。例えば、「Bebop01」というスタイル名のスタイルがユーザにより選択されて再生を指示されると、制御部21は、「Bebop01」というスタイル名を有するスタイルデータのうち、セクションがイントロのノーマルパターン「I」であるスタイルデータに基づく楽音を再生させ、その次にセクションがメインのノーマルパターン「A」であるスタイルデータに基づく楽音を所定回数、繰り返して再生させ、その後、セクションがエンディングのノーマルパターン「1」に基づく楽音を再生させる。このようにして、制御部21は、選択されたスタイルのスタイルデータに基づく楽音を、そのセクションの順序に従って、再生させる。「キー」は、各スタイルデータを音高変換させるときの基準となる音高を表す。図では、音名で記述されているが、特定のオクターブの中での音名を示すため、実質的に音高を表すことになる。「ジャンル」は各スタイルデータが所属する音楽のジャンルの名称を表す。「BPM」は、各スタイルデータに基づく音が再生される際のテンポを表す。「拍子」は、3拍子あるいは4拍子などの、各スタイルデータにおける拍子の種類を表す。なお、演奏中にバリエーションの切替え指示があると、対応するセクションのバリエーションパターンに演奏が切り替わり、パターンの最後まで演奏してノーマルパターンに戻る。
各々のスタイルデータには、各パートについて、パート毎のリズムパターンIDが1対1で対応付けて記述されている。例えば図16において「スタイルID」が「0001」のスタイルデータは、「ベースリズムパターンID」が「010010101」である。これは、図5Aに示すリズムパターンテーブルにおいて、パートIDが「01」(ベース)であり、且つ、リズムパターンIDが「010010101」であって、「リズムパターンデータ」が「BebopBass01Rhythm.txt」、「楽音データ」が「BebopBass01Rhythm.wav」であるリズムパターンレコードと、「スタイルID」が「0001」のスタイルデータとが対応付けられていることを表す。各々のスタイルデータには、ベース以外のそれぞれのパートのリズムパターンIDについても、同様の対応付けが記述されている。ユーザにより或るスタイル名のスタイルデータが選択されて再生が指示されると、制御部21は、このスタイルデータの有する各パートのリズムパターンIDと対応付けられた楽音データを、同期させて再生させる。スタイルデータを構成するパート毎のリズムパターンIDの組み合わせは、相性のよいもの同士となるように予め決められている。ここで、リズムパターンレコード同士の相性がよいとは、例えば、異なるパートのリズムパターンレコードについて、お互いにそのBPMが近いとか、キーが同じであるとか、ジャンルが同じであるとか、拍子が同じであるといった事を基準にすればよい。
図16B(a)は、セクション進行情報テーブルを表す。
セクション進行情報テーブルは、楽曲演奏の進行に従って、スタイルデータ中からセクションを時系列的に順次指定するための情報を取りまとめたテーブルである。図16B(a)の構成例に示されるように、セクション進行情報は、スタイルID、スタイルを指定するスタイル指定データSt、セクションを指定するセクション情報Sni、各セクションの開始時間と終了時間との位置(通常、小節単位)を表すセクション開始タイミングデータTssi,Tsei(i=1,2,3,…)、及びセクション進行情報の最終位置を表すセクション進行エンドデータSeから構成することができ、例えば記憶部22に記憶される。つまり、各セクション情報Sniは、対応するセクションに関するデータの記憶領域を指定し、その前後にあるタイミングデータTssi,Tseiは、指定されたセクションによる伴奏の開始及び終了を指示する。従って、このセクション進行情報を用いて、伴奏スタイル指定データStで指定された伴奏スタイルデータの中から、タイミングデータTssi,Tsei及びセクション情報Sniの組合わせの繰返しで、セクションを順次指定することができる。
図16B(b)は、和音進行情報テーブルを表す。
和音進行情報テーブルは、楽曲演奏の進行に従って演奏されるべき和音を時系列的に順次指定するための情報を取りまとめたテーブルである。和音進行情報は、図16B(b)の構成例に示されるように、スタイルID、調情報Key、和音名Cnj、和音名Cnjを規定するための和音根音情報Crj、和音タイプ情報Ctj、各和音の開始及び終了時間位置(通常、拍単位)を表す和音開始及び終了タイミングデータTcsj,Tcej(j=1,2,3,…)、及び和音進行情報の最終位置を表す和音進行エンドデータCeから構成することができ、例えば、記憶部22に記憶される。ここで、各2つの情報Crj,Ctjで規定される和音情報Cnjは、セクション情報Sniで指定されたセクション中の和音演奏データに対して演奏すべき和音の種類を指示し、その前後にあるタイミングデータTcsi,Tceiは、この和音による演奏の開始及び終了を指示する。従って、この和音進行情報を用いると、調情報Keyにより調を指定した上、タイミングデータTcsj,Tcej及び和音情報Cnjの組合わせの繰返しによって、演奏すべき和音を順次指定することができる。
なお、セクション進行情報や和音進行情報のタイミングは、通常、小節単位或いは拍単位で設定されるが、必要に応じて他の任意のタイミングを採用することができ、例えば、クロックタイミング単位でタイミング設定し、楽曲の小節先頭からのクロックタイミング数を各種タイミングデータ等に使用することができる。また、或るセクションSni又は和音Cnjの終了後直ちに次のセクションSni+1或いは和音Cnj+1が開始する場合は、終了タイミングデータTsei,Tcei又は開始タイミングデータTss+1,Tcei+1の何れかを省略することができる。
セクション情報及び和音進行情報から所望の演奏音を得る手法を簡単に説明する。制御部21は、「セクション進行情報」中の伴奏スタイル指定データStと、順次読み出されるセクション情報Sniにより指定されたセクション(例えば、「BeBop01」の「Main−A」)の伴奏音データ片を読み出すと、これをRAMに記憶させる。ここで、各セクションに関するデータは、基準となる和音(例えば、「Cmaj」)に従って記憶されている。記憶部22には、上記基準となる和音に従った伴奏音データ片を、指定された任意の和音に従った音に変換するための変換規則を記述した変換テーブルが記憶されている。和音進行情報テーブルから順次読み出された任意の和音情報Cnj(例えば、「Dmaj」)が制御部21に供給されると、前記基準となる和音に従った伴奏音データ片は、この変換テーブルに基づいて、上記読み出された任意の和音情報Cnjに従った音に変換される。音声出力部26は、この変換された音を出力する。セクション進行情報から読み出されるセクション情報が変化する毎に、制御部21に供給される伴奏音データ片が変化するので、発音される音が変化する。一方、和音進行情報から読み出される和音情報が変化したときは、変換規則が変化し、その結果、発音される音が変化する。
2−2.動作
図17は、第2実施形態に係る情報処理装置20が行う処理のフロー図である。図17において、ステップSd0〜Sd5については、第1実施形態に係る図7のステップSa0〜Sa5と同様である。第2実施形態のステップSd6において、制御部21は、ステップSd5における検索結果のリズムパターンレコードと同一のパターンIDが、いずれかのパートのリズムパターンIDに設定されたスタイルデータを検索結果として表示させる。
図18は、スタイルデータの検索結果の一例を表す図である。図18(a)は、ユーザがコード入力音域鍵盤11bを用いて入力したリズムパターンに基づいて、制御部21が検索結果として出力したスタイルデータが、表示部24に表示された場合を表している。図18(a)〜図18(c)において、項目「類似度」は、入力リズムパターンと、検索結果であるスタイルデータのリズムパターンとの間の距離を表している。すなわち、「類似度」で表される数値が小さいほど、入力リズムパターンに類似する度合いが高いことを意味している。図18(a)に示されるように、「類似度」(ステップSb7で算出されたリズムパターン同士の距離)が小さい順番で、すなわち入力リズムパターンに対する類似の度合いが高い順番で、スタイルデータが表示されている。ここにおいてユーザは、「キー」、「ジャンル」又は「BPM」のすくなくともいずれか一の項目を用いて、この検索結果をフィルタリングして表示させることが可能である。また、ユーザがリズムパターンを入力した際のBPM、すなわち入力BPMが、検索結果の上部に入力BPM表示欄301として表示される。また、検索結果の上部には、検索結果のスタイルデータを入力BPMでフィルタリングするためのテンポフィルター302と、検索結果のスタイルデータを指定した拍子でフィルタリングするための拍子フィルター303とが表示される。なお、他にも、「コード」、「スケール」、「音色」を表示し、「コード」であればコードパートにおいて使用しているコードで、「スケール」であればスタイルデータを作成した調で、「音色」であれば各パートの音色で、それぞれでフィルタリングしてもよい。
制御部21は、ユーザが入力BPMに近いBPMを持つスタイルデータのみを検索結果として出力するためのフィルタリング機能を備えており、ユーザは、検索結果の上部に表示されるテンポフィルター302に対して、操作部25を介して任意に上記フィルタリング機能のON/OFFを設定することが可能である。具体的には、上述したように各スタイルデータには「BPM」が含まれているから、上記フィルタリング機能がONである場合、制御部21は、入力BPMの例えば(1/21/2)倍〜21/2倍のBPMを持つスタイルデータに関する情報のみを検索結果として表示する。なお、入力BPMに適用する上記係数の値(1/21/2)〜21/2は一例であり、その他の値であってもよい。
図18(b)は、図18(a)の状態から、ユーザが、フィルタリング機能をONにした状態を表している。図18(b)では、上述した(1/21/2)〜21/2という係数を用いて制御部21がフィルタリングを行っている。つまり、図18(b)では、入力BPMが100であるため、71〜141のBPMを持つスタイルデータが、フィルタリングの結果として表示されている。このようにすることで、ユーザは、入力BPMと近いBPMを持つスタイルデータを検索結果として得ることができ、検索結果に対してより納得感を持てるようになる。
また、ユーザは、操作部25を用いて拍子フィルター303に対して4/4拍子などの任意の拍子を表す情報を入力することで、入力された拍子情報と対応づけられたスタイルデータの情報が検索結果として表示されるように、フィルタリングを行うことが可能である。なお、指定された拍子のスタイルデータに絞りこむだけでなく、予めグルーピングされた関連する拍子も含めて抽出するようにしてもよい。例えば4拍子指定時だと4拍子のスタイルデータだけが抽出されるだけではなく、4拍子のメトロノーム上で入力が容易な、2拍子、8分の6拍子も含めて抽出されるようにしてもよい。
また、ユーザは、初めに或るパートを指定して、入力リズムパターンに近いリズムパターンを持つスタイルデータを検索(1回目の検索)した後に、初めに指定したパートと異なるパートを指定してリズムパターンを入力し、再び検索(2回目の検索)を行うことで、1回目の検索で出力されたスタイルデータが2回目の検索によって絞り込まれた検索結果を得ることが可能である。この場合の検索結果における「類似度」は、各々のスタイルデータにおいて、1回目の検索で指定されたパートにおける類似度と、2回目の検索で指定されたパートにおける類似度とが加算された値となっている。例えば図18(c)は、図18(a)の検索結果が表示された状態において、ユーザがパートにハイハットを指定してリズムパターンを入力した結果の表示内容を表している。また、図18(c)では、拍子フィルター303に入力された「4/4」の拍子情報を持つスタイルデータを検索結果として表示させる。図18(c)における「類似度」は、各々のスタイルデータにおいて、対象パートが「コード」である場合の類似度と、対象パートが「ハイハット」である場合の類似度とが加算された値となっている。なお、図18においては、「第1検索パート」及び「第2検索パート」という項目で表されるように、2つのパートを用いて検索可能なことを示しているが、検索の際に指定できるパートの数はこれに限ったものではない。また、ユーザが、或るパートを指定して検索を行った後に、初めに指定したパート(第1検索パート)と異なるパート(第2検索パート)を指定してリズムパターンを入力した場合、制御部21は、第1検索パートを用いた検索結果に関わらず、第2検索パートのみを用いた検索結果を出力(上書き検索という)するようにしてもよい。このような絞り込み検索と上書き検索とは、情報処理装置20の操作部25を介して、ユーザにより切り替え可能としてもよい。
また、複数の異なるパートが指定された場合の検索方法は、上述した内容に限らない。例えば、ユーザが、異なる複数のパートを同時に指定して演奏操作を行った場合、次のようにすればよい。制御部21は、ユーザにより指定された各パートのパートIDを持つリズムパターンレコードと、当該パートの入力リズムパターンとに基づいて、両者の類似度を各々算出する。次に制御部21は、指定された各パートのリズムパターンレコードについて算出された類似度を、上記リズムパターンレコードと対応付けられたスタイルデータごとに加算する。そして表示部24は、加算後の類似度が最も小さい、すなわち最も類似しているスタイルデータから昇順で表示する。例えばユーザが、バスドラムとスネアドラムのパートについて同時に演奏操作を行ってリズムパターンを入力した場合、制御部21は、バスドラムの類似度とスネアドラムの類似度をそれぞれ算出すると、スタイルデータごとに両者を加算する。このようにすれば、ユーザは、複数のパートを同時に指定して、意図するリズムパターンとの類似度が決められた条件を満たすようなリズムパターンで構成されたフレーズを持つスタイルデータを検索することができる。
図18(a)〜(c)のいずれかにおいて、操作部25を用いてユーザが任意のスタイルデータ(スタイルレコード)を選択すると、制御部21は、ユーザにより選択されたスタイルデータを特定し(ステップSd7)、特定したスタイルデータの構成表示画面を表示部24に表示させる。
図19は、スタイルデータの構成表示画面の一例を表す図である。ここでは、ユーザが、検索結果からスタイル名が「Bebop01」であるスタイルデータを選択したものとする。構成表示画面の上部には、選択されたスタイルのスタイル名、キー、BPM及び拍子が表示される。構成表示画面の中央には、セクションを示すタブ(セクションタブという)401が表示されるとともに、各タブが示すセクションにおける各パートの情報がそれぞれトラックに展開されて表示される。各パートの情報には、それぞれのリズムパターンレコードにおけるBPM、リズムカテゴリ及びキーが表示される。図19において横軸は時間軸を表し、図において左から右に向かって時間が進行することを表す。また、タブで示されるセクションにおける各トラックに示される各パートのリズムパターンに基づいて、各構成音の発音開始時刻に相当する位置に、その画像の左端が対応するように所定の画像402が表示される。ここでは、この画像402は構成表示画面に対して上下に所定の幅を持った棒状の形状で表示される。ユーザが、操作部25を用いてセクションタブ401のうち任意のタブを選択すると、制御部21は、選択されたタブのセクションのスタイルデータに基づく楽音を再生する(ステップSd8)。なお、この画面では、図示しない操作子の操作によって、ユーザが作成したオリジナルのスタイルデータや、既存あるいはオリジナルのスタイルデータに含まれる演奏データを、登録、編集及び確認することも可能である。
情報処理装置20は、スタイルデータの構成表示画面において、図示しない操作子をユーザが操作することによる再生開始指示に基づいてスタイルデータの再生が可能である。その再生時の動作のモードとして、自動伴奏モード、差し替え検索モード及び追従検索モードの3種類を備えている。ユーザは、操作部25を用いることで、これらのモードを切り替えることが可能である。自動伴奏モードの場合、選択されたスタイルデータに基づく演奏データが再生されるとともに、ユーザは、リズム入力装置10や操作部25を用いて演奏操作を行うことが可能であり、演奏操作に基づく音が、選択されたスタイルデータに基づく楽音とともに出力される。このとき、制御部21はミュート機能を備えており、ユーザは、操作部25を用いて任意のパートについてミュート機能を働かせることで、このパートの演奏データが再生されないようにすることが可能である。この場合、ユーザは、ミュートさせていないパートを伴奏音源のように聴きながら、ミュートさせたパートについては自らが演奏操作を行うことが可能である。
また、差し替え検索モードの場合、図19で示される再生画面において、ユーザが、操作部25を用いて任意のパートを指定してリズム入力装置10に対してリズムパターンを入力すると、制御部21は、以下のような処理を行う。この場合、制御部21は、再生中のスタイルデータにおいて予め組み合わされた演奏データのうち、指定されたパートについて、入力されたリズムパターンに基づく検索結果から選択された演奏データに差し替える。このとき、ユーザが任意のパートを指定して、リズム入力装置10を用いてリズムパターンを入力すると、制御部21は指定されたパートについて上述した検索処理を行い、図11のような検索結果の画面を表示部24に表示させる。ユーザが検索結果から特定の一件を選択すると、制御部21は、再生中のスタイルにおいて、ユーザにより指定されたパートの演奏データを選択されたものに差し替える。そして、その差替えられた演奏データによって演奏がなされる。このようにすることで、ユーザは、検索結果から選択したスタイルのうち、所望するパートについて、自らの入力リズムパターンに基づく演奏データに差し替えて演奏することが可能となる。これにより、ユーザは、既に組み合わされたものに限らず、セクション毎、パート毎に自らの意図するリズムパターンを反映させたスタイルデータを得ることができるため、情報処理装置20を用いて、検索だけでなく作曲を行うことが可能となる。
また、追従検索モードの場合、ユーザが、ミュート機能を用いて、ミュートさせていないパートを伴奏音源のように聴きながら、ミュートさせたパートについて自ら演奏操作を行うと、制御部21は、演奏操作が行われたパートの入力リズムパターンと相性の良い演奏データを、演奏操作が行われていない各パートについて検索する。ここでリズムパターン同士の相性が良いとは、キー、ジャンル又は拍子が同じであるとか、入力BPMに対して予め決められた範囲内のBPMを有するといったことに基づいて、予め決められれば良い。制御部21は、演奏操作が行われたパートの入力リズムパターンと相性の良い演奏データのうち、類似度が最も小さい(すなわち最も類似している)ものを特定すると、これらを同期させて再生させる。このようにすれば、検索結果に対するユーザの納得感が低いものであっても、ユーザは、パートを指定してリズムパターンを入力することで、自らの入力したリズムパターンと相性の良いスタイルデータを再生させることが可能となる。
ステップSd8の次に、操作部25を用いてユーザが別のスタイルデータを選択すると(ステップSd9;Yes)、制御部21は、処理をステップSd7に戻す。この場合、制御部21は、新たに選択されたスタイルデータを特定し(ステップSd7)、特定したスタイルデータの再生画面を表示部24に表示させる。ステップSd8の次に、操作部25を用いてユーザが別のスタイルデータを選択することなく(ステップSd9;No)、検索処理の終了が指示されると(ステップSd10;Yes)、制御部21は処理を終了する。
このように、第2実施形態によれば、ユーザは、選択されたパートについて演奏操作によってリズムパターンを入力することで、特定のパートの楽音データに限らず、入力リズムパターンと類似するリズムパターンの楽音データと、これと相性の良い楽音データとが組み合わさったスタイルデータを得ることが出来る。また、ユーザは、検索結果のスタイルデータのうち、任意のパートの楽音データについて、最初に入力したのとは異なる入力リズムパターンと類似する楽音データに差し替えて演奏したり、そのデータを作成したりすることが可能である。これにより、ユーザは、情報処理装置20を用いて検索だけでなく作曲を行うことが可能となる。
3.第3実施形態
第3実施形態において、音楽データ作成システム100は、第1実施形態で説明した検索機能に加えて(または代えて)、楽音データの編集機能を有する。検索により発見された楽音データにより示される演奏音がユーザの所望するものとは完全に一致しておらず、ユーザがその楽音データを修正したい場合がある。本実施形態は、このような要求に応えるものである。以下において、第1実施形態または第2実施形態と共通する事項についてはその説明を省略する。
図27は、第3実施形態に係る音楽データ作成システム100の機能構成を示す図である。制御部21は、パターン取得部701と、検索部702と、指示受け付け部703と、楽音データ生成部704と、楽音再生部705と、登録部706とを有する。パターン取得部701は、複数の演奏パートの中から選択された特定パートについて、リズムのパターンを示す入力リズムパターン(入力データの一例)を取得する。検索部702は、自動伴奏データベース221から、入力リズムパターンと特定パートにおけるリズムパターンデータ(参照データの一例)との比較結果に基づいて、1以上の楽音データ(音データの一例)およびその楽音データに対応するリズムパターンデータを検索結果として取得する。なお、既に説明したように、自動伴奏データベース221は、複数の演奏パートの各々について1以上の楽音データおよびその楽音データにおけるリズムのパターンを示すリズムパターンデータが登録されたデータベースである。指示受け付け部703は、検索結果に含まれるリズムパターンデータに対する編集指示を受け付ける。楽音データ生成部704は、編集指示に応じて編集されたリズムパターンデータに対応する楽音データを生成する。楽音再生部705は、楽音データ生成部704により生成された楽音データに基づいて、楽音を再生する。登録部706は、編集指示に応じて編集されたリズムパターンデータおよびこのリズムパターンデータに対応して楽音データ生成部704により生成された楽音データの組を自動伴奏データベース221に登録する。
図28は、第3実施形態におけるUI画面を例示する図である。この例で、リズム入力装置10は、タッチスクリーン付きの表示装置を有する。図28は、この表示装置に表示される画像を表している。UI画面は、検索領域81と、シーケンサー領域82とを有する。検索領域81は、検索条件を入力するための領域である。検索領域81は、パート指定領域811と、ジャンル指定領域812と、テンプレート指定領域813と、結果表示領域814と、検索ボタン815とを有する。以下、このUI画面を用いて、第3実施形態における動作を説明する。
図29は、音楽データ作成システム100の第3実施形態に係る処理を示すフローチャートである。ステップSe1において、制御部21は、検索領域81に対する操作が行われたか判断する。パート指定領域811に対する操作が行われたと判断された場合(Se1:A)、制御部21は、処理をステップSe2に移行する。ジャンル指定領域812に対する操作が行われたと判断された場合(Se1:B)、制御部21は、処理をステップSe3に移行する。テンプレート指定領域813に対する操作が行われたと判断された場合(Se1:C)、制御部21は、処理をステップSe4に移行する。検索ボタン815に対する操作が行われたと判断された場合(Se1:D)、制御部21は、処理をステップSe11に移行する。結果表示領域814に対する操作が行われたと判断された場合(Se1:E)、制御部21は、処理をステップSe13に移行する。検索領域81に対する操作が行われていないと判断された場合(Se1:NO)、制御部21は、処理をステップSe14に移行する。
ステップSe2において、制御部21は、ユーザの操作に応じて特定パートを選択する。パート指定領域811は、パートを指定(選択)するための領域である。パート指定領域811において、各セルには、それぞれ異なるパートが割り当てられて(アサインされて)いる。図28の例では、各セルには、上から、ドラムス、ベース、コード、およびフレーズが割り当てられている。制御部21は、タッチパネルにおいてタッチされたセルに割り当てられたパートを選択する。特定パートを選択すると、選択されたパートを編集可能とするために、後述するステップSe7以降の処理に移行する。なお、パートの選択は、シーケンサ画面に特定パートの演奏パターンが表示されている状態でできるようにしてもよい。このようにすることで、例えばシーケンサ画面にコードパートの演奏パターンが表示された状態で、ベースが割り当てられたされたトラックを指定した場合、シーケンサ画面には、トラックに割り当てられたベースの演奏パターンが表示されるようになる。
ステップSe3において、制御部21は、ユーザの操作に応じてジャンルを選択する。ジャンル指定領域812は、ジャンルを指定するための領域である。ジャンル指定領域812において、各セルには、それぞれ異なるジャンルが割り当てられている。図28の例では、各セルには、上から、全ジャンル、テクノ、ハウス、R&B、ヒップホップ、チル、およびファンクが割り当てられている。制御部21は、タッチパネルにおいてタッチされたセルに割り当てられたジャンルを選択する。ジャンルを選択すると、制御部21は、処理をステップSe1に移行する。
ステップSe4において、制御部21は、テンプレートが選択されたか判断する。テンプレート指定領域813は、テンプレートを指定するための領域である。テンプレートとは、楽音データの一部であって、典型的な(使用頻度が高いことが想定される)楽音データ、またはユーザにより事前に登録された楽音データ、もしくはこれらの組み合わせである。
テンプレート指定領域813には、テンプレートのうち、パート指定領域811において指定されたパートおよびジャンル指定領域812において指定されたジャンルに対応するテンプレートが表示される。タッチパネルにおいてあるセルに相当する位置がタッチされると、そのセルに割り当てられたテンプレート(楽音データ)が選択される。図28の例では、テンプレート指定領域813において一番上のセルには「入力リズム」が、それ以外のセルにはテンプレートが割り当てられている。テンプレートが割り当てられたセルが選択された場合(Se4:YES)、制御部21は、処理をステップSe5に移行する。テンプレートが割り当てられたセル以外のセル(この例では「入力リズム」が割り当てられたセル)が選択された場合(Se4:NO)、制御部21は、処理をステップSe7に移行する。
ステップSe5において、制御部21は、ユーザの操作に応じてテンプレートを選択する。続くステップSe6において、制御部21は、選択されたテンプレートを用いて楽音を再生(この例ではループ再生)する。楽音の再生と並行して、制御部21は、処理をステップSe1に移行する。
ステップSe7において、制御部21は、シーケンサー領域82に、特定パートに対応する入力画面を表示する。続くステップSe8において、制御部21は、ユーザの操作に応じて特定パートのリズムパターンを編集する。
図30は、シーケンサー領域82の入力画面の一例を示す図である。図30は、パートとしてドラムスが選択されているときの入力画面を示している。この入力画面は、2次元に配置された複数のセルを含んでいる。これらのセルにおいて、横方向は時間の流れを示している。この例では、1つのセルは1小節の1/16の期間(16分音符に相当する期間)を示している。図30の例では横方向に16個のセルが示されており、全体で1小節分のリズムパターンが示されている。また、複数のセルで構成される各行はそれぞれ一のパートのリズムパターンを示している。この例では、各行は、上から、ハイハット、スネアドラム、およびバスドラムを示している。
図30の例で、白色のセルは無音であることを、ハッチングされたセルは発音(ノートイベント)があることを、それぞれ示している。この例では、単に発音の有無だけが示されているが、ピッチ(ノートナンバー)、アタックの強さ(ベロシティ)、または発音の持続時間(デュレーション)等のパラメータが、色や、連続するセルの長さ等で視覚的に示されてもよい。ユーザがあるセルにタッチすると、そのセルの状態が別の状態に変化する。例えば、そのセルが無音を示していた場合には発音を示す状態に、発音を示していた場合には無音を示す状態に変化する。
図31は、入力画面の別の例を示す図である。図31は、パートとしてベースまたはフレーズが選択されているときの入力画面を示している。この入力画面は、2次元に配置された複数のセルを含んでいる。これらのセルにおいて、横方向は時間の流れを示している。この例では、1つのセルは1小節の1/8の期間(8分音符に相当する期間)を示している。図31の例では横方向に8個のセルが示されており、全体で1小節分のリズムパターンが示されている。また、この例で、縦方向はピッチ(ノートナンバー)を示している。白色のセルは無音であることを、ハッチングされたセルは発音(ノートイベント)があることを示している。ユーザがあるセルにタッチすると、そのセルの状態が別の状態に変化する。タッチされたセルが無音を示していた場合には発音を示す状態に変化する。この場合において、タッチされたセルと同じ期間における他のピッチに発音状態のセルがあれば、発音状態のセルは無音状態に変化する。
制御部21は、図30または図31の入力画面におけるユーザの操作に応じて、特定パートのリズムパターンを編集する。制御部21は、編集されたリズムパターンをRAMに記憶する。編集と並行して、制御部21は、編集途中のリズムパターンに従って楽音をループ再生する。
再び図29を参照する。ステップSe9において、制御部21は、リズムパターンの記憶が指示されたか判断する。リズムパターンの記憶は、例えば、入力画面において記憶ボタン(図示略)がタッチされたことにより指示される。リズムパターンの記憶が指示されたと判断された場合(Se9:YES)、制御部21は処理をステップSe10に移行する。リズムパターンの記憶が指示されていないと判断された場合(Se9:NO)、制御部21は処理をステップSe1に移行する。
ステップSe10において、制御部21は、編集された後で記憶が指示されたリズムパターンに対応する楽音データを、自動伴奏データベース221に登録する。こうして、自動伴奏データベース221に登録された、編集後のリズムパターンから、対応する楽音データ(波形データ)を生成することができる。リズムパターンから楽音データを生成する技術としては、例えば、MIDIデータから波形データを生成する周知の技術が用いられる。さらに、制御部21は、リズムパターンIDなど、自動伴奏データベース221に用いられる情報を生成する。制御部21は、これらの生成したデータを、自動伴奏データベース221に登録する。すなわち、次回以降、この新たに登録されたリズムパターンも検索の対象となる。自動伴奏データベース221へのデータの登録が完了すると、制御部21は、処理をステップSe1に移行する。
ステップSe11において、制御部21は、入力リズムパターンと同一又は類似したリズムを持つ楽音データを、計算された類似度をもとに検索する。楽音データの検索は、例えば、テンプレートが割り当てられたセルについてはそのセルが選択されたことを契機として、「入力リズム」のセルが選択されている場合には検索ボタン815がタッチされた(押された)ことを契機として、開始される。検索の詳細は、第1および第2実施形態で説明したとおりである。なお、ステップSe8において編集された特定パートのリズムパターンを入力リズムパターンとして、上述のステップSe11を実行してもよい。
ステップSe12において、制御部21は、結果表示領域814に検索結果を表示する。結果表示領域814は、検索結果を表示するための領域である。結果表示領域には、検索結果に含まれる楽音データのファイル名が所定の順番(基本的には、ステップSe11で検索された類似順(類似度が大きい順)に検索結果が表示される。類似度が同じリズムパターンが複数ある場合は、所定の優先順位に従った順番(例えば使用頻度の高い順、登録順、アルファベット順)で表示される。)で表示される。検索結果を表示すると、制御部21は、処理をステップSe1に移行する。
ステップSe13において、制御部21は、検索結果の中から、ユーザの操作に応じて一の楽音データを選択する。具体的には、制御部21は、結果表示領域814においてユーザによりタッチされたセルに割り当てられた楽音データを選択する。楽音データを選択すると、制御部21は、処理をステップSe7に移行する。この場合、ステップSe7において、選択された楽音データに対応するリズムパターンが、入力画面に表示される。なお、楽音データの選択に応じて表示されるようにしたが、表示と同時に再生するようにしてもよい。
ステップSe14において、制御部21は、シーケンサー領域82が操作されたか判断する。シーケンサー領域82が操作されたと判断された場合(Se14:YES)、制御部21は、処理をステップSe8に移行する。なお、これ以前に、テンプレートや楽音データが選択されていない場合、ここでステップSe8に処理を移行しても、編集の対象となるリズムパターンは存在しないため、制御部21は処理をステップSe1に移行する。また、シーケンサー領域82が操作されていないと判断された場合(Se14:NO)、制御部21は、処理をステップSe1に移行する。
以上で説明したように、本実施形態によれば、ユーザは、検索された楽音データを編集することができる。この際、ユーザは、リアルタイムでループ再生される楽音を聞きながら、リズムパターンを編集することができる。また、ユーザは、編集されたリズムパターンに対応する楽音データを、自動伴奏データベース221に登録し、再利用することができる。なお、パート指定領域811、ジャンル指定領域812、テンプレート指定領域813、および結果表示領域814に表示される項目は、自動伴奏データベース221から取得される。また、本実施形態で説明したUI画面(シーケンサー領域82の入力画面を含む)が第1実施形態または第2実施形態において用いられてもよい。
なお、ファイル名検索などの既存の検索技術が、本実施形態と組み合わせて用いられてもよい。また、本実施形態では、パートを指定して所望のリズムパターンを入力すると、類似する楽音データ(パート毎のデータである)が検索される。検索結果は一覧として表示され、一覧に含まれる楽音データのうち1つが選択されると、その楽音データが再生(発音)された。この一覧のうち1つが選択された場合において、さらに検索ボタンが押されたときは、その選択された楽音データを検索キー(クエリー)として再度、検索が行われ、その検索結果が一覧として表示されてもよい。具体的には、例えば、図7において、Sa8の特定された楽音データを再生するステップの後に検索の指示を受け付けるステップを追加し、検索の指示があったときにはSa5の検索処理に戻るようにし、検索の指示がないときにはそのまま処理をSa9に進めるようにすればよい。また、図17においてSd8の特定されたスタイルレコードを再生するステップの後に、所望のパートを選択したうえで検索する指示を受け付けるステップを追加し、この検索する指示を受け付けるステップで指示を受け付けたときには、Sd5の検索処理に戻るようにし、検索する指示がなかったときにはSd9の処理に進めるようにすればよい。
4.変形例
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。
4−1.変形例1
実施形態では、ループ再生モード或いは演奏ループ再生モードにおいて1件のリズムパターンレコードが検索結果として出力されていたが、これに限らず、リズムパターン検索部213が、入力リズムパターンを基準として、一定以上の類似度を持つ複数のリズムパターンレコードを、類似度の高い順番に並び替えて検索結果として出力してもよい。このとき、検索結果として出力されるリズムパターンレコードの件数は、ROMに定数として記憶されていてもよいし、記憶部22に変数として記憶され、ユーザにより変更可能としてもよい。例えば検索結果として出力されるリズムパターンレコードの件数が5件である場合、各リズムパターンレコードの楽音データの名称が5件分、表示部24にリスト形式で表示される。そしてユーザが選択したリズムパターンレコードに基づく音が、音声出力部26から出力される。
4−2.変形例2
実施形態において、楽器の種類が音高に幅のある楽器の場合、楽音データにおける各構成音のキーと、外部音源を含む伴奏のキーが一致しない場合がある。このような場合に備えて、ユーザが操作部25を通じて操作を行うことで、制御部21が、楽音データにおける各構成音のキーを変更可能としてもよい。また、このようなキーの変更は、操作部25を介して行われてもよいし、リズム入力装置10に設けられたフェーダー、つまみ、ホイール、ボタン等の操作子を介して行われてもよい。また、予め上記構成音のキーを表すデータを自動伴奏DB221に記憶させておくことで、ユーザがキーを変更した場合に、制御部21が、変更後のキーが何かをユーザに告知するようにしてもよい。
4−3.変形例3
実施形態において、楽音データによっては、構成音の終了付近で波形の振幅(パワー)が0近くに収束されていないものがあり、この場合、構成音に基づく音声が出力された後に、クリップノイズが発生する場合がある。これを防ぐために、制御部21が、構成音の開始及び終了付近の一定範囲を自動でフェードイン又はフェードアウトする機能を有していてもよい。ここでユーザは、上記フェードイン又はフェードアウトを適用させるかどうかを、操作部25あるいはリズム入力装置10に設けられた何らかの操作子を介して選択可能である。
図20は、楽音データにおける各構成音に対して、フェードアウトが適用された場合を表す模式図である。図20に示されるように、“フェード”と矢印で示された箇所に、フェードアウトが適用されることで、該当する箇所の波形の振幅が徐々に小さくなり、構成音の終了時刻においては振幅がほぼ0となっている。なお、各構成音について、フェードアウトが適用される期間は、数msecから数十msec程度の範囲内で、ユーザにより調整可能である。また、このフェードアウトを適用する処理は、ユーザによる演奏操作の前処理として行われてもよいし、リアルタイムの処理、または後処理として行われてもよい。
4−4.変形例4
ユーザが演奏操作を行った結果であるフレーズを、制御部21が録音し、この録音した内容を、一般的に音源ループ素材で用いられているようなファイルフォーマットで出力可能としてもよい。例えば、楽曲制作において、ユーザ自らが欲するリズムパターンが自動伴奏DB221に記憶されていない場合に、このように自身の演奏を記録する機能があると、ユーザは、欲していたものとイメージが近いフレーズ楽音データを手に入れることが可能となる。
4−5.変形例5
制御部21は、再生対象とする楽音データを1つに限らず、複数の楽音データを再生対象として、複数のフレーズを音声として重ねて出力可能としてもよい。この場合、例えば表示部24に複数のトラックが表示され、ユーザは各々のトラックに対して、それぞれ異なる楽音データ及び再生モードを割り当てることが可能である。これにより、例えばユーザは、トラックAにコンガの楽音データをループ再生モードで割り当てることでこれを伴奏とし、トラックBにおいてジャンベの楽音データを演奏再生モードで割り当てることで演奏を行う、といったことが可能となる。
4−6.変形例6
実施形態において、ユーザの演奏操作によって入力されたベロシティデータに対して、検索結果の楽音データにおける、上記ベロシティデータに紐付けられたトリガーデータと同じ時刻を持つ構成音(構成音Aとする)のアタック強度の大きさが極端に異なる(ここでは予め定められた閾値を超える場合とする)場合、以下のような処理が行われてもよい。上述のような場合、制御部21は、上記楽音データにおいて、入力されたベロシティデータにほぼ対応した大きさのアタック強度を持つ複数の構成音から、ランダムに選択した構成音と構成音Aを差し替える。ここでユーザは、上述した処理を適用させるかどうかを、操作部25あるいはリズム入力装置10に設けられた何らかの操作子を介して選択可能である。このようにすれば、ユーザは自らが行った演奏操作により近い出力結果を得ることが可能となる。
4−7.変形例7
第1実施形態においては、楽音データはWAVEやmp3といったファイルフォーマットからなるとしたが、これに限らず、例えばMIDI形式のようなシーケンスデータとしてもよい。この場合、記憶部22には、MIDIデータの形式でファイルが記憶され、音声出力部26に相当する構成はMIDI音源となる。特に第1実施形態及び第2実施形態において、楽音データがMIDI形式である場合、キーシフトやピッチ変換に際してタイムストレッチなどの処理が不要となる。従って、この場合、制御部21は、ユーザによりキー指定鍵盤202を用いてキーが指定されたときは、楽音データが表すMIDI情報のうちキーを示す情報を指定キーに変更する。また、この場合、リズムパターンテーブルにおいて、各リズムパターンレコードが複数のコードに応じた楽音データを有する必要がない。制御部21は、ユーザによりコード指定ボックス203を用いてコードが指定されたときは、楽音データが表すMIDI情報のうちコードを示す情報を、指定されたコードに変更する。このように、楽音データがMIDI形式のファイルであっても、上述した実施形態と同様の効果を奏することができる。また、第2実施形態においては、オーディオデータを使ったスタイルデータを利用してもよい。この場合、基本的な構成は、第2実施形態のスタイルデータと同様だが、各パートの演奏データがオーディオデータとして記憶されている点が異なるものである。また、MIDIとオーディオが組み合わされたスタイルデータを利用してもよい。いずれの実施例においても、特にデータ形式を実施形態に記述したものに限定するものではなく、所望の形式で、単独あるいは複数の組み合わせた形で音データを利用するようにすればよい。
4−8.変形例8
実施形態においては、ユーザの演奏操作によるトリガーデータと、自動伴奏DB221に含まれるリズムパターンデータとの比較によって、制御部21が特定のリズムパターンレコードを検出していたが、これに限らず、制御部21は、ユーザの演奏操作によるトリガーデータ及びベロシティデータの双方を用いて自動伴奏DB221を検索するようにしてもよい。この場合、同じリズムパターンを持つ楽音データが2つ存在した場合に、各構成音のアタック強度が、ユーザの演奏操作によるベロシティデータと、より近い楽音データが検索結果として検出される。このようにすれば、アタック強度についても、ユーザがイメージしていたものに近い楽音データが、検索結果として出力されることが可能となる。
4−9.リズムパターン同士のズレの計算方法
実施形態におけるリズムパターン同士のズレの計算方法は一例に過ぎず、異なる計算方法を用いてもよい。以下には、その計算方法のバリエーションを記載する。
4−9−1.変形例9
例えば、確実にリズムカテゴリが一致した検索結果が出力されるように、入力リズムパターンに該当するリズムカテゴリを判定した後、判定結果のリズムカテゴリに属するフレーズレコード又はリズムパターンレコードのみを対象として、リズムパターンのズレの計算(ステップSb6)、及びリズムパターン同士の距離の計算(ステップSb7)が行われるようにしてもよい。このようにした場合、計算量が少なくてすむため、情報処理装置20における負荷が下がるとともに、ユーザにとっての応答時間も短くなる。
4−9−2.変形例10
ズレが基準より小さいものは、ズレを0とみなしてもよい。ステップSb6におけるリズムパターン同士のズレの計算において、以下のような処理を施してもよい。変形例10において、制御部21は、入力リズムパターンにおいて比較対象のリズムパターンにおけるオンセット時刻との時刻差の絶対値が閾値より小さいオンセット時刻については、その時刻差の絶対値はユーザの手入力による意図しないものであるとみなして、ズレの値を0あるいは本来の値より小さくなるように補正する。この閾値は、例えば「1」という値であり、予め記憶部22に記憶されている。例えば、入力リズムパターンのオンセット時刻が「1,13,23,37」であり、比較対象のリズムパターンのオンセット時刻が「0,12,24,36」であったとする。この場合、各オンセット時刻の差の絶対値は、「1,1,1,1」となる。ここで閾値が「1」であったとすると、制御部21は、各オンセット時刻の差の絶対値に係数αを乗算して補正を行う。係数αは0から1の間を取り、ここでは0であるものとする。この場合、補正後の各オンセット時刻の差の絶対値は、「0,0,0,0」となるから、制御部21は、両者のリズムパターンのズレを0と算出する。係数αは、予め決められて記憶部22に記憶されていてもよいが、2つのリズムパターンのズレの大きさに係数αの値を対応付けた補正カーブをリズムカテゴリ毎に記憶部22に記憶させることで、制御部21がこの補正カーブに従って係数αを決定してもよい。
4−9−3.変形例11
ズレが基準より大きいものは計算に用いられなくてもよい。ステップSb6におけるリズムパターン同士のズレの計算において、以下のような処理を施してもよい。変形例11において、制御部21は、入力リズムパターンにおいて比較対象のリズムパターンにおけるオンセット時刻との時刻差の絶対値が閾値より大きいオンセット時刻については、計算に用いない、あるいは本来の値より小さくなるようにズレを補正する。これにより、例えばユーザが1小節の前半部分や後半部分だけリズムパターンを入力した場合であっても、リズムパターンが入力された区間を対象として検索が行われる。従って、1小節通して同一のリズムパターンを有するリズムパターンレコードが自動伴奏DB221に含まれなくても、ユーザは、入力リズムパターンに或る程度類似したリズムパターンレコードを検索結果として得ることができる。
4−9−4.変形例12
ベロシティパターンの差が考慮されてもよい。ステップSb6におけるリズムパターン同士のズレの計算において、ベロシティパターンの差を考慮した算出方法を用いてもよい。入力リズムパターンをAとして、リズムパターンレコードに記述されたリズムパターンをBとすると、変形例12におけるAとBとのズレの大きさの計算は、以下の手順で行われる。
(11)制御部21は、リズムパターンAにおける各オンセット時刻を基準として、リズムパターンBにおける最も近いオンセット時刻との時刻差の絶対値を算出する。
(12)制御部21は、手順(11)で算出した各絶対値の総和を算出する。
(13)制御部21は、リズムパターンAにおける各オンセット時刻のベロシティデータと、リズムパターンBにおける各オンセット時刻のアタック強度との差の絶対値の総和を算出する。
(14)制御部21は、リズムパターンBにおける各オンセット時刻を基準として、リズムパターンAにおける最も近いオンセット時刻との時刻差の絶対値を算出する。
(15)制御部21は、手順(14)で算出した各絶対値の総和を算出する。
(16)制御部21は、リズムパターンBにおける各オンセット時刻のベロシティデータと、リズムパターンAにおける各オンセット時刻のアタック強度との差の絶対値の総和を算出する。
(17)制御部21は、以下の式(1)に従って、リズムパターンAとリズムパターンBとのズレを算出する。
リズムパターンAとリズムパターンBとのズレ=α×(手順(12)で算出した時刻差の絶対値の総和+手順(15)で算出した時刻差の絶対値の総和)/2+(1−α)×(手順(13)で算出したベロシティの差の絶対値の総和+手順(16)で算出したベロシティの差の絶対値の総和)/2・・・式(1)
式(1)においてαは0<α<1を満たす予め決められた係数であり、記憶部22に記憶されている。ユーザは、操作部25を用いて係数αの値を変更可能である。例えば、ユーザは、リズムパターンを検索するにあたり、オンセット時刻の一致度とベロシティの一致度とのどちらを優先するかによって、係数αの値を設定すればよい。このようにすれば、ユーザは、ベロシティを考慮した検索結果を得ることができる。
4−9−5.変形例13
デュレーションパターンの差が考慮されてもよい。ステップSb6におけるリズムパターン同士のズレの計算において、デュレーションパターンの差を考慮した算出方法を用いてもよい。入力リズムパターンをAとして、リズムパターンレコードに記述されたリズムパターンをBとすると、変形例13におけるAとBとのズレの大きさの計算は、以下の手順で行われる。
(21)制御部21は、リズムパターンAにおける各オンセット時刻を基準として、リズムパターンBにおける最も近いオンセット時刻との時刻差の絶対値を算出する。
(22)制御部21は、手順(21)で算出した各絶対値の総和を算出する。
(23)制御部21は、リズムパターンAにおける各オンセット時刻のデュレーションパターンと、リズムパターンBにおける各オンセット時刻のデュレーションパターンとの差の絶対値の総和を算出する。
(24)制御部21は、リズムパターンBにおける各オンセット時刻を基準として、リズムパターンAにおける最も近いオンセット時刻との時刻差の絶対値を算出する。
(25)制御部21は、手順(24)で算出した各絶対値の総和を算出する。
(26)制御部21は、リズムパターンBにおける各オンセット時刻のデュレーションパターンと、リズムパターンAにおける各オンセット時刻のデュレーションパターンとの差の絶対値の総和を算出する。
(27)制御部21は、以下の式(2)に従って、リズムパターンAとリズムパターンBとのズレを算出する。
リズムパターンAとリズムパターンBとのズレ=β×(手順(22)で算出した時刻差の絶対値の総和+手順(25)で算出した時刻差の絶対値の総和)/2+(1−β)×(手順(23)で算出したデュレーションの差の絶対値の総和+手順(26)で算出したデュレーションの差の絶対値の総和)/2・・・式(2)
式(2)においてβは0<β<1を満たす予め決められた係数であり、記憶部22に記憶されている。ユーザは、操作部25を用いて係数βの値を変更可能である。例えば、ユーザは、リズムパターンを検索するにあたり、オンセット時刻の一致度とデュレーションパターンの一致度とのどちらを優先するかによって、係数βの値を設定すればよい。このようにすれば、ユーザは、デュレーションを考慮した検索結果を得ることができる。
以上が、リズムパターン同士のズレの計算方法のバリエーションについての説明である。
4−10.リズムパターン同士の距離の計算方法
第1実施形態及び第2実施形態における、リズムパターン同士の距離の計算方法は一例に過ぎず、異なる計算方法を用いてもよい。以下には、その計算方法のバリエーションを記載する。
4−10−1.変形例14
両者の値の総和に係数が用いられてもよい。実施形態におけるステップSb7において、制御部21は、ステップSb4でリズムカテゴリについて算出した類似度距離と、ステップSb6で算出したリズムパターンのズレとを乗算することで、リズムパターン同士の距離を計算していたが、上記類似度距離又は上記ズレのどちらか一方が「0」の値であると、リズムパターン同士の距離が「0」と算出され、他方の値を反映しないものとなってしまう。これに対して、ステップSb7において制御部21が以下の式(3)に従ってリズムパターン同士の距離を算出してもよい。
リズムパターン同士の距離=(ステップSb4でリズムカテゴリについて算出した類似度距離+γ)×(ステップSb6で算出したリズムパターンのズレ+δ)・・・式(3)
式(3)において、γ及びδは予め決められた定数であり、記憶部22に記憶されている。ここで、γ及びδは適当に小さな値であればよい。このようにすれば、ステップSb4でリズムカテゴリについて算出した類似度距離と、ステップSb6で算出したリズムパターンのズレのどちらか一方が「0」の値であっても、他方の値が反映されたリズムパターン同士の距離が算出される。
4−10−2.変形例15
両者の値を定数倍したものの和が用いられてもよい。ステップSb7におけるリズムパターン同士の距離の計算は、上述したものに限らず、次のような方法を用いてもよい。変形例15では、ステップSb7において制御部21が以下の式(4)に従ってリズムパターン同士の距離を算出する。
リズムパターン同士の距離=ε×ステップSb4でリズムカテゴリについて算出した類似度距離+(1−ε)×ステップSb6で算出したリズムパターンのズレ・・・式(4)
式(4)においてεは0<ε<1を満たす予め決められた係数である。係数εは記憶部22に記憶されており、ユーザは操作部25を用いてその値を変更可能である。例えば、ユーザは、リズムパターンを検索するにあたり、リズムカテゴリについて算出した類似度距離と、リズムパターンのズレとのどちらを優先するかによって、係数εの値を設定すればよい。このようにすれば、ユーザは、より自らの所望する検索結果を得ることができる。
4−10−3.変形例16
入力時のテンポに近いテンポを持つものの距離が小さく算出されてもよい。ステップSb7におけるリズムパターン同士の距離の計算は、上述したものに限らず、次のような方法を用いてもよい。変形例16では、ステップSb7において制御部21が以下の式(5−1)に従ってリズムパターン同士の距離を算出する。
リズムパターン同士の距離=(ステップSb4でリズムカテゴリについて算出した類似度距離+ステップSb6で算出したリズムパターンのズレ)×з×|入力BPM−リズムパターンレコードのBPM|・・・式(5−1)
式(5−1)においてзは0<з<1を満たす予め決められた定数である。зは記憶部22に記憶されており、ユーザは操作部25を用いてその値を変更可能である。例えば、ユーザは、リズムパターンを検索するにあたり、BPMの差をどの程度優先するかによって、係数зの値を設定すればよい。このとき、入力BPMとそのBPMとの差が予め決められた閾値を越えるようなリズムパターンレコードは、制御部21が検索結果から除外するようにしてもよい。このようにすれば、ユーザは、BPMを考慮した検索結果を得ることができる。
また、上記式(5−1)の別の例として、以下のものを用いてもよい。
リズムパターン同士の距離=(ステップSb4でリズムカテゴリについて算出した類似度距離+ステップSb6で算出したリズムパターンのズレ)+з×|入力BPM−リズム
パターンレコードのBPM|・・・式(5−2)
式(5−2)においても、式(5−1)と同様に、зは0<з<1を満たす予め決められた定数である。зは記憶部22に記憶されており、ユーザは操作部25を用いてその値を変更可能である。式(5−2)を用いれば、例えばεをかなり小さい値にすることで、基本的にはリズムパターンが近いものほど高順位で結果が出力され、更に、リズムパターンが一致しているものの中からテンポが近い順に表示されるようにすることができる。
4−10−4.変形例17
入力時の音色に近い音色を持つものの距離が小さく算出されるように補正されてもよい。ステップSb7におけるリズムパターン同士の距離の計算は、上述したものに限らず、次のような方法を用いてもよい。変形例17では、ステップSb7における上述した式のいずれかにおいて、制御部21が、右辺に対して、リズムパターンの入力時に指定された楽音の音色と比較対象のリズムパターンレコードの音色との一致度を乗算する。音色の一致度の算出方法については、周知の方法が用いられればよい。ここでは、一致度の値が小さい程、両者の音色が近いものであり、一致度の値が大きい程、両者の音色が離れているものとする。このようにすれば、ユーザはリズムパターンの入力時に体感する音色に近い音色のリズムパターンレコードが検索結果として得られやすいため、ユーザは検索結果により納得感を持つことができる。
音色を考慮した検索は、具体的な手法として、例えば以下のようなものが考えられる。まず、パート毎に使用されている音色データ(具体的には音色のプログラムナンバとMSB(Most Significant Bit)及びLSB(Least Significant Bit))を、音色IDと紐
付けて予めスタイルテーブルに記述しておく。ユーザは、操作部25を用いて音色データを指定して、リズムパターンを入力する。そして、制御部21は、指定された音色データと一致する音色データに対応したスタイルデータが検索候補として出力されやすくなるように制御する。または、音色IDを単位として音色データ毎の類似度合が予め記述されたデータテーブルを予め記憶部22に記憶させておき、制御部21が、類似度合の高い音色データの音色IDを有するスタイルデータを優先して検索するように制御してもよい。
4−10−5.変形例18
入力時のジャンルに近いジャンルを持つものの距離が小さく算出されるように補正されてもよい。ステップSb7におけるリズムパターン同士の距離の計算は、上述したものに限らず、次のような方法を用いてもよい。変形例18では、ユーザは、リズムパターンの入力時に、操作部25を用いてジャンルを指定することが可能である。変形例18では、ステップSb7における上述した式のいずれかにおいて、制御部21が、右辺に対して、リズムパターンの入力時に指定されたジャンルと比較対象のリズムパターンレコードのジャンルとの一致度を乗算する。ここで、ジャンルは、大ジャンル、中ジャンル、小ジャンルといったように、段階的に区分けされていてもよい。制御部21は、指定されたジャンルと一致する又は含むリズムパターンレコードと入力リズムパターンとの距離がより小さくなるように、また、指定されたジャンルと一致しない又は含まないリズムパターンレコードと入力リズムパターンとの距離がより大きくなるように、ジャンルの一致度を算出し、ステップSb7における式に補正を行えばよい。このようにすれば、ユーザはリズムパターンの入力時に指定したジャンルと一致する又は含むリズムパターンレコードが検索結果として得られやすいため、ユーザは検索結果により納得感を持つことができる。
以上が、リズムパターン同士の距離の計算方法のバリエーションについての説明である。
4−11.入力リズムパターンとリズムカテゴリとの距離の算出方法
上述した入力リズムパターンとリズムカテゴリとの距離の算出方法は一例に過ぎず、異なる計算方法を用いてもよい。以下には、その算出方法のバリエーションを記載する。
4−11−1.変形例19
カテゴリに特有の入力時刻間隔の個数に応じて距離が計算されてもよい。変形例19において、制御部21は、入力リズムパターンにおいて比較対象のリズムカテゴリを象徴するオンセット時刻間隔が含まれる個数に基づいて、入力リズムパターンと各リズムカテゴリとの距離を算出する。図21は、オンセット時刻間隔テーブルの一例を表す図である。オンセット時刻間隔テーブルは記憶部22に予め記憶されている。オンセット時刻間隔テーブルは、リズムカテゴリの分類を示す名称と、各リズムカテゴリにおいて対象となるオンセット時刻間隔との組み合わせからなる。なお、ここでは1小節を48に等分して正規化したものとしてオンセット時刻間隔テーブルの内容が予め決められている。
例えば、ここで、上述した方法により、制御部21が、入力リズムパターンにおけるオンセット時刻からオンセット時刻間隔を算出し、算出結果にクオンタイズを施した結果、以下の(d)で表す数値群を算出したとする。
(d)12,6,6,6,6,6
制御部21は、算出した数値群と、図21に示すオンセット時刻間隔テーブルとに従って、4分のオンセット時刻間隔が1個、8分のオンセット時刻間隔が5個であると特定する。そして制御部21は、以下の式(6)に従って、入力リズムパターンと各リズムカテゴリとの距離を算出する。
入力リズムパターンとリズムカテゴリNとの距離=1−(入力リズムパターンにおけるリズムカテゴリNの対象となるオンセット時刻間隔の個数/入力リズムパターンにおけるオンセット時刻間隔の総数)・・・(6)
上述した式は一例であり、対象となるオンセット時刻間隔がより多く含まれているリズムカテゴリほど、入力リズムパターンとの距離が小さく算出されるものであればよい。式(6)に従った結果、制御部21は、例えば入力リズムパターンと8分のリズムカテゴリとの距離を、0.166と算出する。また、式(6)に従った結果、制御部21は、例えば入力リズムパターンと4分のリズムカテゴリとの距離を、0.833と算出する。制御部21は、このようにして入力リズムパターンと各リズムカテゴリとの距離を算出し、最も距離が小さく算出されたリズムカテゴリに入力リズムパターンが属する、と判定する。
4−11−2.変形例20
DBリズムカテゴリと入力リズムカテゴリとのマトリクスに応じて距離が計算されてもよい。入力リズムパターンとリズムカテゴリとの距離の算出方法は、上述したものに限らず、次のようにしてもよい。変形例20では、距離参照表なるものを記憶部22が記憶している。図22は、距離参照表の一例を表す図である。距離参照表では、入力リズムパターンの属し得るリズムカテゴリと、自動伴奏DB221に記憶された各リズムパターンレコードが属し得るリズムカテゴリとの距離が、マトリクス状に表されている。例えば、制御部21が、入力リズムパターンが属するリズムカテゴリを8分と判定したとする。制御部21は、判定結果である入力リズムパターンが属するリズムカテゴリと、距離参照表とに基づいて、入力リズムパターンと各リズムカテゴリとの距離を特定する。例えば、この場合、制御部21は、入力リズムパターンと4分のリズムカテゴリとの距離を「0.8」と特定し、入力リズムパターンと8分のリズムカテゴリとの距離を「0」と特定する。これにより、制御部21は、8分のリズムカテゴリが入力リズムパターンと最も距離が小さいと判定する。
4−11−3.変形例21
カテゴリに特有の入力時刻とスコアに基づいて距離が計算されてもよい。入力リズムパターンとリズムカテゴリとの距離の算出方法は、上述したものに限らず、次のようにしてもよい。変形例21において、制御部21は、入力リズムパターンにおいて比較対象のリズムカテゴリを象徴するオンセット時刻が含まれる個数に基づいて、入力リズムパターンと各リズムカテゴリとの距離を算出する。図23は、オンセット時刻テーブルの一例を表す図である。オンセット時刻テーブルは記憶部22に予め記憶されている。オンセット時刻テーブルは、リズムカテゴリの分類を示す名称と、各リズムカテゴリにおいて対象となるオンセット時刻と、入力リズムパターンに対象となるオンセット時刻が含まれる場合に加算するスコアとの組み合わせからなる。なお、ここでは1小節を48に等分して正規化したものとしてオンセット時刻テーブルの内容が予め決められている。
例えば、制御部21が、入力リズムパターンから、(e)で示すオンセット時刻を得たとする。
(e)0,12,18,24,30,36,42
制御部21は、このオンセット時刻とオンセット時刻テーブルとに基づいて、各リズムカテゴリに対する入力リズムパターンのスコアを算出する。ここでは、制御部21は、4分のリズムカテゴリに対するスコアとして「8」を算出し、8分のリズムカテゴリに対するスコアとして「10」を算出し、8分3連のリズムカテゴリに対するスコアとして「4」を算出し、16分のリズムカテゴリに対するスコアとして「7」を算出する。そして制御部21は、算出したスコアが最も高いリズムカテゴリを、入力リズムパターンとの距離が最も小さいリズムカテゴリであると判定する。ここでは、制御部21は、入力リズムパターンが8分のリズムカテゴリと最も距離が小さいと判定する。
以上が、入力リズムパターンとリズムカテゴリとの距離の算出方法のバリエーションについての説明である。
4−12.変形例22
ユーザがパートを指定して入力した音高パターンによって検索が行われるようにしてもよい。変形例22では、図5Aに示すリズムパターンテーブルにおいて、「リズムパターンID」という項目名は「パターンID」となる。また、変形例22において、図5Aに示すリズムパターンテーブルにおける各リズムパターンレコードには、「音高パターンデータ」という項目が追加される。音高パターンデータは、1小節を構成するフレーズにおける各構成音の音高の時系列に沿った変化が記録されたデータファイルである。音高パターンデータは、例えばテキストファイルに、構成音の音高の時系列に沿った変化が記述されたものである。また、前述したように、オンセット情報には、トリガーデータ以外に鍵盤のノートナンバーが含まれている。このうち、トリガーデータにおけるオンセット時刻の並びが入力リズムパターンに相当し、鍵盤のノートナンバーの並びが入力音高パターンに相当する。ここで、情報処理装置20が音高パターンを検索するときには周知の方法のいずれかを用いればよい。例えば、ユーザがパートにコードを指定して、「C−D−E」というルートの音高シーケンスを入力した場合、情報処理装置20の制御部21は、このシーケンスにおける音高の進行を「0−2−4」という相対的な数値で表した音高パターンデータを持つリズムパターンレコードを検索結果として出力する。
また、例えばユーザがパートにフレーズを指定して、「D−D−E−G」という単音の音高パターンを入力した場合、制御部21は、入力された音高パターンを表すMIDI情報を生成する。制御部21は、リズムパターンテーブルにおいて、この生成したMIDI情報と同一又は類似した音高パターンデータを持つ音高パターンレコードを検索結果として出力する。このような音高パターンによる検索と、リズムパターンによる検索とは、その検索のモードを、情報処理装置20の操作部25を介してユーザにより切り替え可能としてもよい。
4−13.変形例23
ユーザがパートを指定して入力したリズムパターンによって検索が行われた結果のうち、上記音高パターンがより類似したリズムパターンレコードが検索結果として出力されるようにしてもよい。変形例23のリズムパターンテーブルにおける各リズムパターンレコードは、各パートについての「パターンID」とともに、各パートについての「音高パターンデータ」を含んでいる。
図24は、音高パターンを用いた検索の処理内容を表す模式図である。図24(a)及び(b)において、横軸は経過する時間を表し、縦軸は音高を表す。変形例23では、図8の検索処理のフロー図において、次のような処理が追加される。例えばユーザが、ベース入力音域鍵盤11aにおける鍵盤を操作して、「C―E―G―E」というメロディを、4分のリズムで入力していたとする。このときの入力音高パターンは、例えば「60,64,67,64」というノートナンバーの並びで表される。図24(a)は、この音高パターンを表したものである。ここでは、パートがベースであるため、制御部21は、ステップSb6において、音高パターンテーブルのうち、パートIDが「01(ベース)」である音高パターンレコードを比較対象として、比較対象の音高パターンレコードに含まれる音高パターンデータと、入力音高パターンとのズレを算出する。
制御部21は、入力音高パターンと、パートIDが「01(ベース)」である各リズムパターンレコードに含まれる音高パターンデータが表す音高パターン(以降、音源の音高パターンという)との音程の分散を求める。これは、音程の差分にバラつきが少ないほど、音高パターンが類似しているとみなせる、という考えに基づいている。例えば、入力音高パターンが上述したように「60,64,67,64」で表され、或る音源の音高パターンが「57,60,64,60」で表されたとする。図24(b)では、入力音高パターンと音源の音高パターンとが並べて表されている。ここで、以下の式(7)で音程の平均値を求めることで、式(8)により音程の分散を求めることができる。
((|60−57|)+(|64−60|)+(|67−64|)+(|64−60|))/4=3.5・・・式(7)
((|3.5−3|)2+(|3.5−4|)2+(|3.5−3|)2+(|3.5−
4|)2)/4=0.25・・・式(8)
上記式で表されるように、「60,64,67,64」で表される入力音高パターンと、「57,60,64,60」で表される音源の音高パターンとの音程の分散は、「0.25」となる。制御部21は、このような音程の分散を、音源の音高パターンの全てについて算出する。
次に、ステップSb7において、制御部21は、音高パターンを考慮した場合の、入力リズムパターンと検索結果のリズムパターンとの類似の度合いを求める。ここで、音高パターンを考慮しない場合の、入力リズムパターンと検索結果のリズムパターンとの類似の度合いをSと定義し、上記音高の差分の分散をVと定義すると、音高パターンを考慮した場合の、入力リズムパターンと検索結果のリズムパターンとの類似の度合いSpは、変数x、定数yを用いて以下の式(9)で表せる。式(9)において、0<x<1であり、y>0である。
Sp=(1−x)S+xyV・・・式(9)
変数xが0の場合、上記式は「Sp=S」となるため、求められる類似の度合いは、音高パターンを考慮しない場合のものとなる。一方、xが1に近づくにつれて、上記式で求められる類似の度合いは、より音高パターンを考慮した場合のものとなる。変数xの大きさは、ユーザが操作部25を用いて変更可能としてもよい。なお、式(9)においては、上記音高の差分の分散に代えて、音高の差分の平均誤差を用いてもよい。そして制御部21は、検索結果であるリズムパターンレコードを、音高パターンを考慮した場合の、検索結果のリズムパターンと入力リズムパターンとの類似の度合いが高い(距離が小さい)順番で並び替えると、RAMに記憶させる。
また、入力音高パターンにおけるオンセット時刻及びオンセットの個数と、音源の音高パターンを構成する各ノートのオンセット時刻及びノートの個数とが一致するとは限らない。このような場合、制御部21は、以下の手順に従って、入力音高パターンの各オンセットに、音源音高パターンのどのノートが対応しているかを決定する。
(31)制御部21は、入力音高パターンの各ノートのオンセット時刻を基準として、音源の音高パターンにおける最も近いオンセット時刻のノートとの音高の差分を算出する。(32)制御部21は、音源の音高パターンの各ノートのオンセット時刻を基準として、入力音高パターンにおける最も近いオンセット時刻のノートとの音高の差分を算出する。(33)制御部21は、手順(31)で算出した差分と手順(32)で算出した差分との平均値を、入力音高パターンと音源の音高パターンとの音高の差分として算出する。
なお、計算量を抑えるために、手順(31)若しくは手順(32)のいずれかのみを用いて音高の差分が算出されるようにしてもよい。なお、音高パターンを考慮した場合の、入力リズムパターンと検索結果のリズムパターンとの類似の度合いの算出方法は、上述の方法に限らず、他の方法が用いられてもよい。
また、対応する音高の差分の絶対値を12で割ると、入力音高パターンそのものと類似した伴奏ではなく12音階における音高パターンが類似した伴奏が検索できる。ここで、音高をノートナンバーで表したときに、「36,43,36」という音高パターンAと、「36,31,36」という音高パターンBとの2つの対応する音高パターンを比較する場合について説明する。両者の音高パターンは互いに異なるが、構成音は同じ「C,G,C」であって、Gのノートナンバーがオクターブ違うだけなので、類似したパターンであるとみなせる。制御部21は、音高パターンA及びBについて、12音階における音高パターンの差を以下の式(10)及び式(11)に従って計算する。
(|36−36|/12)+(|43−31|/12)+(|36−36|/12)=0・・・式(10)
(|0−0|^2)(|0−0|^2)(|0−0|^2)=0・・・式(11)
12音階における音高の変動のパターンが一致しているため、音高パターンAと音高パターンBの12音階における音高パターンの類似度は0と算出される。すなわち、この場合、音高パターンBが、音高パターンAに最も類似する音高パターンとして出力される。このように、入力音高パターンそのものとの類似度合いだけでなく、12音階における音高の変動のパターンも考慮すると、ユーザは、より納得感のある結果が得られる。
また、入力音高パターンそのものと、12音階における音高の変動のパターンとの両方を考慮したリズムパターンの類似度をもとに検索結果を出力してもよい。この場合の計算式は、例えば以下の式(12)のように表せる。
入力音高パターンそのものと12音階における音高の変動のパターンを考慮したリズムパターンの類似度=(1−X)×(リズムパターンの類似度)+XY{(1−κ)(音高のパターンの類似度)+κ(12音階のパターンの類似度)}・・・式(12)
ここで、X、Y及びκは、0<X<1、Y>0、0<κ<1をそれぞれ満たす予め決められた定数である。なお、上記式は一例であってこの限りではない。
このようにすれば、ユーザが意図したリズムパターンのみならず、音高パターンについてもユーザが意図したものと近いリズムパターンレコードが検索結果として出力されることとなる。これにより、ユーザは、入力リズムパターンとリズムパターンは同じだが、音高パターンが異なるようなリズムパターンレコードを検索結果として得ることが可能となる。
4−14.変形例24
制御部21は、ユーザの演奏操作によるトリガーデータ及びベロシティデータの双方を用いて自動伴奏DB221を検索するようにしてもよい。この場合、極めて類似したリズムパターンを持つリズムパターンデータが2つ存在したときは、制御部21は、アタック強度パターンデータに記述された各構成音のアタック強度がユーザの演奏操作によるベロシティデータとより近いリズムパターンデータを検索結果として出力する。このようにすれば、アタック強度についても、ユーザがイメージしていたものに近い自動伴奏データが、検索結果として出力されることが可能となる。
4−15.変形例25
制御部21が自動伴奏DB221を検索するにあたって、トリガーデータ及びベロシティデータに加えて、同一の音が鳴り続ける長さを表すデュレーションデータを用いてもよい。ここで、各構成音におけるデュレーションデータは、オフセット時刻から直前のオンセット時刻を差し引いた時間の長さで表される。デュレーションデータは、リズム入力装置10における入力手段が鍵盤である場合に、情報処理装置20がオフセット時刻を明確に取得することが可能であるため、特に有効に活用することができる。この場合、フレーズテーブル及びリズムパターンテーブルにおいて、「デュレーションパターンデータ」という項目が追加されることとなる。デュレーションパターンデータは、1小節を構成するフレーズにおける各構成音の鳴り続ける長さが記録されたデータファイルであり、例えばテキストファイルに、各構成音の鳴り続ける長さが記述されたものである。この場合、情報処理装置20は、ユーザにより入力された、1小節におけるデュレーションのパターンを用いて、フレーズテーブル又はリズムパターンテーブルから、上記入力されたデュレーションのパターンと最も類似するデュレーションパターンデータを持つフレーズレコード又はリズムパターンレコードを検索結果として出力するようにすればよい。このようにすれば、類似したリズムパターンを持つフレーズレコード又はリズムパターンレコードが複数存在しても、情報処理装置20が、スラー(伸ばす)のあるリズムパターンや、スタッカート(はねる)のあるリズムパターン等を識別して検索結果として出力することが可能となる。
4−16.変形例26
情報処理装置20が検索を行うにあたって、入力リズムパターンにおける音色と同一又は類似の度合いが高い音色を持つフレーズを持つ自動伴奏データを検索するようにしてもよい。例えば、それぞれのリズムパターンデータに対し、使用される音色毎にその音色の識別情報を対応付けて持たせておき、ユーザがリズムパターンを入力する際に、事前に音色を指定しておくことで、対応する音色で発音するリズムパターンに絞ったうえでそのリズムパターンの類似度が高いものを検索されるようにすればよい。この場合、リズムパターンテーブルにおいて、項目「音色ID」が追加される。ユーザは、演奏操作子を用いてリズムパターンを入力する際に、例えば操作部25を用いて音色を指定する。音色の指定は、リズム入力装置10が備える操作子によって行われてもよい。ユーザが演奏操作を行うと、演奏操作が行われた際に指定された音色のIDが、MIDI情報の一部として情報処理装置20に入力される。情報処理装置20は、入力された音色IDに基づく音の音色と、リズムパターンテーブルにおける指定されたパートの各リズムパターンレコードにおける音色IDに基づく音の音色を比較し、比較結果に基づいて、両者が予め決められた対応関係にある場合、そのリズムパターンレコードを特定する。この対応関係は、例えば、比較結果に基づいて両者の楽器種類が同じであると識別可能なように予め決められており、記憶部22に記憶されている。ここで、音色の比較については、各々の音の波形におけるスペクトラムを比較するなど、周知の方法を用いればよい。このようにすれば、リズムパターンが類似していることに加え、指定したパートについて音色が類似した自動伴奏データをユーザは得ることが可能となる。なお、具体的な手法としては、変形例17に記載した内容と同様の手法で実現できる。
4−17.変形例27
入力時刻間隔ヒストグラムと発音時刻間隔ヒストグラムとの差分の絶対値が最も小さいことを、入力時刻間隔ヒストグラムに対する発音時刻間隔ヒストグラムの類似度が高いと判断していたが、両者の類似度が高いことを示す条件は、上記のような両ヒストグラムの差分の絶対値に限らない。例えば、両ヒストグラムの各時刻間隔成分の積などの相関度が最も大きいとか閾値を超えるといったことや、両ヒストグラムの差分の2乗が最も小さいとか閾値未満であるといったこと、両ヒストグラムの各時刻間隔成分における値が類似していることを示すような条件であれば、どのような条件を用いてもよい。
4−18.変形例28
リズム入力装置10から入力されたリズムパターンに従って、情報処理装置20が、当該リズムパターンに類似するリズムパターンを持つ楽音データを検索し、検索結果の楽音データを音に変換して出力していたが、次のようにしてもよい。例えば、上記実施形態に相当する内容をウェブサービスによって実施する場合、上記実施形態において情報処理装置20が備える機能を、当該ウェブサービスを提供するサーバ装置が備えることとなる。そして、ユーザの操作によって、クライアント装置である自端末(例えばPC)が、インターネットや専用線等を介して入力リズムパターンを上記サーバ装置に送信する。サーバ装置は、受信した入力リズムパターンに基づいて、記憶手段から当該入力リズムパターンに類似するリズムパターンを持つ楽音データを検索し、検索結果の楽音データを自端末に送信する。そして自端末は、受信した楽音データに基づく音を出力する。なお、この場合、サーバ装置の提供するウェブサイトやアプリケーションにおいて、小節線クロックがユーザに提示されるようにすればよい。
4−19.変形例29
リズム入力装置10における演奏操作子は、ユーザが演奏操作したときに、少なくともトリガーデータを出力するものであれば、鍵盤やドラムパッドのような形状に限らず、弦楽器、吹奏楽器、あるいはボタンなどの形状であってもよい。また、その他に演奏操作子は、タッチパネルを備えたタブレットPC、スマートフォン、携帯電話等であってもよい。また、リズム入力装置10は、楽器の操作子に限らず、例えば、車のダッシュボードやハンドルデスクに衝撃センサを設け、打撃を与えたときにトリガーデータ(及びベロシティデータ)を出力させるようにした、いわゆる操作子として機能するものであってもよい。また、リズム入力装置10は、パソコンのキーボードやマウス、タッチパネルなど、OA(Office Automation)機器や家電機器に備えられた操作子であってもよい。これらの
場合、各操作子を操作したときに出力される信号を、トリガーデータとして入力し、情報処理装置20から出力される楽音信号に基づいて、各機器に備えられたスピーカーから音が出力されるように構成されれば良い。
ここで、演奏操作子がタッチパネルである場合の例を考える。タッチパネルにおいては、その画面上に複数のアイコンが表示されることがある。ここで、各アイコンに楽器や楽器の操作子(鍵盤など)の画像が表示されるようにすれば、ユーザは、どのアイコンをタッチすればどのような楽器や楽器の操作子に基づく楽音が発せされるのかが分かるようになる。このようにした場合、タッチパネルにおいて上記各アイコンが表示される各々の領域が、実施形態における演奏操作子の各々と対応することとなる。
4−20.変形例30
上述した実施形態では、リズムパターンレコードには本来のBPMが情報として含まれているから、ユーザが操作部25を用いて行った操作に従って、制御部21が、リズムパターンレコードに含まれる楽音データが示す楽音を本来のBPMで再生するようにしてもよい。また、検索結果から特定のリズムパターンレコードがユーザにより選択されて制御部21がこれを特定すると、制御部21が、特定された直後は上記入力されたBPMまたは上記指定されたBPMに基づく速度でリズムパターンレコードに含まれる楽音データが示す楽音を再生し、時間の経過に伴って、BPMがリズムパターンレコードの持つ本来のものに徐々に近づくように制御してもよい。
4−21.変形例31
ユーザが検索結果に対してより納得感を持てるようにするための方法は、上述したフィルタリング機能に限ったものではない。
<類似度にBPMの差による重み付けを行う>
例えば、入力リズムパターンとリズムパターンテーブルに含まれるリズムパターンレコードとの距離を求める算出式に、入力BPMとリズムパターンレコードが有する本来のBPMとの差に基づく重み付けを導入してもよい。ここで、aを予め定められた定数とし、入力リズムパターンとリズムパターンテーブルに含まれるリズムパターンレコードとの距離をLとすると、上記重み付けを導入した場合の類似度を求める計算式は、例えば以下の式(13)のように表せる。
類似度=L+|入力BPM−リズムパターンレコードの有するBPM|/a・・・式(13)
なお、上記類似度を求める計算式は式(13)のようなものに限ったものではなく、入力BPMとリズムパターンレコードの持つBPMとが近いほど類似度が小さくなる(すなわち類似の度合いが高くなる)ような計算式であればよい。
4−22.変形例32
上述の実施形態のように、プルダウンで特定の対象をユーザが指定して表示結果を絞るように使用してもよいが、リズムパターン入力時の演奏情報を自動で解析して自動で表示結果を絞るような方法でもよい。また、鍵盤などから入力したリズム入力のピッチの演奏情報から、コードタイプやスケールを判定してそのコードタイプやスケールで登録された伴奏が自動で検索結果として表示されるようにしてもよい。例えばロックっぽいコードでリズム入力したら、ロックのスタイルが検索されやする。他には、中東っぽいスケールでリズムを入力したら、中東っぽいフレーズが検索されやすくなる。また、鍵盤入力時に指定された音色の情報によって、同じ音色情報を持ち、且つリズムパターンが一致するものを検索するようにしてもよい。例えば、スネアドラムのリムショットでリズム入力した場合、同じリズムパターンを持つ候補の中でもリムショットの音色の伴奏が優先して表示されるようにする。
4−23.変形例33
リズム入力装置10が入力パッド12を備えない場合、リズム入力装置10が次のような構成を取ってもよい。この場合、デフォルトの状態では鍵盤11には、ベース入力音域鍵盤11a、コード入力音域鍵盤11b、及びフレーズ入力音域鍵盤11cが所定の鍵域に各々割り当てられている。ここでユーザが、操作部25を介してドラムスのパートの入力を行う旨を指示すると、制御部21は、鍵盤11の所定の鍵域にドラムのパートを割り当てる。例えば、制御部21は、C3にバスドラムのパートを割り当て、D3にスネアドラムのパートを割り当て、E3にハイハットのパートを割り当て、F3にシンバルのパートを割り当てる、といった具合である。なお、この場合、制御部21は、鍵盤11の全鍵域における操作子(すなわち各鍵)に、各々異なる楽器音を割り当てることが可能である。ここで制御部21が、鍵盤11における各操作子(各鍵)の上部や下部に、割り当てられる楽器音に関する画像(例えばスネアドラムの画像)を表示するようにしてもよい。
4−24.変形例34
ユーザが、どの操作子を操作すれば、どのパートが制御部21によって検索されるのかを視覚的に分かりやすくするために、次のようにしてもよい。例えば、制御部21が、鍵盤11における各操作子(各鍵)の上部や下部に、割り当てられるパートに関する画像(例えば、ギターのコードが押さえられた画像、ピアノが単音で演奏されている画像(例えば単一の鍵が指で押さえられている画像)、又はスネアドラムの画像等)を表示する。また、制御部21が、上述の画像を各操作子の上部や下部に表示するに限らず、表示部24に表示させてもよい。この場合、表示部24には、例えば鍵盤11を模した鍵盤の画像が表示されるとともに、実際の鍵盤11の各鍵域に割り当てられているのと同じ割り当て状態で、鍵盤の画像の各鍵域に対して割り当てられたパートの画像が表示される。または、ユーザが、どの操作子を操作すれば、どのパートが制御部21によって検索されるのかを聴覚的に分かりやすくするために、次のようにしてもよい。例えば、ユーザがベース入力音域鍵盤11aに対して入力を行うと、制御部21は、音声出力部26からベースの音声を出力させる。このようにすれば、ユーザは、どの操作子を操作すれば、どのパートが検索されるのかを視覚的又は聴覚的に判別可能となるため、操作入力が容易なものとなり、結果として自らが望む伴奏音源を得やすくなる。
4−25.変形例35
図8の処理フローにおいて、リズムカテゴリ毎のオンセット時刻間隔の分布を計算(ステップSb1)した後に、入力リズムパターンにおけるオンセット時刻間隔の分布を計算していた(ステップSb3)が、ステップSb1とステップSb3の順番を入れ替えてもよい。また、処理ステップの入れ替えに関わらず、制御部21が、リズムカテゴリ毎のオンセット時刻間隔の分布を計算した後、計算結果をRAMや記憶部22に記憶させるようにしてもよい。このようにすれば、制御部21は一度計算した結果を再度計算する必要がなく、処理速度の向上を見込むことが可能となる。
4−26.変形例36
例えば、ユーザがベース入力音域鍵盤11aにおいて、和音となるように鍵盤を押下したとき等のように、ユーザが所定時間内において複数の操作子を操作してリズムパターンを入力する場合には、次のような問題がある。例えば、1小節において、ユーザが「0.25」のタイミングでリズムを入力したかったとする。ここで、ユーザが、自身では同一のタイミングのつもりで複数の操作子を操作しても、実際には、或る操作子が「0.25」のオンセット時刻で操作され、他の操作子が「0.26」のオンセット時刻で操作された場合、制御部21は、これらのオンセット時刻のとおりに入力リズムパターンを記憶してしまう。このような場合、ユーザが意図していたものとは異なる検索結果が出力される可能性があり、ユーザにとっては操作性がよいものとはいえない。これに対して、次のようにしてもよい。
変形例35において、制御部21は、リズム入力装置10から入力されるオンセット情報と、自動伴奏DB221に含まれるパートテーブルとに基づいて、同一のタイミングにおいて同じパートにおける複数の操作子に対して操作が行われたか否かを判定する。例えば、制御部21は、ベース入力音域鍵盤11aに含まれる操作子のうち、或る操作子のオンセット時刻と他の操作子のオンセット時刻との差分が所定時間内に収まる場合、これらの操作子が同一のタイミングで操作されたと判定する。ここで所定時間とは、例えば50msec(ミリ秒)である。そして制御部21は、上記判定の結果、これらの操作子に対する操作を同一のタイミングにおける操作であるとみなす旨の情報を、該当するオンセット時刻を持つトリガーデータと対応付けて制御部21に出力する。制御部21は、同一のタイミングにおける操作であるとみなす旨の情報が対応付けられたトリガーデータのうち、開始時刻が遅い方のオンセット時刻を持つトリガーデータを除外した入力リズムパターンを用いてリズムパターン検索を行う。つまり、この場合、ユーザの所定時間内の操作に基づくオンセット時刻のうち、開始時刻が早い方のオンセット時刻がリズムパターン検索に用いられることとなる。また、これに限らず、ユーザの所定時間内の操作に基づくオンセット時刻のうち、開始時刻が遅い方のオンセット時刻がリズムパターン検索に用いられるようにしてもよい。つまり、制御部21は、ユーザの所定時間内の操作に基づく複数のオンセット時刻のいずれかを用いてリズムパターン検索を行うようにすればよい。また、制御部21が、ユーザの所定時間内の操作に基づく複数のオンセット時刻の平均を求め、この平均値を、上記ユーザの所定時間内の操作におけるオンセット時刻として、リズムパターン検索を行うようにしてもよい。このようにすれば、ユーザが所定時間内において複数の操作子を用いてリズム入力を行った場合であっても、ユーザが意図していたものと近い検索結果が出力されるようにすることが可能となる。
4−27.変形例37
制御部21が小節単位で入力リズムパターンを記憶するタイミングを、小節線クロックに基づく小節の切り替えタイミングと同じものとすると、以下のような問題が生じることがある。例えば、ユーザの操作によってリズムパターンが入力される場合、ユーザが自身で感じている時刻間隔と小節線クロックとのズレによって、ユーザが意図していたリズムパターンと実際のオンセット時刻との間に数msec〜数十msecの誤差が生じる。従って、例えば、ユーザが小節頭の拍を入力しているつもりでも、上記誤差によって1つ前の小節のリズム入力として扱われてしまうことがあり、この場合、このリズム入力は入力リズムパターンとして記憶されないことがある。このような場合、ユーザが意図していたものと異なる検索結果が出力されてしまい、ユーザにとって操作性がよいとはいえない。このような問題に対しては、制御部21がRAMに入力リズムパターンを記憶させる際に、小節の頭よりも数十msec早い時点(すなわち直前の小節における最後の数十msec)から、最後の数十msecを除く小節の終わりまでを処理の対象範囲とすればよい。つまり、制御部21は、RAMに記憶させる入力リズムパターンの対象範囲を数十msec分だけ前にずらすこととなる。このようにすれば、ユーザが意図していたものと異なる検索結果が出力されることを少なくすることができる。
4−28.変形例38
制御部21がリズムパターン検索を行うタイミングを、小節線クロックに基づく小節の切り替えタイミングと同じものとすると、以下のような問題が生じることがある。例えば、本発明における検索方法は、検索結果の楽音データが、リズム入力の直後の小節で小節線クロックと同期して再生されるようなプレイバック機能を備えた楽音データ処理装置にも応用可能である。この場合、リズム入力の直後の小節における頭から検索結果の楽音データが再生されるには、上記小節の頭の時点より以前、つまりリズム入力が行われた小節内で検索結果が出力される必要がある。また、RAMの記憶容量の問題等により、事前に再生対象である楽音データを予め読み込んでRAMに記憶させておくことが不可能な場合には、リズム入力が行われた小節内で検索結果の楽音データを読み込んでRAMに記憶させる必要がある。このような問題に対しては、制御部21がリズムパターン検索を行うタイミングを、小節の切り替えタイミングよりも、例えば数十msec早いものとすればよい。このようにすれば、小節の切り替えが行われる前に検索が行われ、検索結果の楽音データがRAMに記憶されることで、リズム入力の直後の小節における頭から検索結果の楽音データが再生されることが可能となる。
4−29.変形例39
入力リズムパターンを1小節単位に限らず、複数小節(N小節とする)に跨るリズムパターンを検索できるように、以下のようにしてもよい。説明の便宜上、ここでは第2実施形態及び第3実施形態を例に挙げて説明する。この場合、例えば、制御部21が、N小節のまとまりを持った入力リズムパターンを用いてリズムパターンテーブルを検索する方法がある。しかしこの方法では、ユーザが、小節線クロックに合わせてリズムパターンを入力する際に、1小節目がどこかを指定する必要がある。また、検索結果がN小節後に出力されるため、検索結果が出力されるまでに時間がかかってしまう。これに対して、次のようにしてもよい。
図25は、複数小節のリズムパターンを検索する場合の処理内容を表す模式図である。変形例38において、自動伴奏DB221におけるリズムパターンテーブルには、N小節に跨るリズムパターンデータを持つリズムパターンレコードが含まれている。また、ユーザは、操作部25を用いて、検索するリズムパターンの小節数を指定する。この指定内容は、例えば表示部24に表示される。ここで例えば、ユーザが、検索するリズムパターンの小節を「2小節」と指定したとする。ユーザによって操作子を用いてリズムが入力されると、制御部21は、まず、1小節目の入力リズムパターンを記憶する。そして制御部21は、1小節目の入力リズムパターンに基づいてリズムパターンを検索する。この検索の手順は以下のようなものである。制御部21は、2小節に跨るリズムパターンデータを持つリズムパターンレコードを対象として、1小節目の入力リズムパターンと、各リズムパターンデータにおける1小節目のリズムパターン及び2小節目のリズムパターンとの距離を算出する。そして制御部21は、各リズムパターンデータについて算出した、1小節目の入力リズムパターンと上記1小節目のリズムパターンとの距離、及び1小節目の入力リズムパターンと上記2小節目のリズムパターンとの距離のうち、それぞれ小さい方の距離を、リズムパターンデータごとにRAMに記憶させる。制御部21は、2小節目の入力リズムパターンについても同様の処理を行う。そして制御部21は、RAMに記憶された上記距離をリズムパターンデータごとに加算すると、加算後の値を、各リズムパターンデータにおける入力リズムパターンに対する距離を表すスコアとする。そして制御部21が、上記スコアが予め定められた閾値以下であるリズムパターンデータを、スコアの小さい順に並べ替えて検索結果として出力する。このようにすれば、複数小節に跨るリズムパターンデータを持つリズムパターンレコードを検索することが可能となる。このとき、1小節ごとに入力リズムパターンとリズムパターンデータとの距離が算出されるため、ユーザは1小節目がどこかを指定する必要がなく、また、検索結果が出力されるまでに時間がかかることもない。
4−30.変形例40
制御部21が、入力リズムパターンをRAMに記憶させるにあたり、上述した方法に限らず、以下のようにしてもよい。式(14)は、入力リズムパターンにおいてn番目に入力されたオンセット時刻を求める計算式である。式(14)において、Lは或る小節の先頭を0としたときの、この小節の末尾を表し、0以上の実数である。また、式(14)においてNは、1小節内のクロック回数である分解能を表す。
|(n番目のオンセット時刻−小節の開始時刻)/(小節の終了時刻−小節の開始時刻)×N+0.5|×L/N・・・式(14)
式(14)において、「0.5」の値は、オンセット時刻が算出されるにあたり、端数に対して四捨五入の効果をもたらすものであり、これを、0以上1未満の別の数値に置き換えてもよい。例えば、この値を「0.2」とすると、端数に対して七捨八入の効果がもたらされる。この値は、パラメータとして記憶部22に記憶されており、ユーザが操作部25を用いて変更可能である。
前述したように、リズムパターンデータは、オペレーターにより、市販のオーディオループ素材から構成音開始時刻を抽出されることで予め作成されることがある。このようなオーディオループ素材では、聴覚的な音の厚みを出すことを目的として、例えばバッキングのギターの音が、本来あるべきジャストのタイミングから意図的に少しずらされている場合がある。このような場合に上記パラメータの値を調整することで、端数の切り上げ及び切り下げが行われた結果のリズムパターンデータが得られる。この結果、作成されたリズムパターンデータでは、上述したズレが解消されているから、ユーザは、ズレのことを気にしないで、所望するジャストなタイミングでリズムパターンを入力して検索を行うことが可能となる。
4−31.変形例41
本発明は、リズム入力装置10及び情報処理装置20が一体となった装置により実現されてもよい。例えば、第1実施形態及び第2実施形態における、このような例を考える。この場合、この装置として、例えば、携帯電話や、タッチスクリーンを備えた移動通信端末などが考えられる。本変形例では、この装置がタッチスクリーンを備えた移動通信端末である場合を例に挙げて説明する。
図26は、本変形例における移動通信端末600を表す図である。移動通信端末600は、その表面にタッチスクリーン610を有する。ユーザは、タッチスクリーン610における任意の位置をタッチして移動通信端末600に対する操作を行うことが可能であるとともに、ユーザの操作に応じた表示内容がタッチスクリーン610に表示される。なお、移動通信端末600のハードウェア構成は、表示部24及び操作部25を合わせた機能がタッチスクリーン610によって実現されることと、移動通信端末600がリズム入力装置10及び情報処理装置20とが一体となったものであることを除けば、図3で示すものと共通している。以下では、制御部や記憶部や自動伴奏DBについて、図3と同じ符号を付して説明する。
タッチスクリーン610の上部には、BPM指定スライダ201、キー指定鍵盤202及びコード指定ボックス203が表示される。BPM指定スライダ201、キー指定鍵盤202及びコード指定ボックス203は、図11を用いて説明したものと同様である。タッチスクリーン610の下部には、検索結果のリズムパターンレコードが一覧として表示される。ユーザが、それぞれ異なるパートを表すパート選択画像620のうちいずれかを指定すると、制御部21は、指定されたパートについて検索結果のリズムパターンレコードの一覧をタッチスクリーン610に表示させる。
検索結果における項目「順位」、項目「ファイル名」、項目「類似度」、項目「BPM」及び項目「キー」は、図11を用いて説明したものと同様である。なお、このほかに、「ジャンル」や「楽器種類」などの関連する情報を表示させてもよい。ユーザが、一覧から任意の再生指示画像630を指定すると、指定された再生指示画像630に応じたリズムパターンレコードの楽音データが再生される。このような移動通信端末600によっても、第1実施形態及び第2実施形態で上述したのと同様の効果を奏する。
4−32.変形例42
本発明は、楽音データ処理装置以外にも、これらを実現するための方法や、コンピュータに図6に示した機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
4−33.変形例43
検索モードについては、上述の実施形態における自動伴奏モード、差し替え検索モード、追従検索モードの3種類とは別に、以下のようなモードの切り替えが考えられる。1つ目は、常に検索処理が小節ごとに自動で動作しており、類似した最上位の1つあるいは類似した所定数の検索結果が自動で再生されるモードである。このモードは、主に自動伴奏などを用途として用いられる。2つ目は、ユーザが検索の開始を指示したときにメトロノームのみが再生され、ユーザがリズムを入力すると、リズム入力が終了後、自動で又は操作の指示を与えたことを契機として、検索結果が表示されるモードである。
4−34.変形例44
図32は、変形例44に係るUIを例示する図である。この例で、情報処理装置20には、LED付きのマトリックスパッド90がUIとして接続されている。マトリックスパッドとは、パッド(操作子の一例)がマトリックス状に(すなわち2次元的に)配置された装置である。なお、操作子はパッドに限られず、ボタンなどでもよい。この例で、各パッドには1以上のLEDが設けられており、LEDの点灯または消灯、もしくはその色により、各種の状態を示す。以下、このマトリックスパッドを用いた再生制御の例を説明する。
まず、ユーザは、自身が使用するパフォーマンスを指定する。パフォーマンスとは、複数の楽音データの組み合わせである。パフォーマンスに含まれる楽音データは、ユーザによりあらかじめ選択された、音楽的に相性のよい楽音データ同士の組み合わせである。パフォーマンスには、複数のパートの楽音データが、1パートにつき少なくとも1つ含まれている。音楽データ作成システム100には、あらかじめ、少なくとも1つのパフォーマンスが設定されている。ユーザは、パフォーマンス切り替えボタン91を操作することにより、パフォーマンスを選択する。
パフォーマンスが選択されると、そのパフォーマンスに含まれる楽音データが、領域92のパッドに割り当てられる(アサインされる)(すなわち楽音データにより示される楽音が、パッドに割り当てられる)。楽音データが割り当てられたパッドのLEDは点灯する。図32の例では、ドラムス(Dr)、ベース(Ba)、コード(Cd)、アルペジオ(Ap)の4つのパートについて、それぞれ、1から5まで5つの楽音データが、パッドに割り当てられている。図32において、点灯しているパッドのうち、再生されている楽音を示す楽音データが割り当てられているパッドは、ハッチングにより示されている(実際には、再生されている楽音データに対応するパッドにおいては、再生されていない楽音データに対応するパッドとは異なる色のLEDが点灯する)。この例では、Dr1、Ba1、Cd1、およびAp1のパッドに割り当てられた楽音が再生中である例が示されている。これら複数の楽音データを用いて楽音が再生されるときは、実施形態で説明したように、テンポ、小節、キーなどが同期された状態で再生(ループ再生)される。
楽音データが再生されている状態でユーザがパッドを押すと、楽音の再生と停止とが切り替えられる。例えば、パッドBa1に割り当てられた楽音が再生されている状態でユーザがパッドBa1を押すと、パッドBa1に割り当てられた楽音の再生が停止する。この状態でさらにユーザがパッドBa2を押すと、パッドBa2に割り当てられた楽音が再生される。このとき、パッドBa1においては停止中の色に、パッドBa2においては再生中の色に、LEDが点灯している。このときに、別途、シーケンサ画面を表示するようにしておき、パッドに割り当てられたフレーズの演奏情報(リズムパターン等)がシーケンサー上に表示されるようにしてもよい。
この例では、1つのパートについて、同時に再生できる楽音データは1つに限定されている。例えば、パッドBa1に割り当てられた楽音が再生されている状態でユーザがパッドBa2を押すと、パッドBa1に割り当てられた楽音の再生は停止し、パッドBa2に割り当てられた楽音が再生される。このとき、パッドBa1においては停止中の色に、パッドBa2においては再生中の色に、LEDが点灯している。なお、1つのパートについて同時に再生できる楽音データは1つに限定されているが、複数同時に再生できるようにしてもよい。
領域92の右側には、一括選択ボタン93−1〜5が設けられている。一括選択ボタン93が押されると、同じ行のすべてのパートの楽音が一括して選択される。例えば、図32の状態で、一括選択ボタン93−2が押されると、パッドDr1、Ba1、Cd1、およびAp1に割り当てられた楽音の再生は停止し、パッドDr2、Ba2、Cd2、およびAp2に割り当てられた楽音が再生される。
検索ボタン94が押された状態で、楽音が割り当てられたパッドが押されると、制御部21は、検索を行うための検索モードに移行する。この例で、検索キーとなるリズムパターン(またはピッチパターン)は、マトリックスパッド90を介して入力される(実施形態で説明した、入力装置10または情報処理装置20を介して入力する方法と併用されてもよい)。リズムパターンは、入力領域95を用いて入力される。入力領域95は、例えば、それぞれ異なるピッチ(図32の例では左側が低音で右側が高音)が割り当てられており、ユーザがパッドを押したタイミングに応じたパターンが検索される。
キー切り替え領域96は、再生される楽音のキーを切り替えるための領域である。キー切り替え領域96に含まれる複数のパッドには、それぞれ異なるキーが割り当てられている。再生される楽音は、ユーザが押したパッドに対応するキーに変換される。また、あらかじめ情報処理装置20においてコードシーケンスを設定しておき、再生される楽音のキーまたはコードが自動的に切り替えられてもよい。
4−35.その他の変形例
ステップSb6におけるリズムパターンのズレの計算において、Aを基準としたBの時刻差と、Bを基準としたAの時刻差との2つを用いていたが(symmetric Distance方式という)、これに限らず、両者のうちどちらか一方のみを用いて計算を行ってもよい。
また、MIDIデータを用いて検索又は再生を行う場合、マルチトラックで複数のパートの演奏データを再生するものにおいて、特定のトラックに対して検索を行うようにしてもよい。
また、リズムカテゴリの判定(ステップSb2〜ステップSb5)を省略して、リズムパターンのズレの計算(ステップSb6)の結果のみを用いて、ステップSb7におけるリズムパターン同士の距離を行ってもよい。
また、リズムパターンのズレの計算(ステップSb6)において、算出されたズレの値に、相当する構成音のアタック強度を乗算することで、より強いアタック強度を持つ構成音を含むリズムパターンレコードが、検索結果の候補から外れやすくなるようにしてもよい。
実施形態においては、自動伴奏データに1小節のものを用いていたが、音声の長さはこれに限る必要はない。
また、ユーザが演奏操作子に拠らずに操作部25を用いてパートを指定可能としてもよい。この場合、ユーザが、パートを指定したあとに演奏操作子を操作すると、指定されたパートの入力が行われることとなる。例えば、ユーザが、操作部25を用いて「ベース」のパートを指定すると、その後にコード入力音域鍵盤11bを操作しても、制御部21は、これを「ベース」のパートの入力とみなす、といった具合である。
また、リズム入力装置10において、バスドラム入力パッド12a、スネアドラム入力パッド12b、ハイハット入力パッド12c、シンバル入力パッド12dというように、音色の異なる各々のリズムパートにパッドをひとつずつ割り当てていたが、これに限らず、音色の異なる複数のリズムパートについて単独のパッドで入力可能としてもよい。この場合、ユーザは、操作部25を用いて、リズムパートの音色を指定することが可能である。
また、上記の各実施形態では、リズムパターンデータは、0〜1の小数値で表記しているが、複数の整数値(例えば、0〜96)で表記するようにしてもよい。
また、検索キーとなるパターンはリズムパターンに限定されない。演奏のパターンを示すものであれば、ピッチパターン(音の高低のパターン)など、リズムパターン以外のパターンが検索キーとして用いられてもよい。
さらに、検出結果は、類似度の高いものを所定個数検出するようにしていたが、それ以外の条件で検出するようにしてもよい。たとえば、類似度が所定の範囲に入るものを検出するようにしてもよいし、その範囲をユーザが設定し、設定された範囲に含まれるものを検出するようにしてもよい。
また、楽音データ、自動伴奏データ、スタイルデータ等を編集する機能を備えさせてもよい。この場合、検出結果を表示した画面から、ユーザが、所望の楽音データ、自動伴奏データ、スタイルデータを選択する。そして、選択されたものを表示した画面では、選択されたデータがパート毎に展開して表示される。このような画面において、ユーザは、それぞれのパートについて、所望の楽音データ、自動伴奏データ、演奏データ等の各種データを編集できるようにしてもよい。
また、楽音データ、自動演奏データ及びスタイルデータに適用される音の内容は、楽器の音に限らず、人の声や動物の鳴声や効果音等、種々の音に適用できる。この場合、検索に必要な最低限のパラメータ(進行上の発音タイミング、音の強さ、音高等)を得られるものであればよい。音の内容として楽器以外の音も含む楽音データを「音データ」とする。
さらに、入力パターンは、演奏操作による入力だけでなく、ある閾値以上の音量の音声等を集音してそれを入力として入力パターンを得る等、他の手法で得られるようにしてもよい。
10…リズム入力装置、11…鍵盤、11a…ベース入力音域鍵盤、11b…コード入力音域鍵盤、11c…フレーズ入力音域鍵盤、12…入力パッド、12a…バスドラム入力パッド、12b…スネアドラム入力パッド、12c…ハイハット入力パッド、12d…シンバル入力パッド、13…BPM入力操作子、20…情報処理装置、21…制御部、22…記憶部、23…入出力インターフェース部、24…表示部、25…操作部、26…音声出力部、100…音楽データ作成システム、201…BPM指定スライダ、202…キー指定鍵盤、203…コード指定ボックス、221…自動伴奏DB、301…入力BPM表示欄、302…テンポフィルター、303…拍子フィルター、401…セクションタブ、402…画像、501…小節線、502…矢印、600…移動通信端末、610…タッチスクリーン、620…パート選択画像、630…再生指示画像

Claims (5)

  1. 複数の演奏パートのなかから選択された特定パートについて入力パターンを取得するパターン取得手段と、
    前記複数の演奏パートをそれぞれ個別の音のデータで構成し、その音のデータを組み合わせた音データを複数記憶したデータベースを検索して、前記音データに含まれる前記特定パートの音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する検索手段と、
    前記取得された検索結果のうち、前記特定パートの音のパターンが所定の範囲に入る音データを特定する特定手段と
    ユーザにより指定されたコードの入力を受け付けるコード受付手段を備え、
    その演奏パートがコードである前記音のデータを含む音データは楽音のコードを識別するコード識別情報と対応付けられており、
    前記検索手段は、
    前記特定パートがコードである場合、前記コード受付手段により入力が受け付けられたコードを識別するコード識別情報と対応付けられた前記音データを検索して、当該音データが示す音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する
    ことを特徴とする音データ処理装置。
  2. 前記特定パートを前記ユーザの指定に基づいて選択するパート選択手段を備え、
    前記検索手段は、
    前記パート選択手段によって選択された特定パートについて前記音データを検索して、前記音データが示す音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する
    ことを特徴とする請求項1に記載の音データ処理装置。
  3. 前記ユーザによって指定された音の音高を表す音高情報の入力を受け付ける音高受付手段と、
    前記特定手段により特定された音データのなかの一つを出力する出力手段と
    を備え、
    前記音データは楽音の調性の基音の音高を表すキー情報と対応付けられており、
    前記出力手段は、
    前記特定された音データが示す楽音を、当該音データに対応付けられたキー情報が表す調性の基音の音高を前記音高受付手段により受け付けられた音高情報が表す音高に応じてシフトして出力する
    ことを特徴とする請求項1または2に記載の音データ処理装置。
  4. 所定の期間における演奏タイミングを時間経過に伴って進行させるとともに、当該演奏タイミング前記ユーザに通知する通知手段を備え、
    前記パターン取得手段は、前記通知手段により前記演奏タイミングが通知されているときに前記ユーザによって入力された操作に基づいて、当該操作のパターンに対応する前記演奏タイミングの並びを表す入力パターンを取得するものである
    ことを特徴とする請求項1〜のいずれかに記載の音データ処理装置。
  5. コンピュータを、
    複数の演奏パートのなかから選択された特定パートについて入力パターンを取得するパターン取得手段と、
    前記複数の演奏パートをそれぞれ個別の音のデータで構成し、その音のデータを組み合わせた音データを複数記憶したデータベースを検索して、前記音データに含まれる前記特定パートの音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する検索手段と、
    前記取得された検索結果のうち、前記特定パートの音のパターンが所定の範囲に入る音データを特定する特定手段と
    ユーザにより指定されたコードの入力を受け付けるコード受付手段と
    して機能させ、
    その演奏パートがコードである前記音のデータを含む音データは楽音のコードを識別するコード識別情報と対応付けられており、
    前記検索手段は、
    前記特定パートがコードである場合、前記コード受付手段により入力が受け付けられたコードを識別するコード識別情報と対応付けられた前記音データを検索して、当該音データが示す音のパターンと前記入力パターンとの比較結果に基づいて、音データを検索結果として取得する
    ことを特徴とするプログラム。
JP2012268640A 2011-12-09 2012-12-07 音データ処理装置及びプログラム Expired - Fee Related JP6056437B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012268640A JP6056437B2 (ja) 2011-12-09 2012-12-07 音データ処理装置及びプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2011270633 2011-12-09
JP2011270633 2011-12-09
JP2012169821 2012-07-31
JP2012169821 2012-07-31
JP2012268640A JP6056437B2 (ja) 2011-12-09 2012-12-07 音データ処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2014044386A JP2014044386A (ja) 2014-03-13
JP6056437B2 true JP6056437B2 (ja) 2017-01-11

Family

ID=47563003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012268640A Expired - Fee Related JP6056437B2 (ja) 2011-12-09 2012-12-07 音データ処理装置及びプログラム

Country Status (4)

Country Link
US (1) US9563701B2 (ja)
EP (1) EP2602786B1 (ja)
JP (1) JP6056437B2 (ja)
CN (1) CN103165115B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103443849B (zh) * 2011-03-25 2015-07-15 雅马哈株式会社 伴奏数据产生设备
KR101667004B1 (ko) * 2014-12-17 2016-10-17 김좌한 전자 악보 서비스 제공 방법
CN104615359B (zh) * 2015-02-13 2018-05-29 小米科技有限责任公司 对应用软件进行语音操作的方法及装置
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
CN105161081B (zh) * 2015-08-06 2019-06-04 蔡雨声 一种app哼唱作曲***及其方法
US10515615B2 (en) * 2015-08-20 2019-12-24 Roy ELKINS Systems and methods for visual image audio composition based on user input
WO2017056982A1 (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 楽曲検索方法および楽曲検索装置
CN106683651A (zh) * 2015-11-11 2017-05-17 谢剑 乐谱的展现方法
US9640158B1 (en) * 2016-01-19 2017-05-02 Apple Inc. Dynamic music authoring
US9646587B1 (en) * 2016-03-09 2017-05-09 Disney Enterprises, Inc. Rhythm-based musical game for generative group composition
USD901523S1 (en) 2016-06-18 2020-11-10 Sunland Information Technology Co., Ltd. Display screen of smart piano with transitional graphical user interface
USD900864S1 (en) 2016-06-18 2020-11-03 Sunland Information Technology Co., Ltd. Display screen of smart piano with transitional graphical user interface
GB201620839D0 (en) * 2016-12-07 2017-01-18 Weav Music Ltd Data format
USD847851S1 (en) * 2017-01-26 2019-05-07 Sunland Information Technology Co., Ltd. Piano display screen with graphical user interface
USD823333S1 (en) * 2017-05-30 2018-07-17 Yamaha Corporation Display screen with graphical user interface
CN108062522B (zh) * 2017-12-12 2020-03-06 广州德科投资咨询有限公司 一种机器人的演奏模式生成方法及机器人
JP2019200390A (ja) 2018-05-18 2019-11-21 ローランド株式会社 自動演奏装置および自動演奏プログラム
CN109616090B (zh) * 2018-12-24 2020-12-18 北京达佳互联信息技术有限公司 多音轨序列生成方法、装置、设备及存储介质
CN110278201B (zh) * 2019-06-12 2022-08-23 深圳市腾讯计算机***有限公司 安全策略评价方法及装置、计算机可读介质和电子设备
CN112347300A (zh) * 2019-08-08 2021-02-09 哈曼国际工业有限公司 用于实现节奏型曲目智能匹配与添加的方法和***
US20220301527A1 (en) * 2019-09-04 2022-09-22 Roland Corporation Automatic musical performance device, non-transitory computer readable medium, and automatic musical performance method
JP7419830B2 (ja) * 2020-01-17 2024-01-23 ヤマハ株式会社 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2550825B2 (ja) 1992-03-24 1996-11-06 ヤマハ株式会社 自動伴奏装置
JP3340565B2 (ja) 1994-07-25 2002-11-05 ヤマハ株式会社 自動伴奏装置
JPH11120198A (ja) * 1997-10-20 1999-04-30 Sony Corp 楽曲検索装置
US20050038819A1 (en) * 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US6188010B1 (en) 1999-10-29 2001-02-13 Sony Corporation Music search by melody input
IT1316734B1 (it) * 2000-07-07 2003-05-12 Korg Italy S P A Dispositivo elettronico avvalentesi di piu' sequecers capaci difunzionare in maniera indipendente o coordinata
JP3480433B2 (ja) 2000-07-31 2003-12-22 ヤマハ株式会社 マルチトラック・ディジタル録音再生装置
US7392101B2 (en) 2000-07-31 2008-06-24 Yamaha Corporation Multi-track digital recording/reproducing apparatus and method, multi-track digital recording/reproducing program
KR100424677B1 (ko) * 2001-04-16 2004-03-27 한국전자통신연구원 객체 기반의 대화형 멀티미디어 컨텐츠 저작 장치 및 그방법
US6528715B1 (en) 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
JP2007519092A (ja) * 2003-12-08 2007-07-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ メロディデータベースの検索
JP2005227850A (ja) * 2004-02-10 2005-08-25 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
JP2005338353A (ja) * 2004-05-26 2005-12-08 Matsushita Electric Ind Co Ltd 音楽検索装置
JP2006106818A (ja) 2004-09-30 2006-04-20 Toshiba Corp 音楽検索装置、音楽検索方法及び音楽検索プログラム
US7890503B2 (en) * 2005-02-07 2011-02-15 Microsoft Corporation Method and system for performing secondary search actions based on primary search result attributes
US20070106405A1 (en) * 2005-08-19 2007-05-10 Gracenote, Inc. Method and system to provide reference data for identification of digital content
US20070124293A1 (en) * 2005-11-01 2007-05-31 Ohigo, Inc. Audio search system
WO2008030197A1 (en) * 2006-09-07 2008-03-13 Agency For Science, Technology And Research Apparatus and methods for music signal analysis
JP5007563B2 (ja) 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
JP5023752B2 (ja) 2007-03-22 2012-09-12 ソニー株式会社 コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラム
JP5982980B2 (ja) * 2011-04-21 2016-08-31 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体

Also Published As

Publication number Publication date
EP2602786A3 (en) 2016-08-17
CN103165115B (zh) 2017-11-28
CN103165115A (zh) 2013-06-19
US20130151556A1 (en) 2013-06-13
JP2014044386A (ja) 2014-03-13
EP2602786B1 (en) 2018-01-24
US9563701B2 (en) 2017-02-07
EP2602786A2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP6056437B2 (ja) 音データ処理装置及びプログラム
JP5949544B2 (ja) リズムパターンの類似度に基づく楽音データの検索
JP5982980B2 (ja) 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
US20210326102A1 (en) Method and device for determining mixing parameters based on decomposed audio data
US7626112B2 (en) Music editing apparatus and method and program
JP5970934B2 (ja) 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体
US9263018B2 (en) System and method for modifying musical data
US9251773B2 (en) System and method for determining an accent pattern for a musical performance
WO2015154159A1 (en) Systems and methods for musical analysis and determining compatibility in audio production
JP5879996B2 (ja) 音信号生成装置及びプログラム
US8791350B2 (en) Accompaniment data generating apparatus
JP2002023747A (ja) 自動作曲方法と装置及び記録媒体
US20030167907A1 (en) Electronic musical instrument and method of performing the same
JP2002268632A (ja) フレーズ分析装置及びフレーズ分析プログラムを記録した記録媒体
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
Stevens An Analytical Study of the Sound Design and Production Techniques of IDM Artists
JPH10105172A (ja) 音楽自動伴奏付与装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R151 Written notification of patent or utility model registration

Ref document number: 6056437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees