JP2012234167A - 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 - Google Patents
楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 Download PDFInfo
- Publication number
- JP2012234167A JP2012234167A JP2012094413A JP2012094413A JP2012234167A JP 2012234167 A JP2012234167 A JP 2012234167A JP 2012094413 A JP2012094413 A JP 2012094413A JP 2012094413 A JP2012094413 A JP 2012094413A JP 2012234167 A JP2012234167 A JP 2012234167A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- rhythm
- input
- rhythm pattern
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/383—Chord detection and/or recognition, e.g. for correction, or automatic bass generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/386—One-finger or one-key chord systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/341—Rhythm pattern selection, synthesis or composition
- G10H2210/361—Selection among a set of pre-established rhythm patterns
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Electrophonic Musical Instruments (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】利用者はリズム入力装置10において、自動伴奏データを構成する複数のパートのうち任意のパートに対応した操作子を用いてリズムパターンを入力する。小節線クロック出力部211が出力するクロック信号と、入力されたトリガーデータとに基づいて、入力リズムパターン記憶部212は入力リズムパターンをRAMに記憶させる。パート特定部213は操作子に応じたMIDI情報から対象のパートを特定する。リズムパターン検索部214は、特定されたパートについて、入力リズムパターンと最も類似の度合いが高いリズムパターンを持つ自動伴奏データを自動伴奏DB221から検索する。
【選択図】図7
Description
本発明は上述の背景を鑑みてなされたものであり、利用者が入力したクエリーパターンにマッチする楽音発生パターンを持つ演奏データを検索することを主たる目的とする。より詳しくは、利用者が指定したパートについて、意図する楽音のパターンとの類似の度合いが決められた条件を満たすような楽音のパターンで構成されたフレーズを持つ自動伴奏に関する楽音データを検索することを目的とする。
他の好ましい態様において、前記特定部は、利用者による検索対象のパートの選択のための入力操作に応じて、前記検索対象のパートの特定を行う。
また、他の好ましい態様において、前記クエリー取得部は、利用者による任意の音発生パターンの入力操作に応じて、前記クエリーパターンを取得する。
また、他の好ましい態様において、前記利用者による任意の音発生パターンの入力操作は、リズムパターン及びメロディ進行の少なくとも一方の入力操作を含み、前記クエリーパターンは、リズムパターン及びメロディ進行の少なくとも一方を示すパターンである。
また、他の好ましい態様において、利用者の操作を受け付ける複数の領域を提供する入力装置から入力されるデータを受け取る入力部と、前記1以上のパートの各々と前記複数の領域との対応関係を示す対応関係データを記憶する記憶部とを備え、前記特定部は、前記対応関係データを参照し、利用者により操作された前記入力装置の領域に対応するパートを前記検索対象のパートとして特定する。
また、他の好ましい態様において、予め定められた長さの期間において時間を進行させるとともに、当該時間の経過を利用者に通知する通知部を備え、前記音発生パターンは、前記予め定められた長さの期間において発音される1以上の音の各々の発音時刻を示すリズムパターンであり、前記クエリー取得部は、前記通知部により前記期間において時間が進行されているときに前記特定部により特定されたパートについて利用者により入力されるリズムパターンを前記クエリーパターンとして取得する。
また、他の好ましい態様において、予め定められた長さの期間において時間を進行させるとともに、当該時間の経過を利用者に通知する通知部を備え、前記音発生パターンは、前記予め定められた長さの期間において発音される1以上の音の各々の音長および音高の経時変化を示すメロディパターンであり、前記クエリー取得部は、前記通知部により前記期間において時間が進行されているときに前記特定部により特定されたパートについて利用者により入力されるメロディパターンを前記クエリーパターンとして取得する。
以下に本発明の実施形態を説明するが、本発明は以下に説明する実施形態により限定されるものではなく、その基本的な原理から離れない限り様々に変形され得る。従って、本発明の範囲は本願の請求の範囲によってのみ画定される。
<実施形態>
<構成>
図1は、本発明の実施形態に係るシステムの構成図である。
この楽音データ処理システム100は、リズム入力装置10、及び情報処理装置20を備えており、各々が通信線により接続されて相互に通信ができるようになっている。この通信は、無線によって実現されてもよい。本実施形態において、リズム入力装置10は、入力手段として例えば鍵盤を備えている。利用者が、リズム入力装置10に設けられた鍵盤を押鍵することにより、リズム入力装置10は、押鍵されたこと、すなわち演奏操作がなされたことを示すトリガーデータと、押鍵の強度、すなわち当該演奏操作の強度を示すベロシティデータとを、1小節を単位として、情報処理装置20に入力する。ここで、トリガーデータは、利用者が鍵盤を押鍵する毎に生成されるものであって、トリガーデータの各々にはベロシティデータが対応付けられている。1小節内に生成されたトリガーデータとベロシティデータの集合は、この1小節において、利用者がリズム入力装置10を用いて入力したリズムのパターン(入力リズムパターンという)を表している。このように、リズム入力装置10は、利用者による演奏操作が入力される入力装置の一例である。また、リズム入力装置10は、検索用のクエリーパターンとして、利用者によって任意の楽音発生パターンを入力するための操作装置としても使用される。
リズム入力装置10は、入力手段として鍵盤200及び入力パッド14を備えている。利用者はこれらの入力手段を用いて、検索対象となる任意の楽音発生パターン(典型的にはリズムパターン)を検索用のクエリーパターンとして入力することができる。情報処理装置20は、入力された検索用のクエリーパターン(典型的にはリズムパターン)に基づいて、複数セットの演奏データを記憶している記憶装置(例えば、後述の自動演奏データベース221)から、該クエリーパターンにマッチする楽音発生パターン(例えばリズムパターンあるいはメロディパターン)を持つ演奏データ(例えば自動伴奏データ)を検索する。1セットの演奏データの一例としての1セットの自動伴奏データは、公知のように、ベース、和音からなるコード、単音からなるフレーズ、バスドラム、スネアドラム、ハイハット、及びシンバルといった各々異なるパートの組み合わせによって構成されている。リズム入力装置10における鍵盤200の所定の範囲又は入力パッド14の種類には、各々異なる上記パートの何れかが対応付けられている。例えば、鍵盤200の全範囲のうち、ベース入力音域鍵盤11にはベースのパートが対応付けられており、コード入力音域鍵盤12には和音からなるコードのパートが対応付けられており、フレーズ入力音域鍵盤13には単音からなるフレーズのパートが対応付けられている。また、バスドラム入力パッド14aには、バスドラムのパートが対応付けられており、スネアドラム入力パッド14bには、スネアドラムのパートが対応付けられており、ハイハット入力パッド14cには、ハイハットのパートが対応付けられており、シンバル入力パッド14dには、シンバルのパートが対応付けられている。利用者は、リズム入力装置10において、押鍵する鍵盤200の位置又は押下する入力パッド14の種類を指定して演奏操作を行うことで、指定した入力手段に対応付けられたパートを基準として自動伴奏データを検索することが可能である。このように、鍵盤200及び入力パッド14が存在する各々の領域が、鍵盤200及び入力パッド14といった演奏操作子の各々と対応することとなる。なお、所定の鍵域に複数のパートを対応付けるようにしてもよい。例えば、鍵域13にコードのパート及びフレーズのパートを対応付けるようにしてもよい。その場合、例えば、複数鍵が同時に押下されていたらコードのパートと判定し、単一鍵が押下されていたらフレーズのパートと判定することができ、そのようにして、いずれか1つのパートを自動的に特定するようにしてもよい。あるいは、複数のパートの対応付けられた鍵域において何らかの鍵が押下されたならば、それに対応する複数のパートを同時に特定する入力がなされたものとして処理が行われてもよい。
情報処理装置20は、制御部21、記憶部22、入出力インターフェース部23、表示部24、操作部25、及び音声出力部26を備えており、各部がバスを介して接続されている。制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory
)、RAM(Random Access Memory)などを有する。CPUは、ROMや記憶部22に記憶されているアプリケーションプログラムを読み出して、RAMにロードして実行することにより、情報処理装置20の各部をバス経由で制御する。また、RAMは、CPUがデータの加工などを行う際のワークエリアとして機能する。
自動伴奏DB221には、パートテーブル、楽器種類テーブル、リズムカテゴリテーブル、リズムパターンテーブル及びスタイルテーブルが含まれている。図4Aはパートテーブルの一例を表したものである。「パートID」は、楽音データを構成するパートを一意に識別するための識別子であり、例えば2桁の数字で表される。「パート」は、パートの種類を表す名称であり、上述した「ベース」、「コード」、「フレーズ」、「バスドラム」、「スネアドラム」、「ハイハット」、及び「シンバル」といった異なるパート毎に、パートIDが対応付けられてパートテーブルに記述されている。「ノートナンバー」は、各パートが、鍵盤においてどの範囲に割り当てられているかを表すMIDI情報である。MIDI情報では、鍵盤における「中央ハ」にノートナンバー「60」が割り当てられる。このノートナンバーを基準として、例えば図4Aに示されるように、「ベース」のパートには、ノートナンバーが第1の閾値「45」以下のノートナンバーが割り当てられ、「フレーズ」のパートには、ノートナンバーが第2の閾値「75」以上のノートナンバーが割り当てられ、「コード」のパートには、ノートナンバーが「46」以上であって「74」以下のノートナンバーが割り当てられている。なお、上述した第1の閾値及び第2の閾値は一例であり、この値に限ったものではない。また、第1の閾値及び第2の閾値は利用者により変更可能としてもよい。
このように自動伴奏DB221に含まれるリズムパターンテーブル及びそれに関連する楽音データ記憶領域は、予め定められた長さの期間(ここでは1小節)における複数の楽音発生パターンであって、各々の音が発音される発音時刻の並びを表すものである。
ここで“スタイル”とは、複数の異なる種類の自動伴奏が存在するときに、これら自動伴奏の種類を特定するとともに同一種類の自動伴奏における各々を一意に区別するものである。スタイルテーブルには、自動伴奏を構成する各パートの情報をスタイル毎に対応付けたものであるスタイルレコードが複数記述されている。図6においては、スタイルテーブルの一例として、「ジャンル名」が「JAZZ」である複数のスタイルレコードが表されている。1件のスタイルレコードは、「スタイルID」、「ジャンル名」、「スタイル名」、「キー」、「BPM(Beats Per Minute)」、「ベースリズムパターンID」、「コードリズムパターンID」、「フレーズリズムパターンID」、「バスドラムリズムパターンID」、「スネアドラムリズムパターンID」、「ハイハットリズムパターンID」、及び「シンバルリズムパターンID」といった複数の項目からなる。「スタイルID」は、スタイルレコードを一意に識別するための識別子である。「ジャンル名」は各スタイルレコードが属する音楽のジャンルを表す。「スタイル名」は、各スタイルレコードを一意に識別する名称である。「キー」は、各スタイルレコードにおける調を表す。「BPM」は、各スタイルレコードに基づく音が再生される際のテンポを表す。
制御部21は、ROMや記憶部22に記憶されたプログラムをRAMに読み出して実行することにより、小節線クロック出力部211、入力リズムパターン記憶部212、パート特定部213、リズムパターン検索部214、検索情報処理部215、及び再生制御部216の各機能を実現する。以降において、これら各部を主体として処理の説明を行うことがあるが、処理の主体の実体は、制御部21である。なお、以降の説明において「オンセット」とは、リズム入力装置10における入力状態がオフからオンに切り替わることを指す。例えば、「オンセット」とは、リズム入力装置10の入力手段が鍵盤であれば鍵盤が押鍵された状態のことであり、リズム入力装置10の入力手段がパッドであればパッドを叩かれた状態のことであり、リズム入力装置10の入力手段がボタンであればボタンが押下された状態のことである。また、以降の説明において「オンセット時刻」とは、リズム入力装置10における入力状態がオフからオンに切り替わった時の各々の時刻を表す。換言すれば、「オンセット時刻」とは、リズム入力装置10においてトリガーデータが発生した時刻を表す。また、以降の説明において「オンセット情報」とは、オンセット時刻においてリズム入力装置10から情報処理装置20へ入力される情報である。「オンセット情報」には、上述したトリガーデータ以外に、鍵盤のノートナンバーやチャンネル情報等が含まれている。
次に、図8〜図10を用いて、検索機能がONの状態において、リズムパターン検索部214及び検索情報処理部215が、入力リズムパターンに基づいて、スタイルテーブルから特定のスタイルレコードを検出する一連の処理について説明を行う。
(i)0,0.25,0.375,0.5,0.625,0.75,0.875
リズムパターン検索部214は、(i)の入力リズムパターンから、以下の(ii)で表されるオンセット時刻間隔を算出する。
(ii)0.25,0.125,0.125,0.125,0.125,0.125
次にリズムパターン検索部214は、(ii)で算出された各々のオンセット時刻間隔に48を乗算し、さらに0.5を加算した数値の小数点以下を切り捨てる処理(クオンタイズという)を行うことで、以下の(iii)で表す数値群を算出する。
(iii)12,6,6,6,6,6
ここでクオンタイズとは、リズムパターン検索部214が、各オンセット時刻間隔を分解能にあわせて補正することを意味している。クオンタイズを行う理由は、以下のとおりである。リズムパターンテーブルにおけるリズムパターンデータに記述された発音開始時刻は、分解能(ここでは48)に従ったものとなっている。よって、オンセット時刻間隔を用いてリズムパターンテーブルを検索する際には、検索に用いるオンセット時刻間隔も分解能に従ったものでないと、検索の精度が低くなってしまう。このような理由により、リズムパターン検索部214は、(ii)で表される各々のオンセット時刻間隔に対して、上述したクオンタイズの処理を施す。
・8分カテゴリ
(A)0,0.25,0.375,0.5,0.625,0.75,0.875
(B)0,0.121,0.252,0.37,0.51,0.625,0.749,0.876
・16分カテゴリ
(C)0,0.125,0.1875,0.251,0.374,0.4325,0.5,0.625,0.6875,0.75,0.876,0.9325
(D)0,0.625,0.125,0.1875,0.251,0.3125,0.375,0.4325,0.5,0.5625,0.625,0.6875,0.75,0.8125,0.875,0.9325
・8分3連カテゴリ
(E)0,0.0833,0.1666,0.25,0.3333,0.4166,0.5,0.5833,0.6666,0.75,0.8333,0.91666
(F)0,0.1666,0.25,0.3333,0.4166,0.5,0.6666,0.75,0.8333,0.91666
リズムパターン検索部214は、上記(A)〜(F)に対して上述したのと同様の計算方法を用いて、リズムカテゴリ毎にオンセット時刻間隔の分布を求める。図9Aは、リズムパターン検索部214がリズムカテゴリ毎に計算したオンセット時刻間隔の分布を、分布表に割り当てたものである。
図9Bは入力リズムパターンにおけるオンセット時刻間隔の分布表である。
図9Bにおいて、横軸は、1小節を48の時刻で区切ったときの時刻の間隔(時刻間隔という)を表し、縦軸は、横軸で表された各々の時刻間隔に相当する、クオンタイズされたオンセット時刻間隔の個数の比率を表す。図9Bでは、入力リズムパターンに基づく、上述した(iii)の数値群が分布表に割り当てられている。この個数比率は、合計が1となるようにリズムパターン検索部214によって正規化されている。図9Bでは、クオンタイズされたオンセット時刻間隔である(iii)の数値群において、最も個数が多い「6」の時刻間隔に分布のピークがあることが分かる。
(1)リズムパターン検索部214は、リズムパターンAにおける各オンセット時刻を基準として、リズムパターンBにおける最も近いオンセット時刻との時刻差の絶対値を算出する(図10における(1))。
(2)リズムパターン検索部214は、(1)で算出した各絶対値の積分値を算出する。(3)リズムパターン検索部214は、リズムパターンBにおける各オンセット時刻を基準として、リズムパターンAにおける最も近いオンセット時刻との時刻差の絶対値を算出する(図10における(3))。
(4)リズムパターン検索部214は、(3)で算出した各絶対値の積分値を算出する。(5)リズムパターン検索部214は、(2)で算出した積分値と(4)で算出した積分値との平均値を、リズムパターンAとリズムパターンBとのズレとして算出する。
AとBのリズムパターンの類似度距離=Aと、Bが所属するリズムカテゴリとの類似度距離×AとBとのリズムパターンのズレ
ここで、AとBのリズムパターンの類似度距離が小さいほど、BのリズムパターンがAのリズムパターンに類似している度合いが高いことを意味している。つまりここでは、AとBのリズムパターンの類似度距離が、類似の度合いを表している。以降、このリズムパターンの類似度距離が小さいことを、「類似の度合いが高い」ということがある。なお、この計算に際して、基本的には、ステップS5で入力リズムパターンが該当すると判定されたリズムカテゴリ内から、検索結果が出力されるように、以下のような処理が行われる。リズムパターン検索部214は、ステップS5で判定されたリズムカテゴリと、リズムパターンBの属するリズムカテゴリとが一致するかを判定し、一致しない場合には、上記計算式によって求められた類似度距離に予め定められた定数(例えば0.5)を加算する。このようにすれば、ステップS5で判定されたリズムカテゴリと一致しないリズムカテゴリに属するリズムパターンレコードについては、リズムパターン同士の類似度距離が大きく算出されるため、ステップS5で入力リズムパターンが該当すると判定されたリズムカテゴリ内から、検索結果が出力されやすくなる。
図11Aは、利用者がコード入力音域鍵盤12を用いて入力したリズムパターンに基づいて、検索情報処理部215が検索結果として出力したスタイルレコードが、表示部24に表示された場合を表している。図11A〜図11Cにおいて、参考項目「類似度」は入力リズムパターンと、検索結果であるスタイルレコードのリズムパターンとの間の類似度距離を表している。すなわち、「類似度」で表される数値が小さいほど、入力リズムパターンに類似する度合いが高いことを意味している。図11Aに示されるように、「類似度」の数値(ステップS7で算出されたリズムパターン同士の類似度距離)が小さい順番で、すなわち入力リズムパターンに対する類似の度合いが高い順番で、スタイルレコードが表示されている。ここにおいて利用者は、「キー」、「ジャンル」又は「BPM」のすくなくともいずれか1の項目を用いて、この検索結果をフィルタリングして表示させることが可能である。図11Aにおいて、利用者が任意のスタイルレコードを選択すると、情報処理装置20は、利用者がリズムパターンを入力した際のBPM(以降において入力BPMという)で、当該スタイルレコードに基づく音を音声出力部26から出力する。なお、検索結果を表示するにあたっては、必ずしも図11A〜図11Cに示されたように全ての参考項目(「類似度」、「キー」、「ジャンル」、「BPM」)を表示する必要はなく、一部の参考項目のみを表示する、あるいは全ての参考項目を表示しないようにしてもよい。検索結果(スタイルレコード)をフィルタリングして表示する場合も同様に、全ての参考項目(「類似度」、「キー」、「ジャンル」、「BPM」)を表示する必要はなく、一部の参考項目のみを表示する、あるいは全ての参考項目を表示しないようにしてもよい。
以上が、検索機能がONの状態において、リズムパターン検索部214及び検索情報処理部215が、入力リズムパターンに基づいて、スタイルテーブルから特定のスタイルレコードを検索結果として出力する一連の処理についての説明である。
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施しても良い。
実施形態においては、利用者が、複数の異なるパートを指定してリズムパターンを入力した場合、リズムパターン検索部214は、初めに指定されたパートに関する入力リズムパターンでスタイルレコードを検索(1回目の検索)した後に、1回目の検索結果として出力されたスタイルレコードに対して、初めに指定されたパートとは異なるパートに関する入力リズムパターンを用いて絞り込み検索(2回目の検索)を行っていたが、複数の異なるパートが指定された場合の検索方法は、これに限らない。実施形態における上述の処理は、利用者による演奏操作が、パート毎に順番に行われることを想定としていたが、利用者が、異なる複数のパートを同時に指定して演奏操作を行った場合、次のようにすればよい。リズムパターン検索部214は、利用者により指定された各パートのパートIDを持つリズムパターンレコードと、当該パートの入力リズムパターンとに基づいて、両者の類似の度合いを各々算出する。次にリズムパターン検索部214は、指定された各パートのリズムパターンレコードについて算出された類似の度合いを、上記リズムパターンレコードと対応付けられた共通のスタイルレコードごとに加算する。そして表示部24は、加算後の類似の度合いが一番高い(すなわち数値が最も小さい)スタイルレコードから昇順で表示する。例えば利用者が、バスドラムとスネアドラムのパートについて同時に演奏操作を行ってリズムパターンを入力した場合、リズムパターン検索部214は、バスドラムの類似の度合いとスネアドラムの類似の度合いをそれぞれ算出すると、共通のスタイルレコードごとに両者を加算する。このようにすれば、利用者は、複数のパートを同時に指定して、意図するリズムパターンとの類似の度合いが決められた条件を満たすようなリズムパターンで構成されたフレーズを持つ自動伴奏データを検索することができる。
実施形態においては、利用者がパートを指定してリズムパターンを入力することで、情報処理装置20は自動伴奏データを検索結果として出力していたが、これに限らず、利用者がパートを指定して入力したメロディパターンによって検索が行われるようにしてもよい。この場合、自動伴奏DB211には、メロディパターンテーブルなるテーブルが新たに含まれる。図12及び図13は、変形例2に係る自動伴奏DBの内容を表す模式図である。図12はメロディパターンテーブルを表している。メロディパターンテーブルは、「パートID」、「楽器種類ID」、「メロディパターンID」、及び「メロディパターンデータ」という複数の項目からなる。「パートID」及び「楽器種類ID」は上述したものと同様である。「メロディパターンID」は、メロディパターンレコードを一意に識別する識別子であり、例えば4桁の数字からなる。メロディパターンデータは、1小節を構成するフレーズにおける各構成音の、音高及び音長の経時に沿った変化が記録されたデータファイルであり、例えばテキストファイルに、構成音の音高及び音長の並びが記述されたものである。図13は変形例2に係るスタイルテーブルを表している。図13において、各スタイルレコードには、各パートについてのリズムパターンIDとともに、各パートについてのメロディパターンIDが含まれている。ここで、情報処理装置20がメロディパターンを検索するときには周知の方法のいずれかを用いればよい。例えば、利用者がパートにコードを指定して、「C−D−E」というコードシーケンスを入力した場合、情報処理装置20の制御部21は、当該コードシーケンスにおける音高の進行を「0−2−4」という相対的な数値で表したメロディパターンデータを持つメロディパターンレコードを検索結果として出力する。そして制御部21は、検索結果のメロディパターンレコードと対応付けられたスタイルレコードを表示部24に表示させる。
情報処理装置20が検索を行うにあたって、入力リズムパターンにおける音色と同一又は類似の度合いが高い音色を持つフレーズを持つ自動伴奏データを検索するようにしてもよい。この場合、リズムパターンテーブルの各リズムパターンレコードには、項目「音色ID」が追加される。利用者は、演奏操作子を用いてリズムパターンを入力する際に、音色を指定する。利用者が演奏操作を行うと、演奏操作が行われた際に指定された音色のIDが、MIDI情報の一部として情報処理装置20に入力される。情報処理装置20は、入力された音色IDに基づく音の音色と、リズムパターンテーブルにおける指定されたパートの各リズムパターンレコードにおける音色IDに基づく音の音色を比較し、比較結果における類似の度合いが予め定められた閾値よりも高いリズムパターンレコードを特定する。ここで、音色の比較については、各々の音の波形におけるスペクトラムを比較するなど、周知の方法を用いればよい。そして情報処理装置20は、特定したリズムパターンレコードのリズムパターンID及びパートIDに基づいてスタイルテーブルを検索し、スタイルレコードを特定する。このようにすれば、リズムパターンが類似していることに加え、指定したパートについて音色が類似した自動伴奏データを利用者は得ることが可能となる。
実施形態においては、自動伴奏DBにおける音のデータはMIDI情報として記述されていたが、音そのものについてのデータであるオーディオファイルの格納場所が記述されていてもよい。この場合、オーディオファイルは、例えばWAVE(RIFF waveform Audio Format)やmp3(MPEG Audio Layer-3)といった音声ファイルフォーマットからなり、リズムパターンテーブルにおける各リズムパターンレコードに、オーディオファイルのファイルパスが記述される。そして、検索結果から、利用者によって或るスタイルレコードが再生対象として選択されると、このスタイルレコードにおける各パートについてのオーディオファイルが同期を取って再生される。このようにすれば、MIDI情報を用いる場合と比較して、利用者は、より高い音質の自動伴奏を得ることが出来る。
自動伴奏データの再生にあたって、利用者が、操作部25を通じて操作を行うか、あるいはリズム入力装置10に設けられたフェーダー、つまみ、ホイール、ボタン等の操作子を操作することで、自動伴奏データを小節の頭から再生する頭出し再生機能を、情報処理装置20が備えていても良い。この場合、利用者により上記操作が行われると、再生制御部216が、自動伴奏データを小節の頭から再生するように制御する。この頭出し再生機能は、利用者が、自動伴奏音の先頭部分がどこなのかを確認したり、自動伴奏音の一部分だけを繰り返し再生対象とさせたりする場合に用いられる。
自動伴奏データによっては、構成音の終了付近で波形の振幅(パワー)が0近くに収束されていないものがあり、この場合、構成音に基づく音声が出力された後に、クリップノイズが発生する場合がある。これを防ぐために、再生制御部216が、構成音の開始及び終了付近の一定範囲を自動でフェードイン又はフェードアウトする機能を有していてもよい。ここで利用者は、上記フェードイン又はフェードアウトを適用させるかどうかを、操作部25あるいはリズム入力装置10に設けられた何らかの操作子を介して選択可能である。
図14は、自動伴奏データにおける各構成音に対して、フェードアウトが適用された場合を表す模式図である。図14に示されるように、“フェード”と矢印で示された箇所に、フェードアウトが適用されることで、該当する箇所の波形の振幅が徐々に小さくなり、構成音の終了時刻においては振幅がほぼ0となっている。なお、各構成音について、フェードアウトが適用される期間は、数msecから数十msec程度の範囲内で、利用者により調整可能である。また、このフェードアウトを適用する処理は、利用者による演奏操作の前処理として行われてもよいし、リアルタイムの処理、又は後処理として行われてもよい。
利用者が自動伴奏とともに行った演奏の結果を、再生制御部216が録音し、この録音した内容を、一般的に音源ループ素材で用いられているようなファイルフォーマットで出力可能としてもよい。このように自身の演奏を記録する機能があると、楽曲制作において、利用者は、自動伴奏とともに自らが行った演奏の結果を、データとして手に入れることが可能となる。
実施形態においては、利用者の演奏操作によるトリガーデータと、自動伴奏DB221に記憶されたリズムパターンデータとの比較によって、リズムパターン検索部214が特定のリズムパターンレコードを検出していたが、これに限らず、リズムパターン検索部214は、利用者の演奏操作によるトリガーデータ及びベロシティデータの双方を用いて自動伴奏DB221を検索するようにしてもよい。この場合、同じリズムパターンを持つリズムパターンデータが2つ存在した場合に、各構成音のアタック強度が、利用者の演奏操作によるベロシティデータに、より近いリズムパターンデータと対応付けられたスタイルレコードが検索結果として検出される。このようにすれば、アタック強度についても、利用者がイメージしていたものに近い自動伴奏データが、検索結果として出力されることが可能となる。
実施形態における、リズムパターン同士の類似度距離の計算方法は一例に過ぎず、異なる計算方法を用いてもよい。例えば、確実にリズムカテゴリが一致したリズムパターンレコードが検索結果として出力されるように、入力リズムパターンに該当するリズムカテゴリを判定した後、判定結果のリズムカテゴリに属するリズムパターンレコードのみを対象として、リズムパターンのズレの計算(ステップS6)、及びリズムパターン同士の類似度距離の計算(ステップS7)が行われるようにしてもよい。このようにした場合、実施形態と比較して検索の精度は落ちるが、計算量が少なくてすむため、情報処理装置20における負荷が下がるとともに、利用者にとっての応答時間も短くなる。
また、リズムパターン検索部214が自動伴奏DB221を検索するにあたって、トリガーデータ及びベロシティデータに加えて、同一の音が鳴り続ける長さを表すデュレーションデータを用いてもよい。ここで、各構成音におけるデュレーションデータは、オフセット時刻から直前のオンセット時刻を差し引いた時間の長さで表される。デュレーションデータは、リズム入力装置10における入力手段が鍵盤である場合に、情報処理装置20がオフセット時刻を明確に取得することが可能であるため、特に有効に活用することができる。この場合、図5のリズムパターンテーブルにおいて、「デュレーションパターンデータ」という項目が追加されることとなる。デュレーションパターンデータは、1小節を構成するフレーズにおける各構成音の鳴り続ける長さが記録されたデータファイルであり、例えばテキストファイルに、各構成音の鳴り続ける長さが記述されたものである。この場合、情報処理装置20は、利用者により入力された、1小節におけるデュレーションのパターンを用いて、リズムパターンテーブルから、上記入力されたデュレーションのパターンと最も類似するデュレーションパターンデータを持つリズムパターンレコードを検索結果として出力するようにすればよい。このようにすれば、類似したリズムパターンを持つリズムパターンレコードが複数存在しても、情報処理装置20が、スラー(伸ばす)のあるリズムパターンや、スタッカート(はねる)のあるリズムパターン等を識別して検索結果として出力することが可能となる。
なお、実施形態(図9A、図9B)においては、入力時刻間隔ヒストグラムと発音時刻間隔ヒストグラムとの差分の絶対値が最も小さいことを、入力時刻間隔ヒストグラムに対する発音時刻間隔ヒストグラムの類似の度合いが高いと判断していたが、両者の類似の度合いが高いことを示す条件は、上記のような両ヒストグラムの差分の絶対値に限らず、両ヒストグラムの各時刻間隔成分の積などの相関度が最も大きいとか閾値を超えるといったことや、両ヒストグラムの差分の2乗が最も小さいとか閾値未満であるといったこと、両ヒストグラムの各時刻間隔成分における値が類似していることを示すような条件であれば、どのような条件を用いてもよい。
実施形態においては、リズム入力装置10から入力されたリズムパターンに従って、情報処理装置20が、当該リズムパターンに類似するリズムパターンを持つリズムパターンレコードを検索し、このリズムパターンレコードに対応付けられたスタイルレコードを検索結果として出力していたが、次のようにしてもよい。例えば、上記実施形態に相当する内容をウェブサービスによって実施する場合、実施形態において情報処理装置20が備える機能を、当該ウェブサービスを提供するサーバ装置が備えることとなる。そして、利用者の操作によって、クライアント装置である自端末(例えばPC)が、インターネットや専用線等を介して、指定されたパートについての入力リズムパターンを上記サーバ装置に送信する。サーバ装置は、受信したパートと入力リズムパターンとに基づいて、記憶手段から当該入力リズムパターンに類似するリズムパターンを持つリズムパターンレコードを検索し、このリズムパターンレコードと対応付けられたスタイルレコードを検索結果として自端末に送信する。そして自端末は、受信したスタイルレコードに基づく音を出力する。なお、この場合、サーバ装置の提供するウェブサイトやアプリケーションにおいて、小節線クロックが利用者に提示されるようにすればよい。
リズム入力装置10における演奏操作子は、利用者が演奏操作したときに、少なくともトリガーデータを出力するものであれば、鍵盤及びパッドのような形状に限らず、弦楽器、吹奏楽器、あるいはボタンなどの形状であってもよい。また、その他に演奏操作子はタッチパネルであってもよく、この場合、タッチパネルを備えたタブレットPC、スマートフォン、携帯電話等がリズム入力装置10に代わる入力装置となる。
また、リズム入力装置10における演奏操作子として、ピッチベンドホイールを用いてもよい。別の例として、リズム入力装置10(クエリーパターン入力装置)としては、手動操作可能な演奏操作子からなるものに限らず、マイクロホンを用いた音声入力装置あるいは光信号発生装置などを用いてもよい。その場合、ユーザによる音声発音タイミングに応じた入力リズムパターン(クエリーパターン)が生成される、あるいは、ユーザ操作による光信号発生タイミングに応じた入力リズムパターン(クエリーパターン)が生成される。更に、リズム入力装置10(クエリーパターン入力装置)としては、メトロノーム等のテンポ情報に合わせてリアルタイムにリズムパターン(クエリーパターン)を入力する方式に限らず、エディタ画面上で所望のリズムパターン(クエリーパターン)をグラフィカルに入力する(例えば、画面上に表示された時間軸上で所望のタイミングをグラフィカルに指摘する、又は所望のパターンをグラフィカルに入力する)ようにしてもよい。
さらに、クエリーパターンを入力する形態は、ユーザが直接指定するものに限られない。例えば、リズム入力装置10が操作子としてボタンを備える場合、リズム入力装置10の表示画面に提示される自動伴奏データの中からユーザに所望の自動伴奏データをボタンで選択させ、その選択されたデータのパターンをクエリーパターンとして検索を行う構成が採用されてもよい。また、選択する対象として、自動伴奏データの一部のパートのパート演奏データをボタンで選択するようにしてもよい。あるいは、入力リズムパターンやその名前などを表示し、入力リズムパターンを直接ボタンで指定させるようにしてもよい。
実施形態では、入力BPMと同一のBPMで、制御部21によってスタイルレコードに基づく楽音データが供給されていた。これに対して、スタイルレコードには本来のBPMが情報として含まれているから、利用者は、操作部25を介した操作により、スタイルレコードに基づく楽音データを、本来のBPMで制御部21から供給させるようにしてもよい。また、検索結果から特定のスタイルレコードが利用者により選択されると、選択された直後は、制御部21が、入力BPMと同一のBPMでスタイルレコードに基づく楽音データを供給し、時間の経過に伴って、BPMがスタイルレコードの持つ本来のものに徐々に近づくようにして、スタイルレコードに基づく楽音データを供給するようにしてもよい。
実施形態においては、制御部21が、利用者が入力BPMに近いBPMを持つスタイルレコードを検索結果として出力するためのフィルタリング機能を備えていた。利用者が検索結果に対してより納得感を持てるようにするための方法はこれに限ったものではない。例えば、入力リズムパターンとリズムパターンテーブルに含まれるリズムパターンレコードとの類似度距離を求める算出式に、入力BPMとスタイルレコードの持つBPMとの近さに基づく重み付けを導入してもよい。ここで、aを予め定められた定数とし、入力リズムパターンとリズムパターンテーブルに含まれるリズムパターンレコードとの類似度距離をLとすると、上記重み付けを導入した図11における類似度距離を求める計算式は、例えば以下のように表せる。
類似度距離=L+|入力BPM−スタイルレコードの持つBPM|/a
なお、上記類似度距離を求める計算式は上記に限ったものではなく、入力BPMとスタイルレコードの持つBPMとが近いほど類似度距離が小さくなる(すなわち類似の度合いが高くなる)ような計算式であればよい。
リズム入力装置10が入力パッド14を備えない場合、リズム入力装置10が次のような構成を取ってもよい。この場合、デフォルトの状態では鍵盤200には、ベース入力音域鍵盤11、コード入力音域鍵盤12、及びフレーズ入力音域鍵盤13が所定の範囲に各々割り当てられている。ここで利用者が、操作部25を介してドラムのパートの入力を行う旨を指示すると、制御部21は、鍵盤200の所定の範囲にドラムのパートを割り当てる。例えば、制御部21は、C3にバスドラムのパートを割り当て、D3にスネアドラムのパートを割り当て、E3にハイハットのパートを割り当て、F3にシンバルのパートを割り当てる、といった具合である。なお、この場合、制御部21は、鍵盤200の全範囲における操作子(すなわち各鍵)に、各々異なる楽器音を割り当てることが可能である。ここで制御部21が、鍵盤200における各操作子(各鍵)の上部や下部に、割り当てられる楽器音に関する画像(例えばスネアドラムの画像)を表示するようにしてもよい。
利用者が、どの操作子を操作すれば、どのパートが制御部21によって検索されるのかを視覚的に分かりやすくするために、次のようにしてもよい。例えば、制御部21が、鍵盤200における各操作子(各鍵)の上部や下部に、割り当てられるパートに関する画像(例えば、ギターのコードが押さえられた画像、ピアノが単音で演奏されている画像(例えば単一の鍵が指で押さえられている画像)、又はスネアドラムの画像等)を表示する。また、制御部21が、上述の画像を各操作子の上部や下部に表示するに限らず、表示部24に表示させてもよい。この場合、表示部24には、例えば鍵盤200を模した鍵盤の画像が表示されるとともに、実際の鍵盤200の各範囲に割り当てられているのと同じ割り当て状態で、鍵盤の画像の各範囲に対して割り当てられたパートの画像が表示される。
または、利用者が、どの操作子を操作すれば、どのパートが制御部21によって検索されるのかを聴覚的に分かりやすくするために、次のようにしてもよい。例えば、利用者がベース入力音域鍵盤11に対して入力を行うと、制御部21は、音声出力部26からベースの音声を出力させる。
このようにすれば、利用者は、どの操作子を操作すれば、どのパートが検索されるのかを視覚的又は聴覚的に判別可能となるため、操作入力が容易なものとなり、結果として自らが望む伴奏音源を得やすくなる。
実施形態では、図8の処理フローにおいて、リズムカテゴリ毎のオンセット時刻間隔の分布を計算(ステップS1)した後に、入力リズムパターンにおけるオンセット時刻間隔の分布を計算していた(ステップS3)が、ステップS1とステップS3の順番を入れ替えてもよい。また、処理ステップの入れ替えに関わらず、リズムパターン検索部214が、リズムカテゴリ毎のオンセット時刻間隔の分布を計算した後、計算結果をRAMや記憶部22に記憶させるようにしてもよい。このようにすれば、リズムパターン検索部214は一度計算した結果を再度計算する必要がなく、処理速度の向上を見込むことが可能となる。
例えば、利用者がベース入力音域鍵盤11において、和音となるように鍵盤を押下したとき等のように、利用者が所定時間内において複数の操作子を操作してリズムパターンを入力する場合には、次のような問題がある。例えば、1小節において、利用者が「0.25」のタイミングでリズムを入力したかったとする。ここで、利用者が、自身では同一のタイミングのつもりで複数の操作子を操作しても、実際には、或る操作子が「0.25」のオンセット時刻で操作され、他の操作子が「0.26」のオンセット時刻で操作された場合、制御部21は、これらのオンセット時刻のとおりに入力リズムパターンを記憶してしまう。このような場合、利用者が意図していたものとは異なる検索結果が出力される可能性があり、利用者にとっては操作性がよいものとはいえない。これに対して、次のようにしてもよい。
入力リズムパターン記憶部212が小節単位で入力リズムパターンを記憶するタイミングを、小節線クロックに基づく小節の切り替えタイミングと同じものすると、以下のような問題が生じることがある。例えば、利用者の操作によってリズムパターンが入力される場合、利用者が自身で感じている時刻間隔と小節線クロックとのズレによって、利用者が意図していたリズムパターンと実際のオンセット時刻との間に数msec〜数十msecの誤差が生じる。従って、例えば、利用者が小節頭の拍を入力しているつもりでも、上記誤差によって1つ前の小節のリズム入力として扱われてしまうことがあり、この場合、このリズム入力は入力リズムパターンとして記憶されないことがある。このような場合、利用者が意図していたものと異なる検索結果が出力されてしまい、利用者にとって操作性がよいとはいえない。このような問題に対しては、入力リズムパターン記憶部212がRAMに入力リズムパターンを記憶させる際に、小節の頭よりも数十msec早い時点(すなわち直前の小節における最後の数十msec)から、最後の数十msecを除く小節の終わりまでを処理の対象範囲とすればよい。つまり、入力リズムパターン記憶部212は、RAMに記憶させる入力リズムパターンの対象範囲を数十msec分だけ前にずらすこととなる。このようにすれば、利用者が意図していたものと異なる検索結果が出力されることを少なくすることができる。
リズムパターン検索部214がリズムパターン検索を行うタイミングを、小節線クロックに基づく小節の切り替えタイミングと同じものすると、以下のような問題が生じることがある。例えば、本発明における検索方法は、検索結果の楽音データが、リズム入力の直後の小節で小節線クロックと同期して再生されるようなプレイバック機能を備えた楽音データ処理装置にも応用可能である。この場合、リズム入力の直後の小節における頭から検索結果の楽音データが再生されるには、上記小節の頭の時点より以前、つまりリズム入力が行われた小節内で検索結果が出力される必要がある。また、RAMの記憶容量の問題等により、事前に再生対象である楽音データを予め読み込んでRAMに記憶させておくことが不可能な場合には、リズム入力が行われた小節内で検索結果の楽音データを読み込んでRAMに記憶させる必要がある。このような問題に対しては、リズムパターン検索部214がリズムパターン検索を行うタイミングを、小節の切り替えタイミングよりも、例えば数十msec早いものとすればよい。このようにすれば、小節の切り替えが行われる前に検索が行われ、検索結果の楽音データがRAMに記憶されることで、リズム入力の直後の小節における頭から検索結果の楽音データが再生されることが可能となる。
実施形態においては、入力リズムパターンを1小節単位としたが、複数小節(N小節とする)に跨るリズムパターンを検索できるように、以下のようにしてもよい。この場合、例えば、リズムパターン検索部214が、N小節のまとまりを持った入力リズムパターンを用いてリズムパターンテーブルを検索する方法がある。しかしこの方法では、利用者が、小節線クロックに合わせてリズムパターンを入力する際に、1小節目がどこかを指定する必要がある。また、検索結果がN小節後に出力されるため、検索結果が出力されるまでに時間がかかってしまう。これに対して、次のようにしてもよい。
変形例2において、利用者がパートを指定して入力したメロディパターンによって検索が行われるものとしたが、これに限らず、利用者がパートを指定して入力したリズムパターンによって検索が行われた結果のうち、上記メロディパターンがより類似したスタイルレコードが検索結果として出力されるようにしてもよい。変形例23のスタイルテーブルにおける各スタイルレコードは、変形例2と同様、図13に示されるように、各パートについてのリズムパターンIDとともに、各パートについてのメロディパターンIDを含んでいる。また、前述したように、オンセット情報には、トリガーデータ以外に鍵盤のノートナンバーが含まれている。このうち、トリガーデータにおけるオンセット時刻の並びが入力リズムパターンに相当し、鍵盤のノートナンバーの並びが入力メロディパターンに相当する。
((|60−57|)+(|64−60|)+(|67−64|)+(|64−60|))/4=3.5・・・式(1)
((|3.5−3|)2+(|3.5−4|)2+(|3.5−3|)2+(|3.5−
4|)2)/4=0.25・・・式(2)
上記式で表されるように、「60,64,67,64」で表される入力メロディパターンと、「57,60,64,60」で表される音源のメロディパターンとの音高の差分の分散は、「0.25」となる。リズムパターン検索部214は、このような音高の差分の分散を、音源のメロディパターンの全てについて算出する。
Sp=(1−x)S+xyV・・・式(3)
変数xが0の場合、上記式は「Sp=S」となるため、求められる類似の度合いは、メロディパターンを考慮しない場合のものとなる。一方、xが1に近づくにつれて、上記式で求められる類似の度合いは、よりメロディパターンを考慮した場合のものとなる。変数xの大きさは、利用者が操作部25を用いて変更可能としてもよい。なお、式(3)においては、上記音高の差分の分散に代えて、音高の差分の平均誤差を用いてもよい。そして検索情報処理部215は、検索結果であるスタイルレコードを、メロディパターンを考慮した場合の、検索結果のリズムパターンと入力リズムパターンとの類似の度合いが高い(類似度距離が小さい)順番で並び替えると、RAMに記憶させる。
(1)リズムパターン検索部214は、入力メロディパターンの各ノートのオンセット時刻を基準として、音源のメロディパターンにおける最も近いオンセット時刻のノートとの音高の差分を算出する。
(2)リズムパターン検索部214は、音源のメロディパターンの各ノートのオンセット時刻を基準として、入力メロディパターンにおける最も近いオンセット時刻のノートとの音高の差分を算出する。
(3)リズムパターン検索部214は、(1)で算出した差分と(2)で算出した差分との平均値を、入力メロディパターンと音源のメロディパターンとの音高の差分として算出する。
なお、計算量を抑えるために、上記(1)若しくは(2)のいずれかのみを用いて音高の差分が算出されるようにしてもよい。
入力リズムパターンとリズムカテゴリとの類似度距離の算出方法は一例に過ぎず、異なる計算方法を用いてもよい。以下には、その算出方法のバリエーションを記載する。
<カテゴリに特有の入力時刻間隔の個数>
<変形例24>
変形例24において、制御部21は、入力リズムパターンにおいて比較対象のリズムカテゴリを象徴するオンセット時刻間隔が含まれる個数に基づいて、入力リズムパターンと各リズムカテゴリとの類似度距離を算出する。図15は、オンセット時刻間隔テーブルの一例を表す図である。オンセット時刻間隔テーブルは記憶部22に予め記憶されている。オンセット時刻間隔テーブルは、リズムカテゴリの分類を示す名称と、各リズムカテゴリにおいて対象となるオンセット時刻間隔との組み合わせからなる。なお、ここでは1小節を48に等分して正規化したものとしてオンセット時刻間隔テーブルの内容が予め決められている。
(a)12,6,6,6,6,6
制御部21は、算出した数値群と、図15に示すオンセット時刻間隔テーブルとに従って、4分のオンセット時刻間隔が1個、8分のオンセット時刻間隔が5個であると特定する。そして制御部21は、以下の式(4)に従って、入力リズムパターンと各リズムカテゴリとの類似度距離を算出する。
入力リズムパターンとリズムカテゴリNとの類似度距離=1−(入力リズムパターンにおけるリズムカテゴリNの対象となるオンセット時刻間隔の個数/入力リズムパターンにおけるオンセット時刻間隔の総数)・・・(4)
上述した式は一例であり、対象となるオンセット時刻間隔がより多く含まれているリズムカテゴリほど、入力リズムパターンとの類似度距離が小さく算出されるものであればよい。式(4)に従った結果、制御部21は、例えば入力リズムパターンと8分のリズムカテゴリとの類似度距離を、0.166と算出する。また、式(4)に従った結果、制御部21は、例えば入力リズムパターンと4分のリズムカテゴリとの類似度距離を、0.833と算出する。制御部21は、このようにして入力リズムパターンと各リズムカテゴリとの類似度距離を算出し、最も類似度距離が小さく算出されたリズムカテゴリに入力リズムパターンが属する、と判定する。
<変形例25>
入力リズムパターンとリズムカテゴリとの類似度距離の算出方法は、上述したものに限らず、次のようにしてもよい。変形例25では、類似度距離参照表なるものを記憶部22が記憶している。図16は、類似度距離参照表の一例を表す図である。類似度距離参照表では、入力リズムパターンの属し得るリズムカテゴリと、自動伴奏DB222に記憶された各リズムパターンレコードが属し得るリズムカテゴリとの類似度距離が、マトリクス状に表されている。例えば、制御部21が、入力リズムパターンが属するリズムカテゴリを8分と判定したとする。制御部21は、判定結果である入力リズムパターンが属するリズムカテゴリと、類似度距離参照表とに基づいて、入力リズムパターンと各リズムカテゴリとの類似度距離を特定する。例えば、この場合、制御部21は、入力リズムパターンと4分のリズムカテゴリとの類似度距離を「0.8」と特定し、入力リズムパターンと8分のリズムカテゴリとの類似度距離を「0」と特定する。これにより、制御部21は、8分のリズムカテゴリが入力リズムパターンと最も類似度距離が小さいと判定する。
<変形例26>
入力リズムパターンとリズムカテゴリとの類似度距離の算出方法は、上述したものに限らず、次のようにしてもよい。変形例26において、制御部21は、入力リズムパターンにおいて比較対象のリズムカテゴリを象徴するオンセット時刻が含まれる個数に基づいて、入力リズムパターンと各リズムカテゴリとの類似度距離を算出する。図17は、オンセット時刻テーブルの一例を表す図である。オンセット時刻テーブルは記憶部22に予め記憶されている。オンセット時刻テーブルは、リズムカテゴリの分類を示す名称と、各リズムカテゴリにおいて対象となるオンセット時刻と、入力リズムパターンに対象となるオンセット時刻が含まれる場合に加算するスコアとの組み合わせからなる。なお、ここでは1小節を48に等分して正規化したものとしてオンセット時刻テーブルの内容が予め決められている。
(b)0,12,18,24,30,36,42
制御部21は、このオンセット時刻とオンセット時刻テーブルとに基づいて、各リズムカテゴリに対する入力リズムパターンのスコアを算出する。ここでは、制御部21は、4分のリズムカテゴリに対するスコアとして「8」を算出し、8分のリズムカテゴリに対するスコアとして「10」を算出し、8分3連のリズムカテゴリに対するスコアとして「4」を算出し、16分のリズムカテゴリに対するスコアとして「7」を算出する。そして制御部21は、算出したスコアが最も高いリズムカテゴリを、入力リズムパターンとの類似度距離が最も小さいリズムカテゴリであると判定する。ここでは、制御部21は、入力リズムパターンが8分のリズムカテゴリと最も類似度距離が小さいと判定する。
以上が、入力リズムパターンとリズムカテゴリとの類似度距離の算出方法のバリエーションについての説明である。
本発明は、楽音データ処理装置以外にも、これらを実現するための方法や、コンピュータに図4に示した機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
実施形態においては、ステップS6におけるリズムパターンのズレの計算において、Aを基準としたBの時刻差と、Bを基準としたAの時刻差との2つを用いていたが(symmetric Distance方式という)、これに限らず、両者のうちどちらか一方のみを用いて計算を行ってもよい。
また、MIDIデータを用いて検索又は再生を行う場合、マルチトラックで複数のパートの演奏データを再生するものにおいて、特定のトラックに対して検索を行うようにしてもよい。
また、リズムカテゴリの判定(ステップS2〜ステップS5)を省略して、リズムパターンのズレの計算(ステップS6)の結果のみを用いて、ステップS7におけるリズムパターン同士の類似度距離の算出を行ってもよい。
また、リズムパターンのズレの計算(ステップS6)において、算出されたズレの値に、相当する構成音のアタック強度を乗算することで、より強いアタック強度を持つ構成音を含むリズムパターンレコードが、検索結果の候補から外れやすくなるようにしてもよい。
実施形態においては、自動伴奏データに1小節のものを用いていたが、音声の長さはこれに限る必要はない。
また、実施形態においては、利用者が或る演奏操作子を用いて入力を行うと、この演奏操作子と対応したパートに基づいてスタイルレコードが検索されていたが、これに限らず、利用者が演奏操作子に拠らずに操作部25を用いてパートを指定可能としてもよい。この場合、利用者が、パートを指定したあとに演奏操作子を操作すると、指定されたパートの入力が行われることとなる。例えば、利用者が、操作部25を用いて「ベース」のパートを指定すると、その後にコード入力音域鍵盤12を操作しても、制御部21は、これを「ベース」のパートの入力とみなす、といった具合である。
また、実施形態においては、リズム入力装置10において、バスドラム入力パッド14a、スネアドラム入力パッド14b、ハイハット入力パッド14c、シンバル入力パッド14dというように、音色の異なる各々のリズムパートにパッドをひとつずつ割り当てていたが、これに限らず、音色の異なる複数のリズムパートについて単独のパッドで入力可能としてもよい。この場合、利用者は、操作部25を用いて、リズムパートの音色を指定することが可能である。
また、実施形態においては、操作子に対応させるパート、あるいは自動伴奏データとして使用しているパートは、コード、フレーズ、バスドラム、スネアドラム、ハイハット、シンバルとしたが、これに限らない。さらに、パートの区切り方は楽器名等に限らず、例えば、発音帯域で分けるようにしてもよい。例えば、ドラム(高域)、ドラム(中域)、ドラム(低域)等に分けて、高域にはハイハットやシンバル等、中域にはスネアドラム等、低域にはバスドラム等が入るようにしてもよい。
また、パートの数は実施形態に例示のものから増減させてよいし、パートの構成も実施形態に例示のものに限られず、種々のものが採用可能できる。例えば、和音演奏を行うコードパートに替えて、アルペジオ演奏を行うアルペジオパートを用いる、あるいはコードパートにアルペジオパートを追加する構成が採用されてもよい。
また、音の種類は上述の実施形態に説明している楽器の音に限られない。上述の楽器以外の楽器の音、あるいは楽器以外の音が用いられても。例えば、ドラムやハイハット、シンバルのようなリズムパートには、それらの楽器の音に加えて、もしくはそれらに代えて、人や動物の音声、楽器でない物を叩いた音など、種々のものが利用可能である。
上記実施形態では、楽音データが波形データであるとして、本発明に係る検索技術を楽音発生パターンに対応付けられた楽音データ(波形データ)の検索のために使用しているが、本発明の応用はこれに限定されない。例えば、本発明に係る検索技術は、楽音発生パターンに対応付けられた音色データ(音色IDあるいは楽器種類ID)の検索のために、あるいは楽音発生パターンに対応付けられたその他のタイプの楽音データの検索のために、使用することができる。すなわち、本発明における楽音データとは、波形データに限らず、音色データあるいはその他のタイプの楽音関連データを含む広い概念を包括するものである。
上記実施形態では、パート演奏データの検出を行った後でそれを利用する処理として、パート演奏データを含む自動伴奏データを表示・再生する処理として示したが、それ以外の検出結果を利用した処理でもよい。例えば、自動伴奏データでなく、パート演奏データそのものを表示処理、あるいは再生処理したり、検索したパート演奏データを組み合わせて自動伴奏データを作成する処理で利用してもよい。
Claims (10)
- 1以上のパートを検索対象のパートとして特定する特定部と、
検索対象となる音発生パターンを示すクエリーパターンを取得するクエリー取得部と、
1以上のパートの各々に関するパート演奏データを含む演奏データであって、当該1以上のパート演奏データのうちの少なくも1のパート演奏データが音発生パターンを含む演奏データを複数セット記憶する記憶装置から、前記検索対象のパートにマッチするパートに関するパート演奏データであって、前記クエリーパターンにマッチする音発生パターンを含むパート演奏データを検索する検索部と、
前記検索部により検索されたパート演奏データを用いて所定の処理を行う処理部と
を備える装置。 - 前記検索部は、前記クエリーパターンと一致する音発生パターン、もしくは前記クエリーパターンとの間で類似の度合いが高いことを示す所定の条件を満たす音発生パターンを、前記クエリーパターンにマッチする音発生パターンとして検索する
請求項1に記載の装置。 - 前記特定部は、利用者による検索対象のパートの選択のための入力操作に応じて、前記検索対象のパートの特定を行う
請求項1または2に記載の装置。 - 前記クエリー取得部は、利用者による任意の音発生パターンの入力操作に応じて、前記クエリーパターンを取得する
請求項1乃至3のいずれかに記載の装置。 - 前記利用者による任意の音発生パターンの入力操作は、リズムパターン及びメロディ進行の少なくとも一方の入力操作を含み、
前記クエリーパターンは、リズムパターン及びメロディ進行の少なくとも一方を示すパターンである
請求項4に記載の装置。 - 利用者の操作を受け付ける複数の領域を提供する入力装置から入力されるデータを受け取る入力部と、
前記1以上のパートの各々と前記複数の領域との対応関係を示す対応関係データを記憶する記憶部と
を備え、
前記特定部は、前記対応関係データを参照し、利用者により操作された前記入力装置の領域に対応するパートを前記検索対象のパートとして特定する
請求項1乃至5のいずれかに記載の装置。 - 予め定められた長さの期間において時間を進行させるとともに、当該時間の経過を利用者に通知する通知部を備え、
前記音発生パターンは、前記予め定められた長さの期間において発音される1以上の音の各々の発音時刻を示すリズムパターンであり、
前記クエリー取得部は、前記通知部により前記期間において時間が進行されているときに前記特定部により特定されたパートについて利用者により入力されるリズムパターンを前記クエリーパターンとして取得する
請求項1乃至6のいずれかに記載の装置。 - 予め定められた長さの期間において時間を進行させるとともに、当該時間の経過を利用者に通知する通知部を備え、
前記音発生パターンは、前記予め定められた長さの期間において発音される1以上の音の各々の音長および音高の経時変化を示すメロディパターンであり、
前記クエリー取得部は、前記通知部により前記期間において時間が進行されているときに前記特定部により特定されたパートについて利用者により入力されるメロディパターンを前記クエリーパターンとして取得する
請求項1乃至6のいずれかに記載の装置。 - 1以上のパートを検索対象のパートとして特定するステップと、
検索対象となる音発生パターンを示すクエリーパターンを取得するステップと、
1以上のパートの各々に関するパート演奏データを含む演奏データであって、当該1以上のパート演奏データのうちの少なくも1のパート演奏データが音発生パターンを含む演奏データを複数セット記憶する記憶装置から、前記クエリーパターンにマッチする音発生パターンを含む前記検索対象のパートに関するパート演奏データを検索し、当該検索したパート演奏データを含む演奏データを抽出するステップと
を備える方法。 - コンピュータに、
1以上のパートを検索対象のパートとして特定する処理と、
検索対象となる音発生パターンを示すクエリーパターンを取得する処理と、
1以上のパートの各々に関するパート演奏データを含む演奏データであって、当該1以上のパート演奏データのうちの少なくも1のパート演奏データが音発生パターンを含む演奏データを複数セット記憶する記憶装置から、前記クエリーパターンにマッチする音発生パターンを含む前記検索対象のパートに関するパート演奏データを検索し、当該検索したパート演奏データを含む演奏データを抽出する処理と
を実行させるプログラムを記録した記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012094413A JP5982980B2 (ja) | 2011-04-21 | 2012-04-18 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 |
US13/451,336 US9449083B2 (en) | 2011-04-21 | 2012-04-19 | Performance data search using a query indicative of a tone generation pattern |
EP12164921.4A EP2515296B1 (en) | 2011-04-21 | 2012-04-20 | Performance data search using a query indicative of a tone generation pattern |
CN201210120948.1A CN102760426B (zh) | 2011-04-21 | 2012-04-23 | 使用表示乐音生成模式的演奏数据搜索 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011095472 | 2011-04-21 | ||
JP2011095472 | 2011-04-21 | ||
JP2012094413A JP5982980B2 (ja) | 2011-04-21 | 2012-04-18 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012234167A true JP2012234167A (ja) | 2012-11-29 |
JP5982980B2 JP5982980B2 (ja) | 2016-08-31 |
Family
ID=45977296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012094413A Expired - Fee Related JP5982980B2 (ja) | 2011-04-21 | 2012-04-18 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9449083B2 (ja) |
EP (1) | EP2515296B1 (ja) |
JP (1) | JP5982980B2 (ja) |
CN (1) | CN102760426B (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058596A (ja) * | 2015-09-18 | 2017-03-23 | ヤマハ株式会社 | 自動アレンジ装置及びプログラム |
JPWO2017056982A1 (ja) * | 2015-09-30 | 2018-07-19 | ヤマハ株式会社 | 楽曲検索方法および楽曲検索装置 |
EP3570271A1 (en) | 2018-05-18 | 2019-11-20 | Roland Corporation | Automatic performance device and automatic performance method |
WO2021044563A1 (ja) | 2019-09-04 | 2021-03-11 | ローランド株式会社 | 自動演奏装置および自動演奏プログラム |
WO2023032672A1 (ja) * | 2021-09-01 | 2023-03-09 | ヤマハ株式会社 | 音発生装置、音発生方法、及びプログラム |
EP4207182A1 (en) | 2021-12-28 | 2023-07-05 | Roland Corporation | Automatic performance apparatus, automatic performance method, and automatic performance program |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5970934B2 (ja) | 2011-04-21 | 2016-08-17 | ヤマハ株式会社 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体 |
JP5891656B2 (ja) * | 2011-08-31 | 2016-03-23 | ヤマハ株式会社 | 伴奏データ生成装置及びプログラム |
EP2602786B1 (en) * | 2011-12-09 | 2018-01-24 | Yamaha Corporation | Sound data processing device and method |
GB201211853D0 (en) * | 2012-07-04 | 2012-08-15 | Qatar Foundation | A system and method for event or entity analysis and exploration in microblogs |
JP6047985B2 (ja) * | 2012-07-31 | 2016-12-21 | ヤマハ株式会社 | 伴奏進行生成装置及びプログラム |
US9202520B1 (en) * | 2012-10-17 | 2015-12-01 | Amazon Technologies, Inc. | Systems and methods for determining content preferences based on vocal utterances and/or movement by a user |
JP6175812B2 (ja) * | 2013-03-06 | 2017-08-09 | ヤマハ株式会社 | 楽音情報処理装置及びプログラム |
US9012754B2 (en) | 2013-07-13 | 2015-04-21 | Apple Inc. | System and method for generating a rhythmic accompaniment for a musical performance |
US9183820B1 (en) * | 2014-09-02 | 2015-11-10 | Native Instruments Gmbh | Electronic music instrument and method for controlling an electronic music instrument |
CN104658528B (zh) * | 2015-02-05 | 2018-05-25 | 得理电子(上海)有限公司 | 一种电声架子鼓底鼓的自动多踩实现方法 |
JP7143576B2 (ja) * | 2017-09-26 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法及びそのプログラム |
GB2597265A (en) * | 2020-07-17 | 2022-01-26 | Wejam Ltd | Method of performing a piece of music |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185165A (ja) * | 1994-12-31 | 1996-07-16 | Casio Comput Co Ltd | 自動伴奏装置 |
JPH11288278A (ja) * | 1998-01-28 | 1999-10-19 | Roland Europ Spa | 楽曲検索方法およびその装置 |
JP2001155031A (ja) * | 1999-11-30 | 2001-06-08 | Alpine Electronics Inc | 曲検索システムの入力データ処理方法及びデータ入力装置 |
JP2002341867A (ja) * | 2001-05-21 | 2002-11-29 | Yamaha Corp | 演奏データ編集装置及び方法並びに記憶媒体 |
JP2006106818A (ja) * | 2004-09-30 | 2006-04-20 | Toshiba Corp | 音楽検索装置、音楽検索方法及び音楽検索プログラム |
JP2006171442A (ja) * | 2004-12-16 | 2006-06-29 | Yamaha Corp | 音源の制御方法、音源の制御装置およびプログラム |
JP2008234453A (ja) * | 2007-03-22 | 2008-10-02 | Sony Corp | コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06202621A (ja) * | 1992-12-28 | 1994-07-22 | Victor Co Of Japan Ltd | 楽曲演奏情報を利用した楽曲検索装置 |
JP2894177B2 (ja) | 1993-10-08 | 1999-05-24 | ヤマハ株式会社 | 演奏情報分析装置 |
US5496962A (en) * | 1994-05-31 | 1996-03-05 | Meier; Sidney K. | System for real-time music composition and synthesis |
US5918303A (en) | 1996-11-25 | 1999-06-29 | Yamaha Corporation | Performance setting data selecting apparatus |
US20020073098A1 (en) | 2000-02-28 | 2002-06-13 | Lei Zhang | Methodology and system for searching music over computer network and the internet based on melody and rhythm input |
WO2001069575A1 (en) | 2000-03-13 | 2001-09-20 | Perception Digital Technology (Bvi) Limited | Melody retrieval system |
WO2002047066A1 (fr) | 2000-12-07 | 2002-06-13 | Sony Corporation | Procede et dispositif de recherche de contenu, et procede et systeme de communication |
CN100421112C (zh) * | 2000-12-07 | 2008-09-24 | 索尼公司 | 用于内容检索的通信装置和通信方法 |
US6528715B1 (en) | 2001-10-31 | 2003-03-04 | Hewlett-Packard Company | Music search by interactive graphical specification with audio feedback |
EP1326228B1 (en) * | 2002-01-04 | 2016-03-23 | MediaLab Solutions LLC | Systems and methods for creating, modifying, interacting with and playing musical compositions |
US7663044B2 (en) * | 2002-09-04 | 2010-02-16 | Kabushiki Kaisha Kawai Gakki Seisakusho | Musical performance self-training apparatus |
US7462772B2 (en) * | 2006-01-13 | 2008-12-09 | Salter Hal C | Music composition system and method |
US8097801B2 (en) | 2008-04-22 | 2012-01-17 | Peter Gannon | Systems and methods for composing music |
JP5293080B2 (ja) | 2008-10-23 | 2013-09-18 | ヤマハ株式会社 | 電子音楽装置 |
US8629342B2 (en) | 2009-07-02 | 2014-01-14 | The Way Of H, Inc. | Music instruction system |
JP5970934B2 (ja) | 2011-04-21 | 2016-08-17 | ヤマハ株式会社 | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体 |
-
2012
- 2012-04-18 JP JP2012094413A patent/JP5982980B2/ja not_active Expired - Fee Related
- 2012-04-19 US US13/451,336 patent/US9449083B2/en active Active
- 2012-04-20 EP EP12164921.4A patent/EP2515296B1/en not_active Not-in-force
- 2012-04-23 CN CN201210120948.1A patent/CN102760426B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08185165A (ja) * | 1994-12-31 | 1996-07-16 | Casio Comput Co Ltd | 自動伴奏装置 |
JPH11288278A (ja) * | 1998-01-28 | 1999-10-19 | Roland Europ Spa | 楽曲検索方法およびその装置 |
JP2001155031A (ja) * | 1999-11-30 | 2001-06-08 | Alpine Electronics Inc | 曲検索システムの入力データ処理方法及びデータ入力装置 |
JP2002341867A (ja) * | 2001-05-21 | 2002-11-29 | Yamaha Corp | 演奏データ編集装置及び方法並びに記憶媒体 |
JP2006106818A (ja) * | 2004-09-30 | 2006-04-20 | Toshiba Corp | 音楽検索装置、音楽検索方法及び音楽検索プログラム |
JP2006171442A (ja) * | 2004-12-16 | 2006-06-29 | Yamaha Corp | 音源の制御方法、音源の制御装置およびプログラム |
JP2008234453A (ja) * | 2007-03-22 | 2008-10-02 | Sony Corp | コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017058596A (ja) * | 2015-09-18 | 2017-03-23 | ヤマハ株式会社 | 自動アレンジ装置及びプログラム |
JPWO2017056982A1 (ja) * | 2015-09-30 | 2018-07-19 | ヤマハ株式会社 | 楽曲検索方法および楽曲検索装置 |
EP3570271A1 (en) | 2018-05-18 | 2019-11-20 | Roland Corporation | Automatic performance device and automatic performance method |
US10803845B2 (en) | 2018-05-18 | 2020-10-13 | Roland Corporation | Automatic performance device and automatic performance method |
WO2021044563A1 (ja) | 2019-09-04 | 2021-03-11 | ローランド株式会社 | 自動演奏装置および自動演奏プログラム |
WO2023032672A1 (ja) * | 2021-09-01 | 2023-03-09 | ヤマハ株式会社 | 音発生装置、音発生方法、及びプログラム |
EP4207182A1 (en) | 2021-12-28 | 2023-07-05 | Roland Corporation | Automatic performance apparatus, automatic performance method, and automatic performance program |
Also Published As
Publication number | Publication date |
---|---|
EP2515296A1 (en) | 2012-10-24 |
EP2515296B1 (en) | 2018-04-18 |
CN102760426B (zh) | 2017-09-01 |
JP5982980B2 (ja) | 2016-08-31 |
CN102760426A (zh) | 2012-10-31 |
US9449083B2 (en) | 2016-09-20 |
US20120278358A1 (en) | 2012-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5982980B2 (ja) | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体 | |
JP5949544B2 (ja) | リズムパターンの類似度に基づく楽音データの検索 | |
JP5970934B2 (ja) | 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体 | |
JP6056437B2 (ja) | 音データ処理装置及びプログラム | |
US7960638B2 (en) | Apparatus and method of creating content | |
US9263018B2 (en) | System and method for modifying musical data | |
US20150221297A1 (en) | System and method for generating a rhythmic accompaniment for a musical performance | |
US9251773B2 (en) | System and method for determining an accent pattern for a musical performance | |
CA3010936C (en) | Device configurations and methods for generating drum patterns | |
JP5879996B2 (ja) | 音信号生成装置及びプログラム | |
CN108369800B (zh) | 声处理装置 | |
JP6693596B2 (ja) | 自動伴奏データ生成方法及び装置 | |
JP3879524B2 (ja) | 波形生成方法、演奏データ処理方法および波形選択装置 | |
JP2021113895A (ja) | 伴奏音生成装置、電子楽器、伴奏音生成方法および伴奏音生成プログラム | |
JP7425558B2 (ja) | コード検出装置及びコード検出プログラム | |
JP6424907B2 (ja) | 演奏情報検索方法を実現するためのプログラム、当該演奏情報検索方法および演奏情報検索装置 | |
JP6183002B2 (ja) | 演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置 | |
Cabral et al. | The Acustick: Game Command Extraction from Audio Input Stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160718 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5982980 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |