JP2006511845A - オーディオ信号の配列 - Google Patents
オーディオ信号の配列 Download PDFInfo
- Publication number
- JP2006511845A JP2006511845A JP2005502605A JP2005502605A JP2006511845A JP 2006511845 A JP2006511845 A JP 2006511845A JP 2005502605 A JP2005502605 A JP 2005502605A JP 2005502605 A JP2005502605 A JP 2005502605A JP 2006511845 A JP2006511845 A JP 2006511845A
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- audio signals
- audio
- signal
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 152
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000010586 diagram Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 5
- 230000036651 mood Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
- G10H2250/035—Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
複数のオーディオ信号をシーケンスに配列する方法が開示されている。該方法は、ユーザの好みを受信するステップ(104)と、内在的特徴を抽出するために前記複数のオーディオ信号を分析するステップ(108)と、シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列するステップ(110)とを有することを特徴とする。前記複数のオーディオ信号は前記ユーザの好みに従って特定されてもよい(ステップ106)。配列されたオーディオ信号は出力されてもよい(ステップ112)。
Description
本発明は、複数のオーディオ信号の配列方法およびシステムに関し、特に、音楽トラックの配列に関する。
音楽トラックを有するオーディオ信号を考える。一般的に、コンシューマは一組のトラックを選択し、好適なリスニングシーケンスに配列する。従来、これら両方のタスクは、例えば、所定の再生シーケンスに配列されたアルバム(ビニールレコード、オーディオCD等)上に一組のトラックを提供することにより、音楽ディストリビュータまたはアーティストによって扱われていた。新しいディストリビューションモデル(例えばインターネットダウンロード)や記憶モデル(デジタルファイルとして記憶された音楽トラックにランダムにアクセスする機能を含む)により、選択と配列のタスクをディストリビュータやアーティストからエンドユーザに移動した。1つのレベルにおいて、例えばCDプレーヤのシャッフル(ランダマイズ)機能を用いて、選択したトラックを任意のシーケンスとすることが可能である。この方法の有利な点は、所定の再生シーケンスとは異なるシーケンスを生成することが簡単(ボタンを1回押すだけ)であるが、結果のシーケンスは任意的であることである。一部のCDプレーヤはトラックを選択して配列する手段を有している。これにより、ユーザは、時間と手間を代償としてシーケンスをカスタマイズすることができる。最近では、デジタル音楽ジュークボックス等の製品により、ユーザは全般的な好みを代表するおそらく数百のトラックのライブラリーを構築することができる。潜在的な多数のトラックから再生する一組のトラックを選択することが問題となる。選択には、ユーザがマニュアルでトラックを選択するものから、例えば分類(アーティスト、タイトル、ジャンル、類似性)を用いて自動的に選択するものまで、様々な方法が利用可能である。しかし、トラックを好適に配列しなければならない(「プレイリスト」とも呼ぶ)という欠点が残る。これはユーザの時間と手間を取るだけでなく、そのユーザの好みにマッチした配列をするスキルをも必要とする。
ヒューレットパッカード社による欧州特許出願EP1162621号は、主要なビート(テンポ)の繰り返しレートと、編集した結果の理想的な時間的マップと、隣接してオーバーラップした部分により、一組の歌のシーケンスを自動的に決定する方法を開示している。この方法の欠点は、シーケンス中の隣接する歌のコンパチビリティが明示的に議論されておらず、隣接した歌の間のトランジションが、特に隣接した歌がオーバーラップしている場合に不調和になることである。
本発明の目的は、従来技術を改良することである。
本発明によれば、複数のオーディオ信号をシーケンスに配列する方法が提供される。該方法は、
ユーザの好みを受信するステップと、
内在的特徴を抽出するために前記複数のオーディオ信号を分析するステップと、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列するステップとを有することを特徴とする。
ユーザの好みを受信するステップと、
内在的特徴を抽出するために前記複数のオーディオ信号を分析するステップと、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列するステップとを有することを特徴とする。
本発明の別の態様によれば、複数のオーディオ信号をシーケンスに配列するシステムが提供される。該システムは、
ユーザの好みを受信するように動作可能な受信デバイスと、
オーディオ信号を格納するように動作可能な記憶装置と、
データプロセッサとを有し、
前記データプロセッサは、
内在的特徴を抽出するために前記複数のオーディオ信号を分析し、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列することを特徴とする。
ユーザの好みを受信するように動作可能な受信デバイスと、
オーディオ信号を格納するように動作可能な記憶装置と、
データプロセッサとを有し、
前記データプロセッサは、
内在的特徴を抽出するために前記複数のオーディオ信号を分析し、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列することを特徴とする。
本発明によれば、ユーザによる介入無しにオーディオ信号をシーケンスに配列することができる。オーディオ信号はアナログでもデジタルでもよい。
有利にも、前記複数のオーディオ信号は前記ユーザの好みに従って特定される。適切にも、前記抽出された内在的特徴は音楽的特徴であり、調(musical key)および低音振幅(bass note amplitude)を含む。好ましくは、前記シーケンス中の連続したオーディオ信号は関係調を有する。理想的には、前記関係調は平均律により決定される。
任意的に、前記方法は、前記シーケンスに従って前記少なくとも2つのオーディオ信号を例えばオーディオプレゼンテーションとして出力する。有利にも、出力中の信号は前記シーケンス中のその直後の信号とクロスフェードされ、連続して出力される。適切にも、クロスフェードは前記シーケンス中の前記出力中の信号と前記その直後の信号のそれぞれの低音振幅により行われる。好ましくは、前記クロスフェードの期間中に、各オーディオ信号の低音振幅はそれぞれのオーディオ信号の最大低音振幅の1/7より低い。
本発明の有利な点は、シーケンスの連続するオーディオ信号間で、たとえその一部がオーバーラップしても、調和的に遷移させられることである。さらにまた、ユーザには最小限の手間しかかけないでシーケンスを生成することができる。例えば、ユーザは、簡単にインターフェイスによりモードやジャンルスタイルを単に選択して、例えばパーティやロマンチックイベントのためにオーディオ信号の順序付けられたコレクションを形成できる。調和的な遷移を維持したまま、シーケンスのプロファイル全体に従ってオーディオ信号を整列することもできる。例えば、調に従ってトラックを選択し、それにより、シーケンス中に好適な調遷移が行えるようにすることができる。
添付した図面を参照して、一例として本発明の実施形態を説明する。
ここで「調和的(harmonious)」という用語は、1つのシーケンスの連続したオーディオ信号が十分に融和性を有し、連続したオーディオ信号間の移行が不協和的(dissonant)でないことをいう。連続したオーディオ信号に含まれる特徴(feature)の類似性が調和的であるかどうかを決める。その特徴とは、例えばピッチ、レベル、速さ(rate of delivery)である。
図1は、複数のオーディオ信号をシーケンスに配列する方法を示すフロー図である。該方法はステップ102で始まり、ステップ104でユーザの好みを受け取る。その複数のオーディオ信号は、例えば、記憶装置やサーバ等のネットワーク機器などを介して現在入手可能なすべてのオーディオ信号である。(点線で示したように)任意的に、ステップ106で、そのオーディオ信号を現在利用可能なオーディオ信号の一部として特定する。例えば、ジャンル、アーティスト、タイトル等を含む分類に従って、一部として特定してもよい。好ましくは、ユーザの好みに従って複数のオーディオ信号を特定する。ユーザが複数のオーディオ信号を特定してもよいが、好ましくは、ユーザの好みに従って自動的に特定し、時間と手間を省く。好適かつ自動的に特定する方法であればいかなる方法を用いてもよく、例えば、ユーザの好みに従って1以上の分類を選択し、選択された分類に基づいてオーディオ信号を特定してもよい。本願の出願人による英国特許出願第0303970.8号(PHGB030014)には、一組のオーディオ信号から1つのオーディオ信号を特定する方法が開示されている。そのオーディオ信号を分析して特徴(feature)を抽出する。そして、ユーザの好みと抽出した特徴とを比較してオーディオ信号を特定する。
複数のオーディオ信号の特定に続いて、ステップ108で、その複数のオーディオ信号を分析して内在的特徴を抽出する。いかなるオーディオ信号にも、固有の(intrinsically attached)特徴や関係する特徴が1以上ある。このような特徴をここでは「固有の(inherent)」といい、オーディオ信号に関連する例えばメタデータとは区別する。メタデータは関連するオーディオ信号とは別のものだからである。オーディオ信号の固有の特徴には音楽的特徴が含まれる。具体的に、本方法では、調性・テンポ・低音の大きさを含む音楽的特徴を抽出し利用するが、この点については以下で詳しく説明する。続いて、ステップ110で、抽出した特徴とユーザの好みに基づき、その複数のオーディオ信号のうち少なくとも2つのオーディオ信号を1つのシーケンスに配列する。この時、シーケンス中の連続する信号は調和的であるようにする。いずれの具体例においても、結果として得られるシーケンスは、特定された複数のオーディオ信号をすべて含むか、もしくはその一部のみを含む。これは抽出された特徴とユーザの好みを表す特徴との間の一致に基づく。ユーザの好みには、抽出されたオーディオ信号の特徴と比較するのに好適な情報であればいかなるものを含んでいてもよい。そのような情報の例としては、代表的なオーディオ信号;ムード、ジャンル、アーティスト等の表示;シーケンスの全体的プロファイル;またはこれらの組み合わせが含まれる。
シーケンス内では、連続するオーディオ信号は調和的(harmonious)である。音楽的オーディオ信号について、調和的とは連続するオーディオ信号の対応するタイプの特徴の値が音楽的に性格が合うことを意味する。例えば、連続するオーディオ信号の各々の調(musical key)が関連している場合である。本出願人による英国特許出願第0229940.2号(PHGB020248)には、音楽トラック等のオーディオ信号の調を決定する方法が開示されている。オーディオ信号の一部を分析して、各部分内の楽音(musical note)とそれに関連する強さを特定する。特定された楽音からそれぞれの強さに応じて第1音を決定する。特定された楽音から、少なくとも2つの別の音を第1音に応じて選択する。オーディオ信号の調を選択した音の強さを比較して決定する。オーディオ信号のシーケンスを一旦決定すると、ステップ112で(点線で示したように)任意的に、シーケンスに従って少なくとも2つのオーディオ信号を出力する。
図2は、図1の方法で使用する一組の関係する調の一例を示す概略図である。図1の方法を用いてシーケンスに配列したオーディオ信号が、音楽的コンテントを有する場合、シーケンス中の連続するオーディオ信号が、それぞれの調が関連していて調和的であるように、オーディオ信号が配列されることが好ましい。理想的には、関係する調は西洋音楽の大半に共通する平均率(Equal Tempered Scale)に従って決められる。図2は、平均率の調の一部を示す図である。長調(メジャーキー)が214、204、202、206、218を有する行に表されている。短調(マイナーキー)は216、210、208、212、220を有する行に表されている。
オーディオ信号の一シーケンス内のオーディオ信号がCメジャー(ハ長調)の音楽トラックであると考える。図2において、点線で示した外形線200には、Cメジャー202に楽理的に密接に関係する、平均率のすべての調が含まれている。1つの音楽トラックがCメジャー信号に連続するオーディオ信号であると考えると、この連続する信号は同じ調であるか、または密接に関係した調である。この例では、点線の外形線200で囲まれた調である、Fメジャー(ヘ長調)204、Cメジャー202、Gメジャー(ト長調)206、Dマイナー(ニ短調)210、Aマイナー(イ短調)208、またはEマイナー(ホ短調)212のいずれかを有する。連続する信号はDマイナー210であると仮定し、Dマイナー信号の次に続くオーディオ信号(次の信号も音楽トラックであると仮定する)の調も、同じか、または密接に関係していると仮定する。すなわち、Gマイナー(ト短調)216、Dマイナー210、Aマイナー208、Bbメジャー(変ロ長調)214、Fメジャー204、またはCメジャー202であるとする。関係調に加えて、テンポや低音の大きさ等を用いて、シーケンスの連続する信号が調和的であることを保証してもよい。
図3aは、シーケンス中の直後の信号とクロスフェードする信号を示す概略図である。クロスフェードにより、出力シーケンスの連続するオーディオ信号をオーバーラップすることにより、オーディオ信号の連続的出力が可能となる。オーバーラップの間、信号はミックスされる。第1のオーディオ信号302と第2のオーディオ信号304はシーケンス中の連続する信号である。第1のオーディオ信号302が出力されている時、いつかの時点306で、第2のオーディオ信号304とのクロスフェードが始まり、その後308完了する。その後は第2のオーディオ信号304だけが出力される。クロスフェードの期間は符号310で示した。クロスフェードは、シーケンス中の現在の信号とその直後の信号の低音の大きさによって可能となる。その理由は、これらの信号のテンポがマッチしない時、両方の信号が低音を含んでいない間に、より適当には、各オーディオ信号の低音の大きさがそれぞれのオーディオ信号の低音の大きさの最大値の1/7よりも低い間に、クロスフェードを行うことが好ましいからである。
図3bは、オーディオ信号のクロスフェード期間の決定を示す概略図である。「クロスフェード期間」は、オーディオ信号内の期間であって、その間(全部または一部)に他の好適な信号とのクロスフェードが実行されるものである。一般的に、オーディオ信号にはそのような期間が少なくとも2つある。信号の実質的に最初にあるものと、最後にあるものである。クロスフェード期間は、信号の別の場所にあってもよい。図3bは、オーディオ信号の低音の大きさによるオーディオ信号のクロスフェード期間の決定を示す図である。ボックス320、324はそれぞれ、オーディオ信号の振幅応答曲線322、326を示す(ノンスケールである)。曲線322は、オーディオ信号内の周波数の幅(例えば、50−20,000Hz)にわたる最大振幅(横軸)の、時間に対するグラフを表す。曲線326は、オーディオ周波数の一部(例えば、低音周波数50−600Hz)にわたる最大振幅の、時間に対するグラフである。時間328はオーディオ信号の可聴部分の初めを示し、これは振幅がゼロより大きくなる点である。オーディオ信号の可聴部分の有意の(significant)低音コンテントの始まりを示し、バス振幅がオーディオ信号の最大バス振幅の所定量334より大きい点である。オーディオ信号に対して好適な所定量334は、最大低音振幅の1/7であることが分かっている。(時点328と330の間の)期間332は、クロスフェードが起こりうる最大期間を表す(この実施例では、オーディオ信号の最初の部分)。いかなるものでも2つの好適なオーディオ信号があるときに、各信号につき、クロスフェードが可能な1以上の期間を決定することができる。
図4は、複数のオーディオ信号をシーケンスに配列するシステムを示す概略図である。該システムは、データプロセッサ400、受信デバイス406、記憶装置408を有し、これらすべてはデータおよび通信バス410を介して相互接続されている。任意的に(図4において点線の外形図で示した)、該システムはオーディオ入力デバイス402と出力デバイス404も有する。これらもバス410に接続されている。データプロセッサは、不揮発性プログラム記憶416に格納されたソフトウェアプログラムの制御下で動作し、プログラムの実行結果を一時的に格納する揮発性記憶418を使用するCPU412を有する。データプロセッサは、特徴(feature)を抽出するためにオーディオ信号を分析するために使用されるオーディオ信号分析器414を有する。あるいは、この機能はソフトウェアで制御されたCPUが実行してもよい。記憶装置408は一般に多数のオーディオ信号、例えば、ユーザの音楽ライブラリ全体を格納する。記憶装置に格納されたすべてのオーディオ信号、またはその一部を分析する。格納された分析すべきオーディオ信号の特定は、ユーザの好みに従ってデータプロセッサ400により行われる。これは上で説明した。抽出された特徴とユーザの好みに基づいて、シーケンス中の連続する信号が調和的であるように、ユーザによる関与無しに、分析されたオーディオ信号のうち2以上のものがシーケンスに順次配列される。受信デバイス406は、ユーザの好みを受信できる好適なデバイスであればいかなるものでもよい。例えば、ユーザインターフェイスやネットワークインターフェイスである。後者は有線でも無線でもよい(その例は図6に関連して下で説明した)。ユーザの好みの範囲は、簡単な呼び出し(invocation)から、例えば、分析される複数のオーディオ信号のムード、テーマ、および/またはアイデンティティを特定するもっと複雑な好みにまでに広がる。任意的に、オーディオ入力デバイス402はオーディオ信号を受信するために用いられ、受信したオーディオ信号はデータプロセッサ400が記憶装置408に格納する。オーディオ信号を受信できる好適なオーディオ入力デバイスは、例えば、放送ラジオチューナ(例えば、AM、FM、ケーブル、衛星)、インターネットアクセスデバイス(例えば、PC内のインターネットブラウザ手段)、有線または無線ネットワークインターフェイス(例えば、コンピュータネットワークやインターネットにアクセスするためのもの)、モデム(例えば、ケーブル、ダイアルアップ、ブロードバンド等)である。任意的に、出力デバイス404がシステムに備えられており、データプロセッサ400の制御の下で、シーケンスに従って前記少なくとも2つのオーディオ信号を出力する。出力信号のフォーマットはアナログでもデジタルでもよい。好ましくは、出力デバイス404は、出力信号をシーケンス中のその直後の信号とクロスフェードできる。あるいは、出力デバイスの機能はデータプロセッサ400により実行されてもよい。
図5は、包括的に参照数字500で示したデジタル音楽ジュークボックスとして実施された、複数のオーディオ信号をシーケンスに配列する、図4のシステムの第1のアプリケーションを示す概略図である。該ジュークボックスはプロセッサ502を有し、プロセッサ502はユーザインターフェイス508からユーザの好み510を受信する。ユーザインターフェイスにより、ユーザはキーパッドを一押しして、例えば「パーティ」・「ロマンチック」・その他の所定の好みなどのプリセットされたジャンルを選択することにより、自分の好みを入力することができる。そのようなユーザインターフェイスにより、使用が容易になり、携帯製品としてコンパクトに実施することができる。受信したユーザの好みに対して、プロセッサ502はライブラリ504からオーディオ信号506を読み出し、上で説明したように分析をし、配列し、オーディオ信号512を出力デバイス514に出力する。出力デバイス514は、プロセッサ502の制御下でオーディオ信号のクロスフェードを実行する。インターフェイス518を用いて、オーディオ信号入力デバイスとしても機能するが、外部PCやチューナから該ジュークボックスの外部のソースから別のオーディオ信号を受信することができる。好適なインターフェイスとしては、例えば、RS232、イーサネット(登録商標)、USB、ファイヤワイヤ、S/PDIF等の有線インターフェイスがあり、IrDA、ブルートゥース、ZigBee、IEEE802.11、HiperLAN等の無線インターフェイスがある。オーディオ信号はアナログでもデジタルでもよい。好適なデジタルオーディ信号フォーマットには、AES/EBU、CDオーディオ、WAV、AIFF、MP3等がある。もっと複雑なユーザの好みの決定は、ジュークボックス500にインターフェイス518を介して接続されたPC等の他の製品のユーザインターフェイスを用いることにより可能である。ユーザの好みはこのインターフェイスを用いてジュークボックスにロードされる。この場合、インターフェイスは受信デバイスとして機能している。このインターフェイスにより送られたコンテント516は、オーディオ信号および/またはユーザの好みを含む。さらにまた、インターフェイス518は、上で説明した、IrDA(例えば、ユーザの好みを送信する)とアナログオーディオの組み合わせなど、1種類以上のインターフェイスにより実施されてもよい。あるいは、単一のインターフェイス(例えば、USB)により、外部のシステムからジュークボックスへのオーディオ信号とユーザの好みの転送をサポートしてもよい。
図6は、ネットワークサービスプロバイダーにより実施された、複数のオーディオ信号をシーケンスに配列する、図4のシステムの第2のアプリケーションを示す概略図である。システム602は、ユーザの好み624に応じて、オーディオ入力デバイス610からオーディオ信号616を読み出すことができる(オーディオ入力デバイス610は、オーディオ信号ライブラリ612とチューナ614から構成されている。チューナ614は、上で説明した放送およびネットワーク配信手段からオーディオ信号を受信するよう動作可能である)。サーバ606は、オーディオ信号を分析し、配列し、出力デバイス608に転送する。出力デバイス608は、サーバ606の制御下でオーディオ信号をクロスフェードし、出力信号をPC/PDA630やラジオ628等のエンドユーザ装置への送受信に適したフォーマット(例えば、HTTP over TCP/IP、RF変調)に変換する。このように、サービスプロバイダは、ユーザの好み624に従ってオーディオ信号の順序づけられたシーケンス626を生成および出力することができる。このようなユーザの好みは、受信した個々の好みからサービスプロバイダによって導き出された、個々のまたは集計された好みであってもよい。この後者のシナリオは、エンドユーザにオーディオ信号のシーケンスを配信するために利用できる帯域幅が限定されている場合(例えば、ラジオ放送の場合)に特に便利である。実施例では、ユーザは携帯電話618を用いて好みを決定する。決定された好みは、GSMネットワーク622を介してSMSメッセージ620として転送される。サービスプロバイダはGSMレシーバ604を用いてSMSメッセージを受信し、そのSMSメッセージを復号した後、ユーザの好み624はサーバ606に転送される。
上記の方法と実施は、実施例としてのみ提示されたものであり、本発明の有利な点を利用するために、当業者により容易に特定できる方法と実施の範囲を表している。
上記の説明と図1を参照して、複数のオーディオ信号をシーケンスに配列する方法が開示されている。該方法は、ユーザの好みを受信するステップ104と、内在的特徴を抽出するために前記複数のオーディオ信号を分析するステップ108と、シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列するステップ110とを有することを特徴とする。前記複数のオーディオ信号は前記ユーザの好みに従って特定されてもよい(ステップ106)。配列されたオーディオ信号は出力されてもよい(ステップ112)。
Claims (17)
- 複数のオーディオ信号をシーケンスに配列する方法であって、
ユーザの好みを受信するステップと、
内在的特徴を抽出するために前記複数のオーディオ信号を分析するステップと、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列するステップとを有することを特徴とする方法。 - 請求項1に記載の方法であって、前記複数のオーディオ信号は前記ユーザの好みに従って特定されることを特徴とする方法。
- 請求項1または2に記載の方法であって、前記抽出された内在的特徴は音楽的特徴であることを特徴とする方法。
- 請求項3に記載の方法であって、前記シーケンス中の連続したオーディオ信号は関係調を有することを特徴とする方法。
- 請求項4に記載の方法であって、前記関係調は平均律により決定されることを特徴とする方法。
- 請求項1ないし5いずれか一項に記載の方法であって、前記シーケンスに従って前記少なくとも2つのオーディオ信号を出力するステップをさらに有することを特徴とする方法。
- 請求項6に記載の方法であって、出力中の信号は前記シーケンス中のその直後の信号とクロスフェードされ、連続して出力されることを特徴とする方法。
- 請求項7に記載の方法であって、前記クロスフェードは前記シーケンス中の前記出力中の信号と前記その直後の信号のそれぞれの低音振幅により行われることを特徴とする方法。
- 請求項8に記載の方法であって、前記クロスフェードの期間中に、各オーディオ信号の低音振幅はそれぞれのオーディオ信号の最大低音振幅の1/7より低いことを特徴とする方法。
- 複数のオーディオ信号をシーケンスに配列するシステムであって、
ユーザの好みを受信するように動作可能な受信デバイスと、
オーディオ信号を格納するように動作可能な記憶装置と、
データプロセッサとを有し、
前記データプロセッサは、
内在的特徴を抽出するために前記複数のオーディオ信号を分析し、
シーケンス中の連続する信号が調和的であるように、抽出された特徴とユーザの好みとの比較に基づいて、ユーザによる介入無しに、前記複数のオーディオ信号の少なくとも2つのオーディオ信号を前記シーケンスに配列することを特徴とするシステム。 - 請求項10に記載のシステムであって、前記データプロセッサは、前記ユーザの好みに従って前記複数のオーディオ信号を特定することを特徴とするシステム。
- 請求項10または11に記載のシステムであって、
オーディオ信号を受信するように動作可能なオーディオ入力デバイスをさらに有し、
前記データプロセッサは前記受信されたオーディオ信号を格納するように動作可能であることを特徴とするシステム。 - 請求項10ないし12いずれか一項に記載のシステムであって、
前記シーケンスにより前記複数のオーディオ信号の前記少なくとも2つのオーディオ信号を出力するように動作可能な出力デバイスをさらに有し、
前記データプロセッサは前記出力デバイスを制御可能であることを特徴とするシステム。 - 請求項13に記載のシステムであって、前記出力デバイスは、出力中の信号を前記シーケンス中のその直後の信号とクロスフェードさせるように動作可能であることを特徴とするシステム。
- 請求項1ないし9いずれか一項に記載の方法を実行するように動作可能なソフトウェアを有する記録担体。
- 請求項1ないし9いずれか一項に記載の方法のステップを実行するように構成されたソフトウェアユーティリティ。
- データプロセッサを含むシステムであって、
前記データプロセッサは請求項16に記載のソフトウェアユーティリティにより命令されることを特徴とするシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0229940.2A GB0229940D0 (en) | 2002-12-20 | 2002-12-20 | Audio signal analysing method and apparatus |
GBGB0303970.8A GB0303970D0 (en) | 2002-12-20 | 2003-02-21 | Audio signal identification method and system |
GBGB0307474.7A GB0307474D0 (en) | 2002-12-20 | 2003-04-01 | Ordering audio signals |
PCT/IB2003/005961 WO2004057570A1 (en) | 2002-12-20 | 2003-12-10 | Ordering audio signals |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006511845A true JP2006511845A (ja) | 2006-04-06 |
Family
ID=32685759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005502605A Withdrawn JP2006511845A (ja) | 2002-12-20 | 2003-12-10 | オーディオ信号の配列 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20060112810A1 (ja) |
EP (1) | EP1579420A1 (ja) |
JP (1) | JP2006511845A (ja) |
KR (1) | KR20050088132A (ja) |
AU (1) | AU2003285630A1 (ja) |
WO (1) | WO2004057570A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005104088A1 (ja) * | 2004-04-19 | 2005-11-03 | Sony Computer Entertainment Inc. | 楽音を再生する装置、及びそれを含む複合装置 |
KR20080066007A (ko) * | 2005-09-30 | 2008-07-15 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 재생용 오디오 프로세싱 방법 및 장치 |
WO2007105180A2 (en) * | 2006-03-16 | 2007-09-20 | Pace Plc | Automatic play list generation |
US7956274B2 (en) * | 2007-03-28 | 2011-06-07 | Yamaha Corporation | Performance apparatus and storage medium therefor |
JP4311466B2 (ja) * | 2007-03-28 | 2009-08-12 | ヤマハ株式会社 | 演奏装置およびその制御方法を実現するプログラム |
US8026436B2 (en) * | 2009-04-13 | 2011-09-27 | Smartsound Software, Inc. | Method and apparatus for producing audio tracks |
US8757523B2 (en) | 2009-07-31 | 2014-06-24 | Thomas Valerio | Method and system for separating and recovering wire and other metal from processed recycled materials |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9299331B1 (en) * | 2013-12-11 | 2016-03-29 | Amazon Technologies, Inc. | Techniques for selecting musical content for playback |
US9343054B1 (en) * | 2014-06-24 | 2016-05-17 | Amazon Technologies, Inc. | Techniques for ordering digital music tracks in a sequence |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10049663B2 (en) * | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
CN107480161A (zh) * | 2016-06-08 | 2017-12-15 | 苹果公司 | 用于媒体探究的智能自动化助理 |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5295123A (en) * | 1990-11-14 | 1994-03-15 | Roland Corporation | Automatic playing apparatus |
US5693902A (en) * | 1995-09-22 | 1997-12-02 | Sonic Desktop Software | Audio block sequence compiler for generating prescribed duration audio sequences |
JP2927229B2 (ja) * | 1996-01-23 | 1999-07-28 | ヤマハ株式会社 | メドレー演奏装置 |
JP2956569B2 (ja) * | 1996-02-26 | 1999-10-04 | ヤマハ株式会社 | カラオケ装置 |
JP3799761B2 (ja) * | 1997-08-11 | 2006-07-19 | ヤマハ株式会社 | 演奏装置、カラオケ装置および記録媒体 |
JP3551087B2 (ja) * | 1999-06-30 | 2004-08-04 | ヤマハ株式会社 | 楽曲自動再生装置および連続楽曲情報作成再生プログラムを記録した記録媒体 |
US6933432B2 (en) * | 2002-03-28 | 2005-08-23 | Koninklijke Philips Electronics N.V. | Media player with “DJ” mode |
-
2003
- 2003-12-10 AU AU2003285630A patent/AU2003285630A1/en not_active Abandoned
- 2003-12-10 KR KR1020057011616A patent/KR20050088132A/ko not_active Application Discontinuation
- 2003-12-10 JP JP2005502605A patent/JP2006511845A/ja not_active Withdrawn
- 2003-12-10 WO PCT/IB2003/005961 patent/WO2004057570A1/en not_active Application Discontinuation
- 2003-12-10 EP EP03778624A patent/EP1579420A1/en not_active Withdrawn
- 2003-12-10 US US10/537,126 patent/US20060112810A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
KR20050088132A (ko) | 2005-09-01 |
US20060112810A1 (en) | 2006-06-01 |
WO2004057570A1 (en) | 2004-07-08 |
EP1579420A1 (en) | 2005-09-28 |
AU2003285630A1 (en) | 2004-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006511845A (ja) | オーディオ信号の配列 | |
US9786259B2 (en) | DJ stem systems and methods | |
JP4657544B2 (ja) | 情報シーケンス保存装置とその使用方法、及び、情報シーケンス保存方法 | |
CN101160615B (zh) | 音乐内容重放设备和音乐内容重放方法 | |
JP4349313B2 (ja) | 再生装置,再生制御方法およびプログラム | |
US20070064954A1 (en) | Method and apparatus for audio data analysis in an audio player | |
CN1838229B (zh) | 重放装置和重放方法 | |
CN101322180A (zh) | 音乐编辑装置和音乐编辑方法 | |
Cliff | Hang the DJ: Automatic sequencing and seamless mixing of dance-music tracks | |
US6746246B2 (en) | Method and apparatus for composing a song | |
JP5143620B2 (ja) | 試聴用コンテンツ配信システムおよび端末装置 | |
CN1729507A (zh) | 对音频信号进行排序 | |
JP2002073041A (ja) | 自動選曲システム、自動選曲方法、及び記憶媒体 | |
JP4330174B2 (ja) | 情報選択方法及び情報選択装置等 | |
WO2002062059A1 (fr) | Dispositif de fourniture de contenus, procédé de fourniture de contenus et logiciel pour procédé de fourniture de contenus | |
JP2006294212A (ja) | 情報データ提供装置 | |
JP4337158B2 (ja) | 情報提供装置及び情報提供方法 | |
US20110125297A1 (en) | Method for setting up a list of audio files | |
WO2007132627A1 (ja) | 楽曲検索装置、楽曲検索方法、楽曲検索プログラムおよび楽曲検索プログラムを記録した記録媒体 | |
JP3262121B1 (ja) | 音楽コンテンツから試用コンテンツを作成する方法 | |
JP2006201389A (ja) | 再生装置およびプログラム | |
JP2003076376A (ja) | イベント音楽再生方法及び装置 | |
JP2009217873A (ja) | コンテンツ選定装置、コンテンツ再生装置、コンテンツ選定方法、コンテンツ再生方法、コンテンツ選定プログラム、コンテンツ再生プログラム及び連携再生システム | |
JP2009521008A (ja) | コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法 | |
JP2008225549A (ja) | 楽曲販売システム、および端末装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061207 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20080306 |