JP2016511844A - 適合音楽再生システム - Google Patents

適合音楽再生システム Download PDF

Info

Publication number
JP2016511844A
JP2016511844A JP2015560162A JP2015560162A JP2016511844A JP 2016511844 A JP2016511844 A JP 2016511844A JP 2015560162 A JP2015560162 A JP 2015560162A JP 2015560162 A JP2015560162 A JP 2015560162A JP 2016511844 A JP2016511844 A JP 2016511844A
Authority
JP
Japan
Prior art keywords
music
segment
transition
song
audio tracks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015560162A
Other languages
English (en)
Other versions
JP6236472B2 (ja
Inventor
パットン,リーバイ,ジェイ.
フラガ,ジャスティン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nike Innovate CV USA
Original Assignee
Nike Innovate CV USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nike Innovate CV USA filed Critical Nike Innovate CV USA
Publication of JP2016511844A publication Critical patent/JP2016511844A/ja
Application granted granted Critical
Publication of JP6236472B2 publication Critical patent/JP6236472B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/131Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
    • G10H2210/136Morphing interpolation, i.e. interpolating in pitch, harmony or time, tempo or rhythm, between two different musical pieces, e.g. to produce a new musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

適合音楽再生システムが開示されている。本システムは、ユーザ活動レベルに対応する情報を受信する構成システムを含む。構成システムは、活動の変化に応じて楽曲の構成を修正する。この修正は、一組の構成規則によって行われ、円滑な音楽移行部を容易に作成する。【選択図】図2

Description

(関連出願の相互参照)
本出願は、2013年3月5日出願の「適合音楽再生システム(Adaptive Music Playback System)」という名称の米国仮特許出願第61/772,640号の利益を主張し、その出願は参照によって全体として本書に組み込まれる。
(技術分野)
本実施形態は一般に、音声情報を再生するためのシステムおよび方法に関する。
(背景)
音声情報を再生するためのシステムは、本技術分野において周知である。このようなシステムは、携帯型であって、ワークアウト中に競技者によって用いられ得る。このようなシステムの例としては、音楽再生機能を有する携帯電話などの携帯型デジタルオーディオプレーヤが挙げられる。本システムは、活動を容易化するための機能、例えばGPS情報を用いてユーザが走った履歴を示す地図を表示するソフトウェアをさらに備えうる。
(概要)
一態様によれば、音声情報の再生を調整する方法は、一組のオーディオトラックを再生し、一組の構成規則を読出し、ユーザの動きを検知するように構成された少なくとも一つのセンサからユーザ活動情報を受信し、前記ユーザ活動情報からユーザ活動レベルを決定することを含む。前記方法はまた、前記ユーザ活動レベルに対応する目標楽曲強度(target song intensity)を決定し、前記目標楽曲強度を達成するように前記一組のオーディオトラックを制御することを含む。
別の態様によれば、音声情報の再生を調整する方法は、楽曲を再生することを含み、前記楽曲は、時間的に連続する複数の楽曲セグメントを備えるとともに、同時に再生され得る一組のオーディオトラックをさらに備えている。前記方法はさらに、一組の構成規則を読出し、ユーザの動きを検知するように構成された少なくとも一つのセンサからユーザ活動情報を受信し、第1楽曲セグメントが再生されている間に前記ユーザ活動情報からユーザ活動レベルを決定することを含む。前記方法はまた、前記構成規則を用いて前記ユーザ活動レベルに一致する楽曲状態を有する第2楽曲セグメントを見つけ出し、前記第1楽曲セグメントから前記第2セグメントへ音楽移行部(musical transition)を構成することを含む。
別の態様によれば、音声情報の再生を調整する方法は、楽曲を再生することを含み、前記楽曲は時間的に連続する複数の楽曲セグメントを備えている。前記方法はまた、ユーザの動きを検知するように構成された少なくとも一つのセンサからユーザ活動情報を受信し、第1楽曲セグメントが再生されている間に前記ユーザ活動情報からユーザ活動レベルを決定することを含む。前記方法はまた、前記ユーザ活動レベルと一致する楽曲状態を有する前記楽曲の第2セグメントを見つけ出すことを含む。前記方法はまた、汎用(ユニバーサル)移行部セグメントを読出すことを含み、ここで、前記汎用移行部セグメントは、突然の(不自然な)音楽移行部を創作することなく、前記複数の楽曲セグメントのいずれかを順番に再生し得るものである。前記方法はまた、前記第1楽曲セグメントと前記第2楽曲セグメントとの間に移行部を創作するために、前記第1楽曲セグメントの後に前記汎用移行部セグメントを再生し、前記汎用移行部セグメントの後に前記第2楽曲セグメントを再生することを含む。
実施形態のその他のシステム、方法、特徴および効果は以下の図面および詳細な説明を参酌することで当業者にとって明らかである、あるいは明らかとなるであろう。そのような追加的なシステム、方法、特徴および効果の全ては、本出願の詳細な説明および概要の範囲内に含まれ、実施形態の範囲内であって、下記の特許請求によって保護されることを意図している。
本実施形態は、以下の図面および説明を参照することでさらに良く理解され得る。図面中の構成要素は、実施形態の原則を図示するうえで配置されているものであって、必ずしも拡大縮小や強調されるものではない。さらに、図面において、同じ参照番号が異なる図面でも共通する部品に付されている。
適合音楽再生システムの一実施形態の概略図である。 センサ入力および音楽情報を用いて再生される楽曲を創作する一般的なプロセスの概略図である。 いくつかのタイプの音楽情報の一実施形態の概略図である。 個別の楽器およびボーカルトラックを備えた楽曲の一実施形態の概略図である。 ユーザ活動に応じて楽曲の構成(作曲)を調整するプロセスの一実施形態である。 楽曲の構成の調整のために用いられるいくつかの入力の一実施形態の概略図である。 楽曲の構成の調整のための詳細なプロセスの一実施形態である。 音楽移行部を構成するプロセスの一実施形態である。 異なる強度を有する二つの小節における複数の楽器およびボーカルトラックの概略図である。 異なる強度を有する二つの小節における複数の楽器およびボーカルトラックの概略図であって、移行部がこれらの小節間に生成されている。 異なる強度を有する二つの小節における複数の楽器およびボーカルトラックの概略図である。 異なる強度を有する二つの小節における複数の楽器およびボーカルトラックの概略図であって、移行部がこれらの小節間に生成されている。 一つの楽曲セグメントにおいて個々のトラックを修正し、要求楽曲強度を達成するためのプロセスの一実施形態である。 ユーザの活動レベルに応じてフェードインおよびフェードアウトされる異なるトラックを備えた楽曲の一部分の一実施形態を示す概略図である。 低強度の楽曲セグメントから高強度の楽曲セグメントまでの最短経路を含む、楽曲の一部分の一実施形態を示す概略図である。 異なる強度レベルの二つのセグメント間での音楽セグメントの最短シーケンス(配列)を生成するためのプロセスの一実施形態である。 多くのセグメントと、二つのセグメント間の直接経路を提供する汎用移行部とに分割される楽曲の一実施形態の概略図である。 多くのセグメントと、二つのセグメント間の直接経路を提供する汎用移行部とに分割される楽曲の一実施形態の概略図である。
(詳細な説明)
図1は、適合音楽再生システム100の一実施形態を示す概略図である。適合音楽再生システム100は、一般に、一つあるいは複数の入力に応じて音楽の再生を調整するための一つあるいは複数のサブシステム、構成要素、あるいは装置を備え得る。より詳細には、適合音楽再生システム100は、一般に、関係するユーザおよび/または関係するシステムの状態の変化に応じて音楽の再生を調整するために用いられ得る。例えば、以下の実施形態においては、ユーザの活動レベル(つまり、活動状態)を特徴づける情報を用いて楽曲の再生を調整するシステムおよび方法が説明されている。しかしながら、本実施形態は、限定を意図するものではなく、他の実施形態として、他の種類のユーザ状況、例えば、生体状態、精神および/または感情状態(つまり、ユーザの気分)あるいはその他の状態の変化に応じて音楽の再生を調整するのに用いられるシステムおよび方法を含み得る。
いくつかの実施形態において、適合音楽再生システム100はさらに、構成システム102、センサシステム104、および変換器システム110を含む。明確性を目的として、変換器システム110は、本実施形態においては概略的に示されている。一般に、変換器システム110は、あらゆる数、タイプおよび/または構成の変換器を含み得る。さらに、変換器システム110は、変換器を支持および位置決めする設備(すなわち、筐体、ケース、クリップなど)を伴い得る。いくつかの実施形態において、変換器システム110は、一つあるいは複数の拡声器を含み得る。他の実施形態において、変換器システム110は、ユーザが装着するヘッドフォンを含み得る。
センサシステム104は、一つあるいは複数のセンサと、センサを収容および位置決めする設備とを備え得る。一例として、図1の概略センサシステム104は、第1センサ105および第2センサ106を含むシステムを図示している。本実施形態では二つの分離したセンサを備えたシステムを図示しているが、他の実施形態では、1つから4つ、あるいはそれ以上のセンサを含むあらゆる数のセンサを備え得る。
センサシステム104は、ユーザの状態に関連付けられる情報を検知するように構成され得る。いくつかの実施形態において、センサシステム104は、ユーザの動きおよび/または活動に関係する情報を検知し得る。他の実施形態においては、センサシステム104は、ユーザの位置(例えば、グローバルポジション(全地球位置)および相対位置)、生体情報(例えば、心拍数、呼吸数、発汗レベルなど)およびその他の種類の情報を含む情報を検知し得る。
一般に、センサシステム104のセンサは、ユーザに対していかなる方法で位置決めされても良い。いくつかの実施形態において、センサシステム104は、クリップ、バンドあるいは同様の設備を用いてユーザに直接装着され得る。他の実施形態においては、センサシステム104は、履物品、衣料品および/またはスポーツ用品の一部に配置されるかあるいは関連付けられ得る。いくつかの実施形態において、センサシステム104の各センサは、対応する履物品に伴い得る。例えば、図1の概略図においては、第1センサ105および第2センサ106は、第1履物品107および第2履物品108にそれぞれ搭載されている。各センサが履物品内に位置決めされることによって、第1センサ105および第2センサ106は、ユーザが歩いたり走ったりジャンプしたりあるいはほかの種類の活動を行う際のユーザの動きおよび/または活動を検知するように用いられ得る。そのため、例えば、センサシステム104は、以下にさらに詳細に説明されるユーザ活動のレベルを特徴づけるために用いられるユーザの歩く速度または走る速度を検知し得る。
実施形態において、様々な異なる身体運動、および身体および/または生物学的状態に関係する情報をセンシングする機能を備えた様々なセンサを用いることができる。本実施形態は、以下の文献;2012年2月7日付発行の米国特許番号8,112,251(出願人:Case Et al.);2010年8月10日付発行の米国特許番号7,771,320(出願人:Reley Et al.);2008年9月23日付発行の米国特許番号7,428,471(出願人:Darley Et al.);2012年11月22日付公開の米国特許出願公開番号2012/0291564(出願人:Amos Et al.);2012年11月22日付公開の米国特許出願公開番号2012/0291563(出願人:Schrock Et al.);2012年10月4日付公開の米国特許出願公開番号2012/0251079(出願人:Meschter Et al.);2012年9月20日付公開の米国特許出願公開番号2012/0234111(出願人:Molyneux Et al.);2012年3月29日付公開の米国特許出願公開番号2012/0078396(出願人:Case Et al.);2011年8月18日付公開の米国特許出願公開番号2011/0199393(出願人:Nurse Et al.);2011年2月10日付発行の米国特許出願公開番号2011/0032105(出願人:Hoffman Et al.);2010年3月11日付発行の米国特許出願公開番号2010/0063778(出願人:Schrock Et al.);2007年1月25日付公開の米国特許出願公開番号2007/0021269(出願人:Shum Et al.);2012年2月22日付出願の「センサシステムを備えた履物(Footwear Having Sensor System)」という名称の米国特許出願番号13/401918、米国特許出願公開番号___(出願人:Schrock Et al.)、2012年2月22日付出願の「センサシステムを備えた履物(Footwear Having Sensor System)」という名称の米国特許出願番号13/401910、米国特許出願公開番号___(出願人:Schrock Et al.)、に開示された一つあるいは複数のセンサ、特徴、システム、装置、要素、方法および/または検知情報を組み込むことができ、各文献全体が参照としてここに取り込まれる。
図1に示される実施形態は、履物に組み込まれるセンサシステムを開示しているが、他の実施形態としてあらゆる衣料品に組み込まれるセンサを含むことができる。例えば、いくつかの実施形態は、パンツ、シャツ、靴下、防止、手袋および考え得るその他の衣料品に組み込まれるセンサを含めることができる。さらに、他の実施形態において、一つあるいは複数のセンサは、スポーツ用品、限定はされないが例えば、バット、ボール、グローブ、ゴルフクラブ、パッド、ヘルメットおよび考え得るその他のスポーツ用品に含まれ得る。
構成システム102は、検知(センサ)情報を受信し、一つあるいは複数の変換器を介して再生される音楽情報を適合する様々な設備を備え得る。一つあるいは複数の楽曲および/または音の再生を調整する方法が、以下に詳細に記載される。
一般に、構成システム102は、様々な異なるシステム、構成要素および/または装置を含み得る。典型的なシステムは、コンピューティングシステムあるいはコンピューティングシステムの一部を含み得る。これらのコンピューティングシステムは、メモリ、プロセッサ、および、考え得るネットワーク設備などのハードウェアを含み得る。さらに、いくつかの実施形態において、構成システム102はまた、再生すべき楽曲、あるいは楽曲の一部内の音楽情報を構成するソフトウェアを起動し得る。
いくつかの実施形態において、構成システム102のいくつかの構成要素は、携帯型再生装置内に収容され得る。典型的な装置は、限定されないものの、スマートフォン(例えばiPhone)、デジタル音楽プレーヤ(例えばiPod)、および考え得るその他の携帯型再生装置を含む。一つの例示的実施形態において、構成システム102の設備は、スマートフォンあるいはデジタル音楽プレーヤ内に組み込まれ、一つあるいは複数のセンサから受信する情報に応じて楽曲の再生を調整し得る。
いくつかの実施形態において、センサ情報を分析して楽曲の再生を調整するための構成システム102の設備は、携帯型再生装置上で直接起動され得る。したがって、例えば、センサ情報を受信し楽曲の再生を調整するソフトウェアは、スマートフォンのアプリケーションとして実行され得る。しかしながら、その他の実施形態において、設備は、異なる構成要素あるいは装置内に組み込まれ得る。例えば、他の実施形態において、センサ情報の分析および楽曲再生の調整は、再生のための携帯装置(例えばデジタル音楽プレーヤー)と通信する遠隔コンピュータ装置(例えば、ラップトップあるいはデスクトップコンピュータ)で実行され得る。さらに、構成システム102の異なるサブシステム、構成要素、および/または装置間の通信は、有線あるいは無線設備を用いて実行され得る。
構成システム102は、情報の入出力および電源のオンオフを容易化するための多くのポートを備え得る。本出願の詳細な説明の全体を通じておよび特許請求の範囲において用いられる用語「ポート(port)」は、二つの導体間でのインタフェースあるいは共有の境界に言及するものである。一部の例では、ポートは、導体の抜き差しを容易にする。ポートのこれらのタイプの例として、機械的コネクタが挙げられる。他の例では、ポートは、一般に容易に抜き差しされないインタフェースである。ポートのこれらのタイプの例として、回路基板上での半田付けや電子配線(electron trace)が挙げられる。
構成システム102に関連付けられる以下のポートおよび設備の全ては任意である。いくつかの実施形態は、所定のポートあるいは設備を備え得るが、その他の実施形態においては、それは除外され得る。以下の説明では、多くの使用可能なポートおよび設備が開示されるが、すべてのポートあるいは設備が実施形態において用いられるあるいは含まれる必要があるわけではないことに留意されたい。
いくつかの実施形態において、構成システム102は、一つあるいは複数のセンサから情報を受信するポート112を含み得る。一部の例では、ポート112は、センサシステム104から情報を受信するよう構成されている。構成システム102とセンサシステム104との間で無線接続が提供されている実施形態では、周知の無線通信方法を用いることで無線通信が容易となる。同様に、構成システム102は、変換器システム110へ情報を送信するポート114を含み得る。これにより、楽曲および/または他の音の再生を促進するために、信号がポート114を介して変換器システム110へ送信され得る。
図2は、情報を受信し、情報を処理し、処理情報に対応する音声情報を再生する一般的なプロセスを示している。より詳細には、センサシステム104からの情報が、処理用の音楽情報204とともに受信される。そして、ステップ206において、(ユーザ活動が示され得る)センサシステム104からのセンサ情報に応答して、音楽情報204から楽曲が創作され得る。この構成(作曲)プロセスの出力が、ステップ208において再生され得る音声情報である。
本出願の詳細な説明の全体を通じておよび特許請求の範囲において、用語「音楽情報」は特定の楽曲、楽曲の部分(セグメントあるいはセクション)、楽曲のトラック、サンプル、およびその他の情報に関係する様々な種類の情報について言及するものである。一部の例では、音楽情報はまた、複数の楽曲を通して再生するように制御されるプレイリスト情報を含む、二つあるいはそれ以上の楽曲についての情報を含み得る。より一般的には、音楽情報は、再生装置によって楽曲を生成するのに用いられるあらゆる情報に言及し得るものである。
本実施形態は、新しい楽曲を創作するための個別のトラックをミキシングすることを含む、音楽情報を構成する方法を示している。しかしながら、一部の例では、音楽情報の構成は、プレイリスト内での楽曲の順序付けを含み得る。例えば、いくつかの他の実施形態において、システムは、様々な音楽選択パラメータに応じて再生される楽曲の配列を編成するように構成され得る。他の実施形態は、その全体がここに参照として取り込まれる2010年4月27日付出願の「運動トレーニング用のトレーニングプログラムおよび音楽プレイリスト生成(Training Program and Music Playlist Generation for Athletic Training)」という名称の米国特許出願公開番号2010/0273610(米国特許出願番号12/768,168)(出願人:Johnson)にて開示された再生される楽曲の配列を自動で作成する(例えば、プレイリストを生成あるいはプレイリスト内の曲を順序づける)ためのシステム、構成要素、装置、および方法のいずれかを用いることができる。
図3は、実施形態に係る、いくつかのタイプの音楽情報の概略図を示している。図3はいくつかの種類の音楽情報を図示することを意図しているに過ぎず、その他の実施形態にはさらに他のタイプの音楽情報が含まれ得ることが理解されるであろう。同様に、ここに示されるいくつかのタイプの音楽情報は他の実施形態では任意である。
音楽情報204は、サンプル情報302を含み得る。サンプル情報302は、個別の音ファイルとして格納され得る様々な楽器、声、および/またはその他の音のサンプルを含み得る。一例として、サンプル情報302は、さらにギターサンプル310、ドラムサンプル312、キーボードサンプル314、および声部サンプル316を含み得る。その他付加的な楽器、声および音に対応するその他のサンプル情報もまた、いくつかの実施形態において含まれることができる。用語「サンプル」は、限定を意図するものではなく、特定の楽器、声あるいはその他の音に関係する情報の集合を含み得る。
いくつかの実施形態は、MIDI(Musical Instrument Digital Interface)情報304(MIDIストリームあるいはその他のMIDIファイル情報を含む)を使用することができる。例えば、楽曲は、一つあるいは複数の楽器のMIDIストリームを格納し得る。楽器、声部あるいは音サンプルファイルを組み合わせて、MIDIストリームは、選択された楽器、声部あるいは音サンプルファイルに対応する音符の配列を実行するための指示を提供し得る。そのため、MIDI情報304は、サンプル音の編曲を格納するために用いられ得る。一部の例では、各MIDIストリームは、多重トラック楽曲あるいは多重トラック楽曲内の一つのトラックの一部分に対応し得る。
いくつかの実施形態はまた、記録された音声情報306を利用し得る。一般に、記録された音声情報306は、記録された音声ファイルとして格納され得る、全体的あるいは部分的な長さの音声記録を備え得る。例えば、第1記録音声ファイル320は、楽曲の全体を通して演奏されるギターの音声記録に相当し得る。同様に、第2記録音声ファイル322は、楽曲の全体を通して歌っている歌手の音声記録に相当し得る。以下で詳述するように、これらの記録音声ファイルは、多重トラック楽曲内の個々のトラックとしてそれぞれ機能し得る。
それぞれ異なるタイプの音楽情報(例えば、サンプル情報、MIDIストリーム情報、記録音声情報、およびその他の音楽情報)が様々な異なる形式で格納され得ることを理解されたい。例えば、記録音声情報は、限定されるものではないが、非圧縮型音声形式(例えば、WAV、AIFF、AU、あるいはPCM)、可逆圧縮型形式(例えば、FLAC、WavPack、Monkey Audioフォーマット、WMA Lossless、あるいはMPEG−4 SLS)、非可逆圧縮型形式(例えば、MP3、AAC、あるいはWMA lossy)、およびその他周知の音声形式を含む、何らかのフォーマットを用いて格納され得る。さらに、音楽情報ファイルは、生音声データを符号化および復号化するための一つあるいは複数の音声コーディックと組み合わせて用いられ得る。さらに、MIDIストリーム情報は、標準MIDIファイル(Standard MISI File(SMF))形式を含む、周知のMIDI形式を用いて格納され得る。サンプル情報は、同様に、記録音声情報に関して記載された形式のいずれかを用いて格納され得る。
音楽情報204の実施形態は、一組の構成規則350も含み得る。本出願の詳細な説明の全体を通しておよび特許請求の範囲において用いられる用語「構成規則」は、外部システムあるいはユーザの状態の変化に応じて(例えば、ユーザ活動レベルの増加/減少に応じて)異なるオーディオトラック、あるいは音楽情報のその他の要素がどのように組み合わされるかを決定するために用いられる、あらゆる情報に言及されるものである。明確性のために、一組の構成規則350における個別の構成規則は、さらに所定規則352あるいはユーザ選択354として分類される。所定規則352は、予めプログラムされた規則を含み、音楽的一貫性の要求レベルを維持して突然の音楽移行部を回避するような方法で、異なる楽器、声、および音を組み合わせることに伴う一般的な構成規則に相当し得る。したがって、所定規則352は、例えば、どの楽器が最初に楽曲から出るかあるいは入るか、およびどの楽器の組み合わせが一緒に再生(演奏)されるか一緒に再生(演奏)されないかを決定するための規則を含み得る。一部の例では、所定規則352は、一般的であるため、同様の規則が異なる楽曲で用いられる。他の例では、所定規則352は、再生される個々の楽曲によって個別的であってもよい。さらに他の例では、所定規則352は、一般規則および楽曲別規則の組み合わせであっても良い。
ユーザ選択354は、ユーザによって調整され得る構成規則を備え得る。例えば、ユーザ選択354は、最大音量設定を超える音量で一つあるいは複数のトラックが再生されることを防ぐための、最大音量設定を含むことができる。他の例として、ユーザ選択354は、ユーザが楽曲をもっと早く進めたいか、あるいはユーザがその楽曲の特定の部分を何回もリピートしても構わないかを指示するための設定を含み得る。ユーザ選択の他の例は、個々の楽器あるいはソロボーカル(独唱)などの多くを含む選択といった音楽の所定スタイルの選択であっても良い。
構成規則の数およびタイプは各実施形態で異なり、一般には、異なる全体強度(あるいは考え得るその他の特性)を有する楽曲の異なる部分の間で調和のとれた移行部をもたらすように選択され得る。構成規則350は、他の実施形態では、所定規則352およびユーザ選択354に分割されて編成される必要はないことを理解されたい。
図4は、いくつかの楽器/ボーカルオーディオトラックおよびマスターオーディオトラック(単にマスタートラックともいう)として図示される、楽曲の一部分の実施形態を示す概略図である。図4を参照すると、楽曲の一部分は、ギタートラック402、ドラムトラック404、キーボードトラック406およびボーカルトラック408を含む、四つの異なるオーディオトラックを備え得る。ここでは記譜法を用いて概略的に示しているが、各オーディオトラックは、個別音声ファイルあるいはMIDIストリームとして格納され得る。さらに、ギタートラック402、ドラムトラック404、キーボードトラック406およびボーカルトラック408は、異なるオーディオトラックの全ての組み合わせに由来するマスタートラック410の一部を構成し得る。
図示の目的のために、マスタートラック410は、波形を用いて図4に概略的に示されているが、マスタートラック410は、ギタートラック402、ドラムトラック404、キーボードトラック406およびボーカルトラック408において示される楽器や音符に対応する個別の音のそれぞれから構成されていることを理解されたい。
ここで示されるように、マスタートラック410は、個別のセクションあるいはセグメントに分割され得る。本出願の詳細な説明の全体を通しておよび特許請求の範囲において用いられるように、用語「セグメント」は、始まりと終わりを備えた楽曲の一般的な連続部分に言及するものである。そのため、楽曲は、時間的に連続する異なるセグメントに分割され得る。例えば、図4に示される楽曲部分は、第1楽曲セグメント420、第2楽曲セグメント422および第3楽曲セグメント424を含み得る。各楽曲セグメントは、始まりと終わりによって特徴づけられ得る。マスタートラック410が時間を用いてインデックスされる状況においては、第1楽曲セグメント420は、時間T1で始まり、時間T2で終わる。第2楽曲セグメント422は、時間T2で始まり、時間T3で終わる。さらに、第3楽曲セグメント424は、時間T3で始まり、時間T4で終わる。本実施形態では、マスタートラック410の異なるポイントをインデックスする手段として時間を用いているが、他の実施形態では楽曲をインデックスする方法として他のあらゆる方法を用い得る。さらに、一つあるいは複数のセグメントを定義する方法が異なっていても良い。一部の例では、例えば、セグメントは、楽曲の一小節、あるいは所定数の小節に相当し得る。他の例では、セグメントは、音声波形における変化といった音声情報の配列の一つあるいは複数の特徴の変化を識別することにより決定され得る。各セグメントを定義する方法に応じて、異なるセグメントが同じ長さを有していても良く、異なる長さを有していても良いことを理解されたい。
図4の実施形態において、第1楽曲セグメント420、第2楽曲セグメント422、および第3楽曲セグメント424のそれぞれが強度レベルと関係づけられる。特に、第1楽曲セグメント420は、低強度セグメントと特徴づけられ、第2楽曲セグメント422は、高強度セグメントと特徴づけられ、第3楽曲セグメント424は、中強度セグメントと特徴づけられる。
さらに他の実施形態においては、楽曲のセグメントは、他の音楽的基準により識別され得る。他の音楽的基準は、限定されないものの、キー(階調)、音程、大きさ、テンポ、および考え得るその他の音楽的基準によってセグメントを特徴づけることを含む。さらに、一部の例では、個別トラックは、同様に、キー、音程、大きさ、テンポ、および考え得るその他の音楽的基準に応じて特徴づけられるセグメントに分割され得る。
図5は、検出されるユーザ活動の変化に応じて、楽曲の構成を調整する、あるいは楽曲の再生を調整するプロセスの実施形態を示している。いくつかの実施形態において、下記ステップのいくつかは、構成システム102(図1参照)によって達成され得る。他の実施形態においては、いくつかのステップは、適合音楽再生システム100と関係づけられる他の構成要素、システムあるいは装置によって達成され得る。他の実施形態において、下記ステップの一つあるいは複数は、任意であり得ることを理解されたい。
ステップ502にて、構成システム102は、楽曲を再生し始め得る。これは、ユーザがデジタル音楽装置の再生(Play)ボタンを押下するといったユーザ入力に応えて、あるいはユーザの動作のようなその他の入力に応えて、行われ得る。次に、ステップ504にて、構成システム102は、一つあるいは複数のセンサ(例えばセンサシステム104の両センサのうちの一つあるいは双方)からの入力を受信し得る。
ステップ504にて、一つあるいは複数のセンサからの情報は、ユーザの現在の活動レベルを決定することに用いられ得る。本出願の詳細な説明の全体を通しておよび特許請求の範囲において用いられている用語「活動レベル」は、ユーザ活動あるいはユーザ動作を特徴づける一つのあるいは一組の値に言及するものである。ここで、ユーザ活動あるいはユーザ動作は、限定されるものではないが、ユーザの速度、ユーザの加速、ユーザの位置、ユーザの歩行、ユーザの歩幅、地面接触力、およびユーザ活動の考え得るその他の特徴付け(特性化)を含む。一部の例では、ユーザ活動レベルはそのような因子の組み合わせを検討することで決定され得る。活動レベルは、連続値、例えば範囲0(最小活動)から範囲10(最大活動)における連続的な値を有し得る。活動レベルはまた、個別の値を有し得る。例えば、いくつかの実施形態は、「低度の活動」、「中程度の活動」および「高度の活動」という3つの値の活動レベルスケールを利用することができる。
ステップ506にて、構成システム102は、ステップ504で決定された活動レベルを現在の楽曲状態と比較し得る。楽曲状態は一般に、周知の因子に応じて特徴づけられる。周知の因子は、以下に限定されないが、強度、テンポ、複雑性、キー、音程、および考え得るその他の因子を含む。いくつかの実施形態において、楽曲状態は一般に、低強度、中強度あるいは高強度のいずれかである楽曲強度に言及するものであり得る。しかしながら、その他の実施形態は、上述の複数の因子のいずれかおよびこれらの因子の組み合わせを含む、楽曲状態を特徴づける方法を用いることができる。ここで説明された実施形態は一般に、ユーザ活動レベルに一致し得る楽曲状態のイメージ(概念)を用い得る。例えば、様々な楽曲強度が対応するユーザ活動レベルに一致され得る。
ステップ508にて、構成システム102は、ユーザ活動レベルが現在の楽曲状態に一致するかどうかを決定し得る。例えば、構成システム102は、現在のユーザ活動レベルが現在の楽曲強度(すなわち、現在再生されている楽曲セグメントの強度)に一致するかどうかを決定し得る。一致している場合には、構成システム102は、ステップ510へ進み、何らの調整が行われることなく楽曲の再生を継続する。しかしながら、活動レベルと現在楽曲状態の間に不一致がある場合には、構成システム102は、代わりにステップ512へ進み得る。ステップ512にて、構成システム102は、異なる楽曲セグメントに変更する、および/または一つあるいは複数のオーディオトラックの構成を調整することにより、(楽曲)構成を調整し得る。この(楽曲)構成の調整を達成するための様々な方法が、以下詳細に説明される。
図6に示されるように、楽曲構成をどのように調整するかを決定するために、いくつかの因子が構成システム102によって考慮され得る。詳細には、プロセス608として概略的に示されている、楽曲の構成を調整するプロセスは、一つあるいは複数の入力を用い得る。これらは、ユーザ活動602、構成規則604および現在の楽曲状態606を含む。特に、ユーザ活動および現在の楽曲状態606は、継続的にモニターされ得る。ユーザ活動602および現在楽曲状態606が不一致の場合には、楽曲構成は、構成規則604によって決定づけられる方法により調整され得る。
図7は、検出されるユーザ活動の変化に応じて、楽曲の構成を調整する、あるいは楽曲の再生を調整するプロセスの実施形態を示している。いくつかの実施形態において、下記ステップのいくつかは、構成システム102(図1参照)によって達成され得る。他の実施形態においては、いくつかのステップは、適合音楽再生システム100と関連付けられる他の構成要素、システムあるいは装置によって達成され得る。その他の実施形態において、下記ステップの一つあるいは複数は任意であり得ることを理解されたい。
ステップ702にて、構成システム102は、ユーザの現在活動レベルを決定し得る。これは、一つあるいは複数のセンサからの情報を分析することにより行われ得る。次に、ステップ704にて、構成システム102は、現在のユーザ活動レベルと一致する楽曲状態を有する楽曲の新規セグメントを見つけ出し得る。例えば、構成システム102は、現在の活動レベルに相当する強度を有する楽曲のセグメントを見つけ出し得る。一部の例では、これは、一致する強度を有するセグメントを見つけるために音声情報のリアルタイムの分析を実行することにより達成され得る。他の例では、異なる楽曲セグメントにおける強度レベルが、簡易検索のためのテーブルあるいはデータベースに格納され得る。
一般に、システムは、強度を有する活動レベルと関連付けるように構成され得る。例えば、閾値よりも大きい高度のユーザ活動レベルは、高強度に対応し得る。ユーザ活動レベルから強度を決定づけるためのあらゆる方法が用いられ得る。いくつかの実施形態においては、機能あるいはテーブルが、ユーザ活動レベルをそれに対応する強度に自動で位置づけるために用いられ得る。ここで、入力(ユーザ活動レベル)および出力(強度)は連続値および/または個別値であってもよい。
ステップ706にて、構成システム102は、現在のユーザ活動レベルに対応する強度を有する新規セグメントに直接ジャンプしても良いかどうかを決定し得る。このような決定は、現在のセグメントの様々な音楽的特徴を新規セグメントの特徴と比較することにより行われ得る。現セグメントと新規セグメントとの間で良好な音楽的一致がすでにあると決定された場合には、構成システム102は、新規セグメントに直接ジャンプしても良いと決定し、ステップ708へ進む。ステップ708にて、構成システム102は、音楽移行部が必要ではないと決定し、ステップ710へ進む。ここで、構成システム102は、新規セグメントへジャンプし得る。
しかしながら、ステップ706において構成システム102が新規セグメントに直接ジャンプすることが望ましくないと判断した場合には、構成システム102は、ステップ712へ進む。ステップ712にて、構成システム102は、現セグメントと新規セグメントとの間に音楽移行部が必要であると決定する。ステップ714にて、したがって、構成システム102は、必要な音楽移行部の構成へ進む。
図8は、音楽移行部を構成するプロセスにおけるいくつかの考え得るステップを示している。ステップ802にて、構成システム102は、一般移行部タイプを選択し得る。例えば、構成システム102は、立ち上がりタイプパターン(attack type pattern)804が必要であるか、あるいは減衰タイプパターン(decay type pattern)806が必要であるかどうかを決定し得る。現在楽曲セグメントが低い音楽強度を有し、新規楽曲セグメントが高い音楽強度を有している場合には、構成システム102は、移行部中にオーディオトラックが段階的に導入される立ち上がりパターンを選択し得る。現在楽曲セグメントが高い音楽強度を有し、新規楽曲セグメントが低い音楽強度を有している場合には、構成システム102は、移行部中からオーディオトラックが段階的に除去される減衰パターンを選択し得る。本実施形態は、立ち上がりパターンと減衰パターンという二つの種類の移行部パターンを示しているが、他の実施形態では線形パターン、非線形パターン、およびその他周知の移行部パターンあるいは周知の移行部パターンの組み合わせを含むあらゆる数の所定の移行部パターンを組み込むことができる。
ステップ802において一般移行部タイプが選択されると、構成システム102は、ステップ808へ進み得る。ステップ808にて、構成システム102は、移行部スコアを構成し、セグメントを追加し得る。特に、このプロセスは、構成規則810を用いて移行部全体にわたって異なるオーディオトラックの出入りのタイミングを決定する。このプロセスはまた、構成規則810を用いて移行部全体にわたって異なるオーディオトラックの相対音量設定を決定する。
図9は、楽曲900の一部分の少なくともいくつかのトラックの概略図を示している。楽曲900の当該部分は、リードギタートラック902、リズムギタートラック904、キーボードトラック906、ベーストラック908、ドラムトラック910、およびボーカルトラック912を含んでいる。図示の目的のため、各トラックは、楽器および関係する楽譜の配列によって概略的に示されている。しかしながら、各トラックを示す音楽情報は様々な形式で格納され(および分析され)得ることを理解されたい。
図9は、楽曲900の小節15から小節35まで移動するための、小節15と小節35との間の小節のいくつかあるいはすべての小節を飛び越える音楽移行部が必要な構成を概略的に示すことを目的としている。この例では、小節15は中強度を有するものと特徴づけられ、これに対して、小節35は高強度を有するものと特徴づけられる。小節15が再生されている間にユーザ活動レベルが(小節15と一致する)中レベルから(小節35と一致する)高レベルに上昇する場合に、このような移行部を創作する必要性が生じ得る。
図10は、一つあるいは複数のトラックを入れるタイミングを図ることによって、小節15から小節35へ移動するための音楽移行部を生成するのに考え得る方法を示している。この例においては、小節35の二つの追加コピー(第1移行部小節920および第2移行部小節922と呼ばれる)が移行部の基礎として用いられる。さらに、構成規則350(図3参照)が、どのトラックがこれら2つの追加小節間で再生されるかを決定するために用いられ得る。
いくつかの実施形態において、トラックを消音(ミュート)するあるいは消音を解除することの決定は、立ち上がりパターンや減衰パターンといった一つあるいは複数の一般パターンに基づくことができる。図10に示されるように、移行部ライン930は、小節15の終わりから小節35の始まりまでの楽曲進行としてトラックの消音を解除するための理想的な移行部パターンを示している。このような移行部パターンは、したがって、第一近似として機能するか、楽曲の強度を段階的に上げることを案内し得る。しかしながら、音楽的連続性/一貫性を確保したり楽器および音の突然の変化を低減するために、構成規則350は、望ましい時間に各トラックが楽曲に追加されたり削除されることを確保するために用いられ得る。例えば、各トラックの音楽的統一性を確保して各トラック間の調和を図るために構成規則350が用いられ、小節の最中にトラックの挿入が行われるよりはむしろ、小節全体が再生され(あるいは消音され)得る。
図10に示されるように、リードギタートラック902、リズムギタートラック904、キーボードトラック906、およびベーストラック908は第1移行部小節920の間は消音され、一方、ドラムトラック910およびボーカルトラック912が再生される。ドラムトラック910は小節15から小節35にかけて変化しないため、第1移行部小節920および第2移行部小節922を通してドラムトラック910を再生することは音楽的連続性を与える。同様に、小節15から小節35における移行部のボーカルパートは音楽的に調和がとれていて不自然すぎない(突然すぎない)と判断される場合には、ボーカルトラック912は第1移行部小節920および第2移行部小節922を通して再生し得る。楽曲が第2移行小節922に進んだら、移行部ライン930に大まかに(厳密ではなく)一致するように追加トラックが加えられる。特に、キーボードトラック906およびベーストラック908が第2移行部小節922に追加され、楽曲の音楽的一貫性は維持しながらも、強度が段階的に上げられる。最後に、元の小節55に進んだら、リードギタートラック902およびリズムギタートラック904が追加され、小節35の高強度音が提供される。
図11は、楽曲900の小節55から小節75まで移動するための、小節55と小節75との間の小節のいくつかあるいはすべての小節を飛び越える音楽移行部が必要な別の構成を概略的に示すことを目的としている。この例では、小節55は中強度を有するものと特徴づけられ、これに対して、小節75は低強度を有するものと特徴づけられる。小節55が再生されている間にユーザ活動レベルが(小節55と一致する)中レベルから(小節75と一致する)低レベルに低下する場合に、このような移行部を構成する必要性が生じる。
図12は、一つあるいは複数のトラックを入れるタイミングを図ることによって、小節55から小節75へ移動するための音楽移行部を生成するのに考え得る方法を示している。この例においては、小節55の二つの追加コピー(第3移行部小節940および第4移行部小節942と呼ばれる)が移行部の基礎として用いられる。さらに、構成規則350(図3参照)が、どのトラックがこれら2つの追加小節間で再生されるかを決定するために用いられ得る。
いくつかの実施形態において、トラックを消音するあるいは消音を解除する(すなわち、トラックの出入りを制御する)ことの決定は、立ち上がりパターンや減衰パターンといった一つあるいは複数の一般パターンに基づくことができる。図12に示されるように、移行部ライン950は、小節55の終わりから小節75の始まりまでの楽曲進行としてトラックを消音するための理想的な移行部パターンを示している。このような移行部パターンは、したがって、第一近似として機能するか、楽曲の強度を段階的に下げることをガイドし得る。しかしながら、音楽的連続性を確保したり楽器および音の突然の変化を低減するために、構成規則350は、望ましい時間に各トラックが楽曲に追加されたり削除されたりすることを確保するために用いられ得る。例えば、各トラックの音楽的統一性を維持して各トラック間の調和を図るために構成規則350が用いられ、小節の最中にトラックの挿入が行われるよりはむしろ、小節全体が再生され(あるいは消音され)得る。
図12に示されるように、リードギタートラック902およびリズムギタートラック904は、第3移行部小節940の間は消音され、強度が段階的に下がるようにする。楽曲が第4移行部小節942に進むと、キーボードトラック906およびベーストラック908が消音される。楽曲が元の小節75に進むと、すべてのトラックの消音が解除される。詳細には、リードギタートラック902、リズムギタートラック904、キーボードトラック906およびベーストラック908の全てが、これらすべてのトラックの組み合わせが所望の低強度音をもたらした状態のまま、小節75に再度加えられる。
実施形態は、楽曲セグメントを変更することなく楽曲強度の調整を行うための設備を含み得る。いくつかの実施形態において、一つあるいは複数のオーディオトラックは、楽曲に出入りするよう制御され、これにより、現在のセグメントの強度がユーザ活動レベルに一致するように修正され得る。
図13は、楽曲の連続するセグメントの全体を通してオーディオトラックのフェードインあるいはフェードアウト(あるいは出入り)を制御するためのプロセスの実施形態を示している。上述の通り、下記ステップのいくつかあるいはすべては、構成システム102、およびその他の関係するシステム、構成要素、あるいは装置により達成し得る。
ステップ1302にて、構成システム102は、現在の活動レベルを決定し得る。これは、一つあるいは複数のセンサからの情報を分析することで決定し得る。次に、ステップ1304にて、構成システム102は、ステップ1302で検出された活動レベルに一致させるための目標楽曲強度を決定し得る。続いて、ステップ1306にて、構成システム102は、目標楽曲強度が現在の楽曲セグメントを修正することにより達成され得るかどうかを決定し得る。達成されない場合(ステップ1306にてNoの場合)は、構成システム102はステップ1308に進み得る。ステップ1308にて、構成システム102は、所望の目標楽曲強度を満たす新規な楽曲セグメントを検索し得る。
ステップ1306にて目標楽曲強度が現在の楽曲セグメントを修正することで達成し得ると構成システム102が判断する場合には、構成システム102はステップ1312へ進む。ステップ1312にて、構成システム102は、構成規則1310を用いて、目標楽曲強度が達成されるように、個々のオーディオトラックを制御する。特に、構成システム102は、他の楽曲セグメントにジャンプするのではなく、現在の楽曲セグメント内において目標楽曲強度を達成するように様々なトラックのフェードインやフェードアウトを制御し得る。
図14は、ユーザ活動に応じて(および一組の構成規則を用いて)、構成システムがオーディオトラックを特定の楽曲セグメントあるいは節にどのようにフェードインさせ得るかおよびフェードアウトさせ得るかを概略的に示している。図14を参照すると、楽曲1400は、リードギタートラック1402、リズムギタートラック1404、キーボードトラック1406、ベーストラック1408、ドラムトラック1410、およびボーカルトラック1412を含んでいる。本実施形態において、各オーディオトラックは、波形あるいは音信号として概略的に示されている。例えば、ここで示される各オーディオトラックは、対応する楽器の個別音声ファイルを示し得る。
図14には、第1ミキシングボード構成1420、第2ミキシングボード構成1422、第3ミキシングボード構成1424を含む、様々な構成の概略ミキシングボードも示されている。同様に、適合音楽再生システム100のユーザは、低度活動レベル、中度活動レベル、高度活動レベルにそれぞれ相当する、第1ユーザ状態1430、第2ユーザ状態1432および第3ユーザ状態1434にて示されている。
図14は、トラックが再生されたりトラックが消音されたりすることを含む楽曲状態が、ユーザ活動に応じてどのように変化するかを示している。第1ユーザ状態1430においては、ユーザは歩行しており、そのため低度活動レベルを有している。ユーザの低度活動レベルに適合するために、構成システム102は、リードギタートラック1402、キーボードトラック1406およびベーストラック1408を消音する。加えて、リズムギタートラック1404、ドラムトラック1410およびボーカルトラック1412の音量レベルは中音量に設定される。フェーダーバー(fader bars)1440の位置に対応する、これらの様々なトラック設定は、構成規則350(図3参照)を用いて選択され、音楽的一貫性を維持しながら所望の強度レベルを達成する。
第2ユーザ状態1432においては、ユーザはジョギングあるいは早歩きしており、そのため中度活動レベルを有している。この活動の上昇に適合するために、構成システム102は、ベーストラック1408の消音を解除し、リズムギタートラック1404、ドラムトラック1410およびボーカルトラック1412の音量をさらに上げる。これにより、現在の楽曲セグメントの強度が低度から中度に上げられる。
最後に、第3ユーザ状態1434においては、ユーザは走っており、そのため高度活動レベルを有している。この活動の上昇に応じて、構成システム102は、リードギタートラック1402およびキーボードトラック1406の消音を解除し、すべてのトラックの音量を最大音量(あるいは最大音量の近く)に設定する。これにより、現在の楽曲セグメントの強度は中度から高度に上げられる。
上述の通り、特定のトラックを消音するか消音を解除するかの決定や、どのトラックの消音あるいは消音の解除を行うかのタイミングは、構成規則350に従って構成システム102によって行われる。特に、トラックの出入りは、強度、テンポ、音程、キーおよび考え得るその他の音楽特性などの所望の様々な音楽特性が、望ましくない中断、ジャンプあるいは妨害なしに維持されるか、あるいは円滑に変化するように管理される。これにより、例えば、ユーザにとって望ましくない、テンポ、音程およびキーの突然の変化が起こることなく、楽曲の強度を段階的に上げることができる。
いくつかの実施形態において、構成システム102は、所望の強度を有するセグメントにすぐに到達するように、楽曲のいくつかのセグメントを飛び越えたりスキップするように構成され得る。このような実施形態の考え得る例の一つが、図15に概略的に示されている。図15を参照すると、現セグメント1502が現在再生されている。このセグメントは低強度セグメントであって、一般的に、歩行時のような低強度活動中にユーザに対して再生される。
ユーザ活動の突然の上昇に応じて、構成システムは、高度楽曲セグメントが必要であると判断し得る。この例示的実施形態において、構成システム102は、目標セグメント1504が所望の高強度を有すると決定する。しかしながら、この例では、目標セグメント1504に直接ジャンプすることは耳障りな音楽移行部を形成することになるであろう。代わりに、構成システム102は、目標セグメント1504の直前のセグメントである中間セグメント1512が現セグメント1502と同様の音楽構造を有していると決定する。そのため、構成システム102は、その楽曲を通じて、構成システム102が現セグメント1502の終わりから中間セグメント1512の始まりまでジャンプして複数の低強度セグメント1514を飛び越えるような音楽的経路あるいは音楽的配列1510を生成する。中間セグメント1512からは、目標セグメント1504への自然な音楽移行部がすでに存在する。そのため、音楽的配列1510は、楽曲の通常配列とは異なる楽曲セグメントの配列を備え、異なる強度を有するセグメント間でのさらに素早い動きが容易となる。
図16は、音楽的一貫性を維持し一つあるいは複数の音楽属性における突然の中断や移行部を避けるように、異なる強度の楽曲セグメント間を移動するプロセスの一実施形態を示している。上述の通り、いくつかの実施形態において、プロセスの一つあるいは複数のステップは、構成システム102によって実行され得る。しかしながら、他の実施形態においては、いくつかのステップは、その他関係する構成要素、装置あるいはシステムによって実行され得る。さらに、いくつかのステップは他の実施形態においては任意である。
ステップ1602にて、構成システム102は、一つあるいは複数のセンサからの情報を用いて現在の活動レベルを決定し得る。次に、ステップ1604にて、構成システム102は、活動レベルを現在の楽曲セグメントの強度と比較し得る。ステップ1606にて、構成システム102は、活動レベルが現在楽曲セグメントの強度と一致するかどうかを決定し得る。一致する場合には、構成システム102は、ステップ1608に進み、調整なしに楽曲の再生を継続する。
ステップ1606において活動レベルと楽曲強度との間に不一致がある場合には、構成システム102はステップ1610に進み得る。ステップ1610にて、構成システム102は、現在の活動レベルと一致する強度を備える少なくとも一つの目標楽曲セグメントを見つけ出す。次に、ステップ1612にて、構成システム102は、セグメントの一つあるいは複数の音楽的に一貫性のある配列を生成する。ここで、各配列は、現在セグメントで始まり目標セグメントで終わる。そのため、各配列は、現在セグメントから目標セグメントまで楽曲を通して経路を提供する。ステップ1614にて、構成システム102は、ステップ1612にて見つけられた一組の配列から最短配列を再生し得る。これにより、構成システム102をできるだけ短い時間でユーザ活動と一致する強度を備えた楽曲セグメントへ移行させる。これは、ユーザ活動の変化に対するシステムの応答を増加させることに役立つ。
実施形態は、異なる強度のセグメント間での自動的な移動を容易にするための設備を含み得る。図17および図18は、(本例において、セグメント1からセグメント16まで順序づけられている)一連の楽曲セグメント1702として編成される楽曲の概略図を示している。加えて、本実施形態は、音楽的一貫性のある方法で、いずれか二つの楽曲セグメントを繋ぐ手段として機能する、汎用移行部セグメント1704を含む。そのため、図17の例において、構成システム102は、(1番目のセグメントおよび11番目のセグメントにそれぞれ相当する)セグメント1710からセグメント1712へ汎用移行部セグメント1704を介して移行することができる。同様に、図18の例において、構成システム102は、セグメント1714(7番目のセグメント)からセグメント1716(12番目のセグメント)へ汎用移行部セグメント1704を経由して移行することができる。
汎用移行部セグメントは、様々な異なる方法で作成することができる。いくつかの実施形態においては、汎用移行部セグメントは、様々な音楽セグメントを有する最大の音楽互換性を有するように設計された所定の音楽セグメントであり得る。他の実施形態において、汎用移行部セグメントは、特定の楽曲からの情報を用いて生成され、それにより汎用移行部セグメントが楽曲の特定のセグメントと最大限に適合可能であることを確保し得る。さらに、汎用移行部セグメントは、あらゆる長さおよびテンポを備えることが可能であって、一つあるいは複数の楽器あるいは声部トラックを含み得る。
本実施形態は、単一の汎用移行部セグメントを用いることを示しているが、その他の実施形態では一つ、二つあるいはそれ以上の汎用移行部セグメントを用い得る。そのため、二つのセグメント間で移行される際に、構成システムは一組の汎用移行部セグメントから当該二つのセグメントに合う最良の汎用移行部セグメントを選択することができる。
本実施形態では検知された情報およびさまざまな構成規則に従って調整された音楽情報を再生することを説明してきたが、同様の原則が後から再生されるべき音楽情報を記録するシステムに適用可能であることを理解されたい。そのため、構成システムは、デジタルファイル、CD、テープ、その他のメディアを含む一つあるいは複数の種類のメディアに格納される新たな楽曲を生成するために用いられ得る。
様々な実施形態が説明されているが、本説明は、限定ではなく例示を目的としており、当業者であれば本実施形態の範囲内においてさらに多くの実施形態あるいは実行が可能であることは明らかであろう。したがって、本実施形態は添付の特許請求の範囲あるいはその均等物を考慮する以外に限定されるものではない。また、添付の特許請求の範囲内において様々な修正および変更が可能である。
100 適合音楽再生システム
102 構成システム
104 センサシステム
105 第1センサ
106 第2センサ
110 変換器システム
204 音楽情報
302 サンプル情報
304 MIDI情報
306 記録音声情報
350 構成規則
352 所定規則
354 ユーザ選択

Claims (20)

  1. 音声情報の再生を調整する方法であって、
    一組のオーディオトラックを再生し、
    一組の構成規則を読出し、
    ユーザの動きを検出するように構成された少なくとも一つのセンサからのユーザ活動情報を受信して、前記ユーザ活動情報からユーザ活動レベルを決定し、
    前記ユーザ活動レベルに相当する目標楽曲強度を決定し、
    前記目標楽曲強度を達成するために前記一組のオーディオトラックを制御する、方法。
  2. 前記一組のオーディオトラックを制御することは、前記一組のオーディオトラック内の一つあるいは複数のオーディオトラックを消音することおよび消音を解除することを含む、請求項1に記載の方法。
  3. 前記一組のオーディオトラックを制御することは、前記一組のオーディオトラック内の一つあるいは複数のオーディオトラックの相対音量を制御することを含む、請求項2に記載の方法。
  4. 前記一組の構成規則は、前記一組のオーディオトラック内の一つあるいは複数のオーディオトラックを消音しおよび消音を解除するタイミングを決定するために用いられる、請求項2に記載の方法。
  5. 前記一組のオーディオトラック内の各オーディオトラックは異なる楽器に対応する、請求項1に記載の方法。
  6. 前記少なくとも一つのセンサは、前記ユーザが装着する履物品に関連付けられている、請求項1に記載の方法。
  7. 音声情報の再生を調整する方法であって、
    時間的に連続する複数の楽曲セグメントを備えるとともに、同時に再生され得る一組のオーディオトラックをさらに備える、楽曲を再生し、
    一組の構成規則を読出し、
    ユーザの動きを検出するように構成された少なくとも一つのセンサからのユーザ活動情報を受信し、
    第1楽曲セグメントが再生されている間に前記ユーザ活動情報からユーザ活動レベルを決定し、
    前記ユーザ活動レベルと一致する楽曲状態を備えた第2楽曲セグメントを見つけ出し、
    前記構成規則を用いて、前記第1楽曲セグメントから前記第2楽曲セグメントへの音楽移行部を構成する、方法。
  8. 前記構成規則を用いて前記音楽移行部を構成することは、前記一組のオーディオトラックのうちの一つあるいは複数のオーディオトラックを前記音楽移行部中に追加したり削除したりすることを調整することを含む、請求項7に記載の方法。
  9. 前記構成規則を用いて前記音楽移行部を作曲することは、移行部パターンを選択することを含む、請求項7に記載の方法。
  10. 前記移行部パターンは、立ち上がりパターンである、請求項9に記載の方法。
  11. 前記移行部パターンは、減衰パターンである、請求項9に記載の方法。
  12. 前記楽曲状態は、前記楽曲の強度に相当する、請求項7に記載の方法。
  13. 前記一組の構成規則は、前記ユーザによって設定され得る一組のユーザ選択を含む、請求項7に記載の方法。
  14. 前記一組の構成規則は、前記一組のオーディオトラックのうち二つのオーディオトラックがいつ一緒に再生され得るかを決定する少なくとも一つの規則を含む、請求項7に記載の方法。
  15. 前記音楽移行部は、前記複数の楽曲セグメントのうち少なくとも一つのセグメントを含む、請求項7に記載の方法。
  16. 前記音楽移行部を構成することは、前記少なくとも一つのセグメントにおいて前記一組のオーディオトラック内のオーディオトラックの構成を調整することを含む、請求項15に記載の方法。
  17. 音声情報の再生を調整する方法であって、
    時間的に連続する複数の楽曲セグメントを備える楽曲を再生し、
    ユーザの動きを検出するように構成された少なくとも一つのセンサからのユーザ活動情報を受信し、
    第1楽曲セグメントが再生されている間に前記ユーザ活動情報からユーザ活動レベルを決定し、
    前記ユーザ活動レベルと一致する楽曲状態を備えた第2楽曲セグメントを見つけ出し、
    汎用移行部セグメントを読出し、ここで、前記汎用移行部セグメントは、急激な音楽移行部を創作することなく前記複数の楽曲セグメントのいずれかを順に再生し得るものであり、
    前記第1楽曲セグメントの後に前記汎用移行部セグメントを再生し、
    前記汎用移行部セグメントの後に前記第2楽曲セグメントを再生して、前記第1楽曲セグメントと前記第2楽曲セグメントとの間の移行部を創作する、方法。
  18. 前記汎用移行部セグメントは、前記複数の楽曲セグメントを分析することにより生成される、請求項17に記載の方法。
  19. 前記汎用移行部セグメントは、複数の異なる楽曲に用いられるように構成されている、請求項17に記載の方法。
  20. 前記汎用移行部セグメントは、複数の汎用移行部セグメントのうちの一つであって、前記方法は前記複数の汎用移行部セグメントのうち二つ以上の汎用移行部セグメントを読み出して用いることを含む、請求項17に記載の方法。
JP2015560162A 2013-03-05 2013-07-22 適合音楽再生システム Active JP6236472B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361772640P 2013-03-05 2013-03-05
US61/772,640 2013-03-05
US13/941,633 2013-07-15
US13/941,633 US9595932B2 (en) 2013-03-05 2013-07-15 Adaptive music playback system
PCT/US2013/051467 WO2014137377A1 (en) 2013-03-05 2013-07-22 Adaptive music playback system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017155279A Division JP6480526B2 (ja) 2013-03-05 2017-08-10 適合音楽再生システム

Publications (2)

Publication Number Publication Date
JP2016511844A true JP2016511844A (ja) 2016-04-21
JP6236472B2 JP6236472B2 (ja) 2017-11-22

Family

ID=51487858

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015560162A Active JP6236472B2 (ja) 2013-03-05 2013-07-22 適合音楽再生システム
JP2017155279A Active JP6480526B2 (ja) 2013-03-05 2017-08-10 適合音楽再生システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017155279A Active JP6480526B2 (ja) 2013-03-05 2017-08-10 適合音楽再生システム

Country Status (6)

Country Link
US (5) US9595932B2 (ja)
EP (1) EP2965310B1 (ja)
JP (2) JP6236472B2 (ja)
KR (2) KR101745965B1 (ja)
CN (1) CN105308676B (ja)
WO (1) WO2014137377A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710221B2 (en) * 2014-12-23 2017-07-18 Alistair James MacDonald Intelligent safer music system for an operating room
US10387107B2 (en) 2015-07-31 2019-08-20 Nike, Inc. Utilizing athletic activities to augment audible compositions
US20170060520A1 (en) * 2015-09-01 2017-03-02 AudioCommon, Inc. Systems and methods for dynamically editable social media
US9977645B2 (en) * 2015-10-01 2018-05-22 Moodelizer Ab Dynamic modification of audio content
US20170131965A1 (en) * 2015-11-09 2017-05-11 Jarno Eerola Method, a system and a computer program for adapting media content
US10387106B2 (en) * 2016-04-04 2019-08-20 Spotify Ab Media content system for enhancing rest
GB2551807B (en) * 2016-06-30 2022-07-13 Lifescore Ltd Apparatus and methods to generate music
US10002596B2 (en) * 2016-06-30 2018-06-19 Nokia Technologies Oy Intelligent crossfade with separated instrument tracks
CN106486128B (zh) * 2016-09-27 2021-10-22 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置
US10349196B2 (en) 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus
US20180189828A1 (en) * 2017-01-04 2018-07-05 Criteo Sa Computerized generation of music tracks to accompany display of digital video advertisements
US9905208B1 (en) * 2017-02-21 2018-02-27 Speed of Sound Software, Inc. System and method for automatically forming a master digital audio track
US10698950B2 (en) * 2017-03-02 2020-06-30 Nicechart, Inc. Systems and methods for creating customized vocal ensemble arrangements
US10606548B2 (en) * 2017-06-16 2020-03-31 Krotos Ltd Method of generating an audio signal
EP3673491A1 (en) * 2017-08-25 2020-07-01 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for controlling acoustic feedback during a physical exercise
GB201721061D0 (en) * 2017-12-15 2018-01-31 Pob Enterprises Ltd System for processing music
CN110555126B (zh) 2018-06-01 2023-06-27 微软技术许可有限责任公司 旋律的自动生成
US11138297B2 (en) * 2018-07-31 2021-10-05 International Business Machines Corporation Sound composition as authentication
DE112019005499T5 (de) * 2018-11-01 2021-09-30 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和***
CN110430326B (zh) * 2019-09-10 2021-02-02 Oppo广东移动通信有限公司 铃声编辑方法、装置、移动终端及存储介质
EP4115628A1 (en) * 2020-03-06 2023-01-11 algoriddim GmbH Playback transition from first to second audio track with transition functions of decomposed signals
US11670322B2 (en) * 2020-07-29 2023-06-06 Distributed Creation Inc. Method and system for learning and using latent-space representations of audio signals for audio content-based retrieval
CN112820254B (zh) * 2021-01-22 2021-11-09 索思(苏州)医疗科技有限公司 一种音乐生成方法、装置、电子设备和存储介质
CN115700870A (zh) * 2021-07-31 2023-02-07 华为技术有限公司 一种音频数据的处理方法及装置
US11792559B2 (en) * 2021-08-17 2023-10-17 Sufang Liu Earphone control method and device, and non-transitory computer readable storage medium
KR20230044345A (ko) 2021-09-26 2023-04-04 김형석 이동식 배지 화분

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098478A (ja) * 2004-09-28 2006-04-13 Kawai Musical Instr Mfg Co Ltd 音楽再生装置
JP2008242064A (ja) * 2007-03-27 2008-10-09 Yamaha Corp 音楽再生制御装置
JP2010192012A (ja) * 2009-02-16 2010-09-02 Fujifilm Corp 携帯型音楽再生装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876947B1 (en) 1997-10-02 2005-04-05 Fitsense Technology, Inc. Monitoring activity of a user in locomotion on foot
US6746247B2 (en) 2000-12-27 2004-06-08 Michael P. Barton Choreographed athletic movement to music
US7521623B2 (en) 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
US7745716B1 (en) 2003-12-15 2010-06-29 Michael Shawn Murphy Musical fitness computer
JP2005316300A (ja) 2004-04-30 2005-11-10 Kyushu Institute Of Technology 楽音生成機能を備えた半導体装置およびこれを用いた携帯型電子機器、携帯電話装置、眼鏡器具並びに眼鏡器具セット
JP2006114174A (ja) 2004-10-18 2006-04-27 Sony Corp コンテンツ再生方法およびコンテンツ再生装置
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
KR101333024B1 (ko) 2005-02-14 2013-11-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 콘텐트 아이템들을 선택하기 위한 전자 디바이스 및 방법
JP4266370B2 (ja) 2005-03-08 2009-05-20 Necトーキン株式会社 姿勢角度検出装置を用いた電子楽器およびその制御方法
JP4389821B2 (ja) 2005-03-22 2009-12-24 ソニー株式会社 体動検出装置、コンテンツ再生装置、体動検出方法およびコンテンツ再生方法
JP5225548B2 (ja) 2005-03-25 2013-07-03 ソニー株式会社 コンテンツ検索方法、コンテンツリスト検索方法、コンテンツ検索装置、コンテンツリスト検索装置および検索サーバ
US8740751B2 (en) 2005-07-25 2014-06-03 Nike, Inc. Interfaces and systems for displaying athletic performance information on electronic devices
WO2007022421A2 (en) 2005-08-18 2007-02-22 Robert Gray Digital fitness enhancement method and apparatus
US20070074617A1 (en) * 2005-10-04 2007-04-05 Linda Vergo System and method for tailoring music to an activity
US20070074619A1 (en) 2005-10-04 2007-04-05 Linda Vergo System and method for tailoring music to an activity based on an activity goal
JP2007135737A (ja) 2005-11-16 2007-06-07 Sony Corp 動作支援方法および動作支援装置
JP4264752B2 (ja) 2005-12-16 2009-05-20 ソニー株式会社 オーディオ信号の再生機および再生方法
JP4356700B2 (ja) 2006-02-21 2009-11-04 ソニー株式会社 再生装置
JP2007280581A (ja) 2006-04-12 2007-10-25 Sony Corp コンテンツ検索選択方法、コンテンツ再生装置および検索サーバ
US7771320B2 (en) 2006-09-07 2010-08-10 Nike, Inc. Athletic performance sensing and/or tracking systems and methods
US20080103022A1 (en) 2006-10-31 2008-05-01 Motorola, Inc. Method and system for dynamic music tempo tracking based on exercise equipment pace
KR100921584B1 (ko) 2006-12-06 2009-10-14 야마하 가부시키가이샤 탑재식 음악 재생 장치 및 음악 정보 분배 시스템
JP4826508B2 (ja) * 2007-02-27 2011-11-30 ヤマハ株式会社 再生装置および自動演奏装置
JP4306754B2 (ja) * 2007-03-27 2009-08-05 ヤマハ株式会社 楽曲データ自動生成装置及び音楽再生制御装置
JP4311468B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
JP2009031361A (ja) 2007-07-24 2009-02-12 Asahi Kasei Electronics Co Ltd 電子楽器
US20090044687A1 (en) 2007-08-13 2009-02-19 Kevin Sorber System for integrating music with an exercise regimen
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
US20090260506A1 (en) 2008-04-17 2009-10-22 Utah State University Method for controlling the tempo of a periodic conscious human physiological activity
US9549585B2 (en) 2008-06-13 2017-01-24 Nike, Inc. Footwear having sensor system
CN105768322A (zh) 2008-06-13 2016-07-20 耐克创新有限合伙公司 具有传感器***的鞋
US10070680B2 (en) 2008-06-13 2018-09-11 Nike, Inc. Footwear having sensor system
US9002680B2 (en) 2008-06-13 2015-04-07 Nike, Inc. Foot gestures for computer input and interface control
WO2010041147A2 (en) 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
US20110007468A1 (en) 2009-04-26 2011-01-13 Nike, Inc. Athletic watch
CN105107185B (zh) 2009-04-27 2018-12-14 耐克创新有限合伙公司 用于生成训练计划和音乐播放列表的设备
CN113270185A (zh) 2010-11-10 2021-08-17 耐克创新有限合伙公司 用于基于时间的运动活动测量和显示的***和方法
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
WO2012112931A2 (en) 2011-02-17 2012-08-23 Nike International Ltd. Footwear having sensor system
US8829323B2 (en) 2011-02-18 2014-09-09 Talent Media LLC System and method for single-user control of multiple roles within a music simulation
US20130213144A1 (en) 2012-02-22 2013-08-22 Nike, Inc. Footwear Having Sensor System
US20130213147A1 (en) 2012-02-22 2013-08-22 Nike, Inc. Footwear Having Sensor System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098478A (ja) * 2004-09-28 2006-04-13 Kawai Musical Instr Mfg Co Ltd 音楽再生装置
JP2008242064A (ja) * 2007-03-27 2008-10-09 Yamaha Corp 音楽再生制御装置
JP2010192012A (ja) * 2009-02-16 2010-09-02 Fujifilm Corp 携帯型音楽再生装置

Also Published As

Publication number Publication date
KR101871132B1 (ko) 2018-06-25
US9595932B2 (en) 2017-03-14
US20190244594A1 (en) 2019-08-08
US20210407478A1 (en) 2021-12-30
US20170148425A1 (en) 2017-05-25
KR20170065685A (ko) 2017-06-13
US20140254831A1 (en) 2014-09-11
KR20150121178A (ko) 2015-10-28
WO2014137377A1 (en) 2014-09-12
CN105308676A (zh) 2016-02-03
KR101745965B1 (ko) 2017-06-13
US11854520B2 (en) 2023-12-26
JP6236472B2 (ja) 2017-11-22
EP2965310B1 (en) 2020-08-19
EP2965310A1 (en) 2016-01-13
JP6480526B2 (ja) 2019-03-13
JP2017215611A (ja) 2017-12-07
US10229661B2 (en) 2019-03-12
US20240078987A1 (en) 2024-03-07
CN105308676B (zh) 2019-03-15
US11145284B2 (en) 2021-10-12

Similar Documents

Publication Publication Date Title
JP6480526B2 (ja) 適合音楽再生システム
JP5318095B2 (ja) 電子装置を用いて複数のソングを自動的にビートミックスするシステム及び方法
JP5243042B2 (ja) 音楽編集装置及び音楽編集方法
CN101385086B (zh) 内容再现设备和内容再现方法
US7728215B2 (en) Playback apparatus and playback method
US20110112672A1 (en) Systems and Methods of Constructing a Library of Audio Segments of a Song and an Interface for Generating a User-Defined Rendition of the Song
US20080160943A1 (en) Method and apparatus to post-process an audio signal
US20150268924A1 (en) Method and system for selecting tracks on a digital file
JP2007519048A (ja) 音楽入力信号の速度の曖昧さの指標を決定する方法及びシステム、音声処理装置、運動器具、コンピュータープログラム、記憶媒体
WO2012021799A2 (en) Browser-based song creation
JP2008242287A (ja) 演奏装置およびその制御方法を実現するプログラム
JP2007292847A (ja) 楽曲編集・再生装置
US10847129B2 (en) Data format
JP4107212B2 (ja) 楽曲再生装置
WO2007060605A2 (en) Device for and method of processing audio data items
US9905208B1 (en) System and method for automatically forming a master digital audio track
JP2008242288A (ja) 演奏装置およびその制御方法を実現するプログラム
KR20130115653A (ko) 곡에 적합한 자동 디제잉 방법 및 장치
JP2000003183A (ja) カラオケ装置
JP2008216769A (ja) 携帯型音楽再生装置及びカラオケシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6236472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250