CN1623151A - 用于加入恢复的音乐片段的音乐恢复*** - Google Patents
用于加入恢复的音乐片段的音乐恢复*** Download PDFInfo
- Publication number
- CN1623151A CN1623151A CNA038026791A CN03802679A CN1623151A CN 1623151 A CN1623151 A CN 1623151A CN A038026791 A CNA038026791 A CN A038026791A CN 03802679 A CN03802679 A CN 03802679A CN 1623151 A CN1623151 A CN 1623151A
- Authority
- CN
- China
- Prior art keywords
- music
- snatch
- user
- recovery
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000011084 recovery Methods 0.000 claims description 46
- 230000033764 rhythmic process Effects 0.000 claims description 12
- 230000008676 import Effects 0.000 claims description 11
- 230000008878 coupling Effects 0.000 claims description 4
- 238000010168 coupling process Methods 0.000 claims description 4
- 238000005859 coupling reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
- G06F16/4387—Presentation of query results by the use of playlists
- G06F16/4393—Multimedia presentations, e.g. slide shows, multimedia albums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/04—Sound-producing devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/056—MIDI or other note-oriented file format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/061—MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
- G10H2240/141—Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种音乐恢复***,该***包括:输入装置(210),用于输入表示音乐的用户数据(310);存储器装置(220),用于存储音乐片段;恢复装置(230),用于当发现存储在所述存储器装置(220)中的一个特定的音乐片段与用户输入数据匹配时,按照用户输入数据(310)恢复想要的音乐片段(330);以及输出装置(250),用于至少再现经过恢复音乐片段的部分。按照本发明,本***还包括输出控制装置(240),用于根据用户输入数据(310),确定在恢复的音乐片段(330)中的当前位置(360),所述输出控制装置适合于使恢复的音乐片段的部分(380)的开始(370)大致与所述位置(360)相符。本发明还涉及适合于实现所披露的音乐恢复***的恢复音乐的方法。
Description
技术领域
本发明涉及一种音乐恢复***,包括:输入装置,用于输入表示音乐的用户数据;存储器装置,用于存储音乐片段;恢复装置,用于当发现存储在存储器装置中的一个特定的音乐片段与用户输入数据相匹配时,按照用户输入数据,对想要的音乐片段进行恢复;以及输出装置,用于至少再现恢复的音乐片段的部分。
本发明还涉及恢复音乐的方法,该方法包括如下步骤:输入表示音乐的用户数据;当发现存储在存储器装置中的一个特定的音乐片段与用户输入数据相匹配时,按照用户输入数据,对想要的音乐片段进行恢复;以及至少再现恢复的音乐片段的部分。
背景技术
根据JP-2001075985,已知这种***的一个实施例。在该文献中披露的音乐恢复设备能够在甚至不知道音乐标题的情况下,在比较短的时间里选择一个音乐片段。***需要的输入仅是唱或哼一部分音乐。具体地说,该音乐恢复设备包括显示装置,用于显示寻找与从声音输入装置输入的唱或哼一部分音乐相匹配的音乐片段的结果。此外,该设备再现与前面从声音输入装置输入的唱或哼相对应的部分已经找到的音乐片段。当只找到一个匹配的音乐片段时,自动开始再现与找到的音乐片段相对应的部分。该已知的设备包括一个微处理器(CPU),用于将寻找音乐片段的结果发送到显示装置并且对找到的音乐片段的对应部分进行音乐还原。
由JP-2001075985已知的实施例披露了再现与前面输入的唱或哼相对应的部分音乐的方法。按照该实施例,用户首先唱或哼记忆的音乐,并且随后收听由该设备再现的该部分音乐。按照这样的方式,所描述的实施例不允许用户在不另外打断用户收听与由该设备从开始再现的对应的音乐部分的情况下,继续唱或哼。开发按照现有技术已知的该音乐恢复***,以改进音乐恢复,但是,对于使用来说不够方便。
发明内容
本发明的一个目的是提供一种在公开文献中定义的那种类型的音乐恢复***,该***以更智能、对用户更友好的方式再现恢复的音乐片段。
本发明的目的的实现在于该***包括输出控制装置,用于根据用户输入数据,确定在恢复的音乐片段中的当前位置,所述输出控制装置适合于使恢复的音乐片段的部分的开始大致与所述位置相符。
在该***对想要的音乐片段进行恢复时,用户可以继续唱、哼或者吹口哨。随后,该***确定用户目前正在唱、哼或者吹口哨的在恢复的音乐片段中的当前位置。由此,该***识别与所确定的位置相符的恢复的音乐片段的部分的开始,并且进一步再现该部分。换句话说,该***对恢复的音乐片段当中的将与另外输入的用户数据相匹配的部分进行预测和再现。该***对用户正在唱、哼或者吹口哨的歌或其它音乐片段进行辨认,并且将其加入。用户可以继续唱、哼或者吹口哨,并且同时收听再现的音乐。
按照本发明的实施例,该***还包括输出控制装置,用于根据用户的输入数据,确定至少一个参数,并且根据所述参数再现恢复的音乐片段的部分。那样,该***根据如音调、节奏、音量等参数修改对恢复的音乐的再现。例如,根据用户的输入数据确定用户的唱、哼或吹口哨的节奏。该***在确定了用户的唱、哼或吹口哨的节奏的情况下进一步再现恢复的音乐片段的部分。
在本发明的另一个实施例中,如果用户正在以错误的方式唱、哼或吹口哨,则该***有助于根据恢复的音乐片段,利用他的/她的唱、哼或吹口哨的用户进行校正。在一个实施例中,该***首先根据用户的输入数据至少确定一个第一参数,并且根据恢复的音乐片段确定至少一个第二参数。第一和第二参数是如节拍、音调、音量等参数。因此,第二参数是对恢复的音乐片段进行正确再现的参考参数。该***还将至少一个第一参数与至少一个第二参数比较。如果至少一个第一参数与至少一个第二参数不同,则该***被设计为利用至少一个与至少一个第一参数相似的另外的参数,开始再现恢复的音乐片段的部分。随后,该***利用至少一个另外的,逐渐被校正为与第二参数中的一个参数对应的参数,例如节奏,再现恢复的音乐片段的部分。最后,该***利用第二参数正确地再现恢复的音乐片段的部分。那样,该***按照恢复的音乐片段,帮助用户唱或诸如此类。
在另一个实施例中,***修改再现音乐的音量。,利用经过有限的时间逐渐增加到第二较高音量的第一较低音量,再现恢复的音乐片段的部分。可以将第二音量调节到用户输入的音量。因此,用户不受不希望的用高音量再现恢复的音乐片段的影响。
在本发明的另一个实施例中,***还包括用于直观地显示至少一个恢复的音乐片段的装置。所述装置可以方便地利用显示设备实现。
实现本发明的目的还在于本发明的方法,该方法包括如下步骤:根据用户输入数据,确定在恢复的音乐片段中的当前位置;以及使恢复的音乐片段的部分的开始与所述位置大致相符。
该方法描述了音乐恢复***的操作步骤。
附图说明
以下将参照附图说明和描述本发明的上述和其它方面,其中:
图1(现有技术)示出了用户输入的频谱、要按照用户输入恢复的部分音乐片段以及表示所述用户输入的MIDI数据流的例子;
图2示出了本发明的音乐恢复***的功能框图;
图3示出了本发明的***的方法和操作;并且
图4本发明的***的实施例,其中,根据由用户输入数据确定的参数中的一个参数,对用于再现恢复的音乐片段的部分的参数中的一个参数进行修改。
具体实施方式
图1示出了如在现有技术中已知的,用户输入的频谱120的、要按照用户输入恢复的部分音乐片段110的以及表示所述用户输入的MIDI数据流130的例子。这些例子示出了用户正在唱、哼或吹口哨的并且希望***恢复的音乐片段110。用户输入到***的可以是需要被转换为数字数据的声音信号。根据现有技术已知,对输入的声音信号120进行分析,以便得到所述数字数据。可以用MIDI(Musical InstrumentDigital Interface,乐器数字接口)协议提供标准化的装置,以便按照数字电子数据提供用户输入和音乐片段。由此,将用户输入转换为按照使用MIDI协议的数字数据的MIDI数据流130。也可以使用其它已知的数字音乐标准,如MPEG-1 Layer 3、高级音频编码(Advanced AudioCoding,AAC)等。
图2示出了本发明的音乐恢复***的功能框图。该***包括:输入装置210,用于输入表示音乐的用户数据;存储器装置220,用于存储音乐片段;恢复装置230;输出控制装置240;和输出装置250,用于再现至少部分经过恢复的音乐片段。
用户可以通过哼、吹口哨、唱或者操作键盘上的特定键,或者用他的或她的手指敲打节奏等来给***提供输入。输入装置210可以包括:一个麦克风,用于输入用户声音;一个用户声音放大器;以及一个A/D转换器,用于将用户输入转换为数字数据。该输入装置还包括一个键盘,用于输入用户指令等。按照现有技术已知很多用于将用户输入转换为数字数据的技术。在专利JP-09138691中提出了一种这样的技术。根据这个文献,通过麦克风输入用户声音数据,并且利用输入装置将其转换为构成该声音数据的音调数据和声调长度数据。可以进一步将音调数据和声调长度数据转换为频率数据和声调长度数据。
按照本发明,存储器装置220适合于存储音乐片段。具体地说,如根据文献WO98/49630已知的,可以将存储器装置设计为用于存储代表相应音乐主旋律的音符参考序列的相应参考数据。恢复装置230用于当发现存储在存储器装置220中的一个特定音乐片段与用户输入数据相匹配时,按照用户输入数据恢复想要的音乐片段。输出装置可以包括:一个D/A转换器,用于至少将恢复的音乐片段的部分转换为输出声音信号;一个输出声音信号放大器;以及一个扬声器,用于输出所述信号。
输出控制装置240与恢复装置230、输入装置210和输出装置250连接。输出控制装置根据用户输入数据确定目前用户正在哼、吹口哨或者唱的在恢复的音乐片段中的当前位置。由输出控制装置确定的所述当前位置至少有三种可能性:
a)在输入了用于恢复想要的音乐片段的第一用户数据之后,***的输出控制装置开始接收来自输入装置的第二用户输入数据。由此,给输出控制装置提供当前输入的用户数据。当恢复装置对想要的音乐片段进行恢复时,输出控制装置立即将第二输入用户数据与恢复的音乐片段进行比较,以便确定将与另外输入的用户数据相匹配的恢复的音乐片段的部分的开始。如果找到所述部分的开始,则输出控制装置给输出装置提供所述部分,并且输出装置进一步对该部分进行再现。
b)当恢复装置恢复了想要的音乐片段时,输出控制装置开始接收第二用户数据。
c)在不接收任何其它用户数据的情况下,输出控制装置用于通过分析第一用户数据估算当前位置。换句话说,当恢复了想要的音乐片段,但接收不到任何另外的用户输入数据时,输出控制装置对用户唱、哼或者吹口哨的位置进行预测。只有***接收的用户输入数据是恢复想要的音乐片段所需要的第一用户数据。可以通过使用特殊的算法来实现这种对当前位置的预测。例如,***可以包括一个定时器,用于对恢复想要的音乐片段进行计时,以便近似估算确定当前位置所需要的平均时间。当根据第一用户输入数据确定了用户正在唱、哼或者吹口哨等的在恢复的音乐片段中的位置时,***将恢复想要的音乐片段的时间和确定当前位置的平均时间加到所述位置。由此,***近似地确定当前位置。如果恢复想要的音乐片段的时间不多于几秒,则确定当前位置的精度较高。
当***已经开始再现恢复的音乐片段的部分时,可以调节输出控制装置,使其继续跟踪目前用户正在唱、哼或者吹口哨等的在恢复的音乐片段中的当前位置。那样,可以对用户的行为作出反应。例如,如果另外输入的用户数据与已经再现的恢复的音乐片段的部分不匹配,则***可能停止再现恢复的音乐片段的部分等。
可以利用本领域技术人员熟悉的微控制器单元或者软件产品来实现输出控制装置240。
以下将参照图3进一步阐明本发明的方法以及***的操作。示出了水平的时间轴,用于表示方法的步骤顺序。如上所述,给***的用户输入310可以是唱、哼或者吹口哨等。该方法包括如下步骤:输入表示音乐的用户数据310;以及当发现存储的一个特定的音乐片段与用户输入数据310匹配时,按照用户输入数据310恢复想要的音乐片段330。该方法还包括如下步骤:根据用户输入数据340或350确定在恢复的音乐片段330中的当前位置360;以及使恢复的音乐片段330的部分380的开始370大致与所述位置360相符。在后面的步骤中,再现恢复的音乐片段的部分380。
如上所述,在“a”或“b”的情况下,利用输出控制装置可以根据用户输入数据340或350分别确定当前位置。***也许不能精确地确定在恢复的音乐片段中的所述当前位置。换句话说,当前位置360与部分的开始370可能不完全一致。因此,***可能在比用户目前正在唱、吹口哨或者哼的位置早或者晚的位置开始再现恢复的音乐片段的部分。但是,目前已知的音乐恢复设备对音乐的恢复相当快,并且如果出现所描述的情况,应该不致使用户混淆。
按照本发明的实施例,***还包括输出控制装置,用于根据用户输入数据至少确定一个参数并且使对恢复的音乐片段的部分的再现适合于所述参数。那样,***根据参数如音调、节奏、音量等修改对恢复的音乐的再现。例如,***根据用户输入数据确定用户的唱、哼或者吹口哨的节奏。***利用已经确定的用户的唱、哼或者吹口哨的节奏,进一步再现恢复的音乐片段的部分。在另一个例子中,***被设计为利用与用户输入的音量接近或相等的音量再现恢复的音乐片段的部分。
在本发明的另一个实施例中,如果用户正在以错误的方式唱、哼或者吹口哨,则***有助于根据恢复的音乐片段,利用他的/她的唱、哼或者吹口哨的用户进行校正。在一个实施例中,***首先根据用户的输入数据确定至少一个第一参数并且根据恢复的音乐片段确定至少一个第二参数。第一和第二参数是如音调、节奏、音量等的参数。因此,第二参数是正确再现恢复的音乐片段的参考参数。***还对至少一个第一参数与至少一个第二参数进行比较。如果至少一个第一参数与至少一个第二参数不同,则***用与至少一个第一参数相似的至少一个另外的参数开始再现恢复的音乐片段的部分。随后,***用至少一个另外的参数,例如逐渐被校正到第二参数中对应的一个参数的节奏,再现恢复的音乐片段的部分。最后,***用第二参数正确地再现恢复的音乐片段的部分。那样,***帮助用户按照恢复的音乐片段进行唱等。
参照图4,示出了本发明的***的一个实施例,其中,根据由用户输入数据确定的参数中的一个参数,修改用于再现恢复的音乐片段的部分的参数中的一个参数。在本实施例中,所述参数是再现音乐时的音量。在图4中示出的垂直轴和水平轴分别表示再现音乐时的所述音量和时间。用逐渐增加到第二较高音量430的第一较低音量410或420再现恢复的音乐片段的部分。***在时刻T1开始再现,在时刻T2停止增加再现音乐的音量。可以按照线性方式440或者其他方式450增加再现音乐的音量。可以将第二音量430调节到用户输入的音量。因此,用户不会受到在可能是不希望的或者不适合用户继续唱、吹口哨或者哼的高音量的情况下对恢复的音乐片段进行再现的影响。
在本发明的另一个实施例中,***还包括用于直观地显示恢复的音乐片段中的至少一个音乐片段的装置。如按照现有技术已知的,可以利用显示设备方便地实现所述装置。
在本发明的另一个实施例中,***的存储器装置存储经过朗读的诗歌,当给***输入表示散文、诗句或诗等的用户数据时,***恢复想要的诗歌片段。用户可能记得诗歌片段的某些部分等,并且可能有兴趣了解作者、名字或者关于它的其它数据。在该实施例中,***被设计为当用户要求时,恢复这样的数据。
由于这样的***和方法实现了本发明的目的,并且参照附图提供了不同的实施例。该***辨认用户正在唱、哼或者吹口哨的歌或者其它音乐片段,并且将其加入。用户可以继续唱、哼或者吹口哨并且同时收听再现的音乐。
不同的程序产品可以实现本发明的***和方法的功能,并且可以将不同的程序产品按照若干方式与硬件结合或者使其位置不同的设备中。应该将“计算机程序”理解为表示存储在计算机可读介质如软盘中的,可以通过网络如互联网下载的,或者可以以任何其它方式销售的任何软件产品。可以在本发明的概念的范围内改变并且修改所述实施例。
Claims (11)
1.一种音乐恢复***,该***包括:输入装置(210),用于输入表示音乐的用户数据(310);存储器装置(220),用于存储音乐片段;恢复装置(230),用于当发现存储在所述存储器装置(220)中的一个特定的音乐片段与用户输入数据匹配时,按照用户输入数据(310)恢复想要的音乐片段(330);输出装置(250),用于至少再现恢复的音乐片段的部分,所述***的特征在于所述***包括:
输出控制装置(240),用于根据用户输入数据(310),确定在恢复的音乐片段(330)中的当前位置(360),所述输出控制装置适合于使恢复的音乐片段的部分(380)的开始(370)大致与所述位置(360)相符。
2.如权利要求1所述的***,其中,所述输出控制装置(240)还用于根据用户输入数据确定至少一个参数,并且根据所述参数,调整对恢复的音乐片段的部分的再现。
3.如权利要求2所述的***,其中,所述参数至少是下列参数中的一个:音调、节奏和音量。
4.如权利要求2所述的***,其中,所述参数是音量,用经过有限的时间逐渐增加到第二较高音量(430)的第一较低音量再现恢复的音乐片段的部分,将第二音量(430)调整到用户输入的音量。
5.如权利要求1所述的***,还包括用于直观地显示恢复的音乐片段中的至少一个音乐片段的装置。
6.一种方法,用于恢复音乐,该方法包括如下步骤:输入表示音乐的用户数据(310);当发现存储在所述存储器装置(220)中的一个特定的音乐片段与用户输入数据匹配(310)时,按照用户输入数据(310)恢复想要的音乐片段(330);并且至少再现经过音乐片段的部分,所述方法的特征在于所述方法包括如下步骤:
根据用户输入数据(310),确定在恢复的音乐片段(330)中的当前位置(360),使恢复的音乐片段的部分(380)的开始(370)大致与所述位置(360)相符。
7.如权利要求6所述的方法,还包括如下步骤:根据用户输入数据确定至少一个参数;并且根据所述参数,调整对恢复的音乐片段部分的再现。
8.如权利要求7所述的方法,其中,所述参数至少是下列参数中的一个:音调、节奏和音量。
9.如权利要求7所述的方法,其中,所述参数是音量,用经过有限的时间逐渐增加到第二较高音量(430)的第一较低音量再现恢复的音乐片段的部分,将第二音量(430)调整到用户输入的音量。
10.如权利要求6所述的方法,还包括用于直观地显示恢复的音乐片段中的至少一个音乐片段的步骤。
11.一种计算机程序产品,当执行所述计算机程序产品时,使可编程设备能够起如权利要求1所限定的***的作用。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP02075294 | 2002-01-24 | ||
EP02075294.5 | 2002-01-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1623151A true CN1623151A (zh) | 2005-06-01 |
Family
ID=27589131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA038026791A Pending CN1623151A (zh) | 2002-01-24 | 2003-01-15 | 用于加入恢复的音乐片段的音乐恢复*** |
Country Status (7)
Country | Link |
---|---|
US (1) | US20050103187A1 (zh) |
EP (1) | EP1472625A2 (zh) |
JP (1) | JP2005516285A (zh) |
KR (1) | KR20040077784A (zh) |
CN (1) | CN1623151A (zh) |
AU (1) | AU2003201086A1 (zh) |
WO (1) | WO2003063025A2 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284367A (ja) * | 2004-03-26 | 2005-10-13 | Fuji Photo Film Co Ltd | コンテンツ表示方法およびシステム |
JP2006106818A (ja) | 2004-09-30 | 2006-04-20 | Toshiba Corp | 音楽検索装置、音楽検索方法及び音楽検索プログラム |
AR053107A1 (es) * | 2004-12-21 | 2007-04-25 | Honeywell Int Inc | Composiciones estabilizadas de yodocarbono |
US20090150159A1 (en) * | 2007-12-06 | 2009-06-11 | Sony Ericsson Mobile Communications Ab | Voice Searching for Media Files |
JP5238935B2 (ja) * | 2008-07-16 | 2013-07-17 | 国立大学法人福井大学 | 口笛の吹音・吸音判定装置及び口笛音楽検定装置 |
JP5720451B2 (ja) * | 2011-07-12 | 2015-05-20 | ヤマハ株式会社 | 情報処理装置 |
JP2013117688A (ja) * | 2011-12-05 | 2013-06-13 | Sony Corp | 音響処理装置、音響処理方法、プログラム、記録媒体、サーバ装置、音響再生装置および音響処理システム |
DE102011087843B4 (de) * | 2011-12-06 | 2013-07-11 | Continental Automotive Gmbh | Verfahren und System zur Auswahl mindestens eines Datensatzes aus einer relationalen Datenbank |
KR20140002900A (ko) * | 2012-06-28 | 2014-01-09 | 삼성전자주식회사 | 단말의 음원 재생 방법 및 그 단말 |
US8680383B1 (en) * | 2012-08-22 | 2014-03-25 | Henry P. Taylor | Electronic hymnal system |
EP2916241A1 (en) | 2014-03-03 | 2015-09-09 | Nokia Technologies OY | Causation of rendering of song audio information |
JP6726583B2 (ja) * | 2016-09-28 | 2020-07-22 | 東京瓦斯株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
KR102495888B1 (ko) | 2018-12-04 | 2023-02-03 | 삼성전자주식회사 | 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법 |
KR102220216B1 (ko) * | 2019-04-10 | 2021-02-25 | (주)뮤직몹 | 데이터 그룹재생 장치 및 그 시스템과 방법 |
CN112114925B (zh) | 2020-09-25 | 2021-09-21 | 北京字跳网络技术有限公司 | 用于用户引导的方法、装置、设备和存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0583332A (ja) * | 1990-07-18 | 1993-04-02 | Ricoh Co Ltd | 電話機 |
JP3068226B2 (ja) * | 1991-02-27 | 2000-07-24 | 株式会社リコス | バックコーラス合成装置 |
US6025553A (en) * | 1993-05-18 | 2000-02-15 | Capital Bridge Co. Ltd. | Portable music performance device |
GB2288054B (en) * | 1994-03-31 | 1998-04-08 | James Young | A microphone |
JPH0816181A (ja) * | 1994-06-24 | 1996-01-19 | Roland Corp | 効果付加装置 |
JP2001075985A (ja) * | 1999-09-03 | 2001-03-23 | Sony Corp | 音楽検索装置 |
JP2002019533A (ja) * | 2000-07-07 | 2002-01-23 | Sony Corp | カーオーディオ装置 |
-
2003
- 2003-01-15 AU AU2003201086A patent/AU2003201086A1/en not_active Abandoned
- 2003-01-15 US US10/502,153 patent/US20050103187A1/en not_active Abandoned
- 2003-01-15 KR KR10-2004-7011413A patent/KR20040077784A/ko not_active Application Discontinuation
- 2003-01-15 CN CNA038026791A patent/CN1623151A/zh active Pending
- 2003-01-15 WO PCT/IB2003/000085 patent/WO2003063025A2/en active Application Filing
- 2003-01-15 EP EP03731775A patent/EP1472625A2/en not_active Withdrawn
- 2003-01-15 JP JP2003562820A patent/JP2005516285A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20040077784A (ko) | 2004-09-06 |
AU2003201086A1 (en) | 2003-09-02 |
EP1472625A2 (en) | 2004-11-03 |
WO2003063025A3 (en) | 2004-06-03 |
US20050103187A1 (en) | 2005-05-19 |
JP2005516285A (ja) | 2005-06-02 |
WO2003063025A2 (en) | 2003-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6645956B2 (ja) | 携帯用音声合成のためのシステム及び方法 | |
US6528715B1 (en) | Music search by interactive graphical specification with audio feedback | |
CN101322180B (zh) | 音乐编辑装置和音乐编辑方法 | |
EP2136286B1 (en) | System and method for automatically producing haptic events from a digital audio file | |
AU2012213646B2 (en) | Semantic audio track mixer | |
US8816180B2 (en) | Systems and methods for portable audio synthesis | |
CN1623151A (zh) | 用于加入恢复的音乐片段的音乐恢复*** | |
US6782299B1 (en) | Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program | |
JP2001215979A (ja) | カラオケ装置 | |
JP2005331806A (ja) | 演奏練習装置および演奏練習用コンピュータプログラム | |
JP2005044409A (ja) | 情報再生装置、情報再生方法および情報再生プログラム | |
JPWO2006077769A1 (ja) | 提示データ選択装置及び提示データ選択方法等 | |
JP5098896B2 (ja) | 再生装置および再生方法 | |
JP2003058192A (ja) | 音楽データ再生装置 | |
CN102044238A (zh) | 音乐再现*** | |
CN2653596Y (zh) | Mp3语音点播机 | |
WO2023010949A1 (zh) | 一种音频数据的处理方法及装置 | |
JP2002041035A (ja) | 再生用符号化データ作成方法 | |
CN1442799A (zh) | 使卡拉ok具有领唱功能的方法 | |
JP3879684B2 (ja) | 曲データ変換装置および曲データ変換プログラム | |
JPH10333696A (ja) | 音声合成装置 | |
JP3211646B2 (ja) | 演奏情報記録方法及びその演奏情報の再生装置 | |
De Poli | Standards for audio and music representation | |
TUW et al. | D3. 3 Final release of API |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |