CN101322180B - 音乐编辑装置和音乐编辑方法 - Google Patents
音乐编辑装置和音乐编辑方法 Download PDFInfo
- Publication number
- CN101322180B CN101322180B CN2006800457218A CN200680045721A CN101322180B CN 101322180 B CN101322180 B CN 101322180B CN 2006800457218 A CN2006800457218 A CN 2006800457218A CN 200680045721 A CN200680045721 A CN 200680045721A CN 101322180 B CN101322180 B CN 101322180B
- Authority
- CN
- China
- Prior art keywords
- song
- audio mixing
- metadata
- reproduced
- beat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000012545 processing Methods 0.000 claims abstract description 44
- 238000003860 storage Methods 0.000 claims abstract description 33
- 239000000203 mixture Substances 0.000 claims abstract description 17
- 230000005236 sound signal Effects 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims 1
- 230000001360 synchronised effect Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 32
- 230000000694 effects Effects 0.000 description 23
- 238000006243 chemical reaction Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000033764 rhythmic process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000012913 prioritisation Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 235000012364 Peperomia pellucida Nutrition 0.000 description 1
- 240000007711 Peperomia pellucida Species 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 208000003481 exhibitionism Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/105—Composing aid, e.g. for supporting creation, edition or modification of a piece of music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/131—Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
- G10H2210/136—Morphing interpolation, i.e. interpolating in pitch, harmony or time, tempo or rhythm, between two different musical pieces, e.g. to produce a new musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/391—Automatic tempo adjustment, correction or control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/016—File editing, i.e. modifying musical data files or streams as such
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/061—MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/066—MPEG audio-visual compression file formats, e.g. MPEG-4 for coding of audio-visual objects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/091—Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
- G10H2240/305—Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Electrophonic Musical Instruments (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
混音处理部件基于对应于歌曲数据而预先生成的并且包含至少一个基于时间的节拍位置的元数据和用于确定混音模式的文件来执行混音处理。同步再现控制部件生成主节拍,发送主节拍至混音处理部件,并且根据混音处理部件对应于混音模式和元数据而指定的混音处理再现基于元数据的各个条目的多首歌曲。混合部件混合由同步再现控制部件再现的歌曲。提供一种能够实现以歌曲的节拍被匹配的方式来叠加或者连接记录在记录介质(如硬盘或者闪存)上的多首歌曲中的每一首的全部或者部分的编辑的音乐编辑装置。
Description
技术领域
本发明涉及音乐编辑装置和方法,用于编辑从歌曲被分割成的歌曲部分、小节(bars)等等获得的音乐内容材料或者类似物以及创建新歌曲(音乐内容)。
背景技术
随着存储器型音频设备已经变得普通,用户每天随身携带大量歌曲。利用允许其用户连续收听大量歌曲而不需要改变介质的存储器型音频设备,一种用户不但能连续收听每张CD专辑的歌曲,而且能够收听所有CD专辑中乱序播放(shuffled)的歌曲并且他们喜欢的歌曲被作为播放列表排列的类型已经变得普通。可以说用户按照他们喜欢的顺序而不是歌曲在专辑中的记录顺序来收听他们喜欢的歌曲的自由度已经增加了。
然而,其假设的前提是用户从头到尾收听每首歌曲。此外,在歌曲之间存在无声区域。换言之,一首歌曲是最小单位。因此,用户必须以一首歌曲为基础来收听音乐。用户的专注,即他或她的热情,在这样的歌曲之间的无声区域处被打断。结果,用户很难在他或她的紧张状态被保持的情况下连续收听歌曲。
图23使用歌曲A和歌曲B显示了传统的音乐再现(reproduction)。在此情况下,两首歌曲按照它们的原始速度(tempos)被再现。当然,在这些歌曲之间存在无声区域。
因此一种组合多个音乐材料并且编辑它们的技术被发展。公开的日本专利申请No.2003-44046公开了一种组合通过用户的键盘和鼠标输入的多个音乐材料并且允许他或她交互地编辑它们并且欣赏再现的歌曲的技术。在该技术中,声音片段,如声音模式和单次播放(one-shots)以及由可应用至声音片段的效果所组成的提示(tips)被指定给键盘的单个键。当用户按下键时,与其对应的提示被组合并被输出。当多个键被同时按下时,对应的提示被组合并被输出。此外,当键被连续按下时,对应的提示被按时间顺序组合并且因此一首歌曲被组成。
然而,根据如公开的日本专利申请No.2003-44046所公开的上述技术,其很难通过连接多个歌曲的部分按照它们的节拍如,例如,由放唱片者(disc jockey,DJ)创建的混音一样被匹配的方式来重新创作歌曲。DJ目前是一个普通的职业。存在专门处理混音的标签(label)公司。喜欢混音音乐的用户数目正在增加。
有鉴于上述情况,作出本发明。本发明的一个目的是提供编辑按照歌曲的节拍被匹配的方式叠加或连接记录在记录介质(如硬盘或者闪存)上的多首歌曲中的每一首的全部或者部分的音乐编辑装置和音乐编辑方法。本发明的另一个目的是提供实时地按照情景连接每首歌曲的全部或者部分并且再现连接的歌曲的音乐编辑装置和音乐编辑方法。
发明内容
为了解决上述问题,本发明的音乐编辑装置包括混音处理部件,其基于对应于歌曲数据而预先生成的并且包含至少一个基于时间的节拍位置的元数据和用于确定混音模式的文件而执行混音处理;同步再现控制部件,其生成主节拍,将主节拍发送至混音处理部件,并且根据混音处理部件对应于混音模式和元数据而指定的混音处理再现基于元数据的各个条目的多首歌曲;以及混合部件,其混合由同步再现控制部件再现的歌曲。
本发明的音乐编辑方法包括混音处理步骤,基于对应于歌曲数据而预先生成的并且包含至少一个基于时间的节拍位置的元数据和用于确定混音模式的文件而执行混音处理;同步再现控制步骤,用以生成主节拍,将主节拍发送至混音处理步骤,并且根据混音处理步骤对应于混音模式和元数据而指定的混音处理,基于元数据的各个条目再现多首歌曲;以及混合步骤,用以混合由同步再现控制步骤再现的歌曲。
附图说明
图1是显示根据本发明的装置和方法的一个实施例的音乐编辑装置1的框图;图2是显示同步再现控制单元和音频混合单元的详细结构的框图;图3是显示音乐编辑装置的功能框图;图4是显示音乐编辑装置通过CPU执行的音乐编辑程序的处理的流程图;图5是显示基于时间的元数据的示意图;图6是显示基于时间的元数据的具体实例的示意图;图7是显示基于时间的元数据的另一个具体实例的示意图;图8A、图8B和图8C是显示存储元数据的方法的示意图;图9是显示混音模式文件的具体实例的示意图;图10是描述根据本发明的音乐再现的示意图;图11是描述平滑转换(cross-fade)的连接的示意图;图12是描述切入的连接的示意图;图13是描述使用音响效果的连接的示意图;图14是描述使用音响效果的平滑转换的连接的示意图;图15是描述同时同步再现的示意图;图16是描述效果的应用的示意图;图17是描述部分再现的示意图;图18是显示具有网络通信单元的音乐编辑装置的结构的示意图;图19是具有网络通信单元的音乐编辑装置的功能框图;图20是显示具有传感器值获取部件的音乐编辑装置的结构的示意图;图21是显示具有传感器值获取部件的音乐编辑装置的功能框图;图22A和图22B是显示具有传感器值获取部件的音乐编辑装置的处理的流程图;以及图23是描述传统音乐再现的示意图。
附图标记说明:
1:音乐编辑装置
2:CPU
4:存储单元
5:歌曲存储单元
6:歌曲元数据存储单元
7:混音模式存储单元
8:同步再现单元
9:同步再现控制单元
10:音频混合单元
20:混音处理部件
21:元数据处理部件
22:混音模式读取部件
90:主节拍生成部件
93a、93b、93c:音频信号生成部件
S1:获取混音模式文件
S2:获取下一首歌曲
S3:存在下一首歌曲?
S4:决定主节拍的速度
S5:获取连接模式
S6:获取歌曲的元数据
S7:效果处理必需?
S8:激活效果处理部件
S9:音量衰减处理必需?
S10:设置衰减参数
S11:设置歌曲的原始速度至同步再现控制单元
S12:获取自由音频信号生成部件
S13:设置歌曲至同步再现控制部件
S14:获取每首歌曲的当前再现位置
S15:下一首歌曲被准备的点已经出现?
S211:决定传感器优先模式或者模式优先模式
S212:传感器优先模式?
S213:决定对应于来自传感器的输入的歌曲和速度
S214:存在下一首歌曲?
S215:设置主节拍的速度
S216:自动地决定连接模式
S217:获取歌曲的元数据
S218:效果处理必需?
S219:激活效果处理部件
S220:音量衰减处理必需?
S221:设置衰减参数
S222:设置歌曲的原始速度至同步再现控制部件
S223:获取自由音频信号生成部件
S224:设置歌曲至同时再现控制部件
S225:获取每首歌曲的当前再现位置
S226:下一首歌曲被准备的点已经出现?
S227:传感器优先模式?
S228:获取混音模式文件
S229:获取下一首歌曲
S230:存在下一首歌曲?
S231:决定主节拍的速度
S232:获取连接模式
具体实施方式
接下来,参考附图,将会描述实现本发明的最佳实施例。图1是显示根据本发明的装置和方法的一个实施例的音乐编辑装置1的框图。
音乐编辑装置1能够连接或者叠加具有随后描述的元数据的由于歌曲的音乐内容数据(原始数据)通过各种类型的记录介质(如硬盘(HD)、光盘(CD)、迷你光盘(MD)、数字通用光盘(DVD)等)等以及通过网络(如互联网)来提供而具有不同速度的歌曲A和歌曲B并且按照它们的节拍被匹配的方式再现被连接或者被叠加的歌曲。换言之,音乐编辑装置1是自动实现DJ再现的装置。
如图1所示,在音乐编辑装置1中,中央处理单元(CPU)2通过总线3连接至存储单元4和同步再现单元8。此外,通过总线3连接至CPU 2的是ROM 13、RAM 14、用户操作I/F单元15,和用户界面(U/I)显示单元16。
CPU 2实时地决定歌曲的连接方法并且在必要的时间提供必要的歌曲材料至同步再现单元8。此外,对应于用户的操作,CPU 2指定同步再现单元8的速度和节拍同步/异步。
存储单元4由歌曲存储单元5、元数据存储单元6,和混音模式存储单元7组成。歌曲存储单元5是存储多首歌曲的数据的存储单元。歌曲存储单元5是如控制台型音乐再现装置或者便携式音乐再现装置具有的闪存或者硬盘一样的存储单元。存储在歌曲存储单元5中的歌曲数据可以是压缩音乐数据或者非压缩数据。
元数据存储单元6是如闪存或者硬盘一样的存储单元并且存储增加至歌曲的基于时间的元数据。如随后将要描述的一样,元数据是增加至歌曲的基于时间的辅助数据,并且描述节拍的位置信息和速度、小节的开始位置信息(简单地称为开始),以及节奏信息(如引子和主旋律(容易记住的部分))。
类似于歌曲存储单元5,混音模式存储单元7不限于特定的类型,只要它是存储单元即可。混音模式存储单元7是存储用于指定混音模式指定方法的混音模式文件的存储单元。如随后将要描述的一样,混音模式文件不仅仅是描述歌曲顺序的文件,而且是描述歌曲顺序加上组合歌曲A和歌曲B的方式或者歌曲A和歌曲B的哪些部分被使用并且它们在哪里被组合的方式的文件。
同步再现单元8是音乐编辑装置1用来自动实现DJ再现的信号处理模块。同步再现单元8以与参考节拍同步地再现由CPU 2的混音控制功能指定的歌曲材料。同步再现单元8由同步再现控制单元9、音频混合单元10、数字/模拟转换单元(D/A)11,以及音频输出单元12组成。
同步再现控制单元9具有多个音频信号生成部件,并且与本地生成的时钟信号同步地再现多个音频信号。此外,同步再现控制单元9一直监控当前基于从元数据存储单元6提供的元数据而被再现的歌曲的位置并且将当前再现位置(如作为歌曲中的采样计数的再现位置)和作为小节计数和节拍计数的再现位置发回至CPU 2的混音处理功能部件。
音频混合单元10混合由同步再现控制单元9的多个音频信号生成部件生成的多个音频信号并且输出混合的信号。D/A 11将由音频混合单元10再现的数字信号转换为模拟信号。音频输出单元12放大从D/A 11提供的模拟音频信号并且输出放大的信号至扬声器、耳机,或者类似物。
ROM 13存储由基于根据本发明的音乐编辑方法的处理组成的音乐编辑程序。此外,ROM 13存储各种类型的默认数据。RAM 14成为CPU 2执行音乐编辑程序的工作区域。此外,RAM 14存储CPU 2执行音乐编辑程序的各种类型的更新数据。
用户操作I/F单元15是,例如,键盘、鼠标、触摸屏,和/或接收用户操作的类似设备。U/I显示单元16包括显示当前操作状态和音乐编辑处理状态并且接收用户操作的触摸屏的显示部件。U/I显示单元16是,例如,液晶显示单元。当然,U/I显示单元16可以是CRT。
图2是显示同步再现控制单元9和音频混合单元10的详细结构的框图。同步再现控制单元9由主节拍生成部件90和三个音频信号生成部件组成。主节拍生成部件90生成等于一个节拍的时钟。具体地,主节拍生成部件90与速度同步地输出混音的速度和节拍信号。主节拍生成部件90生成小节开始信号和除小节开始信号以外的与指定节奏(4-4节奏、3-4节奏等等)对应的常规节拍信号并且输出它们。
三个(轨道)音频信号生成部件具有三个轨道以实时地输出多个立体声,作为典型示例,输出歌曲A、歌曲B,和音响效果(SE)。当然,音频信号生成部件可以具有对应于歌曲数目的四个轨道、五个轨道,或者更多。音频信号生成部件基于由主节拍生成部件90生成的同步信号(时钟或者节拍)同步地再现与主节拍的小节/节拍位置对应的歌曲的小节/节拍位置。
对于单个轨道,解码器91a、91b和91c以及时间延长(timestretch)单元92a、92b和92c被提供。解码器91a、91b和91c解码已经根据MP3或者ATRAC而被压缩的压缩声音并且将解码的声音作为PCM数据输出。在此情况下,因为SE短并且其数据大小很小,其不总是需要被压缩。因此,SE轨道的解码器可以被省略。时间延长单元92a、92b和92c是在歌曲的间隔保持常量时转换再现速度的单元。时间延长单元92a、92b和92c致使歌曲材料的速度匹配基于从元数据存储单元6提供的元数据的参考节拍的速度。时间延长单元92a、92b和92c基于歌曲的原始速度和主节拍的速度的比率而执行实时地改变再现速度的处理。因此,歌曲的原始速度能够与主节拍的速度匹配。当然,如上所述,歌曲的间隔没有改变。
音频信号生成部件可以具有音高转换器(pitch shifter)功能。音高转换器功能在再现速度保持常量时改变歌曲的间隔。音高转换器功能被用来在音乐上协调具有不同间隔和音高的歌曲材料。然而,音高转换器功能不是必要功能,而是附加功能。
音频混合单元10具有对应于音频信号生成部件的三个轨道的三个效果处理部件100a、100b和100c以及三个音量调整单元101a、101b和101c。这三个***的输出由音频混合单元102混合,由音频输出部件103放大,并且接着输出至外部扬声器、耳机,或者类似物。音频混合单元10能够对从音频信号生成部件提供的输出音频信号的单个轨道执行效果处理和音量调整处理。同步再现控制单元9和音频混合单元10通过CPU总线或者同步再现单元的本地总线连接至CPU 2。
图3是音乐编辑装置1的功能框图。在图3中,在图1中作为硬件结构显示的CPU 2的功能由混音处理部件20表示。混音处理部件20由元数据处理部件21和混音模式读取部件22组成。
在混音处理部件20中,元数据处理部件21处理存储在元数据存储单元6中的元数据。如上所述,基于时间的元数据被增加至歌曲。元数据不仅包含有关速度的信息,而且包含节拍的位置信息、小节开始位置信息,以及引子、容易记住的部分等等的节奏信息。
元数据处理部件21读取与对应于当前歌曲的基于时间的元数据并且根据由混音模式读取部件22读取的指定混音模式信息而检查歌曲的位置信息。例如,在知道当前节拍位置和将要被组合的歌曲的节拍的位置的情况下,元数据处理部件21决定以何种方式再现歌曲并且音响效果出现在什么时间。
而且,在混音处理部件20中,混音模式读取部件22读取存储在混音模式存储单元7中的混音模式文件7a。混音模式文件7a是指定是否进行淡出(fade-out)、是否进行切出,以及使用何种SE的文件。混音模式可以是由用户或者第三方指定的(指示以何种方式连接歌曲)或者根据自动创建算法(即,在机器这一边确定的混音)创建的数据序列。
在同步再现控制单元9中,主节拍生成部件90生成主节拍,并且发送主节拍至混音处理部件20,并且根据混音处理部件20基于混音模式和元数据而指定的混音处理再现基于从元数据存储单元6提供的元数据的各个条目的多首歌曲。
图4显示了音乐编辑装置1通过CPU 2执行的音乐编辑程序的处理。该音乐编辑程序是根据本发明的音乐编辑方法的实施例。
首先,在CPU 2的混音处理部件20中,混音模式读取部件22从混音模式存储单元7读取混音模式文件7a并且获取混音模式文件7a(在步骤S1)。其后,使得同步再现控制单元9获取歌曲,例如,第一首歌曲(在步骤S2)。当存在另一首歌曲(步骤S3的是(YES))时,确定同步再现控制单元9的主节拍生成部件90的速度(在步骤S4)。速度可以固定在140或者用户可以指定速度。其后,获取连接模式(描述在模式文件中)(在步骤S5)。
因为已经确定了连接歌曲的模式,因此获取歌曲的元数据(在步骤S6)。例如,获取歌曲B的元数据。其后,基于混音模式文件确定效果处理是否必需(在步骤S7)。当必需时(是(YES)),激活效果处理部件100以实现预定的效果(在步骤S8)。
其后,基于混音模式文件确定音量衰减处理是否必需(在步骤S9)。例如,选择增加或者减少被编辑和叠加的歌曲A和歌曲B的音量的音量衰减是否必需。当必需时(是),设置衰减参数(在步骤S10)。尽管假设音量被自动增加或者减少,但它们的衰减参数被设置。
其后,歌曲的原始速度被设置至同步再现控制单元9的主节拍生成部件90(在步骤S11)。歌曲的原始速度被增加至歌曲的元数据。其后,同步再现控制单元9的自由音频信号生成部件被获取。在上述的具体实例中,尽管描述了三个轨道的示例,但自由音频信号生成部件被获取,并且将再现的歌曲被设置给获取的音频信号生成部件(在步骤S13)。
在已经获取每首歌曲的当前再现位置之后(在步骤S14),确定下一首歌曲被准备的点是否已经出现(在步骤S15)。当SE是,例如,平滑转换时,其在相关的小节之前结束多个小节。当SE是,例如,切入时,因为其立即开始,其能够在此之前准备一个小节。当然,同时再现是一种歌曲同时被再现的再现。确定这样的点是否已经出现。当歌曲被准备的点没有出现,处理流程返回至步骤S14。在步骤S14,确定这样的点是否已经出现。当下一首歌曲被准备的点已经出现时(是),处理流程返回至步骤S2。
图5是显示基于时间的元数据30的示意图。如上所述,元数据30是增加至歌曲的基于时间的辅助数据。元数据30不仅仅描述关于速度的信息,而且描述节拍信息、小节开始位置信息,以及引子、容易记住的部分等等的节奏信息。小节/节拍31表示第一个小节中的节拍计数。“11”表示第一个小节中的第一个节拍。“14”表示第一个小节中的第四个节拍。类似的,“21”表示第二个小节中的第一个节拍。特别地,“11”和“21”表示每个小节的第一个节拍。属性32表示位置上的条目(entity)。属性32表示小节、正常节拍、节奏、主旋律(容易记住的部分)或者类似物的开始位置。“01800001”表示作为“11”和“21”属性的小节的开始。当歌曲按照44.1kHz采样时,每秒钟的采样数目是44100。位置以样本为单位进行描述。图5所示的元数据30以文本格式或者二进制格式进行描述。
图6显示了基于时间的元数据的具体实例。图6显示了在一个时间点上音频信号40以及节拍41和42的基于时间的元数据。音频信号40随着时间的流逝从左向右变化,并且节拍依赖于(ride on)音频信号40。在图6中,长线41表示小节的第一个节拍,而短线42表示常规节拍。小节的第一个节拍41和其它节拍42(四节拍节奏中的小节开始之后四分之一音符的时间内的三个节拍)的位置对应于歌曲的采样位置而被存储。
图7是显示基于时间的元数据的另一个具体实例的示意图。音频信号50能够不仅包含节拍位置55,而且能够包含表示节奏位置如歌曲的引子51、A大调52和53、B大调54,以及主旋律(容易记住的部分)的位置信息。根据该信息,目标歌曲的小节的位置和特定节奏的开始位置能够被获取。
在具有图1等所示的结构的音乐编辑装置1中,元数据被存储在元数据存储单元6中。作为替代,元数据可以如图8A、图8B,和图8C所示的一样被存储。图8A显示了元数据71和歌曲数据72被逻辑地分离并且物理地出现在相同介质中(如在MP3中)的示例。图8B显示了元数据73和歌曲数据74在MPEG4中共存的示例。图8C显示了对应于歌曲数据76的元数据75,例如,通过网络获取的示例。在此情况下,歌曲数据和元数据相互之间被逻辑地以及物理地分离。该结构适用于具有连接至网络(如互联网)的网络通信单元的音乐编辑装置80和110(随后将描述)。该结构允许元数据被根据歌曲ID而从网络上的站点下载。
图9是显示混音模式文件的具体实例的示意图。尽管元数据以一对一的关系对应一首歌曲,但用户能够自由地创建混音模式。因此用户能够与歌曲无关地创建混音模式。混音模式文件是描述以何种方式连接歌曲的文件。在混音模式60中,歌曲ID(文件)61的ID_A至ID_E可以分别与歌曲名称A至E相同。作为替代,ID_A至ID_E可以是绝对文件名称或者文件路径。再现部分62表示每首歌曲的哪个部分要被再现。在该示例中,对于歌曲A指定“容易记住的部分”部分,对于歌曲B指定“引子”部分,对于歌曲C指定“第八小节至第二十小节”部分,对于歌曲D指定所有部分,以及对于歌曲E指定“容易记住的部分”部分。
再现(效果)63指定何种效果被应用至每首歌曲的每个部分。连接方法(模式)64指示歌曲A是平滑转换、歌曲B通过平滑转换连接、歌曲B和歌曲C通过切入连接、歌曲C和歌曲D通过平滑转换连接,以及歌曲D和歌曲E被连接使得它们的容易被记住的部分被同时再现。连接(效果)65指定歌曲以混响(reverb)、低切(low-cut),或者失真(distortion)来连接而作为效果。连接SE 66指定音响效果。
当图9中所示的模式被指定时,真实的再现如下面一样被实现。“ID_A的容易记住的部分被再现。→在ID_A的容易记住的部分的尾部近端,ID_B的引子被平滑转换。→在ID_B的引子的尾端,ID_C的第八小节的再现开始。→ID_D在ID_C的第20小节之后的多个小节被平滑转换。同时,SE_A也被混合。→当ID_D的容易记住的部分被再现时,ID_E的容易记住的部分也被再现。”
因此能够说混音模式是被增加至传统播放列表的指定歌曲的哪个部分以何种方式连接的概念体。
接下来,参考图10至图17,连接歌曲的方法的具体实例将会被简单地描述。在传统的音乐再现中,如图23所示,两首歌曲A和B按照它们的原始速度被再现并且在两首歌曲A和B之间很可能存在无声区域。尽管通过使用特定再现装置歌曲可以被机械地连接而没有无声区域,但很多歌曲在开始和结束处具有无声区域。因为这些歌曲部分地包含无声区域,在这些歌曲之间存在无声区域是必然的。
在图1中所示的音乐编辑装置1中,也如图10中所示,因为所有歌曲A、B和C的速度根据由用户或者***确定的共同速度来匹配,并且歌曲A、B和C以匹配的速度而不是它们的原始速度在这些歌曲的匹配节拍位置(强烈节拍位置)被再现,它们能够被无缝地连接而不导致用户感觉不舒服。
为此,如上所述,音乐编辑装置1按照歌曲的节拍被同步的方式再现歌曲A、歌曲B和歌曲C。为了按照歌曲的节拍被同步的方式来再现具有不同速度的三首歌曲,必需知道歌曲A、B和C的原始速度和它们的节拍位置。此外,为了匹配将要被再现的歌曲的速度和节拍位置,必需改变歌曲的再现速度。
为了知道歌曲A、B和C的原始速度和节拍位置,音乐编辑装置1使用与歌曲配对的基于时间的元数据。当歌曲被再现时,它们的再现速度基于它们的原始速度和当前主节拍的速度的比率而被改变,并且匹配歌曲的小节的开始位置。
如上所述,通过精确地处理多首歌曲的速度和节拍位置并且实时地控制它们的再现位置,它们的同步再现被实现。假设无缝连接歌曲的技术是基于节拍同步再现方法的使用。
图11显示了歌曲A和歌曲B按照它们的节拍被匹配而被叠加并且它们通过平滑转换处理来连接。通过在下一首歌曲B淡入(逐渐增加音量)时淡出当前歌曲A(逐渐减少音量)并且同时再现两首歌曲,它们被无缝切换的效果被获得。平滑转换是已经被广泛使用的技术,例如,在FM无线广播中。本发明的要点是既然因为歌曲A和歌曲B的速度和节拍位置被匹配,因此它们被无缝连接而不导致用户感觉不舒服。
音乐编辑装置1能够执行图12概述的切入处理。当歌曲A、歌曲B和歌曲C的连接是音乐上清楚的,它们被如图12所示的直接连接比它们被平滑转换地连接更好。此外,歌曲可以有意地在节拍的尾端停止并且下一首歌曲可以在下一个节拍的开端开始。
音乐编辑装置1以如上所述的音响效果(SE)连接歌曲。换言之,音响效果(SE)不仅能够***在歌曲之间,而且还能够***在歌曲的连接部分和歌曲的任何部分。图13是在歌曲A和歌曲B之间以及歌曲B和歌曲C之间***的音响效果的示例。图14是在平滑转换的歌曲A和歌曲B之间***的音响效果的示例。当然,在此情况下,音响效果能够与主节拍的速度同步。当SE被***或者叠加在歌曲之间时,具有很多不同节奏的歌曲能够被更加自然地连接。
此外,音乐编辑装置1可以执行同时再现。在此情况下,不同的歌曲不仅被同时再现,而且它们的节拍被同步,并且歌曲如图15所示的被再现。因为歌曲的速度和节拍位置被同步,用户可以感觉他或她像收听一首歌曲一样。
此外,如图16中所示,音乐编辑装置1可以在一首歌曲A中应用效果。在此情况下,音乐编辑装置1应用效果(音响效果)至声音A的部分或者全部以改变声音质量。该声音效果不仅包括加重(emphasizing)歌曲的低音和高音的处理,而且包括改变音调如混响、延迟、失真或者最大化处理。
在应用混响作为效果至音乐A以及低切滤波器(low-cut filter)作为效果至音乐B时,当这些歌曲被同时再现或者以各种方式连接时,更加自然并且吸引人的连接方法能够被实现。
此外,音乐编辑装置1可以不仅应用上述连接方法至整首歌曲,而且还可以应用至每首歌曲的容易记住的部分或者引子,如图17所示。当歌曲的部分被连接,例如,仅仅容易记住的部分可能被混音。
如上所述,音乐编辑装置1能够基于描述混音模式的混音模式文件而无缝地混音歌曲。在此情况下,音乐编辑装置1可以确定用户指定的主节拍的速度或者将歌曲的速度和主歌曲的速度进行匹配。
因此,利用音乐编辑装置1,用户不仅能够以传统方式,还能以下面的新类型方式来欣赏歌曲。不同于传统方式,该新类型方式不能仅仅通过被动地收听歌曲来实现。该新类型方式允许用户在音乐中主动地关注他自己或者她自己,创建对应于他或者她的生活方式的音乐收听方式,并且满足他或者她的表现喜好(exhibitionism)。
换言之,用户能够新式地(stylishly)连接歌曲中他或者她喜欢的部分并且作为无缝的混音音乐来收听它们。此外,利用音乐编辑装置1,用户能够满足他或者她的创造欲望以基于试错(try-and-error)来选择歌曲的连接方法并且创建吸引人的混音。
图18显示了根据本发明的一个实施例的另一个音乐编辑装置80的结构。图19是音乐编辑装置80的功能模块图。音乐编辑装置80具有能够连接至互联网82的网络通信单元81。
利用网络通信单元81,元数据能够从网络上的站点下载。当用户仅仅知道他或者她期望的歌曲的ID时,如图18所示,元数据能够通过互联网下载。
用户能够通过网络(如互联网82)交换和/或共享混音模式文件,并且第三方能够下载由另一个用户创建的混音并且欣赏它。作为替代,可以使用由内容服务方提供而不是私人用户提供的混音模式。
利用音乐编辑装置80,能够实现一种新的基于音乐的通信,歌曲的连接方法通过该通信被公开在互联网或者类似物上,连接方法能够被其他人共享,并且混音由多个人创建和评价。此外,当用户仅仅知道他或者她期望的歌曲的ID时,歌曲的元数据能够从互联网上的服务器下载。
图20和图21分别显示了另一个音乐编辑装置110的硬件结构和功能模块图。音乐编辑装置110具有传感器值通过A/D转换器111从传感器112获得的结构。音乐编辑装置110功能上地具有传感器值获取部件。
如在已经公开的发明中一样,例如,如“再现状态控制装置和再现状态控制方法”(公开的日本专利申请No.2003-391359),传感器值获取部件113基于使用加速度传感器检测步行速度并且与步行速度相应地改变歌曲速度的技术。当该示例被应用时,主节拍生成部件的速度能够与步行速度相应地被改变并且所有歌曲能够对应于步行速度和慢跑速度而作为混音被再现。此外,如在“改变歌曲的方法”(“用于音频信号的再现装置和再现方法”(日本专利申请No.2005-303099))中一样,对应于步行速度或者慢跑速度而选择歌曲的发明可以被应用。
为了应用这些技术,传感器是必需的。当传感器和这些发明的方法被应用至本发明的***时,歌曲能够对应于用户的状态而被选择,被选择的歌曲能够被混音,并且它们能够被无缝地再现。
图22A和图22B是显示具有传感器优先模式的音乐编辑装置110的处理的流程图。处理具有除混音模式优先模式之外的传感器优先模式。处理例如取决于用户选择的模式而改变。在传感器优先模式中,传感器检测,例如,步行模式或者慢跑模式并且音乐编辑装置110对应于检测的模式来改变节拍。
首先,其确定音乐编辑装置110的模式是传感器优先模式还是模式优先模式(在步骤S211)。在此情况下,传感器优先模式基于根据用户是步行还是慢跑而选择歌曲的技术。传感器确定歌曲的顺序并且选择歌曲。因此歌曲可能不对应于模式而被确定。这可能暗示它们被动态地改变。换言之,作为构思,音乐编辑装置110根据从传感器提供的值动态地创建模式文件,不读取预先固定的模式文件。
当模式优先模式而不是传感器优先模式在步骤S211被选择时,与图4中所示的相同处理被执行。
接下来,传感器优先模式在步骤S211或者步骤S212被选择的情况将被描述。在此情况下,歌曲对应于慢跑被自动选择,并且被选择的歌曲对应于此而被自动地连接。
作为子例程,歌曲和它们的速度对应于来自传感器的输入而被确定(在步骤S213)。当在步骤S214的确定结果表示存在另一首歌曲时,流程进入步骤S215。在步骤S215,主节拍的速度被设置。在此情况下,主节拍的速度被检测并且对应于步行速度被设置。在此情况下,因为歌曲连接方法不是始终被确定的,因此它是自动确定的(在步骤S216)。例如,在慢跑模式,所有的歌曲可以被简单地平滑转换连接。作为替代,当下一首歌曲的元数据表示其是淡入时,当前歌曲可以被简单地叠加。因为步骤S217之后的处理与图4中步骤S6至S15的处理相同,它们的描述将被省略。
因此,利用音乐编辑装置110,歌曲对应于慢跑模式被选择并且被选择的歌曲被无缝地连接。因此,因为歌曲没有打乱慢跑的紧张和速度,用户能够舒服地享受慢跑。根据传感器的特定类型,对应于用以替代慢跑的另一个节奏运动(例如,跳舞)或者用户心率的混音能够被创建。
歌曲对应于来自传感器的输入而被选择,被选择的歌曲的速度与慢跑的速度匹配,并且歌曲根据匹配的速度被混音。因此用户能够欣赏对应于他或者她的速度的他或者她喜欢的歌曲。
此外,定时混音再现能够被执行。其假设用户想收听他或者她喜欢的专辑的歌曲或者针对他或者她的上下班途中(commuting)的30分钟内的播放列表的那些歌曲。常规地,如果专辑的持续时间是60分钟,他或者她必需在30分钟内停止再现歌曲。相比之下,在根据本发明的***的情况下,混音能够通过选择歌曲的速度和部分被创建,从而歌曲的再现持续时间变为30分钟。定时混音再现能够被应用至慢跑。当用户想要慢跑仅仅30分钟,对应于慢跑速度的30分钟的歌曲混音能够被创建。
用于上下班途中的30分钟的仅仅歌曲的容易记住的部分的混音能够被创建从而当用户到达目的地时混音完成。此外,随着当前时间接近到达时间,使得用户感觉他或者她正在接近目的地的气氛能够以歌曲的速度逐渐减小或者特定SE被叠加的方式来创建。
如上所述,利用音乐编辑装置80和110,能够实现一种新的基于音乐的通信,通过这种通信歌曲的连接方法被公开,例如,在互联网上,由其他人共享,混音由多个人创建并且评价。此外,对应于歌曲的元数据能够从互联网的站点下载。而且,利用传感器,用户能够收听完全符合他或者她的现状和状态的音乐。
这些特征将相对于传统世界制造新浪潮,在其中用户享受专业的创作者和音乐家创建的作品,并且允许用户经历他或者她重用并且重新创作他们的作品作为他或者她表达他自己或者她自己的材料、并且享受结果的新世界。
当发现这种新类型音乐娱乐的用户增加时,整个音乐行业将变得活泼。此外,从音乐行业的角度来看,存在如下的可能性:将会有允许用户端重新创作并且新的创作者创造这样的作品的音乐作品。因此存在行业和用户能够建立新音乐文化的可能性。
最后,能够在根据本发明的音乐编辑装置中使用的特征将会被描述。该音乐编辑装置是一种歌曲创建和再现装置,具有由按照预定时序匹配存储在存储单元中的多首歌曲的速度和节拍并且同时同步地再现多首歌曲的多个再现控制单元组成的再现部件。此外,歌曲的特征在于它们不限于音乐上组成的歌曲,还包括声音如音响效果、对话和通告。
此外,音乐编辑装置的特征在于当同步再现时,声音生成能够在任何歌曲的开始位置和任何歌曲的任何时间被开始/停止。此外,音乐开始位置和时间能够以一个小节、一个节拍以及一个节奏创作单元为单位而被指定。
此外,根据上述的特征,当特定歌曲被再现,另一首歌曲的任何部分能够在任何时间被同时再现。类似地,根据上述特征,正在被再现的歌曲的任何部分的再现能够被停止并且另一首歌曲的任何部分能够被无缝地再现。
此外,音乐编辑装置的特征在于在其实现上述的同步再现时,其能够离散地调整其同步再现的每首歌曲的音量。根据音量调整,在装置实现同时再现时,其能够减少其当前再现的歌曲的音量,增加下一首歌曲的音量,组合作为结果发生的歌曲,并且再现它们。
此外,音乐编辑装置的特征在于当其实现同步再现时,其能对用于同步再现的每首歌曲应用效果处理作为信号处理。此外,装置的特征在于当其实现同步再现时,其基于由已经被记录至每首歌曲的速度、小节、节拍位置、节奏创作改变位置信息等等组成的元数据而控制时间。
音乐编辑装置的特征在于:元数据和歌曲被记录在相同文件或者不同文件中,并且它们的关系由数据库和标识符管理,并且歌曲的范围、声音生成开始时间、音量控制方法和用于同步再现的效果处理类型基于描述歌曲创建和再现方法的模式文件实时地被控制。
此外,音乐编辑装置的特征在于:速度由用户指定或者由装置自动确定,并且因为速度由装置自动确定,所以来自传感器的输入数据被使用。
传感器的特征在于其能够被增加至装置并且包括任何类型,如加速度传感器、陀螺传感器、心率传感器、身体温度传感器、身体运动传感器和脑波传感器。模式文件的特征在于其不仅记录在装置的存储单元中,其还可以从外部存储单元或者通过互联网获取。
根据本发明,以歌曲的节拍被匹配的方式来叠加或者连接记录在记录介质(如硬盘或者闪存)中的多首歌曲中的每一首的全部或者部分的编辑能够被实现。此外,每首歌曲的全部或者部分能够实时地按照情景被连接,并且被连接的歌曲能够被再现。
Claims (10)
1. 一种音乐编辑装置,其特征在于包含:
混音处理部件,其基于元数据和用于确定混音模式的文件来执行混音处理,该元数据对应于歌曲数据而预先生成,并且包含至少一个基于时间的节拍位置;
同步再现控制部件,其生成主节拍,将该主节拍发送至所述混音处理部件,并且根据所述混音处理部件对应于所述混音模式和所述元数据而指定的混音处理,基于所述元数据的各个条目再现多首歌曲;以及
混合部件,其混合由所述同步再现控制部件再现的歌曲。
2. 如权利要求1所述的音乐编辑装置,其特征在于所述混音处理部件具有处理所述元数据的元数据处理部件和读取所述混音模式的混音模式读取部件。
3. 如权利要求1所述的音乐编辑装置,其特征在于所述同步再现控制部件具有:生成主节拍并且将生成的主节拍提供给所述混音处理部件的主节拍生成部件;以及生成多首歌曲的音频信号的多个音频信号生成部件。
4. 如权利要求1所述的音乐编辑装置,其特征在于进一步包含:
存储所述元数据的元数据存储单元;存储所述歌曲数据的歌曲存储单元;以及存储所述混音模式的混音模式存储单元。
5. 如权利要求1所述的音乐编辑装置,其特征在于所述同步再现控制部件使用所述多首歌曲的全部或者部分。
6. 如权利要求3所述的音乐编辑装置,其特征在于所述同步再现控制部件的多个音频信号生成部件中的每一个包括解码器和时间延长单元。
7. 如权利要求1所述的音乐编辑装置,其特征在于进一步包含从网络上的服务器获取元数据的网络通信单元。
8. 如权利要求1所述的音乐编辑装置,其特征在于进一步包含允许混音模式文件在网络上共享的网络通信单元。
9. 如权利要求1所述的音乐编辑装置,进一步包含传感器值获取部件,其检测并且获取用户的步行或者慢跑速度,其特征在于所述同步再现控制部件基于检测到的速度生成主节拍的速度。
10. 一种音乐编辑方法,其特征在于包含:
混音处理步骤,基于元数据和用于确定混音模式的文件来执行混音处理,该元数据对应于歌曲数据而预先生成,并且包含至少一个基于时间的节拍位置;
同步再现控制步骤,用以生成主节拍,将该主节拍发送至所述混音处理步骤,并且根据所述混音处理步骤对应于所述混音模式和所述元数据指定的混音处理,基于所述元数据的各个条目再现多首歌曲;以及
混合步骤,用以混合由所述同步再现控制步骤再现的歌曲。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005356825 | 2005-12-09 | ||
JP356825/2005 | 2005-12-09 | ||
PCT/JP2006/324890 WO2007066819A1 (ja) | 2005-12-09 | 2006-12-07 | 音楽編集装置及び音楽編集方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101322180A CN101322180A (zh) | 2008-12-10 |
CN101322180B true CN101322180B (zh) | 2012-01-11 |
Family
ID=38122953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006800457218A Expired - Fee Related CN101322180B (zh) | 2005-12-09 | 2006-12-07 | 音乐编辑装置和音乐编辑方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7855333B2 (zh) |
EP (1) | EP1959429A4 (zh) |
JP (1) | JPWO2007066819A1 (zh) |
KR (1) | KR20080074977A (zh) |
CN (1) | CN101322180B (zh) |
WO (1) | WO2007066819A1 (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE02717175T1 (de) * | 2001-04-17 | 2004-07-08 | Kabushiki Kaisha Kenwood | System zum transferieren von informationen über attribut zum beispiel einer cd |
JPWO2007066813A1 (ja) * | 2005-12-09 | 2009-05-21 | ソニー株式会社 | 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 |
JP5259083B2 (ja) * | 2006-12-04 | 2013-08-07 | ソニー株式会社 | マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置 |
JP5007563B2 (ja) * | 2006-12-28 | 2012-08-22 | ソニー株式会社 | 音楽編集装置および方法、並びに、プログラム |
US7956274B2 (en) * | 2007-03-28 | 2011-06-07 | Yamaha Corporation | Performance apparatus and storage medium therefor |
JP4311466B2 (ja) * | 2007-03-28 | 2009-08-12 | ヤマハ株式会社 | 演奏装置およびその制御方法を実現するプログラム |
US7525037B2 (en) * | 2007-06-25 | 2009-04-28 | Sony Ericsson Mobile Communications Ab | System and method for automatically beat mixing a plurality of songs using an electronic equipment |
JP2009093779A (ja) * | 2007-09-19 | 2009-04-30 | Sony Corp | コンテンツ再生装置及びコンテンツ再生方法 |
US7915512B2 (en) * | 2008-10-15 | 2011-03-29 | Agere Systems, Inc. | Method and apparatus for adjusting the cadence of music on a personal audio device |
JP5967564B2 (ja) * | 2010-04-17 | 2016-08-10 | Nl技研株式会社 | 電子オルゴール |
US9024166B2 (en) * | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
JP5594052B2 (ja) * | 2010-10-22 | 2014-09-24 | ソニー株式会社 | 情報処理装置、楽曲再構成方法及びプログラム |
JP2012103603A (ja) * | 2010-11-12 | 2012-05-31 | Sony Corp | 情報処理装置、楽曲区間抽出方法、及びプログラム |
US9070352B1 (en) | 2011-10-25 | 2015-06-30 | Mixwolf LLC | System and method for mixing song data using measure groupings |
US9111519B1 (en) * | 2011-10-26 | 2015-08-18 | Mixwolf LLC | System and method for generating cuepoints for mixing song data |
GB201202565D0 (en) | 2012-02-15 | 2012-03-28 | British American Tobacco Co | Packaging |
JP2014052469A (ja) * | 2012-09-06 | 2014-03-20 | Sony Corp | 音声処理装置、音声処理方法、及び、プログラム |
US9070351B2 (en) * | 2012-09-19 | 2015-06-30 | Ujam Inc. | Adjustment of song length |
CN103928037B (zh) * | 2013-01-10 | 2018-04-13 | 先锋高科技(上海)有限公司 | 一种音频切换方法及终端设备 |
US8927846B2 (en) * | 2013-03-15 | 2015-01-06 | Exomens | System and method for analysis and creation of music |
US9798974B2 (en) | 2013-09-19 | 2017-10-24 | Microsoft Technology Licensing, Llc | Recommending audio sample combinations |
US9372925B2 (en) | 2013-09-19 | 2016-06-21 | Microsoft Technology Licensing, Llc | Combining audio samples by automatically adjusting sample characteristics |
US9257954B2 (en) | 2013-09-19 | 2016-02-09 | Microsoft Technology Licensing, Llc | Automatic audio harmonization based on pitch distributions |
US9280313B2 (en) * | 2013-09-19 | 2016-03-08 | Microsoft Technology Licensing, Llc | Automatically expanding sets of audio samples |
US9613605B2 (en) * | 2013-11-14 | 2017-04-04 | Tunesplice, Llc | Method, device and system for automatically adjusting a duration of a song |
CN103902647A (zh) * | 2013-12-27 | 2014-07-02 | 上海斐讯数据通信技术有限公司 | 一种应用于智能设备上的乐谱识别方法及智能设备 |
JP6330619B2 (ja) * | 2014-10-24 | 2018-05-30 | オンキヨー株式会社 | 音楽編集装置、及び、音楽編集プログラム |
EP3095494A1 (en) | 2015-05-19 | 2016-11-23 | Harmonix Music Systems, Inc. | Improvised guitar simulation |
US10101960B2 (en) * | 2015-05-19 | 2018-10-16 | Spotify Ab | System for managing transitions between media content items |
GB2581032B (en) * | 2015-06-22 | 2020-11-04 | Time Machine Capital Ltd | System and method for onset detection in a digital signal |
US9773486B2 (en) | 2015-09-28 | 2017-09-26 | Harmonix Music Systems, Inc. | Vocal improvisation |
US9799314B2 (en) | 2015-09-28 | 2017-10-24 | Harmonix Music Systems, Inc. | Dynamic improvisational fill feature |
US9502017B1 (en) * | 2016-04-14 | 2016-11-22 | Adobe Systems Incorporated | Automatic audio remixing with repetition avoidance |
GB2571340A (en) | 2018-02-26 | 2019-08-28 | Ai Music Ltd | Method of combining audio signals |
CN108202334B (zh) * | 2018-03-22 | 2020-10-23 | 东华大学 | 一种能够识别音乐节拍和风格的舞蹈机器人 |
CN108831425B (zh) * | 2018-06-22 | 2022-01-04 | 广州酷狗计算机科技有限公司 | 混音方法、装置及存储介质 |
KR102128315B1 (ko) | 2018-06-25 | 2020-06-30 | 서울시립대학교 산학협력단 | 가상 악기 시각화 기반 미디 음악 편곡 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
CN110867174A (zh) * | 2018-08-28 | 2020-03-06 | 努音有限公司 | 自动混音装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000056780A (ja) * | 1998-08-05 | 2000-02-25 | Yamaha Corp | カラオケ装置 |
JP2000244811A (ja) * | 1999-02-23 | 2000-09-08 | Makino Denki:Kk | ミキシング方法およびミキシング装置 |
JP2003022660A (ja) * | 2001-07-05 | 2003-01-24 | Kenwood Corp | 記録再生装置および記録モード表示方法 |
EP1575027A1 (en) * | 2002-12-19 | 2005-09-14 | Sony Computer Entertainment Inc. | Musical sound reproduction device and musical sound reproduction program |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06342282A (ja) | 1993-04-08 | 1994-12-13 | Sony Corp | 音楽出力装置 |
JP2970396B2 (ja) | 1994-04-22 | 1999-11-02 | ヤマハ株式会社 | 波形処理装置 |
JP2956569B2 (ja) * | 1996-02-26 | 1999-10-04 | ヤマハ株式会社 | カラオケ装置 |
JP3861381B2 (ja) * | 1997-06-13 | 2006-12-20 | ヤマハ株式会社 | カラオケ装置 |
JP3570309B2 (ja) * | 1999-09-24 | 2004-09-29 | ヤマハ株式会社 | リミックス装置および記憶媒体 |
JP3610841B2 (ja) * | 1999-10-13 | 2005-01-19 | ヤマハ株式会社 | 自動演奏装置及び方法 |
JP4293712B2 (ja) * | 1999-10-18 | 2009-07-08 | ローランド株式会社 | オーディオ波形再生装置 |
JP3843688B2 (ja) | 2000-03-15 | 2006-11-08 | ヤマハ株式会社 | 楽曲データ編集装置 |
JP3870671B2 (ja) | 2000-06-26 | 2007-01-24 | ヤマハ株式会社 | 携帯端末装置 |
JP2003114678A (ja) | 2001-07-30 | 2003-04-18 | Sony Corp | 情報処理装置及び情報処理方法、並びに記憶媒体 |
JP3778024B2 (ja) | 2001-07-30 | 2006-05-24 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに記憶媒体 |
JP2003114677A (ja) | 2001-07-30 | 2003-04-18 | Sony Corp | 情報処理装置及び情報処理方法、並びに記憶媒体 |
JP2003050588A (ja) * | 2001-08-06 | 2003-02-21 | Pioneer Electronic Corp | コンテンツ提供システムの管理サーバ装置、および端末装置 |
JP4646099B2 (ja) * | 2001-09-28 | 2011-03-09 | パイオニア株式会社 | オーディオ情報再生装置及びオーディオ情報再生システム |
US6933432B2 (en) | 2002-03-28 | 2005-08-23 | Koninklijke Philips Electronics N.V. | Media player with “DJ” mode |
US20030205124A1 (en) * | 2002-05-01 | 2003-11-06 | Foote Jonathan T. | Method and system for retrieving and sequencing music by rhythmic similarity |
JP2003345351A (ja) | 2002-05-27 | 2003-12-03 | Nec Corp | デジタルコンテンツ編集システムおよびデジタルコンテンツ編集方法 |
US7208672B2 (en) * | 2003-02-19 | 2007-04-24 | Noam Camiel | System and method for structuring and mixing audio tracks |
US7521623B2 (en) * | 2004-11-24 | 2009-04-21 | Apple Inc. | Music synchronization arrangement |
US7189913B2 (en) * | 2003-04-04 | 2007-03-13 | Apple Computer, Inc. | Method and apparatus for time compression and expansion of audio data with dynamic tempo change during playback |
US20040254660A1 (en) * | 2003-05-28 | 2004-12-16 | Alan Seefeldt | Method and device to process digital media streams |
JP2005156641A (ja) | 2003-11-20 | 2005-06-16 | Sony Corp | 再生態様制御装置及び再生態様制御方法 |
US7026536B2 (en) * | 2004-03-25 | 2006-04-11 | Microsoft Corporation | Beat analysis of musical signals |
JP2005303099A (ja) | 2004-04-14 | 2005-10-27 | Hitachi High-Technologies Corp | プラズマ処理装置およびプラズマ処理方法 |
US7592534B2 (en) * | 2004-04-19 | 2009-09-22 | Sony Computer Entertainment Inc. | Music composition reproduction device and composite device including the same |
US7518053B1 (en) * | 2005-09-01 | 2009-04-14 | Texas Instruments Incorporated | Beat matching for portable audio |
US20070074618A1 (en) * | 2005-10-04 | 2007-04-05 | Linda Vergo | System and method for selecting music to guide a user through an activity |
US20080097633A1 (en) * | 2006-09-29 | 2008-04-24 | Texas Instruments Incorporated | Beat matching systems |
-
2006
- 2006-12-07 US US12/092,641 patent/US7855333B2/en not_active Expired - Fee Related
- 2006-12-07 EP EP20060834645 patent/EP1959429A4/en not_active Withdrawn
- 2006-12-07 CN CN2006800457218A patent/CN101322180B/zh not_active Expired - Fee Related
- 2006-12-07 WO PCT/JP2006/324890 patent/WO2007066819A1/ja active Application Filing
- 2006-12-07 JP JP2007549215A patent/JPWO2007066819A1/ja active Pending
- 2006-12-07 KR KR1020087013806A patent/KR20080074977A/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000056780A (ja) * | 1998-08-05 | 2000-02-25 | Yamaha Corp | カラオケ装置 |
JP2000244811A (ja) * | 1999-02-23 | 2000-09-08 | Makino Denki:Kk | ミキシング方法およびミキシング装置 |
JP2003022660A (ja) * | 2001-07-05 | 2003-01-24 | Kenwood Corp | 記録再生装置および記録モード表示方法 |
EP1575027A1 (en) * | 2002-12-19 | 2005-09-14 | Sony Computer Entertainment Inc. | Musical sound reproduction device and musical sound reproduction program |
Also Published As
Publication number | Publication date |
---|---|
WO2007066819A1 (ja) | 2007-06-14 |
CN101322180A (zh) | 2008-12-10 |
US20090133568A1 (en) | 2009-05-28 |
EP1959429A4 (en) | 2011-08-31 |
US7855333B2 (en) | 2010-12-21 |
EP1959429A1 (en) | 2008-08-20 |
JPWO2007066819A1 (ja) | 2009-05-21 |
KR20080074977A (ko) | 2008-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101322180B (zh) | 音乐编辑装置和音乐编辑方法 | |
CN101326569B (zh) | 音乐编辑设备和音乐编辑方法 | |
CN101322179B (zh) | 音乐编辑设备、创建音乐编辑信息的方法及其记录介质 | |
Bartlett et al. | Practical Recording Techniques: The step-by-step approach to professional audio recording | |
US20080152165A1 (en) | Ad-hoc proximity multi-speaker entertainment | |
US20110112672A1 (en) | Systems and Methods of Constructing a Library of Audio Segments of a Song and an Interface for Generating a User-Defined Rendition of the Song | |
US20120308014A1 (en) | Audio playback device and method | |
KR20140039266A (ko) | 확장 미디어 레코딩 및 재생 | |
US20080013430A1 (en) | Method of Recording, Reproducing and Handling Audio Data in a Data Recording Medium | |
JP4489650B2 (ja) | 歌詞文字に基づいて切り貼り編集を行うカラオケ録音編集装置 | |
Huber | The Midi manual: A practical guide to Midi within Modern Music production | |
WO2007060605A2 (en) | Device for and method of processing audio data items | |
JP2000207417A (ja) | 情報提供装置及び情報提供方法 | |
JP2006048808A (ja) | オーディオ装置 | |
KR100552605B1 (ko) | 멀티 트랙 오디오 포맷 변환/재생 방법 및 시스템 | |
KR101562041B1 (ko) | 듀엣 모드의 미디어 콘텐츠 제작 방법 및 이에 사용되는 미디어 콘텐츠 제작 장치 | |
WO2008087548A2 (en) | Ad-hoc proximity multi-speaker entertainment | |
US20240055024A1 (en) | Generating and mixing audio arrangements | |
Dofat | Introduction to Digital Audio | |
Hepworth-Sawyer | Mixing as Part-History, Part-Present and Part-Future | |
Eagle | Audio Tools in Vegas | |
KR20020027683A (ko) | 인터넷상에서 하나의 곡에 대한 다양한 음악 정보 제공 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120111 Termination date: 20151207 |
|
EXPY | Termination of patent right or utility model |