CN108877753A - 音乐合成方法及***、终端以及计算机可读存储介质 - Google Patents
音乐合成方法及***、终端以及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108877753A CN108877753A CN201810622079.XA CN201810622079A CN108877753A CN 108877753 A CN108877753 A CN 108877753A CN 201810622079 A CN201810622079 A CN 201810622079A CN 108877753 A CN108877753 A CN 108877753A
- Authority
- CN
- China
- Prior art keywords
- music
- song
- text
- content
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims description 38
- 230000015572 biosynthetic process Effects 0.000 claims description 34
- 238000003786 synthesis reaction Methods 0.000 claims description 32
- 230000033764 rhythmic process Effects 0.000 claims description 23
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000011946 reduction process Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 7
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/366—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/02—Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/01—Correction of time axis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明提出一种音乐合成方法及***、终端以及计算机可读存储介质。该音乐合成方法包括:接收用户选择的曲目;获取文本内容;接收用户按照所述文本内容所录制的语音数据;根据所述文本内容中各个单字的声学特性,将所述语音数据切分成各个语音片段;以及根据所述曲目和所述语音数据,形成音乐文件。通过本发明的音乐合成方法,可以将用户的语音与曲目相结合,模拟最佳的音乐效果,进而可以让用户参与到音乐演唱和表演中来,提高了音乐的娱乐性。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种音乐合成方法及***、终端以及计算机可读存储介质。
背景技术
音乐是人们重要的娱乐方式之一,随着移动互联网的发展,音乐呈现出多样化的形式。其中,除了可以通过手机等智能设备收听音乐之外,用户还可以通过各形式的应用软件参与到音乐演唱和录制等活动中来。
但是,音乐演唱具有一定的专业性,一般需要用户的音色好,并且懂音调和节奏。这样,会使一些缺乏音乐知识,乐感较差的用户,很难参与其中。
因此,如何将用户的声音与曲目相结合,模拟出最佳的音乐效果,是大家十分关注的问题。
发明内容
本发明实施例提供一种音乐合成方法及***、终端以及计算机可读存储介质,以解决现有技术中的以上的一个或多个技术问题,或至少提供一种有益的选择。
第一方面,本发明实施例提供了一种音乐合成方法,所述方法包括:
从曲库中选择曲目;
获取文本内容;
接收用户按照所述文本内容所录制的语音数据;以及
根据所述曲目和所述语音数据,形成音乐文件。
结合第一方面,本发明在第一方面的第一种实施方式中,所述获取文本内容,包括:
接收用户从曲库中选择与所述曲目所对应的歌词文本。
结合第一方面,本发明在第一方面的第二种实施方式中,所述获取文本内容,包括:
接收用户输入的自创文本。
结合第一方面及上述第一方面的任一种实施方式,本发明在第一方面的第三种实施方式中,在根据所述曲目和所述语音数据,形成音乐文件之前,所述方法还包括:
对所述语音数据进行降噪处理。
结合第一方面和第一方面的第三种实施方式,本发明在第一方面的第四种实施方式中,所述根据所述文本内容和所述语音数据,形成音乐文件,包括:
根据所述文本内容中各个单字的声学特性,将所述语音数据切分成各个语音片段;以及
将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件。
结合第一方面和第一方面的第四种实施方式,本发明在第一方面的第五种实施方式中,所述根据所述文本内容中各个文字的声学特性,将所述语音数据切分成各个语音片段,包括:
查找文本内容中各个单字所对应的声学模型;以及
根据所述文本内容的文字顺序,通过各个单字所对应的预存的所述声学模型,将所述语音数据切分成与各个所述声学模型一一对齐的所述语音片段。
结合第一方面和第一方面的第四种实施方式,本发明在第一方面的第六种实施方式中,所述将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件,包括:
对所述曲目进行标注,并形成多个音乐片段;
将各个所述语音片段匹配到位置对应的所述音乐片段中;以及
根据音乐片段的曲调和节奏,调整所述语音片段,以形成音乐文件。
结合第一方面和第一方面的第六种实施方式,本发明在第一方面的第七种实施方式中,所述对所述曲目进行标注,并形成多个音乐片段,包括:
根据所述曲目的原唱,标注出所述曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。
第二方面,本发明实施例提供了一种音乐合成***,所述***包括:
曲目选择单元,配置用于接收用户选择的曲目;
文本获取单元,配置用于获取文本内容;
语音录制单元,配置用于接收用户按照所述文本内容所录制的语音数据;以及
音乐形成单元,配置用于根据所述曲目和所述语音数据,形成音乐文件。
结合第二方面,本发明在第二方面的第一种实施方式中,还配置用于接收用户从曲库中选择的与所述曲目所对应的歌词文本。
结合第二方面,本发明在第二方面的第二种实施方式中,所述文本获取单元,还配置用于接收用户输入的自创文本。
结合第二方面及上述第二方面的任一种实施方式,本发明在第二方面的第三种实施方式中,所述***还包括:
语音降噪单元,配置用于对所述语音数据进行降噪处理。
结合第二方面和第二方面的第三种实施方式,本发明在第二方面的第四种实施方式中,所述音乐形成单元包括:
语音切分单元,配置用于根据所述文本内容中各个单字的声学特性,将所述语音数据切分成各个语音片段;以及
音乐合成单元,配置用于将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件。
结合第二方面和第二方面的第四种实施方式,本发明在第二方面的第五种实施方式中,所述语音切分单元包括:
对应模型单元,配置用于查找文本内容中各个单字所对应的预存的声学模型;以及
切分片段单元,配置用于根据所述文本内容的文字顺序,通过各个单字所对应的所述声学模型,将所述语音数据切分成与各个所述声学模型一一对齐的所述语音片段。
结合第二方面和第二方面的第四种实施方式,本发明在第二方面的第六种实施方式中,所述音乐合成单元包括:
形成片段单元,配置用于对所述曲目进行标注,并形成多个音乐片段;
匹配位置单元,配置用于将各个所述语音片段匹配到位置对应的所述音乐片段中;以及
调整片段单元,配置用于根据音乐片段的曲调和节奏,调整所述语音片段,以形成音乐文件。
结合第二方面和第二方面的第六种实施方式,本发明在第二方面的第七种实施方式中,所述形成片段单元,还配置用于根据所述曲目的原唱,标注出所述曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。
第三方面,本发明实施例提供了一种音乐合成终端,所述终端包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述任一所述音乐合成方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述第一方面中任一种所述音乐合成方法。
所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
上述技术方案中的一个技术方案具有如下优点或有益效果:通过本发明的音乐合成方法,可以将用户的语音与曲目相结合,模拟最佳的音乐效果,进而可以让用户参与到音乐演唱和表演中来,提高了音乐的娱乐性。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1示出了根据本发明一个实施例的音乐合成方法100的流程图;
图2示出了根据本发明另一个实施例的音乐合成方法200的流程图;
图3示出了根据本发明另一个实施例的音乐合成方法300的流程图;
图4示出了根据本发明另一个实施例的音乐合成方法400的流程图;
图5示出了根据本发明另一个实施例的音乐合成方法500的流程图;
图6示出了根据本发明一个实施例的音乐合成***600的结构框图;
图7示出了根据本发明另一个实施例的音乐合成***700的结构框图;
图8示出了根据本发明另一个实施例的音乐合成***800的结构框图;
图9示出了根据本发明另一个实施例的音乐合成***900的结构框图;
图10示出了根据本发明另一个实施例的音乐合成***1000的结构框图;以及
图11示出了根据本发明的音乐合成终端的示意图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
下面结合图1至图11所示,对本发明的音乐合成方法、***和终端进行描述。
参见图1所示,本发明的音乐合成方法100,包括步骤S101至步骤S104。
首先,通过曲目选择步骤S101,可以接收用户所选择的曲目。用户可以在预设的曲库中,搜索并选择自己喜欢的曲目。其中,曲目的音乐类型可以包括但不限于:流行、摇滚、说唱、民谣等。
接着,通过文本获取步骤S102,可以获取文本内容。优选地,用户可以从曲库中选择与选定曲目所对应的歌词文本,在步骤S102中,可以获取该歌词文本作为文本内容。或者,用户可以输入自创文本,在步骤S102中,可以获取该自创文本作为文本内容。
然后,通过语音录制步骤S103,接收用户按照文本内容所录制的语音数据。用户可以根据所选择的歌词文本或者自己所输入的自创文本,朗读出文本的内容,并录制成语音数据。在步骤S103中,可以接收用户所录制的语音数据。
再通过音乐形成步骤S104,根据所选择的曲目,以及在步骤S103中所接收到的语音数据,形成音乐文件。
根据本发明的音乐合成方法100,可以将用户录制的语音和选定的曲目相结合,形成音乐文件,使音乐表演变的简单,提高了用户表演的积极性。
参见图2所示,本发明一个实施例的音乐合成方法200,在方法100的基础上,音乐形成步骤S104可以包括语音切分步骤S114和音乐合成步骤S115。
语音切分步骤S114,根据文本内容中各个文字的声学特性,可以将语音数据切分成各个语音片段。其中,声学特性至少包括以下之一:音调、响度、音高和音长。
在一种实施例中,具体地,可以从海量的音频文件和数据中,收集各个单字所对应的音调、响度、音高和音长等特性。根据获取到的内容文本,可以预测出音频数据中的内容。然后,根据预测内容的各个单字的音调、响度、音高和音长等特性,依次对齐到语音数据中,从而,将语音数据切分成各个语音片段。
最后,通过音乐合成步骤S115,可以将各个语音片段匹配到曲目之中,并根据曲目的曲调和节奏,调整语音片段,以形成音乐文件。
在一种实施例中,可以将切分好的语音片段,对应地匹配到所选定的曲目之中,并且,可以根据曲目的曲调和节奏,对每个语音片段的位置、曲调、音高和音长等进行调整。从而,可以使得每个语音片段的位置、曲调、音高和音长等与曲目的曲调和节奏相匹配,形成音乐文件。
根据本发明的音乐合成方法200,可以将用户录制的语音匹配到选定的曲目中,并且,通过曲目的曲调和节奏,调整用户的语音,以使用户的语音能够与曲目相结合。通过方法200不仅可以模拟出最佳的音乐效果,还可以让用户参与到音乐演唱和表演中来,提高了音乐的娱乐性。
参见图3所示,本发明一个实施例的音乐合成方法300,在方法100或方法200的基础上,在进行音乐形成步骤S104之前,还包括语音降噪步骤S104’。
在语音降噪步骤S104’中,可以对语音数据进行降噪处理。
在一种实施例中,降噪处理可以对音频数据进行抑制噪音和去混响处理,进一步提高了在噪声环境下对语音数据的降噪性能。当然,也可以采用非线性处理,例如信号放大等,来提高降噪性能。
通过本发明的方法300,可以对语音数据进行降噪处理,减少了语音数据中的噪音干扰,保证了语音数据的质量。
参见图4所示,本发明一个实施例的音乐合成方法400,在方法300或方法200或方法100的基础上,语音切分步骤S114进一步包括对应模型步骤S1141和切分片段步骤S1142。
在对应模型步骤S1141中,可以查找文本内容中各个单字所对应的声学模型。其中,声学模型可以预存在应用所述音乐合成方法的程序中。并且,声学模型可以通过统计海量音频中各个单字的发音方式,并通过神经网络算法对对不同的发音方式进行深度学习和分析而得出。发音方式至少可以包括单字在音频中的音调、响度、音高和音长等。
在一种实施例中,以“今”为例,海量数据中包括音频“今天你打算做什么”,“我想今天去游泳”等,但是,“今”在这几段音频中的位置不同,并且来自不同的音频中的“今”的发音方式,即,音调、响度、音高和音长都不相同。可以将这些音频中关于“今”的数据统计汇总,并通过进行深度学习和分析,最后计算得出“今”的声学模型。
进一步地,以获取到的文本内容“今天下雪了”为例,可以在预存的声学模型中,分别找到“今”、“天”、“下”、“雪”、“了”每个单字所对应的声学模型。
接着,进入切分片段步骤S1142,根据文本内容的文字顺序,即,“今”、“天”、“下”、“雪”、“了”这五个单字的顺序,通过各个单字所对应的所述声学模型,将用户录制的语音数据,按顺序切分成与各个声学模型一一对齐的语音片段。
通过本发明的方法400,能够精确地将用户录制的音频数据切成一个一个语音片段,每个片段包含一个单字,并且可以保持原始语音数据中的内容部分不造成损失。
参见图5所示,本发明一个实施例的音乐合成方法500,在方法400或方法300或方法200或方法100的基础上,音乐合成步骤S115进一步包括形成片段步骤S1151、匹配位置步骤S1152和调整片段步骤S1153。
在形成片段步骤S1151中,可以对所述曲目进行标注,并形成多个音乐片段。
在一种实施例中,可以根据所曲目的原唱,标注出曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。以选定的曲目《好日子》中的“今天是个好日子”为例,可以根据原唱,标注出曲目中的“今”、“天”、“是”、“个”、“好”、“日”、“子”所对应的曲调、音高、位置和音长等,从而,形成“今”、“天”、“是”、“个”、“好”、“日”、“子”各自所对应的音乐片段。还可以将多个音乐片段整理,制成音乐模板。这样,在用户选择曲目时,可以直接调用该曲目的音乐模板,对用户的语音数据进行调整。
接着,在匹配位置步骤S1152中,可以将由切分片段步骤S1142所切分出的多个语音片段,依次匹配到位置对应的音乐片段之中。
然后,通过调整片段步骤S1153,根据音乐片段的曲调和节奏,调整语音片段的曲调、音高、音长、起始位置等。从而,将语音片段调整成与音乐片段的音调和节奏相匹配,以形成音乐文件。
通过本发明的方法500,能够根据曲目的音调和节奏,模拟用户演唱音乐的效果,可以让用户参与到音乐演唱和表演中来,提高了音乐的娱乐性。
参见图6所示,一种音乐合成***600,包括:曲目选择单元601、文本获取单元602、语音录制单元603和音乐形成单元604。
曲目选择单元601,配置用于接收用户所选择的曲目。
文本获取单元602,配置用于获取文本内容。优选地,用户可以从曲库中选择与选定曲目所对应的歌词文本,文本获取单元602可以获取该歌词文本作为文本内容。或者,用户可以输入自创文本,文本获取单元602可以获取该自创文本作为文本内容。
语音录制单元603,配置用于接收用户按照文本内容所录制的语音数据。用户可以根据所选择的歌词文本或者自己所输入的自创文本,朗读出文本的内容,并录制成语音数据。语音录制单元603可以接收用户录制的语音数据。
再通过音乐形成单元604,配置用于根据曲目和所接收到的语音数据,形成音乐文件。
具体地,图6所示的音乐合成***600与图1所示的音乐合成方法100相对应。图6所示的***的具体实现方式参照图1所示的方法的实施例中的描述。
参见图7所示,一种音乐合成***700,在***600的基础上,音乐形成单元604还包括语音切分单元614和音乐合成单元615。
语音切分单元614可以根据文本内容中各个文字的声学特性,可以将语音数据切分成各个语音片段。其中,声学特性至少包括以下之一:音调、响度、音高和音长。
在一种实施例中,具体地,可以从海量的音频文件和数据中,收集各个单字所对应的音调、响度和音长等特性。根据获取到的内容文本,可以预测出音频数据中的内容。然后,根据预测内容的各个单字的音调、响度和音长等特性,依次对齐到语音数据中,从而,将语音数据切分成各个语音片段。
最后,通过音乐合成单元615,可以将各个语音片段匹配到曲目之中,并根据曲目的音调和节奏,调整语音片段,以形成音乐文件。
在一种实施例中,可以将切分好的语音片段,对应地匹配到所选定的曲目之中,并且,可以根据曲目的曲调和节奏,对每个语音片段的曲调、音高、位置和音长等进行调整。从而,可以使得每个语音片段的曲调、音高、位置等与曲目的曲调和节奏相匹配,形成音乐文件。
根据本发明的音乐合成***700,可以将用户录制的语音匹配到选定的曲目中,并且,通过曲目的曲调和节奏,调整用户的语音,以使用户的语音能够与曲目相结合。***700不仅可以模拟出最佳的音乐效果,还可以让用户参与到音乐演唱和表演中来,提高了音乐的娱乐性。
具体地,图7所示的音乐合成***700与图2所示的音乐合成方法200相对应。图7所示的***的具体实现方式参照图2所示的方法的实施例中的描述。
参见图8所示,一种音乐合成***800,在***700或***600的基础上还包括:语音降噪单元604’。
语音降噪单元604’,配置用于对语音数据进行降噪处理。
具体地,图8所示的音乐合成***800与图3所示的音乐合成方法300相对应。图8所示的***的具体实现方式参照图3所示的方法的实施例中的描述。
参见图9所示,一种音乐合成***900,在***800或***700或***600的基础上,语音切分单元614进一步包括对应模型单元6141和切分片段单元6142。
对应模型单元6141,配置用于查找文本内容中各个单字所对应的声学模型。
切分片段单元6142,配置用于根据所述文本内容的文字顺序,通过各个单字所对应的所述声学模型,将所述语音数据切分成与各个所述声学模型一一对齐的所述语音片段。
其中,所述声学模型预存在应用所述音乐合成方法的程序中,所述声学模型是通过统计海量音频中各个单字的发音方式,并通过对不同的发音方式进行深度学习和分析而得出的。发音方式至少包括以下之一:音调、响度、音高和音长。
具体地,图9所示的音乐合成***900与图4所示的音乐合成方法400相对应。图9所示的***的具体实现方式参照图4所示的方法的实施例中的描述。
参见图10所示,一种音乐合成***1000,在***900或***800或***700或***600的基础上,音乐合成单元615进一步包括形成片段单元6151、匹配位置单元6152和调整片段单元6153。
形成片段单元6151,配置用于对曲目进行标注,形成多个音乐片段。进一步地,形成模板单元6151可以根据所述曲目的原唱,标注出曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。
匹配位置单元6152,配置用于将各个语音片段匹配到位置对应的音乐片段中。
调整片段单元6153,配置用于根据音乐片段的曲调和节奏,调整语音片段,以形成音乐文件。
具体地,图10所示的音乐合成***1000与图5所示的音乐合成方法500相对应。图10所示的***的具体实现方式参照图5所示的方法的实施例中的描述。
参见图11所示,一种音乐合成终端包括存储器910和处理器920。存储器910内存储有可在处理器920上运行的计算机程序。处理器920执行计算机程序时实现上述实施例中的音乐合成方法。存储器910和处理器920的数量可以为一个或多个。
该服务器还包括:
通信接口930,用于与外界设备进行通信,进行数据交互传输。
存储器910可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器910、处理器920和通信接口930独立实现,则存储器910、处理器920和通信接口930可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,PeripheralComponent)总线或扩展工业标准体系结构(EISA,Extended Industry StandardComponent)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
在一种实施例中,本发明还提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述第一方面中任一种所述音乐合成方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (18)
1.一种音乐合成方法,其特征在于,所述方法包括:
接收用户选择的曲目;
获取文本内容;
接收用户按照所述文本内容所录制的语音数据;以及
根据所述曲目和所述语音数据,形成音乐文件。
2.根据权利要求1所述的方法,其特征在于,所述获取文本内容,包括:
接收用户从曲库中选择的与所述曲目所对应的歌词文本。
3.根据权利要求1所述的方法,其特征在于,所述获取文本内容,包括:
接收用户输入的自创文本。
4.根据权利要求1-3任一项权利要求所述的方法,其特征在于,在所述根据所述曲目和所述语音数据,形成音乐文件之前,所述方法还包括:
对所述语音数据进行降噪处理。
5.根据权利要求4所述的方法,其特征在于,所述根据所述文本内容和所述语音数据,形成音乐文件,包括:
根据所述文本内容中各个单字的声学特性,将所述语音数据切分成各个语音片段;以及
将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件。
6.根据权利要求5所述的方法,其特征在于,所述根据所述文本内容中各个文字的声学特性,将所述语音数据切分成各个语音片段,包括:
查找文本内容中各个单字所对应的预存的声学模型;以及
根据所述文本内容的文字顺序,通过各个单字所对应的所述声学模型,将所述语音数据切分成与各个所述声学模型一一对齐的所述语音片段。
7.根据权利要求5所述的方法,其特征在于,所述将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件,包括:
对所述曲目进行标注,并形成多个音乐片段;
将各个所述语音片段匹配到位置对应的所述音乐片段中;以及
根据音乐片段的曲调和节奏,调整所述语音片段,以形成音乐文件。
8.根据权利要求7所述的方法,其特征在于,所述对所述曲目进行标注,并形成多个音乐片段,包括:
根据所述曲目的原唱,标注出所述曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。
9.一种音乐合成***,其特征在于,所述***包括:
曲目选择单元,配置用于接收用户选择的曲目;
文本获取单元,配置用于获取文本内容;
语音录制单元,配置用于接收用户按照所述文本内容所录制的语音数据;以及
音乐形成单元,配置用于根据所述曲目和所述语音数据,形成音乐文件。
10.根据权利要求9所述的***,其特征在于,所述文本获取单元,还配置用于接收用户从曲库中选择的与所述曲目所对应的歌词文本。
11.根据权利要求9所述的***,其特征在于,所述文本获取单元,还配置用于接收用户输入的自创文本。
12.根据权利要求9-11任一项权利要求所述的***,其特征在于,所述***还包括:
语音降噪单元,配置用于对所述语音数据进行降噪处理。
13.根据权利要求12所述的***,其特征在于,所述音乐形成单元包括:
语音切分单元,配置用于根据所述文本内容中各个单字的声学特性,将所述语音数据切分成各个语音片段;以及
音乐合成单元,配置用于将各个所述语音片段匹配到所述曲目之中,并根据所述曲目的曲调和节奏,调整所述语音片段,以形成音乐文件。
14.根据权利要求13所述的***,其特征在于,所述语音切分单元包括:
对应模型单元,配置用于查找文本内容中各个单字所对应的预存的声学模型;以及
切分片段单元,配置用于根据所述文本内容的文字顺序,通过各个单字所对应的所述声学模型,将所述语音数据切分成与各个所述声学模型一一对齐的所述语音片段。
15.根据权利要求13所述的***,其特征在于,所述音乐合成单元包括:
形成片段单元,配置用于对所述曲目进行标注,并形成多个音乐片段;
匹配位置单元,配置用于将各个所述语音片段匹配到位置对应的所述音乐片段中;以及
调整片段单元,配置用于根据音乐片段的曲调和节奏,调整所述语音片段,以形成音乐文件。
16.根据权利要求15所述的***,其特征在于,所述形成片段单元,还配置用于根据所述曲目的原唱,标注出所述曲目中的各个单字的曲调、音高、位置和音长,以形成多个音乐片段。
17.一种音乐合成终端,其特征在于,所述终端包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810622079.XA CN108877753B (zh) | 2018-06-15 | 2018-06-15 | 音乐合成方法及***、终端以及计算机可读存储介质 |
JP2018228669A JP6793708B2 (ja) | 2018-06-15 | 2018-12-06 | 音楽合成方法、システム、端末、コンピュータ可読記憶媒体及びプログラム |
US16/214,357 US10971125B2 (en) | 2018-06-15 | 2018-12-10 | Music synthesis method, system, terminal and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810622079.XA CN108877753B (zh) | 2018-06-15 | 2018-06-15 | 音乐合成方法及***、终端以及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108877753A true CN108877753A (zh) | 2018-11-23 |
CN108877753B CN108877753B (zh) | 2020-01-21 |
Family
ID=64339310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810622079.XA Active CN108877753B (zh) | 2018-06-15 | 2018-06-15 | 音乐合成方法及***、终端以及计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10971125B2 (zh) |
JP (1) | JP6793708B2 (zh) |
CN (1) | CN108877753B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112071287A (zh) * | 2020-09-10 | 2020-12-11 | 北京有竹居网络技术有限公司 | 用于生成歌谱的方法、装置、电子设备和计算机可读介质 |
CN112307776A (zh) * | 2019-07-26 | 2021-02-02 | 国际商业机器公司 | 使用深度学习进行自动翻译 |
CN112542155A (zh) * | 2020-11-27 | 2021-03-23 | 北京百度网讯科技有限公司 | 歌曲合成方法及模型训练方法、装置、设备与存储介质 |
CN112863530A (zh) * | 2021-01-07 | 2021-05-28 | 广州欢城文化传媒有限公司 | 一种声音作品的生成方法和装置 |
WO2023211387A3 (zh) * | 2022-04-29 | 2023-12-28 | 脸萌有限公司 | 一种音乐生成方法、装置、***以及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877753B (zh) * | 2018-06-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 音乐合成方法及***、终端以及计算机可读存储介质 |
US11495200B2 (en) * | 2021-01-14 | 2022-11-08 | Agora Lab, Inc. | Real-time speech to singing conversion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090306987A1 (en) * | 2008-05-28 | 2009-12-10 | National Institute Of Advanced Industrial Science And Technology | Singing synthesis parameter data estimation system |
CN101901598A (zh) * | 2010-06-30 | 2010-12-01 | 北京捷通华声语音技术有限公司 | 一种哼唱合成方法和*** |
CN104391980A (zh) * | 2014-12-08 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 生成歌曲的方法和装置 |
CN108053814A (zh) * | 2017-11-06 | 2018-05-18 | 芋头科技(杭州)有限公司 | 一种模拟用户歌声的语音合成***及方法 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3941611B2 (ja) * | 2002-07-08 | 2007-07-04 | ヤマハ株式会社 | 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム |
JP4415573B2 (ja) | 2003-06-13 | 2010-02-17 | ソニー株式会社 | 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置 |
JP5471858B2 (ja) * | 2009-07-02 | 2014-04-16 | ヤマハ株式会社 | 歌唱合成用データベース生成装置、およびピッチカーブ生成装置 |
TWI394142B (zh) * | 2009-08-25 | 2013-04-21 | Inst Information Industry | 歌聲合成系統、方法、以及裝置 |
JP5510852B2 (ja) * | 2010-07-20 | 2014-06-04 | 独立行政法人産業技術総合研究所 | 声色変化反映歌声合成システム及び声色変化反映歌声合成方法 |
KR101274961B1 (ko) * | 2011-04-28 | 2013-06-13 | (주)티젠스 | 클라이언트단말기를 이용한 음악 컨텐츠 제작시스템 |
US8729374B2 (en) * | 2011-07-22 | 2014-05-20 | Howling Technology | Method and apparatus for converting a spoken voice to a singing voice sung in the manner of a target singer |
WO2013133768A1 (en) * | 2012-03-06 | 2013-09-12 | Agency For Science, Technology And Research | Method and system for template-based personalized singing synthesis |
KR102038171B1 (ko) * | 2012-03-29 | 2019-10-29 | 스뮬, 인코포레이티드 | 타겟 운율 또는 리듬이 있는 노래, 랩 또는 다른 가청 표현으로의 스피치 자동 변환 |
JP5895740B2 (ja) * | 2012-06-27 | 2016-03-30 | ヤマハ株式会社 | 歌唱合成を行うための装置およびプログラム |
CN103440862B (zh) | 2013-08-16 | 2016-03-09 | 北京奇艺世纪科技有限公司 | 一种语音与音乐合成的方法、装置以及设备 |
JP6070952B2 (ja) | 2013-12-26 | 2017-02-01 | ブラザー工業株式会社 | カラオケ装置及びカラオケ用プログラム |
JP2017181793A (ja) | 2016-03-30 | 2017-10-05 | ブラザー工業株式会社 | 音響処理装置、及びプログラム |
US10861478B2 (en) * | 2016-05-30 | 2020-12-08 | Oticon A/S | Audio processing device and a method for estimating a signal-to-noise-ratio of a sound signal |
CN107871492B (zh) | 2016-12-26 | 2020-12-15 | 珠海市杰理科技股份有限公司 | 音乐合成方法和*** |
JP7059524B2 (ja) * | 2017-06-14 | 2022-04-26 | ヤマハ株式会社 | 歌唱合成方法、歌唱合成システム、及びプログラム |
JP7143576B2 (ja) * | 2017-09-26 | 2022-09-29 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法及びそのプログラム |
JP7000782B2 (ja) * | 2017-09-29 | 2022-01-19 | ヤマハ株式会社 | 歌唱音声の編集支援方法、および歌唱音声の編集支援装置 |
JP2019066649A (ja) * | 2017-09-29 | 2019-04-25 | ヤマハ株式会社 | 歌唱音声の編集支援方法、および歌唱音声の編集支援装置 |
CN108877753B (zh) * | 2018-06-15 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 音乐合成方法及***、终端以及计算机可读存储介质 |
JP6547878B1 (ja) * | 2018-06-21 | 2019-07-24 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
-
2018
- 2018-06-15 CN CN201810622079.XA patent/CN108877753B/zh active Active
- 2018-12-06 JP JP2018228669A patent/JP6793708B2/ja active Active
- 2018-12-10 US US16/214,357 patent/US10971125B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090306987A1 (en) * | 2008-05-28 | 2009-12-10 | National Institute Of Advanced Industrial Science And Technology | Singing synthesis parameter data estimation system |
CN101901598A (zh) * | 2010-06-30 | 2010-12-01 | 北京捷通华声语音技术有限公司 | 一种哼唱合成方法和*** |
CN104391980A (zh) * | 2014-12-08 | 2015-03-04 | 百度在线网络技术(北京)有限公司 | 生成歌曲的方法和装置 |
CN108053814A (zh) * | 2017-11-06 | 2018-05-18 | 芋头科技(杭州)有限公司 | 一种模拟用户歌声的语音合成***及方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112307776A (zh) * | 2019-07-26 | 2021-02-02 | 国际商业机器公司 | 使用深度学习进行自动翻译 |
CN112071287A (zh) * | 2020-09-10 | 2020-12-11 | 北京有竹居网络技术有限公司 | 用于生成歌谱的方法、装置、电子设备和计算机可读介质 |
CN112542155A (zh) * | 2020-11-27 | 2021-03-23 | 北京百度网讯科技有限公司 | 歌曲合成方法及模型训练方法、装置、设备与存储介质 |
CN112542155B (zh) * | 2020-11-27 | 2021-09-21 | 北京百度网讯科技有限公司 | 歌曲合成方法及模型训练方法、装置、设备与存储介质 |
CN112863530A (zh) * | 2021-01-07 | 2021-05-28 | 广州欢城文化传媒有限公司 | 一种声音作品的生成方法和装置 |
WO2023211387A3 (zh) * | 2022-04-29 | 2023-12-28 | 脸萌有限公司 | 一种音乐生成方法、装置、***以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6793708B2 (ja) | 2020-12-02 |
US20190385578A1 (en) | 2019-12-19 |
JP2019219638A (ja) | 2019-12-26 |
US10971125B2 (en) | 2021-04-06 |
CN108877753B (zh) | 2020-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108877753A (zh) | 音乐合成方法及***、终端以及计算机可读存储介质 | |
Kelman | Rethinking the soundscape: A critical genealogy of a key term in sound studies | |
Harper et al. | Lo-Fi aesthetics in popular music discourse | |
CN107481735A (zh) | 一种转换音频发声的方法、服务器及计算机可读存储介质 | |
Mckeown Green | What is music? Is there a definitive answer? | |
CN107122493A (zh) | 歌曲播放方法和装置 | |
Green | User serviceable parts: Practice, technology, sociality and method in live electronic musicking | |
Chapman | Music and digital media across the Lao diaspora | |
McRae et al. | (Re) sounding pedagogy: a themed issue on critical communication pedagogies of/for/in sound | |
JP7262142B2 (ja) | 複数の音声システムが装着されたオンラインメディアサービス具現方法 | |
Henderson | Mande Music in the Black Atlantic: Migration and the Affordances of World Music Record Production | |
Cateforis | “Time to Pretend”: The Emerging Adulthood of Indie Rock | |
Armstrong | Hot collecting off the record: ralph J. Gleason’s start in music journalism | |
November | Performance history and Beethoven's string quartets: Setting the record crooked | |
Bijsterveld et al. | Resounding Contestation: The Ambiguous Status of Sonic Skills | |
Kheshti | Inversion, Signifiance and the Loss of the Self in Sound | |
Papenburg | Listening Devices: Music Media in the Pre-digital Era | |
Fairchild | The medium and materials of popular music:‘Hound Dog’, turntablism and muzak as situated musical practices1 | |
Quick | The Quality of the Relational—Challenges in a Triangulated Analysis of ‘Theatre-Musicking’in German Contemporary Theatre | |
Kelleher | The contributions of Thomas Alva Edison to music education | |
Rumsey | Quantifying recording techniques | |
Carrington | The First Innovation to Record Sound | |
North | Searching for Dowland | |
Babington | Early British song | |
Rice | The History of Listening to Music: Displaying Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |