CN111737414A - 一种歌曲推荐方法及装置、服务器、存储介质 - Google Patents
一种歌曲推荐方法及装置、服务器、存储介质 Download PDFInfo
- Publication number
- CN111737414A CN111737414A CN202010500439.6A CN202010500439A CN111737414A CN 111737414 A CN111737414 A CN 111737414A CN 202010500439 A CN202010500439 A CN 202010500439A CN 111737414 A CN111737414 A CN 111737414A
- Authority
- CN
- China
- Prior art keywords
- emotion
- song
- information
- label
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 230000008451 emotion Effects 0.000 claims abstract description 519
- 238000012216 screening Methods 0.000 claims abstract description 24
- 238000003062 neural network model Methods 0.000 claims description 43
- 230000000306 recurrent effect Effects 0.000 claims description 27
- 125000004122 cyclic group Chemical group 0.000 claims description 22
- 230000002996 emotional effect Effects 0.000 claims description 16
- 238000013518 transcription Methods 0.000 claims description 16
- 230000035897 transcription Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 238000012163 sequencing technique Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 10
- 238000011176 pooling Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000002040 relaxant effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001914 calming effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 244000208060 Lawsonia inermis Species 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种歌曲推荐方法及装置、服务器、存储介质,包括:将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与检索信息匹配的情绪词,并将与检索信息匹配的情绪词确定为情绪关键词;获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,待选歌曲集合包括至少一首歌曲;确定情绪关键词在待选歌曲集合中对应的情绪类别,将待选歌曲集合中属于情绪类别的至少一个情绪标签确定为与情绪关键词匹配的至少一个情绪标签,并将至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从初始歌曲集合中筛选出推荐歌曲集合。采用本申请,可以提升用户听歌体验,降低歌曲库的人工运营成本。
Description
技术领域
本申请涉及音乐推荐***领域,尤其涉及一种歌曲推荐方法及装置、服务器、存储介质。
背景技术
目前,用户在听歌的过程中,常常是通过文字搜索歌曲名、歌手名、专辑名等方式选择自己想听的歌曲,这种方式对于精准匹配是有效的,但是,由于歌曲信息中的歌曲名、歌手名、专辑名信息并不包含歌曲内容的情绪类型,如果用户想要准确快速获取具有某种特定情绪类型的歌曲,在上述情况中用户的需求是无法被满足的。因此,如何根据用户的输入信息,精准地向用户推送用户感兴趣的情绪类型的歌曲是需要解决的问题。
发明内容
本申请实施例提供一种歌曲推荐方法及装置、服务器、存储介质,以期使得用户快速获取感兴趣的情绪类型的歌曲,提升用户听歌体验,降低歌曲库的人工运营成本。
第一方面,为本申请实施例提供了一种歌曲推荐方法,包括:
将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述获取待选歌曲集合中每一首歌曲的至少一个情绪标签之前,包括:
提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
其中,所述情绪标签预测模型包括卷积层、循环层和转录层;
可选的,所述将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型之后,包括:
提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
可选的,所述提取待选歌曲集合中每一首歌曲的情绪文本信息,包括:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
可选的,所述方法还包括:
计算所述情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,将与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
所述基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合,包括:
将所述初始歌曲集合中所述歌曲播放次数大于预设播放次数阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
其中,所述检索信息包括语音信息;
可选的,所述将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词,包括:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息;
将所述检索文本信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索文本信息匹配的情绪词,并将所述与所述检索文本信息匹配的情绪词确定为情绪关键词。
第二方面,为本申请实施例提供了一种歌曲推荐装置,包括:
接收匹配单元,用于将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取单元,用于获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定筛选单元,用于确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述装置还包括:
提取单元,用于提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
模型训练单元,用于根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
模型调整单元,用于根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
模型确定单元,用于当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
其中,所述情绪标签预测模型包括卷积层、循环层和转录层;
可选的,所述装置还包括:
提取输入单元,用于提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
特征提取单元,用于通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
预测单元,用于通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
转录单元,用于通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
可选的,所述提取输入单元,具体用于:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
可选的,装置还包括:
计算确定筛选单元,用于计算所述情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,将与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
所述确定筛选单元或所述计算确定筛选单元,具体用于:将所述初始歌曲集合中所述歌曲播放次数大于预设播放次数阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
其中,所述检索信息包括语音信息;
可选的,所述接收匹配单元,具体用于:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息;
将所述检索文本信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索文本信息匹配的情绪词,并将所述与所述检索文本信息匹配的情绪词确定为情绪关键词。
第三方面,为本申请实施例提供了一种服务器,包括处理器、存储器和收发器,所述处理器、所述存储器和所述收发器相互连接,其中,所述存储器用于存储支持所述电子设备执行上述歌曲推荐方法的计算机程序,所述计算机程序包括程序指令;所述处理器被配置用于调用所述程序指令,执行如上述本申请实施例一方面中所述的歌曲推荐方法。
第四方面,为本申请实施例提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序包括程序指令;所述程序指令当被处理器执行时使所述处理器执行如本申请实施例一方面中所述的歌曲推荐方法。
在本申请实施例中,将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与检索信息匹配的情绪词,并将与所述检索信息匹配的情绪词确定为情绪关键词;获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,待选歌曲集合包括至少一首歌曲;确定情绪关键词在待选歌曲集合中对应的情绪类别,将待选歌曲集合中属于情绪类别的至少一个情绪标签确定为与情绪关键词匹配的至少一个情绪标签,并将至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从初始歌曲集合中筛选出推荐歌曲集合。这样可以使得用户快速获取感兴趣的情绪类型的歌曲,提升用户听歌体验,降低歌曲库的人工运营成本。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种可能的***架构图;
图2是本申请实施例提供的一种歌曲推荐方法的流程示意图;
图3是本申请实施例提供的另一种歌曲推荐方法的流程示意图;
图4a和图4b是本申请实施例提供的一种输入提醒消息的人机交互界面示意图;
图5是本申请实施例提供的一种歌曲推荐装置的结构示意图;
图6是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,是本申请适用的一种可能的***架构图。如图1所示,该***架构图包括用户终端和服务器,其中,用户终端包括多个用户对应的用户终端。第一用户终端通过人机交互界面向第一用户发送输入提醒消息,第一用户根据输入提醒消息输入检索信息,第一用户终端得到检索信息,并将检索信息发送给服务器,服务器将接收到的检索信息与情绪文本数据库进行匹配,得到与检索信息匹配的情绪关键词,并将情绪关键词与预设的待选歌曲集合中的每一个情绪标签进行匹配,得到与情绪关键词匹配的至少一个情绪标签,根据与情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定推荐歌曲集合,并将推荐歌曲集合发送给第一用户终端,第一用户终端通过人机交互界面进行展示。
本申请涉及的用户终端可以指用户设备(user equipment,UE),可以为手持终端、笔记本电脑、用户单元(subscriber unit)、蜂窝电话(cellular phone)、智能电话(smartphone)、个人数字助理(personal digital assistant,PDA)电脑、平板型电脑、无线调制解调器(modem)、手持设备(handheld)、膝上型电脑(laptop computer)、无绳电话(cordlessphone)或者无线本地环路(wireless local loop,WLL)台、机器类型通信(machine typecommunication,MTC)终端或是其他设备。
请参见图2,是本申请实施例提供的一种歌曲推荐方法的流程示意图。如图2所示,该方法实施例包括如下步骤:
S101,将接收到的检索信息与情绪文本数据库中的每个情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词。
其中,检索信息可以包括文本信息,情绪文本数据库包括至少一个情绪词。
本方法实施例中,服务器接收到检索信息的具体实现方式,请参考后续实施例的描述。
在可选的实施例中,服务器计算检索信息与情绪文本数据库中的每个情绪词的匹配度值,若情绪文本数据库中的目标情绪词的匹配度值最大,则将目标情绪词确定为与检索信息匹配的情绪关键词。
具体的,若检索文本信息为A、B、C,情绪文本数据库中的情绪词为a,则检索文本信息与情绪文本数据库中的情绪词a之间的匹配度值计算公式可以为检索文本信息A、B、C分别与情绪词a之间的匹配度值的总和,其中单个检索文本信息与单个情绪词之间的匹配度值可以通过预设的匹配度表格获得。例如,假设检索文本信息包括激动、开心,情绪文本数据库中的情绪词包括愉悦、激动、悲伤,分别通过查找预设的匹配度表格的方式获得检索文本信息“激动”和“开心”分别与情绪词“愉悦”之间的匹配度值为90和95,“激动”和“开心”分别与情绪词“激动”之间的匹配度值为100和90,“激动”和“开心”分别与情绪词“悲伤”之间的匹配度值为10和0,进一步得到情绪词“愉悦”、“激动”和“悲伤”的匹配度值分别为185、190和10,则将匹配度值最大的情绪词“激动”确定为情绪关键词。
S102,获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签。
在执行步骤S102之前,服务器可先通过卷积循环神经网络的方式得到情绪标签预测模型。
一种可能的实施方式中,所述获取待选歌曲集合中每一首歌曲的至少一个情绪标签之前,包括:
提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
其中,每一首歌曲的情绪文本信息可以为歌曲音频对应的歌词文本中带有情绪的歌词单词,旋律信息可以为歌曲音频的乐器数字接口(Musical Instrument DigitalInterface,MIDI)信息,收敛条件可以包括模型的输出准确率达到预设准确率。
具体的,服务器在歌曲库中随机选择样本歌曲集合,该样本歌曲集合包括至少一首歌曲以及至少一首歌曲中每一首歌曲的歌词文本,通过人工分类的方式获得样本歌曲集合中每一首歌曲的实际情绪标签,之后,服务器提取样本歌曲集合中每一首歌曲的情绪文本信息和MIDI信息,这里服务器提取每一首歌曲的情绪文本信息和MIDI信息的具体实现方式请参照该步骤中根据情绪标签预测模型确定待选歌曲集合中每一首歌曲的至少一个情绪标签中提取每一首歌曲的情绪文本信息和MIDI信息的具体实现方式,此处不再赘述,从而得到样本歌曲集合的情绪文本信息和MIDI信息,并按照一定比例将样本歌曲集合划分为训练集、验证集。例如,样本歌曲集合共有1000首歌曲以及每一首歌曲对应的歌词文本,通过人工分类的方式得到正面、中性和负面情绪的歌曲分别为300首、400首和300首,按照8:2的比例得到训练集和验证集的歌曲数量分别为800首和200首。
之后,服务器将训练集的情绪文本信息、MIDI信息以及训练集中每一首歌曲携带的实际情绪标签输入初始卷积循环神经网络模型进行训练学习,得到第一卷积循环神经网络模型,并将验证集的情绪文本信息和MIDI信息输入第一卷积循环神经网络模型,得到验证集的预测情绪标签,计算验证集的预测情绪标签中与实际情绪标签一致的歌曲的个数在验证集中包含的歌曲的总个数中所占的比例,并根据该比例判断第一卷积循环神经网络模型是否达到收敛条件,举例来说,服务器计算得到验证集的预测情绪标签中与实际情绪标签一致的歌曲的个数在验证集中包含的歌曲的总个数中所占的比例为75%,没有达到收敛条件,即预设输出准确率95%,因此,服务器根据上述所占比例即模型的输出准确率,改变第一卷积循环神经网络模型的参数,如学习率、神经网络中每一层的权重等,直至第一卷积循环神经网络模型满足收敛条件,如模型的输出准确率达到95%,则将此时的第一卷积循环神经网络模型确定为情绪标签预测模型。其中,情绪标签预测模型包括卷积层、循环层和转录层。
服务器在得到情绪标签预测模型之后,根据情绪标签预测模型确定待选歌曲集合中每一首歌曲的至少一个情绪标签的具体实现方式如下:
提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
其中,所述提取待选歌曲集合中每一首歌曲的情绪文本信息,包括:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
具体的,服务器根据目标歌曲的歌曲ID(如歌名、歌手等)从待选歌曲集合中获取目标歌曲的歌词文本,对该歌词文本进行拆分,得到至少一个歌词单词,计算目标歌曲中的目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度值,计算公式如下:
公式中,A表示包含目标歌词单词T并且属于情绪词ci的歌词单词个数,B表示包含目标歌词单词T但不属于情绪词ci的歌词单词个数,C表示不包含目标歌词单词T并且属于情绪词ci的歌词单词个数,D表示不包含目标歌词单词T并且不属于情绪词ci的歌词单词个数。
之后,将目标歌词单词多个相关程度值中的最大值确定为目标歌词单词的情绪分值,根据上述方式得到目标歌曲中每个歌词单词的情绪分值,按照情绪分值大小对目标歌曲的歌词单词进行排序,将情绪分值大于等于第一预设阈值的前k个歌词单词确定为目标歌曲的情绪文本信息,即目标歌曲的一个k维情绪文本信息。进一步地,根据上述方式得到待选歌曲集合中每一首歌曲的情绪文本信息。
进一步,服务器可以通过MIDI数字接口转换软件对待选歌曲集合中的歌曲进行处理,得到待选歌曲集合中每一首歌曲的MIDI信息,即旋律信息,该旋律信息包括歌曲的时间、频率等。
之后,将待选歌曲集合的情绪文本信息和旋律信息输入情绪标签预测模型,并通过情绪标签预测模型中的卷积层对输入的待选歌曲集合的情绪文本信息和旋律信息进行特征提取,这里可以将情绪标签预测模型中的卷积层理解为一个除去全连接层的标准卷积神经网络模型,待选歌曲集合的情绪文本信息和旋律信息首先进入标准卷积神经网络模型中的卷积层,随机选取输入信息中的一小部分作为样本,并从这个小样本中学***均池化运算方法和最大池化运算方法。平均池化运算方法是在一个特征集合里计算出一个平均特征代表该特征集合的特征;最大池化运算是在一个特征集合里提取出最大特征代表该特征集合的特征。通过卷积层的卷积处理和池化层的池化处理,可以提取出输入信息的静态结构特征信息,即可以得到待选歌曲集合的情绪特征序列。
之后,将待选歌曲集合的情绪特征序列输入情绪标签预测模型的循环层,这里情绪标签预测模型的循环层可以理解为循环神经网络模型,虽然循环神经网络能够对时间序列建模,但其学习长期依赖信息的能力是有限的,即如果当前的输出与之前很长一段序列有关,其依赖关系是很难被学习到的,因为序列太长和长期依赖会导致梯度消失或梯度***。因此,本实施例中选用特殊的循环神经网络模型即长短时记忆网络(Long Short-TermMemory,LSTM)模型对待选歌曲集合的情绪特征序列进行预测,得到待选歌曲集合的预测序列,即T个维度的概率向量,每个向量由字典中N个不同字对应的概率组成,可以将待选歌曲的预测序列理解为一个T行、N列的概率矩阵。其中,T为待选歌曲集合中歌曲的总个数。
之后,将T行、N列的概率矩阵送至转录层,可以将转录层理解为利用(Connectionist Temporal Classification,CTC)联结主义时间分类算法,根据T行、N列的概率矩阵中每首歌的概率向量找到具有最高概率的每首歌对应的情绪标签,即为每首歌的情绪标签。
S103,确定情绪关键词在待选歌曲集合中对应的情绪类别,将待选歌曲集合中属于情绪类别的至少一个情绪标签确定为与情绪关键词匹配的至少一个情绪标签,并将至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从初始歌曲集合中筛选出推荐歌曲集合。
举例来说,服务器根据情绪标签预测模型将待选歌曲集合中的歌曲分为三种情绪类别,分别为正面、负面和中性。其中,正面情绪类别包含开心、兴奋等多个情绪标签,负面情绪类别包含忧伤、悲哀等多个情绪标签,中性情绪类别包含平静、舒缓等多个情绪标签。服务器将情绪关键词“舒缓”与待选歌曲集合中每一首歌曲的至少一个情绪标签进行匹配,得到情绪关键词“舒缓”与待选歌曲集合中至少一个情绪标签中的“舒缓”一致,进一步确定情绪关键词“舒缓”属于中性情绪类别,则将中性情绪类别所对应的情绪标签“平静、舒缓和淡然”确定为与情绪关键词“舒缓”匹配的多个情绪标签,并将情绪标签“平静、舒缓和淡然”对应的至少一首歌曲确定为初始歌曲集合。
之后,根据歌曲属性对初始歌曲集合进行筛选得到推荐歌曲集合。
可选的,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
所述基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合,包括:
将所述初始歌曲集合中所述歌曲播放次数大于预设播放次数阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
举例来说,服务器从初始歌曲集合中获取歌曲播放次数大于1万次,并且歌曲上线时长小于6个月的歌曲A、B、C和D,其中,歌曲A、B、C和D的歌曲播放次数分别为10万、2万、5万和9万,则将歌曲A、B、C和D按照歌曲播放次数从大到小的顺序进行排序得到推荐歌曲集合{A,D,C,B}。
进一步地,服务器可以将推荐歌曲集合发送至第一用户终端,第一用户终端通过人机交互界面对推荐歌曲集合进行显示,也可以将推荐歌曲集合保存在文件名为舒缓情绪推荐歌曲的文件夹内,存储在磁盘或者其他媒介上,方便用户获取、管理和分发。
在本申请实施例中,服务器可以对用户输入的感兴趣的情绪内容进行识别,根据识别到的内容与情绪文本数据库中的情绪词进行匹配得到情绪关键词,之后利用卷积循环神经网络算法得到的情绪标签预测模型获得待选歌曲集合中每一首歌曲的情绪标签,将情绪关键词与待选歌曲集合中每一首歌曲的情绪标签进行匹配,得到与情绪关键词匹配的至少一个情绪标签,并将上述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,根据歌曲属性对初始歌曲集合进行筛选得到推荐歌曲集合。这样使得用户快速获取感兴趣的情绪类型的歌曲,提升用户听歌体验,降低歌曲库的人工运营成本。
请参见图3,是本申请实施例提供的一种歌曲推荐方法的流程示意图。如图3所示,该方法实施例包括如下步骤:
S201,接收第一用户终端发送的检索信息。
其中,检索信息可以包括语音信息,也可以包括文本信息。
具体的,如图4a和图4b所示,是本申请实施例提供的一种输入提醒消息的人机交互界面示意图。第一用户终端可以通过人机交互界面向第一用户发送不同形式的输入提醒消息,使得第一用户可以通过在如图4a所示的人机交互界面中的输入框中输入文字的方式输入检索信息,即文本信息,也可以通过按住如图4b所示的人机交互界面中的语音键说话的方式输入检索信息,即语音信息。第一用户终端接收到第一用户发送的检索信息(文本信息或者语音信息),并将检索信息发送至服务器,服务器对接收到的检索信息进行判断,并根据判断结果执行步骤S202或者步骤S203。
S202,若检索信息为语音信息,则将语音信息转化为检索文本信息。
一种可能的实施方式中,将语音信息转化为检索文本信息的具体实现方式如下:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息。
其中,语言类型可以包括语种类型,还可以包括方言类型。语种类型可以包括普通话、英语、法语等,方言类型可以包括粤语、河南话等。
具体的,服务器可以使用专用的语音检测工具来检测语音信息的语言类型,可以理解为,服务器中设置有多个特定语言类型的语音检测工具,如粤语检测工具、上海话检测工具等,分别对语音信息进行检测,根据检测结果确定语音信息的语言类型,并根据语音信息的语言类型获取与该语言类型匹配的语音标准化模型。例如,若检测到语音信息的语言类型为粤语,则获取粤语标准化模型。之后,利用语音标准化模型对语音信息进行标准化处理,可以理解为,通过语音标准化模型去除语音信息中的情绪指示部分,以及对语音信息进行语速调节、响度调节和基频调节,进而得到与预设语速、音量和音调一致的陈述句方式的语音信息,即标准化语音信息。
之后,服务器将标准化语音信息输入与语言类型匹配的语音转化文本模型,该语音转化文本模型将标准化语音信息转化为检索文本信息。例如,语音信息的语言类型为四川话,语音信息为以四川话表达“巴适得很”的语音,则经四川话转化文本模型处理后,得到文本形式的检索文本信息为“特别舒服”。之后执行步骤S204。
S203,若检索信息为文本信息,则将检索信息确定为检索文本信息。
之后执行步骤S204。
S204,将检索文本信息与情绪文本数据库中的每个情绪词进行匹配,得到与检索文本信息匹配的情绪词,并将与检索文本信息匹配的情绪词确定为情绪关键词。
S205,获取待选歌曲集合中每一首歌曲的至少一个情绪标签。
这里,步骤S204-S205的具体实现方式可参考图2对应的实施例中步骤S101-S102的描述,此处不再赘述。
S206,计算情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与情绪关键词匹配的至少一个情绪标签,将与情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从初始歌曲集合中筛选出推荐歌曲集合。
举例来说,服务器分别计算情绪关键词“舒缓”与待选歌曲集合中的情绪标签“开心”、“平静”、“舒缓”和“悲伤”之间的第一匹配值,其中单个情绪关键词与单个情绪标签之间的第一匹配值可以通过预设的第一匹配值表格获得,通过查询预设的第一匹配值表格得到情绪关键词“舒缓”与待选歌曲集合中的情绪标签“开心”、“平静”、“舒缓”和“悲伤”之间的第一匹配值分别为50、90、100和10,进一步得到第一匹配值大于第二预设阈值80的情绪标签为“平静”和“舒缓”,将“平静”和“舒缓”确定为与情绪关键词“舒缓”匹配的情绪标签,并将情绪标签“平静”和“舒缓”对应的至少一首歌曲确定为初始歌曲集合,根据歌曲属性,如歌曲热度、歌曲上架时间、歌曲流派等,对初始歌曲集合进行筛选得到推荐歌曲集合。
在本申请实施例中,服务器将接收到的检索信息转化为检索文本信息,将检索文本信息与情绪文本数据库中的每个情绪词进行匹配,得到与检索文本信息匹配的情绪词,并将与检索文本信息匹配的情绪词确定为情绪关键词;获取待选歌曲集合中每一首歌曲的至少一个情绪标签,将情绪关键词与待选歌曲集合中每一首歌曲的至少一个情绪标签进行匹配,得到与情绪关键词匹配的至少一个情绪标签,根据与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定推荐歌曲集合。这样可以使得用户快速获取感兴趣的情绪类型的歌曲,提升用户听歌体验,降低歌曲库的人工运营成本。
请参见图5,是本申请实施例提供的一种歌曲推荐装置的结构示意图。如图5所示,该歌曲推荐装置包括接收匹配单元501、获取单元502和确定筛选单元503。
接收匹配单元501,用于将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取单元502,用于获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定筛选单元503,用于确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述装置还包括:
提取单元504,用于提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
模型训练单元505,用于根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
模型调整单元506,用于根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
模型确定单元507,用于当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
其中,所述情绪标签预测模型包括卷积层、循环层和转录层;
可选的,所述装置还包括:
提取输入单元508,用于提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
特征提取单元509,用于通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
预测单元510,用于通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
转录单元511,用于通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
可选的,所述提取输入单元508,具体用于:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
可选的,所述装置还包括:
计算确定筛选单元512,用于计算所述情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,将与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
所述确定筛选单元503或所述计算确定筛选单元512,具体用于:将所述初始歌曲集合中所述歌曲播放次数大于预设播放次数阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
其中,所述检索信息包括语音信息;
可选的,所述接收匹配单元501,具体用于:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息;
将所述检索文本信息与情绪文本数据库中的每个情绪词进行匹配,得到与所述检索文本信息匹配的情绪词,并将所述与所述检索文本信息匹配的情绪词确定为情绪关键词。
可以理解的,该歌曲推荐装置500用于实现图2至图3实施例中服务器所执行的步骤。关于图5的歌曲推荐装置500包括的功能块的具体实现方式及相应的有益效果,可参考前述图2至图3的实施例的具体介绍,这里不赘述。
上述图5所示实施例中的歌曲推荐装置500可以以图6所示的服务器600来实现。请参见图6,为本申请实施例提供了一种服务器的结构示意图。如图6所示,上述服务器600可以包括:一个或多个处理器601、存储器602和收发器603。上述处理器601、存储器602和收发器603通过总线604连接。其中,上述收发器603用于获取检索信息或者发送推荐歌曲集合,上述存储器602用于存储计算机程序,该计算机程序包括程序指令;处理器601用于执行存储器602存储的程序指令,执行如下操作:
将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,上述处理器601获取待选歌曲集合中每一首歌曲的至少一个情绪标签之前,具体执行以下操作:
提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
其中,所述情绪标签预测模型包括卷积层、循环层和转录层;
可选的,上述处理器601将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型之后,具体执行以下操作:
提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
可选的,上述处理器601提取待选歌曲集合中每一首歌曲的情绪文本信息,具体执行以下操作:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
可选的,上述处理器601还具体执行以下操作:
计算所述情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,将与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
可选的,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
上述处理器601基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合,具体执行以下操作:
将所述初始歌曲集合中所述歌曲播放次数大于预设播放次数阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
其中,所述检索信息包括语音信息;
可选的,上述处理器601将接收到的检索信息与情绪文本数据库中的每个情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词,具体执行以下操作:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息;
将所述检索文本信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索文本信息匹配的情绪词,并将所述与所述检索文本信息匹配的情绪词确定为情绪关键词。
在本申请实施例中还提供了一种计算机存储介质,可以用于存储图5所示实施例中上述歌曲推荐装置所用的计算机软件指令,其包含用于执行上述实施例中为歌曲推荐装置所设计的程序。该存储介质包括但不限于快闪存储器、硬盘、固态硬盘。
在本申请实施例中还提供了一种计算机程序产品,该计算机产品被计算设备运行时,可以执行上述图5所示实施例中为所设计的歌曲推荐装置。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选的还包括没有列出的步骤或单元,或可选的还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请中,“A和/或B”是指下述情况之一:A,B,A和B。“……中至少一个”是指所列出的各项或者任意数量的所列出的各项的任意组合方式,例如,“A、B和C中至少一个”是指下述情况之一:A,B,C,A和B,B和C,A和C,A、B和C这七种情况中的任一种。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
本申请实施例提供的方法及相关装置是参照本申请实施例提供的方法流程图和/或结构示意图来描述的,具体可由计算机程序指令实现方法流程图和/或结构示意图的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。这些计算机程序指令可提供到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或结构示意图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或结构示意一个方框或多个方框中指定的功能的步骤。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (10)
1.一种歌曲推荐方法,其特征在于,包括:
将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
2.根据权利要求1所述的方法,其特征在于,所述获取待选歌曲集合中每一首歌曲的至少一个情绪标签之前,包括:
提取样本歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述样本歌曲集合的情绪文本信息和旋律信息,所述样本歌曲集合中的每一首歌曲携带对应的实际情绪标签;
根据所述样本歌曲集合的情绪文本信息和旋律信息,以及每一首歌曲携带对应的实际情绪标签对初始卷积循环神经网络模型进行训练,得到第一卷积循环神经网络模型以及所述样本歌曲集合中每一首歌曲的预测情绪标签;
根据所述样本歌曲集合中每一首歌曲的预测情绪标签以及实际情绪标签,对所述第一卷积循环神经网络模型进行调整;
当调整后的第一卷积循环神经网络模型满足收敛条件时,将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型。
3.根据权利要求2所述的方法,其特征在于,所述情绪标签预测模型包括卷积层、循环层和转录层;
所述将所述调整后的第一卷积循环神经网络模型确定为情绪标签预测模型之后,包括:
提取待选歌曲集合中每一首歌曲的情绪文本信息和旋律信息,得到所述待选歌曲集合的情绪文本信息和旋律信息,将所述待选歌曲集合的情绪文本信息和旋律信息输入所述情绪标签预测模型;
通过所述卷积层对所述待选歌曲集合的情绪文本信息和旋律信息进行特征提取,得到所述待选歌曲集合的情绪特征序列;
通过所述循环层对所述待选歌曲集合的情绪特征序列进行预测,得到所述待选歌曲集合的预测序列;
通过所述转录层将所述待选歌曲集合的预测序列转换为所述待选歌曲集合的情绪标签序列,从而得到所述待选歌曲集合中每一首歌曲的至少一个情绪标签。
4.根据权利要求3所述的方法,其特征在于,所述提取待选歌曲集合中每一首歌曲的情绪文本信息,包括:
获取所述待选歌曲集合中目标歌曲的歌词文本,将所述目标歌曲的歌词文本拆分为至少一个歌词单词,计算所述至少一个歌词单词中目标歌词单词分别与情绪文本数据库中每个情绪词的相关程度,得到所述目标歌词单词与所述每个情绪词的多个相关程度值,将所述多个相关程度值中的最大值确定为所述目标歌词单词的情绪分值,从而得到所述目标歌曲中每个歌词单词的情绪分值,将情绪分值大于第一预设阈值的歌词单词确定为所述目标歌曲的情绪文本信息。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
计算所述情绪关键词与所述待选歌曲集合中的每一个情绪标签的第一匹配值,将第一匹配值大于等于第二预设阈值的情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,将与所述情绪关键词匹配的至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
6.根据权利要求1或5所述的方法,其特征在于,所述歌曲属性包括歌曲播放次数以及歌曲上线时长;
所述基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合,包括:
将所述初始歌曲集合中所述歌曲播放次数大于预设播放词语阈值,并且所述歌曲上线时长小于预设上线时长阈值的至少一首歌曲,按照所述歌曲播放次数从大到小的顺序进行排序得到所述推荐歌曲集合。
7.根据权利要求1所述的方法,其特征在于,所述检索信息包括语音信息;
所述将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词,包括:
检测所述语音信息的语言类型,获取与所述语言类型匹配的语音标准化模型,通过所述语音标准化模型将所述语音信息转化为标准化语音信息;
获取与所述语言类型匹配的语音转化文本模型,通过所述语音转化模型将所述语音信息转化为检索文本信息;
将所述检索文本信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索文本信息匹配的情绪词,并将所述与所述检索文本信息匹配的情绪词确定为情绪关键词。
8.一种歌曲推荐装置,其特征在于,包括:
接收匹配单元,用于将接收到的检索信息与情绪文本数据库中的情绪词进行匹配,得到与所述检索信息匹配的情绪词,并将所述与所述检索信息匹配的情绪词确定为情绪关键词;
获取单元,用于获取待选歌曲集合中每一首歌曲的至少一个情绪标签,其中,所述待选歌曲集合包括至少一首歌曲,所述至少一个情绪标签包括至少一种情绪类别的至少一个情绪标签;
确定筛选单元,用于确定所述情绪关键词在所述待选歌曲集合中对应的情绪类别,将所述待选歌曲集合中属于所述情绪类别的至少一个情绪标签确定为与所述情绪关键词匹配的至少一个情绪标签,并将所述至少一个情绪标签对应的至少一首歌曲确定为初始歌曲集合,基于歌曲属性从所述初始歌曲集合中筛选出所述推荐歌曲集合。
9.一种服务器,其特征在于,包括处理器、存储器和收发器,所述处理器、存储器和收发器相互连接,其中,所述收发器用于接收或发送数据,所述存储器用于存储程序代码,所述处理器用于调用所述程序代码,执行如权利要求1-7任一项所述的歌曲推荐方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序包括程序指令;所述程序指令当被处理器执行时使所述处理器执行如权利要求1-7任一项所述的歌曲推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010500439.6A CN111737414A (zh) | 2020-06-04 | 2020-06-04 | 一种歌曲推荐方法及装置、服务器、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010500439.6A CN111737414A (zh) | 2020-06-04 | 2020-06-04 | 一种歌曲推荐方法及装置、服务器、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111737414A true CN111737414A (zh) | 2020-10-02 |
Family
ID=72649954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010500439.6A Pending CN111737414A (zh) | 2020-06-04 | 2020-06-04 | 一种歌曲推荐方法及装置、服务器、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111737414A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785993A (zh) * | 2021-01-15 | 2021-05-11 | 杭州网易云音乐科技有限公司 | 一种乐曲生成方法、装置、介质和计算设备 |
CN113094541A (zh) * | 2021-04-16 | 2021-07-09 | 网易(杭州)网络有限公司 | 音频播放方法、电子设备及存储介质 |
CN114417050A (zh) * | 2022-03-09 | 2022-04-29 | 深圳市云动创想科技有限公司 | 智能缓存方法、装置、存储介质以及电子设备 |
CN114564604A (zh) * | 2022-03-01 | 2022-05-31 | 北京字节跳动网络技术有限公司 | 媒体合集生成方法、装置、电子设备及存储介质 |
CN114996512A (zh) * | 2022-04-28 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 朗读视频生成方法、装置、电子设备、介质及程序产品 |
CN115600764A (zh) * | 2022-11-17 | 2023-01-13 | 中船重工(武汉)凌久高科有限公司(Cn) | 基于权重邻域粗糙集快速约简的滚动时域能耗预测方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070250319A1 (en) * | 2006-04-11 | 2007-10-25 | Denso Corporation | Song feature quantity computation device and song retrieval system |
US20090182736A1 (en) * | 2008-01-16 | 2009-07-16 | Kausik Ghatak | Mood based music recommendation method and system |
US20090281906A1 (en) * | 2008-05-07 | 2009-11-12 | Microsoft Corporation | Music Recommendation using Emotional Allocation Modeling |
CN106228977A (zh) * | 2016-08-02 | 2016-12-14 | 合肥工业大学 | 基于深度学习的多模态融合的歌曲情感识别方法 |
CN108536803A (zh) * | 2018-03-30 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 歌曲推荐方法、装置、设备及计算机可读介质 |
CN108804609A (zh) * | 2018-05-30 | 2018-11-13 | 平安科技(深圳)有限公司 | 歌曲推荐方法和装置 |
WO2018232623A1 (en) * | 2017-06-21 | 2018-12-27 | Microsoft Technology Licensing, Llc | SUPPLYING PERSONALIZED SONGS IN AN AUTOMATED ONLINE DIALOGUE |
CN109885722A (zh) * | 2019-01-07 | 2019-06-14 | 平安科技(深圳)有限公司 | 基于自然语言处理的音乐推荐方法、装置、及计算机设备 |
WO2020052135A1 (zh) * | 2018-09-10 | 2020-03-19 | 珠海格力电器股份有限公司 | 音乐推荐的方法、装置、计算装置和存储介质 |
CN111090771A (zh) * | 2019-10-31 | 2020-05-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 歌曲搜索方法、装置及计算机存储介质 |
CN111192601A (zh) * | 2019-12-25 | 2020-05-22 | 厦门快商通科技股份有限公司 | 音乐标注方法、装置、电子设备及介质 |
-
2020
- 2020-06-04 CN CN202010500439.6A patent/CN111737414A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070250319A1 (en) * | 2006-04-11 | 2007-10-25 | Denso Corporation | Song feature quantity computation device and song retrieval system |
US20090182736A1 (en) * | 2008-01-16 | 2009-07-16 | Kausik Ghatak | Mood based music recommendation method and system |
US20090281906A1 (en) * | 2008-05-07 | 2009-11-12 | Microsoft Corporation | Music Recommendation using Emotional Allocation Modeling |
CN106228977A (zh) * | 2016-08-02 | 2016-12-14 | 合肥工业大学 | 基于深度学习的多模态融合的歌曲情感识别方法 |
WO2018232623A1 (en) * | 2017-06-21 | 2018-12-27 | Microsoft Technology Licensing, Llc | SUPPLYING PERSONALIZED SONGS IN AN AUTOMATED ONLINE DIALOGUE |
CN108536803A (zh) * | 2018-03-30 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 歌曲推荐方法、装置、设备及计算机可读介质 |
CN108804609A (zh) * | 2018-05-30 | 2018-11-13 | 平安科技(深圳)有限公司 | 歌曲推荐方法和装置 |
WO2020052135A1 (zh) * | 2018-09-10 | 2020-03-19 | 珠海格力电器股份有限公司 | 音乐推荐的方法、装置、计算装置和存储介质 |
CN109885722A (zh) * | 2019-01-07 | 2019-06-14 | 平安科技(深圳)有限公司 | 基于自然语言处理的音乐推荐方法、装置、及计算机设备 |
CN111090771A (zh) * | 2019-10-31 | 2020-05-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 歌曲搜索方法、装置及计算机存储介质 |
CN111192601A (zh) * | 2019-12-25 | 2020-05-22 | 厦门快商通科技股份有限公司 | 音乐标注方法、装置、电子设备及介质 |
Non-Patent Citations (4)
Title |
---|
唐霞等: "基于深度学习的音乐情感识别", 电脑知识与技, 30 April 2019 (2019-04-30), pages 1 - 2 * |
毋亚男;刘德然;许小可;: "基于双向情感分析的实时性音乐推荐***设计", 大连民族大学学报, no. 01 * |
琚春华;汪澍;: "一种融入用户情绪因素的综合音乐推荐方法", 情报学报, no. 06 * |
薛亮;黄美帆;: "华语流行音乐的歌词情绪分析――基于新媒体音乐终端的大数据分析方法", 音乐传播, no. 04 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785993A (zh) * | 2021-01-15 | 2021-05-11 | 杭州网易云音乐科技有限公司 | 一种乐曲生成方法、装置、介质和计算设备 |
CN112785993B (zh) * | 2021-01-15 | 2024-04-12 | 杭州网易云音乐科技有限公司 | 一种乐曲生成方法、装置、介质和计算设备 |
CN113094541A (zh) * | 2021-04-16 | 2021-07-09 | 网易(杭州)网络有限公司 | 音频播放方法、电子设备及存储介质 |
CN114564604A (zh) * | 2022-03-01 | 2022-05-31 | 北京字节跳动网络技术有限公司 | 媒体合集生成方法、装置、电子设备及存储介质 |
CN114564604B (zh) * | 2022-03-01 | 2023-08-08 | 抖音视界有限公司 | 媒体合集生成方法、装置、电子设备及存储介质 |
WO2023165368A1 (zh) * | 2022-03-01 | 2023-09-07 | 北京字节跳动网络技术有限公司 | 媒体合集生成方法、装置、电子设备及存储介质 |
CN114417050A (zh) * | 2022-03-09 | 2022-04-29 | 深圳市云动创想科技有限公司 | 智能缓存方法、装置、存储介质以及电子设备 |
CN114996512A (zh) * | 2022-04-28 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 朗读视频生成方法、装置、电子设备、介质及程序产品 |
CN115600764A (zh) * | 2022-11-17 | 2023-01-13 | 中船重工(武汉)凌久高科有限公司(Cn) | 基于权重邻域粗糙集快速约简的滚动时域能耗预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111737414A (zh) | 一种歌曲推荐方法及装置、服务器、存储介质 | |
CN109918673B (zh) | 语义仲裁方法、装置、电子设备和计算机可读存储介质 | |
CN109918680B (zh) | 实体识别方法、装置及计算机设备 | |
CN106406806B (zh) | 一种用于智能设备的控制方法及装置 | |
CN107818781B (zh) | 智能交互方法、设备及存储介质 | |
CN106156204B (zh) | 文本标签的提取方法和装置 | |
CN108647205B (zh) | 细粒度情感分析模型构建方法、设备及可读存储介质 | |
CN108304375B (zh) | 一种信息识别方法及其设备、存储介质、终端 | |
KR100775585B1 (ko) | 문자 메시지에 대한 음악 추천 방법 및 그 시스템 | |
CN112417102B (zh) | 一种语音查询方法、装置、服务器和可读存储介质 | |
Mayer et al. | Musical genre classification by ensembles of audio and lyrics features | |
CN110619051B (zh) | 问题语句分类方法、装置、电子设备及存储介质 | |
CN108288468A (zh) | 语音识别方法及装置 | |
CN110597952A (zh) | 信息处理方法、服务器及计算机存储介质 | |
CN110188356B (zh) | 信息处理方法及装置 | |
CN110134792B (zh) | 文本识别方法、装置、电子设备以及存储介质 | |
CN108538294B (zh) | 一种语音交互方法及装置 | |
CN113094552A (zh) | 视频模板的搜索方法、装置、服务器及可读存储介质 | |
JPWO2008023470A1 (ja) | 文単位検索方法、文単位検索装置、コンピュータプログラム、記録媒体及び文書記憶装置 | |
CN109920409B (zh) | 一种声音检索方法、装置、***及存储介质 | |
CN107145509B (zh) | 一种信息搜索方法及其设备 | |
CN108345612A (zh) | 一种问题处理方法和装置、一种用于问题处理的装置 | |
CN111090771A (zh) | 歌曲搜索方法、装置及计算机存储介质 | |
CN112699686A (zh) | 基于任务型对话***的语义理解方法、装置、设备及介质 | |
CN108345694B (zh) | 一种基于主题数据库的文献检索方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |