CN111081277B - 音频测评的方法、装置、设备及存储介质 - Google Patents

音频测评的方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111081277B
CN111081277B CN201911320728.1A CN201911320728A CN111081277B CN 111081277 B CN111081277 B CN 111081277B CN 201911320728 A CN201911320728 A CN 201911320728A CN 111081277 B CN111081277 B CN 111081277B
Authority
CN
China
Prior art keywords
time period
detection time
audio
pitch value
human voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911320728.1A
Other languages
English (en)
Other versions
CN111081277A (zh
Inventor
汤伯超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Kugou Computer Technology Co Ltd
Original Assignee
Guangzhou Kugou Computer Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Kugou Computer Technology Co Ltd filed Critical Guangzhou Kugou Computer Technology Co Ltd
Priority to CN201911320728.1A priority Critical patent/CN111081277B/zh
Publication of CN111081277A publication Critical patent/CN111081277A/zh
Application granted granted Critical
Publication of CN111081277B publication Critical patent/CN111081277B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

本申请公开了一种音频测评的方法、装置、设备及存储介质,属于计算机技术领域。所述方法包括:将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段;基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段;基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理。采用本申请,技术人员无需预先针对每一首歌曲记录时间标签,可以节省技术人员的时间。

Description

音频测评的方法、装置、设备及存储介质
技术领域
本申请涉及计算机技术领域,特别涉及一种音频测评的方法、装置、设备及存储介质。
背景技术
目前,随着直播平台、唱歌平台等音乐平台的兴起,积极地带动了演唱者的唱歌热情。通常演唱者在录音设备上进行录音时,希望录音设备能够对所录制的歌曲进行评分,从而了解自己的歌唱水平。
在相关技术中,技术人员预先针对歌曲记录时间标签,时间标签用于指示在评分过程中歌曲的演唱音频中需要进行检测的音频段的起始时间和结束时间。在演唱过程中,当演唱者演唱至对应起始时间点的标签时,终端开始检测演唱音频中的人声音高值,当演唱者演唱至对应结束时间点的标签时,终端结束检测人声音高值。然后,可以基于检测的人声音高值和基准音高值进行比较,以对演唱音频进行评分。
在实现本申请的过程中,发明人发现相关技术至少存在以下问题:
上述方法中,技术人员需要预先针对每一首歌曲记录时间标签,并进行存储,以用于后续对歌曲的演唱音频进行打分,数据库中歌曲的数量非常庞大,所以该方法需要浪费大量的时间。
发明内容
为了解决相关技术中存在的技术问题,本实施例提供了一种音频测评的方法、装置、设备及存储介质。所述音频测评的方法、装置、设备及存储介质的技术方案如下:
第一方面,提供了一种音频测评的方法,所述方法包括:
将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段;
基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段;
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理。
可选的,所述基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理,包括:
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据;
根据每个检测时间段内任一个采样点的音频特征数据,对所述人声音频进行演唱评分处理。
可选的,所述根据每个检测时间段内任一个采样点的音频特征数据,对所述人声音频进行演唱评分处理,包括:
根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数;
根据所述每个检测时间段对应的分数,对所述人声音频进行演唱评分处理。
可选的,所述音频特征数据包括人声音高值。
可选的,所述根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数,包括:
根据每个检测时间段内任一采样点的人声音高值,确定所述每个检测时间段的平均人声音高值和方差人声音高值;
如果所述检测时间段的平均人声音高值小于第一音高值,确定所述检测时间段对应的分数为第一分数;
如果所述检测时间段的平均人声音高值大于所述第一音高值,且所述方差人声音高值小于第二音高值,确定所述检测时间段对应的分数为第二分数;
如果所述检测时间段内的平均人声音高值大于所述第一音高值,且所述方差人声音高值大于所述第二音高值,确定所述检测时间段对应的分数为第三分数。
第二方面,提供了一种音频测评的装置,其特征在于,所述装置包括:
划分模块,用于将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段;
确定模块,用于基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段;
评分模块,用于基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理。
可选的,所述评分模块,用于:
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据;
根据每个检测时间段内任一个采样点的音频特征数据,对所述人声音频进行演唱评分处理。
可选的,所述评分模块,用于:
根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数;
根据所述每个检测时间段对应的分数,对所述人声音频进行演唱评分处理。
可选的,所述音频特征数据包括人声音高值。
可选的,所述评分模块,用于:
根据每个检测时间段内任一采样点的人声音高值,确定所述每个检测时间段的平均人声音高值和方差人声音高值;
如果所述检测时间段的平均人声音高值小于第一音高值,确定所述检测时间段对应的分数为第一分数;
如果所述检测时间段的平均人声音高值大于所述第一音高值,且所述方差人声音高值小于第二音高值,确定所述检测时间段对应的分数为第二分数;
如果所述检测时间段内的平均人声音高值大于所述第一音高值,且所述方差人声音高值大于所述第二音高值,确定所述检测时间段对应的分数为第三分数。
第三方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现音频测评的方法。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现音频测评的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例提供的方法,通过将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段,并在目标歌曲的歌词数据中划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段。基于演唱目标歌曲的人声音频中对应每个检测时间段的音频数据,对人声音频进行演唱评分处理,技术人员无需预先针对每一首歌曲记录时间标签,可以节省技术人员的时间。可见,本申请提供的音频测评的方法可以节省大量的时间。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种音频测评的方法流程图;
图2是本申请实施例提供的一种音频测评的示意图;
图3是本申请实施例提供的一种音频测评的装置结构示意图;
图4是本申请实施例提供的一种终端的结构示意图;
图5是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例提供了一种音频测评的方法可以由计算机设备实现,该计算机设备可以是终端。该终端可以是手机、平板电脑、笔记本电脑等移动终端,也可以是台式计算机等固定终端。
本申请实施例提供的方法,演唱者可以根据自己的爱好,选取自己需要演唱的歌曲。演唱者在选取歌曲之后,演唱者可以操作触发终端的K歌功能,或者在演唱者选取出自己想要演唱的歌曲之后,终端自动触发K歌功能。在演唱者演唱结束后,终端录制得到歌曲音频,并对歌曲音频进行评分处理,得到的分数可以反应演唱的音准程度,演唱者可以根据得到的分数,来了解自己所演唱歌曲音频的好坏。
如图1所示,该方法的处理流程可以包括如下步骤:
步骤101,将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段。
在实施中,终端可以查找本地存储中的伴奏音频,来获得待演唱的目标歌曲对应的伴奏音频,或者终端向服务器发送携带有伴奏名的请求,在服务器接收到该请求后,向终端发送待演唱的伴奏音频,终端获得待演唱的目标歌曲对应的音频。
终端可以在获得待演唱的目标歌曲对应的伴奏音频之后,终端根据伴奏音频对应的时长,确定目标歌曲的音频时长。技术人员可以预先设置在对音频时长进行划分时的时间段的时长,即上述预设时长,终端在获取目标歌曲的音频时长后,可以根据预设时长针对目标歌曲的音频时长进行划分,得到多个预设时长的时间段。
例如,技术人员将预设时长设置为10秒,如果目标歌曲的音频时长为1分钟,终端以每10秒对目标歌曲的音频时长进行一次划分,在多次划分后,获得6个时间段。
步骤102,基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段。
其中,检测时间段可以是在评分处理过程中需要将录制的人声音频的音高值与基准音高值进行比较的时间段。技术人员可以根据经验设置预设时长阈值。
需要说明的是,目标歌曲对应的伴奏音频中可能存在只有纯音乐的时间段,在这些时间段内,演唱者并不唱歌,如果终端在这些时间段内检测人声音频,可能是演唱者说话时产生的人声音频,因此,在本实施例中只需要记录包含歌词时长超过预设时长阈值的时间段,以减少评分处理时的计算。
在实施中,在终端根据划分出的至少一个时间段之后,终端可以根据目标歌曲的歌词信息,确定在每个时间段内的歌词,再根据每个时间段内的歌词中每个字符所对应的时间间隔,进而确定出各个时间段内包含歌词的时长。终端将歌词时长超过预设时长阈值的时间段,记录为检测时间段。
如图2所示,在目标歌曲的音频时长划出至少一个时间段后,终端可以根据目标歌曲的歌词信息,确定在每个时间段内的歌词,再根据每个时间段内的歌词中每个字符所对应的时间间隔,进而确定出各个时间段内包含歌词的时长。终端根据每个时间段内歌词时长是否超过预设时长阈值,确定是否记录为检测时间段。如果某时间段内歌词时长超过预设时长阈值,终端则将该时间段记录为检测时间段,并将该时间段对应的起始时间点和终止时间点存储在本地中。如果某时间段内歌词时长未超过预设时长阈值,终端则将该时间段抛弃,且不将该时间段对应的起始时间点和终止时间点存储在本地中。
进一步的,技术人员将预设时长阈值设置为5秒,终端确定时间段A内的歌词有2个字,第一个字对应的时长为2秒,第二个字对应的时长为1秒,则时间段A内的歌词时长为3秒,这样,时间段A不会被记录为检测时间段。终端确定时间段B内有两个字,第一个字对应的时长为2秒,第二个字对应的时长为4秒,则时间段B内的歌词时长为6秒,这样,时间段B被终端记录为检测时间段。终端确定时间段C内有4个字,第一个字对应的时长为1秒,第二个字对应的时长为1秒,第一个字对应的时长为2秒,第二个字对应的时长为3秒,则时间段B内的歌词时长为7秒,这样,时间段C被终端记录为检测时间段。
步骤103,基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理。
其中,每个检测时间段的音频数据中包含演唱者演唱目标歌曲时的音调、音高、旋律、和节奏等特征,可以根据这些特征对人声音频进行演唱评分处理。
在实施中,终端可以在录制的人声音频时,实时的检测人声音频的音频数据,或者,在终端录制完人声音频之后,终端检测人声音频中的音频数据。终端根据检测到的人声音频的音频数据,对人声音频进行演唱评分处理。在终端完成录制人声音频之后,终端将目标歌曲对应的伴奏音频和人声音频合成为目标歌曲音频。
可选的,终端基于演唱目标歌曲的人声音频中对应每个检测时间段的音频数据,对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据。终端根据每个检测时间段内任一个采样点的音频特征数据,对人声音频进行演唱评分处理。
其中,由于采样频率越大,则采样点之间的间隔越小,终端得到的音频特征数据就越多,使得最终的评分处理更加的接近演唱者的真实水平。技术人员可以预先设置采样时间间隔,终端根据采样时间间隔对每个检测时间段的音频数据进行采样。
在实施中,根据人声音频对应每个检测时间段的音频数据,终端对每个检测时间段的人声音频进行一定时间间隔的采样,并确定每个检测时间段内任一个采样点的音频特征数据。终端根据每个检测时间段内任一个采样点的音频特征数据,对人声音频进行演唱评分处理。
可选的,根据每个检测时间段内任一个采样点的音频特征数据,确定每个检测时间段对应的分数;根据每个检测时间段对应的分数,对人声音频进行演唱评分处理。
其中,终端可以将每个检测时间段对应的分数相加,进而对人声音频进行演唱评分处理,也可以将每个检测时间段对应的分数相加并取平均值,进而对人声音频进行演唱评分处理。
在实施中,终端根据每个检测时间段内任一个采样点的音频特征数据,获得每个检测时间段内任一个采样点的分数,将每个检测时间段内的所有采样点的分数相加,获得每个检测时间段的分数,再将目标歌曲对应的所有的检测时间段相加,最终获得最终的分数。
其中,上述一定的计算方法可以是终端对所有检测时间段内的所有的采样点的分数相加并求平均值。
可选的,音频特征数据包括人声音高值。
可选的,终端根据每个检测时间段内任一采样点的人声音高值,确定每个检测时间段的平均人声音高值和方差人声音高值;如果检测时间段的平均人声音高值小于第一音高值,确定检测时间段对应的分数为第一分数;如果检测时间段的平均人声音高值大于第一音高值,且方差人声音高值小于第二音高值,确定检测时间段对应的分数为第二分数;如果检测时间段内的平均人声音高值大于第一音高值,且方差人声音高值大于第二音高值,确定检测时间段对应的分数为第三分数。
其中,第一分数应该大于第二分数,小于第三分数,即第三分数最大,第一分数次之,第二分数最小。
需要说明的是,平均人声音高值可以表示演唱者声音的大小,而方差人声音高值可以表示演唱者声音的起伏情况,可以这样认为,当某检测时间段的平均人声音高值小于第一音高值,说明在该检测时间段内,演唱者的声音较小,演唱者可能在唱歌,也可能在说话,可以将该检测时间段对应的分数确定为50。如果某检测时间段的平均人声音高值大于第一音高值,且方差人声音高值小于第二音高值,说明在该时间段内演唱者的声音较大,但并没有起伏,此时认为演唱者在大声的说话,可以将该检测时间段对应的分数确定为0。如果某检测时间段的平均人声音高值大于第一音高值,且方差人声音高值大于第二音高值,此时认为演唱者在激情的歌唱,可以将该检测时间段对应的分数确定为100。
在一种实施方式中,终端播放伴奏音频,录制人声音频。当终端检测到当前时刻对应任意检测时间段的起始时间点时,终端从该起始时间点为起点,开始检测人声音频。当终端检测到当前时刻对应任意检测时间段的终点时间点时,终端停止检测人声音频。终端获取该检测时间段内所有采样点的人声音频,获得所有采样点的人声音频的音高值。终端计算该检测时间段对应的平均人声音高值和方差人声音高值,并根据该检测时间段对应的平均人声音高值和方差人声音高值,确定出检测时间段对应的分数。在终端录制人声音频完成之后,终端获得目标歌曲音频和每个检测时间段内的所有评分。终端根据这些评分,获得最终评分。
在另一种实施方式中,终端播放伴奏音频,录制人声音频。当终端检测到当前时刻对应任意检测时间段的起始时间点时,终端从该起始时间点为起点,开始记录人声音频的音高值。当终端检测到当前时刻对应任意检测时间段的终点时间点时,终端停止记录人声音频的音高值。终端获取所有检测时间段的音高值,确定出每个时间段内每个采样点的音高值。终端根据每个检测时间段内的每个采样点的音高值,获取每个检测时间段对应的分数。在终端录制人声音频完成之后,终端获得目标歌曲音频和每个检测时间段内的分数。终端根据这些分数,对人声音频进行评分。
可选的,在终端确定出至少一个检测时间段之后,终端确定每个检测时间段所对应的目标歌曲音频中的人声音频,并确定出每个检测时间段对应的人声音频片段。终端以预设的采样时间间隔,对每个人声音频片段进行采样,并获取每个采样点对应的基准人声音高值。终端根据每个检测时间段内的至少一个采样点的基准人声音高值,确定每个检测时间段内的基准平均人声音高值和基准方差人声音高值,将每个检测时间段内的基准平均人声音高值和基准方差人声音高值作为基准数据。
同时,在终端确定出至少一个检测时间段之后,终端确定每个检测时间段所对应的人声音频,并确定出每个检测时间段对应的人声音频片段。终端以上述中同样的预设的采样时间间隔,对每个人声音频片段进行采样,并获取每个采样点对应的人声音高值。终端根据每个检测时间段内的至少一个采样点的人声音高值,确定每个检测时间段内的平均人声音高值和方差人声音高值。
最后,终端确定出基准平均人声音高值与平均人声音高值之间的差值小于第一数值且基准方差人声音高值和方差人声音高值之间的差值小于第二数值的检测时间段,将该检测时间段的分数设置为第四分数。终端确定基准平均人声音高值与平均人声音高值之间的差值小于第一数值且方差音高值,且基准方差人声音高值之间的差值大于第二数值的检测时间段,将该检测时间段的分数设置为第五分数。终端确定基准平均人声音高值与平均人声音高值之间的差值大于第一数值且基准方差人声音高值和方差人声音高值之间的差值大于第二数值的检测时间段,将该检测时间段的分数设置为第六分数。终端将所有检测时间段对应的分数进行相加,确定人声音频的演唱分数。
可选的,终端可以根据每个检测时间段内任一个采样点的音频特征数据,确定每个检测时间段的平均人声音高值和方差人声音高值。如果检测时间段内的平均人声音高值大于第一音高值,且方差人声音高值大于第二音高值,并将该检测时间段筛选出。终端根据筛选出的检测时间段内的音频特征数据,以及目标歌曲对应的人声音频中相应的检测时间段内的音频特征数据,对人声音频进行演唱评分处理。
其中,将演唱者在激情的歌唱的检测时间段筛选出来,则根据筛选出的检测时间段中的音频特征数据进行评分处理,更能表现出演唱者的真实歌唱水平。比如说,在目标歌曲的开始阶段,由于演唱者对目标歌曲不是很熟悉,演唱出的目标歌曲音频的水平不是很高。但在演唱者演唱到目标歌曲的高潮阶段后,演唱者渐入佳境,演唱出目标歌曲水平越来越高。此时,演唱者演唱了一段时间后的音频数据更能表现出演唱者的真实歌唱水平。
在实施中,终端根据每个检测时间段内的任意一个采样点的音频特征数据,确定出每个检测时间段的平均人声音高值和方差人声音高值。终端根据每个检测时间段的平均人声音高值和方差人声音高值,筛选出平均人声音高值大于第一音高值,且方差人声音高值大于第二音高值的检测时间段。此时,终端对筛选出检测时间段的音频特征数据进行分析,以及伴奏音频中相应的检测时间段内的相应采样点的音频特征数据,对人声音频进行演唱评分处理。
本申请实施例提供的方法,提供了一种音频测评的方法,可以将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段,并将每个划分的时间段内歌词时长超过预设时长阈值的时间段,记录为检测时间段。之后,根据演唱目标歌曲的人声音频中对应每个检测时间段的音频数据,对人声音频进行演唱评分处理,从而,技术人员无需对需要采集的音频片段进行打标签,可以节省技术人员的时间。
基于相同的技术构思,本申请实施例还提供了一种音频测评的装置,该装置可以为上述实施例中的终端,如图3所示,该装置包括:
划分模块301,将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段。
确定模块302,基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段。
评分模块303,基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理。
可选的,所述评分模块303,用于:
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据;
根据每个检测时间段内任一个采样点的音频特征数据,对所述人声音频进行演唱评分处理。
可选的,所述评分模块303,用于:
根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数;
根据所述每个检测时间段对应的分数,对所述人声音频进行演唱评分处理。
可选的,所述音频特征数据包括人声音高值。
可选的,所述评分模块303,用于:
根据每个检测时间段内任一采样点的人声音高值,确定所述每个检测时间段的平均人声音高值和方差人声音高值;
如果所述检测时间段的平均人声音高值小于第一音高值,确定所述检测时间段对应的分数为第一分数;
如果所述检测时间段的平均人声音高值大于所述第一音高值,且所述方差人声音高值小于第二音高值,确定所述检测时间段对应的分数为第二分数;
如果所述检测时间段内的平均人声音高值大于所述第一音高值,且所述方差人声音高值大于所述第二音高值,确定所述检测时间段对应的分数为第三分数。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
需要说明的是:上述实施例提供的音频测评的装置在音频测评时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的音频测评的装置与音频测评的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图4是本申请实施例提供的一种终端的结构示意图。该终端400可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端400还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端400包括有:一个或多个处理器401和一个或多个存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的音频测评的方法。
在一些实施例中,终端400还可选包括有:***设备接口403和至少一个***设备。处理器401、存储器402和***设备接口403之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口403相连。具体地,***设备包括:射频电路404、显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
***设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和***设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和***设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置终端400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在终端400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在终端400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位终端400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源409用于为终端400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器414、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以终端400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测终端400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对终端400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在终端400的侧边框和/或显示屏405的下层。当压力传感器413设置在终端400的侧边框时,可以检测用户对终端400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在显示屏405的下层时,由处理器401根据用户对显示屏403的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器414可以被设置终端400的正面、背面或侧面。当终端400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制显示屏405的显示亮度。具体地,当环境光强度较高时,调高显示屏405的显示亮度;当环境光强度较低时,调低显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在终端400的前面板。接近传感器416用于采集用户与终端400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与终端400的正面之间的距离逐渐变小时,由处理器401控制显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与终端400的正面之间的距离逐渐变大时,由处理器401控制显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图4中示出的结构并不构成对终端400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图5是本申请实施例提供的一种服务器的结构示意图,该服务器500可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(central processing units,CPU)501和一个或多个的存储器502,其中,该一个或多个存储器502中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器501加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器500还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器500还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由处理器执行以完成上述实施例中的音频测评的方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (8)

1.一种音频测评的方法,其特征在于,所述方法包括:
将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段;
基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段;
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据, 对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据;
根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数;
将所述每个检测时间段对应的分数相加或将所述每个检测时间段对应的分数相加并取平均值,进而对所述人声音频进行演唱评分处理。
2.根据权利要求1所述的方法,其特征在于,所述音频特征数据包括人声音高值。
3.根据权利要求1所述的方法,其特征在于,所述根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数,包括:
根据每个检测时间段内任一采样点的人声音高值,确定所述每个检测时间段的平均人声音高值和方差人声音高值;
如果所述检测时间段的平均人声音高值小于第一音高值,确定所述检测时间段对应的分数为第一分数;
如果所述检测时间段的平均人声音高值大于所述第一音高值,且所述方差人声音高值小于第二音高值,确定所述检测时间段对应的分数为第二分数;
如果所述检测时间段内的平均人声音高值大于所述第一音高值,且所述方差人声音高值大于所述第二音高值,确定所述检测时间段对应的分数为第三分数。
4.一种音频测评的装置,其特征在于,所述装置包括:
划分模块,用于将待演唱的目标歌曲的音频时长划分为多个预设时长的时间段;
确定模块,用于基于所述目标歌曲的歌词数据,在划分出的各时间段中,确定包含歌词时长超过预设时长阈值的时间段,记录为检测时间段;
评分模块,用于基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据,对所述人声音频进行演唱评分处理;
所述评分模块,用于:
基于演唱所述目标歌曲的人声音频中对应每个检测时间段的音频数据, 对每个检测时间段的音频数据进行采样,确定每个检测时间段内任一个采样点的音频特征数据;
根据每个检测时间段内任一个采样点的音频特征数据,确定所述每个检测时间段对应的分数;
将所述每个检测时间段对应的分数相加或将所述每个检测时间段对应的分数相加并取平均值,进而对所述人声音频进行演唱评分处理。
5.根据权利要求4所述的装置,其特征在于,所述音频特征数据包括人声音高值。
6.根据权利要求4所述的装置,其特征在于,所述评分模块,用于:
根据每个检测时间段内任一采样点的人声音高值,确定所述每个检测时间段的平均人声音高值和方差人声音高值;
如果所述检测时间段的平均人声音高值小于第一音高值,确定所述检测时间段对应的分数为第一分数;
如果所述检测时间段的平均人声音高值大于所述第一音高值,且所述方差人声音高值小于第二音高值,确定所述检测时间段对应的分数为第二分数;
如果所述检测时间段内的平均人声音高值大于所述第一音高值,且所述方差人声音高值大于所述第二音高值,确定所述检测时间段对应的分数为第三分数。
7.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至3任一项所述的音频测评的方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至3任一项所述的音频测评的方法。
CN201911320728.1A 2019-12-19 2019-12-19 音频测评的方法、装置、设备及存储介质 Active CN111081277B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911320728.1A CN111081277B (zh) 2019-12-19 2019-12-19 音频测评的方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911320728.1A CN111081277B (zh) 2019-12-19 2019-12-19 音频测评的方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111081277A CN111081277A (zh) 2020-04-28
CN111081277B true CN111081277B (zh) 2022-07-12

Family

ID=70315970

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911320728.1A Active CN111081277B (zh) 2019-12-19 2019-12-19 音频测评的方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111081277B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111613213B (zh) * 2020-04-29 2023-07-04 广州欢聚时代信息科技有限公司 音频分类的方法、装置、设备以及存储介质
CN112487940B (zh) * 2020-11-26 2023-02-28 腾讯音乐娱乐科技(深圳)有限公司 视频的分类方法和装置
CN113257222B (zh) * 2021-04-13 2024-06-11 腾讯音乐娱乐科技(深圳)有限公司 合成歌曲音频的方法、终端及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157976A (zh) * 2015-04-10 2016-11-23 科大讯飞股份有限公司 一种唱歌评测方法及***
JP2017068046A (ja) * 2015-09-30 2017-04-06 ブラザー工業株式会社 歌唱基準データ修正装置、カラオケシステム、プログラム
CN107103915A (zh) * 2016-02-18 2017-08-29 广州酷狗计算机科技有限公司 一种音频数据处理方法以及装置
CN108008930A (zh) * 2017-11-30 2018-05-08 广州酷狗计算机科技有限公司 确定k歌分值的方法和装置
CN108492835A (zh) * 2018-02-06 2018-09-04 南京陶特思软件科技有限公司 一种唱歌的评分方法
CN109979483A (zh) * 2019-03-29 2019-07-05 广州市百果园信息技术有限公司 音频信号的旋律检测方法、装置以及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157976A (zh) * 2015-04-10 2016-11-23 科大讯飞股份有限公司 一种唱歌评测方法及***
JP2017068046A (ja) * 2015-09-30 2017-04-06 ブラザー工業株式会社 歌唱基準データ修正装置、カラオケシステム、プログラム
CN107103915A (zh) * 2016-02-18 2017-08-29 广州酷狗计算机科技有限公司 一种音频数据处理方法以及装置
CN108008930A (zh) * 2017-11-30 2018-05-08 广州酷狗计算机科技有限公司 确定k歌分值的方法和装置
CN108492835A (zh) * 2018-02-06 2018-09-04 南京陶特思软件科技有限公司 一种唱歌的评分方法
CN109979483A (zh) * 2019-03-29 2019-07-05 广州市百果园信息技术有限公司 音频信号的旋律检测方法、装置以及电子设备

Also Published As

Publication number Publication date
CN111081277A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN107978323B (zh) 音频识别方法、装置及存储介质
CN110933330A (zh) 视频配音方法、装置、计算机设备及计算机可读存储介质
CN108538302B (zh) 合成音频的方法和装置
CN110688082B (zh) 确定音量的调节比例信息的方法、装置、设备及存储介质
CN110491358B (zh) 进行音频录制的方法、装置、设备、***及存储介质
CN109147757B (zh) 歌声合成方法及装置
CN111061405B (zh) 录制歌曲音频的方法、装置、设备及存储介质
CN110956971B (zh) 音频处理方法、装置、终端及存储介质
CN111081277B (zh) 音频测评的方法、装置、设备及存储介质
WO2022111168A1 (zh) 视频的分类方法和装置
CN110266982B (zh) 在录制视频时提供歌曲的方法和***
CN111524501A (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
CN109743461B (zh) 音频数据处理方法、装置、终端及存储介质
CN111428079B (zh) 文本内容处理方法、装置、计算机设备及存储介质
CN110867194B (zh) 音频的评分方法、装置、设备及存储介质
CN111368136A (zh) 歌曲识别方法、装置、电子设备及存储介质
CN112086102B (zh) 扩展音频频带的方法、装置、设备以及存储介质
CN112667844A (zh) 检索音频的方法、装置、设备和存储介质
CN109003627B (zh) 确定音频得分的方法、装置、终端及存储介质
CN109036463B (zh) 获取歌曲的难度信息的方法、装置及存储介质
CN108763521B (zh) 存储歌词注音的方法和装置
CN108831423B (zh) 提取音频数据中主旋律音轨的方法、装置、终端及存储介质
CN113362836B (zh) 训练声码器方法、终端及存储介质
CN112992107B (zh) 训练声学转换模型的方法、终端及存储介质
CN111063372B (zh) 确定音高特征的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant