CN108763182B - 渲染歌词的方法和装置 - Google Patents

渲染歌词的方法和装置 Download PDF

Info

Publication number
CN108763182B
CN108763182B CN201810545626.9A CN201810545626A CN108763182B CN 108763182 B CN108763182 B CN 108763182B CN 201810545626 A CN201810545626 A CN 201810545626A CN 108763182 B CN108763182 B CN 108763182B
Authority
CN
China
Prior art keywords
rendered
rendering
pronunciation
polyphonic
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810545626.9A
Other languages
English (en)
Other versions
CN108763182A (zh
Inventor
冯穗豫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Music Entertainment Technology Shenzhen Co Ltd
Original Assignee
Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Music Entertainment Technology Shenzhen Co Ltd filed Critical Tencent Music Entertainment Technology Shenzhen Co Ltd
Priority to CN201810545626.9A priority Critical patent/CN108763182B/zh
Publication of CN108763182A publication Critical patent/CN108763182A/zh
Priority to SG11202011481QA priority patent/SG11202011481QA/en
Priority to PCT/CN2018/116599 priority patent/WO2019223269A1/zh
Priority to EP18919467.3A priority patent/EP3805949A4/en
Priority to KR1020207037376A priority patent/KR102512279B1/ko
Priority to US17/056,172 priority patent/US11604919B2/en
Application granted granted Critical
Publication of CN108763182B publication Critical patent/CN108763182B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • G06F40/129Handling non-Latin characters, e.g. kana-to-kanji conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • G11B27/323Time code signal, e.g. on a cue track as SMPTE- or EBU-time code
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Abstract

本申请提供了一种渲染歌词的方法和装置,属于计算机技术领域。所述方法包括:在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息;确定所述读音中包含的振假名的第一数目;根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行。采用本申请,使歌词渲染更合理。

Description

渲染歌词的方法和装置
技术领域
本发明涉及计算机技术领域,特别涉及一种渲染歌词的方法和装置。
背景技术
随着计算机技术的发展,音频应用程序逐渐全球化,可以播放中文歌曲、英文歌曲和日文歌曲等,在播放歌曲时,为了使歌曲听起来更有艺术感,通常会出现某些多音字词的读音与最常用的读音不相同的情况,例如,在日文歌曲中,“宿命”一词常见的读音是“しゅくめい”,在歌曲中的读音是“さだめ”,所以为了显示歌词中多音字词的正确读音,一般会为特殊读音的多音字词标注正确读音。
相关技术中,在标注读音时,一般是在多音字词的后面增加一个括弧,在括弧里边显示正确读音。
这样,在播放歌曲的过程中,如果使用逐字渲染的方式显示歌词,由于多音字词的后面增加了读音,按照多音字词的总播放时长除以多音字词的汉字数目,得到每个汉字的渲染时长,这样,仅考虑了多音字词的渲染,而没有考虑读音的渲染,等播放完该多音字词后,会接着从该多音字词的读音开始渲染,导致歌词与当前播放的内容不匹配,所以急需提供一种渲染歌词的方法。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种渲染歌词的方法和装置。所述技术方案如下:
第一方面,提供了一种渲染歌词的方法,所述方法包括:
在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息;
确定所述读音中包含的振假名的第一数目;
根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行。
可选的,所述目标歌词是日语歌词;
所述方法还包括:
确定所述待显示多音字词的读音的假名中存在拗音。
可选的,所述根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
根据所述待渲染多音字词的读音的播放时间信息,确定所述待渲染多音字词的读音中各振假名的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第一数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各振假名一一对应;
对于所述待渲染多音字词的读音中每个振假名,在所述振假名的渲染时长内,同时对所述振假名和所述振假名对应的分割得到的子像素进行逐字渲染。
可选的,所述根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
将所述第一数目减去所述拗音的数目,得到第二数目;
根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染。
可选的,所述根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
根据所述待渲染多音字词的读音的播放时间信息,确定所述多音字词的读音中各音节的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第二数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各音节一一对应;
对于所述待渲染多音字词的读音中每个音节,在所述音节的渲染时长内,同时对所述音节和所述音节对应的分割得到的子像素进行逐字渲染。
可选的,所述获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息,包括:
从所述目标歌词正文的附加部分中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音中各振假名的开始渲染标识;
将所述读音中各振假名的开始渲染标识,确定为所述读音的播放时间信息。
第二方面,提供了一种渲染歌词的装置,所述装置包括:
获取模块,用于在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息;
确定模块,用于确定所述读音中包含的振假名的第一数目;
渲染模块,用于根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行。
可选的,所述目标歌词是日语歌词;
所述确定模块,还用于:
确定所述待显示多音字词的读音的假名中存在拗音。
可选的,所述渲染模块,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述待渲染多音字词的读音中各振假名的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第一数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各振假名一一对应;
对于所述待渲染多音字词的读音中每个振假名,在所述振假名的渲染时长内,同时对所述振假名和所述振假名对应的分割得到的子像素进行逐字渲染。
可选的,所述渲染模块,用于:
将所述第一数目减去所述拗音的数目,得到第二数目;
根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染。
可选的,所述渲染模块,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述多音字词的读音中各音节的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第二数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各音节一一对应;
对于所述待渲染多音字词的读音中每个音节,在所述音节的渲染时长内,同时对所述音节和所述音节对应的分割得到的子像素进行逐字渲染。
可选的,所述获取模块,用于:
从所述目标歌词正文的附加部分中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音中各振假名的开始渲染标识;
将所述读音中各振假名的开始渲染标识,确定为所述读音的播放时间信息。
本发明实施例提供的技术方案带来的有益效果至少包括:
本发明实施例中,在渲染歌词的过程中,可以将待渲染多音字词的读音显示在待渲染多音字词的上方或下方,而且对待渲染多音字词的像素的切分,得到多个相同大小的子像素,将每份子像素与振假名同步渲染,使歌词渲染更合理,提供了渲染歌词的方法。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种歌词的示意图;
图2是本发明实施例提供的一种渲染歌词的方法流程图;
图3是本发明实施例提供的一种歌词的正文的附加部分的示意图;
图4是本发明实施例提供的一种读音的显示示意图;
图5是本发明实施例提供的一种渲染的示意图;
图6是本发明实施例提供的一种渲染的示意图;
图7是本发明实施例提供的一种渲染歌词的装置的结构示意图;
图8是本发明实施例提供的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种渲染歌词的方法,该方法的执行主体可以是终端。终端可以平板、手机、电脑中,终端中可以设置有音频应用程序(如K歌应用程序等),用于播放音频数据。
终端中可以设置有处理器、存储器、收发器等,处理器可以用于进行渲染歌词的过程的处理,存储器可以用于渲染歌词过程中需要的数据以及产生的数据,收发器可以用于接收以及发送数据。终端中还可以设置有屏幕等输入输出设备等,屏幕可以是触摸屏幕,屏幕可以用于显示歌词等。本实施例中以终端为手机为例进行方案的详细描述,其它情况与之类似,本实施例不再累述。
进行实施前,首先介绍一下本发明实施例的应用场景:
在用户在使用终端播放歌曲时,为了提醒用户当前播放的音频对应的歌词,一般会在屏幕上对歌词进行渲染,处理过程是:当音频播放至对应的歌词时,会将该歌词的颜色变成其它颜色,这样,用户就可以知道当前音频对应的歌词,例如,如图1所示,歌曲是《成都》,歌词是“我想和你在成都的街头走一走、、、”,本来歌词颜色是红色,当前音频播放至对应的歌词为“你在”,“你在”的颜色会变成黄色,这样,就可以达到提醒的目的。对于有些歌曲,该歌曲的歌词中某些词语是多音字词(多音字词指词语有多个读音,例如,在日语中“出”(中文意思是“出现”)的读音为“だ”或“で”),在显示歌词时,会标注出读音,例如,某些日语歌曲,为了达到艺术效果,歌词中某些词语的读音与最常用的读音不相同(“宿命”一词最常用的读音为“しゅくめい”,但是在歌词中读音为“さだめ”),就会进行标注,所以就需要对读音一起进行渲染,本发明实施例基于此提供了如下的方案。
另外,介绍一下本发明实施例中,目标歌词正文的存储方式:
[第一行开始播放标识][开始播放标识]第一行第一个词<开始播放标识>第一行第二个词<开始播放标识>...第一行最后一个词。
本发明实施例中,以歌曲是日语歌曲为例进行方案的说明,如图2所示,该方法的执行流程可以如下:
步骤201,在渲染目标歌词的过程中,获取目标歌词中待渲染多音字词的读音,并获取读音的播放时间信息。
其中,目标歌词为任一歌曲的歌词,并且目标歌词中包括至少一个多音字词,如目标歌曲可以是流行歌曲等。多音字词指词语有多个读音,例如,在日语中“出”的读音为“だ”或“で”。
在实施中,用户想要听歌,可以在终端中安装音频应用程序,进行登录处理,终端则会显示音频应用程序的主界面,用户可以选择自己喜欢的歌曲(后续可以称为目标歌曲)进行播放,终端检测到播放目标歌曲时,可以显示歌词界面,一般是显示一行歌词,并显示一行歌词中的多音字词的读音,对这一行歌词进行渲染。
在播放目标歌曲的过程中,会对目标歌曲对应的目标歌词进行渲染,在播放至多音字词(后续可以称为是待渲染多音字词)的音频时,终端可以获取待渲染多音字词的读音,并且获取该读音的播放时间信息,播放时间信息用于指示读音的渲染时间。
可选的,可以是在播放至待渲染歌词时,查找预先存储的词典,查找待渲染多音字词的读音。
可选的,可以是在播放至待渲染歌词时,从预先存储的读音中(存储方式会在后面进行详细说明),获取待渲染多音字词的读音。
可选的,可以从歌词的正文的附加部分,获取目标歌词中待渲染多音字词的相关内容,相应的步骤201的处理可以如下:
从目标歌词正文的附加部分中,获取目标歌词中待渲染多音字词的读音,并获取读音中各振假名的开始渲染标识,将读音中各振假名的开始渲染标识,确定为读音的播放时间信息。
其中,开始渲染标识用于查找对应的多音字词,可以是时间戳,在存储歌词时,格式一般是[开始渲染标识]第一行第一个词[开始渲染标识]第一行第二个词…,所以可以基于相同的开始渲染标识,确定多音字词对应的读音。
在实施中,目标歌词正文的附加部分可以是歌词Meta段,指与歌词渲染内容无关,用于记载歌词的附加信息的部分,例如,如图3所示,在LRC(lyric)格式的歌词中,在歌词正文的前面,有如下内容al:本歌所在的唱片集,ar:演出者-歌手,au:歌词作者-作曲家,by:LRC文件的创建者等。目标歌词的多音字词的读音和开始渲染标识,可以添加在目标歌词正文的附加部分中,可以以“kana:[开始渲染标识]振假名[开始渲染标识]振假名……”的格式存储。
终端可以获取目标歌词的待渲染多音字词的读音、各振假名的开始渲染标识,然后将读音中各振假名的开始渲染标识,确定为读音的播放时间信息。
步骤202,确定读音中包含的振假名的第一数目。
其中,振假名是日语中用于标注文字的读音的假名,例如,日语中“欠片”(中文意思为“碎片”)的读音是“かけら”。
在实施中,终端获取到待渲染多音字词后,可以确定待渲染多音字词的读音中包含的振假名的第一数目,例如,在日语中,待渲染多音字词为“雨”(中文意思为“雨”),读音为“あめ”,振假名的第一数目为2。
步骤203,根据第一数目和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行逐字渲染。
在实施中,在显示目标歌词时,两行歌词的中间有一定空隙,如果目标歌词中包含待渲染多音字词,可以在待渲染多音字词的上方或下方显示多音字词的读音,也就是待渲染多音字词的读音与待渲染多音字词相邻且平行。例如,如图4所示,“雨”(中文意思为“雨”)的上方显示读音“あめ”。
终端在确定待渲染多音字词的读音中包含的振假名的第一数目后,可以根据第一数目和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行染色,达到渲染的效果,以实现读音与待渲染多音字词同步渲染。
可选的,可以基于每个振假名的渲染时长,对待渲染多音字词进行渲染,相应的处理过程可以如下:
根据待渲染多音字词的读音的播放时间信息,确定待渲染多音字词的读音中各振假名的渲染时长;在渲染方向上将待渲染多音字词的像素,平均分割为第一数目个子像素;根据渲染方向,将分割得到的子像素与待渲染多音字词的读音中各振假名一一对应;对于待渲染多音字词的读音中每个振假名,在振假名的渲染时长内,同时对振假名和振假名对应的分割得到的子像素进行逐字渲染。
其中,渲染方向用于指示一行歌词中各词语显示的先后顺序,如横向从左向右渲染等。
在实施中,如果待渲染多音字词的读音的播放时间信息是每个振假名的开始渲染时间(也可以称为是时间戳),可以将连续两个振假名的开始显示时间相减,得到除最后一个振假名的渲染时长,最后一个振假名的渲染时长为,与该待渲染多音字词相邻的即将演唱的词语的开始渲染时间减去该振假名的开始渲染时间。例如,待渲染多音字词为“雨”(中文意思为“雨”),读音为“あめ”,振假名“あ”的开始渲染时间为0,振假名“め”的开始渲染时间为200ms,待渲染多音字词后一个字的开始渲染时间为300ms,振假名“あ”的渲染时长为200ms,振假名“め”的渲染时长为100ms。
如果待渲染多音字词的读音的播放时间信息是使用隐式方式(隐式方式不显示读音的第一个振假名的开始渲染时间,在后面详细说明)表示,可以基于歌词中与待渲染多音字词对应的词语的开始渲染时间,确定出待渲染多音字词的读音中各振假名的渲染时长。
在确定出各振假名的渲染时长后,可以在渲染方向上,将待渲染词语的像素等分为第一数目个子像素,然后将等分后的子像素与各振假名一一对应。例如,如图5所示,还是上述日语中的“雨”,振假名的第一数目为2,渲染方向是横向从左向右渲染,可以将“雨”从左向右分为两份子像素,左半边的子像素对应振假名“あ”,渲染时长是200ms,右半边的子像素对应振假名“め”,渲染时长为100ms。再例如,如图6所示,日语中“欠片”(中文意思为“碎片”)的读音“かけら”有三个振假名,可以将“欠片”的像素等分为三等份,第一份的渲染时长与“か”渲染时长相等,为50ms,第二份的渲染时长与“け”的渲染时长相等,为40ms,第三份的渲染时长与“ら”的渲染时长相等,为50ms。
然后终端可以在待渲染多音字词的读音中各振假名的渲染时长内,对各振假名和各振假名对应的分割得到的子像素进行染色。例如,还是上述日语中的“雨”,“雨”的本来颜色是红色,在200ms内对“雨”的左半边子像素进行匀速染色,变成黄色,同时对读音中的“あ”使用相同速度进行匀速染色,使“雨”的左半边子像素和“あ”同步染色完成,然后,在100ms内对“雨”的右半边子像素匀速进行染色,同时对读音中的“め”使用相同速度匀速进行染色,使“雨”的右半边子像素和“め”同步染色完成。这样,就可以实现同步渲染。
可选的,目标歌词是日语歌词,可以首先判断待渲染多音字词的读音中是否存在拗音,再基于是否存在拗音进行渲染,相应的处理可以如下:
确定待显示多音字词的读音的假名中存在拗音,根据第一数目和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行逐字渲染。
其中,拗音在日语中不占用音节,也就是说假如读音中包括有两个振假名,其中一个是拗音,实际上仅占用一个音节。例如,日语中“ファンタジー”(中文意思是“幻想”)中的“ァ”是拗音,所以“ファンタジー”的音节数目是5个(即“ファ/ン/タ/ジ/ー”)。
在实施中,终端可以获取自身中预先存储的至少一个拗音,然后将待渲染多音字词的读音与该至少一个拗音进行匹配,如果待渲染多音字词的读音中包括了至少一个拗音中的拗音,则确定待渲染多音字词的读音的假名中存在拗音。如果待渲染多音字词的读音中不包括至少一个拗音中的任一拗音,则确定待显示多音字词的读音的假名中不存在拗音。
终端在确定待渲染多音字词的读音的假名中存在拗音后,可以根据第一数目和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行染色,达到渲染的效果,以实现读音与待渲染多音字词同步渲染(对于此处的渲染可以参照前面的详细描述,此处不再赘述)。
可选的,基于是否存在拗音进行渲染,还可以使用另一种方式,相应的处理可以如下:
将第一数目减去拗音的数目,得到第二数目;根据第二数目和和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行逐字渲染。
在实施中,终端在确定待渲染多音字词的读音的假名中存在拗音后,将第一数目减去拗音的数目,得到第二数目(第二数目实际上是待渲染多音字词中包含的音节的数目),然后根据第二数目和待渲染多音字词的读音的播放时间信息,同时对待渲染多音字词和待渲染多音字词的读音中各振假名进行染色,达到渲染的效果,以实现读音与待渲染多音字词同步渲染。
可选的,基于第二数目进行渲染的方式可以如下:
根据待渲染多音字词的读音的播放时间信息,确定多音字词的读音中各音节的渲染时长;在渲染方向上将待渲染多音字词的像素,平均分割为第二数目个子像素;根据渲染方向,将分割得到的子像素与待渲染多音字词的读音中各音节一一对应;对于待渲染多音字词的读音中每个音节,在音节的渲染时长内,同时对音节和音节对应的分割得到的子像素进行逐字渲染。
在实施中,在使用第二数目进行多音字词渲染,拗音可以与振假名共用一个开始渲染标识,拗音与前一个振假名占用一个音节。如果待渲染多音字词的读音的播放时间信息是每个音节的开始渲染时间(也可以称为是时间戳),可以将连续两个音节的开始显示时间相减,得到除最后一个音节的渲染时长,最后一个音节的渲染时长为,与该待渲染多音字词相邻的即将演唱的歌词的开始渲染时间减去该音节的开始渲染时间。例如,日语中“幻想”(中文意思是“幻想”),的读音是“ファンタジー”,其中“ァ”是拗音,“ァ”与“フ”占用一个音节,共用一个开始渲染时间,“ファ”的共用渲染时长为“ン”的开始渲染时间减去“ファ”的开始渲染时间。另外,待渲染多音字词的读音的播放时间信息也可以是每个振假名的开始渲染时间(也可以称为是时间戳),可以基于前面的方式,确定出每个振假名的渲染时长,将“ァ”与“フ”的渲染时长相加,即得到“ファ”的共用渲染时长。
如果待渲染多音字词的读音的播放时间信息是使用隐式方式(隐式方式不显示读音的第一个振假名的开始渲染时间,在后面详细说明)表示,可以基于歌词中与待渲染多音字词对应的词语的开始渲染时间,确定出待渲染多音字词的读音中各音节的渲染时长。
在确定出各振假名的渲染时长后,可以在渲染方向上,将待渲染词语的像素等分为第二数目个子像素,然后将等分后的子像素与各振假名一一对应。例如,还是上述日语中的“幻想”,音节的第二数目为5,渲染方向是横向从左向右,可以将“幻想”从左向右分为五份子像素,从左向右,第一份子像素与“ファ”对应,第二份子像素与“ン”对应,第三份子像素与“タ”对应,第四份子像素与“ジ”对应,第五份子像素与“ー”对应。
然后终端可以在待渲染多音字词的读音中各音节的渲染时长内,对各音节和各音节对应的分割得到的子像素进行染色。例如,还是上述日语中的“幻想”,“幻想”的本来颜色是红色,在“ファ”的渲染时长内,对“幻想”的第一份子像素进行匀速染色,同时对读音中的“ファ”使用相同速度进行匀速染色,使“幻想”的第一份子像素和“ファ”同步染色完成,其它部分的渲染与之类似,不一一列出。这样,就可以实现同步渲染。
需要说明的是,上述读音中存在拗音时,分为两种方式来进行渲染,其实只要能确定出每个读音中每个振假名的开始渲染标识,既可以根据第一数目,也可以根据第二数目进行渲染,由于“ファ”的总渲染时长是一样的,两种方式没有实际的区别。
还需要说明的是,上述提到的渲染方向均是横向从左向右渲染,本发明实施例中的渲染方向还可以是纵向从上往下渲染,也就是在显示一竖行歌词时,从上至下逐字渲染。
还需要说明的是,上述是以在终端播放音频为例进行说明,同样也可以用于KTV的设备渲染歌词,也就是说凡是使用卡拉OK格式的歌词,都可以使用这种方式。本发明实施例中,用日语中的歌曲进行方案的描述,同样可以用于其他语言歌词中多音字词的渲染,如法语、英语等。
另外,在本发明实施例中,还提供了预先存储目标歌词的读音的方式,相应的处理可以如下:
技术人员可以确定目标歌词中每个多音字词的读音,并且对于任一多音字词的读音中的每个振假名标注开始渲染标识,读音中第一个振假名的开始渲染标识与多音字词的开始渲染标识相同,这样,可以查找到多音字词对应的读音。然后可以将多音字词和多音字词对应的开始渲染标识,按照“kana:[开始渲染标识]振假名[开始渲染标识]振假名……”的格式存储至目标歌词正文的附加部分,同样,也可以按照“syllables:[开始渲染标识]振假名[开始渲染标识]振假名……”的格式存储至目标歌词正文的附加部分,附加部分可以是上述提到的Meta段。这样,在原Meta段中追加读音的相关信息,由于Meta段解析机制比较宽松,所以即使在原Meta段中追加读音的相关信息,也不会影响格式的变化,不会引起音频应用程序的异常。
或者,在日语中,同一字与不同的字组成一个词,会有不同的读音,所以终端可以按照最长匹配的方式(例如,日语中“思出”,在“思い出を”(中文意思是“把回忆”)中“思”的读音为“おも”,“出”的读音为“で”,在“思い出し”(中文意思是“请想起回忆”)中“思”的读音为“おも”,“出”的读音为“だ”)。所以在实际查找词典时,可以使用最长匹配原则,查看多音字词后一个词,得到该多用词的读音),确定每个多音字词的读音,对于任一多音字词的读音,将该读音与目标歌词中多音字词相对应,确定出该读音的开始渲染标识,作为该读音中第一个振假名的开始渲染标识,并且基于开始渲染标识和目标歌词的音频,为读音中除第一个振假名之外的其它振假名,标注开始渲染标识。然后可以将多音字词和多音字词对应的开始渲染标识,按照“kana:[开始渲染标识]振假名[开始渲染标识]振假名……”的格式存储至目标歌词正文的附加部分,同样,也可以按照“syllables:[开始渲染标识]振假名[开始渲染标识]振假名……”的格式存储至目标歌词正文的附加部分,附加部分可以是上述提到的Meta段。
另外,上述提到的隐式方式,可以是标注隐式开始渲染标识,例如,日语中“欠片の絆”(中文意思是“碎片的牵绊”),“欠片”的读音为“かけら”,“絆”的读音为“きずな”,“の”不是多音字词不需要进行标注,在存储读音时,“欠片の絆”的读音可以存储为“2か(1000,500)け(1500,500)ら(2000,1000)1きずな”,其中,“2”表示后面是两个字的读音,即“欠片”的读音,“1”表示后面是一个字的读音,即“絆”的读音,第一个“1000”表示“か”的开始渲染时间,“1500”表示“け”的开始渲染时间,“2000”表示“ら”的开始渲染时间,“500”表示“か”和“け”的渲染时长,最后一个“1000”表示“ら”的渲染时长,而对于“絆”三个振假名的渲染时长相同,所以可以只标注“1”,“きずな”的渲染时长,可以基于“き”的开始渲染时间和目标歌词中“絆”的后一个词的开始渲染时间确定(取二者的差值的绝对值)。按照隐式方式进行标注后,也可以将读音按照在歌词中多音字词的先后顺序,存储在目标歌词正文的附加部分(可以是Meta段)。
在后续获取待渲染多音字词的读音时,终端可以确定歌词中的多音字词,如果是第一个多音字词,就获取最开始的读音,并查看是几个字的读音,如果是第二个多音字词,就获取第二个读音,并查看是几个字的读音,依次类推,就可以获取到待渲染多音字词的读音,对于待渲染多音字词的播放时间信息,如果待渲染多音字词的读音中标注有开始渲染标识和渲染时长,可以直接获取到,如果没有标注有开始渲染时长,可以基于自己的开始渲染标识和后一个词的开始渲染标识确定(如开始渲染标识为开始渲染时间,求两个时间的时间差的绝对值,将绝对值除以读音中振假名的数目,得到各振假名的渲染时长),这样,就可以确定出待渲染多音字词的读音的播放时间信息。
需要说明的是,上述Meta段可以位于目标歌词正文的后面,也可以位于目标歌词正文的前面。
本发明实施例中,在渲染歌词的过程中,可以将待渲染多音字词的读音显示在待渲染多音字词的上方或下方,而且对待渲染多音字词的像素的切分,得到多个相同大小的子像素,将每份子像素与振假名同步渲染,使歌词渲染更合理,提供了渲染歌词的方法。
基于相同的技术构思,本发明实施例还提供了一种渲染歌词的装置,如图7所示,该装置包括:
获取模块710,用于在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息;
确定模块720,用于确定所述读音中包含的振假名的第一数目;
渲染模块730,用于根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行。
可选的,所述目标歌词是日语歌词;
所述确定模块720,还用于:
确定所述待显示多音字词的读音的假名中存在拗音。
可选的,所述渲染模块730,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述待渲染多音字词的读音中各振假名的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第一数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各振假名一一对应;
对于所述待渲染多音字词的读音中每个振假名,在所述振假名的渲染时长内,同时对所述振假名和所述振假名对应的分割得到的子像素进行逐字渲染。
可选的,所述渲染模块730,用于:
将所述第一数目减去所述拗音的数目,得到第二数目;
根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染。
可选的,所述渲染模块730,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述多音字词的读音中各音节的渲染时长;
在渲染方向上将所述待渲染多音字词的子像素,平均分割为所述第二数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各音节一一对应;
对于所述待渲染多音字词的读音中每个音节,在所述音节的渲染时长内,同时对所述音节和所述音节对应的分割得到的子像素进行逐字渲染。
可选的,所述获取模块710,用于:
从所述目标歌词正文的附加部分中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音中各振假名的开始渲染标识;
将所述读音中各振假名的开始渲染标识,确定为所述读音的播放时间信息。
本发明实施例中,在渲染歌词的过程中,可以将待渲染多音字词的读音显示在待渲染多音字词的上方或下方,而且对待渲染多音字词的像素的切分,得到多个相同大小的子像素,将每份子像素与振假名同步渲染,使歌词渲染更合理,提供了渲染歌词的方法。
本发明实施例中,需要说明的是:上述实施例提供的渲染歌词的装置在渲染歌词时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的渲染歌词的装置与渲染歌词的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图8示出了本发明一个示例性实施例提供的终端800的结构框图。该终端800可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中方法实施例提供的渲染歌词的方法。
在一些实施例中,终端800还可选包括有:***设备接口803和至少一个***设备。处理器801、存储器802和***设备接口803之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口803相连。具体地,***设备包括:射频电路804、触摸显示屏805、摄像头806、音频电路807、定位组件808和电源809中的至少一种。
***设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和***设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和***设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在再一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或触摸显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在触摸显示屏805的下层时,由处理器801根据用户对触摸显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制触摸显示屏805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏805的显示亮度;当环境光强度较低时,调低触摸显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制触摸显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制触摸显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种渲染歌词的方法,其特征在于,所述方法包括:
在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息,所述目标歌词为日语歌词,多音字词指存在多个读音的字词;
确定所述读音中包含的振假名的第一数目;
根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行;
所述根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
根据所述待渲染多音字词的读音的播放时间信息,确定所述待渲染多音字词的读音中各振假名的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第一数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各振假名一一对应;
对于所述待渲染多音字词的读音中每个振假名,在所述振假名的渲染时长内,同时对所述振假名和所述振假名对应的分割得到的子像素进行逐字渲染。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定所述待渲染多音字词的读音的假名中存在拗音。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
将所述第一数目减去所述拗音的数目,得到第二数目;
根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,包括:
根据所述待渲染多音字词的读音的播放时间信息,确定所述多音字词的读音中各音节的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第二数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各音节一一对应;
对于所述待渲染多音字词的读音中每个音节,在所述音节的渲染时长内,同时对所述音节和所述音节对应的分割得到的子像素进行逐字渲染。
5.根据权利要求1所述的方法,其特征在于,所述获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息,包括:
从所述目标歌词正文的附加部分中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音中各振假名的开始渲染标识;
将所述读音中各振假名的开始渲染标识,确定为所述读音的播放时间信息。
6.一种渲染歌词的装置,其特征在于,所述装置包括:
获取模块,用于在渲染目标歌词的过程中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音的播放时间信息,所述目标歌词为日语歌词,多音字词指存在多个读音的字词;
确定模块,用于确定所述读音中包含的振假名的第一数目;
渲染模块,用于根据所述第一数目和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染,其中,所述待渲染多音字词的读音与所述待渲染多音字词相邻且平行;
所述渲染模块,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述待渲染多音字词的读音中各振假名的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第一数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各振假名一一对应;
对于所述待渲染多音字词的读音中每个振假名,在所述振假名的渲染时长内,同时对所述振假名和所述振假名对应的分割得到的子像素进行逐字渲染。
7.根据权利要求6所述的装置,其特征在于,所述确定模块,还用于:
确定所述待渲染多音字词的读音的假名中存在拗音。
8.根据权利要求7所述的装置,其特征在于,所述渲染模块,用于:
将所述第一数目减去所述拗音的数目,得到第二数目;
根据所述第二数目和和所述待渲染多音字词的读音的播放时间信息,同时对所述待渲染多音字词和所述待渲染多音字词的读音中各振假名进行逐字渲染。
9.根据权利要求8所述的装置,其特征在于,所述渲染模块,用于:
根据所述待渲染多音字词的读音的播放时间信息,确定所述多音字词的读音中各音节的渲染时长;
在渲染方向上将所述待渲染多音字词的像素,平均分割为所述第二数目个子像素;
根据所述渲染方向,将分割得到的子像素与所述待渲染多音字词的读音中各音节一一对应;
对于所述待渲染多音字词的读音中每个音节,在所述音节的渲染时长内,同时对所述音节和所述音节对应的分割得到的子像素进行逐字渲染。
10.根据权利要求6所述的装置,其特征在于,所述获取模块,用于:
从所述目标歌词正文的附加部分中,获取所述目标歌词中待渲染多音字词的读音,并获取所述读音中各振假名的开始渲染标识;
将所述读音中各振假名的开始渲染标识,确定为所述读音的播放时间信息。
CN201810545626.9A 2018-05-25 2018-05-25 渲染歌词的方法和装置 Active CN108763182B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201810545626.9A CN108763182B (zh) 2018-05-25 2018-05-25 渲染歌词的方法和装置
SG11202011481QA SG11202011481QA (en) 2018-05-25 2018-11-21 Method and device for rendering lyrics
PCT/CN2018/116599 WO2019223269A1 (zh) 2018-05-25 2018-11-21 渲染歌词的方法和装置
EP18919467.3A EP3805949A4 (en) 2018-05-25 2018-11-21 LYRIC REPRODUCTION METHOD AND APPARATUS
KR1020207037376A KR102512279B1 (ko) 2018-05-25 2018-11-21 가사 렌더링 방법 및 장치
US17/056,172 US11604919B2 (en) 2018-05-25 2018-11-21 Method and apparatus for rendering lyrics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810545626.9A CN108763182B (zh) 2018-05-25 2018-05-25 渲染歌词的方法和装置

Publications (2)

Publication Number Publication Date
CN108763182A CN108763182A (zh) 2018-11-06
CN108763182B true CN108763182B (zh) 2020-12-25

Family

ID=64000955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810545626.9A Active CN108763182B (zh) 2018-05-25 2018-05-25 渲染歌词的方法和装置

Country Status (6)

Country Link
US (1) US11604919B2 (zh)
EP (1) EP3805949A4 (zh)
KR (1) KR102512279B1 (zh)
CN (1) CN108763182B (zh)
SG (1) SG11202011481QA (zh)
WO (1) WO2019223269A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108763182B (zh) * 2018-05-25 2020-12-25 腾讯音乐娱乐科技(深圳)有限公司 渲染歌词的方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4154758B2 (ja) * 1998-07-10 2008-09-24 ヤマハ株式会社 カラオケ装置
US20060150802A1 (en) * 2004-06-28 2006-07-13 Whiting James A System for use of a personal computer for performing music
US8686271B2 (en) * 2010-05-04 2014-04-01 Shazam Entertainment Ltd. Methods and systems for synchronizing media
JP5516667B2 (ja) * 2012-07-30 2014-06-11 ブラザー工業株式会社 歌詞文字映像表示制御装置、歌詞文字映像表示制御プログラム、及び歌詞文字映像表示方法
CN103793364B (zh) * 2014-01-23 2018-09-07 北京百度网讯科技有限公司 对文本进行自动注音处理及显示的方法和装置
CN104093085B (zh) * 2014-04-22 2016-08-24 腾讯科技(深圳)有限公司 信息显示方法和装置
US20170018203A1 (en) * 2015-07-14 2017-01-19 Learning Circle Kids LLC Systems and methods for teaching pronunciation and/or reading
CN105761733A (zh) * 2016-02-02 2016-07-13 腾讯科技(深圳)有限公司 生成歌词文件的方法和装置
CN106653071B (zh) * 2016-12-30 2019-11-22 腾讯音乐娱乐(深圳)有限公司 一种歌词显示方法及装置
CN107864410B (zh) * 2017-10-12 2023-08-25 庄世健 一种多媒体数据处理方法、装置、电子设备以及存储介质
CN107943964A (zh) 2017-11-27 2018-04-20 腾讯音乐娱乐科技(深圳)有限公司 歌词显示方法、装置及计算机可读存储介质
CN108763182B (zh) * 2018-05-25 2020-12-25 腾讯音乐娱乐科技(深圳)有限公司 渲染歌词的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Retrieving Vaguely Remembered Lyrics Using N-Gram Edit Distance;M.L.Cheah;《Internatioinal Journal of Advanced Intelligence》;20160531;第8卷(第1期);第1-11页 *

Also Published As

Publication number Publication date
US20210216702A1 (en) 2021-07-15
EP3805949A1 (en) 2021-04-14
EP3805949A4 (en) 2022-03-30
KR20210014140A (ko) 2021-02-08
US11604919B2 (en) 2023-03-14
WO2019223269A1 (zh) 2019-11-28
KR102512279B1 (ko) 2023-03-22
SG11202011481QA (en) 2020-12-30
CN108763182A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN110933330A (zh) 视频配音方法、装置、计算机设备及计算机可读存储介质
CN108965922B (zh) 视频封面生成方法、装置和存储介质
CN109144346B (zh) 歌曲分享方法、装置及存储介质
CN109922356B (zh) 视频推荐方法、装置和计算机可读存储介质
CN109635133B (zh) 可视化音频播放方法、装置、电子设备及存储介质
CN111061405B (zh) 录制歌曲音频的方法、装置、设备及存储介质
CN110996167A (zh) 在视频中添加字幕的方法及装置
CN111083526B (zh) 视频转场方法、装置、计算机设备及存储介质
CN111081277B (zh) 音频测评的方法、装置、设备及存储介质
CN111092991B (zh) 歌词显示方法及装置、计算机存储介质
CN108763441B (zh) 生成歌词、显示歌词的方法、装置、电子设备及存储介质
CN108763521B (zh) 存储歌词注音的方法和装置
CN112118482A (zh) 音频文件的播放方法、装置、终端及存储介质
CN111370096A (zh) 交互界面的显示方法、装置、设备及存储介质
CN108763182B (zh) 渲染歌词的方法和装置
CN108831423B (zh) 提取音频数据中主旋律音轨的方法、装置、终端及存储介质
CN111063372B (zh) 确定音高特征的方法、装置、设备及存储介质
CN114360494A (zh) 韵律标注方法、装置、计算机设备及存储介质
CN110688046B (zh) 歌曲播放方法、装置及存储介质
CN112560903A (zh) 图像美学信息的确定方法、装置、设备及存储介质
CN110750675A (zh) 歌词分享方法及装置、存储介质
CN110045999B (zh) 绘制组件的方法、装置、终端和存储介质
CN109286769B (zh) 音频识别方法、装置及存储介质
CN110232135B (zh) 歌曲播放方法及装置、终端、存储介质
CN109446317B (zh) 显示歌词的方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant