CN112349270A - 一种智能开场白语音生成方法、装置和电子设备 - Google Patents

一种智能开场白语音生成方法、装置和电子设备 Download PDF

Info

Publication number
CN112349270A
CN112349270A CN202011171104.0A CN202011171104A CN112349270A CN 112349270 A CN112349270 A CN 112349270A CN 202011171104 A CN202011171104 A CN 202011171104A CN 112349270 A CN112349270 A CN 112349270A
Authority
CN
China
Prior art keywords
user
model
language style
voice
human voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011171104.0A
Other languages
English (en)
Inventor
李晴覃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qibao Xinan Technology Co ltd
Original Assignee
Beijing Qibao Xinan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qibao Xinan Technology Co ltd filed Critical Beijing Qibao Xinan Technology Co ltd
Priority to CN202011171104.0A priority Critical patent/CN112349270A/zh
Publication of CN112349270A publication Critical patent/CN112349270A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)

Abstract

本发明提供了一种用于售货机的智能开场白语音生成方法、装置和电子设备。该方法包括:建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;检测售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用人声模型和语言风格模型计算适合该用户的人声和语言风格;根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。本发明通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。

Description

一种智能开场白语音生成方法、装置和电子设备
技术领域
本发明涉及计算机信息处理领域,具体涉及一种用于售货机的智能开场白语音生成方法、装置和电子设备。
背景技术
随着科技的进步和新零售的发展,越来越多的无人零售柜出现在大街小巷,成为离我们最近的“迷你便利店”,它所销售的商品都是日常消费品,购买频率大,且它移动方便,给消费者带来的便利是不容置疑的,由此可以相信,自动贩卖机会以它方便、快捷、灵活的购买方式迅速地成为人们购物主力军,以打破人们传统的去超市、商场购物的习惯。用户通过按键选择零售柜提供的商品,零售柜则通过机器手为用户商品抓取商品并且送到商品出口。新零售概念从提出到现在,落地的产品形态不断转变,但其核心是基于人工智能、大数据、云计算等技术,让零售机变得更加个性化与智能化。
然而,在现有售货机的应用场景中,开场白的设定语音比较单一,同一销售商品的话术内容基本相同,且缺少个性化元素,并没有对不同用户定制不同的音色或话术内容,换言之,并没有针对不同用户提供吸引力强的音色或者个性化开场白等。此外,在应用于售货机的语音生成方面仍存在很多改进空间。
因此,有必要提供一种更优化的智能开场白语音生成方法。
发明内容
为了进一步优化用于售货机的开场白语音生成方法,本发明提供了一种用于售货机的智能开场白语音生成方法,包括:建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格;根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
优选地,所述建立人声模型包括:建立人声模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的人声信息;使用该人声模型训练数据集训练分类模型,以使该人声模型能根据用户的生物特征信息计算该用户所偏好的人声。
优选地,所述人声信息包括频率、振幅、音色、语速中的任一种。
优选地,还包括:建立语言风格模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的语言风格信息;使用该语言风格模型训练数据集训练分类模型,以使该语言风格模型能根据用户的生物特征信息计算该用户所偏好的语言风格。
优选地,所述语言风格信息数据包括平淡自然型、幽默风趣型、简洁洗练型、朴实无华型、辞藻华丽型和活泼可爱型。
优选地,所述生物特征包括人的性别、年龄、身高、种族、民族中的至少两个。
优选地,获取用户的人脸特征,根据该人脸特征对用户的生物特征进行识别。
优选地,还包括:记录已获取的用户的人脸特征及其对应的偏好人声和偏好语言风格;若当前所获取的人脸特征与已记录的人脸特征相同,则直接调取与该人脸特征对应的用户的偏好人声和偏好语言风格。
优选地,若当前所获取的人脸特征与已记录的人脸特征相同,从预定话术库中选择与老用户对应的开场白话术进行语音合成。
此外,本发明还提供了一种用于售货机的智能开场白语音生成装置,包括:第一建立模块,用于建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;第二建立模块,用于建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;检测模块,用于检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格;计算合成模块,根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
优选地,还包括:建立人声模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的人声信息;使用该人声模型训练数据集训练分类模型,以使该人声模型能根据用户的生物特征信息计算该用户所偏好的人声。
优选地,所述人声信息包括频率、振幅、音色、语速中的任一种。
优选地,还包括:建立语言风格模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的语言风格信息;使用该语言风格模型训练数据集训练分类模型,以使该语言风格模型能根据用户的生物特征信息计算该用户所偏好的语言风格。
优选地,所述语言风格信息数据包括平淡自然型、幽默风趣型、简洁洗练型、朴实无华型、辞藻华丽型和活泼可爱型。
优选地,所述生物特征包括人的性别、年龄、身高、种族、民族中的至少两个。
优选地,还包括识别模块,所述识别模块用于获取用户的人脸特征,根据该人脸特征对用户的生物特征进行识别。
优选地,还包括记录模块,所述记录模块用于记录已获取的用户的人脸特征及其对应的偏好人声和偏好语言风格;若当前所获取的人脸特征与已记录的人脸特征相同,则直接调取与该人脸特征对应的用户的偏好人声和偏好语言风格。
优选地,若当前所获取的人脸特征与已记录的人脸特征相同,从预定话术库中选择与老用户对应的开场白话术进行语音合成。
此外,本发明还提供了一种电子设备,其中,该电子设备包括:处理器;以及,存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行本发明所述的用于售货机的智能开场白语音生成方法。
此外,本发明还提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现本发明所述的用于售货机的智能开场白语音生成方法。
有益效果
与现有技术相比,本发明的用于售货机的智能开场白语音生成方法通过建立人声模型和建立语言风格模型,并使用两个模型计算适合用户的人声和语言风格,以生成对应的开场白话术,由此,能够更好地让周边用户看见,并且通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。
附图说明
为了使本发明所解决的技术问题、采用的技术手段及取得的技术效果更加清楚,下面将参照附图详细描述本发明的具体实施例。但需声明的是,下面描述的附图仅仅是本发明本发明示例性实施例的附图,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他实施例的附图。
图1是本发明的用于售货机的智能开场白语音生成方法的一示例的流程图。
图2是本发明的用于售货机的智能开场白语音生成方法的另一示例的流程图。
图3是本发明的用于售货机的智能开场白语音生成方法的又一示例的流程图。
图4是本发明的用于售货机的智能开场白语音生成装置的一示例的示意性结构框图。
图5是本发明的用于售货机的智能开场白语音生成装置的另一示例的示意性结构框图。
图6是本发明的用于售货机的智能开场白语音生成装置的又一示例的示意性结构框图。
图7是根据本发明的一种电子设备的示例性实施例的结构框图。
图8是根据本发明的计算机可读介质的示例性实施例的结构框图。
具体实施方式
现在将参考附图更全面地描述本发明的示例性实施例。然而,示例性实施例能够以多种形式实施,且不应被理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例能够使得本发明更加全面和完整,更加便于将发明构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的元件、组件或部分,因而将省略对它们的重复描述。
在符合本发明的技术构思的前提下,在某个特定的实施例中描述的特征、结构、特性或其他细节不排除可以以合适的方式结合在一个或更多其他的实施例中。
在对于具体实施例的描述中,本发明描述的特征、结构、特性或其他细节是为了使本领域的技术人员对实施例进行充分理解。但是,并不排除本领域技术人员可以实践本发明的技术方案而没有特定特征、结构、特性或其他细节的一个或更多。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
应理解,虽然本文中可能使用第一、第二、第三等表示编号的定语来描述各种器件、元件、组件或部分,但这不应受这些定语限制。这些定语乃是用以区分一者与另一者。例如,第一器件亦可称为第二器件而不偏离本发明实质的技术方案。
术语“和/或”或者“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
鉴于上述问题,本发明提供了一种用于售货机的智能开场白语音生成方法。本发明通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明的智能开场白语音生成方法作进一步的详细说明。
实施例1
下面,将参照图1至图3描述本发明的用于售货机的智能开场白语音生成方法的实施例。
图1是本发明的用于售货机的智能开场白语音生成方法的一示例的流程图。
如图1所示,一种智能开场白语音生成方法,该方法包括如下步骤。
步骤S101,建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声。
步骤S102,建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格。
步骤S103,检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格。
步骤S104,根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
在本示例中,本发明的方法应用于售货机,以针对不同用户生成对应的开场白语音和定制话术。
首先,在步骤S101中,建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声信息。
优选地,使用Xgboost算法,建立人声模型。
具体地,获取用户的生物特征信息、用户偏好的人声,其中,用户的生物特征信息包括人的性别、年龄、身高、种族、民族中的至少两个。
更具体地,对于数据的获取,例如,从大数据人口统计学数据库获取用户的生物特征信息。再例如,从音乐库、视频库、广播多媒体库等第三方数据库获取用户偏好的人声。
如图2所示,还包括对所获取的用户的生物特征信息和用户偏好的人声进行聚类分析的步骤S201。
在步骤S201中,对所获取的用户的生物特征信息和用户偏好的人声进行聚类分析。
具体地,使用K-means算法,进行聚类分析,将用户群和人声进行分类,并确定不同用户群所对应的受欢迎人声。
进一步地,例如,按照性别划分的男性和女性,或者按照年龄划分为老年人、中年人、青年和小孩等。
具体地,同一用户对应喜欢的人声可以是一种人声,也可以是多种不同的人声。
优选地,基于聚类分析结果,对没有标签的用户进行人声打标,并建立人声模型训练数据集,其中,该训练数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的人声信息。
在本示例中,所述人声信息包括频率、振幅、音色、语速中的任一种。
更进一步地,使用该人声模型训练数据集训练分类模型,以使该人声模型能根据用户的生物特征信息计算该用户所偏好的人声。
需要说明的是,在本示例中,使用Xgboost算法,建立人声模型。但是不限于此,在其他示例中,还可以使用逻辑回归算法等。上述仅作为优选的示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S102中,建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格。
优选地,使用Xgboost算法,建立语言风格模型。
在本示例中,获取用户的生物特征信息、语言风格信息,以建立语言风格模型训练数据集。
具体地,该语言风格模型训练数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的语言风格信息。
进一步地,使用该语言风格模型训练数据集训练分类模型,以使该语言风格模型能根据用户的生物特征信息计算该用户所偏好的语言风格。
在本示例中,所述语言风格信息数据包括平淡自然型、幽默风趣型、简洁洗练型、朴实无华型、辞藻华丽型和活泼可爱型。
例如,当用户靠近售货机时,售货机根据对用户的生物特征信息判断,以针对性推出更吸引人的音色和定制话术。再例如,售货机识别出当前购物的是一个小男孩,售货机会用小朋友对应的用户群最喜欢的音色说“你好呀,小朋友,我们这里有玩具、冰淇淋、饮料等,你想要什么都可以拿哦!”。由此,能够更好地让周边用户看见,并且通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。
接下来,在步骤S103中,检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格。
优选地,使用活体检测技术,对售货机周边预定范围内是否有用户进行检测。
例如,在检测到有用户的情况下,获取用户的人脸特征,根据该人脸特征对用户的生物特征进行识别。
进一步地,基于所识别的生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格。
优选地,记录已获取的用户的人脸特征及其对应的偏好人声和偏好语言风格。
优选地,在检测过程中,若当前所获取的人脸特征与已记录的人脸特征相同,则直接调取与该人脸特征对应的用户的偏好人声和偏好语言风格。
需要说明的是,上述仅作为优选的示例进行说明,不能理解成对本发明的限制。
接下来,在步骤S104中,根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
优选地,根据不同业务需求,建立对应的预定话术库,该预定话术库包括与不同语言风格相对应的开场白话术。
具体地,根据步骤S103中所计算的适合该用户的语言风格,从预定话术库中选择确定相应的开场白话术。
进一步地,再根据步骤S103中所计算的适合该用户的人声,在确定该用户适用的人声为一种人声的情况下,按该种人声合成所述开场白语音。而在确定该用户适用的人声为多种人声的情况下,对多种人声按照受欢迎程度进行排序,选定最受欢迎的人声合成开场白语音,以实现智能开场白语音生成。
在另一示例中,还可以使用两种或三种人声进行拼接合成开场白语音。
需要说明的是,对于人声合成开场白,例如使用共振峰合成技术和基于PSOLA算法的波形拼接合成技术。但是不限于此,上述作为示例进行说明,不能理解成对本发明的限制。
优选地,若当前所获取的人脸特征与已记录的人脸特征相同,从预定话术库中选择与老用户对应的开场白话术进行语音合成。
由此,能够通过不同的音色和话术实现了吸引不同用户群,并实现了售货机的个性化和智能化,还优化了售卖功能。
需要说明的是,上述仅作为示例进行说明,不能理解对本发明的限制。
上述方法的过程仅用于对本发明的说明,其中,步骤的顺序和数量没有特别的限制。此外,上述方法中的步骤还可以拆分成两个(例如将步骤S103拆成S301和S103,具体参见图3)、三个,或者有些步骤也可以合并成一个步骤,根据实际示例进行调整。
与现有技术相比,本发明的用于售货机的智能开场白语音生成方法通过建立人声模型和建立语言风格模型,并使用两个模型计算适合用户的人声和语言风格,以生成对应的开场白话术,由此,能够更好地让周边用户看见,并且通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。
本领域技术人员可以理解,实现上述实施例的全部或部分步骤被实现为由计算机数据处理设备执行的程序(计算机程序)。在该计算机程序被执行时,可以实现本发明提供的上述方法。而且,所述的计算机程序可以存储于计算机可读存储介质中,该存储介质可以是磁盘、光盘、ROM、RAM等可读存储介质,也可以是多个存储介质组成的存储阵列,例如磁盘或磁带存储阵列。所述的存储介质不限于集中式存储,其也可以是分布式存储,例如基于云计算的云存储。
下面描述本发明的装置的实施例,该装置可以用于执行本发明的方法实施例。对于本发明装置实施例中描述的细节,应视为对于上述方法实施例的补充;对于在本发明装置实施例中未披露的细节,可以参照上述方法实施例来实现。
实施例2
参照图4、图5和图6,本发明还提供了一种用于售货机的智能开场白语音生成装置400,包括:第一建立模块401,用于建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;第二建立模块402,用于建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;检测模块403,用于检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格;计算合成模块404,根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
优选地,还包括:建立人声模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的人声信息;使用该人声模型训练数据集训练分类模型,以使该人声模型能根据用户的生物特征信息计算该用户所偏好的人声。
优选地,所述人声信息包括频率、振幅、音色、语速中的任一种。
优选地,还包括:建立语言风格模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的语言风格信息;使用该语言风格模型训练数据集训练分类模型,以使该语言风格模型能根据用户的生物特征信息计算该用户所偏好的语言风格。
优选地,所述语言风格信息数据包括平淡自然型、幽默风趣型、简洁洗练型、朴实无华型、辞藻华丽型和活泼可爱型。
优选地,所述生物特征包括人的性别、年龄、身高、种族、民族中的至少两个。
如图5所示,还包括识别模块501,所述识别模块501用于获取用户的人脸特征,根据该人脸特征对用户的生物特征进行识别。
如图6所示,还包括记录模块601,所述记录模块601用于记录已获取的用户的人脸特征及其对应的偏好人声和偏好语言风格;若当前所获取的人脸特征与已记录的人脸特征相同,则直接调取与该人脸特征对应的用户的偏好人声和偏好语言风格。
优选地,若当前所获取的人脸特征与已记录的人脸特征相同,从预定话术库中选择与老用户对应的开场白话术进行语音合成。
需要说明的是,在实施例2中,省略了与实施例1相同的部分的说明。
与现有技术相比,本发明的用于售货机的智能开场白语音生成装置通过建立人声模型和建立语言风格模型,并使用两个模型确定与用户对应的开场白话术,由此,能够更好地让周边用户看见,并且通过不同的音色和话术实现了吸引不同用户群,在购物的基础上更增添吸引力和娱乐性,从而实现了售货机的个性化和智能化,还优化了售卖功能。
本领域技术人员可以理解,上述装置实施例中的各模块可以按照描述分布于***中,也可以进行相应变化,分布于不同于上述实施例的一个或多个装置中。上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
实施例3
下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图7是根据本发明的一种电子设备的示例性实施例的结构框图。下面将参照图7来描述根据本发明的电子设备200。图7显示的电子设备200仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备200以通用计算设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同***组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书的上述电子设备处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图1所示的步骤。
所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备200也可以与一个或多个外部设备300(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备200交互的设备通信,和/或与使得该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。当所述计算机程序被一个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法。
如图8所示,所述计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上所述,本发明可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用于售货机的智能开场白语音生成方法,其特征在于,包括:
建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;
建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;
检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格;
根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
2.根据权利要求1所述的智能开场白语音生成方法,其特征在于,所述建立人声模型包括:
建立人声模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的人声信息;
使用该人声模型训练数据集训练分类模型,以使该人声模型能根据用户的生物特征信息计算该用户所偏好的人声。
3.根据权利要求1-2中任一所述的智能开场白语音生成方法,其特征在于,
所述人声信息包括频率、振幅、音色、语速中的任一种。
4.根据权利要求1-3中任一所述的智能开场白语音生成方法,其特征在于,还包括:
建立语言风格模型训练数据集,该数据集中包括多条数据,每条数据包括用户的生物特征信息及该用户偏好的语言风格信息;
使用该语言风格模型训练数据集训练分类模型,以使该语言风格模型能根据用户的生物特征信息计算该用户所偏好的语言风格。
5.根据权利要求1-4中任一所述的智能开场白语音生成方法,其特征在于,所述语言风格信息数据包括平淡自然型、幽默风趣型、简洁洗练型、朴实无华型、辞藻华丽型和活泼可爱型。
6.根据权利要求1-5中任一所述的智能开场白语音生成方法,其特征在于,所述生物特征包括人的性别、年龄、身高、种族、民族中的至少两个。
7.根据权利要求1-6中任一所述的智能开场白语音生成方法,其特征在于,
获取用户的人脸特征,根据该人脸特征对用户的生物特征进行识别。
8.一种用于售货机的智能开场白语音生成装置,其特征在于,包括:
第一建立模块,用于建立人声模型,该模型用于根据用户的生物特征计算适于该用户偏好的人声;
第二建立模块,用于建立语言风格模型,该模型用于根据用户的生物特征计算适于该用户偏好的语言风格;
检测模块,用于检测所述售货机周边预定范围是否有用户,并在有用户时获取其生物特征,基于该生物特征,使用所述人声模型和语言风格模型计算适合该用户的人声和语言风格;
计算合成模块,根据所计算的语言风格从预定话术库中选择相应的开场白话术,并使用所计算的人声合成开场白语音。
9.一种电子设备,其中,该电子设备包括:
处理器;以及,
存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行根据权利要求1-7中任一项所述的用于售货机的智能开场白语音生成方法。
10.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现权利要求1-7中任一项所述的用于售货机的智能开场白语音生成方法。
CN202011171104.0A 2020-10-28 2020-10-28 一种智能开场白语音生成方法、装置和电子设备 Withdrawn CN112349270A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011171104.0A CN112349270A (zh) 2020-10-28 2020-10-28 一种智能开场白语音生成方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011171104.0A CN112349270A (zh) 2020-10-28 2020-10-28 一种智能开场白语音生成方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN112349270A true CN112349270A (zh) 2021-02-09

Family

ID=74358915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011171104.0A Withdrawn CN112349270A (zh) 2020-10-28 2020-10-28 一种智能开场白语音生成方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN112349270A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012680A (zh) * 2021-03-03 2021-06-22 北京太极华保科技股份有限公司 一种语音机器人用话术合成方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012680A (zh) * 2021-03-03 2021-06-22 北京太极华保科技股份有限公司 一种语音机器人用话术合成方法及装置
CN113012680B (zh) * 2021-03-03 2021-10-15 北京太极华保科技股份有限公司 一种语音机器人用话术合成方法及装置

Similar Documents

Publication Publication Date Title
JP7023934B2 (ja) 音声認識方法及び装置
US11705096B2 (en) Autonomous generation of melody
CN107481720B (zh) 一种显式声纹识别方法及装置
US20210225380A1 (en) Voiceprint recognition method and apparatus
JP2020034895A (ja) 応答方法及び装置
US20150042662A1 (en) Synthetic audiovisual storyteller
CN109582822A (zh) 一种基于用户语音的音乐推荐方法及装置
US11741941B2 (en) Configurable neural speech synthesis
JP7086521B2 (ja) 情報処理方法および情報処理装置
JP6639285B2 (ja) 声質嗜好学習装置、声質嗜好学習方法及びプログラム
CN102682769A (zh) 对数字网络进行基于自然语言的控制
CN101276584A (zh) 韵律图样产生装置、语音合成装置及其方法
Choi et al. Sequence-to-sequence emotional voice conversion with strength control
US20140210831A1 (en) Computer generated head
JP2022046731A (ja) 音声生成方法、装置、電子機器及び記憶媒体
CN110851650B (zh) 一种评论输出方法、装置、以及计算机存储介质
Wang et al. Comic-guided speech synthesis
CN109920409A (zh) 一种声音检索方法、装置、***及存储介质
US20240004606A1 (en) Audio playback method and apparatus, computer readable storage medium, and electronic device
Zhao et al. Applications of deep learning to audio generation
Wang et al. Scene-aware background music synthesis
CN114999441A (zh) 虚拟形象生成方法、装置、设备、存储介质以及程序产品
Zhang et al. Automatic synthesis technology of music teaching melodies based on recurrent neural network
CN112349270A (zh) 一种智能开场白语音生成方法、装置和电子设备
CN113314096A (zh) 语音合成方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210209