CN109451188B - 差异性自助应答的方法、装置、计算机设备和存储介质 - Google Patents

差异性自助应答的方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN109451188B
CN109451188B CN201811446908.XA CN201811446908A CN109451188B CN 109451188 B CN109451188 B CN 109451188B CN 201811446908 A CN201811446908 A CN 201811446908A CN 109451188 B CN109451188 B CN 109451188B
Authority
CN
China
Prior art keywords
current
client
information
broadcast
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811446908.XA
Other languages
English (en)
Other versions
CN109451188A (zh
Inventor
张垒
邢艳
邹芳
李晋
占敏敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201811446908.XA priority Critical patent/CN109451188B/zh
Publication of CN109451188A publication Critical patent/CN109451188A/zh
Application granted granted Critical
Publication of CN109451188B publication Critical patent/CN109451188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请中提供了一种差异性自助应答的方法、装置、计算机设备和存储介质,涉及语音交互领域,其中方法包括:实时采集客户的当前通话信息;解析当前通话信息,得到当前通话内容和当前声纹信息;将当前声纹信息输入情绪数据库中,筛选得到对应的当前客户情绪表征参数;获取当前通话内容中的敏感词对应的当前播报内容和客户情绪表征参数对应的当前应答语音;向客户终端发送当前播报内容和当前应答语音,以使得客户端使用当前应答语音播报当前播报内容。本申请在通话过程中实时采集客户的声纹信息和通话内容,识别出客户情绪信息和通话意愿,并根据客户情绪动态调整播报语音,同时根据当前通话内容匹配符合对应的播报内容,提高与客户的交互完整性。

Description

差异性自助应答的方法、装置、计算机设备和存储介质
技术领域
本申请涉及语音交互技术领域,特别涉及一种差异性自助应答的方法、装置、计算机设备和存储介质。
背景技术
自助应答***根据预设场景和预设信息,能够自动回答客户的大部分咨询信息,从而大大减轻客服人员的工作压力,被广泛应用于各个行业的咨询工作,比如话费查询。但是,现有的自助应答***在与客户的交互过程中,只能使用单一的播报语音,其音量、语速和情绪等均不能根据与客户的实际交互情况实时调整,客户在使用自助应答***时的体验感极差,容易导致提前终端通话,无法实现咨询功能。
发明内容
本申请的主要目的为提供一种差异性自助应答的方法、装置、计算机设备和存储介质,旨在解决现有自助应答***在交互过程中设定死板,交互完整性差的弊端。
为实现上述目的,本申请提供了一种差异性自助应答的方法,应用于应答终端,方法包括:
实时采集客户的当前通话信息;
解析所述当前通话信息,得到当前通话内容和当前声纹信息;
将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数,所述情绪数据库由多组声纹信息与客户情绪表征参数对应组成;
分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
进一步,所述将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数的步骤,包括:
解析所述当前声纹信息,得到所述客户的当前声纹参数,所述当前声纹参数包括所述所述客户的语速、音调和音量;
将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数,所述情绪数据库由多组声纹参数的数值区间和客户情绪表征参数对应组成。
进一步的,所述分别获取所述当前通话内容对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音的步骤,包括:
将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成,所述应答语音库有多组客户情绪表征参数与应答语音对应组成。
进一步的,所述将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容的步骤,包括:
识别所述当前通话内容中包含的敏感词;
将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
将所述敏感词对应的播报内容设置为所述当前播报内容。
进一步的,所述实时采集客户的当前通话信息的步骤之前,包括
获取首次通话信息,并解析所述首次通话信息得到音调特征,所述首次通话信息携带场景选择;
将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别,所述性别数据库由多组音调特征和客户性别对应组成;
将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容,所述播报语音库由两组客户性别和播报语音对应组成,所述场景数据库有多组场景选择和场景内容对应组成;
向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
进一步的,所述生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
将所述客户性别与预先录入的客户个人信息进行绑定。
进一步的,所述生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
将所述当前客户性格与所述客户个人信息进行绑定。
本申请还提供了一种差异性自助应答的装置,包括:
采集模块,用于实时采集客户的当前通话信息;
第一解析模块,用于解析所述当前通话信息,得到当前通话内容和当前声纹信息;
第一筛选模块,用于将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数;
获取模块,用于分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
第一发送模块,用于向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
进一步的,所述第一筛选模块包括:
解析单元,用于解析所述当前声纹信息,得到所述客户的当前声纹参数;
第一筛选单元,用于将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数。
进一步的,所述获取模块包括:
第二筛选单元,用于将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
第三筛选单元,用于将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成。
进一步的,所述第二筛选单元包括:
识别子单元,用于识别所述当前通话内容中包含的敏感词;
筛选子单元,用于将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
设置子单元,用于将所述敏感词对应的播报内容设置为所述当前播报内容。
进一步的,所述装置还包括:
第二解析模块,用于获取首次通话信息,并解析所述首次通话信息得到音调特征;
第二筛选模块,用于将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别;
第三筛选模块,用于将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容;
第二发送模块,用于向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
进一步的,所述装置还包括:
绑定模块,用于将所述客户性别与预先录入的客户个人信息进行绑定。
进一步的,所述装置还包括:
第三解析模块,用于根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
第四筛选模块,用于将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
第二绑定模块,用于将所述当前客户性格与所述客户个人信息进行绑定。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述的方法的步骤。
本申请中提供的一种差异性自助应答的方法、装置、计算机设备和存储介质,通过在通话过程中实时采集客户的当前声纹信息和当前通话内容,识别出客户当前的情绪信息和通话意愿,并根据客户情绪动态调整播报语音的语速、音调和音量,同时根据当前通话内容匹配符合客户通话意愿的播报内容,提高与客户的交互完整性。
附图说明
图1是本申请一实施例中差异性自助应答的方法的步骤示意图;
图2是本申请一实施例中差异性自助应答的装置的结构框图;
图3是本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例中提供了一种差异性自助应答的方式,包括:
S1:实时采集客户的当前通话信息;
S2:解析所述当前通话信息,得到当前通话内容和当前声纹信息;
S3:将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数,所述情绪数据库由多组声纹信息与客户情绪表征参数对应组成;
S4:分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
S5:向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
本实施例中,应答终端在选定首次播报信息后,基于选定的场景流程与客户端建立通信通道,在通话过程中全程采集客户的当前通话信息,这里以具体某一时刻为例进行说明。应答终端实时采集客户的当前通话信息,并根据信息类型的不同进行解析,将当前通话信息中的当前通话内容和当前声纹信息分离,以便下一步骤的分析和匹配。其中,信息类型是指当前通话信息中的数据类型,即文本数据和声纹信息。当前声纹信息通过将当前通话信息的语音信号转化为电信号,直接提取获得;当前通话内容为当前通话信息中的文本数据,比如“查询”这两个字即为文本数据,而说出“查询”这两个字的声音数据即为声纹信息。应答终端采集的当前声纹信息包括客户当前的语速、音调和音量。应答终端在解析得到当前声纹信息后,将当前声纹信息输入预先构建的情绪数据库中,筛选得到当前声纹信息对应的当前客户情绪表征参数。其中,情绪数据库由多组声纹信息与客户情绪表征参数对应组成。开发人员通过检测人在不同情绪下的语速、音调和音量的数值,并将检测数值分类统计,形成对应的数值区间,从而训练形成情绪数据库。应答终端通过该句当前通话信息对客户的语速、音调和音量进行测算,并生成各自对应的具体数值。比如,语速、音调和音量对应的具体数值为120、60、70。其中,应答终端可以根据接收到的完整的当前通话信息的音节数除以该当前通话信息的所用时间,计算得到语速;而音调和音量可以直接测量当前通话信息的语音信号的频率和频幅获得,语音信号的频率对应音调,频幅对应音量。情绪数据库在应用时,应答终端将客户的当前声纹信息的具体数值与情绪数据库进行比对,通过匹配对应的数值类型和区间,即可识别客户的当前情绪表征参数。比如,情绪数据库中的情绪表征参数“平静”状态对应的语速、音调和音量的数值区间为100-120、50-70和40-60;“不耐烦”状态对应的语速、音调和音量的数值区间为120—150、70—80和60—80;“生气”状态对应的语速、音调和音量的数值区间为150—180、80—90和80—100。客户当前的语速、音调和音量的具体数值为120、60和50,,通过比对后即可确定当前客户情绪表征参数为“平静”。应答终端获取客户的当前情绪表征参数后,将当前通话内容输入预先构建的播报数据库中,并根据通话信息中的敏感词筛选得到当前播报内容。同时将当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到当前应答语音。其中,播报数据库有多组通话内容和播报内容的敏感词对应组成,应答语音库有多组客户情绪表征参数与应答语音对应组成。比如,当终端识别到客户不耐烦时,通过筛选得到的应答语音的语速为较快,语气为柔和,音量为较大。同时,终端识别当前通话内容中的敏感词,与应答语音库进行匹配,输出该敏感词对应的当前播音内容。例如,终端识别到客户的通话内容中包含有“人身保险”,则根据“人身保险”这个敏感词输出预先录入的与其对应的播报内容,比如人身保险的种类、保额等等的文本信息。应答终端向客户终端发送当前播报内容和当前应答语音,以使得客户端使用当前应答语音播报当前播报内容。
进一步的,根据所将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数的步骤,包括:
S301:解析所述当前声纹信息,得到所述客户的当前声纹参数,所述当前声纹参数包括所述所述客户的语速、音调和音量;
S302:将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数,所述情绪数据库由多组声纹参数的数值区间和客户情绪表征参数对应组成。
本实施例中,应答终端对采集到的客户的当前声纹信息进行解析,将其转化为具体的声纹参数,获得当前客户的语速、音调和音量的具体数值。其中,语速可以根据单位时间为采集到的客户的当前通话信息中的音节数计算获得。比如,应答终端在5S内采集到的客户的当前通话信息中的音节数为100 个,则当前用户的语速为120字/s。音调和音量则可以通过检测当前通话信息中的声波信号获得,声波信号具有一定的频率和频幅,其中频率对应音调,频幅对应音量。应答终端将解析后的当前声纹信息中的语速、音调和音量对应表现为具体的当前声纹参数,比如,当前用户的语速为120,音调为60,音量为70。应答终端内部构建有情绪数据库,由开发人员根据预先测试,将各种情绪和其对应的语速、音调和音量数值区间进行分组录入生成。应答终端通过将解析后的语速、音调和音量的具体参数值,输入情绪数据库进行筛选,根据各个参数值分别落入的数值区间得到对应的当前客户情绪表征参数。比如,情绪数据库中的“不耐烦”状态对应的语速、音调和音量的数值区间为 150-200、50-80和100-150,客户当前的语速、音调和音量的具体数值为160、 60和120通过比对后即可确定当前客户情绪表征参数为“不耐烦”。
进一步的,依据分别获取所述当前通话内容对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音的步骤,包括:
S401:将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
S402:将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成,所述应答语音库有多组客户情绪表征参数与应答语音对应组成。
本实施例中,应答终端将当前通话内容输入预先构建的播报数据库中。其中,播报数据库有开发人员预先录入设定的多组通话内容和播报内容对应组成。应答终端通过ASR(语音识别技术)识别客户的当前通话内容,将其转换为文本信息,并识别出文本信息中的敏感词,应答终端根据识别得到的敏感词从播报数据库中筛选对应的当前播报内容。比如,应答终端识别到客户的当前通话内容中包含有“人身保险”,则根据“人身保险”这个敏感词从播报数据库中筛选得到预先录入的与其对应的当前播报内容,比如人身保险的种类、保额的内容等等。同时,应答终端将当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到当前应答语音。其中,应答语音库中包含有预先录入的多组与不同客户情绪表征参数对应的应答语音,应答语音包括不同的语速、语气和音量。比如,当前的客户情绪表征参数为“平静”时,对应的应答语音中的语速为适中,语气为柔和,音量为适中。应答终端通过将客户情绪表征参数输入应答语音库后进行筛选,得到当前客户情绪表征参数对应的应答语音。
进一步的,所述将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容的步骤,包括:
S4011:识别所述当前通话内容中包含的敏感词;
S4012:将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
S4013:将所述敏感词对应播报内容设置为所述当前播报内容。
本实施例中,应答终端通过ASR(语音识别技术)识别客户的当前通话内容,将其转换为文本信息。应答终端中录入有开发人员预先设置的至少一个敏感词,存储在敏感词库中。并且,应答终端中根据不同的应答场景有不同的敏感词库。比如在查询场景中的敏感词与在回访场景中的敏感词不同,两者具有两个不同的敏感词库。应答终端在识别敏感词时,需要根据当前的应答流程选择应答流程对应的敏感词库。应答终端依次遍历敏感词库中的每个敏感词,判断该敏感词是否包含在文本信息中,从而识别得到文本信息中包含的已录入的敏感词。当应答终端识别到当前通话内容中包含的敏感词后,将该敏感词输入播报数据库中,从而筛选出敏感词对应的播报内容,并将筛选得到敏感词对应的播报内容设置为当前播报内容,以便进行下一动作。比如,应答终端发送到客户端的前一播报信息中询问客户是否有购买养老保险,应答终端识别到客户反馈回来的通话内容中为“有”,则根据“有”这个敏感词从播报数据库中调取预先录入的与其对应的播报内容,比如养老保险的种类、保额的内容等等。
进一步的,所述实时采集客户的当前通话信息的步骤之前,包括
S6:获取首次通话信息,并解析所述首次通话信息得到音调特征,所述首次通话信息携带场景选择;
S7:将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别,所述性别数据库由多组音调特征和客户性别对应组成;
S8:将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容,所述播报语音库由两组客户性别和播报语音对应组成,所述场景数据库有多组场景选择和场景内容对应组成;
S9:向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
本实施例中,应答终端在首次与客户接通电话时,需要判断客户的性别,以适配合适性别的播报语音,提高客户的通话体验。应答终端通过采集当前客户最初通话时的首次通话信息,将首次通话信息的语音信号转化为电信号,直接提取获得声纹信息,并解析获得语音信号对应的频率,即客户对应的音调特征。男女声音的音调不同,男性的音调较为低沉,女性的音调较为高细,即男声的频率较低,女声的频率较高。应答终端预先根据性别的不同构建有对应的音调区间,因此可以将所述音调特征输入预先构建的性别数据库,通过将音调特征与音调区间进行比对,从而筛选得到当前客户对应的客户性别。首次通话信息中携带场景选择,比如用户在通话过程中选择按键1对应的场景选择为咨询服务场景。应答终端根据不同的场景设置有不同的播报信息。比如,催收场景的场景内容措词较为犀利,语气较为严厉;回访场景的场景内容措词较为缓和,语气较为柔和。场景选择的指令可以由应答终端发出,也可以由客户端发出。当应答终端主动呼叫客户时,则场景选择的指令由应答终端发出。当客户呼叫应答终端时,则场景选择的指令需要客户端发出,场景选择信息包含于首次通话信息中。应答终端将客户性别输入预先构建的播报语音库中,筛选得到客户性别对应的播报语音。其中,播报语音库由两组客户性别和播报语音对应组成。比如,客户性别为女性时,第二播报信息也为女声。同时将场景选择输入预先构建的场景数据库中,筛选得到场景选择对应的场景内容。应答终端向客户终端发送场景内容和播报语音,以使得客户端使用播报语音播报场景内容。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S10:将所述客户性别与预先录入的客户的个人信息进行绑定。
本实施例中,应答终端输出当前播报信息后,可以将之前识别到的客户性别与客户的个人信息进行绑定,比如客户的手机号码或姓名。其中,客户的个人信息由开发人员预先收集后录入到应答终端中,同时采集到的客户的个人信息不完整,在客户性别这一类别中没有已知信息。应答终端在将客户性别与个人信息绑定后,与该客户再次通话时,可以通过个人信息,比如手机号码直接识别客户性别,从而直接匹配对应的播报语音,而不需要再次进行识别,有效节省时间,提高工作效率。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S11:根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
S12:将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
S13:将所述当前客户性格与所述客户个人信息进行绑定。
本实施例中,应答终端在与客户的通话过程中,时刻记录客户在通话过程中的情绪变化信息,并根据当前客户情绪表征参数在单位通话时间内的变化,得到客户的情绪变化信息。其中,情绪变化信息包括情绪表征参数发生变化的通话时间以及情绪表征参数变化前后的具体情绪表征参数。应答终端内部预先构建有性格信息库,通过预先测试,将各种性格信息与情绪表征参数变化、变化时对应的通话时间区间对应分组。比如,客户的性格信息为“急躁”,其对应的情绪表征参数初始为“平静”,后续变化为“不耐烦”,产生变化的通话时间为1—3分钟。应答终端在结束一次通话后,根据整个通话过程中客户的情绪表征参数的变化和发生变化时对应的通话时间,输入性格信息库进行筛选,得到本次通话的客户的对应性格信息,即当前客户性格,并将当前客户性格与客户的个人信息,比如手机号码进行绑定,以便下次与该客户再次通话时,直接根据当前客户性格选择适当的初始播报语音,比如急躁的客户选择语速较快的初始播报语音,有效提高客户体验。
本实施例中提供的一种差异性自助应答的方法,通过在通话过程中实时采集客户的当前声纹信息和当前通话内容,识别出客户当前的情绪信息和通话意愿,并根据客户情绪动态调整播报语音的语速、音调和音量,同时根据当前通话内容匹配符合客户通话意愿的播报内容,提高与客户的交互完整性。
参照图2,本申请一实施例中还提供了一种差异性自助应答的装置,包括:
采集模块1,用于实时采集客户的当前通话信息;
第一解析模块2,用于解析所述当前通话信息,得到当前通话内容和当前声纹信息;
第一筛选模块3,用于将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数;
获取模块4,用于分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
第一发送模块5,用于向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
本实施例中,应答终端在选定首次播报信息后,基于选定的场景流程与客户端建立通信通道,在通话过程中全程采集客户的当前通话信息,这里以具体某一时刻为例进行说明。应答终端实时采集客户的当前通话信息,并根据信息类型的不同进行解析,将当前通话信息中的当前通话内容和当前声纹信息分离,以便下一步骤的分析和匹配。其中,信息类型是指当前通话信息中的数据类型,即文本数据和声纹信息。当前声纹信息通过将当前通话信息的语音信号转化为电信号,直接提取获得;当前通话内容为当前通话信息中的文本数据,比如“查询”这两个字即为文本数据,而说出“查询”这两个字的声音数据即为声纹信息。应答终端采集的当前声纹信息包括客户当前的语速、音调和音量。应答终端在解析得到当前声纹信息后,将当前声纹信息输入预先构建的情绪数据库中,筛选得到当前声纹信息对应的当前客户情绪表征参数。其中,情绪数据库由多组声纹信息与客户情绪表征参数对应组成。开发人员通过检测人在不同情绪下的语速、音调和音量的数值,并将检测数值分类统计,形成对应的数值区间,从而训练形成情绪数据库。应答终端通过该句当前通话信息对客户的语速、音调和音量进行测算,并生成各自对应的具体数值。比如,语速、音调和音量对应的具体数值为120、60、70。其中,应答终端可以根据接收到的完整的当前通话信息的音节数除以该当前通话信息的所用时间,计算得到语速;而音调和音量可以直接测量当前通话信息的语音信号的频率和频幅获得,语音信号的频率对应音调,频幅对应音量。情绪数据库在应用时,应答终端将客户的当前声纹信息的具体数值与情绪数据库进行比对,通过匹配对应的数值类型和区间,即可识别客户的当前情绪表征参数。比如,情绪数据库中的情绪表征参数“平静”状态对应的语速、音调和音量的数值区间为100-120、50-70和40-60;“不耐烦”状态对应的语速、音调和音量的数值区间为120—150、70—80和60—80;“生气”状态对应的语速、音调和音量的数值区间为150—180、80—90和80—100。客户当前的语速、音调和音量的具体数值为120、60和50,通过比对后即可确定当前客户情绪表征参数为“平静”。应答终端获取客户的当前情绪表征参数后,将当前通话内容输入预先构建的播报数据库中,并根据通话信息中的敏感词筛选得到当前播报内容。同时将当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到当前应答语音。其中,播报数据库有多组通话内容和播报内容的敏感词对应组成,应答语音库有多组客户情绪表征参数与应答语音对应组成。比如,当终端识别到客户不耐烦时,通过筛选得到的应答语音的语速为较快,语气为柔和,音量为较大。同时,终端识别当前通话内容中的敏感词,与应答语音库进行匹配,输出该敏感词对应的当前播音内容。例如,终端识别到客户的通话内容中包含有“人身保险”,则根据“人身保险”这个敏感词输出预先录入的与其对应的播报内容,比如人身保险的种类、保额等等的文本信息。应答终端向客户终端发送当前播报内容和当前应答语音,以使得客户端使用当前应答语音播报当前播报内容。
进一步的,所述第一筛选模块3包括:
解析单元,用于解析所述当前声纹信息,得到所述客户的当前声纹参数;
第一筛选单元,用于将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数。
本实施例中,应答终端对采集到的客户的当前声纹信息进行解析,将其转化为具体的声纹参数,获得当前客户的语速、音调和音量的具体数值。其中,语速可以根据单位时间为采集到的客户的当前通话信息中的音节数计算获得。比如,应答终端在5S内采集到的客户的当前通话信息中的音节数为100 个,则当前用户的语速为120字/s。音调和音量则可以通过检测当前通话信息中的声波信号获得,声波信号具有一定的频率和频幅,其中频率对应音调,频幅对应音量。应答终端将解析后的当前声纹信息中的语速、音调和音量对应表现为具体的当前声纹参数,比如,当前用户的语速为120,音调为60,音量为70。应答终端内部构建有情绪数据库,由开发人员根据预先测试,将各种情绪和其对应的语速、音调和音量数值区间进行分组录入生成。应答终端通过将解析后的语速、音调和音量的具体参数值,输入情绪数据库进行筛选,根据各个参数值分别落入的数值区间得到对应的当前客户情绪表征参数。比如,情绪数据库中的“不耐烦”状态对应的语速、音调和音量的数值区间为150-200、50-80和100-150,客户当前的语速、音调和音量的具体数值为 160、60和120通过比对后即可确定当前客户情绪表征参数为“不耐烦”。
进一步的,所述获取模块4包括:
第二筛选单元,用于将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
第三筛选单元,用于将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成。
本实施例中,应答终端将当前通话内容输入预先构建的播报数据库中。其中,播报数据库有开发人员预先录入设定的多组通话内容和播报内容对应组成。应答终端通过ASR(语音识别技术)识别客户的当前通话内容,将其转换为文本信息,并识别出文本信息中的敏感词,应答终端根据识别得到的敏感词从播报数据库中筛选对应的当前播报内容。1比如,应答终端识别到客户的当前通话内容中包含有“人身保险”,则根据“人身保险”这个敏感词从播报数据库中筛选得到预先录入的与其对应的当前播报内容,比如人身保险的种类、保额的内容等等。同时,应答终端将当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到当前应答语音。其中,应答语音库中包含有预先录入的多组与不同情绪信息对应的应答语音,应答语音包括不同的语速、语气和音量。比如,当前的客户情绪表征参数为“平静”时,对应的应答语音中的语速为适中,语气为柔和,音量为适中。应答终端通过将客户情绪表征参数输入应答语音库后进行筛选,得到当前客户情绪表征参数对应的应答语音。
进一步的,所述第二筛选单元包括:
识别子单元,用于识别所述当前通话内容中包含的敏感词;
筛选子单元,用于将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
设置子单元,用于将所述敏感词对应的播报内容设置为所述当前播报内容。
本实施例中,应答终端通过ASR(语音识别技术)识别客户的当前通话内容,将其转换为文本信息。应答终端中录入有开发人员预先设置的至少一个敏感词,存储在敏感词库中。并且,应答终端中根据不同的应答场景有不同的敏感词库。比如在查询场景中的敏感词与在回访场景中的敏感词不同,两者具有两个不同的敏感词库。应答终端在识别敏感词时,需要根据当前的应答流程选择应答流程对应的敏感词库。应答终端依次遍历敏感词库中的每个敏感词,判断该敏感词是否包含在文本信息中,从而识别得到文本信息中包含的已录入的敏感词。当应答终端识别到当前通话内容中包含的敏感词后,将该敏感词输入播报数据库中,从而筛选出敏感词对应的播报内容,并将筛选得到敏感词对应的播报内容设置为当前播报内容,以便进行下一动作。比如,应答终端发送到客户端的前一播报信息中询问客户是否有购买养老保险,应答终端识别到客户反馈回来的通话内容中为“有”,则根据“有”这个敏感词从播报数据库中调取预先录入的与其对应的播报内容,比如养老保险的种类、保额的内容等等。
进一步的,所述处理装置还包括:
第二解析模块,用于获取首次通话信息,并解析所述首次通话信息得到音调特征;
第二筛选模块,用于将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别;
第三筛选模块,用于将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容;
第二发送模块,用于向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
本实施例中,应答终端在首次与客户接通电话时,需要判断客户的性别,以适配合适性别的播报语音,提高客户的通话体验。应答终端通过采集当前客户最初通话时的首次通话信息,将首次通话信息的语音信号转化为电信号,直接提取获得声纹信息,并解析获得语音信号对应的频率,即客户对应的音调特征。男女声音的音调不同,男性的音调较为低沉,女性的音调较为高细,即男声的频率较低,女声的频率较高。应答终端预先根据性别的不同构建有对应的音调区间,因此可以将所述音调特征输入预先构建的性别数据库,通过将音调特征与音调区间进行比对,从而筛选得到当前客户对应的客户性别。首次通话信息中携带场景选择,比如用户在通话过程中选择按键1对应的场景选择为咨询服务场景。应答终端根据不同的场景设置有不同的播报信息。比如,催收场景的场景内容措词较为犀利,语气较为严厉;回访场景的场景内容措词较为缓和,语气较为柔和。场景选择的指令可以由应答终端发出,也可以由客户端发出。当应答终端主动呼叫客户时,则场景选择的指令由应答终端发出。当客户呼叫应答终端时,则场景选择的指令需要客户端发出,场景选择信息包含于首次通话信息中。应答终端将客户性别输入预先构建的播报语音库中,筛选得到客户性别对应的播报语音。其中,播报语音库由两组客户性别和播报语音对应组成。比如,客户性别为女性时,第二播报信息也为女声。同时将场景选择输入预先构建的场景数据库中,筛选得到场景选择对应的场景内容。应答终端向客户终端发送场景内容和播报语音,以使得客户端使用播报语音播报场景内容。
进一步的,所述处理装置还包括:
绑定模块,用于将所述客户性别与预先录入的客户个人信息进行绑定。
本实施例中,应答终端输出当前播报信息后,可以将之前识别到的客户性别与客户的个人信息进行绑定,比如客户的手机号码或姓名。其中,客户的个人信息由开发人员预先收集后录入到应答终端中,同时采集到的客户的个人信息不完整,在客户性别这一类别中没有已知信息。应答终端在将客户性别与个人信息绑定后,与该客户再次通话时,可以通过个人信息,比如手机号码直接识别客户性别,从而直接匹配对应的播报语音,而不需要再次进行识别,有效节省时间,提高工作效率。
进一步的,所述处理装置还包括:
第三解析模块,用于根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
第四筛选模块,用于将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
第二绑定模块,用于将所述当前客户性格与所述客户个人信息进行绑定。
本实施例中,应答终端在与客户的通话过程中,时刻记录客户在通话过程中的情绪变化信息,并根据当前客户情绪表征参数在单位通话时间内的变化,得到客户的情绪变化信息。其中,情绪变化信息包括情绪表征参数发生变化的通话时间以及情绪表征参数变化前后的具体情绪表征参数。应答终端内部预先构建有性格信息库,通过预先测试,将各种性格信息与情绪表征参数变化、变化时对应的通话时间区间对应分组。比如,客户的性格信息为“急躁”,其对应的情绪表征参数初始为“平静”,后续变化为“不耐烦”,产生变化的通话时间为1—3分钟。应答终端在结束一次通话后,根据整个通话过程中客户的情绪表征参数的变化和发生变化时对应的通话时间,输入性格信息库进行筛选,得到本次通话的客户的对应性格信息,即当前客户性格,并将当前客户性格与客户的个人信息,比如手机号码进行绑定,以便下次与该客户再次通话时,直接根据当前客户性格选择适当的初始播报语音,比如急躁的客户选择语速较快的初始播报语音,有效提高客户体验。
本实施例中提供的一种差异性自助应答的装置,通过在通话过程中实时采集客户的当前声纹信息和当前通话内容,识别出客户当前的情绪信息和通话意愿,并根据客户情绪动态调整播报语音的语速、音调和音量,同时根据当前通话内容匹配符合客户通话意愿的播报内容,提高与客户的交互完整性。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储情绪数据库等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种差异性自助应答的方法。
上述处理器执行上述差异性自助应答的方法的步骤:
S1:实时采集客户的当前通话信息;
S2:解析所述当前通话信息,得到当前通话内容和当前声纹信息;
S3:将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数,所述情绪数据库由多组声纹信息与客户情绪表征参数对应组成;
S4:分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
S5:向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
进一步的,根据所将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数的步骤,包括:
S301:解析所述当前声纹信息,得到所述客户的当前声纹参数,所述当前声纹参数包括所述所述客户的语速、音调和音量;
S302:将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数,所述情绪数据库由多组声纹参数的数值区间和客户情绪表征参数对应组成。
进一步的,依据分别获取所述当前通话内容对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音的步骤,包括:
S401:将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
S402:将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成,所述应答语音库有多组客户情绪表征参数与应答语音对应组成。
进一步的,所述将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容的步骤,包括:
S4011:识别所述当前通话内容中包含的敏感词;
S4012:将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
S4013:将所述敏感词对应播报内容设置为所述当前播报内容。
进一步的,所述实时采集客户的当前通话信息的步骤之前,包括
S6:获取首次通话信息,并解析所述首次通话信息得到音调特征,所述首次通话信息携带场景选择;
S7:将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别,所述性别数据库由多组音调特征和客户性别对应组成;
S8:将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容,所述播报语音库由两组客户性别和播报语音对应组成,所述场景数据库有多组场景选择和场景内容对应组成;
S9:向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S10:将所述客户性别与预先录入的客户的个人信息进行绑定。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S11:根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
S12:将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
S13:将所述当前客户性格与所述客户个人信息进行绑定。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种差异性自助应答的方法,具体为:
S1:实时采集客户的当前通话信息;
S2:解析所述当前通话信息,得到当前通话内容和当前声纹信息;
S3:将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数,所述情绪数据库由多组声纹信息与客户情绪表征参数对应组成;
S4:分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
S5:向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户端使用所述当前应答语音播报所述当前播报内容。
进一步的,根据所将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数的步骤,包括:
S301:解析所述当前声纹信息,得到所述客户的当前声纹参数,所述当前声纹参数包括所述所述客户的语速、音调和音量;
S302:将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数,所述情绪数据库由多组声纹参数的数值区间和客户情绪表征参数对应组成。
进一步的,依据分别获取所述当前通话内容对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音的步骤,包括:
S401:将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
S402:将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成,所述应答语音库有多组客户情绪表征参数与应答语音对应组成。
进一步的,所述将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容的步骤,包括:
S4011:识别所述当前通话内容中包含的敏感词;
S4012:将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
S4013:将所述敏感词对应播报内容设置为所述当前播报内容。
进一步的,所述实时采集客户的当前通话信息的步骤之前,包括
S6:获取首次通话信息,并解析所述首次通话信息得到音调特征,所述首次通话信息携带场景选择;
S7:将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别,所述性别数据库由多组音调特征和客户性别对应组成;
S8:将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容,所述播报语音库由两组客户性别和播报语音对应组成,所述场景数据库有多组场景选择和场景内容对应组成;
S9:向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户端使用所述播报语音播报所述场景内容。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S10:将所述客户性别与预先录入的客户的个人信息进行绑定。
进一步的,生成使用所述播报语音播报所述场景内容的首次播报信息并输出到所述客户终端的步骤之后,包括:
S11:根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
S12:将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
S13:将所述当前客户性格与所述客户个人信息进行绑定。
综上所述,为本申请实施例中提供的一种差异性自助应答的方法、装置、计算机设备和存储介质。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM) 或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM (SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM (SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (9)

1.一种差异性自助应答的方法,其特征在于,应用于应答终端,方法包括:
实时采集客户的当前通话信息;
解析所述当前通话信息,得到当前通话内容和当前声纹信息;
将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数,所述情绪数据库由多组声纹信息与客户情绪表征参数对应组成;
分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户终端使用所述当前应答语音播报所述当前播报内容;
根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
将所述当前客户性格与所述客户个人信息进行绑定,在下次与所述客户个人信息对应的客户再次通话时,直接根据所述当前客户性格选择对应的初始播报语音。
2.根据权利要求1所述的差异性自助应答的方法,其特征在于,所述将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数的步骤,包括:
解析所述当前声纹信息,得到所述客户的当前声纹参数,所述当前声纹参数包括所述客户的语速、音调和音量;
将所述当前声纹参数输入所述情绪数据库中,根据所述语速、所述音调和所述音量分别落入的数值区间,筛选出所述当前声纹参数对应的当前客户情绪表征参数,所述情绪数据库由多组声纹参数的数值区间和客户情绪对应组成。
3.根据权利要求1所述的差异性自助应答的方法,其特征在于,所述分别获取所述当前通话内容对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音的步骤,包括:
将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容;
将所述当前客户情绪表征参数输入预先构建的应答语音库中,筛选得到所述当前应答语音,所述播报数据库有多组通话内容和播报内容对应组成,所述应答语音库有多组客户情绪表征参数与应答语音对应组成。
4.根据权利要求3所述的差异性自助应答的方法,其特征在于,所述将所述当前通话内容输入预先构建的播报数据库中,筛选得到所述当前播报内容的步骤,包括:
识别所述当前通话内容中包含的敏感词;
将所述敏感词输入所述播报数据库中,筛选得到与所述敏感词对应的播报内容;
将所述敏感词对应的播报内容设置为所述当前播报内容。
5.根据权利要求1所述的差异性自助应答的方法,其特征在于,所述实时采集客户的当前通话信息的步骤之前,包括
获取首次通话信息,并解析所述首次通话信息得到音调特征,所述首次通话信息携带场景选择;
将所述音调特征输入预先构建的性别数据库,筛选得到所述音调特征对应的客户性别,所述性别数据库由多组音调特征和客户性别对应组成;
将所述客户性别输入预先构建的播报语音库中,筛选得到所述客户性别对应的播报语音,同时将场景选择输入预先构建的场景数据库中,筛选得到所述场景选择对应的场景内容,所述播报语音库由两组客户性别和播报语音对应组成,所述场景数据库有多组场景选择和场景内容对应组成;
向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户终端使用所述播报语音播报所述场景内容。
6.根据权利要求5所述的差异性自助应答的方法,其特征在于,所述向所述客户终端发送所述场景内容和所述播报语音,以使得所述客户终端使用所述播报语音播报所述场景内容的步骤之后,包括:
将所述客户性别与预先录入的客户个人信息进行绑定。
7.一种差异性自助应答的装置,其特征在于,包括:
采集模块,用于实时采集客户的当前通话信息;
第一解析模块,用于解析所述当前通话信息,得到当前通话内容和当前声纹信息;
第一筛选模块,用于将所述当前声纹信息输入预先构建的情绪数据库中,筛选得到所述当前声纹信息对应的当前客户情绪表征参数;
获取模块,用于分别获取所述当前通话内容中的敏感词对应的当前播报内容和所述客户情绪表征参数对应的当前应答语音;
第一发送模块,用于向所述客户终端发送所述当前播报内容和所述当前应答语音,以使得所述客户终端使用所述当前应答语音播报所述当前播报内容;
第三解析模块,用于根据所述当前客户情绪表征参数在单位通话时间内的变化,得到所述客户的情绪变化信息;
第四筛选模块,用于将所述情绪变化信息输入预先构建的性格数据库中,筛选得到所述情绪变化信息对应的当前客户性格;
第二绑定模块,用于将所述当前客户性格与所述客户个人信息进行绑定,在下次与所述客户个人信息对应的客户再次通话时,直接根据所述当前客户性格选择对应的初始播报语音。
8.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN201811446908.XA 2018-11-29 2018-11-29 差异性自助应答的方法、装置、计算机设备和存储介质 Active CN109451188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811446908.XA CN109451188B (zh) 2018-11-29 2018-11-29 差异性自助应答的方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811446908.XA CN109451188B (zh) 2018-11-29 2018-11-29 差异性自助应答的方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN109451188A CN109451188A (zh) 2019-03-08
CN109451188B true CN109451188B (zh) 2022-03-18

Family

ID=65555181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811446908.XA Active CN109451188B (zh) 2018-11-29 2018-11-29 差异性自助应答的方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN109451188B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110062117B (zh) * 2019-04-08 2021-01-08 商客通尚景科技(上海)股份有限公司 一种声波检测与预警方法
CN110265062A (zh) * 2019-06-13 2019-09-20 上海指旺信息科技有限公司 基于情绪检测的智能贷后催收方法及装置
CN110719362A (zh) * 2019-09-10 2020-01-21 北京百度网讯科技有限公司 通话处理方法、装置、电子设备及存储介质
CN111193834B (zh) * 2019-12-16 2022-04-15 北京淇瑀信息科技有限公司 基于用户声音特征分析的人机交互方法、装置和电子设备
CN111614845A (zh) * 2020-04-21 2020-09-01 深圳追一科技有限公司 人机对话中人设匹配方法、装置、计算机设备和存储介质
CN111681681A (zh) * 2020-05-22 2020-09-18 深圳壹账通智能科技有限公司 语音情绪识别方法、装置、电子设备及存储介质
CN111933138B (zh) * 2020-08-20 2022-10-21 Oppo(重庆)智能科技有限公司 语音控制方法、装置、终端及存储介质
CN112233699B (zh) * 2020-10-13 2023-04-28 中移(杭州)信息技术有限公司 语音播报方法、智能语音设备及计算机可读存储介质
TWI741937B (zh) * 2021-01-20 2021-10-01 橋良股份有限公司 人才適性度判斷系統及方法
TWI738610B (zh) * 2021-01-20 2021-09-01 橋良股份有限公司 金融商品推薦及風險控管系統及其方法
CN113208592B (zh) * 2021-03-29 2022-08-16 济南大学 一种具有多作答模式的心理测试***
CN113643684B (zh) * 2021-07-21 2024-02-27 广东电力信息科技有限公司 语音合成方法、装置、电子设备及存储介质
CN113676527A (zh) * 2021-08-10 2021-11-19 未鲲(上海)科技服务有限公司 信息推送方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874265A (zh) * 2015-12-10 2017-06-20 深圳新创客电子科技有限公司 一种与用户情绪匹配的内容输出方法、电子设备及服务器
CN107293310A (zh) * 2017-06-28 2017-10-24 上海航动科技有限公司 一种用户情绪分析方法及***
CN108648768A (zh) * 2018-04-16 2018-10-12 广州市菲玛尔咨询服务有限公司 一种咨询推荐方法及其管理***

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103634472B (zh) * 2013-12-06 2016-11-23 惠州Tcl移动通信有限公司 根据通话语音判断用户心情及性格的方法、***及手机
EP2887627A1 (en) * 2013-12-18 2015-06-24 Telefonica Digital España, S.L.U. Method and system for extracting out characteristics of a communication between at least one client and at least one support agent and computer program product thereof
CN106649404B (zh) * 2015-11-04 2019-12-27 陈包容 一种会话场景数据库的创建方法及装置
CN107645523A (zh) * 2016-07-21 2018-01-30 北京快乐智慧科技有限责任公司 一种情绪交互的方法和***
CN106294774A (zh) * 2016-08-11 2017-01-04 北京光年无限科技有限公司 基于对话服务的用户个性化数据处理方法及装置
CN106776936B (zh) * 2016-12-01 2020-02-18 上海智臻智能网络科技股份有限公司 智能交互方法和***
CN108363706B (zh) * 2017-01-25 2023-07-18 北京搜狗科技发展有限公司 人机对话交互的方法和装置、用于人机对话交互的装置
CN108735232A (zh) * 2017-04-24 2018-11-02 北京理工大学 一种性格识别方法和装置
CN107329996B (zh) * 2017-06-08 2021-06-29 三峡大学 一种基于模糊神经网络的聊天机器人***与聊天方法
CN107301213A (zh) * 2017-06-09 2017-10-27 腾讯科技(深圳)有限公司 智能问答方法及装置
CN108197115B (zh) * 2018-01-26 2022-04-22 上海智臻智能网络科技股份有限公司 智能交互方法、装置、计算机设备和计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106874265A (zh) * 2015-12-10 2017-06-20 深圳新创客电子科技有限公司 一种与用户情绪匹配的内容输出方法、电子设备及服务器
CN107293310A (zh) * 2017-06-28 2017-10-24 上海航动科技有限公司 一种用户情绪分析方法及***
CN108648768A (zh) * 2018-04-16 2018-10-12 广州市菲玛尔咨询服务有限公司 一种咨询推荐方法及其管理***

Also Published As

Publication number Publication date
CN109451188A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN109451188B (zh) 差异性自助应答的方法、装置、计算机设备和存储介质
CN111128223B (zh) 一种基于文本信息的辅助说话人分离方法及相关装置
CN110177182B (zh) 敏感数据处理方法、装置、计算机设备及存储介质
CN112037799B (zh) 语音中断处理方法、装置、计算机设备和存储介质
CN110246507B (zh) 一种语音的识别方法和装置
CN111883140A (zh) 基于知识图谱和声纹识别的认证方法、装置、设备及介质
CN111105782A (zh) 会话交互处理方法、装置、计算机设备和存储介质
CN109272993A (zh) 语音类别的识别方法、装置、计算机设备和存储介质
CN110769425B (zh) 异常通话对象的判断方法、装置、计算机设备和存储介质
CN110990685A (zh) 基于声纹的语音搜索方法、设备、存储介质及装置
CN111312286A (zh) 年龄识别方法、装置、设备及计算机可读存储介质
CN111858892A (zh) 基于知识图谱的语音交互方法、装置、设备及介质
CN110766442A (zh) 客户信息验证方法、装置、计算机设备及存储介质
CN111223476A (zh) 语音特征向量的提取方法、装置、计算机设备和存储介质
CN115050372A (zh) 一种音频片段的聚类方法、装置、电子设备和介质
CN113194210B (zh) 一种语音通话接入方法及装置
CN113709313B (zh) 客服通话数据智能质检方法、装置、设备及介质
KR100463706B1 (ko) 유무선 네트워크를 통한 음성 인식 기반 감정 분석 시스템및 그 방법
CN112712793A (zh) 语音交互下基于预训练模型的asr纠错方法及相关设备
CN111552785A (zh) 人机交互***数据库更新方法、装置、计算机设备和介质
CN108717851B (zh) 一种语音识别方法及装置
CN113593580B (zh) 一种声纹识别方法及装置
EP4093005A1 (en) System method and apparatus for combining words and behaviors
CN115019802A (zh) 语音意图识别的方法、装置、计算机设备和存储介质
CN114446325A (zh) 基于情绪识别的信息推送方法、装置、计算机设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant