CN104239304B - 一种数据处理的方法、装置以及设备 - Google Patents
一种数据处理的方法、装置以及设备 Download PDFInfo
- Publication number
- CN104239304B CN104239304B CN201310226296.4A CN201310226296A CN104239304B CN 104239304 B CN104239304 B CN 104239304B CN 201310226296 A CN201310226296 A CN 201310226296A CN 104239304 B CN104239304 B CN 104239304B
- Authority
- CN
- China
- Prior art keywords
- communicatee
- audio
- value
- expression
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
- G06F16/636—Filtering based on additional data, e.g. user or group profiles by using biological or physiological data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Physiology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种数据处理的方法、装置及设备,所述方法包括采集交流现场中交流对象的表现信息,然后将所采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与采集得到的表现信息相匹配的预设表现信息,然后获取与匹配得到的预设表现信息相对应的预设心理状态类型,进而得到交流对象的心理状态类型,并输出该交流对象的心理状态类型。通过上述方式,本发明能够使得用户根据交流对象的心理状态而及时调整交流措施,从而提高交流对象在交流过程中的满意度。
Description
技术领域
本发明涉及一种数据处理的方法、装置以及设备。
背景技术
随着通信技术的发展,语音通信和视频通信质量获得较大提高。目前大多数企业,尤其服务类企业,都建立起远程服务中心,通过语音或者视频向客户提供远程服务。
目前,服务人员在远程服务过程中,都是通过人为判断对方情绪,并根据对方情绪服务策略。在人们从多情绪中,微表情是一种靠人为注意很难发现的情绪,通常情况下,微表情一闪而过,连清醒的作表情的人和观察者都察觉不到。但微表情更能体现人们真实的感受和动机。若服务人员能够及时察觉对方的微表情,并在对方产生不输快情绪,安抚好对方,防止服务不到位的情况的发生。
其中,服务人员在提供服务时,又要时刻注意对方情绪变化,对服务人员来说是一个沉重负担。在同时服务较多人员,或者,服务时间过长时,服务人员容易出现疲惫,忽略对方情绪的变化,从而没有及时调整服务策略,进而造成服务不到位的情况发生,影响服务质量。
发明内容
本发明主要解决的技术问题是提供一种数据处理的方法、装置及设备,能够及时调整交流措施,以提高交流对象的满意度。
本发明的第一方面是:提供一种数据处理方法,所述方法包括:采集交流现场中交流对象的表现信息,所述表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息;将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与所述采集得到的表现信息相匹配的预设表现信息,所述数据库还用于存储在存储所述所有预设表现信息时,对每种所述预设表现信息预定义的预设心理状态类型,所述预设心理状态类型为心理状态的类型;获取与匹配得到的所述预设表现信息相对应的预设心理状态类型,以获取所述交流对象的心理状态类型;输出所述交流对象的心理状态类型。
结合第一方面的第一种可能的实现方式:所述将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与所述采集得到的表现信息相匹配的预设表现信息的步骤包括:将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息,进而获得与所述采集得到的表现信息相匹配的预设表现信息。
结合第一方面的第一种可能实现方式,在第二种可能的实现方式中,所述采集交流现场中交流对象的表现信息的步骤包括:采集交流现场中交流对象的图像数据以获取所述交流对象在交流过程中的情态动作信息,进而获取所述交流对象的表现信息;所述将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:从所述交流对象的图像数据中获取交流对象的面部预定点的特征数据;根据所述面部预定点的特征数据获得交流对象的表情图像,并将所述交流对象的表情图像与所述数据库中预先存储的所有预定表情图像进行对比,以获取与所述交流对象的表情图像的相似度大于设定阈值的预设表情图像,进而得到与所述交流对象的表情图像相匹配的预定表情图像;所述获取与匹配得到的所述预设表现信息相对应的预设心理状态类型的步骤包括:在所述数据库中获取在存储所述与所述交流对象的表情图像相匹配的预定表情图像时对所述预定表情图像所定义的预设表情类型,进而获得所述交流对象的心理状态类型。
结合第一方面的第一种可能实现方式的第二种可能实现方式,在第三种可能的实现方式中,所述图像数据为交流对象的当前图像数据,所述预设表情类型对应为交流对象的当前预设表情类型。
结合第一方面的第一种可能实现方式的第二种可能实现方式的第四种可能实现方式,在第五种可能的实现方式中,所述在所述数据库中预先存储的预定义表情值表中查询得到与所述当前预设表情类型相对应的当前表情值,以及与所述历史预设表情类型相对应的历史表情值的步骤之后,包括:根据所述当前表情值和历史表情值获取在所述设定周期内交流对象的表情值变化曲线;所述输出所述交流对象的心理状态类型的步骤包括:除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的表情值变化曲线。
结合第一方面的第一种可能实现方式,在第六种可能的实现方式中,所述采集交流现场中交流对象的表现信息的步骤包括:采集交流现场中交流对象的语音信息,进而得到所述交流对象的表现信息。
结合第一方面的第一种可能实现方式的第六种可能实现方式,在第七种可能的实现方式中,所述将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:根据所述交流对象的语音信息获得交流对象的音频波形图;将所述交流对象的音频波形图与所述数据库中预先存储的所有预定音频波形图进行对比,以获取与所述交流对象的音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与所述交流对象的音频波形图相匹配的预定音频波形图;所述获取与匹配得到的所述预设表现信息相对应的预设心理状态类型的步骤包括:在所述数据库中获取在存储所述与所述交流对象的音频波形图相匹配的预定音频波形图时对所述预定音频波形图所定义的预设音频类型,进而获得所述交流对象的心理状态类型。
结合第一方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式中,在第八种可能的实现方式中,所述语音信息为交流对象的当前语音信息,所述预设音频类型对应为交流对象的当前预设音频类型。
结合第一方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式中,在第九种可能的实现方式中,所述语音信息包括交流对象的当前语音信息和至少一个历史语音信息,所述预设音频类型包括所述当前语音信息所对应的当前预设音频类型和所述历史语音信息所对应的历史预设音频类型;所述采集交流现场中交流对象的语音信息的步骤包括:在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个语音信息,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的语音信息即为所述当前语音信息,在其余所述时间点采集到的交流对象的语音信息即为所述历史语音信息;所述在所述数据库中获取在存储所述与所述交流对象的语音信息相匹配的预定音频波形图时对所述预定音频波形图所定义的预设音频类型的步骤之后,包括:在所述数据库中预先存储的预定义音频值表中查询得到与所述当前预设音频类型相对应的当前音频值,以及与所述历史预设音频类型相对应的历史音频值;根据公式:计算在所述设定周期内的综合音频值,其中,所述K为所述综合音频值,L为在所述设定周期内的所有所述时间点,Sc为所述当前音频值,Shi为在第i个时间点采集到的所述历史语音信息所对应的第i个历史音频值,b为所述当前音频值在所述当前音频值和历史音频值两种类型音频值中所占的比重;在所述预定义音频值表中查询得到与所述综合音频值相对应的预设音频类型,进而获得所述交流对象的心理状态类型。
结合第一方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式的第九种可能实现方式中,在第十种可能的实现方式中,所述在所述数据库中预先存储的预定义音频值表中查询得到与所述当前预设音频类型相对应的当前音频值,以及与所述历史预设音频类型相对应的历史音频值的步骤之后,包括:根据所述当前音频值和历史音频值获取在所述设定周期内交流对象的音频值变化曲线;所述输出所述交流对象的心理状态类型的步骤包括:除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的音频值变化曲线。
结合第一方面的第一种可能实现方式的第六种可能实现方式,在第十一种可能的实现方式中,所述将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:利用语音识别技术从所述语音信息中提取交流对象语言中的关键字词;将所述交流对象语言中的关键字词与所述数据库中预先存储的所有预定关键字词进行对比,以获取与所述交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,进而获得与所述交流对象语言中的关键字词相匹配的预定关键字词;所述获取与匹配得到的所述预设表现信息相对应的预设心理状态类型的步骤包括:在所述数据库中获取在存储所述与所述交流对象语言中的关键字词相匹配的预定关键字词时对所述预定关键字词所定义的词义类型,并统计所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量;在所述数据库中预先存储的预定义用词占分值表中查询与所获取的每种所述词义类型相对应的用词占分值;根据查询得到的所述用词占分值和所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量,计算综合用词占分值;在所述预定义用词占分值表中查询与所述综合用词占分值相对应的词义类型,进而获得所述交流对象的心理状态类型。
本发明第二方面是:提供一种数据处理装置,包括采集模块,用于采集交流现场中交流对象的表现信息,所述表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息;第一获取模块,用于将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与所述采集得到的表现信息相匹配的预设表现信息,所述数据库还用于存储在存储所述所有预设表现信息时,对每个所述预设表现信息预定义的预设心理状态类型,所述预设心理状态类型为心理状态的类型;第二获取模块,用于获取与匹配得到的所述预设表现信息相对应的预设心理状态类型,以获取所述交流对象的心理状态类型;输出模块,用于输出所述交流对象的心理状态类型。
结合第二方面的第一种可能的实现方式,所述第一获取模块具体用于将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息,进而获得与所述采集得到的表现信息相匹配的预设表现信息。
结合第二方面的第一种可能实现方式,在第二种可能的实现方式中,所述采集模块包括图像采集单元,所述图像采集单元用于采集交流现场中交流对象的图像数据以获取所述交流对象在交流过程中的情态动作信息,进而获取所述交流对象的表现信息;所述第一获取模块包括:第一获取单元,用于从所述交流对象的图像数据中获取交流对象的面部预定点的特征数据;第二获取单元,用于根据所述面部预定点的特征数据获得交流对象的表情图像,并将所述交流对象的表情图像与所述数据库中预先存储的所有预定表情图像进行对比,以获取与所述交流对象的表情图像的相似度大于设定阈值的预设表情图像,进而得到与所述交流对象的表情图像相匹配的预定表情图像;所述第二获取模块包括第三获取单元,所述第三获取单元用于在所述数据库中获取在存储所述与所述交流对象的表情图像相匹配的预定表情图像时对所述预定表情图像所定义的预设表情类型,进而获得所述交流对象的心理状态类型。
结合第二方面的第一种可能实现方式的第二种可能实现方式,在第三种可能的实现方式中,所述图像采集单元所采集的所述图像数据为交流对象的当前图像数据,所述第二获取模块所获取的所述预设表情类型对应为交流对象的当前预设表情类型。
结合第二方面的第一种可能实现方式的第二种可能实现方式的第四种可能实现方式中,在第五种可能的实现方式中,还包括第三获取模块,用于根据所述当前表情值和历史表情值获取在所述设定周期内交流对象的表情值变化曲线;其中,所述输出模块除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的表情值变化曲线。
结合第二方面的第一种可能实现方式,在第六种可能的实现方式中,所述采集模块包括语音采集单元,所述语音采集单元用于采集交流现场中交流对象的语音信息,进而得到所述交流对象的表现信息。
结合第二方面的第一种可能实现方式的第六种可能实现方式,在第七种可能的实现方式中,所述第一获取模块包括:第六获取单元,用于根据所述交流对象的语音信息获得交流对象的音频波形图;第七获取单元,用于将所述交流对象的音频波形图与所述数据库中预先存储的所有预定音频波形图进行对比,以获取与所述交流对象的音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与所述交流对象的音频波形图相匹配的预定音频波形图;所述第二获取模块包括第八获取单元,所述第八获取单元用于在所述数据库中获取在存储所述与所述交流对象的音频波形图相匹配的预定音频波形图时对所述预定音频波形图所定义的预设音频类型,进而获得所述交流对象的心理状态类型。
结合第二方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式中,在第八种可能的实现方式中,所述语音采集单元所获取的所述语音信息为交流对象的当前语音信息,所述第八获取单元所获取的所述预设音频类型对应为交流对象的当前预设音频类型。
结合第二方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式中,在第九种可能的实现方式中,所述语音采集单元所获取的所述语音信息包括交流对象的当前语音信息和至少一个历史语音信息,所述第八获取单元所获取的所述预设音频类型包括所述当前语音信息所对应的当前预设音频类型和所述历史语音信息所对应的历史预设音频类型;所述语音采集单元具体用于在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个语音信息,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的语音信息即为所述当前语音信息,在其余所述时间点采集到的交流对象的语音信息即为所述历史语音信息;所述第二获取模块还包括:第九获取单元,用于在所述数据库中预先存储的预定义音频值表中查询得到与所述当前预设音频类型相对应的当前音频值,以及与所述历史预设音频类型相对应的历史音频值;第二计算单元,用于根据公式:计算在所述设定周期内的综合音频值,其中,所述K为所述综合音频值,L为在所述设定周期内的所有所述时间点,Sc为所述当前音频值,Shi为在第i个时间点采集到的所述历史语音信息所对应的第i个历史音频值,b为所述当前音频值在所述当前音频值和历史音频值两种类型音频值中所占的比重;第十获取单元,用于在所述预定义音频值表中查询得到与所述综合音频值相对应的预设音频类型,进而获得所述交流对象的心理状态类型。
结合第二方面的第一种可能实现方式的第六种可能实现方式的第七种可能实现方式的第九种可能实现方式,在第十种可能的实现方式中,还包括:第四获取模块,用于根据所述当前音频值和历史音频值获取在所述设定周期内交流对象的音频值变化曲线;其中,所述输出模块除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的音频值变化曲线。
结合第二方面的第一种可能实现方式的第六种可能实现方式,在第十一种可能的实现方式中,所述第一获取模块包括:第十一获取单元,用于利用语音识别技术从所述语音信息中提取交流对象语言中的关键字词;第十二获取单元,用于将所述交流对象语言中的关键字词与所述数据库中预先存储的所有预定关键字词进行对比,以获取与所述交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,进而获得与所述交流对象语言中的关键字词相匹配的预定关键字词;所述第二获取模块包括:第十三获取单元,用于在所述数据库中获取在存储所述与所述交流对象语言中的关键字词相匹配的预定关键字词时对所述预定关键字词所定义的词义类型,并统计所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量;第十四获取单元,用于在所述数据库中预先存储的预定义用词占分值表中查询与所获取的每种所述词义类型相对应的用词占分值;第十五获取单元,用于根据查询得到的所述用词占分值和所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量,计算综合用词占分值;第十六获取单元,在所述预定义用词占分值表中查询与所述综合用词占分值相对应的词义类型,进而获得所述交流对象的心理状态类型。
本发明第三方面是,提供一种数据处理设备,包括存储器、处理器以及输出装置,所述存储器、输出装置分别通过总线与所述处理器连接;所述存储器用于存储所述数据处理设备的数据;所述处理器用于采集交流现场中交流对象的表现信息,所述表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息,并将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与所述采集得到的表现信息相匹配的预设表现信息,所述数据库还用于存储在存储所述所有预设表现信息时,对每个所述预设表现信息预定义的预设心理状态类型,所述预设心理状态类型为心理状态的类型;所述处理器还用于获取与匹配得到的所述预设表现信息相对应的预设心理状态类型,以获取所述交流对象的心理状态类型;所述输出装置用于所述交流对象的心理状态类型。
本发明的有益效果是:本发明通过采集交流现场中交流对象的表现信息,然后将所采集得到的表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与采集得到的表现信息相匹配的预设表现信息,然后获取与匹配得到的预设表现信息相对应的预设心理状态类型,进而得到交流对象的心理状态类型,并输出该交流对象的心理状态类型,由此使得用户能够获知交流对象在交流过程中的心理状态,进而根据交流对象的心理状态及时调整交流措施,以尽可能提高交流对象在交流过程中的满意度。
附图说明
图1是本发明数据处理的方法一实施方式的流程图;
图2是本发明数据处理的方法另一实施方式中,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的流程图;
图3是本发明数据处理的方法另一实施方式中,数据库中的表情库与表情类型的对应关系示意图;
图4是本发明数据处理的方法又一实施方式中,在数据库中获取在存储与交流对象的表情图像相匹配的预定表情图像时对预定表情图像所定义的预设表情类型的步骤之后的流程图;
图5是图4的数据处理的方法中,所获得的交流对象的表情值变化曲线一实施方式的示意图;
图6是本发明数据处理的方法又一实施方式中,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的流程图;
图7是本发明数据处理的方法又一实施方式中,在数据库中获取在存储与交流对象的语音信息相匹配的预定音频波形图时对预定音频波形图所定义的预设音频类型的步骤之后的流程图;
图8是图7的数据处理的方法中,所获得的交流对象的音频值变化曲线一实施方式的示意图;
图9是本发明数据处理的方法又一实施方式中,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的流程图;
图10是本发明数据处理的方法又一实施方式中,获取与匹配得到的预设表现信息相对应的预设心理状态类型的流程图;
图11是本发明数据处理的方法另一实施方式中,数据库中的词义库与词义类型的对应关系示意图;
图12是本发明数据处理装置一实施方式的结构示意图;
图13是本发明数据处理装置另一实施方式的结构示意图;
图14是本发明数据处理装置又一实施方式的结构示意图;
图15是本发明数据处理装置又一实施方式的结构示意图;
图16是本发明数据处理装置又一实施方式的结构示意图;
图17是本发明数据处理装置又一实施方式的结构示意图;
图18是本发明数据处理设备一实施方式的结构示意图。
具体实施方式
本发明主要是用于在交流现场中,通过自动获取交流对象在交流过程中的各种表现信息,以根据这些表现信息分析交流对象的情绪变化,以获取交流对象的心理状态,并向用户交流对象的心理状态,使得用户能够及时根据交流对象的情绪变化调整交流措施,有效提高交流服务质量。
下面将结合附图和实施方式对本发明进行详细说明。
参阅图1,本发明数据处理的方法一实施方式中,包括如下步骤:
步骤S101:采集交流现场中交流对象的表现信息,表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息。
本实施方式中,通过远程服务器采集交流现场中交流对象的表现信息。用户与交流对象进行交流时所采取的交流方式多种多样,如远程视频交流模式、远程语音交流模式或者当面会谈交流模式等,不同的交流模式对应不同的交流现场。交流对象的表现信息为在交流过程中交流对象的情态动作信息和/或语音信息,情态动作信息指人脸上各部位的动作信息,如面部表情动作等,人的心理活动大部分都是通过面部表情显现出来,其次,声音也是体现人内心活动的一种介质,如语调高低、语音内容等都能够直观地表现人的心理状态。本实施方式通过采集交流对象的情态动作信息和/或语音信息,以获取交流对象的心理状态。不同的交流模式所能采集到的交流对象的表现信息不同,例如语音通话时只能获取交流对象的语音信息,而在视频通话或面对面交谈时则能够同时获取交流对象的面部表情信息和语音信息等,根据具体的交流现场远程服务器采集相应的表现信息。
步骤S102:将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与采集得到的表现信息相匹配的预设表现信息,数据库还用于存储在存储所有预设表现信息时,对每种预设表现信息预定义的预设心理状态类型,预设心理状态类型为心理状态的类型。
在数据库中预先存储各种预设表现信息,远程服务器采集到交流对象的表现信息之后,将所采集得到表现信息与数据库中所有的预设表现信息进行匹配,匹配的过程为将采集得到的表现信息与数据库中所有的预设表现信息进行对比,以从所有预设表现信息中获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息,从而获得与采集得到的表现信息相匹配的预设表现信息。该设定阈值可以设为98%,即与采集得到的表现信息的相似度大于98%的预设表现信息均为与采集得到的表现信息相匹配的预设表现信息。
步骤S103:获取与匹配得到的预设表现信息相对应的预设心理状态类型,以获取交流对象的心理状态类型。
在数据库中预先存储各种预设表现信息时,同时根据每种预设表现信息所体现的心理状态对每种预设表现信息预定义其相应的心理状态类型,心理状态类型即指人的心理状态的类型,如人的高兴、愤怒、悲伤等心理状态。例如,一种语音信息体现的心理状态为高兴,根据该语音信息所体现的心理状态类型而将该语音信息定义为对应高兴的心理状态类型。将每种预设表现信息所定义的预设心理状态类型存储于数据库中。每种预设心理状态类型可以对应多种不同的预设表现信息,而每种预设表现信息则与一种预设心理状态类型相对应,根据预设表现信息与预设心理状态类型的对应关系,远程服务器在获取与交流对象的表现信息相匹配的预设表现信息之后,获取与匹配得到的预设表现信息相对应的预设心理状态类型,从而获得交流对象的心理状态类型。
步骤S104:输出交流对象的心理状态类型。
不同的心理状态类型,需要采取不同的交流措施,尤其是对于服务行业或者商业会谈等而言,如果不能根据客户的心理状态采取相应的交流措施,则在交流过程中可能会导致客户满意度下降,如此可能会造成客户流失。远程服务器获取交流对象的心理状态类型后,向用户输出交流对象的心理状态类型,使得用户能够及时调整交流措施,以尽可能地提高交流过程中交流对象的满意度。
本实施方式,通过在数据库中预先存储各种预设表现信息,并对每种预设表现信息预定义相应的预设心理状态类型,从而远程服务器通过采集交流对象的表现信息,并将交流对象的表现信息与数据库中的预设表现信息进行匹配,进而获得交流对象的心理状态类型并输出给用户,使得用户能够及时调整交流措施,以尽可能地提高交流过程中交流对象的满意度。
本发明数据处理的方法另一实施方式中,远程服务器所采集的交流对象的表现信息为交流对象的情态动作信息,该情态动作信息具体为交流对象的面部表情信息。人的心理状态变化大部分都是通过面部表情体现出来,因此获取交流对象的面部表情更能准确得到交流对象的心理状态类型。
具体地,远程服务器采集交流现场中交流对象的表现信息的具体步骤为:采集交流现场中交流对象的图像数据以获取交流对象在交流过程中的情态动作信息,进而得到交流对象的表现信息。其中,远程服务器所采集到的图像数据为交流对象的当前图像数据。
本实施方式的交流现场可以为视频交流模式下的交流现场。用户通过计算机、平板电脑或手机等客户端与交流对象进行网上视频通话。以计算机为例,在视频通话模式下,用户的计算机通过互联网技术实时接收交流对象的视频数据,使得用户在计算机上能够看到交流对象的视频图像,以达到面对面交谈的效果。视频数据实际是由图像帧构成,远程服务器通过采集计算机接收到的交流对象的当前视频数据,进而得到交流对象的当前图像数据。
此时,参阅图2,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:
步骤S201:从交流对象的当前图像数据中获取交流对象的当前面部预定点的特征数据。
远程服务器采集到交流对象的当前图像数据后,利用人脸检测(Face Detection)技术从当前图像数据中提取交流对象的当前面部预定点的特征数据。人脸检测技术是一种在任意数字图像中找到人脸的位置和大小的计算机技术,能够检测出面部特征,甚至也能够检测出面部细微特征。远程服务器接收到交流对象的当前图像数据后,首先利用人脸检测技术检测当前图像数据中是否存在人脸图像,在检测到存在人脸图像时,对人脸图像中的预定点特征进行分析提取,以得到体现人脸预定点特征的相关数据。因此,远程服务器通过上述方式能够从图像数据中提取交流对象的面部预定点的特征数据。
步骤S202:根据当前面部预定点的特征数据获得交流对象的当前表情图像,并将当前表情图像与数据库中预先存储的所有预定表情图像进行对比,以获取与交流对象的当前表情图像的相似度大于设定阈值的预设表情图像,进而得到与当前表情图像相匹配的预定表情图像。
远程服务器所取的面部预定点为能够体现面部表情的特定点,因此通过对交流对象的面部预定点的特征数据进行提取,根据这些预定点的特征数据分析交流对象的面部表情,以得到交流对象的当前表情图像。本实施方式中,采集的交流对象的表现信息为交流对象的图像信息,以根据该图像信息获得交流对象相应的表情图像,数据库中预先存储的预设表现信息对应为预定表情图像,通过进行对比,获得与交流对象的当前表情图像的相似度大于设定阈值的预定表情图像。
在数据库中存储各种预定表情图像时,根据每种预定表情图像所体现的心理状态而对每种预定表情图像预定义一种预设表情类型,数据库中还相应存储与各种预定表情图像相对应的预设表情类型,每种预定表情图像对应一种预设表情类型,而每种预设表情类型可以对应多种预定表情图像。具体地,参阅图3,在数据库中建立与每种预设表情类型对应的表情库,通过将各种预定表情图像分类存储于不同的表情库的形式以对各种预定表情图像定义相应的表情类型。每种表情库类型对应一种预设表情类型,将属于同一种预设表情类型的各种预定表情图像存储于对应该预设表情类型的表情库中,即存储在对应该预设表情类型的表情库下的所有预定表情图像均定义为对应该预设表情类型的表情图像。例如,数据库中的表情库包括高兴表情库、生气表情库、无奈表情库以及无兴趣表情库等类型的表情库。高兴表情库对应高兴表情类型,用于存储体现高兴心理状态的各种预定表情图像,在高兴表情库中存储的所有预定表情图像都定义为高兴表情类型的表情图像;生气表情库对应生气表情类型,用于存储体现生气心理状态的各种预定表情图像,在生气表情库中存储的所有预定表情图像都定义为生气表情类型的表情图像,其它类型的表情库以此类推。
在获取一种预定表情图像后,远程服务器根据存储该预定表情图像的表情库在数据库中能够获取该预定表情图像所对应的预设表情类型。因此,远程服务器在获得与交流对象的当前表情图像匹配的预定表情图像后,根据存储匹配得到的预定表情图像的表情库,从而能够获取与匹配得到的预定表情图像对应的预设表情类型,从而得到交流对象的心理状态类型。例如,远程服务器获取与交流对象的当前表情图像匹配的预定表情图像后,在数据库中查询到该预定表情图像存储于高兴表情库中,即对该匹配得到的预定表情图像所定义的预设表情类型为高兴表情类型,由此获得交流对象当前的心理状态类型为高兴类型,并向用户输出表示心理状态类型的形容词:“高兴”,以使得用户获知交流对象当前的心理状态为高兴,进而根据交流对象高兴的心理状态类型采取相应的交流措施,以提高交流质量。
进一步地,当远程服务器所获取的与交流对象的当前表情图像相匹配的预定表情图像有多个时,即在数据库中对比得到多个符合条件的预定表情图像,根据存储每个预定表情图像的表情库而获得与匹配得到的每个预定表情图像对应的预设表情类型,在多个预定表情图像中可能都对应同一种预设表情类型,也可能对应多个不同的预设表情类型,此时所获取的交流对象的心理状态类型也可能会有多种,将所获取的交流对象的所有心理状态类型输出给用户,以向用户提供交流对象的心理状态信息。
通过上述方式,本实施方式通过采集交流对象的当前图像数据的表现信息,并根据当前图像数据得到交流对象的当前表情图像,然后在数据库的所有预定表情图像中获取与当前表情图像的相似度大于设定阈值的预定表情图像,并在数据库中获取与所获取的预定表情图像相对应的当前预设表情类型,该当前预设表情类型即对应交流对象当前的心理状态类型,从而获取交流对象的心理状态类型,并向用户输出该心理状态类型,从而使得用户能够及时根据交流对象的心理状态情况调整相应的交流措施,进而提高交流过程中交流对象的满意度。
在上述实施方式中,远程服务器通过直接采集交流对象的当前图像数据以得到交流对象的表现数据,进而得到交流对象当前的心理状态类型,在另一实施方式中,远程服务器除了采集交流对象的当前图像数据之外,还采集交流对象的历史图像数据,进而得到交流对象的表现信息。具体地,远程服务器以周期性方式采集计算机接收到的交流对象的视频数据,以获取交流对象的图像数据。在设定周期内,远程服务器在间隔设定时长的至少两个时间点上采集交流现场中交流对象的至少两个图像数据,该设定时长不大于设定周期的时长,且至少两个时间点至少包括设定周期的时间终点。远程服务器在设定周期的时间终点所采集到的图像数据即为交流对象的当前图像数据,而在其他时间点上所采集到的图像数据为交流对象的历史图像数据。远程服务器所采集到的至少两个图像数据中至少有一个为当前图像数据。
举例而言,设定周期的时长为10分钟,假设某一个周期的时间起点为12:00,则该周期的时间终点为12:10。在这10分钟内,远程服务器每间隔1分钟采集一个图像数据,即远程服务器在包括周期的时间起点和时间终点在内的11个时间点分别采集一个图像数据,而在周期的时间终点12:10上所采集到的图像数据即为交流对象的当前图像数据,在12:00、12:01,……,12:09的十个时间点上采集的图像数据均为交流对象的历史图像数据。此时,远程服务器根据当前图像数据在数据库中获取与当前图像数据对应的当前预设表情类型,以及根据历史图像数据在数据库中获取与历史图像数据对应的历史预设表情类型,具体的获取过程可参考上述实施方式进行,此处不进行一一赘述。
本实施方式中,参阅图4,在数据库中获取在存储与交流对象的表情图像相匹配的预定表情图像时对预定表情图像所定义的预设表情类型的步骤之后,还包括如下步骤:
步骤S401:在数据库中预先存储的预定义表情值表中查询得到与当前预设表情类型相对应的当前表情值,以及与历史预设表情类型相对应的历史表情值。
对每一种表情类型定义一个表情值。例如,对于兴奋表情类型,其表情值定义为10,高兴表情类型其表情值定义为8,平淡表情类型其表情值定义为6等。在数据库预先建立一个预定义表情值表,该预定义表情值表用于记录每一种表情类型所对应的表情值,一种表情类型对应一个表情值。远程服务器在设定周期内的每个时间点上,每获得一个图像数据,便对该图像数据进行分析匹配,以得到所对应的表情类型,进而根据该表情类型在预定义表情值表中查询得到相应的表情值。
步骤S402:根据当前表情值和历史表情值计算设定周期内的综合表情值。
远程服务器获得在设定周期内的所有时间点采集到的每个图像数据所对应的表情值后,计算设定周期内的综合表情值,以通过该综合表情值获取交流对象当前的心理状态类型。具体地,远程服务器根据公式:
计算设定周期内的综合表情值。其中,M表示设定周期内的综合表情值,N为在设定周期内的所有时间点,Vc为当前表情值,Vhi为第i个时间点采集到的历史图像数据所对应的第i个历史表情值,d为当前表情值在当前表情值和历史表情值两种类型表情值中所占的比重。
举例而言,在预定义表情值表中定义的各种表情类型所对应的表情值为:兴奋(10)、高兴(8)、平淡(6)、冷漠(4)、生气(2)、悲伤(1),其中,“兴奋”指表情类型,“(10)”指兴奋的表情类型对应的表情值,其他表情值以此类推。请参阅表1,在10分钟的周期内,远程服务器每隔一分钟获取一个图像数据,根据所获取的图像数据在11个时间点所获得的对应的11个表情值分别为:
表1在10分钟周期内的每个时间点上得到的表情值
其中,在10分钟的周期内共有N=11个时间点,在这11个时间点中的设定周期的时间终点12:10对应得到的表情值为当前表情值,在其余时间点上得到的表情值为历史表情值。本实施方式中,当前表情值在当前表情值和历史表情值两种表情值中所占的比重d为60%,而历史表情值在两种表情值中所占的比重则为40%。当然,在其他实施方式中,当前表情值在两种表情值中所占的比重也可以为其他比值,此处不进行限定。从而,本实施方式中,根据公式(1.0)所得到的综合表情值M为:
步骤S403:在预定义表情值表中查询得到与综合表情值相对应的预设表情类型,进而得到交流对象当前的心理状态类型。
在预定义表情值表中,表情类型与表情值一一对应,获取两者中的一种即可通过预定义表情值表查询得到另一种。因此,远程服务器在得到综合表情值后,将该综合表情值与预定义表情值表中的所有表情值进行匹配,匹配的过程为在预定义表情值表中查询与计算得到的综合表情值最相近或相同的预定义表情值,从而从所有预定义表情值中获得与综合表情值匹配的预定义表情值,进而根据该匹配得到的预定义表情值获得对应的表情类型,即综合表情值对应的预设表情类型。例如,所获得的综合表情值为M=8.64,远程服务器在存储预定义表情值表中查询到与该8.64最相近的预定义表情值为8,而预定义表情值8对应的表情类型为高兴类型,因此所得到的综合表情值对应的表情类型为高兴表情类型。本实施方式中,将根据综合表情值匹配得到的表情类型作为交流对象的当前表情类型,而一种表情类型对应一种心理状态类型,进而得到交流对象当前的心理状态类型。之后,远程服务器并向用户输出交流交流对象的心理状态类型。
人的心理状态变化通常是循序渐进的,通过获取一段时间内的图像数据以得到交流对象的当前心理状态类型,能够更准确体现出交流对象的心理状态变化,因此通过计算设定周期内的综合表情值来获取交流对象当前的心理状态类型,能够提高准确性。
本实施方式中,远程服务器在获得交流对象的当前表情值和历史表情值之后,根据当前表情值和历史表情值获取交流对象的表情值变化曲线。具体地,远程服务器根据设定周期、采集图像数据的每个时间点以及在每个时间点上所得到的表情值(即当前表情值和历史表情值)获取交流对象的表情值变化曲线。以上述表1所示的实施方式为例,参阅图5,在设定周期10分钟内,远程服务器在间隔1分钟的时间点上采集交流对象的一个图像数据,并根据所采集到的每个图像数据在数据库中获取相应的预设表情类型,进而根据预定义表情值表得到每个时间点对应的表情值。远程服务器根据时间点和表情值获取交流对象在10分钟内的表情值变化曲线。此时,远程服务器除了向用户输出交流对象的心理状态类型之外,还向用户输出交流对象的表情值变化曲线。通过表情值变化曲线,能够使用户更直观地看出交流对象在10分钟内的心理状态变化,以采取更好的交流措施与交流对象进行沟通,尽可能地提高交流对象的满意度。
上述各实施方式中,交流现场为网上视频交流模式下的交流现场,远程服务器通过采集计算机所接收到的交流对象的视频数据,即交流对象的图像数据,进而得到交流对象的表现信息,从而根据该表现信息得到相应的交流对象的心理状态类型,并将交流对象的心理状态类型输出给用户,使得用户能够及时调整交流措施。当然,在其他实施方式中,交流现场也可以为面对面交谈的交流现场,此时可通过摄像头等摄像设备获取交流现场中交流对象的图像数据,远程服务器通过对摄像头所获取的图像数据进行采集分析,进而匹配得到相应的交流应对策略。
此外,在本发明数据处理的方法的又一实施方式中,交流现场为远程语音交流模式下的交流现场,用户与交流对象通过固定电话、网络电话等方式进行语音沟通。此时,远程服务器通过采集交流对象的语音信息以得到交流对象的表现信息。用户与交流对象进行语音通话时,用户一方的固定电话或网络电话持续接收交流对象的语音内容,远程服务器通过对固定电话或网络电话所接收到的语音内容进行采集,以得到交流对象的语音信息。本实施方式中,远程服务器采集的语音信息为交流对象的当前语音信息。此时,参阅图6,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:
步骤S601:根据交流对象的当前语音信息获得交流对象的当前音频波形图。
音频波形图体现了音频的高低状况。语音信息中包含有多种内容,如交流对象的音调、音速或词义等,而每一种内容都能够直接或间接反应出交流对象的心理状态,例如当音速较快时,说明交流对象可能较焦急,本实施方式以音频高低(即音调)为例进行说明,通过获取交流对象的音频信息以获取交流对象的心理状态,例如当音频较高时说明交流对象可能情绪激昂,音频较低沉时说明交流对象可能对话题无兴趣。远程服务器在采集到交流对象的当前语音信息后,根据当前语音信息获取当前音频波形图,以根据当前音频波形图获取交流对象的音频状况。
步骤S602:将交流对象的当前音频波形图与数据库中存储的所有预定音频波形图进行对比,以获取与交流对象的当前音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与交流对象的当前音频波形图相匹配的当前预定音频波形图。
本实施方式中,预先在数据库中存储各种预定音频波形图,远程服务器通过将交流对象的当前音频波形图与数据库中所有预定音频波形图进行一一对比,并根据对比结果获取与交流对象的当前音频波形图的相似度大于设定阈值的预定音频波形图,所获取的预定音频波形图即为与交流对象的当前音频波形图相匹配的当前预定音频波形图。
远程服务器获取与交流对象的当前音频波形图相匹配的当前预定音频波形图后,在数据库中获取在存储所获取的当前预定音频波形图时对该当前预定音频波形图所定义的预设音频类型,进而得到交流对象的心理状态类型。其中,在数据库中预先存储各种预定音频波形图时,根据每种预定音频波形图所体现的音频类型而对每种预定音频波形图预定义一种音频类型。具体地,通过对所有预定音频波形图分类存储于不同的音频库的形式对每种预定音频波形图定义音频类型。在数据库中预先建立各种类型的音频库,每种音频库类型对应一种预定音频类型,即每种类型的音频库用于存储属于同一种预定音频类型的预定音频波形图,存储在该类型音频库下的所有预定音频波形图均定义为属于该预定音频类型的音频波形图。例如,数据库中的音频库包括高音频库、较高音频库、中音频库等,高音频库用于存储体现高音频的预定音频波形图,存储在高音频库中的所有预定音频波形图均定义为高音频类型的音频波形图,其他音频库以此类推。每种预定音频波形图只存储于一种类型的音频库中,而一种类型的音频库可以存储多种预定音频波形图,因此每种预定音频波形图对应一种预定音频类型,而一种预定音频类型对应多种预定音频波形图。根据对预定音频波形图所定义的预定音频类型,从而远程服务器可以在数据库中获取与所获得的当前预定音频波形图相对应的预定音频类型,进而得到交流对象的心理状态类型。
例如,远程服务器在获取与交流对象的当前音频波形图相匹配的当前预定音频波形图后,在数据库中查询到该匹配得到的当前预定音频波形图存储于高音频库中,即对该匹配得到的当前预定音频波形图所定义的音频类型为高音频类型,该高音频类型也能够体现出交流对象的当前心理状态类型,即说明交流对象的音调高,情绪可能较激昂。因此,本实施方式远程服务器通过获取与交流对象的当前音频波形图相匹配的当前音频类型,以获得交流对象的当前心理状态类型,之后远程服务器向用户输出体现音频类型的词:“高音频”,使用户获知交流对象当前的音频为高音频,说明交流对象当前说话的音调较高,情绪可能较激昂,进而得到交流对象的当前心理状态类型,从而根据该当前心理状态类型及时调整相应的交流措施,以尽可能地提高交流过程中交流对象的满意度。
在上述实施方式中,远程服务器通过直接获取交流对象的当前语音信息以得到交流对象的当前表现信息,在另一实施方式中,语音数据除了包括交流对象的当前语音信息之外,还包括交流对象的历史语音信息。具体地,远程服务器以周期性方式采集电话机或网络电话所接收到的语音信息。在设定周期内,远程服务器在间隔设定时长的至少两个时间点上采集交流现场中交流对象的至少两个语音信息,该设定时长不大于设定周期的时长,且至少两个时间点中至少包括设定周期的时间终点。远程服务器在设定周期的时间终点所采集到的语音信息即为交流对象的当前语音信息,而在设定周期内的其他时间点所采集到的语音信息为交流对象的历史语音信息。远程服务器所采集到的至少两个语音信息中至少有一个为当前语音信息。
举例而言,设定周期的时长为10分钟,假设某一个周期的时间起点为12:00,则该周期的时间终点为12:10。在这10分钟内,远程服务器每间隔1分钟采集一个语音信息,即远程服务器在包括周期的时间起点和时间终点在内的11个时间点分别采集一个语音信息,而在周期的时间终点12:10上所采集到的语音信息即为交流对象的当前语音信息,在12:00、12:01,……,12:09的十个时间点上采集的语音信息均为交流对象的历史语音信息。此时,远程服务器根据当前语音信息获取当前语音信息所对应的当前预设音频类型,以及根据历史语音信息获取历史语音信息所对应的历史预设音频类型,具体的获取过程可根据上述实施方式进行,此处不进行一一赘述。
本实施方式中,参阅图7,在数据库中获取在存储与交流对象的语音信息相匹配的预定音频波形图时对预定音频波形图所定义的预设音频类型的步骤之后,还包括如下步骤:
步骤S701:在数据库中预先存储的预定义音频值表中查询得到与当前预设音频类型相对应的当前音频值,以及与历史预设音频类型相对应的历史音频值。
对每一种预设音频类型定义一个音频值。例如,对于高音频的音频类型,其音频值定义为10,较高音频的音频类型其音频值定义为8,中音频的音频类型其音频值定义为7等。在数据库中预先建立一个预定义音频值表,该音频值表记录了每种预设音频类型所对应的音频值,一种预设音频类型对应一个音频值。远程服务器在设定周期内的每个时间点上,每获得一个语音信息后,对该语音信息进行分析匹配以得到相应的预设音频类型,并根据所获取的预设音频类型在预定义音频值表中查询得到其相应的音频值。
步骤S702:根据当前音频值和历史音频值计算设定周期内的综合音频值。
远程服务器获得设定周期内的所有时间点采集到的每个语音信息所对应的音频值后,计算设定周期内的综合音频值,以通过该综合音频值得到交流对象当前的心理状态数据。具体地,远程服务器根据公式:
计算设定周期内的综合音频值。其中,K表示设定周期内的综合音频值,L表示在设定周期内的所有时间点,Sc表示当前音频值,Shi表示第i个时间点采集到的历史语音信息所对应的第i个历史音频值,b表示当前音频值在当前音频值和历史音频值两种类型音频值中所占的比重。
举例而言,在预定义音频值表中定义的各种音频类型所对应的音频值为:高音频(10)、较高音频(8)、中音频(7)、低音频(4)、无(2),其中,“高音频”表示音频类型,“(10)”表示高音频类型对应的音频值,其他音频值以此类推。请参阅表2,在10分钟的周期内,远程服务器每隔一分钟获取一个语音信息,根据所获取的语音信息在11个时间点所获得的对应的11个音频值分别为:
表1在10分钟周期内的每个时间点上得到的音频值
其中,在10分钟的周期内共有L=11个时间点,在这11个时间点中的设定周期的时间终点12:10对应得到的音频值为当前音频值,在其余时间点上得到的音频值为历史音频值。本实施方式中,当前音频值在当前音频值和历史音频值两种音频值中所占的比重d为60%,而历史音频值在两种音频值中所占的比重则为40%。当然,在其他实施方式中,当前音频值在两种音频值中所占的比重也可以为其他比值,此处不进行限定。从而,本实施方式中,根据公式(2.0)所得到的综合音频值K为:
步骤S703:在预定义音频值表中查询得到与综合音频值相对应的预设音频类型,进而获得交流对象的心理状态类型。
在预定义音频值表中,预设音频类型与音频值一一对应,获取两者中的一种即可通过预定义音频值表查询得到另一种。因此,远程服务器在得到综合音频值后,将该综合音频值与预定义音频值表中的所有音频值进行匹配,匹配的过程为在预定义音频值表中查询与计算得到的综合音频值最相近或相同的预定义音频值,从而从所有预定义音频值中获得与综合音频值对应的预定义音频值,进而根据该匹配得到的预定义音频值获得对应的预设音频类型,即综合音频值对应的预设音频类型。例如,所获得的综合音频值为K=8.2,远程服务器在存储的预定义音频值表中查询到与该8.2最相近的预定义音频值为8,而预定义音频值8对应的预设音频类型为高音频,因此所得到的综合音频值对应的预设音频类型为高音频。本实施方式中,将根据综合音频值匹配得到的预设音频类型作为交流对象的当前预设音频类型,通过获取交流对象的当前预设音频类型以得到交流对象当前的心理状态类型。之后,远程服务器并向用户输出该心理状态类型。通过获取一段时间内的语音信息以得到交流对象的当前心理状态类型,能够更准确体现出交流对象的心理状态。
本实施方式中,远程服务器在获得交流对象的当前音频值和历史音频值之后,根据当前音频值和历史音频值获取交流对象的音频值变化曲线。具体地,远程服务器根据设定周期、采集语音信息的每个时间点以及在每个时间点上所得到的音频值(即当前音频值和历史音频值)获取交流对象的音频值变化曲线。以上述表2所示的实施方式为例,参阅图8,在设定周期10分钟内,远程服务器在间隔1分钟的时间点上采集交流对象的一个语音信息,并根据所采集到的每个语音信息在数据库中查询得到相应的预设音频类型,以得到每个时间点对应的音频值。远程服务器根据时间点和音频值获取交流对象在10分钟内的音频值变化曲线。此时,远程服务器除了向用户输出交流对象的心理状态类型之外,还向用户输出交流对象的音频值变化曲线。通过音频值变化曲线能够使用户更直观看出交流对象在10分钟内的心理状态变化,以采取更好的交流措施与交流对象进行沟通。
本发明数据处理的又一实施方式中,远程服务器获取交流对象的语音信息以得到交流对象的表现信息。本实施方式中,远程服务器仍然以周期性方式采集电话机或网络电话所接收到的语音信息。在设定周期内,远程服务器在间隔设定时长的至少两个时间点上采集交流现场中交流对象的至少两个语音信息,器所获取的至少两个语音信息包括交流对象的当前语音信息和至少一个历史语音信息,具体的获取过程可参考上述实施方式进行,此处不进行赘述。
远程服务器根据所获取的当前语音信息和历史语音信息中获取交流对象语言中的词义,以获得交流对象的心理状态类型。具体地,参阅图9,将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤具体包括:
步骤S901:利用语音识别技术从语音信息中提取交流对象语言中的关键字词。
语音识别技术(Automatic Speech Recognition,ASR)能够识别语音中的词汇内容。远程服务器在设定周期内的每个时间点上采集到一个语音信息后,利用语音识别技术从所采集到的语音信息中提取交流对象语言中的关键字词,所提取的关键字词为与特定情绪相关的关键字词,即所提取的关键字词为反应特定心理状态的关键字词。
步骤S902:将交流对象语言中的关键字词与数据库中预先存储的所有预定关键字词进行对比,以获取与交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,进而获得与交流对象语言中的关键字词相匹配的预定关键字词。
本实施方式中,预先在数据库中存储常用的各种预定关键字词,远程服务器获取交流对象语言中的关键字词后,将所获取的关键字词与数据库中存储的各种预定关键字词进行对比,并根据比较结果从所有预定关键字词中获取与交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,所获取的预定关键字词即为与交流对象语言中的关键字词匹配的预定关键字词。
此时,参阅图10,远程服务器获取与匹配得到的预设表现信息相对应的预设心理状态类型的步骤包括:
步骤S1001:在数据库中获取在存储与交流对象语言中的关键字词相匹配的预定关键字词时对预定关键字词所定义的词义类型,并统计所获取的每种词义类型所对应的匹配得到的预定关键字词的数量。
在数据库中存储各种预定关键字词时,将这些预定关键字词进行分类存储,并根据每种预定关键字词所体现的心理状态而对每种预定关键字词预定义一种词义类型,每种词义类型体现一种心理状态类型。具体地,参阅图11,在数据库中建立各种类型的词义库,每种词义库类型对应一种词义类型,每种类型的词义库用于存储对应同一种词义类型的各种预定关键字词,即存储于该类型词义库下的所有预定关键字词均定义为该词义类型的关键字词。例如,数据库中包括高兴用词词义库、生气用词词义库、礼貌用词词义库等。高兴用词词义库用于存储体现高兴心理状态的各种常用预定关键字词,即存储在高兴用词词义库中的所有预定关键字词均定义为高兴用词词义类型的预定关键字词;生气用词词义库用于存储体现生气心理状态的各种常用预定关键字词,即存储在生气用词词义库中的所有预定关键字词均定义为生气用词词义类型的预定关键字词,其他以此类推。每种预定关键字词对应一种词义类型,而每种词义类型可对应多种预定关键字词。根据对每种预定关键字词所定义的词义类型,远程服务器在获得与交流对象语言中的关键字词匹配的预定关键字词后,在数据库中可获取与所得到的预定关键字词相对应的词义类型。此外,远程服务器对交流对象的语音信息进行提取得到交流对象语言中的关键字词时,所提取到的关键字词可能会有多个,而不同的关键字词可能对应同一种词义类型,因此远程服务器获得每个预定关键字词所对应的词义类型后,还统计所获得的每种词义类型所对应的匹配得到的预定关键字词的数量。
步骤S1002:在数据库中预先存储的预定义用词占分值表中查询与所获取的每种词义类型相对应的用词占分值。
对每种词义类型定义一个用词占分值,例如表示礼貌客气用词的词义类型定义的用词占分值为5,表示生气愤怒用词的词义类型定义的用词占分值为-5。在数据库中预先建立一个预定义用词占分值表,预定义用词占分值表用于记录每种词义类型对应的用词占分值。每种词义类型与一个用词占分值对应,根据其中一种可在预定义用词占分值中查询得到另一种。
步骤S1003:根据查询得到的用词占分值和所获取的每种词义类型所对应的匹配得到的预定关键字词的数量,计算综合用词占分值。
当远程服务器提取到多个交流对象的关键字词时,匹配得到的词义类型可能有多种,而每种词义类型也可能会对应多个关键字词。远程服务器通过计算综合用词占分值以获得交流对象的心理状态类型。具体地,远程服务器根据公式:计算综合用词占分值。其中,Y表示综合用词占分值,X表示词义类型的数量,Qi表示第i种词义类型对应的用词占分值,Pi表示第i种词义类型对应的匹配得到的预定关键字词的数量,ci表示第i种词义类型在所有词义类型中所占的比重。
举例而言,远程服务器提取到交流对象语言中的8个关键字词,通过对比获得与8个关键字词对应的预定关键字词,并在数据库中以获得与所得到的每个预定关键字词所对应的词义类型,所获得的词义类型有表示礼貌用词的词义类型和表示生气愤怒用词词义类型两种。其中,表示礼貌客气用词的词义类型所对应的预定关键字词有7个,表示生气愤怒用词的词义类型所对应的预定关键字词有1。假设每种词义类型所占的比重各为50%,远程服务器在预定义用词占分值表中查询得到表示礼貌客气用词的词义类型对应的用词占分值为5,表示生气愤怒用词的词义类型对应的用词占分值为-5,则远程服务器计算得到的综合用词占分值为:
步骤S1004:在预定义用词占分值表中查询与综合用词占分值相对应的词义类型,进而获得交流对象的心理状态类型。
远程服务器计算得到综合用词占分值后,查询该综合用词占分值对应的词义类型,以得到交流对象的心理状态类型,并对用户输出交流对象的心理状态类型,以使用户能够根据交流对象的心理状态而采取相应的交流措施,提高交流过程中交流对象的满意度。例如,远程服务器在预定义用词占分值中查询与综合用词占分值15所对应的词义类型,查询得到该词义类型为表示高兴用词的词义类型,所获得的心理状态类型即为高兴的心里状态。之后,远程服务器向用户输出表示心理状态类型的形容词:“高兴”,由此用户根据此信息获知交流对象的心理状态类型为“高兴”,进而采取相应的交流措施。
在本发明数据处理的又一实施方式中,当用户与交流对象的交流模式为视频交流模式或面对面交谈模式时,远程服务器也可以同时获取交流对象的图像数据和语音信息,以获得交流对象的表现信息。此时远程服务器将获取图像数据所对应的综合表情值以及语音信息所对应的综合音频值,并将综合表情值和综合音频值按照一定比例进行计算以得到综合情绪值,用于表示交流对象的综合情绪状态。例如综合表情值在综合表情值和综合音频值中所占的比例为60%,综合音频值在综合表情值和综合音频值中所占的比例为40%,由此计算综合情绪值为:综合情绪值=综合表情值*60%+综合音频值*40%。其中,在数据库中预先建立综合情绪值表,该综合情绪值表用于记录综合情绪值与综合情绪类型的对应关系,即预先对每种综合情绪类型定义一个综合情绪值。综合情绪值表中的综合情绪类型例如为高兴情绪、生气情绪等情绪类型,每种综合情绪类型对应交流对象的一种心理状态类型。因此,远程服务器在获得综合情绪值后,在综合情绪值表中查询与该综合情绪值对应的综合情绪类型,进而得到交流对象的心理状态类型,并向用户输出所得到的交流对象的心理状态类型。
当然,远程服务器还可以根据图像数据获取综合表情值,以及根据语音信息获取综合音频值以及综合用词占分值,然后将综合表情值、综合音频值以及综合用词占分值按照一定比例进行计算以得到综合情绪值,并根据综合情绪值匹配得到综合情绪类型,进而得到交流对象的心理状态类型,具体的过程与上述实施方式相类似,可参考上述实施方式进行,此处不进行赘述。
此外,在其他的实施方式中,当用户与交流对象的交流模式远程语音交流模式时,远程服务器无法获取交流对象的图像数据,此时远程服务器可以通过获取交流对象的语音信息,进而根据语音信息同时获取交流对象的综合音频值和综合用词占分值,然后将两者按照一定比例进行计算得到综合情绪值,通过查询获得与综合情绪值匹配的综合情绪类型,进而得到交流对象的心理状态类型。
参阅图12,本发明数据处理装置的一实施方式中,数据处理装置可以为远程服务器,其包括采集模块121、第一获取模块122、第二获取模块123以及输出模块124。其中,采集模块121用于采集交流现场中交流对象的表现信息,该表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息。第一获取模块122用于将采集模块121所采集得到的表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与采集得到的表现信息相匹配的预设表现信息。具体地,第一获取模块122用于将采集得到的表现信息与数据库中所有的预设表现信息进行对比,以获取与采集得到的表现信息的相似度大于设定阈值的预设表现信息,从而得到与采集得到的表现信息相匹配的预设表现信息。其中,数据库还用于存储在存储所有预设表现信息时,对每个预设表现信息定义的预设心理状态类型。第二获取模块123用于获取与匹配得到的预设表信息相对应的预设心理状态类型,以获取交流对象的心理状态类型;输出模块124用于输出第二获取模块123所得到的交流对象的心理状态类型。
交流对象的表现信息为在交流过程中交流对象的情态动作信息和/或语音信息,情态动作信息指人脸上各部位的动作信息,如面部表情动作等,人的心理活动大部分都是通过面部表情显现出来,其次,声音也是体现人内心活动的一种介质,如语调高低、语音内容等都能够直观地表现人的心理状态。用户与交流对象的交流方式多种多样,如远程视频交流模式、远程语音交流模式或者当面会谈交流模式等,不同的交流模式对应不同的交流现场。对于不同交流现场,采集模块121所能采集的表现信息也不完全相同。如对于视频通话模式,采集模块121能够采集到交流对象的表情、语音等表现信息,而对于纯粹的语音通话模式,采集模块121则只能够采集到交流对象的语音信息,根据具体的交流现场设置采集模块121所获取的表现信息。在数据库中预先存储与各种预定表现信息,第一获取模块122根据采集模块121所获得的表现信息,在数据库中获取与该表现数据相匹配的预定表现信息。此外,在数据库中存储各种预定表现信息时,对每种预定表现信息定义一种预设心理状态类型,从而第二获取模块123在数据库中能够获取与第一获取模块122所获取的预定表现信息相对应的预设心理状态类型。输出模块124将第二获取模块123所获取的心理状态类型输出给用户,以使用户获知交流对象的心理状态类型,进而采取相应的交流措施,以提高交流过程中交流对象的满意度。
参阅图13,本发明数据处理装置的另一实施方式中,采集模块131包括图像采集单元1311。图像采集单元1311用于采集交流现场中交流对象的图像数据以获取交流对象在交流过程中的情态动作信息,进而得到交流对象的表现信息。本实施方式中,交流现场可以是远程视频通话模式下的交流现场,用户一方的视频通讯设备接收交流对象的视频数据,而图像采集单元1311对视频通信设备所接收到的视频数据进行采集,以得到交流对象的图像数据。此外,交流现场也可以是面对面交谈模式下的交流现场,此时可通过摄像头设备获取交流对象的图像数据,图像采集单元1311对摄像头设备所获取的图像数据进行采集以得到交流对象的图像数据。其中,图像采集单元1311所采集的图像数据为交流对象的当前图像数据,数据处理装置根据交流对象的当前图像数据获取交流对象的当前心理状态类型。
具体地,第一获取模块132包括第一获取单元1321和第二获取单元1322。其中,第一获取单元1321用于从交流对象的当前图像数据中获取交流对象的当前面部预定点的特征数据;第二获取单元1322用于根据第一获取单元1321所获取的当前面部预定点的特征数据,获得交流对象的当前表情图像,并将所获得的当前表情图像与数据库中预先存储的所有预定表情图像进行对比,以获取与交流对象的当前表情图像的相似度大于设定阈值的预设表情图像,继而得到与交流对象的当前表情图像匹配的当前预定表情图像。第二获取模块133包括第三获取单元1331,第三获取单元1331用于在数据库中获取在存储第二获取单元1322所获取到的当前预设表情图像时,对该当前预设表情图像所定义的当前预设表情类型,进而得到交流对象当前的心理状态类型。在数据库中建立各种表情库,在存储各种预定表情图像时,通过将所有预定表情图像分类存储于各种表情库的形式对每种预定表情图像定义一种预设表情类型,即存储于一种类型的表情库下的所有预定表情图像均定义为该类型的表情图像,每种表情库类型对应一种预设表情类型,而每种预设表情类型与一种心理状态类型对应。第三获取单元1331通过在数据库中查询得到第二获取单元1322所获取到的当前预定表情图像存储于何种类型的表情库中,例如存储与高兴表情库中,说明对该预定表情图像所定义的预设表情类型为高兴表情类型,进而得到交流对象当前的心理状态类型为高兴的心理状态类型,则输出模块134向用户输出的交流对象的心理状态类型为:“高兴”。
本实施方式的数据处理装置,通过获取交流对象的当前图像数据,以根据当前图像数据获取交流对象当前的心理状态类型,并将交流对象的当前心理状态类型输出给用户,以使用户根据交流对象的心理状态及时调整交流措施,以尽可能提高交流对象在交流过程中的满意度。
参阅图14,本发明数据处理装置的又一实施方式中,图像采集单元1411所获取的图像数据包括交流对象的当前图像数据和至少一个历史图像数据。具体地,图像采集单元1411在设定周期内,在间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个图像数据。其中,该设定时长不大于设定周期的时长,该至少两个时间点至少包括设定周期的时间终点。图像采集单元1411在设定周期的时间终点所采集到的交流对象的图像数据即为当前图像数据,而在其余时间点上所采集到的交流对象的图像数据即为历史图像数据。此时,第三获取单元1431所获取的预设表情类型包括当前图像数据所对应的当前预设表情类型和历史图像数据所对应的历史预设表情类型。
参阅图15,本发明数据处理装置的又一实施方式中,采集模块151包括语音采集单元1511。语音采集单元1511用于采集交流现场中交流对象的语音信息,进而得到交流对象的表现信息。本实施方式中,语音采集单元1511所获取的语音信息为交流对象的当前语音信息。
第一获取模块152包括第六获取单元1521和第七获取单元1522。其中,第六获取单元1521用于根据语音采集单元1511所获得的交流对象的当前语音信息获得交流对象的当前音频波形图。第七获取单元1522用于将交流对象的当前音频波形图与数据库中预先存储的所有预定音频波形图进行对比,以获取与交流对象的当前音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与交流对象的当前音频波形图匹配的预定音频波形图。第二获取模块153包括第八获取单元1531,用于在数据库中获取在存储第七获取单元1522所获取的预定音频波形图时,对该预定音频波形图所预定义的预设音频类型,进而获得交流对象的心理状态类型。
参阅图16,本发明数据处理装置的又一实施方式中,采集模块161的语音采集单元1611所获取的语音信息包括交流对象的当前语音信息和至少一个历史语音信息。具体地,语音采集单元1611在设定周期内,在间隔设定时长的至少两个时间点上采集交流现场中交流对象的至少两个语音信息。该设定时长不大于设定周期的时长,至少两个时间点至少包括设定周期的时间终点。语音采集单元1611在设定周期的时间终点所采集到的语音信息为交流对象的当前语音信息,在其他时间点上所采集到的语音信息为交流对象的历史语音信息。此时,第八获取单元1631所获取的预设音频类型包括当前语音信息所对应的当前预设音频类型和历史语音信息所对应的历史预设音频类型。第二获取模块163除了包括第八获取单元1631之外,还包括第九获取单元1632、第二计算单元1633以及第十获取单元1634。其中,第九获取单元1632用于在数据库中预先存储的预定义音频值表中查询得到与当前预设音频类型相对应的当前音频值,以及与历史预设音频类型相对应的历史音频值。第二计算单元1633用于计算在设定周期内的综合音频值,具体为,第二计算单元1633根据公式计算设定周期内的综合音频值。其中,K表示设定周期内的综合音频值,L表示在设定周期内的所有时间点,Sc表示当前音频值,Shi表示第i个时间点采集到的历史语音信息所对应的第i个历史音频值,b表示当前音频值在当前音频值和历史音频值两种类型音频值中所占的比重。第二计算单元1633计算得到综合音频值后,第十获取单元1634用于在预定义音频值表中查询得到与综合音频值相对应的预设音频类型,进而得到交流对象的心理状态类型。输出模块164向用户输出交流对象的心理状态类型。
此外,本实施方式还包括第四获取模块165,用于根据当前音频值和历史音频值获取设定周期内交流对象的音频值变化曲线。此时,输出模块164除了向用户输出交流对象的心理状态类型之外,还输出交流对象的音频值变化曲线,使得用户能够更直观知道交流对象的心理状态变化。
参阅图17,本发明数据处理装置的又一实施方式中,采集模块171的语音采集单元1711所获取的语音信息包括交流对象的当前语音信息和至少一个历史语音信息。第一获取模块172包括第十一获取单元1721、第十二获取单元1722,第二获取模块173包括第十三获取单元1731、第十四获取单元1732、第十五获取单元1733以及第十六获取单元1734。
本实施方式中,通过获取交流对象语言中的关键字词,以获得交流对象的心理状态类型。具体地,第十一获取单元1721用于利用语音识别技术从所有语音信息中提取交流对象语言中的关键字词,这关键字词为表示特定情绪的关键字词。第十二获取模块1722用于将第十一获取单元1721所获取的交流对象语言中的关键字词与数据库中存储的所有预定关键字词进行对比,以获取与交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,进而获得与交流对象语言中的关键字词匹配的预定关键字词。第十三获取单元1731用于在数据库中获取在存储与交流对象语言中的关键字词相匹配的预定关键字词时,对该预定关键字词所定义的词义类型,并统计所获取的每种词义类型所对应的匹配得到的预定关键字词的数量。第十四获取单元1732用于在数据库中预先存储的预定义用词占分值表中查询与所获取的每种词义类型相对应的用词占分值。第十五获取单元1733用于根据查询得到的用词占分值和所获取的每种词义类型所对应的匹配得到的预定关键字词的数量,计算综合用词占分值。第十六获取单元1734用于在预定义用词占分值表中查询与综合用词占分值相对应的词义类型,进而得到交流对象的心理状态类型。输出模块174向用户输出交流对象的心理状态类型。
此外,在本发明数据处理装置的其他实施方式中,采集模块还可以同时包括图像采集单元和语音采集单元,此时采集模块可同时获取交流对象的图像数据和语音信息,数据处理装置通过所获取的图像数据和语音信息进行对比、查询以及计算等过程,获得图像数据所对应的综合表情值和语音信息所对应的综合音频值、综合用词占分值,并将综合表情值、综合音频值以及综合用词占分值按照一定比例进行计算以得到综合情绪值,通过对综合情绪值进行匹配以获得相应的综合情绪类型,进而得到交流对象的心理状态类型。当然,数据处理装置也可以根据综合表情值、综合音频值以及综合用词占分值中的任意两种获得综合情绪值,进而得到交流对象的心理状态类型。
参阅图18,本发明数据处理设备的一实施方式中,数据处理设备包括存储器181、处理器182以及输出装置183。存储器181、输出装置183分别通过总线184与处理器182连接。
其中,存储器用于存储数据处理设备的数据。处理器182采集交流现场中交流对象的表现信息,该表现信息包括交流对象在交流过程中的情态动作信息和/或语音信息,并将采集得到的表现信息与数据库中预先存储的所有预设表现信息进行匹配,以获取与采集得到的表现信息相匹配的预设表现信息。其中,数据库还用于存储在存储所有预设表现信息时,对每个预设表现信息预定义的预设心理状态类型,预设心理状态类型为心理状态的类型。处理器182还用于获取与匹配得到的预设表现信息相对应的预设心理状态类型,以获取交流对象的心理状态类型。输出装置183用于输出处理器182所获取的交流对象的心理状态类型。
通过本实施方式的数据处理设备,能够根据交流对象的表现信息获得交流对象的心理状态类型,并对用户输出交流对象的心理状态类型,以使用户能够根据交流对象的心理状态及时调整交流措施,以尽可能提高交流对象在交流过程中的满意度。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种数据处理方法,其特征在于,包括:
通过远程服务器在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个图像数据,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的图像数据为当前图像数据,在其余所述时间点采集到的交流对象的图像数据为历史图像数据;
从所述交流对象的图像数据中获取交流对象的面部预定点的特征数据;
根据所述面部预定点的特征数据获得交流对象的表情图像,并将所述交流对象的表情图像与数据库中预先存储的所有预定表情图像进行对比,以获取与所述交流对象的表情图像的相似度大于设定阈值的预设表情图像,进而得到与所述交流对象的表情图像相匹配的预定表情图像;
在所述数据库中获取在存储所述与所述交流对象的表情图像相匹配的预定表情图像时对所述预定表情图像所定义的预设表情类型,在所述数据库中预先存储的预定义表情值表中查询得到与当前预设表情类型相对应的当前表情值,以及与历史预设表情类型相对应的历史表情值;
计算在所述设定周期内的综合表情值;
在所述预定义表情值表中查询得到与所述综合表情值相对应的预设表情类型,进而得到所述交流对象的心理状态类型;
和/或,
采集交流现场中交流对象的表现信息,即
在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个语音信息,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的语音信息即为当前语音信息,在其余所述时间点采集到的交流对象的语音信息即为历史语音信息;
将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息,即
根据所述交流对象的语音信息获得交流对象的音频波形图;
将所述交流对象的音频波形图与数据库中预先存储的所有预定音频波形图进行对比,以获取与所述交流对象的音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与所述交流对象的音频波形图相匹配的预定音频波形图;
获取与匹配得到的所述预设表现信息相对应的预设心理状态类型,即
在所述数据库中获取在存储所述与所述交流对象的音频波形图相匹配的预定音频波形图时对所述预定音频波形图所定义的预设音频类型,在所述数据库中预先存储的预定义音频值表中查询得到与当前预设音频类型相对应的当前音频值,以及与历史预设音频类型相对应的历史音频值;
计算在所述设定周期内的综合音频值;
在所述预定义音频值表中查询得到与所述综合音频值相对应的预设音频类型,进而获得所述交流对象的心理状态类型;
输出所述交流对象的心理状态类型。
2.根据权利要求1所述的方法,其特征在于,
所述计算在设定周期内的综合表情值的步骤包括:
根据公式:计算在所述设定周期内的综合表情值,其中,所述M为所述综合表情值,N为在所述设定周期内的所有所述时间点,Vc为所述当前表情值,Vhi为在第i个时间点采集到的所述历史图像数据所对应的第i个历史表情值,d为所述当前表情值在所述当前表情值和历史表情值两种类型表情值中所占的比重。
3.根据权利要求1所述的方法,其特征在于,
所述在所述数据库中预先存储的预定义表情值表中查询得到与所述当前预设表情类型相对应的当前表情值,以及与所述历史预设表情类型相对应的历史表情值的步骤之后,包括:
根据所述当前表情值和历史表情值获取在所述设定周期内交流对象的表情值变化曲线;
所述输出所述交流对象的心理状态类型的步骤包括:
除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的表情值变化曲线。
4.根据权利要求1所述的方法,其特征在于,
所述计算在所述设定周期内的综合音频值的步骤包括:
根据公式:计算在所述设定周期内的综合音频值,其中,所述K为所述综合音频值,L为在所述设定周期内的所有所述时间点,Sc为所述当前音频值,Shi为在第i个时间点采集到的所述历史语音信息所对应的第i个历史音频值,b为所述当前音频值在所述当前音频值和历史音频值两种类型音频值中所占的比重。
5.根据权利要求1所述的方法,其特征在于,
所述在所述数据库中预先存储的预定义音频值表中查询得到与所述当前预设音频类型相对应的当前音频值,以及与所述历史预设音频类型相对应的历史音频值的步骤之后,包括:
根据所述当前音频值和历史音频值获取在所述设定周期内交流对象的音频值变化曲线;
所述输出所述交流对象的心理状态类型的步骤包括:
除了输出所述交流对象的心理状态类型之外,还输出所述交流对象的音频值变化曲线。
6.根据权利要求1所述的方法,其特征在于,
所述将采集得到的所述表现信息与数据库中预先存储的所有预设表现信息进行对比,以获取与所述采集得到的表现信息的相似度大于设定阈值的预设表现信息的步骤包括:
利用语音识别技术从所述语音信息中提取交流对象语言中的关键字词;
将所述交流对象语言中的关键字词与所述数据库中预先存储的所有预定关键字词进行对比,以获取与所述交流对象语言中的关键字词的相似度大于设定阈值的预定关键字词,进而获得与所述交流对象语言中的关键字词相匹配的预定关键字词;
所述获取与匹配得到的所述预设表现信息相对应的预设心理状态类型的步骤包括:
在所述数据库中获取在存储所述与所述交流对象语言中的关键字词相匹配的预定关键字词时对所述预定关键字词所定义的词义类型,并统计所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量;
在所述数据库中预先存储的预定义用词占分值表中查询与所获取的每种所述词义类型相对应的用词占分值;
根据查询得到的所述用词占分值和所获取的每种所述词义类型所对应的匹配得到的所述预定关键字词的数量,计算综合用词占分值;
在所述预定义用词占分值表中查询与所述综合用词占分值相对应的词义类型,进而获得所述交流对象的心理状态类型。
7.一种数据处理设备,其特征在于,包括存储器、处理器以及输出装置,所述存储器、输出装置分别通过总线与所述处理器连接;
所述存储器用于存储所述数据处理设备的数据;
所述处理器用于:通过远程服务器在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个图像数据,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的图像数据为当前图像数据,在其余所述时间点采集到的交流对象的图像数据为历史图像数据;
从所述交流对象的图像数据中获取交流对象的面部预定点的特征数据;
根据所述面部预定点的特征数据获得交流对象的表情图像,并将所述交流对象的表情图像与数据库中预先存储的所有预定表情图像进行对比,以获取与所述交流对象的表情图像的相似度大于设定阈值的预设表情图像,进而得到与所述交流对象的表情图像相匹配的预定表情图像;
在所述数据库中获取在存储所述与所述交流对象的表情图像相匹配的预定表情图像时对所述预定表情图像所定义的预设表情类型,在所述数据库中预先存储的预定义表情值表中查询得到与当前预设表情类型相对应的当前表情值,以及与历史预设表情类型相对应的历史表情值;
计算在所述设定周期内的综合表情值;
在所述预定义表情值表中查询得到与所述综合表情值相对应的预设表情类型,进而得到所述交流对象的心理状态类型;
和/或,
在设定周期内的间隔设定时长的至少两个时间点采集交流现场中交流对象的至少两个语音信息,所述设定时长不大于所述设定周期的时长,所述至少两个时间点至少包括所述设定周期的时间终点,在所述设定周期的时间终点采集到的交流对象的语音信息即为当前语音信息,在其余所述时间点采集到的交流对象的语音信息即为历史语音信息;
根据所述交流对象的语音信息获得交流对象的音频波形图;
将所述交流对象的音频波形图与数据库中预先存储的所有预定音频波形图进行对比,以获取与所述交流对象的音频波形图的相似度大于设定阈值的预定音频波形图,进而获得与所述交流对象的音频波形图相匹配的预定音频波形图;
在所述数据库中获取在存储所述与所述交流对象的音频波形图相匹配的预定音频波形图时对所述预定音频波形图所定义的预设音频类型,在所述数据库中预先存储的预定义音频值表中查询得到与当前预设音频类型相对应的当前音频值,以及与历史预设音频类型相对应的历史音频值;
计算在所述设定周期内的综合音频值;
在所述预定义音频值表中查询得到与所述综合音频值相对应的预设音频类型,进而获得所述交流对象的心理状态类型;
所述输出装置用于所述交流对象的心理状态类型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310226296.4A CN104239304B (zh) | 2013-06-07 | 2013-06-07 | 一种数据处理的方法、装置以及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310226296.4A CN104239304B (zh) | 2013-06-07 | 2013-06-07 | 一种数据处理的方法、装置以及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104239304A CN104239304A (zh) | 2014-12-24 |
CN104239304B true CN104239304B (zh) | 2018-08-21 |
Family
ID=52227397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310226296.4A Active CN104239304B (zh) | 2013-06-07 | 2013-06-07 | 一种数据处理的方法、装置以及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104239304B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850335B (zh) * | 2015-05-28 | 2018-01-23 | 瞬联软件科技(北京)有限公司 | 基于语音输入的表情曲线生成方法 |
CN105205756A (zh) * | 2015-09-15 | 2015-12-30 | 广东小天才科技有限公司 | 一种行为监控的方法和*** |
CN106933863B (zh) * | 2015-12-30 | 2019-04-19 | 华为技术有限公司 | 数据清理方法及装置 |
CN106926258B (zh) * | 2015-12-31 | 2022-06-03 | 深圳光启合众科技有限公司 | 机器人情绪的控制方法和装置 |
CN105979140A (zh) * | 2016-06-03 | 2016-09-28 | 北京奇虎科技有限公司 | 图像生成设备及图像生成方法 |
CN107590147A (zh) * | 2016-07-07 | 2018-01-16 | 深圳市珍爱网信息技术有限公司 | 一种根据交流气氛匹配背景音乐的方法及装置 |
CN107609567A (zh) * | 2016-07-12 | 2018-01-19 | 李晨翱 | 导购员行为信息处理方法、装置及*** |
CN108573697B (zh) * | 2017-03-10 | 2021-06-01 | 北京搜狗科技发展有限公司 | 一种语言模型更新方法、装置及设备 |
CN107092664B (zh) | 2017-03-30 | 2020-04-28 | 华为技术有限公司 | 一种内容解释方法及装置 |
CN108595406B (zh) * | 2018-01-04 | 2022-05-17 | 广东小天才科技有限公司 | 一种用户状态的提醒方法、装置、电子设备及存储介质 |
CN108491074B (zh) * | 2018-03-09 | 2021-07-09 | Oppo广东移动通信有限公司 | 电子装置、运动辅助方法及相关产品 |
CN109215762A (zh) * | 2018-08-09 | 2019-01-15 | 上海常仁信息科技有限公司 | 一种用户心理状态推断***和方法 |
CN109346108B (zh) * | 2018-11-28 | 2022-07-12 | 广东小天才科技有限公司 | 一种作业检查方法及*** |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102216876A (zh) * | 2008-11-19 | 2011-10-12 | 英默森公司 | 用于生成基于心情的触觉反馈的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007207153A (ja) * | 2006-02-06 | 2007-08-16 | Sony Corp | 通信端末装置、情報提供システム、サーバ装置、情報提供方法および情報提供プログラム |
-
2013
- 2013-06-07 CN CN201310226296.4A patent/CN104239304B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102216876A (zh) * | 2008-11-19 | 2011-10-12 | 英默森公司 | 用于生成基于心情的触觉反馈的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104239304A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104239304B (zh) | 一种数据处理的方法、装置以及设备 | |
CN103024521A (zh) | 节目筛选方法、***及具有该***的电视 | |
EP1895745B1 (de) | Verfahren und Kommunikationssystem zum kontinuierlichen Aufnehmen von Umgebungsdaten | |
KR101528086B1 (ko) | 회의 정보를 제공하는 시스템 및 방법 | |
CN110505491A (zh) | 一种直播的处理方法、装置、电子设备及存储介质 | |
CN110232925A (zh) | 生成会议记录的方法、装置和会议终端 | |
CN109243444A (zh) | 语音交互方法、设备及计算机可读存储介质 | |
CN105244042B (zh) | 一种基于有限状态自动机的语音情感交互装置与方法 | |
CN105704425A (zh) | 会议***和用于控制会议***的方法 | |
CN110475155A (zh) | 直播视频热度状态识别方法、装置、设备及可读介质 | |
CN110377761A (zh) | 一种增强视频体验的方法及装置 | |
CN106024015A (zh) | 一种呼叫中心坐席人员监控方法及*** | |
CN110139062A (zh) | 一种视频会议记录的创建方法、装置及终端设备 | |
CN104410973B (zh) | 一种播放录音的诈骗电话识别方法和*** | |
CN107105322A (zh) | 一种多媒体智能推送机器人及推送方法 | |
CN111970471B (zh) | 基于视频会议的参会人员评分方法、装置、设备及介质 | |
CN110522462A (zh) | 一种多模态智能审讯***和方法 | |
CN110290280A (zh) | 一种终端状态的识别方法、装置及存储介质 | |
CN101867742A (zh) | 一种基于声控控制下的电视*** | |
CN109697556A (zh) | 评价会议效果的方法、***及智能终端 | |
CN115460031A (zh) | 一种基于物联网的智能音响控制监管***及方法 | |
CN105701686A (zh) | 一种声纹广告实现方法和装置 | |
CN107622300A (zh) | 多模态虚拟机器人的认知决策方法和*** | |
CN113783709A (zh) | 基于会议***的参会人员监测处理方法、装置、智能终端 | |
KR101119867B1 (ko) | 다중 감정 센싱 기반으로 사용자의 감정정보를 제공하는 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |