CN108735233A - 一种性格识别方法和装置 - Google Patents

一种性格识别方法和装置 Download PDF

Info

Publication number
CN108735233A
CN108735233A CN201710272170.9A CN201710272170A CN108735233A CN 108735233 A CN108735233 A CN 108735233A CN 201710272170 A CN201710272170 A CN 201710272170A CN 108735233 A CN108735233 A CN 108735233A
Authority
CN
China
Prior art keywords
acoustic feature
feature information
personality
measurand
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710272170.9A
Other languages
English (en)
Inventor
谢湘
刘静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201710272170.9A priority Critical patent/CN108735233A/zh
Publication of CN108735233A publication Critical patent/CN108735233A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种性格识别方法和装置,所述方法,包括:获取被测对象的语音片段;根据所述语音片段,提取所述语音片段中的声学特征信息;利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。采用本发明提供的方法,通过对提取的声音特征信息进行处理,从而较准确地分析被测对象的性格,并及时获得被测对象的性格识别结果。

Description

一种性格识别方法和装置
技术领域
本发明涉及人格分析技术领域,尤其涉及一种性格识别方法和装置。
背景技术
近年来,心理学界在人格描述模型上形成了比较一致的共识,提出了人格的大五模型。大五模型的五个特质分别是:神经质、外向性、开放性、亲和性和尽责性,其中,每个特质含有六个子维度。愤怒和敌意分别是衡量神经质的子维度,反应的是一个人体验愤怒和相关状态的倾向,例如挫折和痛苦,测量的是一个人产生愤怒的容易程度。愤怒和敌意有高分特性和低分特性。得分比较高的人表现为很容易发火,尤其当感受到自己受到的待遇不公正后会充满怨恨,得分比较高的人会变得暴躁、愤怒并感到受挫等。得分比较低的人群,则能很容易的控制好自己的感情,不容易发火和生气,在日常生活中,得分比较低的人群会呈现出友好、脾气随和、不易动怒的形象。总的来说,神经质的子维度能够反映人的易怒性,愤怒和敌意得分高的人表现为易怒,愤怒和敌意得分比较低的人表现为不易怒。
现有技术中测量大五模型五个特质的方法是量表法,以愤怒和敌意这个子维度为例进行说明,即针对这个子维度,被测对象需要完成这个子维度对应的问题,然后由测量人员统计这个子维度的得分,得到这个子维度的特性,从而可以得出被测对象是否为具有易怒性人格。此外,为了较准确的评定出被测对象表现出的性格倾向,在对每个问题的回答时采用等级评定方式,且评定的范围一般分为五个等级,即从非常不同意到非常同意。现有技术中采用的量表法中常用的量表有NEO-PI-R(the Revised NEO Personality Inventory)等。
然而现有技术中采用量表法对被测对象的五个特征进行测量时,一般会存在以下问题:(1)在人与人交互过程中,通过填写量表的方式获得被测对象的易怒性时效性较低,不能够及时反馈被测对象是否具有易怒性人格;(2)只有与被测对象长期接触的人填写的量表中的问题的答案才能较准确的反应被测对象是否具有易怒性人格。
综上所述,如何准确并及时反映被测对象是否具有易怒性人格是亟待解决的技术问题之一。
发明内容
本发明实施例提供一种性格识别方法和装置,用以准确分析被测对象的性格,同时提高对被测对象性格进行分析的时效性。
本发明实施例提供一种性格识别方法,包括:
获取被测对象的语音片段;
根据所述语音片段,提取所述语音片段中的声学特征信息;
利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
较佳地,利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果,具体包括:
利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值;
比较所述情绪测量值与预设情绪阈值得到比较结果;
根据比较结果,确定被测对象的性格识别结果。
进一步地,根据比较结果,确定被测对象的性格识别结果,具体包括:
如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者
如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值,具体包括:
按照以下公式对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值:
其中,x表示所述声学特征信息;
f(x)表示所述声学特征信息对应的情绪测量值;
ai *表示最优拉格朗日乘子向量;
b*表示最优超平面截距;
yi为预定值,取值为{-1,+1};
N表示训练集中样本的数量;
K(x,z)为高斯核函数,且其中z表示所述声学特征信息的均值;σ表示所述声学特征的标准差。
较佳地,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
本发明实施例提供一种性格识别装置,包括:
获取单元,用于获取被测对象的语音片段;
提取单元,用于根据所述语音片段,提取所述语音片段中的声学特征信息;
确定单元,用于利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
较佳地,所述确定单元,具体包括:第一确定子单元、比较子单元和第二确定子单元,其中:
所述第一确定子单元,用于利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值;
所述比较子单元,用于比较所述情绪测量值与预设情绪阈值得到比较结果;
所述第二确定子单元,用于根据所述比较子单元得到的比较结果,确定被测对象的性格识别结果。
进一步地,所述第二确定子单元,具体用于如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
所述第一确定子单元,具体用于按照以下公式对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值:
其中,x表示所述声学特征信息;
f(x)表示所述声学特征信息对应的情绪测量值;
ai *表示最优拉格朗日乘子向量;
b*表示最优超平面截距;
yi为预定值,取值为{-1,+1};
N表示训练集中样本的数量;
K(x,z)为高斯核函数,且其中z表示所述声学特征信息的均值;σ表示所述声学特征的标准差。
较佳地,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
本发明实施例提供的性格识别方法和装置,根据获取的被测对象的语音片段,提取所述语音片段中的声学特征信息;并利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。不仅能够较准确地分析被测对象的性格,还能及时获得被测对象的性格识别结果,更提高了用户体验。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1a为本发明实施例一提供的性格识别方法的流程示意图;
图1b为本发明实施例一提供的性格识别方法中确定被测对象的性格识别结果的流程示意图;
图2为本发明实施例二提供的性格识别装置的结构示意图。
具体实施方式
本发明实施例提供一种性格识别方法和装置,用以准确分析被测对象的性格,同时提高被测对象性格分析的时效性。
以下结合说明书附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明,并且在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
如图1a所示,为本发明实施例一提供的性格识别方法的流程示意图,可以包括以下步骤:
S11、获取被测对象的语音片段。
S12、根据所述语音片段,提取所述语音片段中的声学特征信息。
具体实施时,在提取被测对象语音片段的声学特征信息时,可以采用openSMILE开源工具提取声学特征信息。具体地,所述声学特征信息可以为基于384维的声学特征信息。首先利用openSMILE提取16维基本特征,具体包括过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数及其一阶差分和统计特性,具体内容参考表1所示,在提取基本特征时,可以基于帧水平进行提取,所述基本特征及其一阶差分通过12个统计函数,最终得到16*2*12=384维特征。
表1
较佳地,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
具体地,表1中中英文对照关系为:LLD(low-level descriptors):底层描述因子,Functional:函数,Mean:均值,Standard devision:标准差,Kurtosis:峰度,Skewness:偏斜度,Extremes:value,rel.position,range:极大值、极小值、极大值帧的位置、极小值帧的位置、最大值与最小值范围,Linear regression:offset,slope,MSE:偏置的线性回归、斜率的线性回归、均方误差线性回归。
S13、利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
具体实施时,可以按照图1b所示的方法利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果,可以包括包括以下步骤:
S131、利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值。
本发明涉及的情绪测量值是用于反映被测对象是否具有易怒性格的评价参数。
具体实施时,本发明实施例采用带有高斯核函数的SVM(Support VectorMachine,支持向量机)算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值。
需要说明的是,SVM算法的基本原理是:基于统计学***面。
具体地,本发明实施例提供的高斯核函数即为核函数中的一种。当然还可以采用多项式核函数,将其应用到SVM算法中执行本发明提供的性格识别方法。
S132、比较所述情绪测量值与预设情绪阈值得到比较结果。
S133、根据比较结果,确定被测对象的性格识别结果。
较佳地,如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者
如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
具体实施时,当确定出所述情绪测量值大于等于所述预设情绪阈值时,则认定被测对象具有易怒特点,情绪激动型性格,极易表现出生气和愤怒,脾气比较暴躁;当确定出所述情绪测量值小于所述预设情绪阈值时,则认定被测对象具有不易怒特点,情绪平缓型性格,表现为不容易发火和生气,脾气比较随和。
优选地,在执行步骤S133时,还可以采用下述方法:如果所述比较结果为所述情绪测量值等于所述预测情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者如果所述比较结果为所述情绪测量值不等于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。具体地,所述预设情绪阈值可以为-1。
为了更好地理解本发明,本发明实施例一以预设算法为带有高斯核函数的支持向量机SVM算法为例进行说明,在执行步骤S131时,可以按照公式(1)确定所述声学特征信息对应的情绪测量值:
其中,其中,N表示训练集中样本的数量;ai *表示最优拉格朗日乘子向量,b*表示最优超平面截距,yi为设置,取值为{-1,+1}。
具体实施时,yi的取值可以根据经验确定。
K(x,z)为高斯核函数,表达式参考公式(2)所示:
公式(1)中x表示所述声学特征信息;f(x)表示所述声学特征信息对应的情绪测量值;z表示所述声学特征信息的均值;σ表示所述声学特征信息的标准差。
基于上述公式(1),将所述声学特征信息输入到所述公式(1)中,即可确定出所述声学特征信息对应的情绪测量值。
具体实施时,在执行本发明提供的性格识别方法之前,还需要对本发明中预设算法涉及的相关参数进行确定,大致过程为:首先从语料库中获取语音片段(训练集数据),在获取语音片段后,根据语音片段确定该语音片段对应的性格识别结果,即:预先用已知性格识别结果的语音片段输入到预设算法中,基于此确定预设算法中相关参数。
为了更好地理解本发明,以带有高斯核函数的SVM算法为例进行说明,在执行本发明之前,需要确定上述公式(1)中的ai *、z、σ和b*的具体值。基于语料库中语音片段,预先可以确定该语音片段对应的性格识别结果。然后提取语音片段中的声学特征信息,即可以得到公式(1)中的x。由于公式(1)中有4个参数是未知的,因此需要利用至少4个语音片段及其对应的性格识别结果来确定公式(1)中的参数,例如,如果性格识别结果为易怒性格,则公式(1)中的f(x)为+1,如果性格识别结果为不易怒性格,则公式(1)中的f(x)为-1。至此,可以确定出带有高斯核函数的SVM算法中的相关参数。
进一步地,在根据已知性格识别结果的语音片段确定SVM算法的相关参数时,预先将输入的语音片段进行标注,具体可以采用NEO-PI-R方法标注语音片段,为了保证性格识别结果的准确性,选取的语音片段对应的性格识别结果不应该单一。
较佳地,在确定公式(1)中的相关参数时,还可以采用多次交叉验证的方法来确定,例如,交叉验证的次数可以但不限于为5次。由此可以避免确定出的参数的随机性。
具体实施时,以5次交叉验证为例进行说明,首先从语料库中获取5个语音片段,分别确定语音片段对应的性格识别结果,然后针对每一语音片段提取该语音片段的声学特征信息,构成训练集,所述训练集中包括训练样本,且所包含的样本的数量为N。所述训练样本为语音片段对应的声学特征信息和性格识别结果。基于5次交叉验证的基本原理,从训练集中任一选取4组训练样本作为训练数据,另一组作为测试数据,进行一次交叉验证得到一组SVM算法的参数值,然后重复执行4次,分别得到4组SVM算法的参数值,根据据得到的5组SVM算法的参数值再确定出最优的一组值作为最终SVM算法的参数值。
较佳地,为了提高性格识别结果的准确性,本发明实施例提供的SVM算法中,还可以引入惩罚系数C,然后按照公式(3)确定SVM算法中的参数值:
其中,其中ai表示拉格朗日乘子向量,hi,hj为训练集中样本对应的性格识别结果对应的值,取值为{-1,+1},公式(3)的约束条件参考公式(4)所示:
具体实施时,如果训练集中样本对应的性格识别结果为易怒性格,则其对应的值为-1;否则其对应的值为+1。在确定惩罚系数C时,可以采用网格搜索法选择最佳的惩罚系数,然后再根据公式(3)和(4)确定出SVM算法中最
优拉格朗日乘子向量ai *。然后选取位于开区间(0,C)的ai *计算最优超平面截距基于此,在通过引入惩罚系数,使得在执行本发明实施例提供的性格识别方法时,能够根据惩罚系数确定出的SVM算法,获得更加准确的性格识别结果,提高用户体验。
较佳地,为了提高性格识别结果的准确性,本发明实施例提供的SVM算法中,还可以引入核函数gamma参数γ,即本发明实施例采用的带有高斯核函数的SVM算法中的高斯核函数可以引入gamma参数γ,即引入gamma参数的高斯核函数表达式为:
具体实施时,可以利用网格搜索法确定gamma参数γ,基于此利用公式(5)作为新的高斯核函数代入公式(1)中,再确定被测对象的性格识别结果,使得根据带有gamma参数的高斯核函数的SVM算法确定出更加准确的性格识别结果,提高用户体验。
优选地,还可以采用以下预设算法确定所述声学特征信息对应的情绪测量值:ELM(Extreme Learning Machine,极限学习机)算法、GMM(Gaussian Mixture Model,高斯混合模型)、ANN(Artificial Neural Machine,人工神经网络)算法和LR(LogisticRegression,逻辑回归)算法。
本发明实施例提供的性格识别方法,通过获取被测对象的语音片段,从获取的语音片段中提取声学特征信息,然后利用预设算法对所述声学特征进行处理,首先确定出所述声学特征信息对应的情绪测量值,然后将所述情绪测量值与预设情绪阈值进行比较,由此获得被测对象的性格识别结果。采用本发明提供的方法,不仅能够较准确地分析被测对象的性格,还能及时获得被测对象的性格识别结果,更提高了用户体验。
实施例二
基于同一发明构思,本发明实施例中还提供了一种性格识别装置,由于上述装置解决问题的原理与性格识别方法相似,因此上述装置的实施可以参见方法的实施,重复之处不再赘述。
如图2所示,为本发明实施例二提供的性格识别装置的结构示意图,包括获取单元21、提取单元22和确定单元23,其中:
获取单元21,用于获取被测对象的语音片段;
提取单元22,用于根据所述语音片段,提取所述语音片段中的声学特征信息;
确定单元23,用于利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
具体实施时,所述确定单元23,具体包括:第一确定子单元、比较子单元和第二确定子单元,其中:
所述第一确定子单元,用于利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值;
所述比较子单元,用于比较所述情绪测量值与预设情绪阈值得到比较结果;
所述第二确定子单元,用于根据所述比较子单元得到的比较结果,确定被测对象的性格识别结果。
进一步地,所述第二确定子单元,具体用于如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
较佳地,所述第一确定子单元,具体用于按照以下公式对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值:
其中,x表示所述声学特征信息;
f(x)表示所述声学特征信息对应的情绪测量值;
ai *表示最优拉格朗日乘子向量;
b*表示最优超平面截距;
yi为预定值,取值为{-1,+1};
N表示训练集中样本的数量;
K(x,z)为高斯核函数,且其中z表示所述声学特征信息的均值;σ表示所述声学特征的标准差。
优选地,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
为了描述的方便,以上各部分按照功能划分为各模块(或单元)分别描述。当然,在实施本发明时可以把各模块(或单元)的功能在同一个或多个软件或硬件中实现。
本申请的实施例所提供的性格识别装置可通过计算机程序实现。本领域技术人员应该能够理解,上述的模块划分方式仅是众多模块划分方式中的一种,如果划分为其他模块或不划分模块,只要性格识别装置具有上述功能,都应该在本申请的保护范围之内。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种性格识别方法,其特征在于,包括:
获取被测对象的语音片段;
根据所述语音片段,提取所述语音片段中的声学特征信息;
利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
2.如权利要求1所述的方法,其特征在于,利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果,具体包括:
利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值;
比较所述情绪测量值与预设情绪阈值得到比较结果;
根据比较结果,确定被测对象的性格识别结果。
3.如权利要求2所述的方法,其特征在于,根据比较结果,确定被测对象的性格识别结果,具体包括:
如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者
如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
4.如权利要求2所述的方法,其特征在于,利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值,具体包括:
按照以下公式对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值:
其中,x表示所述声学特征信息;
f(x)表示所述声学特征信息对应的情绪测量值;
ai *表示最优拉格朗日乘子向量;
b*表示最优超平面截距;
yi为预定值,取值为{-1,+1};
N表示训练集中样本的数量;
K(x,z)为高斯核函数,且其中z表示所述声学特征信息的均值;σ表示所述声学特征的标准差。
5.如权利要求1~4任一权利要求所述的方法,其特征在于,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
6.一种性格识别装置,其特征在于,包括:
获取单元,用于获取被测对象的语音片段;
提取单元,用于根据所述语音片段,提取所述语音片段中的声学特征信息;
确定单元,用于利用预设算法对所述声学特征信息进行处理,确定被测对象的性格识别结果。
7.如权利要求6所述的装置,其特征在于,所述确定单元,具体包括:第一确定子单元、比较子单元和第二确定子单元,其中:
所述第一确定子单元,用于利用预设算法对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值;
所述比较子单元,用于比较所述情绪测量值与预设情绪阈值得到比较结果;
所述第二确定子单元,用于根据所述比较子单元得到的比较结果,确定被测对象的性格识别结果。
8.如权利要求7所述的装置,其特征在于,所述第二确定子单元,具体用于如果所述比较结果为所述情绪测量值大于等于所述预设情绪阈值,则确定被测对象的性格识别结果为易怒性格;或者如果所述比较结果为所述情绪测量值小于所述预设情绪阈值,则确定被测对象的性格识别结果为不易怒性格。
9.如权利要求7所述的装置,其特征在于,所述第一确定子单元,具体用于按照以下公式对所述声学特征信息进行处理,确定所述声学特征信息对应的情绪测量值:
其中,x表示所述声学特征信息;
f(x)表示所述声学特征信息对应的情绪测量值;
ai *表示最优拉格朗日乘子向量;
b*表示最优超平面截距;
yi为预定值,取值为{-1,+1};
N表示训练集中样本的数量;
K(x,z)为高斯核函数,且其中z表示所述声学特征信息的均值;σ表示所述声学特征的标准差。
10.如权利要求6~9任一权利要求所述的装置,其特征在于,所述声学特征信息至少包括以下一项:过零率、能量均方根、基频、谐波噪声比和12维梅尔频率倒谱系数。
CN201710272170.9A 2017-04-24 2017-04-24 一种性格识别方法和装置 Pending CN108735233A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710272170.9A CN108735233A (zh) 2017-04-24 2017-04-24 一种性格识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710272170.9A CN108735233A (zh) 2017-04-24 2017-04-24 一种性格识别方法和装置

Publications (1)

Publication Number Publication Date
CN108735233A true CN108735233A (zh) 2018-11-02

Family

ID=63934381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710272170.9A Pending CN108735233A (zh) 2017-04-24 2017-04-24 一种性格识别方法和装置

Country Status (1)

Country Link
CN (1) CN108735233A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975856A (zh) * 2006-10-30 2007-06-06 邹采荣 一种基于支持向量机的语音情感识别方法
CN102663432A (zh) * 2012-04-18 2012-09-12 电子科技大学 结合支持向量机二次识别的模糊核聚类语音情感识别方法
CN103544963A (zh) * 2013-11-07 2014-01-29 东南大学 一种基于核半监督判别分析的语音情感识别方法
CN104200814A (zh) * 2014-08-15 2014-12-10 浙江大学 基于语义细胞的语音情感识别方法
US20160019915A1 (en) * 2014-07-21 2016-01-21 Microsoft Corporation Real-time emotion recognition from audio signals
CN106250855A (zh) * 2016-08-02 2016-12-21 南京邮电大学 一种基于多核学习的多模态情感识别方法
CN106504772A (zh) * 2016-11-04 2017-03-15 东南大学 基于重要性权重支持向量机分类器的语音情感识别方法
CN106548788A (zh) * 2015-09-23 2017-03-29 ***通信集团山东有限公司 一种智能情绪确定方法及***
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975856A (zh) * 2006-10-30 2007-06-06 邹采荣 一种基于支持向量机的语音情感识别方法
CN102663432A (zh) * 2012-04-18 2012-09-12 电子科技大学 结合支持向量机二次识别的模糊核聚类语音情感识别方法
CN103544963A (zh) * 2013-11-07 2014-01-29 东南大学 一种基于核半监督判别分析的语音情感识别方法
US20160019915A1 (en) * 2014-07-21 2016-01-21 Microsoft Corporation Real-time emotion recognition from audio signals
CN104200814A (zh) * 2014-08-15 2014-12-10 浙江大学 基于语义细胞的语音情感识别方法
CN106548788A (zh) * 2015-09-23 2017-03-29 ***通信集团山东有限公司 一种智能情绪确定方法及***
CN106250855A (zh) * 2016-08-02 2016-12-21 南京邮电大学 一种基于多核学习的多模态情感识别方法
CN106504772A (zh) * 2016-11-04 2017-03-15 东南大学 基于重要性权重支持向量机分类器的语音情感识别方法
CN106570496A (zh) * 2016-11-22 2017-04-19 上海智臻智能网络科技股份有限公司 情绪识别方法和装置以及智能交互方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
奚吉 等: "基于改进多核学习的语音情感识别算法", 《数据采集与处理》 *
赵力: "《语音信号处理》", 30 June 2009, 机械工业出版社 *

Similar Documents

Publication Publication Date Title
CN108597492B (zh) 语音合成方法和装置
US20200300829A1 (en) Utilization of electronic nose-based analysis of odorants
Khan et al. Beyond activity recognition: skill assessment from accelerometer data
CN109783704B (zh) 人机混合的应答方法、***、装置
US9443193B2 (en) Systems and methods for generating automated evaluation models
CN111382573A (zh) 用于答案质量评估的方法、装置、设备和存储介质
US20090077068A1 (en) Content and quality assessment method and apparatus for quality searching
CN110085211A (zh) 语音识别交互方法、装置、计算机设备和存储介质
KR102500782B1 (ko) 학생의 학습 수준에 기반한 난이도 별 맞춤형 문항을 추출하는 방법, 장치 및 컴퓨터-판독 가능 기록 매체
CN113243918B (zh) 基于多模态隐匿信息测试的风险检测方法及装置
CN110298597A (zh) 一种测评方法、装置及存储介质
CN111126552A (zh) 一种智能学习内容推送方法及***
CN112348417A (zh) 一种基于主成分分析算法的营销价值评估方法及装置
CN108735232A (zh) 一种性格识别方法和装置
KR101745874B1 (ko) 학습코스 자동 생성 방법 및 시스템
CN113705792A (zh) 基于深度学习模型的个性化推荐方法、装置、设备及介质
Banerjee et al. Relation extraction using multi-encoder lstm network on a distant supervised dataset
Fradkin et al. Accumulating evidence for myriad alternatives: Modeling the generation of free association.
Tsandilas et al. Gesture elicitation as a computational optimization problem
CN117235633A (zh) 机构分类方法、装置、计算机设备及存储介质
CN107274043A (zh) 预测模型的质量评价方法、装置及电子设备
CN108735233A (zh) 一种性格识别方法和装置
Alden et al. Applying spartan to Understand Parameter Uncertainty in Simulations.
CN109119157A (zh) 一种婴幼儿发育的预测方法和***
CN110399279A (zh) 一种用于非人智能体的智能度量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181102

RJ01 Rejection of invention patent application after publication