CN108776795A - 用户身份识别方法、装置及终端设备 - Google Patents
用户身份识别方法、装置及终端设备 Download PDFInfo
- Publication number
- CN108776795A CN108776795A CN201810639690.3A CN201810639690A CN108776795A CN 108776795 A CN108776795 A CN 108776795A CN 201810639690 A CN201810639690 A CN 201810639690A CN 108776795 A CN108776795 A CN 108776795A
- Authority
- CN
- China
- Prior art keywords
- feature
- coefficient
- matching degree
- user
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000001815 facial effect Effects 0.000 claims abstract description 53
- 230000001755 vocal effect Effects 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000012512 characterization method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 14
- 238000009432 framing Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000005713 exacerbation Effects 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明涉及信息处理技术领域,提供了用户身份识别方法及终端设备。该方法包括:采集用户的面部图片、虹膜图片、指纹图片和语音;提取用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分别对应第一系数、第二系数、第三系数和第四系数;将用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征与预设特征分别进行匹配得到第一匹配度、第二匹配度、第三匹配度和第四匹配度;根据各个匹配度和各个系数确定该用户的最终匹配度,并根据最终匹配度与预设匹配度的关系对用户身份进行识别。上述方法能够提高识别的精确度。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种用户身份识别方法、装置及 终端设备。
背景技术
随着生物特征识别技术的广泛应用,在某些对身份认证要求较高的应用领 域,如安防、金融机构等,提出了多生物特征身份认证的需求。
现有多身份认证识别技术常用的有人脸特征与指纹相结合、虹膜与人脸特 征相结合、指纹与签名相结合等方法实现对用户的身份认证识别。而传统的身 份认证识别方法虽然将多种生物特征结合在一起对用户身份进行认证识别,但 普遍存在错误率较高、识别精度较低的问题。
发明内容
有鉴于此,本发明实施例提供了用户身份识别方法、装置及终端设备,以 解决目前身份认证识别方法普遍存在错误率较高、识别精度较低的问题。
本发明实施例的第一方面提供了用户身份识别方法,包括:
获取用户输入的用户名和密码并进行验证,在对用户输入的用户名和密码 验证通过后,采集用户的面部图片、虹膜图片、指纹图片和语音;
分别从所述面部图片、虹膜图片、指纹图片和语音中提取表征用户身份标 识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征;其中,用 户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分别对应第一系数、 第二系数、第三系数和第四系数;
将用户面部特征与预设面部特征进行匹配得到第一匹配度,将用户虹膜特 征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与预设指纹特征 进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行匹配得到第四 匹配度,
根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、 第二系数、第三系数和第四系数确定该用户的最终匹配度,并根据所述最终匹 配度与预设匹配度的关系对用户身份进行识别。
本发明实施例的第二方面提供了用户身份识别装置,包括:
获取验证模块,用于获取用户输入的用户名和密码并进行验证,在对用户 输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图片 和语音;
提取模块,用于分别从所述面部图片、虹膜图片、指纹图片和语音中提取 表征用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音 特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分 别对应第一系数、第二系数、第三系数和第四系数;
匹配模块,用于将用户面部特征与预设面部特征进行匹配得到第一匹配度, 将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与 预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行 匹配得到第四匹配度;
识别模块,用于根据第一匹配度、第二匹配度、第三匹配度和第四匹配度, 以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并 根据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
本发明实施例的第三方面提供了终端设备,包括存储器、处理器以及存储 在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述 计算机程序时实现第一方面中的用户身份识别方法。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例,在对用 户输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图 片和语音,然后分别从面部图片、虹膜图片、指纹图片和语音中提取表征用户 身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征;然 后将用户面部特征与预设面部特征进行匹配得到第一匹配度,将用户虹膜特征 与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与预设指纹特征进 行匹配得到第三匹配度,将用户语音特征与预设语音特征进行匹配得到第四匹 配度;最终根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并根据所 述最终匹配度与预设匹配度的关系对用户身份进行识别,能够将用户名密码和 各种生物特征结合起来对用户身份进行识别,从而能够提高对用户身份识别的 精确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技 术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅 仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳 动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例提供的用户身份识别方法的实现流程图;
图2是本发明一个实施例提供的从所述面部图片提取表征用户身份标识的 用户面部特征的实现流程图;
图3是本发明一个实施例提供的将用户面部特征与预设面部特征进行匹配 得到第一匹配度的实现流程图;
图4是本发明一个实施例提供的将用户语音特征与预设语音特征进行匹配 得到第四匹配度的实现流程图;
图5是图4中步骤S401的实现流程图;
图6是本发明实施例提供的用户身份识别装置的示意图;
图7是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术 之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当 清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中, 省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节 妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1为本发明一个实施例提供的用户身份识别方法的实现流程图,详述如 下:
步骤S101,获取用户输入的用户名和密码并进行验证,在对用户输入的用 户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图片和语音。
其中,可以通过图像采集装置采集用户的面部图片、虹膜图片和指纹图片, 通过音频采集装置采集用户的语音。
步骤S102,分别从所述面部图片、虹膜图片、指纹图片和语音中提取表征 用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征; 其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分别对应 第一系数、第二系数、第三系数和第四系数。
一个实施例中,参见图2,所述从所述面部图片提取表征用户身份标识的 用户面部特征,包括以下步骤:
步骤S201,获取用户面部特征,构建表征用户面部特征的尺度空间图像, 并检测所述尺度空间图像中的特征点。
其中,可以通过sift(Scale-invariant feature transform,尺度不变特征变换)算法采集用户面部特征信息。
在构建表征用户面部特征的尺度空间图像之后,对所述尺度空间图像中的 特征点进行检测。本实施例中,所述特征点可以为极值点,但并不以此为限。
本步骤中,可以通过将用户的面部图片与可变尺度的高斯函数进行卷积, 从而生成所述尺度空间图像。然后,使用高斯差分函数与用户的面部图片进行 卷积,生成高斯差分图像序列。在高斯差分图像序列中,对比每个当前像素与 邻域的当前尺度和相邻尺度等多个像素点的最大值和最小值,从而获得极值点。
步骤S202,对所述尺度空间中的各个特征点进行过滤和定位,获取满足预 设条件的稳定特征点。
其中,可以设置过滤条件,对所述尺度空间中的各个特征点进行过滤和定 位,从而去除在步骤S201中检测出的各个特征点中不符合预设条件的特征点, 获得稳定特征点。
具体的,可以对各个特征点进行定位,以检测该特征点是否为边缘点,若 该特征点是边缘点,则将该特征点过滤掉,否则保留该特征点。
步骤S203,对各个所述稳定特征点设置方向,生成用户面部特征的特征描 述子。
具体的,可以利用稳定特征点邻域像素的梯度方向分布特性为每个稳定特 征点设置方向,使所述稳定特征点具有旋转不变性。
其中,所述为各个所述稳定特征点设置方向,生成用户面部特征的特征描 述子具体为:以各个所述稳定特征点为中心取预设大小的邻域作为采样窗口, 将采样点与相应的所述稳定特征点的相对方向通过高斯加权后归入方向直方 图,得到所述特征描述子。
例如,以各个所述稳定特征点为中心取16*16的邻域作为采样窗口,将采 样点与相应的稳定特征点的相对方向通过高斯加权后归入8个bin的方向直方 图,得到4*4*8的128维特征描述子。
另外,对于虹膜图片、指纹图片的特征提取也可以采用图2中所述的方法 实现。
步骤S103,将用户面部特征与预设面部特征进行匹配得到第一匹配度,将 用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与预 设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行匹 配得到第四匹配度。
一个实施例中,参见图3,所述将用户面部特征与预设面部特征进行匹配 得到第一匹配度,包括以下步骤:
步骤S301,获取预设面部特征的第二特征描述子。
本实施例中,可以预存用户面部图片,然后采用图2中所述的方法,获取 预设面部特征对应的三个以上的第二特征描述子。
例如,获取预存用户面部图片中预设面部特征的特征描述子的具体过程如 下:
构建所预存用户面部图片中用户面部特征的尺度空间图像,并检测所述尺 度空间图像中的特征点;
对所述尺度空间中的各个特征点进行过滤和定位,获取满足预设条件的稳 定特征点;
对各个所述稳定特征点设置方向,生成所述用户面部特征的特征描述子。
步骤S302,获取与所述第二特征描述子的欧氏距离最近的三个以上的第一 特征描述子。所述第一特征描述子为步骤S201至S203中从所述面部图片提取 出的用户面部特征的特征描述子。
其中,对于各个第二特征描述子,与对应的各个第一特征描述子之间的欧 氏距离可以根据特征描述子的方向和位置计算出来。通过计算各个第二特征描 述子,与对应的各个第一特征描述子之间的欧氏距离,然后获取与所述第二特 征描述子的欧氏距离最近的三个以上的第一特征描述子。
步骤S303,根据欧氏距离最近的三个以上的各个第一特征描述子与各个第 二特征描述子特征描述子之间的欧式距离关系,确定用户面部特征与预设面部 特征的第一匹配度。
其中,所述根据欧氏距离最近的三个以上的各个第一特征描述子与各个第 二特征描述子特征描述子之间的欧式距离关系,确定用户面部特征与预设面部 特征的第一匹配度,包括:
各个第一特征描述子到对应的各个第二特征描述子之间的距离依次分别为 第一欧式距离、为第二欧式距离和第N欧式距离,N≥3;
若第一欧氏距离、第二欧式距离和第N欧式距离之间的差值位于预设范围 内,则通过
Pmatch1=DEuclid1+DEuclid2+…+DEuclidN
计算所述第一匹配度Pmatch1;其中,DEuclid1为第一欧氏距离,DEuclid2为第二欧氏 距离,DEuclidN为第N欧氏距离。
另外,对于第二匹配度和第三匹配度也可以通过上述方法计算,在此不再 赘述。
一个实施例中,参见图4,所述将用户语音特征与预设语音特征进行匹配 得到第四匹配度,包括:
步骤S401,对输入的语音进行预处理,以获取语音中的有效语音,所述语 音包括训练语音及待识别语音。
在本实施例中,通过输入数量足够多的训练语音来建立不同的说话人模型, 该训练语音为已知说话人身份的标记语音样本,用于调整说话人模型的参数, 使该模型能够基于监督学习,在实际应用中达到所要求的识别性能。
当需要判断某段语音是若干人中的哪一个所说的或者用于确认某段语音是 否是指定的某个人所说的时,该段语音即为待识别语音。训练语音与待识别语 音的作用不同,可以是不同或相同的语音数据。当二者相同时,所述待识别语 音可用以检验最终得出的说话人模型的性能,测试其是否能够准确地识别出待 识别语音的说话人身份。
对所述语音进行预处理,以降低每段连续语音信号中的背景噪声水平,输 出含有实际分析意义的有效语音,为后续说话人模型训练提供高信噪比的训练 集,提高了模型训练的速度,达到更为准确的模型训练效果。
参见图5,步骤S401可以通过以下过程实现:
步骤S501,通过高通滤波器分别对输入的K条语音中的高频信号进行加重 处理。
本实施例中,为了降低***辐射的影响,突出高频的共振峰,分别将每条 语音信号通过一个高通滤波器来对语音中的高频部分进行加重,使语音信号的 频谱变得更平滑。
步骤S502,选择预设数量的采样点,对经过所述加重处理后的每条语音进 行分帧,并将分帧后的各帧语音信号作为被积函数,与预设的窗函数做积,得 到短时平稳信号。
在本实施例中,该窗函数可以为汉宁窗。
步骤S503,在短时平稳信号对应的短时功率谱轮廓中选取大于第一阈值的 短时能量判决门限值,并进行第一次粗判;有效语音信号的起止点位于所述短 时能量判决门限值与短时能量包络交点所对应的时间间隔之外。
步骤S504,根据背景噪声的平均能量,选取小于第二阈值的短时能量判决 门限值,语音短时能量包络与该短时能量判决门限值相交的两个点作为有效语 音信号的起止点,将上述有效语音提取并输出,作为语音中的有效语音。
步骤S402,提取所述训练语音中有效语音的梅尔频率倒谱系数声学特征, 输出包含所述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特 征矩阵。
其中,基于人耳听觉特性提出来的梅尔Mel频率与Hz频率成非线性对应 关系,利用所述非线性的关系,计算得到Hz频谱特征。
Hz频率与Mel频率的转换公式为:Fmel=2595*lg(1+fHZ/700)
步骤S403,构建长短时递归神经网络模型,并将所述第一特征矩阵输入所 述神经网络模型,以获取所述神经网络模型的输出参数。
步骤S404,利用所述神经网络模型的输出参数及所述训练语音对应的说话 人特征,分别训练得出N条训练语音的N个特征提取矩阵,所述每个特征提取 矩阵对应一个所述训练语音的说话人模型。
步骤S405,提取所述待识别语音中有效语音的梅尔频率倒谱系数声学特 征,输出包含所述梅尔频率倒谱系数的维度及所述待识别语音的分帧数的第二 特征矩阵。
步骤S406,在所述N个说话人模型中,根据预设的相似性度量算法,选取 出与所述第二特征矩阵相匹配的说话人模型,并根据选取出的说话人模型确定 第二匹配度。其中,所述K和N为大于零的整数,且K大于N。
其中,相似性度量算法包含但不限于距离测度、相似测度和匹配测度等算 法,用以衡量所述第二特征矩阵与所述说话人模型在特征客观表征形式上的相 近程度。
作为本发明的另一个实施例,也可以通过相似测度算法中的余弦测度法来 获取与所述第二特征矩阵相匹配的说话人模型。
步骤S104,根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以 及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并根 据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
其中,预设匹配度可以根据实际情况进行设置,对此不予限制。例如,在 所述最终匹配度大于预设匹配度时,认为用户身份识别通过;在所述最终匹配 度小于或等于预设匹配度时,用户身份识别不通过。
一个实施例中,所述根据第一匹配度、第二匹配度、第三匹配度和第四匹 配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配 度,包括:
所述最终匹配度为:
Pmatch=Pmatch1*coefficient1+Pmatch2*coefficient2+Pmatch3*coefficient 3+Pmatch4*coefficient 4 其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系 数,coefficient 4为第四系数,Pmatch1为第一匹配度,Pmatch2为第二匹配度,Pmatch3为第三匹配度,Pmatch4为第四匹配度,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
另一个实施例中,所述根据第一匹配度、第二匹配度、第三匹配度和第四 匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹 配度,包括:
所述最终匹配度为:
其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系 数,coefficient 4为第四系数,Pmatch1为第一匹配度,Pmatch2为第二匹配度,Pmatch3为第三匹配度,Pmatch4为第四匹配度,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
另外,上述方法还可以包括:根据每个用户的历史匹配度,确定第一系数、 第二系数、第三系数和第四系数之间的大小关系;其中,第一系数、第二系数、 第三系数和第四系数的初始值相同;
所述根据每个用户的历史匹配度,确定第一系数、第二系数、第三系数和 第四系数之间的大小关系,包括:
若某个用户的历史匹配度中,第一匹配度大于第二匹配度至第四匹配度中 的任一值,则调大第一系数并调小第二系数至第四系数;
其中,所述第一匹配度大于第二匹配度至第四匹配度中的任一值具体为: 所述第一匹配度的平均值大于第二匹配度的平均值至第四匹配度的平均值中的 任一值。
其中,将第一系数、第二系数、第三系数和第四系数的初始值设置为相同, 再根据之后的各个匹配度的大小关系对第一系数、第二系数、第三系数和第四 系数进行调整,将匹配度较高的特征对应的系数调大,从而能够进一步提高识 别精度。
本发明实施例,在对用户输入的用户名和密码验证通过后,采集用户的面 部图片、虹膜图片、指纹图片和语音,然后分别从面部图片、虹膜图片、指纹 图片和语音中提取表征用户身份标识的用户面部特征、用户虹膜特征、用户指 纹特征和用户语音特征;用户面部特征与预设面部特征进行匹配得到第一匹配 度,将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特 征与预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征 进行匹配得到第四匹配度,最终根据第一匹配度、第二匹配度、第三匹配度和 第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最 终匹配度,并根据所述最终匹配度与预设匹配度的关系对用户身份进行识别, 能够将用户名密码和各种生物特征结合起来,对用户身份进行验证,从而提高 对用户身份验证的精确度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后, 各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施 过程构成任何限定。
对应于上文实施例所述的移动终端令牌激活方法,图6示出了本发明实施 例提供的用户身份识别装置的示意图,该装置应用于客户端。为了便于说明, 仅示出了与本实施例相关的部分。
参照图6,该装置包括获取验证模块601、提取模块602、匹配模块603和 识别模块604。
获取验证模块601,用于获取用户输入的用户名和密码并进行验证,在对 用户输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹 图片和语音;
提取模块602,用于分别从所述面部图片、虹膜图片、指纹图片和语音中 提取表征用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户 语音特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特 征分别对应第一系数、第二系数、第三系数和第四系数;
匹配模块603,用于将用户面部特征与预设面部特征进行匹配得到第一匹 配度,将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹 特征与预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特 征进行匹配得到第四匹配度;
识别模块604,用于根据第一匹配度、第二匹配度、第三匹配度和第四匹 配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配 度,并根据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
可选的,所述从所述面部图片提取表征用户身份标识的用户面部特征,包 括:
获取用户面部特征,构建表征用户面部特征的尺度空间图像,并检测所述 尺度空间图像中的特征点;
对所述尺度空间中的各个特征点进行过滤和定位,获取满足预设条件的稳 定特征点;
对各个所述稳定特征点设置方向,生成用户面部特征的特征描述子;
所述将用户面部特征与预设面部特征进行匹配,包括:
获取预设面部特征的第二特征描述子;
获取与所述第二特征描述子的欧氏距离最近的所述用户面部特征中的三个 以上的第一特征描述子;
根据欧氏距离最近的三个以上的各个第一特征描述子与各个第二特征描述 子特征描述子之间的欧式距离关系,确定用户面部特征与预设面部特征的第一 匹配度。
可选的,所述根据各个第一特征描述子与各个第二特征描述子特征描述子 之间的欧式距离关系,确定用户面部特征与预设面部特征的第一匹配度,包括:
各个第一特征描述子到对应的各个第二特征描述子之间的距离依次分别为 第一欧式距离、为第二欧式距离和第N欧式距离,N≥3;
若第一欧氏距离、第二欧式距离和第N欧式距离之间的差值位于预设范围 内,则通过
Pmatch1=DEuclid1+DEuclid2+…+DEuclidN
计算所述第一匹配度Pmatch1;其中,DEuclid1为第一欧氏距离,DEuclid2为第二 欧氏距离,DEuclidN为第N欧氏距离。
可选的,所述将用户语音特征与预设语音特征进行匹配得到第四匹配度
对输入的语音进行预处理,以获取语音中的有效语音,所述语音包括训练 语音及待识别语音;
提取所述训练语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所 述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特征矩阵;
构建长短时递归神经网络模型,并将所述第一特征矩阵输入所述神经网络 模型,以获取所述神经网络模型的输出参数;
利用所述神经网络模型的输出参数及所述训练语音对应的说话人特征,分 别训练得出N条训练语音的N个特征提取矩阵,所述每个特征提取矩阵对应一 个所述训练语音的说话人模型;
提取所述待识别语音中有效语音的梅尔频率倒谱系数声学特征,输出包含 所述梅尔频率倒谱系数的维度及所述待识别语音的分帧数的第二特征矩阵;
在所述N个说话人模型中,根据预设的相似性度量算法,选取出与所述第 二特征矩阵相匹配的说话人模型,并根据选取出的说话人模型确定第二匹配度;
其中,所述K和N为大于零的整数,且K大于N。
可选的,所述对输入的语音进行预处理,以获取语音中的有效语音,包括:
通过高通滤波器分别对输入的K条语音中的高频信号进行加重处理;
选择预设数量的采样点,对经过所述加重处理后的每条语音进行分帧,并 将分帧后的各帧语音信号作为被积函数,与预设的窗函数做积,得到短时平稳 信号;
在短时平稳信号对应的短时功率谱轮廓中选取大于第一阈值的短时能量判 决门限值,并进行第一次粗判;有效语音信号的起止点位于所述短时能量判决 门限值与短时能量包络交点所对应的时间间隔之外;
根据背景噪声的平均能量,选取小于第二阈值的短时能量判决门限值,语 音短时能量包络与该短时能量判决门限值相交的两个点作为有效语音信号的起 止点,将上述有效语音提取并输出,作为语音中的有效语音。
作为一种可实施方式,所述根据第一匹配度、第二匹配度、第三匹配度和 第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最 终匹配度,包括:
所述最终匹配度为:
Pmatch=Pmatch1*coefficient1+Pmatch2*coefficient2+Pmatch3*coefficient 3+Pmatch4*coefficient 4 其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系 数,coefficient 4为第四系数,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
作为另一种可实施,所述根据第一匹配度、第二匹配度、第三匹配度和第 四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终 匹配度,包括:
所述最终匹配度为:
其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系数,coefficient 4为第四系数,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
可选的,上述用户身份识别装置还可以包括:
系数调整模块,用于根据每个用户的历史匹配度,确定第一系数、第二系 数、第三系数和第四系数之间的大小关系;其中,第一系数、第二系数、第三 系数和第四系数的初始值相同;
所述根据每个用户的历史匹配度,确定第一系数、第二系数、第三系数和 第四系数之间的大小关系,包括:
若某个用户的历史匹配度中,第一匹配度大于第二匹配度至第四匹配度中 的任一值,则调大第一系数并调小第二系数至第四系数;
其中,所述第一匹配度大于第二匹配度至第四匹配度中的任一值具体为: 所述第一匹配度的平均值大于第二匹配度的平均值至第四匹配度的平均值中的 任一值。
图7是本发明一实施例提供的终端设备的示意图。如图7所示,该实施例 的终端设备700包括:处理器710、存储器720以及存储在所述存储器720中 并可在所述处理器710上运行的计算机程序721,例如程序。所述处理器710 执行所述计算机程序721时实现上述各个方法实施例中的步骤,例如图1所示 的步骤101至104。或者,所述处理器710执行所述计算机程序721时实现上 述各装置实施例中各模块的功能,例如图6所示模块601至604的功能。
示例性的,所述计算机程序721可以被分割成一个或多个模块/单元,所述 一个或者多个模块/单元被存储在所述存储器720中,并由所述处理器710执行, 以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计 算机程序指令段,该指令段用于描述所述计算机程序721在所述终端设备700 中的执行过程。例如,所述计算机程序721可以被分割成获取验证模块、提取 模块、匹配模块和识别模块,各模块具体功能如下:
获取验证模块,用于获取用户输入的用户名和密码并进行验证,在对用户 输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图片 和语音;
提取模块,用于分别从所述面部图片、虹膜图片、指纹图片和语音中提取 表征用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音 特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分 别对应第一系数、第二系数、第三系数和第四系数;
匹配模块,用于将用户面部特征与预设面部特征进行匹配得到第一匹配度, 将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与 预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行 匹配得到第四匹配度;
识别模块,用于根据第一匹配度、第二匹配度、第三匹配度和第四匹配度, 以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并 根据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
所述终端设备700可以是桌上型计算机、笔记本、掌上电脑及手机等计算 设备。所述终端设备可包括,但不仅限于,处理器710、存储器720。本领域技 术人员可以理解,图7仅仅是终端设备700的示例,并不构成对终端设备700 的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的 部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线、显 示器等。
所称处理器90可以是中央处理单元(Central Processing Unit,CPU),还可 以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用 集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列 (Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或 者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理 器也可以是任何常规的处理器等。
所述存储器91可以是所述终端设备9的内部存储单元,例如终端设备9 的硬盘或内存。所述存储器91也可以是所述终端设备9的外部存储设备,例如 所述终端设备9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC), 安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述 存储器91还可以既包括所述终端设备9的内部存储单元也包括外部存储设备。 所述存储器91用于存储所述计算机程序以及所述终端设备所需的其他程序和 数据。所述存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上 述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上 述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不 同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功 能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在, 也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬 件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模 块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上 述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程, 在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详 述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示 例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来 实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用 和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现 所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法, 可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示 意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现 时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一 个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间 的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或 通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为 单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者 也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部 单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中, 也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元 中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的 形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品 销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解, 本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指 令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中, 该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中, 所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、 对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括: 能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、 磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机 存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软 件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法 管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根 据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照 前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其 依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特 征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发 明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种用户身份识别方法,其特征在于,包括:
获取用户输入的用户名和密码并进行验证,在对用户输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图片和语音;
分别从所述面部图片、虹膜图片、指纹图片和语音中提取表征用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分别对应第一系数、第二系数、第三系数和第四系数;
将用户面部特征与预设面部特征进行匹配得到第一匹配度,将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行匹配得到第四匹配度;
根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并根据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
2.如权利要求1所述的用户身份识别方法,其特征在于,所述从所述面部图片提取表征用户身份标识的用户面部特征,包括:
获取用户面部特征,构建表征用户面部特征的尺度空间图像,并检测所述尺度空间图像中的特征点;
对所述尺度空间中的各个特征点进行过滤和定位,获取满足预设条件的稳定特征点;
对各个所述稳定特征点设置方向,生成用户面部特征的特征描述子;
所述将用户面部特征与预设面部特征进行匹配得到第一匹配度,包括:
获取预设面部特征的第二特征描述子;
获取与所述第二特征描述子的欧氏距离最近的所述用户面部特征中的三个以上的第一特征描述子;
根据欧氏距离最近的三个以上的各个第一特征描述子与各个第二特征描述子特征描述子之间的欧式距离关系,确定用户面部特征与预设面部特征的第一匹配度。
3.如权利要求2所述的用户身份识别方法,其特征在于,所述根据欧氏距离最近的三个以上的各个第一特征描述子与各个第二特征描述子特征描述子之间的欧式距离关系,确定用户面部特征与预设面部特征的第一匹配度,包括:
各个第一特征描述子到对应的各个第二特征描述子之间的距离依次分别为第一欧式距离、为第二欧式距离和第N欧式距离,N≥3;
若第一欧氏距离、第二欧式距离和第N欧式距离之间的差值位于预设范围内,则通过
Pmatch1=DEuclid1+DEuclid2+…+DEuclidN
计算所述第一匹配度Pmatch1;其中,DEuclid1为第一欧氏距离,DEuclid2为第二欧氏距离,DEuclidN为第N欧氏距离。
4.如权利要求1所述的用户身份识别方法,其特征在于,所述将用户语音特征与预设语音特征进行匹配得到第四匹配度,包括:
对输入的语音进行预处理,以获取语音中的有效语音,所述语音包括训练语音及待识别语音;
提取所述训练语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特征矩阵;
构建长短时递归神经网络模型,并将所述第一特征矩阵输入所述神经网络模型,以获取所述神经网络模型的输出参数;
利用所述神经网络模型的输出参数及所述训练语音对应的说话人特征,分别训练得出N条训练语音的N个特征提取矩阵,所述每个特征提取矩阵对应一个所述训练语音的说话人模型;
提取所述待识别语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述待识别语音的分帧数的第二特征矩阵;
在所述N个说话人模型中,根据预设的相似性度量算法,选取出与所述第二特征矩阵相匹配的说话人模型,并根据选取出的说话人模型确定第二匹配度;
其中,所述K和N为大于零的整数,且K大于N。
5.如权利要求4所述的用户身份识别方法,其特征在于,所述对输入的语音进行预处理,以获取语音中的有效语音,包括:
通过高通滤波器分别对输入的K条语音中的高频信号进行加重处理;
选择预设数量的采样点,对经过所述加重处理后的每条语音进行分帧,并将分帧后的各帧语音信号作为被积函数,与预设的窗函数做积,得到短时平稳信号;
在短时平稳信号对应的短时功率谱轮廓中选取大于第一阈值的短时能量判决门限值,并进行第一次粗判;有效语音信号的起止点位于所述短时能量判决门限值与短时能量包络交点所对应的时间间隔之外;
根据背景噪声的平均能量,选取小于第二阈值的短时能量判决门限值,语音短时能量包络与该短时能量判决门限值相交的两个点作为有效语音信号的起止点,将上述有效语音提取并输出,作为语音中的有效语音。
6.如权利要求1至5任一项所述的用户身份识别方法,其特征在于,所述根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,包括:
所述最终匹配度为:
Pmatch=Pmatch1*coefficient1+Pmatch2*coefficient2+Pmatch3*coefficient 3+Pmatch4*coefficient 4其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系数,coefficient 4为第四系数,Pmatch1为第一匹配度,Pmatch2为第二匹配度,Pmatch3为第三匹配度,Pmatch4为第四匹配度,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
7.如权利要求1至5任一项所述的用户身份识别方法,其特征在于,所述根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,包括:
所述最终匹配度为:
其中,coefficient1为第一系数,coefficient2为第二系数,coefficient 3为第三系数,coefficient 4为第四系数,Pmatch1为第一匹配度,Pmatch2为第二匹配度,Pmatch3为第三匹配度,Pmatch4为第四匹配度,且
coefficient1+coefficient2+coefficient3+coefficient4=1。
8.如权利要求1所述的用户身份识别方法,其特征在于,还包括:
根据每个用户的历史匹配度,确定第一系数、第二系数、第三系数和第四系数之间的大小关系;其中,第一系数、第二系数、第三系数和第四系数的初始值相同;
所述根据每个用户的历史匹配度,确定第一系数、第二系数、第三系数和第四系数之间的大小关系,包括:
若某个用户的历史匹配度中,第一匹配度大于第二匹配度至第四匹配度中的任一值,则调大第一系数并调小第二系数至第四系数;
其中,所述第一匹配度大于第二匹配度至第四匹配度中的任一值具体为:所述第一匹配度的平均值大于第二匹配度的平均值至第四匹配度的平均值中的任一值。
9.一种用户身份识别装置,其特征在于,包括:
获取验证模块,用于获取用户输入的用户名和密码并进行验证,在对用户输入的用户名和密码验证通过后,采集用户的面部图片、虹膜图片、指纹图片和语音;
特征提取模块,用于分别从所述面部图片、虹膜图片、指纹图片和语音中提取表征用户身份标识的用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征;其中,用户面部特征、用户虹膜特征、用户指纹特征和用户语音特征分别对应第一系数、第二系数、第三系数和第四系数;
匹配模块,用于将用户面部特征与预设面部特征进行匹配得到第一匹配度,将用户虹膜特征与预设虹膜特征进行匹配得到第二匹配度,将用户指纹特征与预设指纹特征进行匹配得到第三匹配度,将用户语音特征与预设语音特征进行匹配得到第四匹配度;
识别模块,用于根据第一匹配度、第二匹配度、第三匹配度和第四匹配度,以及第一系数、第二系数、第三系数和第四系数确定该用户的最终匹配度,并根据所述最终匹配度与预设匹配度的关系对用户身份进行识别。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639690.3A CN108776795A (zh) | 2018-06-20 | 2018-06-20 | 用户身份识别方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810639690.3A CN108776795A (zh) | 2018-06-20 | 2018-06-20 | 用户身份识别方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108776795A true CN108776795A (zh) | 2018-11-09 |
Family
ID=64025223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810639690.3A Pending CN108776795A (zh) | 2018-06-20 | 2018-06-20 | 用户身份识别方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108776795A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598223A (zh) * | 2018-11-26 | 2019-04-09 | 北京洛必达科技有限公司 | 基于视频获取目标人物的方法和装置 |
CN109682676A (zh) * | 2018-12-29 | 2019-04-26 | 上海工程技术大学 | 一种纤维拉伸断裂的声发射信号的特征提取方法 |
CN110349312A (zh) * | 2019-07-09 | 2019-10-18 | 江苏万贝科技有限公司 | 一种基于家居的智能猫眼语音提醒识别***及其方法 |
CN110600041A (zh) * | 2019-07-29 | 2019-12-20 | 华为技术有限公司 | 一种声纹识别的方法及设备 |
CN110619201A (zh) * | 2019-08-01 | 2019-12-27 | 努比亚技术有限公司 | 一种终端控制方法、终端及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598795A (zh) * | 2015-01-30 | 2015-05-06 | 科大讯飞股份有限公司 | 身份验证方法及*** |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN107688824A (zh) * | 2017-07-27 | 2018-02-13 | 平安科技(深圳)有限公司 | 图片匹配方法及终端设备 |
-
2018
- 2018-06-20 CN CN201810639690.3A patent/CN108776795A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598795A (zh) * | 2015-01-30 | 2015-05-06 | 科大讯飞股份有限公司 | 身份验证方法及*** |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN107688824A (zh) * | 2017-07-27 | 2018-02-13 | 平安科技(深圳)有限公司 | 图片匹配方法及终端设备 |
CN107680597A (zh) * | 2017-10-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598223A (zh) * | 2018-11-26 | 2019-04-09 | 北京洛必达科技有限公司 | 基于视频获取目标人物的方法和装置 |
CN109682676A (zh) * | 2018-12-29 | 2019-04-26 | 上海工程技术大学 | 一种纤维拉伸断裂的声发射信号的特征提取方法 |
CN110349312A (zh) * | 2019-07-09 | 2019-10-18 | 江苏万贝科技有限公司 | 一种基于家居的智能猫眼语音提醒识别***及其方法 |
CN110349312B (zh) * | 2019-07-09 | 2021-09-17 | 江苏万贝科技有限公司 | 一种基于家居的智能猫眼语音提醒识别***及其方法 |
CN110600041A (zh) * | 2019-07-29 | 2019-12-20 | 华为技术有限公司 | 一种声纹识别的方法及设备 |
CN110600041B (zh) * | 2019-07-29 | 2022-04-29 | 华为技术有限公司 | 一种声纹识别的方法及设备 |
CN110619201A (zh) * | 2019-08-01 | 2019-12-27 | 努比亚技术有限公司 | 一种终端控制方法、终端及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108776795A (zh) | 用户身份识别方法、装置及终端设备 | |
CN109166586B (zh) | 一种识别说话人的方法及终端 | |
TWI641965B (zh) | 基於聲紋識別的身份驗證的方法及系統 | |
CN107610707B (zh) | 一种声纹识别方法及装置 | |
CN101894548B (zh) | 一种用于语种识别的建模方法及装置 | |
CN108281146B (zh) | 一种短语音说话人识别方法和装置 | |
CN110956966B (zh) | 声纹认证方法、装置、介质及电子设备 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
WO2019237519A1 (zh) | 通用向量训练方法、语音聚类方法、装置、设备及介质 | |
CN110265035B (zh) | 一种基于深度学习的说话人识别方法 | |
WO2019136912A1 (zh) | 电子装置、身份验证的方法、***及存储介质 | |
WO2021115176A1 (zh) | 语音识别方法及相关设备 | |
WO2019237518A1 (zh) | 模型库建立方法、语音识别方法、装置、设备及介质 | |
WO2019232826A1 (zh) | i-vector向量提取方法、说话人识别方法、装置、设备及介质 | |
CN110929836B (zh) | 神经网络训练及图像处理方法和装置、电子设备、介质 | |
WO2022141868A1 (zh) | 一种提取语音特征的方法、装置、终端及存储介质 | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN106971724A (zh) | 一种防干扰声纹识别方法和*** | |
CN111667839A (zh) | 注册方法和设备、说话者识别方法和设备 | |
CN112614493B (zh) | 声纹识别方法、***、存储介质及电子设备 | |
CN111524524B (zh) | 声纹识别方法、装置、设备及存储介质 | |
JP6750048B2 (ja) | 音声認識のための方法及び装置 | |
Cuzzocrea et al. | Dempster-Shafer-based fusion of multi-modal biometrics for supporting identity verification effectively and efficiently | |
CN110226201A (zh) | 利用周期指示的声音识别 | |
Kartik et al. | Multimodal biometric person authentication system using speech and signature features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181109 |
|
RJ01 | Rejection of invention patent application after publication |