CN107392158A - 一种图像识别的方法及装置 - Google Patents
一种图像识别的方法及装置 Download PDFInfo
- Publication number
- CN107392158A CN107392158A CN201710623682.5A CN201710623682A CN107392158A CN 107392158 A CN107392158 A CN 107392158A CN 201710623682 A CN201710623682 A CN 201710623682A CN 107392158 A CN107392158 A CN 107392158A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msup
- neutral net
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种图像识别的方法及装置,该方法,包括:预先构建初始神经网络;对所述初始神经网络进行训练,生成训练后的神经网络;将待处理图像输入到所述训练后的神经网络中;利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。本发明提供了一种图像识别的方法及装置,能够缩短图像识别的时间。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种图像识别的方法及装置。
背景技术
随着图像识别技术的快速发展,图像识别应用越来越广泛,用户对图像识别的要求也越来越高。
现有技术中,图像识别主要是包括两个步骤,首先是要确定待识别的目标的位置,针对该位置进行识别。这个过程一般需要通过两个神经网络来实现,其中,第一个神经网络确定目标的位置,第二个神经网络针对给位置进行识别。
通过上述描述可见,现有技术在进行图像识别时,需要通过两个神经网络来实现,需要进行至少两次神经网络演算,需要的时间较长。
发明内容
本发明实施例提供了一种图像识别的方法及装置,能够缩短图像识别的时间。
第一方面,本发明实施例提供了一种图像识别的方法,包括:
预先构建初始神经网络;
对所述初始神经网络进行训练,生成训练后的神经网络;
包括:
将待处理图像输入到所述训练后的神经网络中;
利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
进一步地,
所述预先构建初始神经网络,包括:
将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
进一步地,
所述预先构建初始神经网络,包括:
设置所述初始神经网络的损失函数;
根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
进一步地,
所述对所述初始神经网络进行训练,生成训练后的神经网络,包括:
根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
进一步地,
该方法进一步包括:
预先设置至少一个标准目标的所述预设数量个标准特征值;
在所述利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值之后,进一步包括:
针对每个所述识别目标,执行:
将当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果。
进一步地,
所述图像特征值,包括:人脸特征值。
进一步地,
所述预设数量包括:128。
第二方面,本发明实施例提供了一种图像识别的装置,包括:
构建单元,用于构建初始神经网络;
神经网络训练单元,用于对所述初始神经网络进行训练,生成训练后的神经网络;
输入单元,用于将待处理图像输入到所述训练后的神经网络中;
识别单元,用于利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
进一步地,
所述构建单元,用于将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
进一步地,
所述构建单元,用于设置所述初始神经网络的损失函数,根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
进一步地,
所述神经网络训练单元,用于根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
进一步地,
该装置进一步包括:
设置单元,用于设置至少一个标准目标的所述预设数量个标准特征值;
分类单元,用于针对所述识别单元确定出的每个所述识别目标,执行:
将所述识别单元生成的当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果。
进一步地,
所述图像特征值,包括:人脸特征值。
进一步地,
所述预设数量包括:128。
在本发明实施例中,构建了初始神经网络,并对该初始神经网络进行训练,生成训练后的神经网络,利用该训练后的神经网络进行待处理图像的识别,利用该训练后的神经网络能够在同一个神经网络中实现确定识别目标和生成识别目标的图像特征值,只进行一次神经网络的演算即可,缩短了图像识别的时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的一种图像识别的方法的流程图;
图2是本发明一实施例提供的另一种图像识别的方法的流程图;
图3是本发明一实施例提供的一种图像识别的装置的示意图;
图4是本发明一实施例提供的另一种图像识别的装置的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种图像识别的方法,该方法可以包括以下步骤:
步骤101:预先构建初始神经网络;
步骤102:对所述初始神经网络进行训练,生成训练后的神经网络;
步骤103:将待处理图像输入到所述训练后的神经网络中;
步骤104:利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
在本发明实施例中,构建了初始神经网络,并对该初始神经网络进行训练,生成训练后的神经网络,利用该训练后的神经网络进行待处理图像的识别,利用该训练后的神经网络能够在同一个神经网络中实现确定识别目标和生成识别目标的图像特征值,只进行一次神经网络的演算即可,缩短了图像识别的时间。
在本发明一实施例中,所述预先构建初始神经网络,包括:
将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
在本发明实施例中,在YOLO神经网络的基础上生成了初始神经网络,基于该初始神经网络生成的训练后的神经网络能够快速的确定识别目标的位置,进而能够提高识别待处理图像中的识别目标的速度。
在本发明实施例中,所述预先构建初始神经网络,包括:
设置所述初始神经网络的损失函数;
根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
在本发明实施例中,该初始神经网络的损失函数中既有对识别目标定位的准确性的评估,也有对识别目标的识别的准确性的评估,通过该损失函数能够从目标定位和目标识别两个方面来训练该初始神经网络,使得训练后的神经网络能够更加准确地进行目标定位和目标识别,进而提高对整个待处理图像的识别的准确性。
在本发明实施例中,可以通过 以及对初始神经网络的目标定位进行训练,可以通过对初始神经网络的目标识别进行训练。
在本发明实施例中,元素可以指的是人脸图像,例如:为第i个三元组中的人脸图像。
在本发明一实施例中,所述对所述初始神经网络进行训练,生成训练后的神经网络,包括:
根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
在本发明实施例中,通过初始神经网络的损失函数对初始神经网络进行训练,通过初始神经网络的损失函数的值来反映当前的神经网络的进行图像识别的水平,当满足预设要求时,训练结束,生成训练后的神经网络。
具体地,预先设置训练数据库,该训练数据库中,包括:至少一个训练图像。训练过程如下:
S1:将初始神经网络作为当前神经网络;
S2:从训练数据库获取训练图像,将训练图像输入到当前神经网络中;
S3:利用当前神经网络对输入的训练图像进行识别,生成识别数据,其中,识别数据包括:S2、B、xi、yi、wi、hi、Ci、和等。
S4:确定输入到当前神经网络的训练图像的实际数据,其中,实际数据包括:等。
S5:根据该识别数据和实际数据,确定损失函数的值;
S6:判断损失函数的值是否满足预设要求,如果满足,则将当前神经网络作为训练后的神经网络,结束当前流程,否则,对当前神经网络进行调整,将调整后的神经网络作为当前神经网络,返回S2。
在本发明实施例中,预设要求可以是一个数值范围,当损失函数的值在该数值范围内时,说明该神经网络已经满足需求了。损失函数的值越小越好,
在本发明一实施例中,该方法进一步包括:
预先设置至少一个标准目标的所述预设数量个标准特征值;
在所述利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值之后,进一步包括:
针对每个所述识别目标,执行:
将当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果。
在本发明实施例中,利用训练后的神经网络输出的识别目标的图像特征值来表征该识别目标,进而通过分类器基于图像特征值进行分类。这里的比对结果可以是识别目标与标准目标的相似情况,例如:识别目标A与标准目标A的相似度为80%,该相似度可以根据识别目标A的预设数量个图像特征值以及标准目标A的预设数量个标准特征值计算得到。在本发明实施例中,可以利用分类器确定出与当前识别目标最相似的标准目标。
在本发明一实施例中,所述图像特征值,包括:人脸特征值。
在本发明实施例中,当图像特征值是人脸特征值时,可以通过训练后的神经网络实现人脸识别。识别目标可以是人脸,在从待处理图像中确定至少一个识别目标时,可以是从待处理图像中确定出至少一个人脸,可以通过方框将待处理图像中的人脸选中,进而对各个方框中的人脸进行识别,生成各个人脸的预设数量个人脸特征值。
在本发明一实施例中,所述预设数量包括:128。
下面以人脸识别为例,详细说明本发明实施例提供的一种图像识别的方法。如图2所示,本发明实施例提供了一种图像识别的方法,该方法可以包括以下步骤:
步骤201:将YOLO神经网络的输出结果设置为人脸特征值,设置初始神经网络的损失函数,生成基于YOLO神经网络的初始神经网络。
具体地,初始神经网络可以是对YOLO神经网络改进得到的。将YOLO神经网络的输出结果修改为输出人脸特征值,将YOLO神经网络的损失函数修改为初始神经网络的损失函数,YOLO神经网络其余内容保持不变。例如:针对每个待处理图像中的每个人脸输出128个人脸特征值,使不同人脸的人脸特征值在欧式特征空间上高维线性可分。
其中,所述初始神经网络的损失函数为:
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
步骤202:根据初始神经网络的损失函数,对初始神经网络进行训练,当初始神经网络的损失函数的值满足预设要求时,生成训练后的神经网络。
具体地,可以设置人脸训练库,该人脸训练库中包括多个人脸图像。利用人脸训练库中的多个人脸图像不断对初始神经网络进行训练。
训练过程就通过初始神经网络的损失函数不断调整当前神经网络的过程,直到损失函数的值达到预设要求后,训练结束。
步骤203:预先设置至少一个标准人脸的128个标准特征值,预先设置分类器。
具体地,可以预先设置人脸标准库,该人脸标准库中包括多个标准人脸,以及每个标准人脸的128个标准特征值,还可以包括每个标准人脸对应的信息。
这里的分类器是经过训练的分类器,该分类器可以是SVM(SupportVectorMachine,支持向量机)。
步骤204:将待处理图像输入到训练后的神经网络中。
举例来说,将具有多个人脸的待处理图像输入到训练后的神经网络中。
该待处理图像包括用户A的人脸、用户B的人脸。
步骤205:利用训练后的神经网络,确定出待处理图像中的至少一个待识别人脸,并生成每个待识别人脸的128个人脸特征值。
具体地,该步骤可以通过以下方式实现:
将待处理图像分成S2个方格,确定每个方格中是否存在人脸;
针对每个方格,生成B个定位框,其中,每个定位框中包含有人脸;
生成每个定位框的128个人脸特征值。
举例来说,针对待处理图像中的用户A的人脸和用户B的人脸,生成用户A的人脸的128个人脸特征值,以及用户B的人脸的128个人脸特征值。
步骤206:针对每个待识别人脸,执行:将当前待识别人脸的128个人脸特征值输入到分类器中;利用分类器,将当前待识别人脸的128个人脸特征值与至少一个标准人脸的128个标准特征值进行比对,输出比对结果。
具体地,可以从至少一个标准人脸中找出与当前待识别人脸最相似的。
举例来说,将用户A的人脸的128个人脸特征值与至少一个标准人脸的128个标准特征值进行比对,确定出与用户A的人脸最相似的标准人脸A,输出比对结果,该比对结果可以包括:标准人脸A、标准人脸A对应的信息,其中,标准人脸A对应的信息可以包括标准人脸A对应的姓名、性别等身份信息。
将用户B的人脸的128个人脸特征值与至少一个标准人脸的128个标准特征值进行比对,确定出与用户B的人脸最相似的标准人脸B,输出比对结果,该比对结果可以包括:标准人脸B、标准人脸B对应的信息,其中,标准人脸B对应的信息可以包括标准人脸B对应的姓名、性别等身份信息。
通过本发明实施例,能够实现人脸定位和特征提取,具体地,能够从图形中确定人脸的位置,并且,能够提取出人脸的人脸特征,通过本发明实施例能够一步实现人脸定位与特征提取,大大提高了人脸识别的效率,提高人脸识别的速度和准确率。
如图3、图4所示,本发明实施例提供了一种图像识别的装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。从硬件层面而言,如图3所示,为本发明实施例提供的一种图像识别的装置所在设备的一种硬件结构图,除了图3所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的设备通常还可以包括其他硬件,如负责处理报文的转发芯片等等。以软件实现为例,如图4所示,作为一个逻辑意义上的装置,是通过其所在设备的CPU将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。本实施例提供的一种图像识别的装置,包括:
构建单元401,用于构建初始神经网络;
神经网络训练单元402,用于对所述初始神经网络进行训练,生成训练后的神经网络;
输入单元403,用于将待处理图像输入到所述训练后的神经网络中;
识别单元404,用于利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
在本发明实施例中,构建了初始神经网络,并对该初始神经网络进行训练,生成训练后的神经网络,利用该训练后的神经网络进行待处理图像的识别,利用该训练后的神经网络能够在同一个神经网络中实现确定识别目标和生成识别目标的图像特征值,只进行一次神经网络的演算即可,缩短了图像识别的时间。
在本发明一实施例中,所述构建单元,用于将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
在本发明一实施例中,所述构建单元,用于设置所述初始神经网络的损失函数,根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
在本发明一实施例中,所述神经网络训练单元,用于根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
在本发明一实施例中,该装置进一步包括:
设置单元,用于设置至少一个标准目标的所述预设数量个标准特征值;
分类单元,用于针对所述识别单元确定出的每个所述识别目标,执行:
将所述识别单元生成的当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果。
在本发明一实施例中,所述图像特征值,包括:人脸特征值。
在本发明一实施例中,所述预设数量包括:128。
上述装置内的各单元之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本发明实施例提供了一种可读介质,包括执行指令,当存储控制器的处理器执行所述执行指令时,所述存储控制器执行本发明实施例提供的任意一种图像识别的方法。
本发明实施例提供了一种存储控制器,包括:处理器、存储器和总线;
所述存储器用于存储执行指令,所述处理器与所述存储器通过所述总线连接,当所述存储控制器运行时,所述处理器执行所述存储器存储的执行指令,以使所述存储控制器执行本发明实施例提供的任意一种图像识别的方法。
本发明各个实施例至少具有如下有益效果:
1、在本发明实施例中,构建了初始神经网络,并对该初始神经网络进行训练,生成训练后的神经网络,利用该训练后的神经网络进行待处理图像的识别,利用该训练后的神经网络能够在同一个神经网络中实现确定识别目标和生成识别目标的图像特征值,只进行一次神经网络的演算即可,缩短了图像识别的时间。
2、在本发明实施例中,在YOLO神经网络的基础上生成了初始神经网络,基于该初始神经网络生成的训练后的神经网络能够快速的确定识别目标的位置,进而能够提高识别待处理图像中的识别目标的速度。
3、在本发明实施例中,该初始神经网络的损失函数中既有对识别目标定位的准确性的评估,也有对识别目标的识别的准确性的评估,通过该损失函数能够从目标定位和目标识别两个方面来训练该初始神经网络,使得训练后的神经网络能够更加准确地进行目标定位和目标识别,进而提高对整个待处理图像的识别的准确性。
4、通过本发明实施例,能够实现人脸定位和特征提取,具体地,能够从图形中确定人脸的位置,并且,能够提取出人脸的人脸特征,通过本发明实施例能够一步实现人脸定位与特征提取,大大提高了人脸识别的效率,提高人脸识别的速度和准确率。
需要说明的是,在本文中,诸如第一和第二之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同因素。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在计算机可读取的存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质中。
最后需要说明的是:以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种图像识别的方法,其特征在于,
预先构建初始神经网络;
对所述初始神经网络进行训练,生成训练后的神经网络;
包括:
将待处理图像输入到所述训练后的神经网络中;
利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
2.根据权利要求1所述的方法,其特征在于,
所述预先构建初始神经网络,包括:
将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
3.根据权利要求1所述的方法,其特征在于,
所述预先构建初始神经网络,包括:
设置所述初始神经网络的损失函数;
根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>c</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>x</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>y</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mi>c</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msqrt>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
</msqrt>
<mo>-</mo>
<msqrt>
<msub>
<mover>
<mi>w</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</msqrt>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msqrt>
<msub>
<mi>h</mi>
<mi>i</mi>
</msub>
</msqrt>
<mo>-</mo>
<msqrt>
<msub>
<mover>
<mi>h</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</msqrt>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>C</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mi>n</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>n</mi>
<mi>o</mi>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>C</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<munderover>
<mi>&Sigma;</mi>
<mi>i</mi>
<mi>N</mi>
</munderover>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>a</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>a</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&alpha;</mi>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
4.根据权利要求3所述的方法,其特征在于,
所述对所述初始神经网络进行训练,生成训练后的神经网络,包括:
根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
5.根据权利要求1-4中的任一所述的方法,其特征在于,
进一步包括:
预先设置至少一个标准目标的所述预设数量个标准特征值;
在所述利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值之后,进一步包括:
针对每个所述识别目标,执行:
将当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果;
和/或,
所述图像特征值,包括:人脸特征值;
和/或,
所述预设数量包括:128。
6.一种图像识别的装置,其特征在于,包括:
构建单元,用于构建初始神经网络;
神经网络训练单元,用于对所述初始神经网络进行训练,生成训练后的神经网络;
输入单元,用于将待处理图像输入到所述训练后的神经网络中;
识别单元,用于利用所述训练后的神经网络,确定出所述待处理图像中的至少一个识别目标,并生成每个所述识别目标的预设数量个图像特征值。
7.根据权利要求6所述的装置,其特征在于,
所述构建单元,用于将YOLO神经网络的输出结果设置为所述图像特征值,生成基于所述YOLO神经网络的所述初始神经网络。
8.根据权利要求6所述的装置,其特征在于,
所述构建单元,用于设置所述初始神经网络的损失函数,根据所述初始神经网络的损失函数,生成所述初始神经网络;
其中,所述初始神经网络的损失函数为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>c</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>x</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>y</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mi>c</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msqrt>
<msub>
<mi>w</mi>
<mi>i</mi>
</msub>
</msqrt>
<mo>-</mo>
<msqrt>
<msub>
<mover>
<mi>w</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</msqrt>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msqrt>
<msub>
<mi>h</mi>
<mi>i</mi>
</msub>
</msqrt>
<mo>-</mo>
<msqrt>
<msub>
<mover>
<mi>h</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</msqrt>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>C</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mi>n</mi>
</msub>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<msup>
<mi>S</mi>
<mn>2</mn>
</msup>
</munderover>
<munderover>
<mi>&Sigma;</mi>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>B</mi>
</munderover>
<msubsup>
<mn>1</mn>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mrow>
<mi>n</mi>
<mi>o</mi>
<mi>o</mi>
<mi>b</mi>
<mi>j</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>C</mi>
<mo>^</mo>
</mover>
<mi>i</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<munderover>
<mi>&Sigma;</mi>
<mi>i</mi>
<mi>N</mi>
</munderover>
<mrow>
<mo>&lsqb;</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>a</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>p</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>a</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&alpha;</mi>
</mrow>
<mo>&rsqb;</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,λc为位置权重,S2为从当前训练图像中分出的方格的数量,B为每个所述方格产生的定位框的数量,为第i个方格的第j个定位框中含有所述当前训练图像中的识别目标的矩阵,xi为从第i个方格选出的目标定位框的预测出的中心横坐标,为所述目标定位框的实际的中心横坐标,yi为所述目标定位框的预测出的中心纵坐标,为所述目标定位框的实际的中心纵坐标,wi为所述目标定位框的预测出的宽度,为所述目标定位框的实际的宽度,hi为所述目标定位框的预测出的高度,为所述目标定位框的实际的高度,Ci为预测出的第i个方格中有识别目标的概率值,为实际的第i个方格中有识别目标的概率值,λn为没有识别目标的权重,为第i个方格的第j个定位框中不含有所述当前训练图像中的识别目标的矩阵,N为三元组个数,为第i个三元组中的元素,为第i个三元组中与属于相同类别的元素,为第i个三元组中的与属于不同类别的元素,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,为的所述预设数量个图像特征值构成的特征向量值,α为所述三元组的阈值。
9.根据权利要求8所述的装置,其特征在于,
所述神经网络训练单元,用于根据所述初始神经网络的损失函数,对所述初始神经网络进行训练,当所述初始神经网络的损失函数的值满足预设要求时,生成所述训练后的神经网络。
10.根据权利要求6-9中的任一所述的装置,其特征在于,
进一步包括:
设置单元,用于设置至少一个标准目标的所述预设数量个标准特征值;
分类单元,用于针对所述识别单元确定出的每个所述识别目标,执行:
将所述识别单元生成的当前识别目标的所述预设数量个所述图像特征值输入到预先设置的分类器中;
利用所述分类器,将所述当前识别目标的所述预设数量个所述图像特征值与所述至少一个标准目标的所述预设数量个标准特征值进行比对,输出比对结果;
和/或,
所述图像特征值,包括:人脸特征值;
和/或,
所述预设数量包括:128。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710623682.5A CN107392158A (zh) | 2017-07-27 | 2017-07-27 | 一种图像识别的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710623682.5A CN107392158A (zh) | 2017-07-27 | 2017-07-27 | 一种图像识别的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107392158A true CN107392158A (zh) | 2017-11-24 |
Family
ID=60341746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710623682.5A Pending CN107392158A (zh) | 2017-07-27 | 2017-07-27 | 一种图像识别的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392158A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629319A (zh) * | 2018-05-09 | 2018-10-09 | 北京嘀嘀无限科技发展有限公司 | 图像检测方法及*** |
CN109142371A (zh) * | 2018-07-31 | 2019-01-04 | 华南理工大学 | 基于深度学习的高密度柔性基板外观缺陷检测***与方法 |
CN109344850A (zh) * | 2018-07-27 | 2019-02-15 | 华南理工大学 | 一种基于yolo的水表自动检测方法 |
CN109977905A (zh) * | 2019-04-04 | 2019-07-05 | 北京百度网讯科技有限公司 | 用于处理眼底图像的方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268521A (zh) * | 2014-09-23 | 2015-01-07 | 朱毅 | 一种基于非限定类别的卷积神经网络的图像识别方法 |
CN106803071A (zh) * | 2016-12-29 | 2017-06-06 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
CN106897390A (zh) * | 2017-01-24 | 2017-06-27 | 北京大学 | 基于深度度量学习的目标精确检索方法 |
CN106934346A (zh) * | 2017-01-24 | 2017-07-07 | 北京大学 | 一种目标检测性能优化的方法 |
-
2017
- 2017-07-27 CN CN201710623682.5A patent/CN107392158A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268521A (zh) * | 2014-09-23 | 2015-01-07 | 朱毅 | 一种基于非限定类别的卷积神经网络的图像识别方法 |
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
CN106803071A (zh) * | 2016-12-29 | 2017-06-06 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
CN106897390A (zh) * | 2017-01-24 | 2017-06-27 | 北京大学 | 基于深度度量学习的目标精确检索方法 |
CN106934346A (zh) * | 2017-01-24 | 2017-07-07 | 北京大学 | 一种目标检测性能优化的方法 |
Non-Patent Citations (4)
Title |
---|
FLORIAN SCHROFF ET AL.: "FaceNet: A unified embedding for face recognition and clustering", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
JOSEPH REDMON ET AL.: "You Only Look Once: Unified, Real-Time Object Detection", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
俞汝劼 等: "基于深度卷积神经网络的航空器检测与识别", 《计算机应用》 * |
杨眷玉: "基于卷积神经网络的物体识别研究与实现", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629319A (zh) * | 2018-05-09 | 2018-10-09 | 北京嘀嘀无限科技发展有限公司 | 图像检测方法及*** |
CN108629319B (zh) * | 2018-05-09 | 2020-01-07 | 北京嘀嘀无限科技发展有限公司 | 图像检测方法及*** |
CN109344850A (zh) * | 2018-07-27 | 2019-02-15 | 华南理工大学 | 一种基于yolo的水表自动检测方法 |
CN109142371A (zh) * | 2018-07-31 | 2019-01-04 | 华南理工大学 | 基于深度学习的高密度柔性基板外观缺陷检测***与方法 |
CN109977905A (zh) * | 2019-04-04 | 2019-07-05 | 北京百度网讯科技有限公司 | 用于处理眼底图像的方法和装置 |
CN109977905B (zh) * | 2019-04-04 | 2021-08-06 | 北京百度网讯科技有限公司 | 用于处理眼底图像的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392158A (zh) | 一种图像识别的方法及装置 | |
WO2019179403A1 (zh) | 基于序列宽深学习的欺诈交易检测方法 | |
CN105260412A (zh) | 一种图像存储方法、图像检索方法和装置 | |
CN108229543A (zh) | 图像分类模型设计方法及装置 | |
CN106407911A (zh) | 基于图像的眼镜识别方法及装置 | |
JP7373624B2 (ja) | 画像ブロックのスコアに基づく細粒度画像分類の方法及び装置 | |
CN105243139A (zh) | 一种基于深度学习的三维模型检索方法及其检索装置 | |
CN108090498A (zh) | 一种基于深度学习的纤维识别方法及装置 | |
CN108629345A (zh) | 高维图像特征匹配方法和装置 | |
CN109726746A (zh) | 一种模板匹配的方法及装置 | |
CN110059924A (zh) | 合同条款的审查方法、装置、设备及计算机可读存储介质 | |
CN107545038A (zh) | 一种文本分类方法与设备 | |
CN109033220A (zh) | 标注数据的自动选取方法、***、设备和存储介质 | |
CN108920446A (zh) | 一种工程文本的处理方法 | |
CN110147903A (zh) | 用于预测景区的客流量的方法、***及存储介质 | |
CN114925856B (zh) | 一种多粒度感知集成学习方法、装置、计算机设备和介质 | |
Yao et al. | Real-time method for traffic sign detection and recognition based on YOLOv3-tiny with multiscale feature extraction | |
CN108921693A (zh) | 一种数据的衍生方法、装置及设备 | |
CN113255767B (zh) | 票据分类方法、装置、设备及存储介质 | |
CN110263817A (zh) | 一种基于用户账号的风险等级划分方法及装置 | |
CN108549899A (zh) | 一种图像识别方法及装置 | |
CN105824998B (zh) | 一种***掘进施工智能设计***与方法 | |
CN117235633A (zh) | 机构分类方法、装置、计算机设备及存储介质 | |
CN109101984A (zh) | 一种基于卷积神经网络的图像识别方法及装置 | |
CN108805152A (zh) | 一种场景分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171124 |
|
RJ01 | Rejection of invention patent application after publication |