CN113158985A - 一种分类识别的方法和设备 - Google Patents

一种分类识别的方法和设备 Download PDF

Info

Publication number
CN113158985A
CN113158985A CN202110540892.4A CN202110540892A CN113158985A CN 113158985 A CN113158985 A CN 113158985A CN 202110540892 A CN202110540892 A CN 202110540892A CN 113158985 A CN113158985 A CN 113158985A
Authority
CN
China
Prior art keywords
model
training
submodel
sub
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110540892.4A
Other languages
English (en)
Other versions
CN113158985B (zh
Inventor
阮书文
杨文远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Chuangzhi Chain Technology Co ltd
Original Assignee
Shenzhen Chuangzhi Chain Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Chuangzhi Chain Technology Co ltd filed Critical Shenzhen Chuangzhi Chain Technology Co ltd
Priority to CN202110540892.4A priority Critical patent/CN113158985B/zh
Publication of CN113158985A publication Critical patent/CN113158985A/zh
Application granted granted Critical
Publication of CN113158985B publication Critical patent/CN113158985B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种分类识别的方法和设备,包括:获取样本数据;通过训练数据训练得到父模型;将测试数据中的测试图片导入父模型,得到父模型的输出结果;将输出结果作为子模型的第一目标函数,将测试数据中测试图片的标签作为子模型的第二目标函数;基于第一目标函数与第二目标函数两者的目标损失函数以及三元特征损失函数确定子模型的子模型损失函数;通过子模型损失函数对子模型训练;将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;通过训练好的分类器对待识别场景中的产品进行分类识别。本方案中生成的分类器可以取缔全连接和softmax分类。因为在cpu上运行,没那么多参数计算,速度会更快。

Description

一种分类识别的方法和设备
技术领域
本发明涉及图像识别技术领域,尤其涉及一种分类识别的方法和设备。
背景技术
目前,图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,是应用深度学习算法的一种实践应用。现阶段图像识别技术一般分为人脸识别与商品识别,人脸识别主要运用在安全检查、身份核验与移动支付中;商品识别主要运用在商品流通过程中,特别是无人货架、智能零售柜等无人零售领域等。但是目前的图像识别可以适用的范围有限,不同的应用场景需要重新训练不同的模型,导致效率低下,无法满足现有的识别需要。由此,目前需要有一种方案来解决现有技术中的问题。
发明内容
有鉴于此,本发明提出了一种分类识别的方法和设备,用于解决现有技术中的问题。
具体的,本发明提出了以下具体的实施例:
本发明实施例提出了一种分类识别的方法,包括:
获取样本数据,并将所述样本数据划分为训练数据、验证数据和测试数据;
通过所述训练数据训练得到父模型;
将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
通过所述子模型损失函数对所述子模型训练;
将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;
通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
在一个具体的实施例中,所述分类器包括SVM、GBDT、XGBOOST或KNN。
在一个具体的实施例中,在对所述子模型进行训练时,多次变更训练用的图片的分辨率。
在一个具体的实施例中,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
在一个具体的实施例中,所述子模型损失函数包括以下公式:
Figure BDA0003071500780000021
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure BDA0003071500780000031
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
本发明实施例还提出了一种分类识别的设备,包括:
获取模块,用于获取样本数据,并将所述样本数据划分为训练数据和测试数据;
父模型模块,用于通过所述训练数据训练得到父模型;
导入模块,用于将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
设置模块,用于将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
确定模块,用于基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
子模型模块,用于通过所述子模型损失函数对所述子模型训练;
分类器模块,用于将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;
识别模块,用于通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
在一个具体的实施例中,所述分类器包括SVM、GBDT或KNN。
在一个具体的实施例中,在对所述子模型进行训练时,多次变更训练用的图片的分辨率。
在一个具体的实施例中,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
在一个具体的实施例中,所述子模型损失函数包括以下公式:
Figure BDA0003071500780000041
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure BDA0003071500780000042
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
以此,本发明实施例提出了一种分类识别的方法和设备,包括:获取样本数据,并将所述样本数据划分为训练数据、验证数据和测试数据;通过所述训练数据训练得到父模型;将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;通过所述子模型损失函数对所述子模型训练;将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。本方案中生成的分类器可以取缔全连接和softmax分类。因为在cpu上运行,没那么多参数计算,速度会更快。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对本发明保护范围的限定。在各个附图中,类似的构成部分采用类似的编号。
图1示出了本发明实施例提出的一种分类识别的方法的流程示意图;
图2示出了本发明实施例提出的一种分类识别的方法的流程示意图;
图3示出了本发明实施例提出的一种分类识别的方法的流程示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下文中,可在本发明的各种实施例中使用的术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。
此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明的各种实施例中被清楚地限定。
实施例1
本发明实施例1公开了一种分类识别的方法,如图1所示,包括以下步骤:
步骤101、获取样本数据,并将所述样本数据划分为训练数据、验证数据和测试数据;
步骤102、通过所述训练数据训练得到父模型;
具体的,将所有数据图片随机分为训练集、验证集和测试集。首先将图片在一个框架复杂,参数量较大的父模型中进行训练,对训练好的父模型固定。在具体的训练过程中,训练数据中的图片也进行多次分辨率交替使用,以此,让训练得到的模型可以抵抗不同分辨率的图片被拉伸,放缩的影响。父模型是一种结构复杂,参数量,计算量都比较大的模型。
具体的,训练过程中对输入图片的分辨率进行多次变换(比如:前20个批次,图片分辨率resize为224。20~60个批次,分辨率resize为280,60~120个批次,分辨率resize为360),多尺度训练,为了让模型抵抗不同分辨率的图片被拉伸,放缩的影响。
步骤103、将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
步骤104、将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
步骤105、基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
具体的,如图2所示,对训练好的父模型固定,以测试图片在父模型中的输出结果y作为子模型的第一个目标函数,此外测试图片的真实标签(y)作为学生模型的另一个目标函数,学生模型的损失函数为这两个目标损失函数以及三元特征损失函数的权重和。相对父模型,子模型是一种结构相对简单,参数量和计算量都较小的模型。
具体的,所述子模型损失函数包括以下公式:
Figure BDA0003071500780000071
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure BDA0003071500780000072
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
具体的,三元损失函数,相当于将特征值映射到高维空间做欧氏距离的分类;通过将锚正例和正例的距离缩小,锚正例和负例的距离拉大,即相同类型间的距离缩小,不同类型间的距离增大(距离为欧氏距离)。
步骤106、通过所述子模型损失函数对所述子模型训练;在对所述子模型进行训练时,多次变更训练用的图片的分辨率。具体的变更分辨率的过程与上述训练父模型的过程相同。且进一步的,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
步骤107、将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;具体的,所述分类器包括SVM(支持向量机)、GBDT(梯度下降树)、XGBOOST(Extreme Gradient Boosting,极致梯度提升)或KNN(邻近算法)。
步骤108、通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
在本方案中的具体实施过程:固定模型框架,参数,模型最后一层为特征图(固定n维,n可以为128或256,512等),进而再训练一个分类模型(SVM/GBDT或者KNN)。对于不同商场中实际的农副品类有500,200,800,300种等等。我们仅仅需要训练子模型最后一层特征与商场品种之间的分类模型。保留参数就可以作为不同商场使用的新模型,这样可以快速,高效,动态的训练实施。
运行过程:首先训练一个复杂的大模型,将其输出作为我们小模型的目标值,进而通过控制三个损失函数,小模型的预测值和大模型的预测值,小模型的预测值和标签真实值,倒数第二层的特征值的三元损失函数(相当于将特征值映射到高维空间做欧氏距离的分类),训练过程中多次变更图片分辨率(224,280,360…)。训练好小模型后,进而根据倒数第二层特征与真实标签的关系训练一个SVM或GBDT分类器,相当于用此分类器取缔全连接和softmax分类。因为在cpu上运行,没那么多参数计算,速度会更快。
实施例2
本发明实施例2还公开了一种分类识别的设备,如图3所示,包括:
获取模块201,用于获取样本数据,并将所述样本数据划分为训练数据和测试数据;
父模型模块202,用于通过所述训练数据训练得到父模型;
导入模块203,用于将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
设置模块204,用于将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
确定模块205,用于基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
子模型模块206,用于通过所述子模型损失函数对所述子模型训练;
分类器模块207,用于将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;
识别模块208,用于通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
在一个具体的实施例中,所述分类器包括SVM、GBDT、XGBOOST或KNN。
在一个具体的实施例中,在对所述子模型进行训练时,多次变更训练用的图片的分辨率。
在一个具体的实施例中,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
在一个具体的实施例中,所述子模型损失函数包括以下公式:
Figure BDA0003071500780000091
Figure BDA0003071500780000101
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure BDA0003071500780000102
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
以此,本发明实施例提出了一种分类识别的方法和设备,包括:获取样本数据,并将所述样本数据划分为训练数据、验证数据和测试数据;通过所述训练数据训练得到父模型;将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;通过所述子模型损失函数对所述子模型训练;将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。本方案中生成的分类器可以取缔全连接和softmax分类。因为在cpu上运行,没那么多参数计算,速度会更快。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和结构图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,结构图和/或流程图中的每个方框、以及结构图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块或单元可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或更多个模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是智能手机、个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种分类识别的方法,其特征在于,包括:
获取样本数据,并将所述样本数据划分为训练数据、验证数据和测试数据;
通过所述训练数据训练得到父模型;
将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
通过所述子模型损失函数对所述子模型训练;
将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;
通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
2.如权利要求1所述的方法,其特征在于,所述分类器包括SVM、GBDT或KNN。
3.如权利要求1所述的方法,其特征在于,在对所述子模型进行训练时,多次变更训练用的图片的分辨率。
4.如权利要求1所述的方法,其特征在于,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
5.如权利要求1所述的方法,其特征在于,所述子模型损失函数包括以下公式:
Figure FDA0003071500770000011
Figure FDA0003071500770000021
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure FDA0003071500770000022
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
6.一种分类识别的设备,其特征在于,包括:
获取模块,用于获取样本数据,并将所述样本数据划分为训练数据和测试数据;
父模型模块,用于通过所述训练数据训练得到父模型;
导入模块,用于将所述测试数据中的测试图片导入所述父模型,得到所述父模型的输出结果;
设置模块,用于将所述输出结果作为子模型的第一目标函数,将所述测试数据中测试图片的标签作为所述子模型的第二目标函数;
确定模块,用于基于所述第一目标函数与所述第二目标函数两者的目标损失函数以及三元特征损失函数确定所述子模型的子模型损失函数;
子模型模块,用于通过所述子模型损失函数对所述子模型训练;
分类器模块,用于将训练好的子模型中倒数第二层的特征与待识别场景中的样本数据的标签训练分类器;
识别模块,用于通过训练好的所述分类器对所述待识别场景中的产品进行分类识别。
7.如权利要求6所述的设备,其特征在于,所述分类器包括SVM、GBDT、XGBOOST或KNN。
8.如权利要求6所述的设备,其特征在于,在对所述子模型进行训练时,多次变更训练用的图片的分辨率。
9.如权利要求6所述的设备,其特征在于,所述训练好的子模型为多个训练得到的子模型中分类效果最好的模型。
10.如权利要求6所述的设备,其特征在于,所述子模型损失函数包括以下公式:
Figure FDA0003071500770000031
其中,loss1为所述子模型损失函数;所述б为第一目标函数的损失函数的权重;所述β为第二目标函数的损失函数的权重;所述γ为三元特征损失函数的权重;所述y为第一目标函数;所述y为子模型的输出;y为真实标签;所述N为每个批量的图片数;所述i为图片数;所述
Figure FDA0003071500770000032
训练用的图片;所述a为正例锚图;所述p为正例图;所述n为负例图;所述α为两个不同类之间的间隙,是可调节参数。
CN202110540892.4A 2021-05-18 2021-05-18 一种分类识别的方法和设备 Active CN113158985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110540892.4A CN113158985B (zh) 2021-05-18 2021-05-18 一种分类识别的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110540892.4A CN113158985B (zh) 2021-05-18 2021-05-18 一种分类识别的方法和设备

Publications (2)

Publication Number Publication Date
CN113158985A true CN113158985A (zh) 2021-07-23
CN113158985B CN113158985B (zh) 2024-05-14

Family

ID=76876550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110540892.4A Active CN113158985B (zh) 2021-05-18 2021-05-18 一种分类识别的方法和设备

Country Status (1)

Country Link
CN (1) CN113158985B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178364A (zh) * 2019-12-31 2020-05-19 北京奇艺世纪科技有限公司 一种图像识别方法和装置
CN111325726A (zh) * 2020-02-19 2020-06-23 腾讯医疗健康(深圳)有限公司 模型训练方法、图像处理方法、装置、设备及存储介质
CN111598190A (zh) * 2020-07-21 2020-08-28 腾讯科技(深圳)有限公司 图像目标识别模型的训练方法、图像识别方法及装置
US20200285896A1 (en) * 2019-03-09 2020-09-10 Tongji University Method for person re-identification based on deep model with multi-loss fusion training strategy
US20210012198A1 (en) * 2018-05-31 2021-01-14 Huawei Technologies Co., Ltd. Method for training deep neural network and apparatus
CN112396027A (zh) * 2020-12-01 2021-02-23 北京交通大学 基于图卷积神经网络的车辆重识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210012198A1 (en) * 2018-05-31 2021-01-14 Huawei Technologies Co., Ltd. Method for training deep neural network and apparatus
US20200285896A1 (en) * 2019-03-09 2020-09-10 Tongji University Method for person re-identification based on deep model with multi-loss fusion training strategy
CN111178364A (zh) * 2019-12-31 2020-05-19 北京奇艺世纪科技有限公司 一种图像识别方法和装置
CN111325726A (zh) * 2020-02-19 2020-06-23 腾讯医疗健康(深圳)有限公司 模型训练方法、图像处理方法、装置、设备及存储介质
CN111598190A (zh) * 2020-07-21 2020-08-28 腾讯科技(深圳)有限公司 图像目标识别模型的训练方法、图像识别方法及装置
CN112396027A (zh) * 2020-12-01 2021-02-23 北京交通大学 基于图卷积神经网络的车辆重识别方法

Also Published As

Publication number Publication date
CN113158985B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
CN108491817B (zh) 一种事件检测模型训练方法、装置以及事件检测方法
US10102421B2 (en) Method and device for face recognition in video
Thai et al. Image classification using support vector machine and artificial neural network
CN109446889B (zh) 基于孪生匹配网络的物体追踪方法及装置
KR101640998B1 (ko) 화상 처리 장치 및 화상 처리 방법
US20170124409A1 (en) Cascaded neural network with scale dependent pooling for object detection
US9697439B2 (en) Efficient object detection with patch-level window processing
CN101470809B (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN110826379B (zh) 一种基于特征复用与YOLOv3的目标检测方法
US9489566B2 (en) Image recognition apparatus and image recognition method for identifying object
KR101330636B1 (ko) 얼굴시점 결정장치 및 방법과 이를 채용하는 얼굴검출장치및 방법
CN109685830B (zh) 目标跟踪方法、装置和设备及计算机存储介质
CN110569971B (zh) 一种基于LeakyRelu激活函数的卷积神经网络单目标识别方法
CN112651364B (zh) 图像处理方法、装置、电子设备及存储介质
CN114495006A (zh) 遗留物体的检测方法、装置及存储介质
Silva et al. Superpixel-based online wagging one-class ensemble for feature selection in foreground/background separation
CN113642540B (zh) 一种基于胶囊网络的人脸表情识别方法及装置
Hurtik et al. YOLO-ASC: you only look once and see contours
Putro et al. Fast face-CPU: a real-time fast face detector on CPU using deep learning
CN113158985B (zh) 一种分类识别的方法和设备
KR101419837B1 (ko) 분할 이미지 셀을 이용하는 아다부스트 기반의 보행자 검출 방법 및 장치
CN115205573A (zh) 图像处理方法、装置及设备
Purohit et al. Vehicle classification and surveillance using machine learning technique
Ko et al. View-independent object detection using shared local features
Maity Improvised salient object detection and manipulation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant