CN105938558A - 学习方法 - Google Patents
学习方法 Download PDFInfo
- Publication number
- CN105938558A CN105938558A CN201610094433.7A CN201610094433A CN105938558A CN 105938558 A CN105938558 A CN 105938558A CN 201610094433 A CN201610094433 A CN 201610094433A CN 105938558 A CN105938558 A CN 105938558A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- classification
- thick
- neutral net
- detailed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24317—Piecewise classification, i.e. whereby each classification requires several discriminant rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/146—Methods for optical code recognition the method including quality enhancement steps
- G06K7/1482—Methods for optical code recognition the method including quality enhancement steps using fuzzy logic or natural solvers, such as neural networks, genetic algorithms and simulated annealing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Quality & Reliability (AREA)
- Toxicology (AREA)
- Fuzzy Systems (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供能够高精度地进行图像识别并且提高图像识别的处理速度的分类器的学习方法等。学习方法包括:第1步骤(S1),使由第1神经网络构成的粗类别分类器将图像组分类为包含多个详细类别的多个粗类别而学习该多个粗类别的每一个粗类别的共同的特征即第1特征,所述图像组被赋予了表示各自的详细类别的标签;以及第2步骤(S2),使由第2神经网络构成的详细类别分类器将图像组分类为详细类别而学习该详细类别的每一个详细类别的共同的特征即第2特征,由此进行分类器的学习,所述第2神经网络与在第1步骤进行了学习的上述第1神经网络的最终层以外相同而仅该最终层不同。
Description
技术领域
本公开涉及学习方法,具体地,涉及由神经网络构成、用于对图像进行分类的分类器的学习方法。
背景技术
近年,要求使用用于识别在图像中的何处具有何内容的技术即图像识别技术,高速且高精度地识别各种物体。例如在非专利文献1中,公开了通过利用多个卷积神经网络分类器(以下记载为分类器)能够高精度地进行图像识别的图像识别技术。
【非专利文献1】Z.Yan、V.Jagadeesh、D.DeCoste、W.Di和R.Piramuthu的“HD-CNN:Hierarchical Deep Convolutional NeuralNetwork for Image Classification”,其作为会议文献发表在ICLR2015,URL:http://arxiv.org/pdf/1410.0736v2.pdf,2014年12月。
发明内容
但是,上述现有技术由于是在粗类别分类器之后连接多个详细类别分类器的构成,所以存在图像识别的处理速度慢的问题。另外,在上述现有技术中,还存在在由粗类别分类器误分类了的情况下分类结果的正确率会降低的问题。
本公开是为了解决上述问题而提出的,其目的在于提供能够提高图像识别的精度及图像识别的处理速度的分类器的学习方法。
为了解决上述问题,本公开的一方式所涉及的分类器的学习方法,是用于对图像进行分类的分类器的学习方法,包括:第1步骤,使由第1神经网络构成的粗类别分类器将图像组分类为包含多个详细类别的多个粗类别而学习该多个粗类别的每一个粗类别的共同的特征即第1特征,所述图像组是被赋予了表示各自的详细类别的标签的多个图像的图像组;以及第2步骤,使由第2神经网络构成的详细类别分类器将上述图像组分类为详细类别而学习该详细类别的每一个详细类别的共同的特征即第2特征,由此进行上述分类器的学习,所述第2神经网络与在上述第1步骤进行了学习的上述第1神经网络的最终层以外相同而仅该最终层不同。
另外,这些全面或具体的方式既可以由***、方法、集成电路、计算机程序或能够由计算机读取的CD-ROM等记录介质实现,也可以由***、方法、集成电路、计算机程序及记录介质的任意组合实现。
根据本公开,能够实现可以高精度地进行图像识别并且提高图像识别的处理速度的分类器的学习方法等。
附图说明
图1是表示实施方式1的学习***的构成的一例的方框图。
图2A是用于说明在实施方式1的学习***进行的学习处理中使用的粗类别分类器的构成的图。
图2B是用于说明在实施方式1的学习***进行的学习处理中使用的详细类别分类器的构成的图。
图3A是表示构成图2A所示的粗类别分类器的第1神经网络的一例的图。
图3B是表示构成图2B所示的详细类别分类器的第2神经网络的一例的图。
图4是用于说明实施方式1的分类器进行识别处理时的构成的图。
图5是表示实施方式1中的学习处理的流程图。
图6A是表示实施方式1中的粗类别学习的结果的一例的图。
图6B是表示实施方式1中的详细类别学习的结果的一例的图。
图7是表示图5所示的步骤S1的详细处理的一例的流程图。
图8是表示图5所示的步骤S2的详细处理的一例的流程图。
图9A是表示变形例1中的学习***的构成的一例的方框图。
图9B是表示图9A所示的粗类别制作部的详细构成的一例的方框图。
图10A是表示变形例1中的粗类别学习的详细处理的一例的流程图。
图10B是表示图10A所示的步骤S10的详细处理的一例的流程图。
图11是表示变形例2中的第3神经网络的一例的图。
图12A是表示构成变形例2中的粗类别分类器的第1神经网络的一例的图。
图12B是表示构成变形例2中的详细类别分类器的第2神经网络的一例的图。
图13是表示实施方式2中的学习***的构成的一例的方框图。
图14是用于说明在实施方式2中的学习***进行的学习处理中使用的详细类别分类器的构成的图。
图15是表示实施方式2中的详细类别学习的详细处理的一例的流程图。
图16是用于说明现有的分类器的构成及学习方法的图。
标号的说明
1、1A、1B学习***,2信息取得部,3分类器设计部,4分类器学习部,5保存部,6粗类别制作部,7权重设定部,10分类器,10a、10c粗类别分类器,10b、10d、10e详细类别分类器,61粗类别制作处理部,62粗类别标签附加部。
具体实施方式
(作为发明的基础的知识)
图像识别技术一般分为1)从图像提取特征量的提取处理和2)根据特征量判别物体的判别处理这两个阶段。例如,在提取处理中,从图像中的识别对象物体提取在亮度的分布和/或亮度的差别(边缘)等的识别中利用的特征量。另外,例如在判别处理中,根据所提取的特征量,利用Boosting和/或SVM(Support Vector Machine:支持向量机)等统计机器学习方法来判别是否为识别对象。
以往,在提取处理中使用的特征量提取过滤器由人手设计。近年,由于拍摄环境的提升和/或经由因特网的大量的学习数据收集成为现实、及GPU等大规模计算机环境的基础设施的配备,开展了自动进行特征量提取过滤器的设计的方式的研究。这样的方法之一被称为深度学习(DeepLearning)。特别地,在图像识别的领域中,研究了将特征量提取过滤器视为针对2维图像的卷积过滤器处理的卷积神经网络。该卷积神经网络具有在深度学习技术中也与图像识别相容性良好这一特征。
在非专利文献1中,公开了使用深度学习的分类器的构成及学习方法。以下,使用图16说明非专利文献1的分类器。图16是用于说明现有的分类器的构成及学习方法的图。
图16所示的分类器具备粗类别分类器900和详细类别分类器901、902、903。粗类别分类器900是进行犬和/或猫这样的粗略分类的分类器。详细类别分类器901、902、903是进行柴犬和/或柯基犬、三色猫等详细分类的分类器。在详细类别分类器901、902、903中,通过使其进行学习以便擅于某特定的类别的分类,能够进行上述的详细分类。
这样,在图16所示的分类器中,在进行犬和/或猫这样的粗略分类的粗类别分类器900之后,连接进行柴犬和/或柯基犬、三色猫等详细分类的详细类别分类器901、902、903。在对图16所示的分类器例如提供了柯基犬(犬)的图像作为输入图像的情况下,在由粗类别分类器900判别为犬后,分配给擅于犬类别的分类的例如详细类别分类器901,由详细类别分类器901判别为柯基犬。
如上所述,在非专利文献1中,具备在进行粗略分类的分类器之后连接进行详细分类的分类器的构成。由此,通过简化粗类别分类器、详细类别分类器各自解决的问题并将它们组合,能够高精度地进行图像识别,能够更高精度地对图像进行分类。
但是,非专利文献1的分类器是在粗类别分类器之后连接多个详细类别分类器的构成,神经网络的大小(神经元数量和/或结合的数量)大。因此,在图像识别时需要更多的计算处理,会产生图像识别的处理速度变慢的问题。另外,在非专利文献1的分类器中,若由粗类别分类器误分类,则将会由与发生了错误的粗类别的分类对应的详细类别分类器进一步进行详细分类,因此也存在分类结果的正确率将降低的问题。
为了解决这样的问题,本公开的一方式所涉及的分类器的学习方法是用于对图像进行分类的分类器的学习方法,包括:第1步骤,使由第1神经网络构成的粗类别分类器将图像组分类为包含多个详细类别的多个粗类别而学习该多个粗类别的每一个粗类别的共同的特征即第1特征,所述图像组是被赋予了表示各自的详细类别的标签的多个图像的图像组;以及第2步骤,使由第2神经网络构成的详细类别分类器将上述图像组分类为详细类别而学习该详细类别的每一个详细类别的共同的特征即第2特征,由此进行上述分类器的学习,所述第2神经网络与在上述第1步骤进行了学习的上述第1神经网络的最终层以外相同而仅该最终层不同。
由此,由于能够维持神经网络构造的大小(size),因此,与现有技术相比,能够不使图像识别(分类)的处理速度降低而高精度地进行图像识别(分类)。
另外,也可以例如上述第1步骤包括:第1设计步骤,以数量与基于表示上述详细类别的标签的内容而制作的上述粗类别的数量相同的神经元设计上述第1神经网络的最终层的神经元;以及第1学习步骤,使由所设计的上述第1神经网络构成的上述粗类别分类器取得上述图像组并学习上述第1特征,上述第2步骤包括:第2设计步骤,通过将在上述第1步骤进行了学习的上述第1神经网络的最终层的神经元改变为数量与上述详细类别的数量相同的神经元,来设计上述第2神经网络;以及第2学习步骤,使由所设计的上述第2神经网络构成的上述详细类别分类器取得上述图像组并学习上述第2特征,由此进行上述分类器的学习。
另外,也可以例如在上述第2设计步骤中,通过将在上述第1学习步骤进行了学习的上述第1神经网络的最终层的神经元置换为与上述详细类别的数量相同的神经元,来设计上述第2神经网络。
另外,也可以例如上述详细类别分类器和上述粗类别分类器使用第3神经网络而构成,在上述学习方法中,在上述第1步骤之前,还包括第3设计步骤,上述第3设计步骤是以与将上述粗类别的数量和上述详细类别的数量相加而得到的数量相同的数量以上的神经元来设计上述第3神经网络的最终层的神经元的步骤,在上述第1设计步骤中,将使用上述第3神经网络的最终层的神经元之中数量与上述粗类别的数量相同的神经元的上述第3神经网络设计作为上述第1神经网络,由此将上述第1神经网络的最终层的神经元设计为数量与基于表示上述详细类别的标签的内容而制作的上述粗类别的数量相同的神经元,在上述第2设计步骤中,将使用上述第3神经网络的最终层的神经元之中与上述第1神经网络的最终层的神经元不同且数量与上述详细类别的数量相同的神经元的上述第3神经网络设计作为上述第2神经网络,由此将在上述第1步骤进行了学习的上述第1神经网络的最终层的神经元改变为与上述详细类别的数量相同数量的神经元而设计作为上述第2神经网络。
另外,也可以例如在上述第2设计步骤中,还包括:将表示上述第2神经网络的最终层与该最终层的前一层的结合效率的上述第2神经网络的最终层的权重设定成随机值的步骤。
另外,也可以例如在上述第2设计步骤中,还包括:使用将上述第1神经网络的最终层的第1权重基于上述多个粗类别和该多个粗类别中所包含的多个详细类别的关系性按比例分配而得到的值,设定表示上述第2神经网络的最终层与该最终层的前一层的结合效率的上述第2神经网络的最终层的第2权重的步骤,所述第1神经网络的最终层的第1权重是在上述第1学习步骤进行了学习时获得的表示上述第1神经网络的最终层与该最终层的前一层的结合效率的权重。
另外,也可以例如在上述学习方法中,还包括:将在上述第2步骤学习了上述第2特征的上述详细类别分类器作为上述分类器保存的步骤。
另外,也可以例如在上述第1步骤中,还包括:基于对上述多个图像分别赋予的表示上述详细类别的标签的内容,制作上述多个粗类别的步骤。
另外,也可以例如在上述第1步骤中,还包括:基于上述多个图像各自的图像的相似度,制作上述多个粗类别的步骤。
另外,也可以例如上述学习方法还包括:第3步骤,使由第3神经网络构成的第3粗类别分类器将上述图像组分类为包含多个详细类别的多个第3粗类别而学习该多个第3粗类别的每一个第3粗类别的共同的特征即第3特征,在上述第1步骤中,包括:使由上述第1神经网络构成的上述详细类别分类器将上述图像组分类为上述粗类别而学习该详细类别的每一个详细类别的上述第1特征的学习步骤,所述第1神经网络是与在上述第3步骤进行了学习的上述第3神经网络的最终层以外相同而仅该最终层不同的神经网络,上述多个粗类别通过分别包含多个第3粗类别,包含该多个第3粗类别中所包含的多个详细类别。
另外,例如上述第1步骤和上述第2步骤中的至少一个步骤可以由处理器执行。
以下说明的实施方式都表示本公开的一具体例。以下的实施方式中所示的数值、形状、构成要素、步骤、步骤的顺序等为一例,并非要限定本公开。另外,对于以下的实施方式中的构成要素之中在表示最上位概念的独立权利要求中未记载的构成要素,以任意的构成要素进行说明。另外,在全部的实施方式中,也可以使各自的内容组合。
(实施方式1)
以下,参照附图,进行实施方式1的分类器10的学习方法等的说明。
[学习***1的构成]
图1是表示实施方式1的学习***1的构成的一例的方框图。图2A是用于说明在实施方式1的学习***1进行的学习处理中使用的粗类别分类器10a的构成的图。图2B是用于说明在实施方式1的学习***1进行的学习处理中使用的详细类别分类器10b的构成的图。图3A是表示构成图2A所示的粗类别分类器10a的第1神经网络的一例的图。图3B是表示构成图2B所示的详细类别分类器10b的第2神经网络的一例的图。
图1所示的学习***1具备信息取得部2、分类器设计部3、分类器学习部4、保存部5,是用于进行对图像分类的分类器10的学习的***。
信息取得部2取得预先准备的多个图像(图像组)的数据集即被赋予了表示详细类别的标签的图像组。另外,信息取得部2取得在保存部5保存的粗类别分类器10a、即在保存部5保存的构成粗类别分类器10a的第1神经网络(表示构造和/或阈值、权重、结合状态等的参数)。
分类器学习部4基于图像识别中的粗略到详细的考虑方法,通过进行图2A所示的粗类别分类器10a的学习处理(粗类别学习)和图2B所示的详细类别分类器10b的学习处理(详细类别学习),进行分类器10的学习。
更具体地,分类器学习部4使粗类别分类器10a取得被赋予了表示各自的详细类别的标签的图像组,所述粗类别分类器10a由通过分类器设计部3设计的第1神经网络构成。然后,分类器学习部4使粗类别分类器10a将该图像组分类为包含多个详细类别的多个粗类别,进行学习该多个粗类别的每一个粗类别的共同的特征即第1特征的粗类别学习。另外,分类器学习部4也可以在保存部5保存进行了粗类别学习的粗类别分类器10a、即构成粗类别分类器10a的第1神经网络(表示构造和/或阈值、权重、结合状态等的参数)。
另外,分类器学习部4使详细类别分类器10b取得该图像组,所述详细类别分类器10b由通过分类器设计部3设计的、与进行了粗类别学习的第1神经网络的最终层以外相同而仅该最终层不同的第2神经网络构成。然后,分类器学习部4使该图像组分类为详细类别,进行学习该详细类别的每一个详细类别的共同的特征即第2特征的详细类别学习。然后,分类器学习部4将详细类别学习后的详细类别分类器10b、即构成详细类别分类器10b的第2神经网络(表示构造和/或阈值、权重、结合状态等的参数)作为分类器10保存在保存部5。
这样,分类器学习部4使分类器10以多阶段(在本实施方式中为两阶段)学习。
分类器设计部3确定详细类别的数量或所制作的粗类别的数量作为分类器的输出数(神经元的数量),设计粗类别分类器10a或详细类别分类器10b的构成及参数。
更具体地,分类器设计部3将构成粗类别分类器10a的第1神经网络的最终层的神经元设计成与基于表示上述的详细类别的标签的内容而制作的粗类别的数量相同数量的神经元。在本实施方式中,分类器设计部3设计包括例如图3A所示的输入层、中间层和最终层的第1神经网络,作为图2A所示的粗类别分类器10a。这里,第1神经网络的最终层的神经元设定成与粗类别的数量相同数量的神经元。
另外,分类器设计部3通过将进行了粗类别学习的粗类别分类器10a的第1神经网络的最终层的神经元改变为与详细类别的数量相同数量的神经元,来设计第2神经网络。分类器设计部3例如通过将进行了粗类别学习的第1神经网络的最终层的神经元置换为与详细类别的数量相同数量的神经元,来设计第2神经网络。这里,分类器设计部3也可以将表示第2神经网络的最终层与该最终层的前一层的结合效率的权重设定成随机值。
在本实施方式中,分类器设计部3设计包括例如图3B所示的输入层、中间层和最终层的第2神经网络,作为例如图2B所示的详细类别分类器10b。这里,第2神经网络设计为以与进行了粗类别学习的第1神经网络的最终层以外相同而仅该最终层不同的方式,置换(替换)最终层。然后,第2神经网络的最终层的神经元设定成与详细类别的数量相同数量的神经元。由于表示第2神经网络的最终层与该最终层的前一层的结合效率的权重在详细类别学习时学习(追加学习),所以设定怎样的值都可以,例如设定为随机值。
保存部5保存进行了粗类别学习的分类器10(粗类别分类器10a)、即构成粗类别分类器10a的第1神经网络(表示构造和/或阈值、权重、结合状态等的参数)。另外,保存部5保存详细类别学习后的分类器10(详细类别分类器10b)、即构成详细类别分类器10b的第2神经网络(表示构造和/或阈值、权重、结合状态等的参数),作为分类器10。
图4是用于说明实施方式1的分类器10进行识别处理时的构成的图。
分类器10是用于对图像进行分类的分类器,在被输入了分类对象物(输入图像)时,执行识别处理及分类处理,并输出其结果(分类结果)。分类器10与图4所示的构成即详细类别学习后的详细类别分类器10b相同。
这样,分类器10由于由大小(神经元数量和/或结合的数量)小的神经网络构成,另一方面基于图像识别中的粗略到详细的考虑方法通过学习***1进行多阶段学习,所以能够高精度地进行图像识别并且提高图像识别(分类)的处理速度。
[学习***1的学习处理]
接着,用图说明以上那样构成的学习***1的学习处理。
图5是表示实施方式1中的学习处理的流程图。在图5中,作为多阶段的学习处理的一例,示出了两阶段学习处理。图6A是表示实施方式1中的粗类别学习的结果的一例的图。图6B是表示实施方式1中的详细类别学习的结果的一例的图。
首先,在步骤S1,学习***1进行粗类别分类器10a的学习处理(粗类别学习)。
更具体地,学习***1使由第1神经网络构成的粗类别分类器10a,将被赋予了表示各自的详细类别的标签的图像组分类为包含多个详细类别的多个粗类别,学习该多个粗类别的每一个粗类别的共同的特征即第1特征。例如如图6A所示,学习***1使粗类别分类器10a将图像数据集即图像组分类为狗、鸟、机器等多个粗类别(画边界线),在被赋予了表示分类为相同粗类别的详细类别的标签的图像间提取共同特征(第1特征)。然后,学习***1使粗类别分类器10a进行学习(粗类别学习)以便识别所提取的第1特征。
接着,在步骤S2,学习***1进行详细类别分类器10b的学习处理(详细类别学习)。
更具体地,通过使由第2神经网络构成的详细类别分类器10b将该图像组分类为详细类别,学习该详细类别的每一个详细类别的共同的特征即第2特征,来进行分类器10的学习,所述第2神经网络与在步骤S1学习的第1神经网络的最终层以外相同而仅该最终层不同。例如如图6B所示,学习***1对详细类别分类器10b,将对同一图像数据集即上述图像组在步骤S1分类后的(画边界线)狗、鸟、机器等多个粗类别设为初始值。学习***1进一步分类为柯基犬(corgi)、罗特韦尔狗(rottweiler)、金毛猎犬(golden retriever)、收音机、打印机、计算机、白鹳、信天翁、赤翻石鹬等详细类别(画边界线),提取分类后的详细类别的每一个详细类别的共同的特征(第2特征)。然后,学习***1使详细类别分类器10b进行追加学习(详细类别学习)以便识别所提取的第2特征。
由此,与现有的分类器比较,由于能够在将神经网络构造的大小维持得小的情况下抑制局部解和/或过度学习,所以能够不使图像识别(分类)的处理速度降低而高精度地进行图像识别。
以下,说明步骤S1(粗类别学习)及步骤S2(详细类别学习)的详细处理。
图7是表示图5所示的步骤S1的详细处理的一例的流程图。
在步骤S1,首先,学习***1将构成粗类别分类器10a的第1神经网络的最终层的神经元设计为与基于表示详细类别的标签的内容而制作的粗类别的数量相同数量的神经元(S11)。即,学习***1设计构成粗类别分类器10a的第1神经网络。
接着,学习***1从外部取得被赋予了表示详细类别的标签的图像组(S12)。
接着,学习***1使由所设计的第1神经网络构成的粗类别分类器10a取得该图像组,学习第1特征(S13)。具体地,粗类别分类器10a通过进行学习(粗类别学习)以便识别第1特征,来学习用于标识第1特征的第1神经网络的表示阈值和/或权重、结合状态等的参数。
接着,学习***1将在步骤S13学习了第1特征的粗类别分类器10a、即构成粗类别分类器10a的第1神经网络保存在保存部5(S14)。
图8是表示图5所示的步骤S2的详细处理的一例的流程图。
在步骤2,首先,学习***1通过将构成在步骤S1进行了学习的粗类别分类器10a的第1神经网络的最终层的神经元改变为与详细类别的数量相同数量的神经元,来设计构成详细类别分类器10b的第2神经网络(S21)。
即,学习***1设计第2神经网络作为详细类别分类器10b,所述第2神经网络是将构成在步骤S1进行了学习的粗类别分类器10a的第1神经网络(表示构造和/或阈值、权重、结合状态等的参数)除了最终层以外原样利用了的神经网络。然后,改变第2神经网络的最终层的神经元以便成为与详细类别的数量相同的数量。在本实施方式中,学习***1通过将第1神经网络的最终层的神经元置换为与详细类别的数量相同数量的神经元,来设计第2神经网络。
接着,学习***1从外部取得被赋予了表示详细类别的标签的图像组(S22)。这里,学习***1取得与在步骤S12取得的图像组相同的图像组。
接着,学习***1使由所设计的第2神经网络构成的详细类别分类器10b取得该图像组,学习第2特征(S23)。具体地,详细类别分类器10b通过进行学习(详细类别学习)以便识别第2特征,来学习用于标识第2特征的第2神经网络的表示阈值和/或权重、结合状态等的参数。
接着,学习***1将在步骤S23学习了第2特征的详细类别分类器10b、即构成详细类别分类器10b的第2神经网络(表示构造和/或阈值、权重、结合状态等的参数)作为分类器10保存在保存部5(S14)。
[效果等]
如上所述,根据本实施方式1,与现有技术相比,可以实现能够不使图像识别的处理速度降低而高精度地进行图像识别的分类器的学习方法等。具体地,根据实施方式1的学习方法,以由粗类别分类器10a进行的粗类别学习的结果作为初始值,使详细类别分类器10b进行详细类别学习(多阶段学习),所述粗类别分类器10a由与详细类别分类器10b在最终层以外相同的神经网络构成。即,在粗类别学习和详细类别学习中,使用由仅输出数(最终层的神经元的数量)被替换的神经网络构成的分类器10(粗类别分类器10a、详细类别分类器10b)。进而,在详细类别学习中,使用由如下神经网络构成的详细类别分类器10b,即该神经网络在最终层以外的层设定了在粗类别学习中获得的参数。这样,不改变分类器10的神经网络的最终层以外的构造(维持大小不变)地,进行多阶段学习。由此,由于能够抑制以错误的详细类别进行分类这样的情况,所以不仅能够提高图像识别的精度,而且还能够减小神经网络的大小,所以与以往比较,能够将图像识别的处理速度提高4倍左右。
另外,在实施方式1中,说明了使分类器10进行两阶段学习的情况,但是并不限于此。也可以进行三阶段以上的多阶段学习。
例如,在进行3阶段学习的情况下,学习***1还使由第3神经网络构成的第3粗类别分类器将上述图像组分类为包含多个详细类别的多个第3粗类别,学习该多个第3粗类别的每一个第3粗类别的共同的特征即第3特征。然后,使由上述第1神经网络构成的详细类别分类器10b将上述图像组分类为上述粗类别,学习该详细类别的每一个详细类别的第1特征,所述第1神经网络与学习了该第3特征的第3神经网络的最终层以外相同而仅该最终层不同。这里,上述多个粗类别只要分别通过包含多个第3粗类别而包含该多个第3粗类别所包含的多个详细类别即可。
这样,只要通过以两阶段以上进行上述的粗类别分类,来使分类器10进行3阶段以上的多阶段学习即可。在构成被赋予了表示详细类别的标签的图像组的图像较多的情况下在一个阶段的粗类别分类中输出数(最终层的神经元数)变多时特别有效。
(变形例1)
在实施方式1中,说明了学习***1使用基于表示详细类别的标签的内容而制作的粗类别来设计粗类别分类器10a的情况,但是并不限于此。学习***1也可以基于表示详细类别的标签的内容制作粗类别。以下,说明该情况的一例作为变形例1。
[学习***1A的构成]
图9A是表示变形例1中的学习***1A的构成的一例的方框图。图9B是表示图9A所示的粗类别制作部6的详细构成的一例的方框图。对于与图1同样的要素标注同一符号,并省略详细的说明。
图9A所示的学习***1A相对于图1所示的学习***1,不同点在于增加了粗类别制作部6。
粗类别制作部6基于对构成上述图像组的多个图像分别赋予的表示详细类别的标签的内容,制作多个粗类别。另外,粗类别制作部6也可以基于构成上述图像组的多个图像各自的图像的相似度,制作多个粗类别。
[粗类别制作部6的构成]
在本变形例中,粗类别制作部6如图9B所示,例如具备粗类别制作处理部61和粗类别标签附加部62。
粗类别制作处理部61例如通过进行无指导聚类,能够将构成图像组的多个图像分类为多个粗类别,来制作多个粗类别。例如,粗类别制作处理部61基于对构成图像组的多个图像分别赋予的表示详细类别的标签的内容或构成上述图像组的多个图像各自的图像的相似度,将构成图像组的多个图像分类为多个粗类别。然后,制作能够唯一地标识所分类的多个粗类别的名称等。这样,粗类别制作处理部能够制作上述的多个粗类别。
粗类别标签附加部62对作为构成图像组的多个图像、被赋予了表示各自的详细类别的标签的多个图像,分别赋予表示在粗类别制作处理部61中被分类的粗类别的标签。
[学习***1A的学习处理]
接着,使用图说明如以上那样构成的学习***1A的学习处理。由于关于学习***1A的两阶段学习处理如图5所示,关于详细类别学习(步骤S2)的详细处理如图8所示,所以省略说明。以下,以与实施方式1不同的部分为中心进行说明。
图10A是表示变形例1中的粗类别学习(步骤S1)的详细处理的一例的流程图。图10B是表示图10A所示的步骤S10的详细处理的一例的流程图。对于与图7同样的要素标注相同的符号,并省略说明。
图10A所示的粗类别学习的详细处理与图7所示的粗类别学习的详细处理比较,不同点在于增加了步骤S10的处理。
在步骤S10,学习***1A使粗类别制作部6基于对构成上述图像组的多个图像分别赋予的表示详细类别的标签的内容,制作多个粗类别。另外,学习***1A也可以使粗类别制作部6基于构成上述图像组的多个图像各自的图像的相似度,制作多个粗类别。
更具体地,如图10B所示,在步骤S10,首先,学习***1A进行粗类别制作处理(S101)。在本变形例中,学习***1A使粗类别制作处理部61从外部取得被赋予了表示详细类别的标签的图像组。然后,学习***1A使粗类别制作处理部61将构成所取得的图像组的多个图像分类为多个粗类别,来制作多个粗类别。
接着,学习***1A进行粗类别标签附加处理(S102)。在本变形例中,学习***1A使粗类别标签附加部62基于在步骤S101进行的分类结果,对构成该图像组的多个图像、即被赋予了表示各自的详细类别的标签的多个图像,分别赋予表示在步骤S101分类的粗类别的标签。
(变形例2)
在实施方式1中,说明了通过替换(置换)第1神经网络的最终层来设计第2神经网络的最终层的情况的例子,但是并不限于此。也可以使构成同一第3神经网络的最终层的神经元之中要使用的神经元依第1神经网络和第2神经网络改变。以下,关于该情况下的例子,作为变形例2进行说明。
[构成]
图11是表示变形例2中的第3神经网络的一例的图。图12A是表示构成变形例2中的粗类别分类器的第1神经网络10c的一例的图。图12B是表示构成变形例2中的详细类别分类器的第2神经网络10d的一例的图。另外,对于与图2A及图2B同样的要素标注相同的符号,并省略详细的说明。
学习***1在进行分类器10的多阶段学习时,使用粗类别分类器10c进行粗类别学习,使用详细类别分类器10d进行详细类别学习。
在本变形例中,粗类别分类器10c和详细类别分类器10d使用例如图11所示的第3神经网络构成。这里,第3神经网络的最终层的神经元由与将粗类别的数量和详细类别的数量相加而得到的数量相同数量以上的的神经元构成。
构成粗类别分类器10c的第1神经网络如图12A所示,使用图11所示的第3神经网络的最终层以外的层和该最终层的一部分构成。具体地,构成粗类别分类器10c的第1神经网络由使用第3神经网络的最终层的神经元之中与粗类别的数量相同数量的神经元的第3神经网络构成。
构成详细类别分类器10d的第2神经网络如图12B所示,使用图11所示的第3神经网络的最终层以外的层和该最终层的另一部分构成。具体地,构成详细类别分类器10d的第2神经网络由使用第3神经网络的最终层的神经元之中与第1神经网络的最终层的神经元不同且与详细类别的数量相同数量的神经元的第3神经网络构成。
[学习***1的学习处理]
在本变形例中,学习***1使用如以上那样构成的粗类别分类器10c和详细类别分类器10d进行例如图5中说明的学习处理。
更具体地,在本变形例的学习处理中,进而在步骤S1的粗类别分类器10c的学习处理之前,用与将粗类别的数量和详细类别的数量相加而得到的数量相同数量以上的神经元设计例如图11所示的第3神经网络的最终层的神经元。
因此,变形例的学习***1在步骤S1,通过将使用第3神经网络的最终层的神经元之中与粗类别的数量相同数量的神经元的第3神经网络设计作为构成粗类别分类器10c的第1神经网络,来将第1神经网络的最终层的神经元设计为与基于表示详细类别的标签的内容而制作的粗类别的数量相同数量的神经元。
进而,变形例的学习***1在步骤S2,通过将使用第3神经网络的最终层的神经元之中与第1神经网络的最终层的神经元不同且与详细类别的数量相同数量的神经元的第3神经网络设计作为构成详细类别分类器10d的第2神经网络,来将在步骤S1进行了学习的第1神经网络的最终层的神经元改变为与详细类别的数量相同数量的神经元而设计作为第2神经网络。
(实施方式2)
在实施方式1中,举例说明了将第2神经网络的最终层的权重设定成随机值的情况,但是并不限于此。也可以基于进行了粗类别学习的第1神经网络的最终层的权重和详细类别及粗类别的关系性,设定第2神经网络的最终层的权重。以下,关于该情况,说明与实施方式1不同的部分。
[学习***1B的构成]
图13是表示实施方式2中的学习***1B的构成的一例的方框图。图14是用于说明在实施方式2中的学习***1B进行的学习处理中使用的详细类别分类器10e的构成的图。图14中的a、b、k、a1~al、b1~bm、k1~kn是正的整数。另外,对于与图1等同样的要素标注相同的符号,并省略详细的说明。
图13所示的学习***1B具备信息取得部2、分类器设计部3、分类器学习部4、保存部5、权重设定部7。图13所示的学习***1B相对于图1所示的学习***1,不同点在于具备权重设定部7。
权重设定部7基于由进行了粗类别学习的粗类别分类器10a取得的第1神经网络的最终层的权重和包含关系等详细类别与粗类别的关系性,计算并设定新的最终层的权重即第2神经网络的最终层的权重。更具体地,权重设定部7计算将表示通过粗类别学习而获得的粗类别分类器10a的第1神经网络的最终层与该最终层的前一层的结合效率的第1神经网络的最终层的第1权重基于多个粗类别和该多个粗类别中所包含的多个详细类别的关系性而按比例分配而得到的值。然后,权重设定部7使用所计算的值,设定表示第2神经网络的最终层与该最终层的前一层的结合效率的第2神经网络的最终层的第2权重。
例如,在图14中,示出Wa、Wb、…、Wk等第1权重和Wa1~Wal、Wb1~Wbm、…、Wk1~Wkn等第2权重。另外,在图14中,示出第1神经网络的最终层的神经元所输出的多个粗类别(粗类别a、粗类别b、…粗类别k)和第2神经网络的最终层的神经元所输出的多个详细类别(详细类别a1~详细类别al、详细类别b1~详细类别bm、…、详细类别k1~详细类别Kn)。
即,权重设定部7通过在粗类别学习中学习第1神经网络,能够取得输出粗类别a、粗类别b、…、粗类别k的最终层的神经元的第1权重Wa、Wb、…、Wk,作为第1神经网络的最终层的第1权重。然后,在详细类别分类器10e中,多个粗类别(粗类别a、粗类别b、…粗类别k)被置换为多个粗类别(粗类别a、粗类别b、…粗类别k)中所包含的多个详细类别(详细类别a1~详细类别al、详细类别b1~详细类别bm、…、详细类别k1~详细类别Kn。此时,权重设定部7基于多个粗类别(粗类别a、粗类别b、…粗类别k)中所包含的多个详细类别(详细类别a1~详细类别al、详细类别b1~详细类别bm、…、详细类别k1~详细类别Kn)的关系性,计算将所取得的第1权重Wa、Wb、…、Wk以对应的粗类别所包含的详细类别的数量(l个、m个、…、n个)按比例分配而得到的值(Wa1~Wal、Wb1~Wbm、…、Wk1~Wkn),作为第2权重。
[学习***1B的学习处理]
接着,说明以上那样构成的学习***1B的学习处理。由于关于学习***1B的两阶段学习处理如图5所示,关于粗类别学习(步骤S1)的详细处理如图7所示,所以省略说明。以下,以与实施方式1不同的部分为中心进行说明。
图15是表示实施方式2中的详细类别学习(步骤S2)的详细处理的一例的流程图。另外,由于图15的步骤S32、步骤S34~步骤S36与图8中说明的步骤S21~步骤S24相同,所以省略这里的说明。
首先,在步骤S31,学习***1B使权重设定部7取得构成在步骤S10使粗类别分类器10a进行了粗类别学习时获得的粗类别分类器10a的第1神经网络的最终层的第1权重。
另外,在步骤S33,学习***1B使权重设定部7使用将所取得的第1权重基于详细类别与粗类别的关系性而按比例分配而得到的值,设定构成详细类别分类器10b的第2神经网络的最终层的第2权重。这里,详细类别与粗类别的关系性是多个粗类别和该多个粗类别中所包含的多个详细类别的关系性,在上述的例子中,是粗类别中所包含的多个详细类别的数量。
[效果等]
如上所述,根据本实施方式,与现有技术相比,可以实现能够不使图像识别的处理速度降低而高精度地进行图像识别的分类器的学习方法等。
另外,如上所述,在实施方式2的学习方法中,除了实施方式1的学习方法外,还基于在通过粗类别分类处理进行了学习时取得的粗类别分类器10a的最终层的权重,设定在详细类别分类处理中使用的详细类别分类器10b的最终层的权重。由此,能够提高分类器10的图像识别的精度及图像识别的处理速度。
以上,通过实施方式1、变形例1、变形例2及实施方式2说明了本公开的学习方法,但是关于实施各处理的主体和/或装置没有特别限定。也可以通过组装到在本地配置的特定的装置内的处理器等(以下说明)来处理。另外,也可以由在与本地的装置不同的场所配置的云服务器等进行处理。
另外,本公开还包含以下的情况。
(1)上述的装置具体地,是包括微处理器、ROM、RAM、硬盘单元、显示器单元、键盘、鼠标等的计算机***。在上述RAM或硬盘单元中,存储有计算机程序。上述微处理器通过按照上述计算机程序进行工作,使各装置实现其功能。这里,计算机程序为了实现预定的功能,使表示对计算机的指令的指令码多个组合而构成。
(2)构成上述的装置的构成要素的一部分或全部也可以包括一个***LSI(Large Scale Integration:大规模集成电路)。***LSI是在一个芯片上集成多个构成部而制造的超多功能LSI,具体地,是包含微处理器、ROM、RAM等而构成的计算机***。在上述RAM中,存储有计算机程序。上述微处理器通过按照上述计算机程序而工作,使***LSI实现其功能。
(3)构成上述的装置的构成要素的一部分或全部也可以包括对各装置可以装卸的IC卡或单体模块。上述IC卡或上述模块是包括微处理器、ROM、RAM等的计算机***。上述IC卡或上述模块也可以包含上述的超多功能LSI。微处理器通过按照计算机程序而工作,使上述IC卡或上述模块实现其功能。该IC卡或该模块也可以具有耐破解性。
(4)本公开也可以构成为上述所示的方法。另外,既可以将这些方法构成为由计算机实现的计算机程序,也可以构成为包括上述计算机程序的数字信号。
(5)另外,本公开也可以构成为将上述计算机程序或上述数字信号记录到由计算机可以读取的记录介质例如软盘、硬盘、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(注册商标)盘)、半导体存储器等而得到的物品。另外,也可以形成为在这些记录介质中记录的上述数字信号。
另外,本公开也可以形成为经由电通信线路、无线或有线通信线路、以因特网为代表的网络、数据广播等传送上述计算机程序或上述数字信号的物品。
另外,本公开也可以形成为具备微处理器和存储器的计算机***,上述存储器存储上述计算机程序,上述微处理器按照上述计算机程序而工作。
另外,也可以通过将上述程序或上述数字信号记录到上述记录介质而移送,或通过将上述程序或上述数字信号经由上述网络等移送,由独立的其他计算机***实施。
(6)也可以将上述实施方式及上述变形例分别组合。
本公开能够在用于对图像进行分类的分类器的学习方法及其程序等中利用,特别地,能够在具备可以从图像高精度地识别图像中所包含的物体为何的物体识别方法及***的数字照相机、影片、监视照相机、车载照相机、可佩带照相机等拍摄装置中利用。
Claims (11)
1.一种学习方法,其是用于对图像进行分类的分类器的学习方法,包括:
第1步骤,使由第1神经网络构成的粗类别分类器将图像组分类为包含多个详细类别的多个粗类别而学习该多个粗类别的每一个粗类别的共同的特征即第1特征,所述图像组是被赋予了表示各自的详细类别的标签的多个图像的图像组;以及
第2步骤,使由第2神经网络构成的详细类别分类器将上述图像组分类为详细类别而学习该详细类别的每一个详细类别的共同的特征即第2特征,由此进行上述分类器的学习,所述第2神经网络与在上述第1步骤进行了学习的上述第1神经网络的最终层以外相同而仅该最终层不同。
2.根据权利要求1所述的学习方法,
上述第1步骤包括:
第1设计步骤,以数量与基于表示上述详细类别的标签的内容而制作的上述粗类别的数量相同的神经元来设计上述第1神经网络的最终层的神经元;以及
第1学习步骤,使由所设计的上述第1神经网络构成的上述粗类别分类器取得上述图像组并学习上述第1特征,
上述第2步骤包括:
第2设计步骤,通过将在上述第1步骤进行了学习的上述第1神经网络的最终层的神经元改变为数量与上述详细类别的数量相同的神经元,来设计上述第2神经网络;以及
第2学习步骤,使由所设计的上述第2神经网络构成的上述详细类别分类器取得上述图像组并学习上述第2特征,由此进行上述分类器的学习。
3.根据权利要求2所述的学习方法,
在上述第2设计步骤中,
通过将在上述第1学习步骤进行了学习的上述第1神经网络的最终层的神经元置换为与上述详细类别的数量相同的神经元,来设计上述第2神经网络。
4.根据权利要求2所述的学习方法,
上述详细类别分类器和上述粗类别分类器使用第3神经网络而构成,
在上述学习方法中,
在上述第1步骤之前,还包括第3设计步骤,上述第3设计步骤是以与将上述粗类别的数量和上述详细类别的数量相加而得到的数量相同的数量以上的神经元来设计上述第3神经网络的最终层的神经元的步骤,
在上述第1设计步骤中,
将使用上述第3神经网络的最终层的神经元之中数量与上述粗类别的数量相同的神经元的上述第3神经网络设计作为上述第1神经网络,由此将上述第1神经网络的最终层的神经元设计为数量与基于表示上述详细类别的标签的内容而制作的上述粗类别的数量相同的神经元,
在上述第2设计步骤中,
将使用上述第3神经网络的最终层的神经元之中与上述第1神经网络的最终层的神经元不同且数量与上述详细类别的数量相同的神经元的上述第3神经网络设计作为上述第2神经网络,由此将在上述第1步骤进行了学习的上述第1神经网络的最终层的神经元改变为数量与上述详细类别的数量相同的神经元而设计作为上述第2神经网络。
5.根据权利要求2所述的学习方法,
在上述第2设计步骤中,还包括:
将表示上述第2神经网络的最终层与该最终层的前一层的结合效率的上述第2神经网络的最终层的权重设定成随机值的步骤。
6.根据权利要求2所述的学习方法,
在上述第2设计步骤中,还包括:
使用将上述第1神经网络的最终层的第1权重基于上述多个粗类别和该多个粗类别中所包含的多个详细类别的关系性按比例分配而得到的值,设定表示上述第2神经网络的最终层与该最终层的前一层的结合效率的上述第2神经网络的最终层的第2权重的步骤,所述第1神经网络的最终层的第1权重是在上述第1学习步骤进行了学习时获得的表示上述第1神经网络的最终层与该最终层的前一层的结合效率的权重。
7.根据权利要求1所述的学习方法,
在上述学习方法中,还包括:
将在上述第2步骤学习了上述第2特征的上述详细类别分类器作为上述分类器保存的步骤。
8.根据权利要求1所述的学习方法,
在上述第1步骤中,还包括:
基于对上述多个图像分别赋予的表示上述详细类别的标签的内容,制作上述多个粗类别的步骤。
9.根据权利要求1所述的学习方法,
在上述第1步骤中,还包括:
基于上述多个图像各自的图像的相似度,制作上述多个粗类别的步骤。
10.根据权利要求1所述的学习方法,
上述学习方法还包括:
第3步骤,使由第3神经网络构成的第3粗类别分类器将上述图像组分类为包含多个详细类别的多个第3粗类别而学习该多个第3粗类别的每一个第3粗类别的共同的特征即第3特征,
在上述第1步骤中,包括:
使由上述第1神经网络构成的上述详细类别分类器将上述图像组分类为上述粗类别而学习该详细类别的每一个详细类别的上述第1特征的学习步骤,所述第1神经网络是与在上述第3步骤进行了学习的上述第3神经网络的最终层以外相同而仅该最终层不同的神经网络,
上述多个粗类别通过分别包含多个第3粗类别而包含该多个第3粗类别中所包含的多个详细类别。
11.根据权利要求1所述的学习方法,
上述第1步骤和上述第2步骤中的至少一个步骤由处理器执行。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015044838 | 2015-03-06 | ||
JP2015-044838 | 2015-03-06 | ||
JP2015214657 | 2015-10-30 | ||
JP2015-214657 | 2015-10-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105938558A true CN105938558A (zh) | 2016-09-14 |
CN105938558B CN105938558B (zh) | 2021-02-09 |
Family
ID=55453033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610094433.7A Active CN105938558B (zh) | 2015-03-06 | 2016-02-19 | 学习方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9779354B2 (zh) |
EP (1) | EP3065090B1 (zh) |
JP (1) | JP6671028B2 (zh) |
CN (1) | CN105938558B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109190643A (zh) * | 2018-09-14 | 2019-01-11 | 华东交通大学 | 基于卷积神经网络中药识别方法及电子设备 |
CN109406118A (zh) * | 2018-10-15 | 2019-03-01 | 华中科技大学 | 一种基于层次卷积神经网络的机械故障预测方法 |
CN109766928A (zh) * | 2018-12-21 | 2019-05-17 | 创新奇智(重庆)科技有限公司 | 一种基于图像的物体分类方法、***和电子设备 |
WO2019128543A1 (en) * | 2017-12-30 | 2019-07-04 | Midea Group Co., Ltd. | Food preparation method and system based on ingredient recognition |
CN110088797A (zh) * | 2016-12-19 | 2019-08-02 | 株式会社安川电机 | 工业设备图像识别处理器及控制器 |
CN110945534A (zh) * | 2017-06-22 | 2020-03-31 | 伟摩有限责任公司 | 稀有实例分类器 |
CN111680753A (zh) * | 2020-06-10 | 2020-09-18 | 创新奇智(上海)科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN111699499A (zh) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | 检查***、图像识别***、识别***、识别器生成***及学习数据生成装置 |
CN112183639A (zh) * | 2020-09-30 | 2021-01-05 | 四川大学 | 一种矿物图像识别与分类方法 |
CN112534446A (zh) * | 2018-09-10 | 2021-03-19 | 日立汽车***株式会社 | 电子控制装置、神经网络更新*** |
CN113366496A (zh) * | 2018-12-21 | 2021-09-07 | 伟摩有限责任公司 | 用于粗略和精细对象分类的神经网络 |
CN113642679A (zh) * | 2021-10-13 | 2021-11-12 | 山东凤和凰城市科技有限公司 | 多种类数据识别方法 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9971958B2 (en) * | 2016-06-01 | 2018-05-15 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for generating multimodal digital images |
JP6633462B2 (ja) * | 2016-06-29 | 2020-01-22 | 株式会社東芝 | 情報処理装置および情報処理方法 |
US10140979B2 (en) * | 2016-08-10 | 2018-11-27 | Conduent Business Services, Llc | Modeling a class posterior probability of context dependent phonemes in a speech recognition system |
KR20180027887A (ko) * | 2016-09-07 | 2018-03-15 | 삼성전자주식회사 | 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법 |
KR20180092778A (ko) | 2017-02-10 | 2018-08-20 | 한국전자통신연구원 | 실감정보 제공 장치, 영상분석 서버 및 실감정보 제공 방법 |
WO2018159666A1 (en) * | 2017-03-01 | 2018-09-07 | Omron Corporation | Learning apparatus, learning result using apparatus, learning method and learning program |
WO2018170028A1 (en) * | 2017-03-14 | 2018-09-20 | Tupl, Inc | Automated decision making using staged machine learning |
JP6725452B2 (ja) * | 2017-05-26 | 2020-07-22 | 日本電信電話株式会社 | 分類装置、分類方法および分類プログラム |
EP3660753A4 (en) | 2017-07-25 | 2021-05-12 | The University Of Tokyo | LEARNING PROCEDURE, LEARNING PROGRAM, LEARNING DEVICE AND LEARNING SYSTEM |
JP6729516B2 (ja) | 2017-07-27 | 2020-07-22 | トヨタ自動車株式会社 | 識別装置 |
JP7294768B2 (ja) * | 2017-08-04 | 2023-06-20 | オムロン株式会社 | 画像処理システム |
GB2570433A (en) * | 2017-09-25 | 2019-07-31 | Nissan Motor Mfg Uk Ltd | Machine vision system |
JP7224757B2 (ja) | 2017-10-13 | 2023-02-20 | キヤノン株式会社 | 診断支援装置、情報処理方法、診断支援システム及びプログラム |
US11132605B2 (en) | 2017-11-20 | 2021-09-28 | International Business Machines Corporation | Cardinal sine as an activation function for universal classifier training data |
CN108229543A (zh) * | 2017-12-22 | 2018-06-29 | 中国科学院深圳先进技术研究院 | 图像分类模型设计方法及装置 |
US11829866B1 (en) * | 2017-12-27 | 2023-11-28 | Intuit Inc. | System and method for hierarchical deep semi-supervised embeddings for dynamic targeted anomaly detection |
US10679330B2 (en) * | 2018-01-15 | 2020-06-09 | Tata Consultancy Services Limited | Systems and methods for automated inferencing of changes in spatio-temporal images |
JP6803578B2 (ja) * | 2018-03-26 | 2020-12-23 | パナソニックIpマネジメント株式会社 | 処理方法およびそれを利用した処理装置 |
JP7166784B2 (ja) * | 2018-04-26 | 2022-11-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7048423B2 (ja) * | 2018-06-07 | 2022-04-05 | 大日本印刷株式会社 | 商品特定装置、プログラム及び学習方法 |
JP7056406B2 (ja) * | 2018-06-22 | 2022-04-19 | 日本電信電話株式会社 | センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム |
EP3822872A4 (en) * | 2018-07-09 | 2021-08-04 | Fujitsu Limited | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
JP6757378B2 (ja) | 2018-08-28 | 2020-09-16 | 株式会社モルフォ | 画像識別装置、画像識別方法及び画像識別プログラム |
US10474713B1 (en) * | 2018-10-26 | 2019-11-12 | StradVision, Inc. | Learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same |
JP6991960B2 (ja) * | 2018-12-28 | 2022-01-13 | Kddi株式会社 | 画像認識装置、画像認識方法及びプログラム |
JP7111088B2 (ja) * | 2019-01-24 | 2022-08-02 | カシオ計算機株式会社 | 画像検索装置、学習方法及びプログラム |
JP7286333B2 (ja) * | 2019-02-06 | 2023-06-05 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
KR102312657B1 (ko) * | 2019-11-18 | 2021-10-15 | 아이브스 주식회사 | 인공지능을 이용한 음원 분류 장치 및 그 방법 |
WO2021146497A1 (en) * | 2020-01-15 | 2021-07-22 | Pingkun Yan | Trackerless 2d ultrasound frame to 3d image volume registration |
JP7371776B2 (ja) * | 2020-05-21 | 2023-10-31 | 株式会社Ihi | 画像分類装置、画像分類方法、及び、画像分類プログラム |
JP7227188B2 (ja) * | 2020-07-01 | 2023-02-21 | 株式会社モリタ製作所 | 識別装置、識別システム、識別方法、および識別用プログラム |
KR102236615B1 (ko) * | 2020-07-31 | 2021-04-06 | 주식회사 웨이센 | 복합 특성 분류와 공통 국소화를 위한 신경망 모델의 학습 방법 및 장치 |
CN114071106B (zh) * | 2020-08-10 | 2023-07-04 | 合肥君正科技有限公司 | 一种低功耗设备冷启动快速白平衡方法 |
US20220172024A1 (en) * | 2020-11-30 | 2022-06-02 | Oracle International Corporation | Information Technology Service Incident Ticket Assignment |
US20220254144A1 (en) * | 2021-02-05 | 2022-08-11 | Home Depot Product Authority, Llc | Product image classification |
KR102635607B1 (ko) * | 2021-11-04 | 2024-02-08 | 중앙대학교 산학협력단 | 코스-투-파인 컨볼루션 뉴럴 네트워크 기반 다중 레이블 클래스 분류 방법 및 장치 |
KR102437285B1 (ko) * | 2022-01-03 | 2022-08-29 | 주식회사 에스아이에이 | 모호한 라벨을 이용한 객체 예측 모델 학습 방법 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313532A (en) * | 1990-01-23 | 1994-05-17 | Massachusetts Institute Of Technology | Recognition of patterns in images |
CN1118902A (zh) * | 1994-08-17 | 1996-03-20 | 三星电子株式会社 | 识别手写字符的方法和设备 |
US5835633A (en) * | 1995-11-20 | 1998-11-10 | International Business Machines Corporation | Concurrent two-stage multi-network optical character recognition system |
CN101082836A (zh) * | 2007-06-29 | 2007-12-05 | 华中科技大学 | 一种整合语音输入和手写输入功能的汉字输入*** |
US20090110062A1 (en) * | 2007-10-30 | 2009-04-30 | The Hong Kong University Of Science And Technology | Optimal heegard-berger coding schemes |
CN101667252A (zh) * | 2009-10-15 | 2010-03-10 | 哈尔滨工业大学 | 基于art2a-dwnn的通信信号调制方式的分类识别方法 |
CN101957920A (zh) * | 2010-09-08 | 2011-01-26 | 中国人民解放军国防科学技术大学 | 基于数字视频的车牌查找方法 |
CN102855479A (zh) * | 2012-07-24 | 2013-01-02 | 苏州工业园区七星电子有限公司 | 一种印刷体汉字识别*** |
CN103310227A (zh) * | 2012-03-16 | 2013-09-18 | 上海联影医疗科技有限公司 | 基于神经网络的自动窗宽窗位提取方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4100500A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Signalverarbeitungsanordnung zur klassifizierung von objekten aufgrund der signale von sensoren |
US5359699A (en) * | 1991-12-02 | 1994-10-25 | General Electric Company | Method for using a feed forward neural network to perform classification with highly biased data |
JP2722906B2 (ja) * | 1991-12-27 | 1998-03-09 | ダイキン工業株式会社 | 未知数量推定方法およびその装置 |
US5311600A (en) * | 1992-09-29 | 1994-05-10 | The Board Of Trustees Of The Leland Stanford Junior University | Method of edge detection in optical images using neural network classifier |
US5619619A (en) * | 1993-03-11 | 1997-04-08 | Kabushiki Kaisha Toshiba | Information recognition system and control system using same |
US6009418A (en) * | 1996-05-02 | 1999-12-28 | Cooper; David L. | Method and apparatus for neural networking using semantic attractor architecture |
US5995651A (en) * | 1996-07-11 | 1999-11-30 | Duke University | Image content classification methods, systems and computer programs using texture patterns |
US6549661B1 (en) * | 1996-12-25 | 2003-04-15 | Hitachi, Ltd. | Pattern recognition apparatus and pattern recognition method |
US6650779B2 (en) * | 1999-03-26 | 2003-11-18 | Georgia Tech Research Corp. | Method and apparatus for analyzing an image to detect and identify patterns |
US7016885B1 (en) * | 2001-08-28 | 2006-03-21 | University Of Central Florida Research Foundation, Inc. | Self-designing intelligent signal processing system capable of evolutional learning for classification/recognition of one and multidimensional signals |
US7752151B2 (en) * | 2002-06-05 | 2010-07-06 | Knowmtech, Llc | Multilayer training in a physical neural network formed utilizing nanotechnology |
KR100442835B1 (ko) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
US7440600B2 (en) * | 2003-04-23 | 2008-10-21 | Carestream Health, Inc. | System and method for assigning mammographic view and laterality to individual images in groups of digitized mammograms |
US7272261B2 (en) * | 2004-06-04 | 2007-09-18 | Xerox Corporation | Method and system for classifying scanned-media |
US7620819B2 (en) * | 2004-10-04 | 2009-11-17 | The Penn State Research Foundation | System and method for classifying regions of keystroke density with a neural network |
CN101151623B (zh) * | 2005-01-27 | 2010-06-23 | 剑桥研究和仪器设备股份有限公司 | 对样本图像的特征进行分类的方法和设备 |
US8199999B2 (en) * | 2008-06-17 | 2012-06-12 | Cambridge Research & Instrumentation, Inc. | Image classifier training |
CN104346622A (zh) * | 2013-07-31 | 2015-02-11 | 富士通株式会社 | 卷积神经网络分类器及其分类方法和训练方法 |
US9129190B1 (en) * | 2013-12-04 | 2015-09-08 | Google Inc. | Identifying objects in images |
-
2016
- 2016-02-19 CN CN201610094433.7A patent/CN105938558B/zh active Active
- 2016-02-24 EP EP16157040.3A patent/EP3065090B1/en active Active
- 2016-02-25 US US15/053,642 patent/US9779354B2/en active Active
- 2016-02-25 JP JP2016034784A patent/JP6671028B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313532A (en) * | 1990-01-23 | 1994-05-17 | Massachusetts Institute Of Technology | Recognition of patterns in images |
CN1118902A (zh) * | 1994-08-17 | 1996-03-20 | 三星电子株式会社 | 识别手写字符的方法和设备 |
US5835633A (en) * | 1995-11-20 | 1998-11-10 | International Business Machines Corporation | Concurrent two-stage multi-network optical character recognition system |
CN101082836A (zh) * | 2007-06-29 | 2007-12-05 | 华中科技大学 | 一种整合语音输入和手写输入功能的汉字输入*** |
US20090110062A1 (en) * | 2007-10-30 | 2009-04-30 | The Hong Kong University Of Science And Technology | Optimal heegard-berger coding schemes |
CN101667252A (zh) * | 2009-10-15 | 2010-03-10 | 哈尔滨工业大学 | 基于art2a-dwnn的通信信号调制方式的分类识别方法 |
CN101957920A (zh) * | 2010-09-08 | 2011-01-26 | 中国人民解放军国防科学技术大学 | 基于数字视频的车牌查找方法 |
CN103310227A (zh) * | 2012-03-16 | 2013-09-18 | 上海联影医疗科技有限公司 | 基于神经网络的自动窗宽窗位提取方法 |
CN102855479A (zh) * | 2012-07-24 | 2013-01-02 | 苏州工业园区七星电子有限公司 | 一种印刷体汉字识别*** |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110088797A (zh) * | 2016-12-19 | 2019-08-02 | 株式会社安川电机 | 工业设备图像识别处理器及控制器 |
CN110088797B (zh) * | 2016-12-19 | 2023-04-21 | 株式会社安川电机 | 工业设备图像识别处理器及控制器 |
CN110945534A (zh) * | 2017-06-22 | 2020-03-31 | 伟摩有限责任公司 | 稀有实例分类器 |
CN110945534B (zh) * | 2017-06-22 | 2024-03-19 | 伟摩有限责任公司 | 稀有实例分类器 |
US11229311B2 (en) | 2017-12-30 | 2022-01-25 | Midea Group Co., Ltd. | Food preparation system |
WO2019128543A1 (en) * | 2017-12-30 | 2019-07-04 | Midea Group Co., Ltd. | Food preparation method and system based on ingredient recognition |
CN111699499B (zh) * | 2018-03-14 | 2023-09-29 | 欧姆龙株式会社 | 检查、图像识别、识别器生成***及学习数据生成装置 |
CN111699499A (zh) * | 2018-03-14 | 2020-09-22 | 欧姆龙株式会社 | 检查***、图像识别***、识别***、识别器生成***及学习数据生成装置 |
US11715190B2 (en) | 2018-03-14 | 2023-08-01 | Omron Corporation | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device |
CN112534446A (zh) * | 2018-09-10 | 2021-03-19 | 日立汽车***株式会社 | 电子控制装置、神经网络更新*** |
CN109190643A (zh) * | 2018-09-14 | 2019-01-11 | 华东交通大学 | 基于卷积神经网络中药识别方法及电子设备 |
CN109406118B (zh) * | 2018-10-15 | 2020-05-19 | 华中科技大学 | 一种基于层次卷积神经网络的机械故障预测方法 |
CN109406118A (zh) * | 2018-10-15 | 2019-03-01 | 华中科技大学 | 一种基于层次卷积神经网络的机械故障预测方法 |
CN113366496A (zh) * | 2018-12-21 | 2021-09-07 | 伟摩有限责任公司 | 用于粗略和精细对象分类的神经网络 |
US11842282B2 (en) | 2018-12-21 | 2023-12-12 | Waymo Llc | Neural networks for coarse- and fine-object classifications |
CN113366496B (zh) * | 2018-12-21 | 2024-03-15 | 伟摩有限责任公司 | 用于粗略和精细对象分类的神经网络 |
CN109766928A (zh) * | 2018-12-21 | 2019-05-17 | 创新奇智(重庆)科技有限公司 | 一种基于图像的物体分类方法、***和电子设备 |
CN111680753A (zh) * | 2020-06-10 | 2020-09-18 | 创新奇智(上海)科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN112183639A (zh) * | 2020-09-30 | 2021-01-05 | 四川大学 | 一种矿物图像识别与分类方法 |
CN113642679B (zh) * | 2021-10-13 | 2021-12-28 | 山东凤和凰城市科技有限公司 | 多种类数据识别方法 |
CN113642679A (zh) * | 2021-10-13 | 2021-11-12 | 山东凤和凰城市科技有限公司 | 多种类数据识别方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160260014A1 (en) | 2016-09-08 |
JP6671028B2 (ja) | 2020-03-25 |
JP2017084320A (ja) | 2017-05-18 |
US9779354B2 (en) | 2017-10-03 |
EP3065090B1 (en) | 2020-11-04 |
EP3065090A3 (en) | 2017-01-25 |
EP3065090A2 (en) | 2016-09-07 |
CN105938558B (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105938558A (zh) | 学习方法 | |
EP3779774A1 (en) | Training method for image semantic segmentation model and server | |
JP6632623B2 (ja) | サンプリング及びフィーチャ選択を伴わない自動欠陥分類 | |
CN105938557A (zh) | 图像识别方法、图像识别装置 | |
CN112508850A (zh) | 基于深度学习的甲状腺细胞病理切片恶性区域的检测方法 | |
US10769432B2 (en) | Automated parameterization image pattern recognition method | |
CN113469119A (zh) | 基于视觉转换器和图卷积网络的宫颈细胞图像分类方法 | |
Sampat et al. | Supervised parametric and non-parametric classification of chromosome images | |
Lin et al. | CAMFFNet: A novel convolutional neural network model for tobacco disease image recognition | |
CN108629772A (zh) | 图像处理方法及装置、计算机设备和计算机存储介质 | |
CN110532911B (zh) | 协方差度量驱动小样本gif短视频情感识别方法及*** | |
CN113076437B (zh) | 一种基于标签重分配的小样本图像分类方法及*** | |
CN112464983A (zh) | 一种用于苹果树叶病害图像分类的小样本学习方法 | |
Li et al. | HEp-Net: a smaller and better deep-learning network for HEp-2 cell classification | |
Maqlin et al. | Automated nuclear pleomorphism scoring in breast cancer histopathology images using deep neural networks | |
CN110210503A (zh) | 一种***识别方法和装置以及设备 | |
Upadya P et al. | Machine learning approach for classification of maculopapular and vesicular rashes using the textural features of the skin images | |
CN107871286A (zh) | 用户与联系人间亲密度判定方法/***、存储介质及设备 | |
WO2023061174A1 (zh) | 一种孤独症谱系障碍的风险预测模型构建方法及装置 | |
CN110660068A (zh) | 三维细胞构筑图像的半自动脑区分割方法 | |
Al-Kharraz et al. | Classifying chromosome images using ensemble convolutional neural networks | |
Shireesha et al. | Citrus fruit and leaf disease detection using DenseNet | |
Athinarayanan et al. | Multi class cervical cancer classification by using ERSTCM, EMSD & CFE methods based texture features and fuzzy logic based hybrid kernel support vector machine classifier | |
CN115205954A (zh) | 一种眼部病症识别方法、装置及设备 | |
Venkatesh et al. | An ensemble transfer learning for nutrient deficiency identification and yield-loss prediction in crop |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |