CN106096670A - 级联卷积神经网络训练和图像检测方法、装置及*** - Google Patents

级联卷积神经网络训练和图像检测方法、装置及*** Download PDF

Info

Publication number
CN106096670A
CN106096670A CN201610439342.2A CN201610439342A CN106096670A CN 106096670 A CN106096670 A CN 106096670A CN 201610439342 A CN201610439342 A CN 201610439342A CN 106096670 A CN106096670 A CN 106096670A
Authority
CN
China
Prior art keywords
convolutional neural
neural networks
view data
image
different levels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610439342.2A
Other languages
English (en)
Other versions
CN106096670B (zh
Inventor
秦红伟
闫俊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201610439342.2A priority Critical patent/CN106096670B/zh
Publication of CN106096670A publication Critical patent/CN106096670A/zh
Application granted granted Critical
Publication of CN106096670B publication Critical patent/CN106096670B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种级联卷积神经网络训练和图像检测方法、装置及***,其中,所述训练方法包括:将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,N为大于或等于2的整数;分别将N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练;将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。在将训练结果传播至各级卷积神经网络时,能够调整各级神经网络的参数,使得级联卷积神经网络在训练时能够达到神经网络参数的全局优化。

Description

级联卷积神经网络训练和图像检测方法、装置及***
技术领域
本发明涉及图像数据处理领域,具体涉及一种级联卷积神经网络训练和图像检测方法、装置及***。
背景技术
物体检测即对于输入的图片,精确地检测出所有某类物体的位置,在计算机视觉和模式识别领域中占有重要地位。
传统的基于卷积神经网络的物体检测方法,首先在图片上选出一系列位置、大小不同的待检测区域,然后将该区域直接输入一个卷积神经网络,得到分类结果。通过适当设计卷积神经网络的结构,可以让计算机直接学习出图片中的隐藏特征,避免了人工设计特征,能更广泛地应用到各种类别物体的检测中。但是由于卷积神经网络的计算时间往往比人工设计特征的计算时间长许多,因此在检测时会面临检测速度与检测效果不可兼得的矛盾。
对于基于卷积神经网络的物体检测方法,目前常见的是单级多层卷积神经网络。由于分类效果较好的单级卷积神经网络结构较复杂,检测每个区域的时间较长,如果在选择待检测区域时采用全面覆盖图片的滑动窗口选择法,则检测速度较慢;如果采用针对图片某些特征设计的算法选择最可能包含物体的少量区域,则检测速度有所提高,但在选择区域阶段可能漏掉某些包含物体的区域。对于物体检测问题,由于数据标注非常耗费人力、时间,数据集中往往负样本很多,正样本很少。在训练时,由于正负样本分布不均衡,训练效果往往较差。
级联卷积神经网络通过使用小型的、复杂度递增的多级多层神经网络,可以在使用滑动窗口选择法的同时提高检测速度,并对不同级的网络提供不同比例的正负样本训练,在一定程度上缓解上述的两个问题。但是在传统的级联网络中,不同级的神经网络通常分开训练,只能使每一级神经网络达到局部优化,多级多层神经网络的整体性能不理想。
发明内容
本发明实施例提供一种级联卷积神经网络及其训练和检测方案。
根据第一方面,本发明实施例提供了一种级联卷积神经网络训练方法,包括:
将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,N为大于或等于2的整数;分别将N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练,其中,N级级联的卷积神经网络中的每一级卷积神经网络分别与N种输入区域的一种输入区域对应;将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。
可选地,对各级卷积神经网络进行训练,包括:根据第1级卷积神经网络最后一层的输出,得到第1级卷积神经网络的特征向量;根据第n级卷积神经网络最后一层的输出和第n-1级卷积神经网络的特征向量,得到第n级卷积神经网络的特征向量,其中,n为正整数,且1<n≤N。
可选地,第1级卷积神经网络的最后一层为卷积层;第2至N级卷积神经网络中各级卷积神经网络的最后一层均为全连接层。
可选地,对各级卷积神经网络进行训练,包括:至少分别求取各级卷积神经网络的本级损失;将各级卷积神经网络分别输出的至少一训练结果进行关联,包括:至少对各级卷积神经网络分别输出的本级损失进行加权求和,得到N级级联的卷积神经网络的全局损失。
可选地,至少分别求取各级卷积神经网络的本级损失,包括:分别求取各级卷积神经网络的本级损失函数和回归边界框真值损失;至少对各级卷积神经网络分别输出的本级损失进行加权求和,得到N级级联的卷积神经网络的全局损失,包括:对各级卷积神经网络分别输出的本级损失函数和/或回归边界框真值损失进行加权求和,得到N级级联的卷积神经网络的全局损失。
可选地,第i级卷积神经网络输入区域的尺寸小于第j级卷积神经网络输入区域的尺寸,其中,i和j为正整数,且1≤i<j≤N。
本发明实施例还提供了一种级联卷积神经网络训练装置,包括:
学习数据获取单元,用于将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,所述N为大于或等于2的整数;训练单元,用于分别将所述N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练,其中,所述N级级联的卷积神经网络中的每一级卷积神经网络分别与所述N种输入区域的一种输入区域对应;回传单元,用于将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。
可选地,训练单元包括:第一向量单元,用于根据第1级卷积神经网络最后一层的输出,得到所述第1级卷积神经网络的特征向量;第二向量单元,用于根据第n级卷积神经网络最后一层的输出和所述第n-1级卷积神经网络的特征向量,得到第n级卷积神经网络的特征向量,其中,所述n为正整数,且1<n≤N。
可选地,所述训练单元包括:本级损失求取单元,用于至少分别求取各级卷积神经网络的本级损失;全局损失求取单元,用于至少对各级卷积神经网络分别输出的本级损失进行加权求和,得到所述N级级联的卷积神经网络的全局损失。
本发明实施例还提供了一种计算机存储介质,存储了用于实现本发明实施例提供的任一种级联卷积神经网络训练方法的计算机可读取的指令。例如,所述指令包括:将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据的指令,N为大于或等于2的整数;分别将N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练的指令,其中,N级级联的卷积神经网络中的每一级卷积神经网络分别与N种输入区域的一种输入区域对应;将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数的指令。
本发明实施例还提供了一种级联卷积神经网络训练***,包括:
图像获取装置,用于获取待学习图像的图像数据;存储器,用于存储程序;处理器,接收待学习图像的图像数据,用于执行程序以实现上述训练方法中的操作。
根据第二方面,本发明实施例提供了一种基于级联卷积神经网络的图像检测方法,包括:
获取待检测图像的图像数据;将待检测图像的图像数据作为上述的训练方法建立的神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果。
可选地,在获取待检测图像的图像数据之后,还包括:将图像数据划分成多个区域得到各个区域的图像数据;将待检测图像的图像数据作为神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果,包括:分别将各个区域的图像数据依次作为神经网络模型的输入对各个区域的图像数据进行检测,得到各个区域的检测结果。
可选地,对待检测图像进行检测包括:在神经网络模型的N级级联卷积神经网络的至少一级神经网络中对图像数据进行分类得分计算;将至少一级卷积神经网络的分类得分的计算值与至少一预定分值进行比较,并根据至少一比较结果确定图像数据是否包含目标对象。
可选地,在获取待检测图像的图像数据之后,还包括:将图像数据的尺寸压缩成符合第n级卷积神经网络输入区域的尺寸,其中,n为正整数,且1≤n≤N-1;将待检测图像的图像数据作为神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果,包括:将压缩后的图像数据输入第n级卷积神经网络;通过第n级卷积神经网络对压缩后的图像数据进行第一分类得分计算;如果第一分类得分小于第一预定分值,则判断为图像数据不包含目标对象。
可选地,如果第一分类得分大于或等于第一预定分值,则还包括:将图像数据的尺寸压缩成符合第n+1级卷积神经网络输入区域的尺寸;将压缩后的图像数据输入第n+1级卷积神经网络;通过第n+1级卷积神经网络对压缩后的图像数据进行第二分类得分计算;如果第二分类得分小于第二预定分值,则判断为图像数据不包含目标对象。
可选地,如果第二分类得分大于或等于第二预定分值,并且n=N-1时,则判断为图像数据包含目标物体。
可选地,在判断图像数据包含目标物体之后,还包括:输出包含目标物体的图像数据的特征信息。
本发明实施例还提供了一种基于级联卷积神经网络的图像检测装置,包括:
图像数据获取单元,用于获取待检测图像的图像数据;检测单元,用于将所述待检测图像的图像数据作为上述的训练装置建立的神经网络模型的输入对所述待检测图像进行检测,得到所述待检测图像的检测结果。
可选地,还包括:区域划分单元,用于将所述图像数据划分成多个区域得到各个区域的图像数据;所述检测单元用于分别将所述各个区域的图像数据依次作为所述神经网络模型的输入对所述各个区域的图像数据进行检测,得到所述各个区域的检测结果。
可选地,所述检测单元包括:分类得分单元,用于在所述神经网络模型的N级级联卷积神经网络的至少一级神经网络中对所述图像数据进行分类得分计算;比较单元,用于将至少一级卷积神经网络的分类得分的计算值与至少一预定分值进行比较,并根据至少一比较结果确定所述图像数据是否包含目标对象。
可选地,还包括:压缩单元,用于将所述图像数据的尺寸压缩成符合第n级卷积神经网络输入区域的尺寸,其中,n为正整数,且1≤n≤N-1;所述检测单元用于将压缩后的所述图像数据输入所述第n级卷积神经网络;第一分类得分单元,用于通过所述第n级卷积神经网络对压缩后的所述图像数据进行第一分类得分计算;判断单元,用于如果所述第一分类得分小于第一预定分值,则判断为所述图像数据不包含目标对象。
本发明实施例还提供了一种计算机存储介质,存储了用于实现本发明实施例提供的任一种基于级联卷积神经网络的图像检测方法的计算机可读取的指令。例如,所述指令包括:用于获取待检测图像的图像数据的指令;用于将待检测图像的图像数据作为上述的训练方法建立的神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果的指令。
本发明实施例还提供了一种基于级联卷积神经网络的图像检测***,包括:
图像获取装置,用于获取待检测图像的图像数据;存储器,用于存储程序;处理器,接收待检测图像的图像数据,用于执行程序以实现上述检测方法中的操作。
根据第三方面,本发明实施例提供了一种级联卷积神经网络,包括:
级联的N级卷积神经网络,N级卷积神经网络的用于接收N种不同大小的输入区域的图像数据,用于分别对N种不同大小的输入区域的图像数据进行训练/检测,N为大于或等于2的整数;各级卷积神经网络分别输出的至少一训练结果相关联,关联后的训练结果被回传至各级卷积神经网络。
本发明实施例提供的技术方案,将待学习图像至少局部区域的图像数据分别处理成N种输入区域的图像数据,并分别输入至N级级联的卷积神经网络,而后,对N级级联的卷积神经网络进行训练,至少一训练结果关联,因此,在将训练结果传播至各级卷积神经网络时,能够调整各级神经网络的参数,使得级联卷积神经网络在训练时能够达到神经网络参数的全局优化。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1中一种级联卷积神经网络训练方法流程图;
图2为本发明实施例1中一种级联卷积神经网络训练装置原理框图;
图3为本发明实施例2中一种基于级联卷积神经网络的图像检测方法流程图;
图4为本发明实施例2中另一种基于级联卷积神经网络的图像检测方法流程图;
图5为本发明实施例2中一种基于级联卷积神经网络的图像检测装置原理框图;
图6示意性地示出了适于用来实现本申请实施例的终端设备或服务器的计算机***的结构示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
为了实现多级神经网络全局最优训练,本实施例公开了一种级联卷积神经网络训练方法,请参考图1,为该级联卷积神经网络训练方法流程图,该方法包括如下步骤:
步骤S110,获取待学习图像至少局部区域的图像数据。在具体实施例中,可以用滑动窗口选择法选择待学习图像的至少局部区域作为该图像的学习区域。在可选的实施例中,每个学习区域可以用例如方形的边界框圈出,并根据与图像中物体区域边界框真值的重合度,来标记该学习区域是否包含带检测物体,以便于神经网络学习训练。在本实施例中,可以将各个学习区域调成为预设的标准尺寸大小,例如48*48,需要说明的是,本实施例及下述实施例中,在未作特别申明的情况下,具体的数值对本实施例的技术方案不构成限制,应当理解为便于本领域技术人员理解技术方案而举的示例。
步骤S120,将待学习图像至少局部区域的图像数据分别处理成N种输入区域的图像数据。本实施例中,N种输入区域两两之间具有不同的尺寸,N为大于等于2的整数。在可选的实施例中,可以对待学习图像至少局部区域的图像数据分别进行压缩,从而得到N中输入区域的图像数据。
步骤S130,分别将N种输入区域的图像数据输入至N级级联的卷积神经网络。在本实施例中,N级级联的卷积神经网络中的每一级分别与N种输入区域的一种输入区域一一对应。级联的卷积神经网络具有不同级网络结构,不同级之间输入数据的属性类型(例如不同级的输入数据分别对应不同大小的输入区域的数据)不同,为实现针对同一学习区域的数据学习,需要将该学习区域的图像数据分别处理(处理手段可包括但不限于压缩、采样等)成符合各级神经网络输入的数据尺寸。在本实施例中,共有N级卷积神经网络级联,因此,需要有N种输入区域的图像数据,每一级卷积神经网络对应一种输入区域。在优选的实施例中,第i级卷积神经网络输入区域的尺寸小于第j级卷积神经网络输入区域的尺寸,其中,i和j为正整数,且1≤i<j≤N。下文以N=3为例进行说明,第1级输入区域的尺寸为例如12*12、第2级输入区域的尺寸为例如24*24、第3级输入区域的尺寸为例如48*48,需要说明的是,本实施例中,并未限制不同级输入区域的尺寸之间满足某种倍数关系。可以将由步骤S110获取的预设区域的尺寸分别调成为12*12、24*24和48*48,以分别作为上述三级级联神经网络的输入区域。本实施例中,将前级卷积神经网络的输入区域的尺寸减小,能够提高前级神经网络的运行效率,而将后级卷积神经网络的输入区域的尺寸变大,以满足后级网络判断精细度的需求,采用不同尺寸的输入区域,使得各级卷积神经网络能够权衡效率和判断的精细度。
步骤S140,对N级级联的卷积神经网络进行训练。在具体实施例中,可以根据经验或需要来确定各级神经网络结构。例如:在确保召回率的情况下,可以适当减少卷积层,以提高计算速度。当输入区域的尺寸越大,则训练时精细度越高,相应的计算复杂程度也提高,此时,可以适当减少卷积层。以N=3为例进行说明:第1级神经网络(例如12net神经网络)输入区域的尺寸例如为12*12,包括例如3个卷积层、2个池化层,其中,卷积层输出图像为输入图像与卷积核的卷积,卷积核的参数可由训练调整;池化层输出图像的每个像素点为输入图像某个区域的平均值。12net的输出由最后一个卷积层的输出,计算得到第1级神经网络的本级损失loss0。第2级神经网络(例如24net神经网络)输入区域的尺寸例如为24*24,包括例如1个卷积层、1个池化层和1个全连接层,24net的输出由全连接层输出,计算得到第2级神经网络的本级损失loss1。第3级神经网络(例如48net神经网络)输入区域的尺寸例如为48*48,包括例如2个卷积层、2个池化层和1个全连接层,48net的输出由全连接层输出,计算得到第3级神经网络的本级损失loss2。在优选的实施例中,各级神经网络还可以利用回归边界框真值的损失函数计算本级输入区域回归边界框真值损失,例如12net的回归边界框真值bbox loss0、24net的回归边界框真值bbox loss1以及48net的回归边界框真值bbox loss2。
步骤S150,根据训练结果调整各级神经网络的参数。具体地,将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。本实施例中,训练结果中,各级卷积神经网络至少有一个参数相关联,通过神经网络的训练结果可以调整各层网络的参数,从而,使得该神经网络向全局最优靠近。在可选的实施例中,该相关联的参数为各级卷积神经网络的本级损失,各级卷积神经网络分别输出的本级损失函数和/或回归边界框真值损失进行加权求和,得到N级级联的卷积神经网络的全局损失loss,具体地,N级级联的卷积神经网络的全局损失loss至少由各级卷积神经网络的本级损失加权求和得到,可选地,在加权求和时,可以对各级卷积神经网络的本级损失(loss0、loss1和loss2)以及各级的回归边界框真值的损失(bbox loss0、bbox loss1和bbox loss2)进行。在具体实施例中,具体的加权系数可以根据经验和/或实验来确定。
为了实现各级卷积神经网络损失函数相关联,在可选的实施例中,在执行步骤S140对N级级联的卷积神经网络进行训练时,可以进一步包括:根据第1级卷积神经网络最后一层的输出,得到第1级卷积神经网络的特征向量;根据第n级卷积神经网络最后一层的输出和第n-1级卷积神经网络的特征向量,得到第n级卷积神经网络的特征向量,其中,n为正整数,且1<n≤N。在具体实施例中,根据得到的本级卷积神经网络的特征向量可以得到预测标签,而后至少分别求取各级卷积神经网络的本级损失,具体地,可以利用神经网络的损失函数及回归边界框真值的损失函数基于预测标签和真实标签计算本级损失。将该计算得到的损失反向传播至神经网络的相应位置,可以对神经网络结构参数进行优化调整。具体地,以3级联的神经网络为例进行说明,其中,第1级卷积神经网络的最后一层为卷积层,该卷积层的输出为第1级卷积神经网络的特征向量A;第2级卷积神经网络,包括依次串接的卷积层、池化层和全连接层,第2级神经网络的最后一层为全连接层,该全连接层输出特征向量B,而后与第1级神经网络的特征向量A相连得到第2级神经网络的特征向量A-B;第3级神经网络的最后一层为全连接层,该全连接层输出特征向量C而后与第2级神经网络的特征向量A-B相连得到第3级神经网络的特征向量A-B-C。本实施例中,第1级卷积神经网络的最后一层为卷积层,第1级卷积神经网络的特征向量为该级卷积神经网络中最后一层卷积层的输出,第2至N级卷积神经网络中每级卷积神经网络的最后一层为全连接层,在具体实施中,可以将卷积层输出的特征向量调整成符合连接层连接的特征向量的数据格式。通过不同级的卷积神经网络的特征向量进行连接,从而实现了各级神经网络参数进行关联。在本实施例中,对于不同级的卷积神经网络,第1级卷积神经网络采用全卷积层进行计算,可以节约计算量;而第2至N级的卷积神经网络最后一层为全连接层,可以实现正负样本的判别。
本实施例还公开了一种级联卷积神经网络训练装置,请参考图2,为该级联卷积神经网络训练装置结构示意框图,该训练装置包括:学习数据获取单元110、训练单元120和回传单元130,其中:
学习数据获取单元110用于将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,N为大于或等于2的整数;训练单元120用于分别将N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练,其中,N级级联的卷积神经网络中的每一级卷积神经网络分别与N种输入区域的一种输入区域对应;回传单元130用于将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。
在可选的实施例中,训练单元120包括:第一向量单元,用于根据第1级卷积神经网络最后一层的输出,得到第1级卷积神经网络的特征向量;第二向量单元,用于根据第n级卷积神经网络最后一层的输出和第n-1级卷积神经网络的特征向量,得到第n级卷积神经网络的特征向量,其中,n为正整数,且1<n≤N。
在可选的实施例中,训练单元120包括:本级损失求取单元,用于至少分别求取各级卷积神经网络的本级损失;全局损失求取单元,用于至少对各级卷积神经网络分别输出的本级损失进行加权求和,得到N级级联的卷积神经网络的全局损失。
本实施例还公开了一种级联卷积神经网络训练***,包括:摄像装置、存储器和处理器,其中:
图像获取装置,用于获取待学习图像的图像数据;存储器,用于存储程序;处理器,接收待学习图像的图像数据,用于执行程序以实现上述级联卷积神经网络训练方法中的操作。
本实施例提供的级联卷积神经网络训练方法、装置及***,将待学习图像至少局部区域的图像数据分别处理成N种输入区域的图像数据,并分别输入至N级级联的卷积神经网络,而后,对N级级联的卷积神经网络进行训练,至少一训练结果关联,因此,在将训练结果传播至各级卷积神经网络时,能够调整各级神经网络的参数,使得级联卷积神经网络在训练时能够达到神经网络参数全局优化。
实施例2
本实施例公开了一种基于级联卷积神经网络的图像检测方法,请参考图3,为该基于级联卷积神经网络的图像检测方法流程图,该检测方法包括如下步骤:
步骤S210,训练级联卷积神经网络模型。本实施例中,可以根据实施例1公开的级联卷积神经网络训练方法训练神经网络得到级联卷积神经网络模型。需要说明的是,本实施例中,步骤S10是在训练神经网络时执行,在神经网络训练完成后,可不再执行该步骤。
步骤S220,获取待检测图像的图像数据。在具体实施例中,可以预先对图像数据进行预处理,得到预处理后的待检测图像的图像数据,可选地,可以将图像数据的像素值减去某一数值,该数值可以是ImageNet数据集的均值,也可以是根据训练图片集合计算出的均值。当然,在其它可选实施例中,也可以预先对图像数据进行二值化的预处理。
步骤S230,对待检测图像的图像数据进行检测,得到检测结果。本实施例中,可以根据上述实施例的训练方法建立神经网络模型,而后,在获得待检测图像的图像数据之后,将该待检测图像的图像数据作为该神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果。在可选的实施例中,在对待检测图像进行检测时,可以检测待检测图像中目标对象的位置信息(例如坐标位置),目标对象的位置信息可以作为检测结果输出。
需要说明的是,在具体实施例中,在首次进行图像检测,执行步骤S210训练建立得到级联卷积神经网络后,在后续的检测过程中,可以不必再执行步骤S210。
需要说明的是,步骤S220获取的待检测图像的图像数据可以为预设的标准尺寸大小,例如48*48。
当然,步骤S220获取的待检测图像的图像数据也可以是其它尺寸,此时,在执行步骤S220之后,可以将该获取的待检测图像数据划分成多个区域,以得到各个区域的图像数据,而后对各个区域分别进行检测,即分别将各个区域的图像数据依次作为神经网络模型的输入对各个区域的图像数据进行检测,得到各个区域的检测结果。在可选的实施例中,在将获取的待检测图像的图像数据划分成多个区域时,可以将各个区域调成为预设的标准尺寸大小,例如48*48。在具体实施例中,在执行步骤S230时,应当分别将各个区域的图像数据依次输入神经网络模型,应当依次对各个区域的图像数据进行检测分别得到各个区域的检测结果。
在具体实施例中,在进行检测时,可以通过分类得分的方式来检测待检测图像是否包含目标对象,具体地,在神经网络模型的N级级联卷积神经网络的至少一级神经网络中对图像数据进行分类得分计算,将至少一级卷积神经网络的分类得分的计算值与至少一预定分值进行比较,并根据至少一比较结果确定图像数据是否包含目标对象。作为例子,如果分类得分小于预定分值,则判断为特征组合不包含目标对象。具体地,请参考图4,在执行步骤S220之后,还包括:
步骤S250,将图像数据的尺寸压缩成符合第n级卷积神经网络输入区域的尺寸,其中,n为正整数,且1≤n≤N-1。例如,将步骤S220获取的待检测图像的图像数据压缩成符合第1级卷积神经网络输入区域的尺寸(例如12*12)。
在执行步骤S230时,可以包括:
步骤S231,将压缩后的图像数据输入第n级卷积神经网络。譬如,将步骤S250压缩成符合第1级卷积神经网络输入区域的尺寸(例如12*12)的待检测图像的图像数据输入至第1级卷积神经网络。
步骤S241,通过第n级卷积神经网络对压缩后的图像数据进行第一分类得分计算。譬如,在将压缩后的图像数据输入至第1级卷积神经网络后,可以得到第一分类得分,在本实施例中,通过该第1级神经网络最后一层的卷积层可以输出该级卷积神经网络的分类得分cls score 1。在具体实施例中,各级神经网络的特征向量中的某一元素表征了该级神经网络的分类得分,例如第1级神经网络的特征向量A中的某一元素表征了该分类得分clsscore 1。需要说明的是,在具体实施例中,当n为例如2时,则第一分类得分为第2级神经网络计算的分类得分cls score 2。
步骤S242,判断第一分类得分是否小于第一预定分值。在具体实施例中,可以根据经验来确定第一预定分值。如果步骤S242判断第一分类得分小于第一预定分值,则判断结果为图像数据不包含目标对象。
在可选的实施例中,如果步骤S242判断第一分类得分大于或等于第一预定分值,则还包括:
步骤S243,将图像数据的尺寸压缩成符合第n+1级卷积神经网络输入区域的尺寸。譬如,当n=1时,如果第1级分类得分cls score 1小于该级预定值,则将图像数据的尺寸压缩成符合第2级卷积神经网络输入区域的尺寸(例如24*24);当n=2时,如果第2级分类得分cls score 2小于该级预定值,则将图像数据的尺寸压缩成符合第3级卷积神经网络输入区域的尺寸(例如48*48)。
步骤S244,将压缩后的图像数据输入第n+1级卷积神经网络。
步骤S245,通过第n+1级卷积神经网络对压缩后的图像数据进行第二分类得分计算。在将压缩后的图像数据输入至各级卷积神经网络后,可以得到本级神经网络分类得分,当n=1时,则第二分类得分为第2级神经网络计算的分类得分cls score 2;当n=2时,则第二分类得分为第3级神经网络计算的分类得分cls score 3。
步骤S246,判断第二分类得分是否小于第二预定分值。在具体实施例中,可以根据经验来确定第二预定分值。如果步骤S242判断第二分类得分小于第二预定分值,则判断结果为图像数据不包含目标对象。
在优选的实施例中,执行步骤S246时,如果第二分类得分大于或等于第二预定分值,并且n=N-1时,则判断为图像数据包含目标对象。
在优选的实施例中,当判断图像数据包含目标对象之后,还可以进一步包括:输出包含目标对象的图像数据的特征信息。在具体实施例中,可以根据预测的调整量微调待检测区域边界框的位置、大小。在将一张图片的所有待检测区域检测完毕后,选出预测包含对象的区域,用例如非最大值抑制法去除重合度较高的区域。即为该检测方法预测图中目标对象的位置与大小。
本实施例还公开了一种基于级联卷积神经网络的图像检测装置,请参考图5,为该基于级联卷积神经网络的图像检测装置结构示意框图,该检测装置包括:上述实施例的级联卷积神经网络训练装置1、图像数据获取单元2和检测单元3,其中:
图像数据获取单元2用于获取待检测图像的图像数据;检测单元,用于将待检测图像的图像数据作为上述的训练装置建立的神经网络模型的输入对待检测图像进行检测,得到待检测图像的检测结果。
在可选的实施例中,该基于级联卷积神经网络的图像检测装置还包括:区域划分单元,用于将图像数据划分成多个区域得到各个区域的图像数据;检测单元用于分别将各个区域的图像数据依次作为神经网络模型的输入对各个区域的图像数据进行检测,得到各个区域的检测结果。
在优选的实施例中,检测单元包括:分类得分单元,用于在神经网络模型的N级级联卷积神经网络的至少一级神经网络中对图像数据进行分类得分计算;比较单元,用于将至少一级卷积神经网络的分类得分的计算值与至少一预定分值进行比较,并根据至少一比较结果确定图像数据是否包含目标对象。
在优选的实施例中,该基于级联卷积神经网络的图像检测装置还包括:压缩单元,用于将图像数据的尺寸压缩成符合第n级卷积神经网络输入区域的尺寸,其中,n为正整数,且1≤n≤N-1;检测单元用于将压缩后的图像数据输入第n级卷积神经网络;第一分类得分单元,用于通过第n级卷积神经网络对压缩后的图像数据进行第一分类得分计算;判断单元,用于如果第一分类得分小于第一预定分值,则判断为图像数据不包含目标对象。
本实施例还公开了一种基于级联卷积神经网络的图像检测***,包括:
图像获取装置,用于获取待学习图像的图像数据;存储器,用于存储程序;处理器,接收待学习图像的图像数据,用于执行程序以实现上述检测方法中的操作。
本实施例还公开了一种级联的卷积神经网络,包括:级联的N级卷积神经网络,N级卷积神经网络的用于接收N种不同大小的输入区域的图像数据,用于分别对N种不同大小的输入区域的图像数据进行训练/检测,N为大于或等于2的整数;各级卷积神经网络分别输出的至少一训练结果相关联,关联后的训练结果被回传至各级卷积神经网络。
本实施例提供的基于级联卷积神经网络的图像检测方法、装置及***,在神经网络训练时,将训练结果传播至各级卷积神经网络,调整各级神经网络的参数,使得级联卷积神经网络在训练时能够达到神经网络参数的全局优化。从而在利用该网络进行检测时,可以在提高检测速度的同时取得更好的检测效果。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机***600的结构示意图。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的可执行指令或者从存储部分608加载到随机访问存储器(RAM)603中的可执行指令而执行各种适当的动作和处理。CPU601还可存储有***600操作所需的各种程序和数据。CPU601、ROM602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机分别进行图像块划分以得到图像块集合的指令;根据图像块集合中的各图像块生成至少一个第一图像块组的指令;根据至少一个第一图像块组训练卷积神经网络的指令;基于第一卷积神经网络对图像块集合中的各图像块进行分类以得到至少一个第二图像块组的指令……。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种级联卷积神经网络训练方法,其特征在于,包括:
将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,所述N为大于或等于2的整数;
分别将所述N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练,其中,所述N级级联的卷积神经网络中的每一级卷积神经网络分别与所述N种输入区域的一种输入区域对应;
将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。
2.如权利要求1所述的级联卷积神经网络训练方法,其特征在于,所述对各级卷积神经网络进行训练,包括:
根据第1级卷积神经网络最后一层的输出,得到所述第1级卷积神经网络的特征向量;
根据第n级卷积神经网络最后一层的输出和所述第n-1级卷积神经网络的特征向量,得到第n级卷积神经网络的特征向量,其中,所述n为正整数,且1<n≤N。
3.如权利要求1或2所述的级联卷积神经网络训练方法,其特征在于,
所述对各级卷积神经网络进行训练,包括:至少分别求取各级卷积神经网络的本级损失;
将各级卷积神经网络分别输出的至少一训练结果进行关联,包括:至少对各级卷积神经网络分别输出的本级损失进行加权求和,得到所述N级级联的卷积神经网络的全局损失。
4.一种基于级联卷积神经网络的图像检测方法,其特征在于,包括:
获取待检测图像的图像数据;
将所述待检测图像的图像数据作为如权利要求1-3任意一项所述的训练方法建立的神经网络模型的输入对所述待检测图像进行检测,得到所述待检测图像的检测结果。
5.如权利要求4所述的基于级联卷积神经网络的图像检测方法,其特征在于,在所述获取待检测图像的图像数据之后,还包括:
将所述图像数据划分成多个区域得到各个区域的图像数据;
将所述待检测图像的图像数据作为神经网络模型的输入对所述待检测图像进行检测,得到所述待检测图像的检测结果,包括:分别将所述各个区域的图像数据依次作为所述神经网络模型的输入对所述各个区域的图像数据进行检测,得到所述各个区域的检测结果。
6.一种级联卷积神经网络训练装置,其特征在于,包括:
学习数据获取单元,用于将待学习图像至少局部区域的图像数据分别处理成N种不同大小的输入区域的图像数据,所述N为大于或等于2的整数;
训练单元,用于分别将所述N种输入区域的图像数据作为N级级联的卷积神经网络中各级卷积神经网络的输入,对各级卷积神经网络进行训练,其中,所述N级级联的卷积神经网络中的每一级卷积神经网络分别与所述N种输入区域的一种输入区域对应;
回传单元,用于将各级卷积神经网络分别输出的至少一训练结果进行关联,并将关联后的训练结果回传至各级卷积神经网络以调整各级神经网络的参数。
7.一种基于级联卷积神经网络的图像检测装置,其特征在于,包括:
图像数据获取单元,用于获取待检测图像的图像数据;
检测单元,用于将所述待检测图像的图像数据作为如权利要求6所述的训练装置建立的神经网络模型的输入对所述待检测图像进行检测,得到所述待检测图像的检测结果。
8.一种级联卷积神经网络训练***,其特征在于,包括:
图像获取装置,用于获取待学习图像的图像数据;
存储器,用于存储程序;
处理器,接收所述待学习图像的图像数据,用于执行所述程序以实现如权利要求1-3任意一项所述方法中的操作。
9.一种基于级联卷积神经网络的图像检测***,其特征在于,包括:
图像获取装置,用于获取待检测图像的图像数据;
存储器,用于存储程序;
处理器,接收所述待检测图像的图像数据,用于执行所述程序以实现如权利要求4或5所述方法中的操作。
10.一种级联卷积神经网络,其特征在于,包括:
级联的N级卷积神经网络,所述N级卷积神经网络的用于接收N种不同大小的输入区域的图像数据,用于分别对所述N种不同大小的输入区域的图像数据进行训练/检测,所述N为大于或等于2的整数;
各级卷积神经网络分别输出的至少一训练结果相关联,关联后的训练结果被回传至各级卷积神经网络。
CN201610439342.2A 2016-06-17 2016-06-17 级联卷积神经网络训练和图像检测方法、装置及*** Active CN106096670B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610439342.2A CN106096670B (zh) 2016-06-17 2016-06-17 级联卷积神经网络训练和图像检测方法、装置及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610439342.2A CN106096670B (zh) 2016-06-17 2016-06-17 级联卷积神经网络训练和图像检测方法、装置及***

Publications (2)

Publication Number Publication Date
CN106096670A true CN106096670A (zh) 2016-11-09
CN106096670B CN106096670B (zh) 2019-07-30

Family

ID=57236547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610439342.2A Active CN106096670B (zh) 2016-06-17 2016-06-17 级联卷积神经网络训练和图像检测方法、装置及***

Country Status (1)

Country Link
CN (1) CN106096670B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651877A (zh) * 2016-12-20 2017-05-10 北京旷视科技有限公司 实例分割方法及装置
CN106845406A (zh) * 2017-01-20 2017-06-13 深圳英飞拓科技股份有限公司 基于多任务级联卷积神经网络的头肩检测方法及装置
CN107578453A (zh) * 2017-10-18 2018-01-12 北京旷视科技有限公司 压缩图像处理方法、装置、电子设备及计算机可读介质
CN108122234A (zh) * 2016-11-29 2018-06-05 北京市商汤科技开发有限公司 卷积神经网络训练及视频处理方法、装置和电子设备
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、***、电子设备和存储介质
CN108242046A (zh) * 2016-12-27 2018-07-03 阿里巴巴集团控股有限公司 图片处理方法及相关设备
CN108305240A (zh) * 2017-05-22 2018-07-20 腾讯科技(深圳)有限公司 图像质量检测方法及装置
CN108510083A (zh) * 2018-03-29 2018-09-07 国信优易数据有限公司 一种神经网络模型压缩方法以及装置
CN108629354A (zh) * 2017-03-17 2018-10-09 杭州海康威视数字技术股份有限公司 目标检测方法及装置
CN108830209A (zh) * 2018-06-08 2018-11-16 西安电子科技大学 基于生成对抗网络的遥感图像道路提取方法
CN109460704A (zh) * 2018-09-18 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、***和计算机设备
CN109583501A (zh) * 2018-11-30 2019-04-05 广州市百果园信息技术有限公司 图片分类、分类识别模型的生成方法、装置、设备及介质
CN109620269A (zh) * 2019-01-28 2019-04-16 深圳市赛梅斯凯科技有限公司 疲劳检测方法、装置、设备及可读存储介质
CN109829371A (zh) * 2018-12-26 2019-05-31 深圳云天励飞技术有限公司 一种人脸检测方法及装置
CN109871791A (zh) * 2019-01-31 2019-06-11 北京字节跳动网络技术有限公司 图像处理方法和装置
CN109903350A (zh) * 2017-12-07 2019-06-18 上海寒武纪信息科技有限公司 图像压缩方法及相关装置
CN110023964A (zh) * 2016-11-29 2019-07-16 谷歌有限责任公司 训练和/或使用神经网络模型来生成光谱图像的中间输出
CN110276411A (zh) * 2019-06-28 2019-09-24 腾讯科技(深圳)有限公司 图像分类方法、装置、设备、存储介质和医疗电子设备
CN110310287A (zh) * 2018-03-22 2019-10-08 北京连心医疗科技有限公司 基于神经网络的危及器官自动勾画方法、设备和存储介质
CN110569703A (zh) * 2019-05-10 2019-12-13 阿里巴巴集团控股有限公司 计算机执行的从图片中识别损伤的方法及装置
US10599978B2 (en) 2017-11-03 2020-03-24 International Business Machines Corporation Weighted cascading convolutional neural networks
CN111291716A (zh) * 2020-02-28 2020-06-16 深圳大学 ***细胞识别方法、装置、计算机设备和存储介质
US10885625B2 (en) 2019-05-10 2021-01-05 Advanced New Technologies Co., Ltd. Recognizing damage through image analysis
CN112784985A (zh) * 2021-01-29 2021-05-11 北京百度网讯科技有限公司 神经网络模型的训练方法及装置、图像识别方法及装置
WO2021208667A1 (zh) * 2020-04-17 2021-10-21 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
US11741354B2 (en) 2017-08-25 2023-08-29 Ford Global Technologies, Llc Shared processing with deep neural networks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946613A (zh) * 2012-10-10 2013-02-27 北京邮电大学 一种用于测量用户业务体验质量的方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法
CN104657748A (zh) * 2015-02-06 2015-05-27 中国石油大学(华东) 一种基于卷积神经网络的车型识别方法
CN104951668A (zh) * 2015-04-07 2015-09-30 上海大学 基于级联神经网络结构的蛋白质关联图的预测方法
CN105404865A (zh) * 2015-11-16 2016-03-16 杭州电子科技大学 基于概率态受限玻尔兹曼机级联的人脸检测方法
US20160148079A1 (en) * 2014-11-21 2016-05-26 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946613A (zh) * 2012-10-10 2013-02-27 北京邮电大学 一种用于测量用户业务体验质量的方法
CN104077613A (zh) * 2014-07-16 2014-10-01 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法
US20160148079A1 (en) * 2014-11-21 2016-05-26 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
CN104657748A (zh) * 2015-02-06 2015-05-27 中国石油大学(华东) 一种基于卷积神经网络的车型识别方法
CN104951668A (zh) * 2015-04-07 2015-09-30 上海大学 基于级联神经网络结构的蛋白质关联图的预测方法
CN105404865A (zh) * 2015-11-16 2016-03-16 杭州电子科技大学 基于概率态受限玻尔兹曼机级联的人脸检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAOXIANG LI ET AL.: "A convolutional neural network cascade for face detection", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
刘娜 李翠华: "基于多层卷积神经网络学习的单帧图像超分辨率重建方法", 《中国科技论文》 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108122234B (zh) * 2016-11-29 2021-05-04 北京市商汤科技开发有限公司 卷积神经网络训练及视频处理方法、装置和电子设备
CN108122234A (zh) * 2016-11-29 2018-06-05 北京市商汤科技开发有限公司 卷积神经网络训练及视频处理方法、装置和电子设备
CN110023964A (zh) * 2016-11-29 2019-07-16 谷歌有限责任公司 训练和/或使用神经网络模型来生成光谱图像的中间输出
CN110023964B (zh) * 2016-11-29 2023-10-13 谷歌有限责任公司 训练和/或使用神经网络模型来生成光谱图像的中间输出
CN106651877B (zh) * 2016-12-20 2020-06-02 北京旷视科技有限公司 实例分割方法及装置
CN106651877A (zh) * 2016-12-20 2017-05-10 北京旷视科技有限公司 实例分割方法及装置
CN108242046B (zh) * 2016-12-27 2022-02-18 阿里巴巴集团控股有限公司 图片处理方法及相关设备
CN108242046A (zh) * 2016-12-27 2018-07-03 阿里巴巴集团控股有限公司 图片处理方法及相关设备
CN106845406A (zh) * 2017-01-20 2017-06-13 深圳英飞拓科技股份有限公司 基于多任务级联卷积神经网络的头肩检测方法及装置
CN108629354B (zh) * 2017-03-17 2020-08-04 杭州海康威视数字技术股份有限公司 目标检测方法及装置
CN108629354A (zh) * 2017-03-17 2018-10-09 杭州海康威视数字技术股份有限公司 目标检测方法及装置
CN108305240A (zh) * 2017-05-22 2018-07-20 腾讯科技(深圳)有限公司 图像质量检测方法及装置
CN108229284B (zh) * 2017-05-26 2021-04-09 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、***、电子设备和存储介质
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、***、电子设备和存储介质
US11741354B2 (en) 2017-08-25 2023-08-29 Ford Global Technologies, Llc Shared processing with deep neural networks
CN107578453A (zh) * 2017-10-18 2018-01-12 北京旷视科技有限公司 压缩图像处理方法、装置、电子设备及计算机可读介质
US10599978B2 (en) 2017-11-03 2020-03-24 International Business Machines Corporation Weighted cascading convolutional neural networks
US10915810B2 (en) 2017-11-03 2021-02-09 International Business Machines Corporation Weighted cascading convolutional neural networks
CN109903350A (zh) * 2017-12-07 2019-06-18 上海寒武纪信息科技有限公司 图像压缩方法及相关装置
CN109903350B (zh) * 2017-12-07 2021-08-06 上海寒武纪信息科技有限公司 图像压缩方法及相关装置
CN110310287B (zh) * 2018-03-22 2022-04-19 北京连心医疗科技有限公司 基于神经网络的危及器官自动勾画方法、设备和存储介质
CN110310287A (zh) * 2018-03-22 2019-10-08 北京连心医疗科技有限公司 基于神经网络的危及器官自动勾画方法、设备和存储介质
CN108510083B (zh) * 2018-03-29 2021-05-14 国信优易数据股份有限公司 一种神经网络模型压缩方法以及装置
CN108510083A (zh) * 2018-03-29 2018-09-07 国信优易数据有限公司 一种神经网络模型压缩方法以及装置
CN108830209B (zh) * 2018-06-08 2021-12-17 西安电子科技大学 基于生成对抗网络的遥感图像道路提取方法
CN108830209A (zh) * 2018-06-08 2018-11-16 西安电子科技大学 基于生成对抗网络的遥感图像道路提取方法
CN109460704A (zh) * 2018-09-18 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、***和计算机设备
CN109460704B (zh) * 2018-09-18 2020-09-15 厦门瑞为信息技术有限公司 一种基于深度学习的疲劳检测方法、***和计算机设备
CN109583501A (zh) * 2018-11-30 2019-04-05 广州市百果园信息技术有限公司 图片分类、分类识别模型的生成方法、装置、设备及介质
CN109583501B (zh) * 2018-11-30 2021-05-07 广州市百果园信息技术有限公司 图片分类、分类识别模型的生成方法、装置、设备及介质
WO2020108474A1 (zh) * 2018-11-30 2020-06-04 广州市百果园信息技术有限公司 图片分类、分类识别模型的生成方法、装置、设备及介质
CN109829371A (zh) * 2018-12-26 2019-05-31 深圳云天励飞技术有限公司 一种人脸检测方法及装置
CN109829371B (zh) * 2018-12-26 2022-04-26 深圳云天励飞技术有限公司 一种人脸检测方法及装置
CN109620269B (zh) * 2019-01-28 2021-10-22 锦图计算技术(深圳)有限公司 疲劳检测方法、装置、设备及可读存储介质
CN109620269A (zh) * 2019-01-28 2019-04-16 深圳市赛梅斯凯科技有限公司 疲劳检测方法、装置、设备及可读存储介质
CN109871791A (zh) * 2019-01-31 2019-06-11 北京字节跳动网络技术有限公司 图像处理方法和装置
CN110569703A (zh) * 2019-05-10 2019-12-13 阿里巴巴集团控股有限公司 计算机执行的从图片中识别损伤的方法及装置
US10885625B2 (en) 2019-05-10 2021-01-05 Advanced New Technologies Co., Ltd. Recognizing damage through image analysis
CN110276411A (zh) * 2019-06-28 2019-09-24 腾讯科技(深圳)有限公司 图像分类方法、装置、设备、存储介质和医疗电子设备
CN110276411B (zh) * 2019-06-28 2022-11-18 腾讯科技(深圳)有限公司 图像分类方法、装置、设备、存储介质和医疗电子设备
CN111291716A (zh) * 2020-02-28 2020-06-16 深圳大学 ***细胞识别方法、装置、计算机设备和存储介质
CN111291716B (zh) * 2020-02-28 2024-01-05 深圳市瑞图生物技术有限公司 ***细胞识别方法、装置、计算机设备和存储介质
WO2021208667A1 (zh) * 2020-04-17 2021-10-21 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN112784985A (zh) * 2021-01-29 2021-05-11 北京百度网讯科技有限公司 神经网络模型的训练方法及装置、图像识别方法及装置

Also Published As

Publication number Publication date
CN106096670B (zh) 2019-07-30

Similar Documents

Publication Publication Date Title
CN106096670A (zh) 级联卷积神经网络训练和图像检测方法、装置及***
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN107220618B (zh) 人脸检测方法及装置、计算机可读存储介质、设备
CN107871119B (zh) 一种基于目标空间知识和两阶段预测学习的目标检测方法
CN112052787B (zh) 基于人工智能的目标检测方法、装置及电子设备
CN106682697B (zh) 一种基于卷积神经网络的端到端物体检测方法
CN108898610A (zh) 一种基于mask-RCNN的物体轮廓提取方法
CN106599789A (zh) 视频类别识别方法和装置、数据处理装置和电子设备
CN109101897A (zh) 水下机器人的目标检测方法、***及相关设备
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN110414559A (zh) 智能零售柜商品目标检测统一框架的构建方法及商品识别方法
CN110210482B (zh) 改进类别不平衡的目标检测方法
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN114782311B (zh) 一种基于CenterNet改进的多尺度缺陷目标检测方法及***
CN110245747B (zh) 基于全卷积神经网络的图像处理方法及装置
CN114359245A (zh) 一种工业场景下产品表面缺陷检测方法
CN113065379B (zh) 融合图像质量的图像检测方法、装置、电子设备
CN115147745A (zh) 一种基于城市无人机图像的小目标检测方法
CN114021704B (zh) 一种ai神经网络模型的训练方法及相关装置
CN117557784B (zh) 目标检测方法、装置、电子设备及存储介质
CN104167014B (zh) 用于渲染三维表面的数据的方法和设备
CN113971764A (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN113160117A (zh) 一种自动驾驶场景下的三维点云目标检测方法
CN111079744B (zh) 适用于复杂光照环境的车辆车牌智能识别方法及装置
CN115953330B (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TA01 Transfer of patent application right

Effective date of registration: 20190710

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant after: SHENZHEN SHANGTANG SCIENCE & TECHNOLOGY CO., LTD.

Address before: Room 710-712, 7th floor, No. 1 Courtyard, Zhongguancun East Road, Haidian District, Beijing

Applicant before: Shang Tang Science and Technology Development Co., Ltd. of Beijing

TA01 Transfer of patent application right