CN111428796A - 一种基于深度学习的通用物品检测方法及*** - Google Patents

一种基于深度学习的通用物品检测方法及*** Download PDF

Info

Publication number
CN111428796A
CN111428796A CN202010229590.0A CN202010229590A CN111428796A CN 111428796 A CN111428796 A CN 111428796A CN 202010229590 A CN202010229590 A CN 202010229590A CN 111428796 A CN111428796 A CN 111428796A
Authority
CN
China
Prior art keywords
image
article
deep learning
detected
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010229590.0A
Other languages
English (en)
Other versions
CN111428796B (zh
Inventor
王晨浩
王天鹤
熊意超
朱彦嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Media Intelligence Co ltd
Original Assignee
Shanghai Media Intelligence Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Media Intelligence Co ltd filed Critical Shanghai Media Intelligence Co ltd
Priority to CN202010229590.0A priority Critical patent/CN111428796B/zh
Publication of CN111428796A publication Critical patent/CN111428796A/zh
Application granted granted Critical
Publication of CN111428796B publication Critical patent/CN111428796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度学习的通用物品检测方法。采集待检测物品的图像;按照位置信息标注边界得到待检测物品图像中每个物品,将每个物品与图像背景进行区分,构造训练数据集;使用训练数据集训练并得到用于检测物品位置信息的深度学习模型;利用深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。同时提供了一种基于深度学习的通用物品检测***。本发明对物品种类没有限制,具有训练周期短、运行效率高等特点,可快速达到预期训练要求并上线实用。同时具有良好的泛化性能,采用深度图像时,泛化性能更为突出,对不同物品,不同环境,如天气情况、光照强度等,均具有很好的鲁棒性。

Description

一种基于深度学习的通用物品检测方法及***
技术领域
本发明涉及深度学习和计算机视觉技术领域,具体地,涉及一种基于深度学习的通用物品检测方法及***。
背景技术
现有的基于深度学习的检测方法,通常采用如下方式:获取物品传统图像后,输入已经训练好的深度学习模型,模型输出图像中物品的种类和位置,位置一般由矩形框表示,该方式有如下明显缺点:
1、由于需要进行物品种类识别,需要提前获得大量指定种类物品的图像数据进行训练,数据获取难,模型训练和上线实用周期长。
2、由于仅针对特定几个类别物品进行训练和检测,并且获取的数据有限,缺少深度信息,当类别改变,或类别不变但是特征改变明显,或环境条件如光照等变化时,容易产生识别错误。泛化性能不够,鲁棒性不易保证。
3、受限于目前技术能力,在进行多种类大数量物品检测时,准确率降低,效果稳定性无法保证。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
针对现有技术中存在的上述不足,本发明的目的提供了一种基于深度学习的通用物品检测方法及***,具有训练周期短、运行效率高、泛化性能强等特点,可快速上线实用。
本发明是通过以下技术方案实现的。
根据本发明的一个方面,提供了一种基于深度学习的通用物品检测方法,包括:
采集待检测物品的传统图像;
仅按照位置信息标注边界得到的待检测物品图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;
使用得到的训练数据集训练并得到用于检测图像中所有物品位置信息的深度学习模型;
利用得到的训练好的深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。
优选地,利用深度图像代替所述传统图像,改善泛化性能。
优选地,所述待检测物品为同种类的物品或者多种类混合的物品。
优选地,所述待检测物品,是指不同于背景的任何物品,其种类和数量没有限制,在检测结果中,亦不针对待检测物品进行种类区分。
优选地,所述传统图像,是指利用颜色空间对场景进行表述的图像。所述传统图像包括但不限于:RGB图像、灰度图等。其中:RGB图像是指通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的图像。灰度图是指用灰度表示的图像,其中:把白色与黑色之间按对数关系分为若干等级,称为灰度。
优选地,所述深度图像,是指包含深度信息的图像,所述深度信息为从图像采集器到场景中各点的距离信息,该信息直接反映了场景中可见表面的几何形状。所述深度图像可由深度相机或者其他任何方式获得,包括但不限于:RGBD图像、仅D通道的单通道深度图像。利用图像的深度信息使方法的泛化性能提升。
优选地,所述按照位置信息标注边界得到的待检测物品图像中的每个物品,是指按照每个物品在图像中所在位置,在对应位置标注边界,将每个物品与图像背景进行区分。
优选地,所述深度学习模型,采用卷积神经网络,包括:输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果。
优选地,所述在图像中自动标出每个物品,是指根据所得到的位置信息,在对应位置标注边界,将每个物品与图像背景进行区分。
根据本发明的另一个方面,提供了一种基于深度学习的通用物品检测***,包括:
图像采集模块:采集待检测物品的传统图像;
深度学习模型生成模块:对图像采集模块得到的待检测物品图像按照位置信息标注边界,得到待检测物品图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;使用得到的训练数据集训练并得到用于检测图像中所有物品位置信息的深度学习模型;
物品检测模块:利用深度学习模型生成模块得到的训练好的深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。
优选地,所述待检测物品,是指不同于背景的任何物品,其种类和数量没有限制,在检测结果中,亦不针对待检测物品进行种类区分。
优选地,所述深度学习模型,采用卷积神经网络,包括:输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果。
优选地,将所述待检测物品的传统图像替换为待检测物品的深度图像;其中:
所述传统图像,是指利用颜色空间对场景进行表述的图像;
所述深度图像,是指包含深度信息的图像,所述深度信息为从图像采集器到场景中各点的距离信息,该信息直接反映了场景中可见表面的几何形状。
优选地,所述待检测物品为不同于背景的同一种类的物品或多个种类混合的物品。与现有技术相比,本发明具有如下至少一种有益效果:
1、本发明提供的基于深度学习的通用物品检测方法及***,不对物品种类进行限制,收集训练数据方便,模型训练周期短,上线实用效率高。
2、本发明提供的基于深度学习的通用物品检测方法及***,由于不限于特定某一种或几种类型的物品,对特定物品特征,环境条件等依赖少,在不同检测环境下泛化性能好,结果鲁棒。结合深度信息后,可进一步提高泛化性能。
3、本发明提供的基于深度学习的通用物品检测方法及***,模型重点学习物品和背景的差异,对于数量和类型不敏感,在多种类大数量物品检测时,可保证结果稳定性。
4、本发明提供的基于深度学习的通用物品检测方法及***,得到物品位置结果后,可与任意物品分类方法结合,得到物品种类信息,方便进行功能扩展。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例中所提供的基于深度学习的通用物品检测方法流程图。
图2为本发明实施例中所提供的基于深度学习的通用物品检测***结构示意图。
具体实施方式
下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
本发明实施例提供了一种基于深度学习的通用物品检测方法,如图1所示,包括:
S1,采集待检测物品的传统图像;进一步地,所述传统图像可以替换为深度图像,改善泛化性能;此处待检测物品可以为同种类的物品或者多种类混合的物品,所述的待检测物品,是指不同于背景的任何物品,其种类和数量没有限制,在检测结果中,亦不针对待检测物品进行种类区分。
S2,按照位置信息人工标注边界的方式,得到S1中所得到图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;此处仅按照位置信息标注边界,不标注物品种类。
S3,使用S2所得到的训练数据集训练并得到用来检测图像中所有物品位置信息的深度学习模型。
S4,利用S3所得到的训练好的深度学习模型对待检测传统图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品;此处不对物品种类进行区分。
上述物品检测方法所得到的物品位置结果,可在后续与任意物品分类方法结合,得到物品种类信息,对物品进行种类识别,方便进行功能扩展。
进一步地,S1中,所述的待检测物品,是指不同于背景的任何物品,其种类和数量没有限制,在检测结果中,亦不针对待检测物品进行种类区分。
进一步地,S1中,所述传统图像,是指利用颜色空间对场景进行表述的图像,包括但不限于:RGB图像、灰度图等。其中:RGB图像是指通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的图像。灰度图是指用灰度表示的图像,其中:把白色与黑色之间按对数关系分为若干等级,称为灰度。
进一步地,S1中,采用的深度图像作为训练数据集和待检测图像,可利用深度信息使所述方法的泛化性能提升。
进一步地,S1中,所述深度图像,是指包含深度信息,即从图像采集器到场景中各点的距离(深度)信息的图像,所述信息直接反映了场景中可见表面的几何形状。所述图像可由深度相机或者其他任何方式获得。包括但不限于:RGBD图像、仅D通道的单通道深度图像。
进一步地,S2中,所述人工标注图像中每个物品,是指按照每个物品在图像中所在位置,在对应位置标注矩形框或其他任意形状的边界,将每个物品与图像背景进行区分。
进一步地,S3中,所述深度学习模型,包括但不限于:卷积神经网络。卷积神经网络是指,包括输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果;
进一步地,S4中,所述在图像中自动标出每个物品,是指根据所得到的位置信息,在对应位置标注矩形框或其他任意形状的边界,将每个物品与图像背景进行区分。
基于本发明实施例中所提供的基于深度学习的通用物品检测方法,本发明实施例同时提供了一种基于深度学习的通用物品检测***,所述***可以用于执行上述方法。
如图2所示,所述***包括:
图像采集模块:采集待检测物品的传统图像;进一步地,所述传统图像可以替换为深度图像,改善泛化性能;此处待检测物品可以为同种类的物品或者多种类混合的物品,所述的待检测物品,是指不同于背景的任何物品,其种类和数量没有限制,在检测结果中,亦不针对待检测物品进行种类区分。
深度学习模型生成模块(图2中简称为深度学习模型模块):对图像采集模块得到的待检测物品图像按照位置信息标注边界,得到待检测物品图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;使用得到的训练数据集训练并得到用于检测图像中所有物品位置信息的深度学习模型;
物品检测模块:利用深度学习模型生成模块得到的训练好的深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。
进一步地,所述深度学习模型,采用卷积神经网络,包括:输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果。
进一步地,所述待检测物品的传统图像替换为深度图像;其中:
所述传统图像,是指利用颜色空间对场景进行表述的图像;
所述深度图像,是指包含深度信息的图像,所述深度信息为从图像采集器到场景中各点的距离信息,该信息直接反映了场景中可见表面的几何形状。
进一步地,所述待检测物品为不同于背景的同一种类的物品或多个种类混合的物品。
本发明上述实施例所提供的基于深度学习的通用物品检测方法及***,采集待检测物品的传统图像,此处物品可为同种物品或者多类物品混合;人工标注所述图像中每个物品,仅按照位置信息标注边界,不标注物品种类。将每个物品与图像背景进行区分,构造训练数据集;使用所得到的训练数据集训练并得到用来检测图像中所有物品位置信息的深度学习模型;利用训练好的深度学习模型对待检测传统图像中的所有物品进行检测,不对物品种类进行区分,得到每个物品在图像中的位置信息,并在图像中标出每个物品。在优化方案中,可利用深度图像代替传统图像,改善泛化性能。本发明上述实施例所提供的所述方法及***对物品类别没有限制,具有训练周期短、运行效率高等特点,可快速达到预期训练要求并上线实用。同时具有良好的泛化性能,采用深度图像时,泛化性能更为突出,对不同物品,不同环境,如天气情况、光照强度等,均具有很好的鲁棒性。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (10)

1.一种基于深度学习的通用物品检测方法,其特征在于:
采集待检测物品的传统图像;
按照位置信息标注边界得到待检测物品图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;
使用得到的训练数据集训练并得到用于检测图像中所有物品位置信息的深度学习模型;
利用得到的训练好的深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。
2.根据权利要求1所述的基于深度学习的通用物品检测方法,其特征在于,将所述待检测物品的传统图像替换为待检测物品的深度图像;和/或
所述待检测物品为不同于背景的同一种类的物品或多个种类混合的物品。
3.根据权利要求1所述的基于深度学习的通用物品检测方法,其特征在于,所述传统图像,是指利用颜色空间对场景进行表述的图像。
4.根据权利要求2所述的基于深度学习的通用物品检测方法,其特征在于,所述深度图像,是指包含深度信息的图像,所述深度信息为从图像采集器到场景中各点的距离信息,该信息直接反映了场景中可见表面的几何形状。
5.根据权利要求1所述的基于深度学习的通用物品检测方法,其特征在于,所述按照位置信息标注边界得到的待检测物品图像中的每个物品,是指按照每个物品在图像中所在位置,在对应位置标注边界,将每个物品与图像背景进行区分。
6.根据权利要求1所述的基于深度学习的通用物品检测方法,其特征在于,所述深度学习模型,采用卷积神经网络,包括:输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果。
7.根据权利要求1所述的基于深度学习的通用物品检测方法,其特征在于,所述在图像中自动标出每个物品,是指根据所得到的位置信息,在对应位置标注边界,将每个物品与图像背景进行区分。
8.一种基于深度学习的通用物品检测***,其特征在于,包括:
图像采集模块:采集待检测物品的传统图像;
深度学习模型生成模块:对图像采集模块得到的待检测物品图像按照位置信息标注边界,得到待检测物品图像中的每个物品,将每个物品与图像背景进行区分,构造训练数据集;使用得到的训练数据集训练并得到用于检测图像中所有物品位置信息的深度学习模型;
物品检测模块:利用深度学习模型生成模块得到的训练好的深度学习模型对待检测物品图像中的所有物品进行检测,得到每个物品在图像中的位置信息,并在图像中自动标出每个物品。
9.根据权利要求8所述的基于深度学习的通用物品检测***,其特征在于,所述深度学习模型,采用卷积神经网络,包括:输入层、若干卷积层、若干池化层、若干全连接层以及输出层;其中:
所述输入层用于输入调整大小后图像尺寸相同的物品图像;
所述卷积层采用多个卷积核,用于得到物品图像的图像特征;其中,所述卷积层在进行特征学习时,采用梯度下降法调整卷积核的权重和偏置;
所述池化层用于对得到的图像特征进行均值池化操作,将图像特征的数据量降维到原来的四分之一;
所述全连接层用于连接当层神经元与前一层神经元;
所述输出层用于计算分类和回归结果。
10.根据权利要求8所述的基于深度学习的通用物品检测***,其特征在于,将所述待检测物品的传统图像替换为待检测物品的深度图像;其中:
所述传统图像,是指利用颜色空间对场景进行表述的图像;
所述深度图像,是指包含深度信息的图像,所述深度信息为从图像采集器到场景中各点的距离信息,该信息直接反映了场景中可见表面的几何形状;
和/或
所述待检测物品为不同于背景的同一种类的物品或多个种类混合的物品。
CN202010229590.0A 2020-03-27 2020-03-27 一种基于深度学习的通用物品检测方法及*** Active CN111428796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010229590.0A CN111428796B (zh) 2020-03-27 2020-03-27 一种基于深度学习的通用物品检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010229590.0A CN111428796B (zh) 2020-03-27 2020-03-27 一种基于深度学习的通用物品检测方法及***

Publications (2)

Publication Number Publication Date
CN111428796A true CN111428796A (zh) 2020-07-17
CN111428796B CN111428796B (zh) 2024-04-02

Family

ID=71549059

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010229590.0A Active CN111428796B (zh) 2020-03-27 2020-03-27 一种基于深度学习的通用物品检测方法及***

Country Status (1)

Country Link
CN (1) CN111428796B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112007352A (zh) * 2020-08-20 2020-12-01 北方民族大学 基于深度学习和光电检测的排球界线处理装置和方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN107067015A (zh) * 2016-10-27 2017-08-18 武汉烽火众智数字技术有限责任公司 一种基于多特征深度学习的车辆检测方法及装置
CN107392896A (zh) * 2017-07-14 2017-11-24 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的木材缺陷检测方法和***
CN109447071A (zh) * 2018-11-01 2019-03-08 博微太赫兹信息科技有限公司 一种基于fpga和深度学习的毫米波成像危险物品检测方法
CN109766920A (zh) * 2018-12-18 2019-05-17 任飞翔 基于深度学习的物品特征模型计算方法及装置
CN109800864A (zh) * 2019-01-18 2019-05-24 中山大学 一种基于图像输入的机器人主动学习方法
CN110472544A (zh) * 2019-08-05 2019-11-19 上海英迈吉东影图像设备有限公司 一种物品识别模型的训练方法及***
CN110503037A (zh) * 2019-08-22 2019-11-26 三星电子(中国)研发中心 一种在区域内定位物品的方法及***

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN107067015A (zh) * 2016-10-27 2017-08-18 武汉烽火众智数字技术有限责任公司 一种基于多特征深度学习的车辆检测方法及装置
CN107392896A (zh) * 2017-07-14 2017-11-24 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的木材缺陷检测方法和***
CN109447071A (zh) * 2018-11-01 2019-03-08 博微太赫兹信息科技有限公司 一种基于fpga和深度学习的毫米波成像危险物品检测方法
CN109766920A (zh) * 2018-12-18 2019-05-17 任飞翔 基于深度学习的物品特征模型计算方法及装置
CN109800864A (zh) * 2019-01-18 2019-05-24 中山大学 一种基于图像输入的机器人主动学习方法
CN110472544A (zh) * 2019-08-05 2019-11-19 上海英迈吉东影图像设备有限公司 一种物品识别模型的训练方法及***
CN110503037A (zh) * 2019-08-22 2019-11-26 三星电子(中国)研发中心 一种在区域内定位物品的方法及***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112007352A (zh) * 2020-08-20 2020-12-01 北方民族大学 基于深度学习和光电检测的排球界线处理装置和方法

Also Published As

Publication number Publication date
CN111428796B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN111612763B (zh) 手机屏幕缺陷检测方法、装置及***、计算机设备及介质
CN109829914B (zh) 检测产品缺陷的方法和装置
CN105913093B (zh) 一种用于文字识别处理的模板匹配方法
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
CN101576956B (zh) 基于机器视觉的在线字符检测方法和***
CN108921120B (zh) 一种适应广泛零售场景下的香烟识别方法
CN106919910B (zh) 一种基于hog-cth组合特征的交通标志识别方法
AU2020103716A4 (en) Training method and device of automatic identification device of pointer instrument with numbers in natural scene
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
WO2018010387A1 (zh) 元件反件检测方法和***
CN112949338A (zh) 深度学习与Hough变换结合的二维条码精确定位方法
CN108564631A (zh) 车灯光导色差检测方法、装置及计算机可读存储介质
CN112529901B (zh) 一种复杂环境下的裂缝识别方法
CN108268527A (zh) 一种检测土地利用类型变化的方法
Zhang et al. Application research of YOLO v2 combined with color identification
CN110223310A (zh) 一种基于深度学习的线结构光中心线和箱体边缘检测方法
CN111681220B (zh) 缺陷检测模型的构建方法、装置、***及存储介质
CN109472257B (zh) 一种字符版面确定方法及装置
CN113888754A (zh) 一种基于雷达视觉融合的车辆多属性识别方法
CN102676657A (zh) 一种测序图像的识别***及方法
CN110516527B (zh) 一种基于实例分割的视觉slam回环检测改进方法
CN111428796B (zh) 一种基于深度学习的通用物品检测方法及***
CN109508714B (zh) 一种低成本多通道实时数字仪表盘视觉识别方法及***
CN104766043A (zh) 一种选票图像快速识别的方法
CN113657339A (zh) 一种基于机器视觉的仪表指针计数读取方法及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant