CN111161227B - 一种基于深度神经网络的靶心定位方法及*** - Google Patents
一种基于深度神经网络的靶心定位方法及*** Download PDFInfo
- Publication number
- CN111161227B CN111161227B CN201911326585.5A CN201911326585A CN111161227B CN 111161227 B CN111161227 B CN 111161227B CN 201911326585 A CN201911326585 A CN 201911326585A CN 111161227 B CN111161227 B CN 111161227B
- Authority
- CN
- China
- Prior art keywords
- feature vector
- target
- image data
- image
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度神经网络的靶心定位方法及***,包括:建立与预设对象匹配的仿真模型,得到仿真图像数据;采集预处理后的真实图像数据;对仿真图像数据和真实图像数据做数据增强处理,得到数据集;训练深度神经网络;将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果;筛选目标类别判定与目标区域判定结果得到圆孔目标;提取圆孔目标对应的区域内每个像素点的图像坐标;计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标。本发明解决了当前基于传统图像处理技术方法在低清晰度图像难以定位、倾斜角度拍摄图像难以识别的问题。
Description
技术领域
本发明涉及计算机视觉应用领域,具体地,涉及一种基于深度神经网络的靶心定位方法及***。
背景技术
在实际的生产过程中,存在着大量无法用接触式方式测量的目标。特别是在恶劣的工业环境中,一些运动目标是无法用常规传感器测量的,所以采用非接触式的方式实时测量运动目标是目前研究的热点之一。近年来CCD图像传感器已在航空航天,卫星侦察,遥感遥测,光学图像处理等领域得到广的应用。基于DIM硬件设备基础的靶心识别是当前图像识别领域亟待解决的问题之一。
当前识别方法在低清晰度、复杂背景的图像上使用边缘检测算法难以精准地检测出目标的边缘,进而难以定位靶心。其次,由于拍摄角度的不同,目标形状会变化,难以通过单一规则判断。基于以上限制,目前难以做到全自动靶心识别,必须依赖人工处理,效率低且侦察结果一致性较差。
随着深度学习技术的迅速发展,在语音识别、图像识别等领域已经有成熟应用案例。实时数字摄影测量的关键技术之一就是二维图像的实时处理。因此利用深度学习技术实现自动图像目标检测与识别成为可能。
发明内容
本发明针对真实复杂情况下的图像,提供了一种基于深度神经网络的靶心定位方法及***,旨在解决当前基于传统图像处理技术方法在低清晰度图像难以定位、倾斜角度拍摄图像难以识别的问题。
因真实场景下的数据采集难度较大,图像质量较低,直接使用神经网络模型定位靶目标效果较差。本发明使用创建仿真图像数据的方式,增大神经网络模型的训练样本量,从而达到提升神经网络模型性能和模型的泛化能力。
为实现上述发明目的,本发明一方面提供了一种基于深度神经网络的靶心定位方法,包括:
步骤1采集仿真图像数据:
步骤1.1创建3D柱形靶模型,柱形靶模型上下底面均为椭圆形,且上下底面上均有圆孔,而柱身为细长型圆柱;
步骤1.2设置光源照向柱形靶模型,光源类型使用点光源或自然光源;使用光源的目的是为了模拟黑暗场景下所观测到的目标形状与特征,光照方向射向目标;
步骤1.3设置柱形靶模型材质,使之呈现金属材质质感;
步骤1.4设置不同视点观察柱形靶模型,并截取图像得到不同角度的二维图像;
步骤1.5为步骤1.4得到的图像分别添加高斯噪声、泊松噪声、椒盐噪声、乘性噪声。
步骤2数据预处理与数据增强:
步骤2.1对标注后的真实图像数据使用直方图均衡化,通过均匀图像的灰度值分布达到增强对比度的效果;
步骤2.2将真实图像数据进行上下翻转、左右翻转、调节图片明暗度等方式进行数据增强,扩充数据集;
步骤2.3将仿真图像数据进行上下翻转、左右翻转、调节图片明暗度等方式进行数据增强,扩充数据集。
步骤3网络模型学习:
步骤3.1使用ResNext网络提取图像的特征,分别提取第一特征向量,第二特征向量,第三特征向量,第四特征向量;
步骤3.2分别对第一特征向量,第二特征向量,第三特征向量,第四特征向量执行上采样和卷积操作得到第五特征向量,第六特征向量,第七特征向量,第八特征向量;
步骤3.3对第八特征向量执行池化操作得到第九特征向量;
步骤3.4将第一特征向量,第二特征向量,第三特征向量,第四特征向量输入区域生成网络(RPN)得到区域提议(Region proposals);
步骤3.5匹配候选区域与真实标注区域,得到正样本与负样本;候选区域即筛选后的区域提议。
步骤3.6将正样本、负样本与第五特征向量,第六特征向量,第七特征向量,第八特征向量,第九特征向量输入分类网络与边框回归网络进行目标类别判定与目标区域判定。
步骤4靶心定位:
步骤4.1筛选步骤3.6输出的结果得到“圆孔”目标;圆孔目标即柱形模型顶面或者底面上的圆形孔状凹陷区域,根据深度神经网络的识别结果剔除非圆孔目标;
步骤4.2提取“圆孔”目标的区域内每个像素点的图像坐标,记作(xi,yi),其中i=1,2,3…M;M为目标区域像素点个数;
步骤4.3计算“圆孔”目标区域像素点横纵坐标的平均值,得到靶心的图像位置坐标(X,Y),公式如下:
另一方面,与本方法对应,本发明还提供了一种基于深度神经网络的靶心定位***,所述***包括:
仿真图像数据采集单元,用于建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据;
真实图像数据采集单元,用于采集预设对象的图像数据,标注预设对象的图像数据,对标注后的数据做预处理,得到预处理后的真实图像数据;
数据增强单元,用于对仿真图像数据和真实图像数据做数据增强处理得到数据集;
深度神经网络训练单元,用于基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果;
圆孔目标筛选单元,用于筛选目标类别判定与目标区域判定结果得到圆孔目标;圆孔目标即柱形模型顶面或者底面上的圆形孔状凹陷区域,根据深度神经网络的识别结果剔除非圆孔目标;
图像坐标提取单元,用于提取圆孔目标对应的区域内每个像素点的图像坐标,记作(xi,yi),其中i=1,2,3…M;M为圆孔目标对应区域像素点个数;
靶心图像位置坐标计算单元,用于计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标(X,Y)。
本发明提供的一个或多个技术方案,至少具有如下技术效果或优点:
本方法及***对于各种复杂条件下所获取的图像有较好的识别准确率,具有一定的抗噪性。对较理想的仿真图像数据能达到8个像素点内99%以上的识别准确率和召回率。对复杂情况下的真实场景图像数据能达到10个像素点内95%以上的识别准确率和召回率。本方法及***使用深度学神经网络模型对复杂背景条件下的柱形模型进行靶心定位,取得了显著的效果。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,并不构成对本发明实施例的限定;
图1是本发明中一种基于深度神经网络的靶心定位方法的流程示意图;
图2是本发明中一种基于深度神经网络的靶心定位***的组成示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在相互不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述范围内的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例
图1是根据本发明实施例的靶心定位方法的流程图。如图1所示,该靶心定位方法的数据来源包含仿真图像数据与真实图像数据。其具体的步骤如下:
步骤1采集仿真图像数据,即“建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据”:
步骤1.1仿照真实图像数据中的柱形模型,使用OpenGL创建3D柱形靶模型。柱形靶模型上下底面均为椭圆形,且上下底面上均有圆形孔,而柱身为细长型圆柱。本发明的一个较佳的实施例中,上述圆孔半径与上下地面的圆柱半径比例如1:2;
步骤1.2设置亮度不同的点光源照向柱形模型,光源类型使用点光源或自然光源;
步骤1.3设置柱形模型材质,使之呈现金属材质质感;
步骤1.4设置不同视点观察柱形模型,并截取图像得到不同角度的二维图像;本发明的一个较佳的实施例中,图像中的柱形模型与竖直方向的夹角保持在0-60度之间;
步骤1.5标记柱形模型的圆孔得到二值掩膜图像,为后续模型训练做准备。
步骤1.6为步骤1.4生成的二维图像分别添加高斯噪声、泊松噪声、椒盐噪声、乘性噪声,以模拟真实图像数据。
步骤2采集真实图像数据,即“采集预设对象的图像数据,标注预设对象的图像数据,对标注后的数据做预处理,得到预处理后的真实图像数据”:
步骤2.1采集真实场景下CCD采集到的图像数据;
步骤2.2针对步骤2.1采集到的图像,人工标记柱形模型的圆孔,处理后得到二值掩膜图像为后续模型训练做准备;
步骤2.3对步骤2.1采集到的图像,使用直方图均衡化,通过均匀图像的灰度值分布达到增强对比度的效果。
步骤3数据增强,即“对仿真图像数据和真实图像数据做数据增强处理得到数据集”:
步骤3.1将真实场景图像数据进行上下翻转、左右翻转、调节图片明暗度扩充数据集;
步骤3.2将仿真图像数据进行上下翻转、左右翻转、调节图片明暗度扩充数据集。
步骤4训练深度神经网络,即“基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果”:
步骤4.1使用ResNext网络提取图像的特征,分别提取第一特征向量,第二特征向量,第三特征向量,第四特征向量;
步骤4.2分别对第一特征向量,第二特征向量,第三特征向量,第四特征向量执行上采样和卷积操作得到第五特征向量,第六特征向量,第七特征向量,第八特征向量;
步骤4.3对第八特征向量执行池化操作得到第九特征向量;
步骤4.4将第一特征向量、第二特征向量、第三特征向量和第四特征向量输入区域生成网络得到区域提议,基于区域提议得到候选区域;
步骤4.5匹配候选区域与真实标注区域,得到正样本与负样本;候选区域即筛选后的区域提议。
步骤4.6将正样本、负样本与第五特征向量,第六特征向量,第七特征向量,第八特征向量,第九特征向量输入分类网络与边框回归网络进行目标类别判定与目标区域判定。
步骤5区域分割,即“筛选目标类别判定与目标区域判定结果得到圆孔目标”:
步骤5.1调用步骤4所训练好的深度神经网络模型;
步骤5.2将数据集中的真实图像数据与仿真图像数据输入深度神经网络模型进行图像的区域检测。
步骤6靶心计算,即“提取圆孔目标对应的区域内每个像素点的图像坐标;计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标”:
步骤6.1提取步骤5.2检测结果中的“圆孔”目标区域;
步骤6.2统计“圆孔”目标区域内每个像素点的图像坐标,记作(x i,yi ),其中i=1,2,3…M;M为“圆孔目标”对应区域像素点个数;
步骤6.3计算“圆孔”目标区域像素点横纵坐标的平均值,得到靶心的图像置坐标(X,Y),公式如下:
请参考图2,本发明实施例还提供了一种基于深度神经网络的靶心定位***,所述***包括:
仿真图像数据采集单元,用于建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据;
真实图像数据采集单元,用于采集预设对象的图像数据,标注预设对象的图像数据,对标注后的数据做预处理,得到预处理后的真实图像数据;
数据增强单元,用于对仿真图像数据和真实图像数据做数据增强处理,得到数据集;
深度神经网络训练单元,用于基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果;
其中,所述深度神经网络训练单元包括:
特征向量提取模块,用于使用ResNext网络提取仿真图像和真实图像的特征,分别提取第一特征向量、第二特征向量、第三特征向量和第四特征向量;
采样卷积模块,用于分别对第一特征向量、第二特征向量、第三特征向量和第四特征向量执行上采样和卷积操作,得到第五特征向量、第六特征向量、第七特征向量和第八特征向量;
池化模块,用于对第八特征向量执行池化操作得到第九特征向量;
提议模块,将第一特征向量、第二特征向量、第三特征向量和第四特征向量输入区域生成网络得到区域提议,基于区域提议得到候选区域;
样本筛选模块,用于匹配候选区域与真实标注区域,得到正样本与负样本;
判定模块,用于将正样本、负样本与第五特征向量、第六特征向量、第七特征向量、第八特征向量和第九特征向量输入分类网络与边框回归网络进行目标类别判定与目标区域判定,得到目标类别判定与目标区域判定结果。
圆孔目标筛选单元,用于筛选目标类别判定与目标区域判定结果得到圆孔目标;
图像坐标提取单元,用于提取圆孔目标对应的区域内每个像素点的图像坐标,记作(xi,yi ),其中i=1,2,3…M;M为圆孔目标对应区域像素点个数;
靶心图像位置坐标计算单元,用于计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标(X,Y)。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种基于深度神经网络的靶心定位方法,其特征在于,所述方法包括:
建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据;
采集预设对象的图像数据,标注预设对象的图像数据,对标注后的数据做预处理,得到预处理后的真实图像数据;
对仿真图像数据和真实图像数据做数据增强处理得到数据集;
基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果;
筛选目标类别判定与目标区域判定结果得到圆孔目标;
提取圆孔目标对应的区域内每个像素点的图像坐标,记作(x i,y i),其中i=1,2,3…M;M为圆孔目标对应区域像素点个数;
计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标(X,Y);
其中,在基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果中,具体包括:
使用ResNext网络提取仿真图像和真实图像的特征,分别提取第一特征向量、第二特征向量、第三特征向量和第四特征向量;
分别对第一特征向量、第二特征向量、第三特征向量和第四特征向量执行上采样和卷积操作,得到第五特征向量、第六特征向量、第七特征向量和第八特征向量;
对第八特征向量执行池化操作得到第九特征向量;
将第一特征向量、第二特征向量、第三特征向量和第四特征向量输入区域生成网络得到区域提议,基于区域提议得到候选区域;
匹配候选区域与真实标注区域,得到正样本与负样本;
将正样本、负样本与第五特征向量、第六特征向量、第七特征向量、第八特征向量和第九特征向量输入分类网络与边框回归网络进行目标类别判定与目标区域判定,得到目标类别判定与目标区域判定结果。
2.根据权利要求1所述的一种基于深度神经网络的靶心定位方法,其特征在于,所述步骤:建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据,具体包括:
创建仿真模型;
设置光源照向仿真模型;
设置不同视点观察仿真模型,并截取图像得到不同角度的二维图像;
在得到的二维图像中添加噪声,得到仿真图像数据。
3.根据权利要求2所述的一种基于深度神经网络的靶心定位方法,其特征在于,仿真模型为3D柱形靶模型,柱形靶模型上下底面均为椭圆形,且上下底面上均有圆孔,柱形靶模型的材质设置为金属材质。
4.根据权利要求2所述的一种基于深度神经网络的靶心定位方法,其特征在于,设置光源照向柱形靶模型模拟黑暗场景下所观测到的目标形状与特征,光源类型使用点光源或自然光源。
5.根据权利要求2所述的一种基于深度神经网络的靶心定位方法,其特征在于,在得到的二维图像中分别添加高斯噪声或泊松噪声或椒盐噪声或乘性噪声,得到仿真图像数据。
6.根据权利要求1所述的一种基于深度神经网络的靶心定位方法,其特征在于,对标注后的数据做预处理即对标注后的图像数据使用直方图均衡化。
7.根据权利要求1所述的一种基于深度神经网络的靶心定位方法,其特征在于,对仿真图像数据和真实图像数据做数据增强处理即通过将仿真图像数据和真实图像数据翻转及调节图片明暗度扩充数据集。
9.一种基于深度神经网络的靶心定位***,其特征在于,所述***包括:
仿真图像数据采集单元,用于建立与预设对象匹配的仿真模型,采集仿真模型的图像,得到仿真图像数据;
真实图像数据采集单元,用于采集预设对象的图像数据,标注预设对象的图像数据,对标注后的数据做预处理,得到预处理后的真实图像数据;
数据增强单元,用于对仿真图像数据和真实图像数据做数据增强处理得到数据集;
深度神经网络训练单元,用于基于数据集得到训练集,利用训练集训练深度神经网络,将数据集输入训练后的深度神经网络,得到目标类别判定与目标区域判定结果;
圆孔目标筛选单元,用于筛选目标类别判定与目标区域判定结果得到圆孔目标;
图像坐标提取单元,用于提取圆孔目标对应的区域内每个像素点的图像坐标,记作(xi ,y i ),其中i=1,2,3…M;M为圆孔目标对应区域像素点个数;
靶心图像位置坐标计算单元,用于计算圆孔目标区域像素点横纵坐标的平均值,得到预设对象靶心的图像位置坐标(X,Y);
其中,所述深度神经网络训练单元还包括
特征向量提取模块,用于使用ResNext网络提取仿真图像和真实图像的特征,分别提取第一特征向量、第二特征向量、第三特征向量和第四特征向量;
采样卷积模块,用于分别对第一特征向量、第二特征向量、第三特征向量和第四特征向量执行上采样和卷积操作,得到第五特征向量、第六特征向量、第七特征向量和第八特征向量;
池化模块,用于对第八特征向量执行池化操作得到第九特征向量;
提议模块,将第一特征向量、第二特征向量、第三特征向量和第四特征向量输入区域生成网络得到区域提议,基于区域提议得到候选区域;
样本筛选模块,用于匹配候选区域与真实标注区域,得到正样本与负样本;
判定模块,用于将正样本、负样本与第五特征向量、第六特征向量、第七特征向量、第八特征向量和第九特征向量输入分类网络与边框回归网络进行目标类别判定与目标区域判定,得到目标类别判定与目标区域判定结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911326585.5A CN111161227B (zh) | 2019-12-20 | 2019-12-20 | 一种基于深度神经网络的靶心定位方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911326585.5A CN111161227B (zh) | 2019-12-20 | 2019-12-20 | 一种基于深度神经网络的靶心定位方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111161227A CN111161227A (zh) | 2020-05-15 |
CN111161227B true CN111161227B (zh) | 2022-09-06 |
Family
ID=70557493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911326585.5A Active CN111161227B (zh) | 2019-12-20 | 2019-12-20 | 一种基于深度神经网络的靶心定位方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111161227B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797832B (zh) * | 2020-07-14 | 2024-02-02 | 成都数之联科技股份有限公司 | 一种图像感兴趣区域自动生成方法及***及图像处理方法 |
CN112052946A (zh) * | 2020-07-21 | 2020-12-08 | 重庆邮电大学移通学院 | 神经网络训练方法及相关产品 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170337682A1 (en) * | 2016-05-18 | 2017-11-23 | Siemens Healthcare Gmbh | Method and System for Image Registration Using an Intelligent Artificial Agent |
CN106597425B (zh) * | 2016-11-18 | 2019-02-12 | 中国空间技术研究院 | 一种基于机器学习的雷达目标定位方法 |
CN108229252B (zh) * | 2016-12-15 | 2020-12-15 | 腾讯科技(深圳)有限公司 | 一种瞳孔定位方法及*** |
JP2019139346A (ja) * | 2018-02-07 | 2019-08-22 | シャープ株式会社 | 画像認識装置、画像認識システム及びプログラム |
JP6962263B2 (ja) * | 2018-04-17 | 2021-11-05 | 日本電信電話株式会社 | 3次元点群ラベル学習装置、3次元点群ラベル推定装置、3次元点群ラベル学習方法、3次元点群ラベル推定方法、及びプログラム |
CN108960134A (zh) * | 2018-07-02 | 2018-12-07 | 广东容祺智能科技有限公司 | 一种巡线无人机影像标注及智能识别方法 |
CN109190625B (zh) * | 2018-07-06 | 2021-09-03 | 同济大学 | 一种大角度透视变形的集装箱箱号识别方法 |
CN109446973B (zh) * | 2018-10-24 | 2021-01-22 | 中车株洲电力机车研究所有限公司 | 一种基于深度神经网络图像识别的车辆定位方法 |
CN109685066B (zh) * | 2018-12-24 | 2021-03-09 | 中国矿业大学(北京) | 一种基于深度卷积神经网络的矿井目标检测与识别方法 |
CN110059676B (zh) * | 2019-04-03 | 2021-05-07 | 北京航空航天大学 | 一种基于深度学习与多目标分布排序的航空插头孔位识别方法 |
CN110321750A (zh) * | 2019-04-23 | 2019-10-11 | 成都数之联科技有限公司 | 一种图片中的二维码识别方法及*** |
CN110223352B (zh) * | 2019-06-14 | 2021-07-02 | 浙江明峰智能医疗科技有限公司 | 一种基于深度学习的医学图像扫描自动定位方法 |
-
2019
- 2019-12-20 CN CN201911326585.5A patent/CN111161227B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111161227A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113450307B (zh) | 一种产品边缘缺陷检测方法 | |
CN105740899B (zh) | 一种机器视觉图像特征点检测与匹配复合的优化方法 | |
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN105260699B (zh) | 一种车道线数据的处理方法及装置 | |
CN111640157B (zh) | 一种基于神经网络的棋盘格角点检测方法及其应用 | |
CN104850850B (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN106548462B (zh) | 基于薄板样条插值的非线性sar图像几何校正方法 | |
CN107392929B (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN106446894B (zh) | 一种基于轮廓识别球型目标物位置的方法 | |
CN113160192A (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN108596880A (zh) | 基于图像处理的焊接缺陷特征提取与焊接质量分析方法 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN109118528A (zh) | 基于区域分块的奇异值分解图像匹配算法 | |
CN107230203A (zh) | 基于人眼视觉注意机制的铸件缺陷识别方法 | |
CN108985337A (zh) | 一种基于图像深度学习的产品表面划痕检测方法 | |
CN111161227B (zh) | 一种基于深度神经网络的靶心定位方法及*** | |
CN113920081A (zh) | 一种刀具磨损度检测方法 | |
CN113313116B (zh) | 一种基于视觉的水下人工目标准确检测与定位方法 | |
CN112067233A (zh) | 一种用于风洞模型六自由度运动捕获方法 | |
CN110334727B (zh) | 一种隧道裂缝智能匹配检测方法 | |
CN105957116B (zh) | 一种基于频率的动态编码点的设计与解码方法 | |
CN114998308A (zh) | 一种基于光度立体的缺陷检测方法及*** | |
CN114972646B (zh) | 一种实景三维模型独立地物的提取与修饰方法及*** | |
CN113205099A (zh) | 一种镀镍金属表面去料字符视觉检测***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 610000 No. 270, floor 2, No. 8, Jinxiu street, Wuhou District, Chengdu, Sichuan Applicant after: Chengdu shuzhilian Technology Co.,Ltd. Address before: 610000 No.2, 4th floor, building 1, Jule Road intersection, West 1st section of 1st ring road, Wuhou District, Chengdu City, Sichuan Province Applicant before: CHENGDU SHUZHILIAN TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |