CN111652226B - 基于图片的目标识别方法、装置及可读存储介质 - Google Patents
基于图片的目标识别方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN111652226B CN111652226B CN202010360752.4A CN202010360752A CN111652226B CN 111652226 B CN111652226 B CN 111652226B CN 202010360752 A CN202010360752 A CN 202010360752A CN 111652226 B CN111652226 B CN 111652226B
- Authority
- CN
- China
- Prior art keywords
- picture
- target
- training
- scene
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000011218 segmentation Effects 0.000 claims abstract description 95
- 230000004913 activation Effects 0.000 claims abstract description 48
- 238000011176 pooling Methods 0.000 claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 238000005070 sampling Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 113
- 230000006870 function Effects 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 45
- 238000010276 construction Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 13
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000010339 dilation Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000011524 similarity measure Methods 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种基于图片的目标识别方法,包括:利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集,在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集,将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。本发明还涉及区块链技术,所述原始图片及所述目标图片可以存储于区块链节点中。本发明还提出一种基于图片的目标识别装置、电子设备以及计算机可读存储介质。本发明可以解决目标识别过程需要进行大量计算,占用过多计算资源的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于图片的目标识别的方法、装置、电子设备及可读存储介质。
背景技术
基于图片的目标识别是指从图片中将一种类型的目标从其它目标中被区分出来的过程。当下基于图片的目标识别主要分为传统机器学习算法和深度学习算法,传统机器学习算法先对图片进行数字图像处理,然后基于支持向量机、决策树等机器学习进行识别图片中的目标。深度学习算法主要以卷积神经网络为基础,直接识别图片中的目标。
综合来说,两种方法都可以识别图片中的目标,但传统机器学习算法处理步骤繁琐且识别准确率不高,深度学习算法虽然识别准确率高,但由于卷积神经网络是直接对图片进行目标识别,并没有对目标识别进行步骤拆分,故识别过程需要进行大量的计算,占用过多计算资源。
发明内容
本发明提供一种基于图片的目标识别方法、装置、电子设备及计算机可读存储介质,其主要目的在于拆分目标识别的步骤,解决识别过程需要进行大量计算,占用过多计算资源的问题。
为实现上述目的,本发明提供的一种基于图片的目标识别方法,包括:
利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
可选地,该方法还包括构建所述场景分割网络,所述构建包括:
构建执行所述卷积操作、所述激活操作及所述池化操作的分割层;
构建执行所述上采样操作、所述卷积操作及所述激活操作的提取层;及
构建执行所述卷积操作、所述激活操作及所述分类操作的输出层;
根据所述分割层、所述提取层及所述输出层,构建所述场景分割网络。
可选地,该方法还包括训练所述场景分割网络,其中,所述训练包括:
步骤A:获取场景图片训练集,利用所述分割层对所述场景图片训练集执行第一特征提取,得到第一场景特征集;
步骤B:利用所述提取层在所述第一场景特征集中执行第二特征提取,得到第二场景特征集;
步骤C:利用所述输出层在所述第二场景特征集中执行第三特征提取和所述分类操作,得到并输出第一训练值;
步骤D:在所述第一训练值大于预设的第一训练阈值时,返回步骤A;
步骤E:在所述第一训练值小于或等于所述第一训练阈值时,得到训练完成的场景分割网络。
可选地,该方法还包括构建所述目标识别网络,所述构建包括:
提取所述场景分割网络中卷积操作的卷积核尺寸并设置膨胀率;
根据所述卷积核尺寸和所述膨胀率以及预构建的膨胀卷积计算公式,计算得到所述膨胀卷积操作的膨胀卷积核尺寸;
根据所述卷积核尺寸及所述膨胀卷积核尺寸构建得到所述第一目标识别层;
构建相似性度量分类函数,并根据所述膨胀卷积操作和所述相似性度量分类函数构建第二目标识别层;
根据所述第一目标识别层及所述第二目标识别层,构建所述目标识别网络。
可选地,该方法还包括训练所述目标识别网络,其中,所述训练包括:
步骤a:获取目标图片训练集,利用所述第一目标识别层对所述目标图片训练集执行第一膨胀卷积操作,得到第一目标特征集;
步骤b:利用所述第二目标识别层对所述第一目标特征集执行第二膨胀卷积操作及相似性度量计算,得到并输出第二训练值;
步骤c:若所述第二训练值大于所述第二训练阈值,则返回步骤a;
步骤d:若所述第二训练值小于或等于所述第二训练阈值,得到所述目标识别网络。
可选地,所述相似性度量分类函数采用如下构建方法:
其中,y*为所述目标图片训练集的标签值,为所述目标识别网络训练所述目标图片训练集的训练值,c为所述目标图片训练集标签值的类别。
为了解决上述问题,本发明还提供一种基于图片的目标识别装置,所述装置包括:
第一特征获取模块,用于利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
场景图片提取模块,用于在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
目标图片识别模块,用于将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
可选地,所述装置还包括场景分割网络构建模块,所述场景分割网络构建模块用于执行:
构建执行所述卷积操作、所述激活操作及所述池化操作的分割层;
构建执行所述上采样操作、所述卷积操作及所述激活操作的提取层;及
构建执行所述卷积操作、所述激活操作及所述分类操作的输出层;
根据所述分割层、所述提取层及所述输出层,构建所述场景分割网络。
可选地,所述装置还包括场景分割网络训练模块,所述场景分割网络训练模块用于执行:
步骤A:获取场景图片训练集,利用所述分割层对所述场景图片训练集执行第一特征提取,得到第一场景特征集;
步骤B:利用所述提取层在所述第一场景特征集中执行第二特征提取,得到第二场景特征集;
步骤C:利用所述输出层在所述第二场景特征集中执行第三特征提取和所述分类操作,得到并输出第一训练值;
步骤D:在所述第一训练值大于预设的第一训练阈值时,返回步骤A;
步骤E:在所述第一训练值小于或等于所述第一训练阈值时,得到训练完成的场景分割网络。
可选地,所述装置还包括目标识别网络构建模块,所述目标识别网络构建模块用于执行:
提取所述场景分割网络中卷积操作的卷积核尺寸并设置膨胀率;
根据所述卷积核尺寸和所述膨胀率以及预构建的膨胀卷积计算公式,计算得到所述膨胀卷积操作的膨胀卷积核尺寸;
根据所述卷积核尺寸及所述膨胀卷积核尺寸构建得到所述第一目标识别层;
构建相似性度量分类函数,并根据所述膨胀卷积操作和所述相似性度量分类函数构建第二目标识别层;
根据所述第一目标识别层及所述第二目标识别层,构建所述目标识别网络。
可选地,所述装置还包括目标识别网络训练模块,其中,所述目标识别网络训练模块用于执行:
步骤a:获取目标图片训练集,利用所述第一目标识别层对所述目标图片训练集执行第一膨胀卷积操作,得到第一目标特征集;
步骤b:利用所述第二目标识别层对所述第一目标特征集执行第二膨胀卷积操作及相似性度量计算,得到并输出第二训练值;
步骤c:若所述第二训练值大于所述第二训练阈值,则返回步骤a;
步骤d:若所述第二训练值小于或等于所述第二训练阈值,得到所述目标识别网络。
可选地,所述目标识别网络构建模块采用如下构建方法构建所述相似性度量分类函数:
其中,y*为所述目标图片训练集的标签值,为所述目标识别网络训练所述目标图片训练集的训练值,c为所述目标图片训练集标签值的类别。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于图片的目标识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有计算机程序,存储有计算机程序所述计算机程序被处理器执行时实现上述所述的基于图片的目标识别方法。
本发明实施例先利用场景分割网络,对原始图片进行卷积操作、激活操作及池化操作,以达到从原始图片中提取图片特征,并缩减图片像素规模的目的,同时根据原始图片内所包括的场景,结合上采样操作及分类函数对图片特征进行场景分离得到场景图片集,由于将原始图片拆分为若干场景图片,因此进一步缩减图片尺寸规模,同时使用目标识别网络直接从场景图片集中识别出图片。由于本发明使用包括卷积操作、激活操作及池化操作的深度学习网络,故目标识别准确率高,同时将原始图片按照特征提取、场景分割及目标识别循环而进进行处理,每个过程都有涉及到对图片尺寸进行缩小的作用,因此本发明可以解决识别过程需要进行大量计算,占用过多计算资源的问题。
附图说明
图1为本发明一实施例提供的基于图片的目标识别方法的流程示意图;
图2为本发明一实施例提供的基于图片的目标识别装置的模块示意图;
图3为本发明一实施例提供的实现基于图片的目标识别方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供的基于图片的目标识别方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于图片的目标识别方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的基于图片的目标识别方法的流程示意图。在本实施例中,所述基于图片的目标识别方法包括:
S1、获取原始图片,根据场景分割网络,对所述原始图片进行卷积操作、激活操作及池化操作得到第一特征集。
本发明实施例中,所述原始图片是用于执行目标识别的图片,即从所述原始图片中识别出预设类型的目标物。所述原始图片的获取途径多种多样,包括获取用户通过手机拍摄的图像、网络中使用爬虫技术爬取的图片等。
本发明其中一个应用场景中,小张是一位卡车司机,在驾驶卡车时,被高空抛物砸中了卡车的前发动机引擎盖,因此,本发明其中一个实施例中,小张使用手机拍摄被高空抛物砸中后的卡车前发动机引擎盖图片,即为本发明实施例中所述原始图片,本发明实施例通过所述原始图片识别出所述卡车前发动机引擎盖图片中发动机引擎盖被砸中的区域。
较佳地,为了从卡车前发动机引擎盖图片识别发动机引擎盖被砸中的区域,本发明实施例需要构建一个场景分割网络,用于将原始图片分割为若干场景图片。例如,卡车前发动机引擎盖图片可能包括卡车前发动机引擎盖图片、卡车轮胎、卡车轮胎所在的公路等,故构建一个场景分割网络,将卡车前发动机引擎盖图片分为成只包括卡车前发动机引擎盖图片、卡车轮胎图片、卡车轮胎所在的公路图片。
优选地,所述构建所述场景分割网络,包括:构建执行卷积操作、激活操作及池化操作的分割层,构建执行上采样操作、所述卷积操作及所述激活操作的提取层;及构建执行所述卷积操作、所述激活操作及分类操作的输出层,根据所述分割层、所述提取层及所述输出层,构建所述场景分割网络。
当构建所述场景分割网络之后,需要对所述场景分割网络进行训练,从而调整所述场景分割网络的内部参数。优选地,所述训练包括:
步骤A:获取场景图片训练集,利用所述分割层对所述场景图片训练集执行第一特征提取得到第一场景特征集;
步骤B:利用所述提取层在所述第一场景特征集中执行第二特征提取得到第二场景特征集;
步骤C:利用所述输出层在所述第二场景特征集中执行第三特征提取和所述分类操作,得到第一训练值;
步骤D:在所述第一训练值大于预设的第一训练阈值时,返回步骤A;
步骤E:在所述第一训练值小于或等于所述第一训练阈值时,得到训练完成的场景分割网络。
详细地,本发明实施例先构建5个分割层,每个分割层都包括卷积操作、激活操作及池化操作,进一步构建4个提取层,每个分割层都包括上采样操作、卷积操作及激活操作,再构建一个输出层,该输出层包括卷积操作、激活操作及分类操作。
其中,所述卷积操作及池化操作,即为当前已公开的卷积神经网络中的卷积操作及池化操作。所述激活操作可使用线性整流函数、Sigmoid函数等。所述分类操作可采用Softmax函数。
详细地,本发明实施例先从网络上或公开数据集等途径获取场景图片训练集,并将获取的场景图片训练集输入至所述场景分割网络进行训练,其中第一训练值可根据预先构建的损失函数,如感知损失函数、平方损失函数等计算得到。
进一步地,当训练完成得到场景分割网络时,本发明实施例将原始图片输入至所述场景分割网络依次进行所述卷积操作、所述激活操作及所述池化操作得到第一特征集,如上述被高空抛物砸中后的卡车前发动机引擎盖图片先在第一分割层中进行卷积操作、激活操作及池化操作,然后在第二分割层中进行卷积操作、激活操作及池化操作,以此类推直到第五分割层中进行卷积操作、激活操作及池化操作后得到所述第一特征集。
S2、在所述场景分割网络内,对所述第一特征集进行上采样操作、卷积操作及激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集。
如S1所述,本发明实施例中,所述场景分割网络包括5个分割层、4个提取层及1个输出层,当原始图片经过5个分割层进行处理后,可得到第一特征集,进一步地,使用4个提取层对第一特征集进行操作得到第二特征集。
本发明实施例中,4个提取层对第一特征集分别进行上采样操作、卷积操作及激活操作,其中上采样操作包括重采样和插值的操作,如预先设定一个期望图片尺寸,使用如双线性插值等方法,对所述第一特征集进行插值完成上采样操作。
当经过4个提取层后可得第二特征集,根据输出层的搭建过程知,对第二特征集先进行卷积操作及激活操作后,利用预先构建的分类函数如Softmax函数等,进行分类操作得到所述场景图片集。
S3、将所述场景分割集输入至目标识别网络中进行目标识别得到目标图片。
所述目标识别网络主要是识别场景分割集中所出现的目标,如上述包括卡车前发动机引擎盖图片、卡车轮胎图片、卡车轮胎所在的公路图片的场景图片集,若目标识别网络是为了识别卡车前发动机引擎盖,则在每个场景图片都会以识别卡车前发动机引擎盖为目的进行识别。
本发明实施例首先构建所述目标识别网络,所述构建包括:
步骤Ⅰ:以所述场景分割网络中的卷积操作为基础,构建包括膨胀卷积操作的第一目标识别层;
详细地,所述步骤Ⅰ包括:提取所述卷积操作的卷积核尺寸并设置膨胀率,将所述卷积核尺寸和所述膨胀率作为预构建的膨胀卷积计算公式输入参数,计算得到所述膨胀卷积操作的膨胀卷积核尺寸,结合所述卷积核尺寸及所述膨胀卷积核尺寸构建得到所述第一目标识别层。
如卷积操作中的卷积核大小(kernel_size)为3*3,膨胀率(dilation_rate)为2,根据膨胀卷积计算公式dilation_rate*(kernel_size-1)+1计算为:2*(3-1)+1=5,因此膨胀卷积核尺寸为5*5。
当得到卷积核3*3及膨胀卷积核5*5后,可根据实际应用场景构建第一目标识别层,如构建5次卷积操作、5次膨胀卷积操作的第一目标识别层等。
步骤Ⅱ:构建相似性度量分类函数,并根据所述膨胀卷积操作和所述相似性度量分类函数构建第二目标识别层;
所述相似性度量分类函数为:
其中,y*为所述目标图片训练集的标签值,为所述目标识别网络训练所述目标图片训练集的训练值,c为所述目标图片训练集标签值的类别,如所述目标图片训练集总共有172个标签值,则c的数量为172。
第二目标识别层的构建也需要根据实际应用场景,本发明实施例中,第二目标识别层的操作主要包括先卷积操作、然后多次膨胀卷积操作,最后使用所述相似性度量分类函数输出目标结果。
步骤Ⅲ:组合所述第一目标识别层及所述第二目标识别层得到所述目标识别网络。
与所述场景分割网络对应,当构建所述目标识别网络完成后,需要对所述目标识别网络进行训练,从而调整目标识别网络的内部参数。优选地,所述训练包括:
步骤a:获取目标图片训练集,利用所述第一目标识别层对所述目标图片训练集执行第一膨胀卷积操作得到第一目标特征集;
步骤b:利用所述第二目标识别层对所述第一目标特征集执行第二膨胀卷积操作,及相似性度量计算得到第二训练值;
步骤c:若所述第二训练值大于所述第二训练阈值,则返回步骤Ⅰ;
步骤d:若所述第二训练值小于或等于所述第二训练阈值,得到所述目标识别网络。
结合上述构建所述目标识别网络及训练所述目标识别网络的步骤后,得到训练完成的目标识别网络。
进一步地,本发明实施例将所述场景图片集输入至目标识别网络中进行目标识别,可以得到目标图片。
例如,在其中一个应用场景中,本发明实施例利用场景分割网络和目标识别网络,将卡车前发动机引擎盖图片,输入至场景分割网络得到包括仅有卡车前发动机引擎盖的场景图片,及卡车前发动机引擎盖所在背景的场景图片,并将卡车前发动机引擎盖的场景图片输入至目标识别网络得到卡车前发动机引擎盖被高空抛物砸中的区域图片,该区域图片即为目标图片。
本发明优选实施例中,所述原始图片及所述目标图片可以存储于区块链节点中。
本发明实施例先利用场景分割网络,对原始图片进行卷积操作、激活操作及池化操作,以达到从原始图片中提取图片特征,并缩减图片像素规模的目的,同时根据原始图片内所包括的场景,结合上采样操作及分类函数对图片特征进行场景分离得到场景图片集,由于将原始图片拆分为若干场景图片,因此进一步缩减图片尺寸规模,同时使用目标识别网络直接从场景图片集中识别出图片。由于本发明使用包括卷积操作、激活操作及池化操作的深度学习网络,故目标识别准确率高,同时将原始图片按照特征提取、场景分割及目标识别循环而进进行处理,每个过程都有涉及到对图片尺寸进行缩小的作用,因此本发明可以解决识别过程需要进行大量计算,占用过多计算资源的问题。
如图2所示,是本发明基于图片的目标识别装置的功能模块图。
本发明所述基于图片的目标识别装置100可以安装于电子设备中。根据实现的功能,所述基于图片的目标识别装置可以包括第一特征获取模块101、场景图片提取模块102、目标图片识别模块103。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述第一特征获取模块101,用于利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
所述场景图片提取模块102,用于在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
所述目标图片识别模块103,用于将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
详细地,所述基于图片的目标识别装置各模块的具体实施步骤如下:
所述第一特征获取模块101利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集。
本发明实施例中,所述原始图片是用于执行目标识别的图片,即从所述原始图片中识别出预设类型的目标物。所述原始图片的获取途径多种多样,包括获取用户通过手机拍摄的图像、网络中使用爬虫技术爬取的图片等。
本发明其中一个应用场景中,小张是一位卡车司机,在驾驶卡车时,被高空抛物砸中了卡车的前发动机引擎盖,因此,本发明其中一个实施例中,小张使用手机拍摄被高空抛物砸中后的卡车前发动机引擎盖图片,即为本发明实施例中所述原始图片,本发明实施例通过所述原始图片识别出所述卡车前发动机引擎盖图片中发动机引擎盖被砸中的区域。
较佳地,为了从卡车前发动机引擎盖图片识别发动机引擎盖被砸中的区域,本发明实施例需要构建一个场景分割网络,将原始图片分割为若干场景图片,如卡车前发动机引擎盖图片可能包括卡车前发动机引擎盖图片、卡车轮胎、卡车轮胎所在的公路等,故构建一个场景分割网络,将卡车前发动机引擎盖图片分为成只包括卡车前发动机引擎盖图片、卡车轮胎图片、卡车轮胎所在的公路图片。
优选地,本发明还包括场景分割网络构建模块104。所述场景分割网络构建模块104用于:构建执行所述卷积操作、所述激活操作及所述池化操作的分割层,构建执行所述上采样操作、所述卷积操作及所述激活操作的提取层;及构建执行所述卷积操作、所述激活操作及所述分类操作的输出层,根据所述分割层、所述提取层及所述输出层,构建所述场景分割网络。
进一步地,本发明实施例还可以包括场景分割网络训练模块105,用于调整场景分割网络的内部参数。优选地,所述场景分割网络训练模块105在调整场景分割网络的内部参数时,执行下述操作:
步骤A:获取场景图片训练集,利用所述分割层对所述场景图片训练集执行第一特征提取得到第一场景特征集;
步骤B:利用所述提取层在所述第一场景特征集中执行第二特征提取得到第二场景特征集;
步骤C:利用所述输出层在所述第二场景特征集中执行第三特征提取和所述分类操作,得到第一训练值;
步骤D:在所述第一训练值大于预设的第一训练阈值时,返回步骤A;
步骤E:在所述第一训练值小于或等于所述第一训练阈值时,得到训练完成的场景分割网络。
详细地,本发明实施例先构建5个分割层,每个分割层都包括卷积操作、激活操作及池化操作,进一步构建4个提取层,每个分割层都包括上采样操作、卷积操作及激活操作,再构建一个输出层,该输出层包括卷积操作、激活操作及分类操作。
其中,所述卷积操作及池化操作,即为当前已公开的卷积神经网络中的卷积操作及池化操作。所述激活操作可使用线性整流函数、Sigmoid函数等。所述分类操作可采用Softmax函数。
详细地,本发明实施例先从网络上或公开数据集等途径获取场景图片训练集,并将获取的场景图片训练集输入至所述场景分割网络进行训练,其中第一训练值可根据预先构建的损失函数,如感知损失函数、平方损失函数等计算得到。
进一步地,当训练完成得到场景分割网络时,本发明实施例将原始图片输入至所述场景分割网络依次进行所述卷积操作、所述激活操作及所述池化操作得到第一特征集,如上述被高空抛物砸中后的卡车前发动机引擎盖图片先在第一分割层中进行卷积操作、激活操作及池化操作,然后在第二分割层中进行卷积操作、激活操作及池化操作,以此类推直到第五分割层中进行卷积操作、激活操作及池化操作后得到所述第一特征集。
所述场景图片提取模块102在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集。
如上所述,本发明实施例中,所述场景分割网络包括5个分割层、4个提取层及1个输出层,当原始图片经过5个分割层进行处理后,可得到第一特征集,进一步地,使用4个提取层对第一特征集进行操作得到第二特征集。
本发明实施例中,4个提取层对第一特征集分别进行上采样操作、卷积操作及激活操作,其中上采样操作包括重采样和插值的操作,如预先设定一个期望图片尺寸,使用如双线性插值等方法,对所述第一特征集进行插值完成上采样操作。
当经过4个提取层后可得第二特征集,根据输出层的搭建过程知,对第二特征集先进行卷积操作及激活操作后,利用预先构建的分类函数如Softmax函数等,进行分类操作得到所述场景图片集。
所述目标图片识别模块103将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
所述目标识别网络主要是识别场景分割集中所出现的目标,如上述包括卡车前发动机引擎盖图片、卡车轮胎图片、卡车轮胎所在的公路图片的场景图片集,若目标识别网络是为了识别卡车前发动机引擎盖,则在每个场景图片都会以识别卡车前发动机引擎盖为目的进行识别。
进一步地,本发明实施例还包括目标识别网络构建模块106,所述目标识别网络构建模块106用于执行:
步骤Ⅰ:以所述场景分割网络中的卷积操作为基础,构建包括膨胀卷积操作的第一目标识别层;
详细地,所述步骤Ⅰ包括:提取所述卷积操作的卷积核尺寸并设置膨胀率,将所述卷积核尺寸和所述膨胀率作为预构建的膨胀卷积计算公式输入参数,计算得到所述膨胀卷积操作的膨胀卷积核尺寸,结合所述卷积核尺寸及所述膨胀卷积核尺寸构建得到所述第一目标识别层。
如卷积操作中的卷积核大小(kernel_size)为3*3,膨胀率(dilation_rate)为2,根据膨胀卷积计算公式dilation_rate*(kernel_size-1)+1计算为:2*(3-1)+1=5,因此膨胀卷积核尺寸为5*5。
当得到卷积核3*3及膨胀卷积核5*5后,可根据实际应用场景构建第一目标识别层,如构建5次卷积操作、5次膨胀卷积操作的第一目标识别层等。
步骤Ⅱ:构建相似性度量分类函数,并根据所述膨胀卷积操作和所述相似性度量分类函数构建第二目标识别层;
所述相似性度量分类函数为:
其中,y*为所述目标图片训练集的标签值,为所述目标识别网络训练所述目标图片训练集的预测值,c为所述目标图片训练集标签值的类别,如所述目标图片训练集总共有172个标签值,则c的数量为172。
第二目标识别层的构建也需要根据实际应用场景,本发明实施例中,第二目标识别层的操作主要包括先卷积操作、然后多次膨胀卷积操作,最后使用所述相似性度量分类函数输出目标结果。
步骤Ⅲ:组合所述第一目标识别层及所述第二目标识别层得到所述目标识别网络。
与所述场景分割网络对应,当构建所述目标识别网络完成后,需要对所述目标识别网络进行训练,从而调整所述目标识别网络的内部参数。因此,优选地,本发明实施例还包括目标识别网络训练模块107。
所述目标识别网络训练模块用于执行:
步骤a:获取目标图片训练集,利用所述第一目标识别层对所述目标图片训练集执行第一膨胀卷积操作得到第一目标特征集;
步骤b:利用所述第二目标识别层对所述第一目标特征集执行第二膨胀卷积操作,及相似性度量计算得到第二训练值;
步骤c:若所述第二训练值大于所述第二训练阈值,则返回步骤Ⅰ;
步骤d:若所述第二训练值小于或等于所述第二训练阈值,得到所述目标识别网络。
结合上述构建所述目标识别网络及训练所述目标识别网络的步骤后,得到训练完成的目标识别网络。
进一步地,本发明实施例将所述场景图片集输入至目标识别网络中进行目标识别,可以得到目标图片。
例如,在其中一个应用场景中,本发明实施例利用场景分割网络和目标识别网络,将卡车前发动机引擎盖图片,输入至场景分割网络得到包括仅有卡车前发动机引擎盖的场景图片,及卡车前发动机引擎盖所在背景的场景图片,并将卡车前发动机引擎盖的场景图片输入至目标识别网络得到卡车前发动机引擎盖被高空抛物砸中的区域图片,该区域图片即为目标图片。
本发明优选实施例中,所述原始图片及所述目标图片可以存储于区块链节点中。
如图3所示,是本发明实现基于图片的目标识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于图片的目标识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于图片的目标识别的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
进一步地,所述可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于图片的目标识别等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于图片的目标识别12是多个指令的组合,在所述处理器10中运行时,可以实现:
利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个非易失性计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (6)
1.一种基于图片的目标识别方法,其特征在于,所述方法包括:
利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片;
其中,该方法还包括构建所述场景分割网络,所述构建包括:构建执行所述卷积操作、所述激活操作及所述池化操作的分割层;构建执行所述上采样操作、所述卷积操作及所述激活操作的提取层;及构建执行所述卷积操作、所述激活操作及所述分类操作的输出层;根据所述分割层、所述提取层及所述输出层,构建所述场景分割网络;
该方法还包括构建所述目标识别网络,所述构建包括:提取所述场景分割网络中卷积操作的卷积核尺寸并设置膨胀率;根据所述卷积核尺寸和所述膨胀率以及预构建的膨胀卷积计算公式,计算得到膨胀卷积操作的膨胀卷积核尺寸;根据所述卷积核尺寸及所述膨胀卷积核尺寸构建得到第一目标识别层;构建相似性度量分类函数,并根据所述膨胀卷积操作和所述相似性度量分类函数构建第二目标识别层;根据第一目标识别层及所述第二目标识别层,构建所述目标识别网络;
所述相似性度量分类函数采用如下构建方法:
其中,为目标图片训练集的标签值,/>为所述目标识别网络训练所述目标图片训练集的训练值,/>为所述目标图片训练集标签值的类别。
2.如权利要求1所述的基于图片的目标识别方法,其特征在于,该方法还包括:训练所述场景分割网络,其中,所述训练包括:
步骤A:获取场景图片训练集,利用所述分割层对所述场景图片训练集执行第一特征提取,得到第一场景特征集;
步骤B:利用所述提取层在所述第一场景特征集中执行第二特征提取,得到第二场景特征集;
步骤C:利用所述输出层在所述第二场景特征集中执行第三特征提取和所述分类操作,得到并输出第一训练值;
步骤D:在所述第一训练值大于预设的第一训练阈值时,返回步骤A;
步骤E:在所述第一训练值小于或等于所述第一训练阈值时,得到训练完成的场景分割网络。
3.如权利要求1所述的基于图片的目标识别方法,其特征在于,该方法还包括:训练所述目标识别网络,其中,所述训练包括:
步骤a:获取目标图片训练集,利用所述第一目标识别层对所述目标图片训练集执行第一膨胀卷积操作,得到第一目标特征集;
步骤b:利用所述第二目标识别层对所述第一目标特征集执行第二膨胀卷积操作及相似性度量计算,得到并输出第二训练值;
步骤c:若所述第二训练值大于第二训练阈值,则返回步骤a;
步骤d:若所述第二训练值小于或等于所述第二训练阈值,得到所述目标识别网络。
4.一种基于图片的目标识别装置,用于实现如权利要求1至3中任意一项所述的基于图片的目标识别方法,其特征在于,所述装置包括:
第一特征获取模块,用于利用场景分割网络,对原始图片执行卷积操作、激活操作及池化操作得到第一特征集;
场景图片提取模块,用于在所述场景分割网络内,对所述第一特征集执行上采样操作、所述卷积操作及所述激活操作,得到第二特征集,并根据预先构建的分类函数,对所述第二特征集进行分类操作得到场景图片集;
目标图片识别模块,用于将所述场景图片集输入至目标识别网络中进行目标识别得到目标图片。
5.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3中任意一项所述的基于图片的目标识别方法。
6.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有计算机程序,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任意一项所述的基于图片的目标识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360752.4A CN111652226B (zh) | 2020-04-30 | 2020-04-30 | 基于图片的目标识别方法、装置及可读存储介质 |
PCT/CN2020/098990 WO2021217858A1 (zh) | 2020-04-30 | 2020-06-29 | 基于图片的目标识别方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010360752.4A CN111652226B (zh) | 2020-04-30 | 2020-04-30 | 基于图片的目标识别方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652226A CN111652226A (zh) | 2020-09-11 |
CN111652226B true CN111652226B (zh) | 2024-05-10 |
Family
ID=72352245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010360752.4A Active CN111652226B (zh) | 2020-04-30 | 2020-04-30 | 基于图片的目标识别方法、装置及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111652226B (zh) |
WO (1) | WO2021217858A1 (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务*** |
CN106339591A (zh) * | 2016-08-25 | 2017-01-18 | 汤平 | 一种基于深度卷积神经网络的预防乳腺癌自助健康云服务*** |
CN106372390A (zh) * | 2016-08-25 | 2017-02-01 | 姹ゅ钩 | 一种基于深度卷积神经网络的预防肺癌自助健康云服务*** |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
CN110473195A (zh) * | 2019-08-13 | 2019-11-19 | 中山大学 | 一种可自动定制的医学病灶检测架构及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897714B (zh) * | 2017-03-23 | 2020-01-14 | 北京大学深圳研究生院 | 一种基于卷积神经网络的视频动作检测方法 |
CN110135421A (zh) * | 2019-05-17 | 2019-08-16 | 梧州学院 | 车牌识别方法、装置、计算机设备及计算机可读存储介质 |
-
2020
- 2020-04-30 CN CN202010360752.4A patent/CN111652226B/zh active Active
- 2020-06-29 WO PCT/CN2020/098990 patent/WO2021217858A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务*** |
CN106339591A (zh) * | 2016-08-25 | 2017-01-18 | 汤平 | 一种基于深度卷积神经网络的预防乳腺癌自助健康云服务*** |
CN106372390A (zh) * | 2016-08-25 | 2017-02-01 | 姹ゅ钩 | 一种基于深度卷积神经网络的预防肺癌自助健康云服务*** |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
CN110473195A (zh) * | 2019-08-13 | 2019-11-19 | 中山大学 | 一种可自动定制的医学病灶检测架构及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111652226A (zh) | 2020-09-11 |
WO2021217858A1 (zh) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113283446B (zh) | 图像中目标物识别方法、装置、电子设备及存储介质 | |
CN111695609B (zh) | 目标物损伤程度判定方法、装置、电子设备及存储介质 | |
CN111414916B (zh) | 图像中文本内容提取生成方法、装置及可读存储介质 | |
CN112699775A (zh) | 基于深度学习的证件识别方法、装置、设备及存储介质 | |
CN112396005A (zh) | 生物特征图像识别方法、装置、电子设备及可读存储介质 | |
CN111639704A (zh) | 目标识别方法、装置及计算机可读存储介质 | |
CN112528908B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN111476225B (zh) | 基于人工智能的车内人脸识别方法、装置、设备及介质 | |
CN112200189B (zh) | 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质 | |
CN112132216B (zh) | 车型识别方法、装置、电子设备及存储介质 | |
CN111931729B (zh) | 基于人工智能的行人检测方法、装置、设备及介质 | |
CN113705462A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN112541902A (zh) | 相似区域搜索方法、装置、电子设备及介质 | |
CN114708461A (zh) | 基于多模态学习模型的分类方法、装置、设备及存储介质 | |
CN111985449A (zh) | 救援现场图像的识别方法、装置、设备及计算机介质 | |
CN112528903B (zh) | 人脸图像获取方法、装置、电子设备及介质 | |
CN115049836B (zh) | 图像分割方法、装置、设备及存储介质 | |
CN111652226B (zh) | 基于图片的目标识别方法、装置及可读存储介质 | |
CN112434601B (zh) | 基于行车视频的车辆违法检测方法、装置、设备及介质 | |
CN112233194B (zh) | 医学图片优化方法、装置、设备及计算机可读存储介质 | |
CN114463685A (zh) | 行为识别方法、装置、电子设备及存储介质 | |
CN112561889A (zh) | 目标物检测方法、装置、电子设备及存储介质 | |
CN111915615A (zh) | 图像分割方法、装置、电子设备及计算机可读存储介质 | |
CN112633134A (zh) | 基于图像识别的车内人脸识别方法、装置及介质 | |
CN113343882A (zh) | 人群计数方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |