CN114565602A - 基于多通道融合的图像识别方法、装置和存储介质 - Google Patents
基于多通道融合的图像识别方法、装置和存储介质 Download PDFInfo
- Publication number
- CN114565602A CN114565602A CN202210230371.3A CN202210230371A CN114565602A CN 114565602 A CN114565602 A CN 114565602A CN 202210230371 A CN202210230371 A CN 202210230371A CN 114565602 A CN114565602 A CN 114565602A
- Authority
- CN
- China
- Prior art keywords
- images
- image
- feature map
- image recognition
- historical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000004927 fusion Effects 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 56
- 238000012216 screening Methods 0.000 claims abstract description 50
- 238000007499 fusion processing Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 210000000214 mouth Anatomy 0.000 claims abstract description 11
- 238000010276 construction Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 27
- 230000000694 effects Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 19
- 210000003128 head Anatomy 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 description 13
- 210000004283 incisor Anatomy 0.000 description 10
- 230000035945 sensitivity Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 210000001983 hard palate Anatomy 0.000 description 5
- 201000000615 hard palate cancer Diseases 0.000 description 5
- 210000001584 soft palate Anatomy 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000004373 mandible Anatomy 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 210000002396 uvula Anatomy 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000006650 Overbite Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 210000000534 thyroid cartilage Anatomy 0.000 description 1
- 238000002627 tracheal intubation Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于多通道融合的图像识别方法、装置和存储介质。该方法包括:获取步骤,获取历史样本的包含人体口腔区域的多张图像;筛选步骤,从获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;融合步骤,将每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集;构建步骤,基于深度网络算法,构建图像识别模型,并使用训练数据集训练图像识别模型;识别步骤,通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。本发明的图像识别方法通过对图像进行多通道融合,能够充分利用多维特征信息,从而提高识别气道类型的准确性。
Description
技术领域
本发明涉及计算机视觉相关技术领域,更具体地,涉及一种基于多通道融合的图像识别方法、装置和存储介质。
背景技术
随着机器视觉与人工智能技术的发展,基于机器视觉的人工智能应用已广泛应用于各行各业,如人脸检测、行人追踪、目标检测等。然而定制化的人工智能在智慧工地应用中仍然存在一定困难:一方面,视觉应用相关的人工智能场景往往需要GPU服务器计算资源予以算力支撑,在部署端实施需要现场机房提供部署条件;另一方面,不同应用场景的定制化需求(如保安识别、着装识别)需要对算法模型进行定制化的开发。
目前,边缘端的机器视觉人工智能应用如图像分类、目标定位、目标识别等,为了达到较高的可应用性,需要在应用边缘端部署服务器+GPU显卡进行业务处理及模型应用。其缺点是:1、成本高,一台服务器加显卡价格往往达到几万元;2、部署要求高,需要将服务器部署于机房机柜并保证散热条件。经过检索,中国专利公开号CN214846751U公开了一种基于边缘计算的移动人脸布控装置和***,具体公开了:通过设置远程通讯模块和远程定位模块能够实现远程通讯,传递位置信息和传递智能处理***的数据信息,通过设置智能处理***对图片进行预处理、识别以及利用边缘计算模块对图像信息进行特征提取、比对。但是,该专利仅涉及边缘计算的方法,并未涉及使用机器模型识别算法方面的内容。
然而,通常使用传统机器学习方法和深度学习方法进行气道类型预测,但是存在识别精度低、可靠性低等问题,并且对于科研、教学的价值非常有限。现有气道预测相关文献还存在数据集规模过小、模型泛化能力太差、识别准确率不高等问题,并且最主要原因在于所使用的图像太过单一,仅凭单张图像来判断是否属于困难气道,可信度不高。另外,在图像分类应用场景下的图像特征提取、图像识别精度等方面仍存在很大改进空间。
因此,有必要提供一种改进了的图像识别方法。
发明内容
因此,鉴于现有技术中存在的上述问题,而提出本发明。
根据本发明的第一方面,提供了一种基于多通道融合的图像识别方法,该图像识别方法包括:获取步骤,获取历史样本的包含人体口腔区域的多张图像;筛选步骤,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;融合步骤,将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集;构建步骤,基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;识别步骤,通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
根据优选实施方式,在所述筛选步骤中根据预设筛选参数和筛选规则,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的图像;所述预设筛选参数包括张口度、气道分级、颈长、颈围、头颈活动度和甲颏间距,所述筛选规则包括张口度是否小于指定值,气道分级是否大于指定级别,颈长是否小于设定值或者颈围是否小于设定值,头颈活动度是否小于特定角度,甲颏间距是否小于指定距离。
根据优选实施方式,在所述融合步骤中,按照红绿蓝三通道,将所述每个历史样本的筛选出的特定数量的历史图像中各图像拆分成三个通道,并将拆分后的各图像按通道进行图像拼接,以得到融合后的图像。
根据优选实施方式,在所述融合步骤中,所述建立训练数据集包括:通过使用气道分级大于等于指定级别、张口度是否小于预定值、颈长是否小于设定值或者颈围是否小于设定值、头颈活动度是否小于特定角度以及甲颏间距是否小于指定距离,定义目标气道的类别标签,来定义正样本和负样本,以确定目标气道和非目标气道,并使用标注有气道类别的通道融合后的图像,建立训练数据集。
根据优选实施方式,在所述构建步骤中,包括:通过利用设定的卷积核对特定数量的历史图像进行卷积计算,来完成一次特征提取,得到底层特征信息,并得到第一特征图、第二特征图、第三特征图、第四特征图和第五特征图,第一特征图为包含张口度信息的特征图,第二特征图为包含气道分级信息的特征图,第三特征图为包含颈长信息的特征图,第四特征图为包含颈围信息的特征图,第五特征图为包含甲颏间距信息的特征图;对所得到的第一特征图、第二特征图、第三特征图、第四特征图和第五特征图进行后续的多次特征提取,得高层特征信息,该高层特征信息用于表征目标气道相关的抽象特征信息。
根据优选实施方式,在所述构建步骤中,在模型训练过程中,通过最小化网络在训练数据集上的交叉熵损失函数来不断优化网络,使其拟合出用于进行气道分类的判断曲线;根据正样本与负样本的数量比例,设置目标气道和非目标气道的类权重。
根据优选实施方式,所述图像识别方法还包括:预处理步骤,在进行多通道融合处理之前,对筛选出的特定数量的历史图像进行数据预处理,所述数据预处理包括去背景、边缘提取、口腔区域截取、数据增强处理;其中所述数据增强处理包括对样本图像进行水平翻转,在指定角度范围内随机旋转、缩放、调整亮度、对比饱和度和色调,并在所述数据增强处理之后进行归一化处理。
根据优选实施方式,利用DenseNet算法,构建图像识别模型。
根据优选实施方式,在所述识别步骤中,通过筛选出被检体的多张图像,并将所述被检体的多张图像经多通道信息融合后获得的图像作为待识别图像,输入训练后的图像识别模型,来输出是否为目标气道的图像识别结果。
根据本发明的第二方面,提供了一种图像识别装置,该图像识别装置包括:数据获取模块,用于获取历史样本的包含人体口腔区域的多张图像;数据筛选模块,用于从获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;融合处理模块,用于将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像以建立训练数据集;模型构建模块,用于基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;图像识别模块,用于通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
根据优选实施方式,所述数据筛选模块根据预设筛选参数和筛选规则,从获取的多张图像中,筛选出每个历史样本的特定数量的图像;所述预设筛选参数包括张口度、气道分级、颈长、颈围、头颈活动度和甲颏间距,所述筛选规则包括张口度是否小于指定值,气道分级是否大于指定级别,颈长是否小于设定值或者颈围是否小于设定值,头颈活动度是否小于特定角度,甲颏间距是否小于指定距离。
根据优选实施方式,所述融合处理模块按照红绿蓝三通道,将所筛选出的特定数量的历史图像中各图像拆分成三个通道,并将拆分后的各图像按通道进行图像拼接,以得到融合后的图像。
根据本发明的第三方面,提供了一种暂时性计算机可读存储介质,其用于存储程序,当所述程序被计算机执行时,实现本发明的第一方面所述的图像识别方法。
与现有技术相比,本发明的图像识别方法通过对图像进行多通道融合,能够充分利用多维特征信息,从而提高识别气道类型的准确性;通过在所有的样本数据输入网络完成一次向前计算及反向传播过程中对学习率进行调整,能够优化模型参数;通过在模型训练过程中进行特征提取,能够更精确地提取与目标气道相关的特征信息,能够保证模型更好地收敛,能够提高实验效率,还能够降低过拟合,从而能够更有效地提高模型识别精度;通过为样本量少的气道类别设置更高的类权重且同时为样本量多的气道类别降低权重的方法,以避免样本量少的类别中的错误分类,由此,能够有效缓解训练数据中正负样本不均衡的问题;通过所述模型测试进一步优化模型性能。
通过以下参照附图的描述,本发明的其他特征及优点将变得清楚。
附图说明
包含在说明书中并构成说明书的一部分的附图,例示了本发明的实施例,并且与文字描述一起用于说明本发明的原理。
图1是示意性示出了本发明的基于多通道融合的图像识别方法的一示例的流程图。
图2是示意性示出了本发明的图像识别方法中筛选出的特定数量的历史图像的一示例的示意图。
图3是示意性示出了本发明的基于多通道融合的图像识别方法的另一示例的流程图。
图4是本发明的基于多通道融合的图像识别装置的一示例的结构框图。
图5是本发明的基于多通道融合的图像识别装置的另一示例的结构框图。
图6例示了根据本发明的计算机设备的一示例的示意图。
图7例示了根据本发明的计算机可读存储介质的一示例的示意图。
具体实施方式
下面,将参照附图来详细描述本发明的示例性实施例。应当指出,以下的描述实质上仅是说明性和示例性的,并且决不旨在限制本发明及其应用或用途。在实施例中陈述的构成要素及步骤的相对布置、数值表达式以及数值并不限制本发明的范围,除非另外特别指明。此外,本领域的技术人员公知的技术、方法及设备可能不被详细讨论,但在适当的情况下旨在作为本说明书的一部分。
注意,类似的附图标记和字母在整个附图中是指类似项目,由此一旦在一个图中定义了项目,则在后面的图中不需要讨论该项目。
实施例1
图1是示意性示出了本发明的基于多通道融合的图像识别方法的一示例的流程图。
如图1所示,本发明的图像识别方法包括如下步骤:
步骤S101,获取步骤,获取历史样本的包含人体口腔区域的多张图像;
步骤S102,筛选步骤,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;
步骤S103,融合步骤,将每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集;
步骤S104,构建步骤,基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;
步骤S105,识别步骤,通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
以下将结合面罩通气场景下的气道类型识别的具体应用示例,对上述步骤进行具体说明。
首先,在步骤S101,即在获取步骤中,获取历史样本的包含人体口腔区域的多张图像,并从中筛选出特定数量的历史图像。
例如,从第三方平台或其他医疗机构所公开的数据库中,获取历史样本数据的多张图像,具体获取不同拍摄角度且包含不同人体部位的多张图像,例如9张图像。
需要说明的是,上述仅作为示例进行说明,不能理解成对本发明的限制。在其他示例中,还可获取9张以上,例如10张、11张、20张或更多张历史图像,由此对应不同的特定数量n。此外,在本发明中,所述的人体部位包括身体颈部、面部、口部等部位以及形体等。此外,所述历史样本是指历史用户样本数据,有时也称为用户样本数据。
接下来,将描述步骤S102(即筛选步骤)。在步骤S102中,即在筛选步骤中,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的历史图像。
可选地,根据预设筛选参数和筛选规则,筛选出特定数量n的图像,n为小于在获取步骤中获取的历史样本的图像张数的整数,例如4~8。
可选地,所述预设筛选参数包括张口度、气道(Mallampati)分级、颈长、颈围、头颈活动度和甲颏间距。
需要说明的是,在本发明中,所述气道分级包括四级气道,一级气道是指可以看到软腭、咽腭弓、悬雍垂、硬腭,二级气道可以是指可以看到软腭、悬雍垂、硬腭,三级气道是指可以看到软腭和硬腭,四级气道是指只能看到硬腭。所述张口度信息是指最大张口时上下门齿间的距离,正常为3.5-5.6cm(约3指),平均4.5cm。颈长或颈围是指脖子的长度以及粗细程度。所述头颈活动度是指仰卧位下作最大限度仰颈,上门齿前端至枕骨粗隆的连线与身体纵轴线相交的角度,正常值>90°。所述甲颏间距是指颈部完全伸展时甲状软骨切迹至颏凸的距离,正常>6.5cm。
具体地,除了上述的预设筛选参数,所述预设筛选参数还包括以下信息中一个或多个作为预设筛选参数:上门齿和下门齿的对齐信息、上门齿的长度、下颌骨的水平长度。
进一步地,所述筛选规则包括自然咬合状态下上门齿和下门齿能否正常对齐,上门齿的长度是否大于指定长度,张口度是否小于指定值,气道分级是否大于指定级别,颈长是否小于设定值或者颈围是否小于设定值,头颈活动度是否小于特定角度(例如80度),甲颏间距是否小于指定距离,下颌骨的水平长度是否小于设置值,下切牙前伸能否咬到上嘴唇等。
例如,根据上述预设筛选参数,从所述获取步骤中所获取的9张图像中,筛选出每个历史样本(即用户样本)的如图2所示的5张图像。
可选地,对于特定数量(即筛选数量)的确定,例如根据筛选参数的数量和/或大于等于所获取的图像数量的1/2。
需要说明的是,上述仅作为示例进行说明,不能理解成对本发明的限制。
图3是示意性示出了本发明的基于多通道融合的图像识别方法的另一示例的流程图。
如图3所示,在另一实施方式中,所述图像识别方法还包括预处理步骤S201。
在步骤S201中,即在预处理步骤中,在进行多通道融合处理之前,对每个历史样本的筛选出的特定数量的历史图像进行数据预处理。
需要说明的是,由于图3中的步骤S101、S102、S103和S104与图1中的步骤S101、S102、S103和S104大致相同,因此省略了对步骤S101、S102、S103和S104的具体说明。
具体地,所述数据预处理包括去背景、边缘提取、口腔区域截取、数据增强处理。
例如,使用现有的语义分割库PaddleSeg中的人像分割模型或其他现有模型,对每个历史样本的筛选出的5张图像中的背景与人像图像进行分割,分割出人体图像的区域,并将除人体图像以外的其他区域设置为例如黑色。由此,通过进行去背景处理,能够排除背景图像所带来的干扰影响。
此外,还包括对图2中第一个图像(即纸面左侧的第一个图像)进行裁剪处理,即将口腔区域裁剪出来,以得到图2中的第五个图像(即纸面右侧的第一个图像),由此,能够去除图像中的其他特征(例如戴眼镜与否、眼睛睁开与否、鼻子的大小等),能够进一步提高图像数据质量。
可选地,对包含颈长颈围、头颈活动度、甲颏距离信息的图像,通过Canny边缘检测算法获取图像中下颌脖颈的轮廓、线条等多种边缘轮廓信息,以得到图2中间的三张图像。
在另一实施方式中,还包括使用人脸识别模型进行脸部关键点标注,例如,生成如468个点的3D脸部界标,由此,能够更准确地裁剪出口腔区域。
需要说明的是,对于人脸识别模型,可以使用现有的机器学习模型,使用深度神经网络,Xgboost算法、逻辑回归算法等构建人脸识别模型,上述仅作为示例,进行说明,不能理解成对本发明的限制。
由于获取图像时不同图像所使用的手机型号不同,所拍摄的图像的像素尺寸会有所差异,因此,所获取的数据集中图像数据包含多种尺寸类型的图片,例如2976×3968、1080×2327、3024×4032、1080×1440、3000×4000、600×800等。但是,由于模型输入图像的尺寸存在一定的要求,例如输入图像是224×224的RGB图像,所以在数据预处理的时候需要将宽高不等的图像尺寸调整为宽高相等的224×224。例如采取将图像按长边做等比缩放、剩余区域用0像素值进行填充的缩放策略将图像尺寸调整为224×224,因此,能够保证在调整图像尺寸时,图像宽高比相等、图像不会发生形变。
此外,对上述5张图像还进行了数据增强处理。具体地,所述数据增强处理包括对样本图像进行水平翻转,在指定角度范围内(例如指定角度为10度)随机旋转、缩放、调整亮度、对比饱和度和色调,并在所述数据增强处理之后进行归一化处理。因此,能够进一步增加数据量,并能够提高模型的泛化能力。
接下来,将描述步骤S103(即融合步骤)。在步骤S103中,即在融合步骤中,将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集。
为了进一步提高网络输入数据的数据质量,本发明对用于建立训练数据集的样本数据进行多通道信息融合处理,以使用户样本数据包含多维特征信息,由此,进一步提高模型识别精度。
具体地,所筛选出的图像例如为RGB图像。
更具体地,按照红绿蓝三通道,将所述特定数量的历史图像(例如上述5张图像)中各图像拆分成三个通道,并将拆分后的各图像进行图像拼接,以得到融合后的图像。
在一具体实施方式中,例如将上述5张图像分别拆成三个通道,即3*5=15个通道,例如图像尺寸为224×224×3,其中,3表示图像的通道数,224×224表示每个通道图像的宽与高,将5张图像在通道维度叠加起来,就可以得到224×224×15的多通道图像。5个格式为224×224×3的图像转变成一个格式为224×224×15的图像,即得到融合后的图像,并将该融合后的图像,作为模型的输入图像。
在一具体实施方式中,对于用来对目标气道与非目标气道分类的气道分类标签,可使用多种参数,例如气道分级大于等于指定级别(例如气道三级,该气道三级是指可以看到软腭和硬腭)、张口度是否小于预定值(例如,小于3cm)、颈长是否小于设定值或者颈围是否小于设定值、头颈活动度是否小于特定角度(例如80度)以及甲颏间距是否小于指定距离,定义目标气道的类别标签,即定义正样本和负样本,以确定目标气道(对应正样本、即困难气道)和非目标气道(对应负样本,即非困难气道),并对融合后的图像进行目标气道的类别标注。
例如,在气道分级大于等于三级气道、张口度小于3cm、颈长小于设定值或者颈围小于设定值、头颈活动度小于80度,以及甲颏间距小于3cm时,定义为目标气道(对应正样本、即困难气道),而在气道分级小于三级气道、张口度大于等于3cm、颈长大于等于设定值或者颈围大于等于设定值、头颈活动度大于等于80度,以及甲颏间距大于等于3cm时,定义为非目标气道(对应负样本,即非困难气道)。
接着,使用标注有气道类型的通道融合后的历史样本(历史用户样本数据),建立训练数据集,以用于训练数据模型。
例如,所述训练数据集包括标注有气道类型的历史样本。
需要说明的是,上述仅作为示例进行说明,不能理解成对本发明的限制。在其他示例,还可以使用下颌骨的水平长度(从下颌角至颏凸的距离)、下切牙前伸能否咬到上嘴唇、上门齿的长度等表征气道分类标签(即Y标签)。
接下来,在步骤S104中,即在构建步骤中,基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型。
优选地,利用DenseNet(密集连接卷积网络),构建图像识别模型。
具体地,例如使用1000分类问题所对应的数据集,对所述图像识别模型的ImageNet数据集上进行预训练处理。
进一步地,使用步骤S102所建立的训练数据集对预训练好的图像识别模型进行重新训练(即迁移学习)。
因此,通过上述模型训练的过程,能够保证模型更好地收敛,能够提高实验效率,还能够降低过拟合。
在一具体实施方式中,将神经网络中epoch设置为60~120,优选为80。使用交叉熵损失函数,采用Adam优化算法,batchsize(批大小)的大小受GPU内存限制例如设置为20。
需要说明的是,所述epoch可以解释为1代,一个epoch指的是将所有的样本数据输入模型网络完成一次向前计算及反向传播的过程。
对于学习率,采用动态调整的方式,例如,模型训练的初始时刻设为0.001,且在2/3epoch将学习率调整为0.001。例如,所述在2/3个epoch调整学习率。具体是指在epoch设为90时,则当epoch值为60时调整学习率。
通过在所有的样本数据输入网络完成一次向前计算及反向传播过程中对学习率进行调整,能够优化模型参数。
在该实施方式中,所述构建步骤还包括特征提取过程。
下面将进一步说明模型训练过程中的特征提取过程。
具体地,通过利用设定的卷积核对特定数量的历史图像进行卷积计算,来完成一次特征提取。
更具体地,设定卷积核,使用特定数量的历史图像进行卷积计算,以完成一次特征提取,得到底层特征信息,并得到第一特征图、第二特征图、第三特征图、第四特征图和第五特征图,第一特征图为包含张口度信息的特征图,第二特征图为包含气道分级信息的特征图,第三特征图为包含颈长信息的特征图,第四特征图为包含颈围信息的特征图,第五特征图为包含甲颏间距信息的特征图。例如,所述底层特征信息包括与张口度、气道(Mallampati)分级、颈长、颈围、头颈活动度和甲颏间距等相关的信息。
例如,使用DenseNet-121,该网络包括1个核尺寸为7×7的卷积层、1个3×3的最大池化层、4个Dense Block(密集块)结构、3个transition layer(过滤层)结构、1个7×7的平均池化层和1个全连接层。其中,模型输入是经过数据预处理和多通道信息融合后形成的图像,输出的是目标气道或非目标气道的确定结果。
需要说明的是,DenseNet-121的卷积池化结构是特征提取模块,即负责从输入(即所输入的图像)中提取特征,最后的全连接层是分类模块,负责对提取到的特征进行分类。此外,在其他示例中,还可以直接输出目标气道或非目标气道。进一步地,对所得到的第一特征图、第二特征图、第三特征图、第四特征图和第五特征图进行后续的多次特征提取,得高层特征信息,该高层特征信息用于表征目标气道相关的抽象特征信息。例如,抽象特征信息包括底层特征之间的关联信息、各底层特征与气道类型的关联信息。
在本实施方式中,所述训练数据集包括标注有气道类型的历史图像、高层特征信息和底层特征信息。
因此,通过在模型训练过程中进行特征提取,能够更精确地提取与目标气道相关的特征信息,能够更有效地提高模型识别精度。
接下来,将说明步骤S105(即识别步骤)。在步骤S105中,即在识别步骤中,通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
具体地,通过筛选出被检体的多张图像,并将所述被检体的多张图像经多通道信息融合后的图像作为待识别图像,输入训练后的图像识别模型,来输出是否为目标气道的图像识别结果。
因此,通过上述识别步骤,能够更精确识别出被检体的气道类型。
在另一实施方式中,在模型训练过程中,通过最小化网络在训练数据集上的交叉熵损失函数来不断优化网络,使模型拟合出用于进行气道分类的判断曲线,其中,模型对待识别图像提取特征,如果提取到的特征符合判断曲线上目标气道类型的特征,则属于目标气道类型。具体地,所提取的特征转换成判断曲线的曲线参数。
具体地,所述判断曲线用于表征待识别图像与气道类型的关系,用于识别待识别图像是否为目标气道。
更具体地,交叉熵损失的计算公式如下。
其中L是指交叉熵损失的损失值;Yi是指气道类型的标签值;Pi=Mcl(Fi),Pi指的是样本Xi所对应的Softmax函数的输出,Mcl是指模型的分类模块,Fi指的是提取到的特征信息,Fi=Mex(Xi),其中Xi是指第i个样本,i=1,从1到N个。
在又一实施方式中,根据正样本与负样本的数量比例,设置目标气道和非目标气道的类权重。
例如非目标气道的样本数量是目标气道的样本数据的3倍,目标气道的气道类别的类权重设置为非目标气道的气道类型的3倍,通过为样本量少的气道类别设置更高的类权重且同时为样本量多的气道类别降低权重的方法,以避免样本量少的类别中的错误分类,由此,能够有效解决训练数据中正负样本不均衡的问题。
在又一实施方式中,还包括进行模型测试,通过所述模型测试进一步优化模型性能。
具体地,模型训练结束后进行模型测试。
相应地,还包括建立与模型测试相对应的测试集。
具体地,使用测试集中的样本数据,对所述图像识别模型进行图像识别测试,并将模型的预测结果与实际结果进行比较,看模型预测得正确与否,以调整模型的模型参数。
为了验证本发明的图像识别模型的模型预测精度,使用敏感度(Sensitivity)、召回率(Recall)、特异度(Specificity)、ROC曲线、AUC值、精确度(Precision)和准确率(Accuracy)中的至少两个参数,对模型预测精度进行验证。
使用同样的方法在相同的训练数据和测试集上,对本发明的图像识别模型、以使用ResNet(残差神经网络)101、InceptionV3作为参照,进行对比。可得到表1的模型测试结果。
表1模型测试结果对比
从表1中可知,本发明的图像识别模型(对应DenseNet-121)在测试集上达到了87.10%的分类准确率,而ResNet101和InceptionV3分别只有64.52%和72.58%的分类准确率,DenseNet-121的AUC值比ResNet101高27%,比InceptionV3高16%。敏感度与特异度指标能反映出模型的漏判率(即1-敏感度)和误判率(即1-特异度),敏感度与特异度越高,则漏判率和误判率越低,说明模型识别效果越好(即识别精度越高)。对于DenseNet-121来说,其敏感度与特异度达到了一个相对均衡且较高的水平,模型的敏感度达到了88.89%。
需要说明的是,在本发明中,所述敏感度表示模型对真目标做出阳性反应的程度,敏感性越高,则越容易鉴定出目标,即越灵敏。特异度表示模型对假目标做出阴性反应的程度,特异性越高,则越不容易误报,模型的筛选能力或者说针对能力强。因此敏感度与特异度越高,说明模型识别效果越好。
通过上述说明可知,相对于其他算法,本发明的图像识别模型的分类准确率、识别精度、敏感度和特异度更高。此外,本发明的图像识别模型应用广泛,还适用于气管插管应用场景或其他需要识别气道类型的应用场景。
与现有技术相比,本发明的图像识别方法通过对图像进行多通道融合,能够充分利用多维特征信息,能够提高识别气道类型的准确性;通过在所有的样本数据输入网络完成一次向前计算及反向传播过程中对学习率进行调整,能够优化模型参数;通过在模型训练过程中进行特征提取,能够更精确地提取与目标气道相关的特征信息,能够保证模型更好地收敛,能够提高实验效率,还能够降低过拟合,能够更有效地提高模型识别精度;通过为样本量少的气道类别设置更高的类权重且同时为样本量多的气道类别降低权重的方法,以避免样本量少的类别中的错误分类,由此,能够有效缓解训练数据中正负样本不均衡的问题;通过所述模型测试进一步优化模型性能。
实施例2
参照图4和图5,本发明还提供了一种基于多通道融合的图像识别装置400,其中,所述图像识别装置400包括:数据获取模块401,用于获取历史样本的包含人体口腔区域的多张图像;数据筛选模块402,用于从获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;融合处理模块403,用于将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集;模型构建模块404,用于基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;图像识别模块405,用于通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
在另一实施方式中,数据获取模块401被整合在数据筛选模块402中,即数据筛选模块402还具有数据获取模块的功能。
具体地,所述数据筛选模块根据预设筛选参数和筛选规则,从获取的多张图像中,筛选出每个历史样本的特定数量n的图像,n为4~8。
可选地,所述预设筛选参数包括张口度、气道分级、颈长、颈围、头颈活动度和甲颏间距,所述筛选规则包括张口度是否小于指定值,气道分级是否大于指定级别,颈长是否小于设定值或者颈围是否小于设定值,头颈活动度是否小于特定角度,甲颏间距是否小于指定距离。
可选地,所述融合处理模块403按照红绿蓝三通道,将所筛选出的特定数量的历史图像中各图像拆分成三个通道,并将拆分后的各图像按通道进行图像拼接,以得到融合后的图像。
对于训练数据集的建立,例如通过使用气道(Mallampati)分级大于等于指定级别、张口度是否小于预定值、颈长是否小于设定值或者颈围是否小于设定值、头颈活动度是否小于特定角度以及甲颏间距是否小于指定距离,定义目标气道的类别标签,来定义正样本和负样本,以确定目标气道和非目标气道,并使用标注有气道类型的通道融合后的图像,建立训练数据集。
对于模型特征提取,通过利用设定的卷积核对特定数量的历史图像进行卷积计算,来完成一次特征提取,得到底层特征信息,并得到第一特征图、第二特征图、第三特征图、第四特征图和第五特征图,第一特征图为包含张口度信息的特征图,第二特征图为包含气道分级信息的特征图,第三特征图为包含颈长信息的特征图,第四特征图为包含颈围信息的特征图,第五特征图为包含甲颏间距信息的特征图。
进一步地,对所得到的第一特征图、第二特征图、第三特征图、第四特征图喝第五特征图进行后续的多次特征提取,得高层特征信息,该高层特征信息用于表征目标气道相关的抽象特征信息。
在另一实施方式中,在模型训练过程中,通过最小化网络在训练数据集上的交叉熵损失函数来不断优化网络,使其拟合出用于进行气道分类的判断曲线。
可选地,根据正样本与负样本的数量比例,设置目标气道和非目标气道的类权重。
图5是本发明的基于多通道融合的图像识别装置的另一示例的结构框图。
在又一实施方式中,所述图像识别装置还包括预处理模块501,所述预处理模块501用于对所述每个历史样本的筛选出的特定数量的历史图像进行数据预处理。
具体地,所述预处理模块501在进行多通道融合处理之前,对所述每个历史样本的筛选出的特定数量的历史图像进行数据预处理,所述数据预处理包括去背景、边缘提取、口腔区域截取、数据增强处理;其中所述数据增强处理包括对样本图像进行水平翻转,在指定角度范围内随机旋转、缩放、调整亮度、对比饱和度和色调,并在所述数据增强处理之后进行归一化处理。
对于模型构建,利用DenseNet(密集连接卷积网络)算法,构建图像识别模型。
具体地,通过筛选出被检体的多张图像,并将所述被检体的多张图像经多通道信息融合后的图像作为待识别图像,输入训练后的图像识别模型,来输出是否为目标气道的图像识别结果。
需要说明的是,在实施例2中,省略了与实施例1相同的部分的说明。
与现有技术相比,本发明的图像识别装置通过对图像进行多通道融合,能够充分利用多维特征信息,能够提高识别气道类型的准确性;通过在所有的样本数据输入网络完成一次向前计算及反向传播过程中对学习率进行调整,能够优化模型参数;通过在模型训练过程中进行特征提取,能够更精确地提取与目标气道相关的特征信息,能够保证模型更好地收敛,能够提高实验效率,还能够降低过拟合,能够更有效地提高模型识别精度;通过为样本量少的气道类别设置更高的类权重且同时为样本量多的气道类别降低权重的方法,以避免样本量少的类别中的错误分类,由此,能够有效缓解训练数据中正负样本不均衡的问题;通过所述模型测试进一步优化模型性能。
实施例3
下面描述本发明的计算机设备实施例,该计算机设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明计算机设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明计算机设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。
图6是本发明的一个实施例的计算机设备的结构示意图,该计算机设备包括处理器和存储器,所述存储器用于存储计算机可执行程序,当所述计算机程序被所述处理器执行时,所述处理器执行图1的方法。
如图6所示,计算机设备以通用计算设备的形式表现。其中处理器可以是一个,也可以是多个并且协同工作。本发明也不排除进行分布式处理,即处理器可以分散在不同的实体设备中。本发明的计算机设备并不限于单一实体,也可以是多个实体设备的总和。
所述存储器存储有计算机可执行程序,通常是机器可读的代码。所述计算机可读程序可以被所述处理器执行,以使得计算机设备能够执行本发明的方法,或者方法中的至少部分步骤。
所述存储器包括易失性存储器,例如随机存取存储单元(RAM)和/或高速缓存存储单元,还可以是非易失性存储器,如只读存储单元(ROM)。
可选地,该实施例中,计算机设备还包括有I/O接口,其用于计算机设备与外部的设备进行数据交换。I/O接口可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
应当理解,图6显示的计算机设备仅仅是本发明的一个示例,本发明的计算机设备中还可以包括上述示例中未示出的元件或组件。例如,有些计算机设备中还包括有显示屏等显示单元,有些计算机设备还包括人机交互元件,例如按扭、键盘等。只要该计算机设备能够执行存储器中的计算机可读程序以实现本发明方法或方法的至少部分步骤,均可认为是本发明所涵盖的计算机设备。
图7是本发明的一个实施例的暂时性计算机可读存储介质的示意图。如图7所示,暂时性计算机可读存储介质中存储有计算机可执行程序,所述计算机可执行程序被执行时,实现本发明上述方法。所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。所述计算机可读存储介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。所述计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
通过以上对实施方式的描述,本领域的技术人员易于理解,本发明可以由能够执行特定计算机程序的硬件来实现,例如本发明的***,以及***中包含的电子处理单元、服务器、客户端、手机、控制单元、处理器等。本发明也可以由执行本发明的方法的计算机软件来实现,例如由微处理器、电子控制单元,客户端、服务器端等执行的控制软件来实现。但需要说明的是,执行本发明的方法的计算机软件并不限于由一个或特定个的硬件实体中执行,其也可以是由不特定具体硬件的以分布式的方式来实现。对于计算机软件,软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中,也可以分布式存储于网络上,只要其能使得计算机设备执行根据本发明的方法。
虽然已利用示例详细说明了本发明的一些具体实施例,但是本领域技术人员应当理解,以上示例仅旨在举例说明,并非限制本发明的范围。本领域技术人员应当理解,在不背离本发明的范围和精神的情况下,可以对以上实施例进行修改。本发明的范围由所附权利要求限定。
Claims (10)
1.一种基于多通道融合的图像识别方法,所述图像识别方法包括:
获取步骤,获取历史样本的包含人体口腔区域的多张图像;
筛选步骤,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;
融合步骤,将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像,以建立训练数据集;
构建步骤,基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;
识别步骤,通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
2.根据权利要求1所述的图像识别方法,其中,在所述筛选步骤中根据预设筛选参数和筛选规则,从所述获取步骤中获取的多张图像中,筛选出每个历史样本的特定数量的图像;
所述预设筛选参数包括张口度、气道分级、颈长、颈围、头颈活动度和甲颏间距,所述筛选规则包括张口度是否小于指定值,气道分级是否大于指定级别,颈长是否小于设定值或者颈围是否小于设定值,头颈活动度是否小于特定角度,甲颏间距是否小于指定距离。
3.根据权利要求1或2所述的图像识别方法,其中,在所述融合步骤中,
按照红绿蓝三通道,将所述每个历史样本的筛选出的特定数量的历史图像中各图像拆分成三个通道,并将拆分后的各图像按通道进行图像拼接,以得到融合后的图像。
4.根据权利要求1所述的图像识别方法,其中,在所述融合步骤中,所述建立训练数据集包括:
通过使用气道分级大于等于指定级别、张口度是否小于预定值、颈长是否小于设定值或者颈围是否小于设定值、头颈活动度是否小于特定角度以及甲颏间距是否小于指定距离,定义目标气道的类别标签,来定义正样本和负样本,以确定目标气道和非目标气道,并使用标注有气道类别的通道融合后的图像,建立训练数据集。
5.根据权利要求1所述的图像识别方法,其中,在所述构建步骤中,包括:
通过利用设定的卷积核对特定数量的历史图像进行卷积计算,来完成一次特征提取,得到底层特征信息,并得到第一特征图、第二特征图、第三特征图、第四特征图和第五特征图,第一特征图为包含张口度信息的特征图,第二特征图为包含气道分级信息的特征图,第三特征图为包含颈长信息的特征图,第四特征图为包含颈围信息的特征图,第五特征图为包含甲颏间距信息的特征图;
对所得到的第一特征图、第二特征图、第三特征图、第四特征图和第五特征图进行后续的多次特征提取,得高层特征信息,该高层特征信息用于表征目标气道相关的抽象特征信息。
6.根据权利要求1所述的图像识别方法,其中,在所述构建步骤中,
在模型训练过程中,通过最小化网络在训练数据集上的交叉熵损失函数来不断优化网络,使其拟合出用于进行气道分类的判断曲线;
根据正样本与负样本的数量比例,设置目标气道和非目标气道的类权重。
7.根据权利要求1或6所述的图像识别方法,所述图像识别方法还包括:
预处理步骤,在进行多通道融合处理之前,对筛选出的特定数量的历史图像进行数据预处理,所述数据预处理包括去背景、边缘提取、口腔区域截取、数据增强处理;其中
所述数据增强处理包括对样本图像进行水平翻转,在指定角度范围内随机旋转、缩放、调整亮度、对比饱和度和色调,并在所述数据增强处理之后进行归一化处理。
8.根据权利要求1所述的图像识别方法,其中,在所述识别步骤中,
通过筛选出被检体的多张图像,并将所述被检体的多张图像经多通道信息融合后获得的图像作为待识别图像,输入训练后的图像识别模型,来输出是否为目标气道的图像识别结果。
9.一种基于多通道融合的图像识别装置,其中,所述图像识别装置包括:
数据获取模块,用于获取历史样本的包含人体口腔区域的多张图像;
数据筛选模块,用于从获取的多张图像中,筛选出每个历史样本的特定数量的历史图像;
融合处理模块,用于将所述每个历史样本的筛选出的特定数量的历史图像进行多通道融合处理,得到融合后的图像作为各历史样本的输入图像以建立训练数据集;
模型构建模块,用于基于深度网络算法,构建图像识别模型,并使用所述训练数据集训练所述图像识别模型;
图像识别模块,用于通过将待识别图像输入训练后的图像识别模型,进行图像识别,以得到图像识别结果。
10.一种暂时性计算机可读存储介质,其用于存储程序,当所述程序被计算机执行时,实现权利要求1至8中任一项所述的图像识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210230371.3A CN114565602A (zh) | 2022-03-10 | 2022-03-10 | 基于多通道融合的图像识别方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210230371.3A CN114565602A (zh) | 2022-03-10 | 2022-03-10 | 基于多通道融合的图像识别方法、装置和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114565602A true CN114565602A (zh) | 2022-05-31 |
Family
ID=81717116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210230371.3A Pending CN114565602A (zh) | 2022-03-10 | 2022-03-10 | 基于多通道融合的图像识别方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114565602A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115984470A (zh) * | 2022-12-30 | 2023-04-18 | 江苏创英医疗器械有限公司 | 一种基于图像识别技术的种植牙建模方法及*** |
CN116165953A (zh) * | 2023-03-05 | 2023-05-26 | 上海医鸽智能科技有限公司 | 基于多源数据数据融合的智能控制*** |
CN116630725A (zh) * | 2023-07-24 | 2023-08-22 | 广东北斗翔晨科技有限公司 | 基于多维筛选的垃圾分类处理方法、装置、设备及介质 |
-
2022
- 2022-03-10 CN CN202210230371.3A patent/CN114565602A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115984470A (zh) * | 2022-12-30 | 2023-04-18 | 江苏创英医疗器械有限公司 | 一种基于图像识别技术的种植牙建模方法及*** |
CN115984470B (zh) * | 2022-12-30 | 2023-11-28 | 江苏创英医疗器械有限公司 | 一种基于图像识别技术的种植牙建模方法及*** |
CN116165953A (zh) * | 2023-03-05 | 2023-05-26 | 上海医鸽智能科技有限公司 | 基于多源数据数据融合的智能控制*** |
CN116165953B (zh) * | 2023-03-05 | 2023-12-22 | 上海医鸽智能科技有限公司 | 基于多源数据数据融合的智能控制*** |
CN116630725A (zh) * | 2023-07-24 | 2023-08-22 | 广东北斗翔晨科技有限公司 | 基于多维筛选的垃圾分类处理方法、装置、设备及介质 |
CN116630725B (zh) * | 2023-07-24 | 2023-10-31 | 广东北斗翔晨科技有限公司 | 基于多维筛选的垃圾分类处理方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10354362B2 (en) | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network | |
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN114565602A (zh) | 基于多通道融合的图像识别方法、装置和存储介质 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
CN111539912B (zh) | 基于人脸结构定位的健康指标评估方法、设备和存储介质 | |
CN109359538A (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN107609459A (zh) | 一种基于深度学习的人脸识别方法及装置 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
US20230086552A1 (en) | Image processing method and apparatus, device, storage medium, and computer program product | |
CN112818862A (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与*** | |
CN103902958A (zh) | 人脸识别的方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN111008971B (zh) | 一种合影图像的美学质量评价方法及实时拍摄指导*** | |
CN105335719A (zh) | 活体检测方法及装置 | |
WO2024109374A1 (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN111539911B (zh) | 一种口呼吸面容识别方法、设备和存储介质 | |
CN112613471B (zh) | 人脸活体检测方法、装置及计算机可读存储介质 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
WO2019142127A1 (en) | Method and system of creating multiple expression emoticons | |
Hebbale et al. | Real time COVID-19 facemask detection using deep learning | |
CN111666845A (zh) | 基于关键帧采样的小样本深度学习多模态手语识别方法 | |
CN112434647A (zh) | 一种人脸活体检测方法 | |
CN115147261A (zh) | 图像处理方法、装置、存储介质、设备及产品 | |
CN113705466A (zh) | 用于遮挡场景、尤其高仿遮挡下的人脸五官遮挡检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |