CN116246287A - 目标对象识别方法、训练方法、装置以及存储介质 - Google Patents
目标对象识别方法、训练方法、装置以及存储介质 Download PDFInfo
- Publication number
- CN116246287A CN116246287A CN202310269555.5A CN202310269555A CN116246287A CN 116246287 A CN116246287 A CN 116246287A CN 202310269555 A CN202310269555 A CN 202310269555A CN 116246287 A CN116246287 A CN 116246287A
- Authority
- CN
- China
- Prior art keywords
- feature
- fusion
- features
- text
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000012549 training Methods 0.000 title claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 331
- 238000000605 extraction Methods 0.000 claims description 139
- 238000013136 deep learning model Methods 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 51
- 230000006870 function Effects 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 7
- 238000013475 authorization Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000002893 slag Substances 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/412—Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/418—Document matching, e.g. of document images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了目标对象识别方法、训练方法、装置以及存储介质,涉及人工智能技术领域,尤其涉及图像识别技术领域和视频分析技术领域,可应用于智慧城市、城市治理、应急管理等应用场景中。该目标对象识别方法具体实现方案为:对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征;融合关键字文本特征与描述文本特征进行特征,得到目标文本特征;根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;对查询特征、键特征和值特征进行融合,得到目标融合特征;以及根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及图像识别技术领域和视频分析技术领域,可应用于智慧城市、城市治理、应急管理等应用场景中。
背景技术
随着人工智能技术的发展,城市治理等应用场景中可以基于相关图像识别技术来处理视频采集设备采集的图像或视频,以实现对目标对象的及时识别,例如以确定图像或视频中目标对象的位置和类别。
发明内容
本公开提供了一种目标对象识别方法、训练方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种目标对象识别方法,包括:对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,关键字文本特征与目标对象描述文本中的描述关键字相对应;融合关键字文本特征与描述文本特征进行特征,得到目标文本特征;根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;对查询特征、键特征和值特征进行融合,得到目标融合特征;以及根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
根据本公开的另一方面,提供了一种深度学习模型的训练方法,深度学习模型包括文本特征提取网络、第一融合网络、第二融合网络和识别网络,训练方法包括:将样本目标对象描述文本输入至文本特征提取网络,得到样本描述文本特征,以及与样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征;将样本关键字文本特征和样本描述文本特征输入至第一融合网络,得到样本目标文本特征;根据样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征;将查询特征、键特征和值特征输入第二融合网络,得到样本目标融合特征;将样本目标融合特征输入至识别网络,得到与样本图像对应的样本识别结果;以及根据样本图像的标签和样本识别结果,训练深度学习模型。
根据本公开的另一方面,提供了一种目标对象识别装置,包括:文本特征提取模块,用于对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,关键字文本特征与目标对象描述文本中的描述关键字相对应;第一融合模块,用于融合关键字文本特征与描述文本特征进行特征,得到目标文本特征;第一确定模块,用于根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;第二融合模块,用于对查询特征、键特征和值特征进行融合,得到目标融合特征;以及识别模块,用于根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
根据本公开的另一方面,提供了一种深度学习模型的训练装置,深度学习模型包括文本特征提取网络、第一融合网络、第二融合网络和识别网络,训练装置包括:样本文本特征提取模块,用于将样本目标对象描述文本输入至文本特征提取网络,得到样本描述文本特征,以及与样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征;第三融合模块,用于将样本关键字文本特征和样本描述文本特征输入至第一融合网络,得到样本目标文本特征;第二确定模块,用于根据样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征;第四融合模块,用于将查询特征、键特征和值特征输入第二融合网络,得到样本目标融合特征;样本识别结果获得模块,用于将样本目标融合特征输入至识别网络,得到与样本图像对应的样本识别结果;以及训练模块,用于根据样本图像的标签和样本识别结果,训练深度学习模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开实施例的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行根据本公开实施例的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据本公开实施例的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开实施例的可以应用目标对象识别方法及装置的示例性***架构;
图2示意性示出了根据本公开实施例的目标对象识别方法的流程图;
图3示意性示出了根据本公开实施例的目标对象识别模型的示意图;
图4A示意性示出了根据本公开的实施例的初始图像的示意图;
图4B示意性示出了根据本公开的实施例的识别结果的示意图;
图5示意性示出了根据本公开实施例的深度学习模型的训练方法的流程图;
图6示意性示出了根据本公开实施例的深度学习模型的训练方法的原理图;
图7示意性示出了根据本公开实施例的目标对象识别装置的框图;
图8示意性示出了根据本公开实施例的深度学习模型的训练装置的框图;以及
图9示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
随着城市化进程的发展,超大城市逐渐凸显出交通集约化的特点,基于城市监控摄像头等利用计算机视觉方案对于渣土车、危化品车、重型货车等需要重点管控的车辆载具进行监控的应用较为普遍。然而,目前对于重点管控车辆的管理方案仍存在缺陷,缺乏较为成熟的技术手段准确识别重点管控车辆,以及难以及时发现重点管控车辆的违规行为,例如渣土运输车未苫盖行为等。
基于人工智能技术对车辆进行监管的方案普遍利用计算机视觉技术,需要收集数量较多的车辆图片以进行特征提取与属性识别,判断目标车辆是否属于监管车辆的类型。受限于车辆车型种类繁多、图像的视觉区分度低等技术问题,在监管车辆的车型识别应用中难以构建各个类型车辆的特征库,导致监管车辆的识别精度较低。
同时,针对车辆的属性,例如“黄色牌照”、“载有渣土且未苫盖”等属性的识别需要更加个性化的车辆图片来训练相关目标检测模型,进一步增加了训练难度。此外,在监管规则发生变化的情况下,难以及时有效地依据变化后的监管规则对相关车辆行为进行识别与监控,导致目标对象识别效率较低。
本公开的实施例提供了目标对象识别方法、训练方法、装置、电子设备、存储介质以及程序产品。该目标对象识别方法包括:对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,关键字文本特征与目标对象描述文本中的描述关键字相对应;融合关键字文本特征与描述文本特征进行特征,得到目标文本特征;根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;对查询特征、键特征和值特征进行融合,得到目标融合特征;以及根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,通过从目标对象描述文本中提取表征目标对象描述文本整体的描述文本特征,以及表征描述关键关键字文本特征,并融合生成目标文本特征,可以使目标文本特征充分融合关键字所表征的局部语义信息,以及描述文本所表征的全局语义信息。因此对目标文本特征和初始图像特征进行融合,可以进一步基于目标文本特征补充初始图像特征中的语义特征信息,从而根据初始图像特征和目标文本特征生成的目标融合特征来识别初始图像中的目标对象,可以避免由于图像所包含的目标对象的属性信息不足导致目标对象识别不准确的技术问题,提升识别得到的目标对象与目标对象描述文本的匹配准确率。同时在目标对象描述文本变更频繁的情况下,根据本公开实施例提供的目标对象识别方法可以提升识别得到的目标对象与变更后的目标对象描述文本的匹配精度,至少部分客服了相关技术中通过重新训练目标识别模型,来适配新的描述文本所造成的训练时长过长的技术问题,提升目标对象识别的整体效率。
图1示意性示出了根据本公开实施例的可以应用目标对象识别方法及装置的示例性***架构。
需要注意的是,图1所示仅为可以应用本公开实施例的***架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、***、环境或场景。例如,在另一实施例中,可以应用目标对象识别方法及装置的示例性***架构可以包括终端设备,但终端设备可以无需与服务器进行交互,即可实现本公开实施例提供的目标对象识别方法及装置。
如图1所示,根据该实施例的***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如知识阅读类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的内容提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的目标对象识别方法一般可以由服务器105执行。相应地,本公开实施例所提供的目标对象识别装置一般可以设置于服务器105中。本公开实施例所提供的目标对象识别方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的目标对象识别装置也可以设置于不同于服务器105且能够与终端设备1 01、1 02、103和/或服务器105通信的服务器或服务器集群中。
或者,本公开实施例所提供的目标对象识别方法一般也可以由终端设备101、102、或103执行。相应地,本公开实施例所提供的目标对象识别装置也可以设置于终端设备101、102、或103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的目标对象识别方法的流程图。
如图2所示,该目标对象识别方法可以包括操作S210~S250。
在操作S210,对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,关键字文本特征与目标对象描述文本中的描述关键字相对应。
在操作S220,融合关键字文本特征与描述文本特征进行特征,得到目标文本特征。
在操作S230,根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征。
在操作S240,对查询特征、键特征和值特征进行融合,得到目标融合特征。
在操作S250,根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,目标对象描述文本可以是对需要进行识别的目标对象的属性进行描述的文本信息。目标对象的属性可以包括颜色、类型等。目标对象的属性例如可以为货车、推土机等,但不仅限于此,还可以包括目标对象的行为属性,例如货车的未苫盖行为、货物宽度超限制宽度等行为属性。本公开的实施例对目标对象属性的具体设定方式不做限定,本领域技术人员可以根据实际需求进行选择。
根据本公开的实施例,目标对象描述文本可以包含有多个属性信息,例如可以为“红色的货车”、“白色的未苫盖的渣土车”等。
根据本公开的实施例,描述文本特征可以是对目标对象描述文本的整体进行文本特征提取后得到的。关键字文本特征可以是针对描述关键字进行特征提取后得到的,描述关键字可以是目标对象描述文本中,表征目标对象属性信息的字或词,或者还可以对目标对象描述文本中任意的字进行特征提取后得到关键字文本特征。根据本公开的实施例,可以基于任意方式进行特征提取,例如基于编码方式进行特征提取,或者还可以基于神经网络算法来进行特征提取,例如,可以基于卷积神经网络提取文本特征。又例如可以基于Transformer模型来提取文本特征。本公开的实施例对文本特征提取的具体方式不做限定。
根据本公开的实施例,可以基于任意方式融合关键字文本特征与描述文本特征。例如可以基于向量拼接、特征相加等方式来融合关键字文本特征与描述文本特征进行特征,本公开的实施例对此不做限定。
根据本公开的实施例,初始图像可以包括通过图像采集装置采集到的图像,图像采集装置可以包括摄像头、相机等。在图像采集装置为具有视频采集功能的摄像头的情况下,可以从一个或多个摄像头采集的图像中确定至少一个初始图像。
根据本公开的实施例,可以基于任意方式对初始图像进行图像特征提取得到初始图像特征。初始图像的数量可以是一个或多个,本公开的实施例对初始图像的数量不做限定。
根据本公开的实施例,初始图像可以为J个。J可以为大于或等于1的整数。可以利用各种方式对初始图像进行图像特征提取。例如,可以对第j个初始图像进行特征提取,得到第j个初始图像特征。J可以为大于或等于1且小于或等于J的整数。
根据本公开的实施例,可以将目标文本特征作为查询特征、键特征或值特征。也可以将初始图像特征作为查询特征、键特征或值特征。例如,可以将目标文本特征作为第j个键特征,将第j个初始图像特征作为第j个查询特征和第j个值特征。
根据本公开的实施例,可以基于注意力机制,例如基于多头注意力机制,将第j个查询特征、第j个键特征和第j个值特征融合,得到目标融合特征。例如,可以基于多头注意力机制,将查询特征、键特征和值特征融合,得到目标融合特征。
根据本公开的实施例,可以基于相关神经网络算法来处理目标融合特征,并根据得到的识别结果来识别初始图像中与目标对象描述文本相匹配的目标对象。
例如,在目标对象描述文本为“白色的未苫盖的渣土车”,可以通过相关神经网络算法来处理目标融合特征,得到初始图像中的目标检测框。目标检测框可以包围初始图像中的“白色的未苫盖的渣土车”的图像区域,从而识别得到与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,通过从目标对象描述文本中提取表征目标对象描述文本整体的描述文本特征,以及表征描述关键关键字文本特征,并融合生成目标文本特征,可以使目标文本特征充分融合关键字所表征的局部语义信息,以及描述文本所表征的全局语义信息,因此对目标文本特征和初始图像特征进行融合,可以进一步基于目标文本特征充实初始图像特征中的语义特征信息,从而根据初始图像特征和目标文本特征生成的目标融合特征来识别初始图像中的目标对象,可以避免由于图像所包含的目标对象的属性信息不足导致目标对象识别不准确的技术问题,提升识别得到的目标对象与目标对象描述文本的匹配准确率。同时在目标对象描述文本变更频繁的情况下,根据本公开实施例提供的目标对象识别方法可以提升识别得到的目标对象与变更后的目标对象描述文本的匹配精度,从而提升目标对象识别的整体效率。
需要说明的是,本公开任意实施例提供的目标对象识别方法,均是在获得相关用户或机构授权的情况下获取初始图像或目标对象描述文本等采集信息,并明确告知所采集信息的具体用途,或者在具有相关资质的用户或机构的授权下采集初始图像,或在具有相关资质的用户或机构的授权下执行目标对象识别方法,符合相关法律法规的规定。
可以理解,上文对本公开的方法流程进行了说明。在本公开实施例中,可以利用深度学习模型来实现上述的方法,下面将进行详细说明。
图3示意性示出了根据本公开实施例的目标对象识别模型的示意图。
如图3所示,目标对象识别模型300可以包括文本特征提取网络310、第一融合网络320、图像特征提取网络330、第二融合网络340和识别网络350。
根据本公开的实施例,对目标对象描述文本进行文本特征提取可以包括:基于目标对象属性规则,从目标对象描述文本中,提取表征目标对象属性的描述关键字;对描述关键字进行文本特征提取;以及对目标对象描述文本进行文本特征提取。
可以通过如图3所示的文本特征提取网络310对目标对象描述文本进行文本特征提取。如图3所示,可以将目标对象描述文本301输入至文本特征提取网络310中,实现根据目标对象属性规则,提取表征目标对象属性的描述关键字,并对目标对象描述文本301和描述关键字分别进行文本特征提取,得到描述文本特征3011和关键字文本特征3012。
根据本公开的实施例,文本特征提取网络可以是基于Transformer模型构建得到的,或者还可以是基于强力优化的基于Transformer的双向编码表示模型(RobustlyOptimized Bidirectional Encoder Representations from Transformers,RoBERTa)构建得到的。本公开的实施例对文本特征提取网络的具体网络结构不做限定,本领域技术人员可以根据实际需求进行选择。
根据本公开的实施例,目标对象属性规则可以表征对于目标对象属性的分词规则,或关键词提取规则。
根据本公开的实施例,目标对象描述文本包括多个描述关键字,多个描述关键字各自关联有关键字文本特征。
根据本公开的实施例,融合关键字文本特征与描述文本特征,得到目标文本特征可以包括:将多个描述关键字各自关联的关键字文本特征,分别与描述文本特征进行特征融合,得到多个中间文本特征;以及根据多个中间文本特征,确定目标文本特征。
可以通过图3所示的第一融合网络320实现融合关键字文本特征与描述文本特征。如图3所示,可以将描述文本特征3011和关键字文本特征3012输入至第一融合网络320,得到目标文本特征。
第一融合网络320可以基于循环神经网络算法构建得到,或者还可以基于注意力网络,例如BERT(Bidirectional Encoder Representation from Transformers)模型构建得到,或者还可以基于拼接、相加等算法构建得到,本公开的实施例对构建得到第一融合网络的具体方式不做限定。
在本公开的一个实施例中,可以拼接关键字文本特征与描述文本特征得到中间特征,并将多个中间特征拼接后得到目标文本特征。
根据本公开的实施例,通过将多个关键字文本特征,分别与描述文本特征进行特征融合,可以使中间文本特征分别表征描述关键字的局部语义信息和描述文本的整体语义信息,进而根据多个中间文本特征得到的目标文本特征可以提升针对目标对象描述文本的语义信息含量,有助于加强后续目标融合特征的语义信息,提升目标对象识别精度。
根据本公开的实施例,目标对象识别方法还包括:对初始图像进行K级图像特征提取,得到初始图像的K级初始图像特征,K为大于1的整数。
可以通过图3所示的图像特征提取网络330实现对初始图像进行K级图像特征提取。如图3所示,图像特征提取网络330可以包括第一特征提取单元331和第二特征提取单元332。第二特征提取单元332可以包括K个特征提取层。K个特征提取层可以包括特征提取层3321、特征提取层3322以及特征提取层3323。
根据本公开的实施例,可以将初始图像302输入至图像特征提取网络330的第一特征提取单元331,输出第一初始图像特征,可以将第一初始图像特征输入特征提取层3321,得到初始图像302的第1级初始图像特征。将初始图像的第1个初始图像特征输入特征提取层3322,得到初始图像的第2级初始图像特征。将初始图像的第2级初始图像特征输入特征提取层3323,得到初始图像的第3级初始图像特征。可以理解,在本实施例中,K可以为3。由此,获得了初始图像的K个初始图像特征。
接下来,可以将目标文本特征和K级初始图像特征分别融合,得到K个目标融合特征。通过本公开实施例,可以提取出图像的不同尺度的特征,可以充分地从初始图像中提取出有效信息,以便得到更加准确的识别结果。
需要说明的是,在初始图像包括J个,J为大于1的正整数的情况下,初始图像302可以是J个初始图像中的第j个初始图像,j为正整数且小于J。
需要说明的是,第一特征提取单元331和第二特征提取单元332中的任意特征提取层,均可以基于神经网络算法构建得到,例如可以基于卷积神经网络算法构建,本公开的实施例对此不做限定。
根据本公开的实施例,根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征可以包括:根据目标文本特征,确定键特征;以及根据初始图像特征,确定查询特征和值特征。
例如,可以根据第j个初始图像的第1级初始图像特征,得到第j个初始图像的第1个查询特征和第j个初始图像的第1个值特征。可以根据第j个初始图像的第2级初始图像特征,得到第j个初始图像的第2级查询特征和第j个初始图像的第2级值特征。可以根据第j个初始图像的第3级初始图像特征,得到第j个初始图像的第3级查询特征和第j个初始图像的第3级值特征。又例如,目标文本特征可以分别作为与第j个初始图像对应的第1级键特征、与第j个初始图像对应的第2级键特征和与第j个初始图像对应的第3级键特征。
根据本公开的实施例,对查询特征、键特征和值特征进行融合,得到目标融合特征可以包括:根据查询特征、键特征和值特征进行I级融合,得到目标融合特征,其中,I为大于1的整数。
可以通过图3所示的第二融合网络340来实现根据查询特征、键特征和值特征进行I级融合。如图3所示,第二融合网络340可以包括1个融合单元。融合单元可以是基于Transformer模型构建的。1个融合单元可以包括融合单元341、融合单元342以及融合单元343。I为大于1的整数,可以理解,融合单元343可以作为第I级融合单元,在本实施例中,I可以为3。也可以理解,融合单元341和融合单元342可以作为第i级融合单元,i可以为大于或等于1且小于I的整数,即i的取值可以为1和2。相应地,融合单元343输出的融合特征可以作为目标融合特征。
根据本公开的实施例,上述操作,根据查询特征、键特征和值特征进行I级融合可以包括:将查询特征、键特征和值特征分别作为第1级查询特征、第1级键特征和第1级值特征;基于注意力机制,对第1级查询特征、第1级键特征和第1级值特征进行第1级融合,得到第1级中间融合特征;以及根据第1级中间融合特征、目标文本特征和初始图像特征进行I-1级融合。
例如,可以将查询特征、键特征和值特征分别作为第1级查询特征、第1级键特征和第1级值特征。基于多头注意力机制,将第1级查询特征、第1级键特征和第1级值特征融合,得到第1级中间融合特征。
例如,可以将第j个初始图像的第1级查询特征作为第1级查询特征。可以将与第j个初始图像对应的第1级键特征作为第1级键特征。可以将第j个初始图像的第1级值特征作为第1级值特征。将第1级查询特征、第1级键特征和第1级值特征输入融合单元341,可以得到第1级中间融合特征。
根据本公开的实施例,上述操作,根据第1级中间融合特征、目标文本特征和初始图像特征进行I-1级融合可以包括:将第i级中间融合特征分别与目标文本特征和初始图像特征融合,得到第i+1级文本融合特征和第i+1级图像融合特征,其中,i为大于或等于1且小于I的整数;根据第i+1级文本融合特征,确定第i+1级键特征;根据第i+1级图像融合特征,确定第i+1级查询特征和第i+1级值特征;以及基于注意力机制,对第i+1级查询特征、第i+1级键特征和第i+1级值特征进行第i+1级融合,得到第i+1级中间融合特征。
根据本公开的实施例,第1级中间融合特征可以作为初始图像的目标融合特征。例如基于第1级初始图像特征作为第1个查询特征和第1个值特征,将目标文本特征作为第1个键特征,可以通过融合单元341、融合单元342和融合单元343确定第1个目标融合特征。又例如,基于第2级初始图像特征作为第2个查询特征和第2个值特征,将目标文本特征作为第2个键特征,可以通过融合单元341、融合单元342和融合单元343确定第2个目标融合特征。又例如,基于第3级初始图像特征作为第3个查询特征和第3个值特征,将目标文本特征作为第3个键特征,可以通过融合单元341、融合单元342和融合单元343确定第3个目标融合特征。
根据本公开的实施例,可以将上述的第1级中间融合特征与目标文本特征融合,得到第2级文本融合特征。可以将上述的第1级中间融合特征与第j个初始图像的第1个初始图像特征融合,得到第2级图像融合特征。可以将第2级文本融合特征作为第2级键特征。可以将第2级图像融合特征作为第2级查询特征和第2级值特征。将第2级查询特征、第2级键特征和第2级值特征输入融合单元342,可以得到第2级中间融合特征。又例如,可以将上述的第2级中间融合特征与目标文本特征融合,得到第3级文本融合特征。可以将上述的第2级中间融合特征与第j个初始图像的第1个初始图像特征融合,得到第3级图像融合特征。可以将第3级文本融合特征作为第3级键特征。可以将第3级图像融合特征作为第3级查询特征和第3级值特征。将第3级查询特征、第3级键特征和第3级值特征输入融合单元343,可以得到第3级中间融合特征。第3级中间融合特征可以作为与第j个初始图像对应的第1个目标融合特征。
根据本公开的实施例,还可以基于多头注意力机制将文本特征和图像特征进行充分融合,在目标对象识别场景中(尤其是在重点监控车辆的车辆行为监控场景中),可以更加充分地获取目标对象描述文本(例如监控违规描述文本)的语义信息和图像的语义信息,有助于便捷准确地从视频采集设备采集的图像中确定与目标对象描述文本对应的目标对象。
根据本公开的实施例,根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象可以包括:根据目标融合特征,确定与初始图像对应的识别结果,识别结果包括初始图像的候选检测框,以及与候选检测框对应的匹配置信度;以及根据候选检测框与匹配置信度,识别与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,根据目标融合特征,确定与初始图像对应的识别结果包括:对目标融合特征进行至少一次卷积,得到与初始图像对应的识别结果。
可以通过如图3所示的识别网络350来处理目标融合特征,得到识别结果。如图3所示,识别网络350可以对与第j个初始图像对应的第1个目标融合特征进行至少一次卷积,得到与第j个初始图像对应的第1个识别结果351。又例如,识别网络350可以对与第j个初始图像对应的第2个目标融合特征进行至少一次卷积,得到与第j个初始图像对应的第2个识别结果352。又例如,识别网络350可以对与第j个初始图像对应的第3个目标融合特征进行至少一次卷积,得到与第j个初始图像对应的第3个识别结果353。
根据本公开的实施例,将J个初始图像输入目标识别模型300,可以得到J×K个识别结果。
根据本公开的实施例,根据候选检测框与匹配置信度,识别与目标对象描述文本相匹配的目标对象包括:在匹配置信度大于或等于预设置信度阈值的情况下,将与匹配置信度对应的候选检测框确定为目标检测框;以及根据目标检测框,以及与目标检测框对应的初始图像,确定目标图像区域,其中,目标图像区域至少部分表征与目标对象描述文本相匹配的目标对象。
可以理解,上文对本公开的目标识别模型进行了说明,下面将结合对本公开的识别结果进行进一步说明。
图4A示意性示出了根据本公开的实施例的初始图像的示意图。
如图4A所示,初始图像401’可以包括一个目标对象。该目标对象对应的目标对象描述文本可以为“未苫盖的渣土车”。
图4B示意性示出了根据本公开的实施例的识别结果的示意图。
根据本公开实施例提供的目标对象识别方法,可以得到第1个识别结果为初始图像401’的候选检测框和匹配置信度。例如,初始图像401’的第1个识别结果可以实现为向量(H,W,x,y,w,h,score)。H,W分别表示将初始图像划分的区域个数。如图4B所示,H可以为13,W可以为20。(x,y)可以表示候选检测框的中心点的坐标。w为候选检测框的宽度。h为候选检测框的高度。score为匹配置信度。例如,匹配置信度可以表征与“未苫盖的渣土车”相匹配的置信度。在目标对象描述文本为多个的情况下,可以包括“未苫盖的渣土车”、“黑色货车”等等。每个目标对象描述文本对应一个置信度。可以理解,对于一个初始图像,可以有K个识别结果。不同识别结果的H和W可以是不同的。
根据本公开的实施例,在匹配置信度大于或等于预设置信度阈值的情况下,将该候选检测框确定为目标检测框,并根据初始图像和目标检测框,识别出初始图像401’中与目标对象描述文本匹配的目标对象。例如,如图4B所示,初始图像401’的第1个识别结果中,与“未苫盖的渣土车”相匹配的目标对象的置信度可以大于预设置信度阈值。相应地,该初始图像可以作为一个目标图像401。
应该理解的是,为便于识别,还可以在识别出的目标图像401中用相应颜色的目标对象检测框4011将目标对象包围,以提升目标对象的识别效率。
图5示意性示出了根据本公开实施例的深度学习模型的训练方法的流程图。
如图5所示,深度学习模型包括文本特征提取网络、第一融合网络、第二融合网络和识别网络,该深度学习模型的训练方法可以包括操作S510~操作S560。
在操作S510,将样本目标对象描述文本输入至文本特征提取网络,得到样本描述文本特征,以及与样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征。
在操作S520,将样本关键字文本特征和样本描述文本特征输入至第一融合网络,得到样本目标文本特征。
在操作S530,根据样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征。
在操作S540,将查询特征、键特征和值特征输入第二融合网络,得到样本目标融合特征。
在操作S550,将样本目标融合特征输入至识别网络,得到与样本图像对应的样本识别结果。
在操作S560,根据样本图像的标签和样本识别结果,训练深度学习模型。
根据本公开的实施例,样本目标对象描述文本可以是对目标对象的属性进行描述的文本信息,目标对象的属性可以包括颜色、类型等,目标对象的属性例如可以为货车、推土机等,但不仅限于此,还可以包括目标对象的行为属性,例如货车的未苫盖行为、货物宽度超限制宽度等行为属性。本公开的实施例对目标对象属性的具体设定方式不做限定,本领域技术人员可以根据实际需求进行选择。
根据本公开的实施例,样本目标对象描述文本可以包含有多个属性信息,例如可以为“红色的货车”、“白色的未苫盖的渣土车”等。
根据本公开的实施例,可以通过以下操作得到样本描述文本特征:对样本目标对象描述文本的整体进行文本特征提取。可以通过以下操作得到样本关键字文本特征:对样本目标对象描述文本中,表征目标对象属性信息的描述关键字进行特征提取,或者对样本目标对象描述文本中任意的字进行特征提取。
根据本公开的实施例,第一融合网络可以基于任意方式融合样本关键字文本特征与样本描述文本特征,例如可以基于向量拼接、特征相加等方式来融合样本关键字文本特征与样本描述文本特征进行特征,本公开的实施例对此不做限定。
根据本公开的实施例,样本图像可以包括通过图像采集装置采集到的图像,图像采集装置可以包括摄像头、相机等。在图像采集装置为具有视频采集功能的摄像头的情况下,可以从一个或多个摄像头采集的图像中确定至少一个初始图像。
根据本公开的实施例,图像特征提取网络可以基于任意方式对样本图像进行图像特征提取得到样本初始图像特征。样本图像的数量可以是一个或多个,本公开的实施例对初始图像的数量不做限定。
根据本公开的实施例,样本图像可以为J个。J可以为大于或等于1的整数。可以利用各种方式对样本图像进行图像特征提取。例如,可以对第j个样本图像进行特征提取,得到第j个样本初始图像特征。J可以为大于或等于1且小于或等于J的整数。
根据本公开的实施例,可以将样本目标文本特征作为查询特征、键特征或值特征。也可以将样本初始图像特征作为查询特征、键特征或值特征。例如,可以将样本目标文本特征作为第j个键特征,将第j个样本初始图像特征作为第j个查询特征和第j个值特征。
根据本公开的实施例,可以基于注意力机制,例如基于多头注意力机制构建第二融合网络,将第j个查询特征、第j个键特征和第j个值特征融合,得到样本目标融合特征。例如,可以基于多头注意力机制构建第二融合网络,将查询特征、键特征和值特征融合输入至第二融合网络,得到样本目标融合特征。
根据本公开的实施例,可以基于相关神经网络算法来处理样本目标融合特征,并根据得到的识别结果来识别初始图像中与样本目标对象描述文本相匹配的目标对象。
例如,在样本目标对象描述文本为“白色的未苫盖的渣土车”,可以通过相关神经网络算法来处理样本目标融合特征,得到样本图像中的样本目标检测框,样本目标检测框和对应的样本匹配置信度构成样本识别结果,样本识别结果与样本初始图像的标签输入至损失函数中,得到损失值,并基于损失值来调整深度学习模型的参数,得到训练后的深度学习模型。
应该理解的是,训练后的深度学习模型可以应用于上述实施例中提供的目标对象识别方法,以提升识别与目标对象描述文本匹配的目标对象的识别准确度。
需要说明的是,本公开任意实施例提供的深度学习模型的训练方法,均是在获得相关用户或机构授权的情况下获取样本初始图像,并明确告知所采集的样本初始图像的用途,或者通过公开的训练数据库获取样本初始图像,符合相关法律法规的规定。
可以理解,上文对本公开的目标识别模型的训练方法进行了说明,下面将结合相关实施例来进一步说明本公开的目标识别模型的训练方法。
图6示意性示出了根据本公开实施例的深度学习模型的训练方法的原理图。
如图6所示,深度学习模型600可以包括文本特征提取网络610、第一融合网络620、图像特征提取网络630、第二融合网络640和识别网络650。
根据本公开的实施例,上述操作S510中,可以将样本目标对象描述文本601输入至文本特征提取网络610,输出样本描述文本特征6011和样本关键字文本特征6012。
根据本公开的实施例,文本特征提取网络可以是基于Transformer模型构建得到的,或者还可以是基于强力优化的基于Transformer的双向编码表示模型(RobustlyOptimized Bidirectional Encoder Representations from Transformers,RoBERTa)构建得到的。本公开的实施例对文本特征提取网络的具体网络结构不做限定,本领域技术人员可以根据实际需求进行选择。
根据本公开的实施例,上述操作S520中,可以将样本描述文本特征6011和样本关键字文本特征6012输入至第一融合网络620,以实现每个样本描述关键字对应的样本关键字文本特征6012,分别与样本描述文本特征6011进行融合,得到样本中间文本特征。多个样本中间文本特征融合后可以得到样本目标文本特征6013。
第一融合网络可以基于循环神经网络算法构建得到,或者还可以基于注意力网络(例如BERT模型)构建得到,或者还可以基于拼接、相加等算法构建得到,本公开的实施例对构建得到第一融合网络的具体方式不做限定。
如图6所示,深度学习模型600还可以包括图像特征提取网络630,图像特征提取网络630包括第一特征提取单元631和第二特征提取单元632,第二特征提取单元632包括K级特征提取层,K为大于1的整数。K级特征提取层例如可以包括特征提取层6321、特征提取层6322和特征提取层6323,即K等于3。
根据本公开的实施例,深度学习模型的训练方法还可以包括:将样本图像输入第一特征提取单元,得到第一样本图像特征;将第一样本图像特征输入第1级特征提取层,得到第1级样本初始图像特征;将第k级样本初始图像特征输入第k+1级特征提取层,得到第k+1级样本初始图像特征,其中,k为大于或等于1且小于K的整数。
例如,在K等于3的情况下,如图6所示,可以将样本图像602输入第一特征提取单元631,得到第一样本图像特征;将第一样本图像特征输入第1级特征提取层6321,得到第1级样本初始图像特征;将第1级样本初始图像特征输入第2级特征提取层6322,得到第2级样本初始图像特征;将第2级样本初始图像特征输入第3级特征提取层6323,得到第3级样本初始图像特征。相应地,第1级样本初始图像特征、第2级样本初始图像特征和第3级样本初始图像特征可以分别作为与样本图像602对应的不同尺度的3个样本初始图像特征。由此,可以获得样本图像602的K个样本初始图像特征,利用每个样本初始图像特征分别与样本目标文本特征输入至第二融合网络640,可以得到样本图像602的3个样本目标融合特征。
根据本公开的实施例,,根据样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征。例如,可以将样本目标文本特征确定为键特征,将样本初始图像特征确定为查询特征和值特征,并将查询特征、键特征和值特征输入第二融合网络640,得到样本目标融合特征。
根据本公开的实施例,第二融合网络包括融合单元。
其中,将查询特征、键特征和值特征输入第二融合网络,得到样本目标融合特征包括:利用融合单元对查询特征、键特征和值特征进行I级融合,得到目标融合特征,其中,I为大于1的整数。
例如,可以根据第j个样本图像的第1级样本初始图像特征,得到第j个样本图像的第1个查询特征和第j个样本图像的第1个值特征。可以根据第j个样本图像的第2级样本初始图像特征,得到第j个样本图像的第2级查询特征和第j个样本图像的第2级值特征。可以根据第j个样本图像的第3级样本初始图像特征,得到第j个样本图像的第3级查询特征和第j个样本图像的第3级值特征。又例如,样本目标文本特征可以分别作为与第j个样本图像对应的第1级键特征、与第j个样本图像对应的第2级键特征和与第j个样本图像对应的第3级键特征。
可以通过如图6所示的第二融合网络640对查询特征、键特征和值特征进行I级融合。如图6所示,第二融合网络640可以包括I个融合单元。融合单元可以是基于Transformer模型构建的。I个融合单元可以包括融合单元641、融合单元642以及融合单元643。I为大于1的整数,可以理解,融合单元643可以作为第I级融合单元,在本实施例中,I可以为3。也可以理解,融合单元641和融合单元642可以作为第i级融合单元,i可以为大于或等于1且小于I的整数,即i的取值可以为1和2。相应地,融合单元643输出的融合特征可以作为样本目标融合特征。
根据本公开的实施例,可以将查询特征、键特征和值特征分别作为第1级查询特征、第1级键特征和第1级值特征。将第1级查询特征、第1级键特征和第1级值特征,输入至基于多头注意力机制构建的融合单元641,实现第1级查询特征、第1级键特征和第1级值特征融合,得到第1级中间融合特征。
根据本公开的实施例,将第i级中间融合特征分别与目标文本特征和初始图像特征融合,得到第i+1级文本融合特征和第i+1级图像融合特征,其中,i为大于或等于1且小于I的整数;根据第i+1级文本融合特征,确定第i+1级键特征;根据第i+1级图像融合特征,确定第i+1级查询特征和第i+1级值特征;以及基于注意力机制,对第i+1级查询特征、第i+1级键特征和第i+1级值特征进行第i+1级融合,得到第i+1级中间融合特征。
根据本公开的实施例,第I级中间融合特征可以作为样本图像的样本目标融合特征。例如基于第1级样本初始图像特征作为第1个查询特征和第1个值特征,将样本目标文本特征作为第1个键特征,可以通过融合单元641、融合单元642和融合单元643确定第1个目标融合特征。又例如,基于第2级样本初始图像特征作为第2个查询特征和第2个值特征,将样本目标文本特征作为第2个键特征,可以通过融合单元641、融合单元642和融合单元643确定第2个样本目标融合特征。又例如,基于第3级样本初始图像特征作为第3个查询特征和第3个值特征,将样本目标文本特征作为第3个键特征,可以通过融合单元641、融合单元642和融合单元643确定第3个目标融合特征。
根据本公开的实施例,可以将上述的第1级中间融合特征与样本目标文本特征融合,得到第2级文本融合特征。可以将上述的第1级中间融合特征与第j个样本图像的第1个样本初始图像特征融合,得到第2级图像融合特征。可以将第2级文本融合特征作为第2级键特征。可以将第2级图像融合特征作为第2级查询特征和第2级值特征。将第2级查询特征、第2级键特征和第2级值特征输入融合单元642,可以得到第2级中间融合特征。又例如,可以将上述的第2级中间融合特征与样本目标文本特征融合,得到第3级文本融合特征。可以将上述的第2级中间融合特征与第j个样本图像的第1个样本初始图像特征融合,得到第3级图像融合特征。可以将第3级文本融合特征作为第3级键特征。可以将第3级图像融合特征作为第3级查询特征和第3级值特征。将第3级查询特征、第3级键特征和第3级值特征输入融合单元643,可以得到第3级中间融合特征。第3级中间融合特征可以作为与第j个样本图像对应的第1个样本目标融合特征。
根据本公开的实施例,可以将第j个样本图像的第k个样本目标融合特征,输入至识别网络,对样本目标融合特征进行至少一次卷积,输出样本识别结果。
可以通过如图6所示的识别网络650对样本目标融合特征进行至少一次卷积,输出样本识别结果。如图6所示,例如可以将样本图像602的第1个样本目标融合特征输入至识别网络650,识别网络650对第1个样本目标融合特征进行至少一次卷积,得到样本图像602的第1个样本识别结果651。例如可以将样本图像602的第2个样本目标融合特征输入至识别网络650,识别网络650对第2个样本目标融合特征进行至少一次卷积,得到样本图像602的第2个样本识别结果652。又例如,可以将样本图像602的第3个样本目标融合特征输入至识别网络650,识别网络650对第3个样本目标融合特征进行至少一次卷积,得到样本图像602的第3个样本识别结果653。
根据本公开的实施例,将J个样本图像输入目标识别模型600,可以得到J×K个样本识别结果。
又例如,样本识别结果包括样本图像的候选检测框和样本类别置信度。
根据本公开的实施例,可以根据第1个样本识别结果651、第2个样本识别结果652、第3个样本识别结果653以及标签603,利用第一损失函数确定第一损失值。并可以利用第一损失值来训练深度学习模型。例如,可以调整深度学习模型的参数,使得第一损失值收敛。应该理解的是第一损失函数可以包括任意类型的损失函数,例如交叉熵损失函数等,本公开的实施例对第一损失函数的具体类型不做限定。
根据本公开的实施例,上述操作S560中,根据样本图像的标签和样本识别结果,训练深度学习模型还可以包括如下操作。
利用第一损失函数处理样本图像的标签和样本识别结果,得到第一损失值;利用基于对比损失函数构建得到的第二损失函数处理K个样本初始图像特征,以及样本目标文本特征,得到第二损失值;以及基于第一损失值和第二损失值调整深度学习模型的参数。
根据本公开的实施例,可以基于Info噪声对比估计(Info Noise-contrastiveestimation,Info NCE)函数来构建第二损失函数。例如,可以将第j个样本图像中的第m个样本候选检测框对应的样本初始图像特征和样本目标文本特征输入第二损失函数,输出第二损失值,以实现样本候选检测框中的样本初始图像特征与样本文本特征对齐,并通过样本候选检测框中的样本初始图像特征与样本文本特征之间的相似度计算,实现样本候选检测框中的样本区域图像与样本目标对象描述文本的语义对齐,加快深度学习模型的训练速度,提升训练效率和训练后的深度学习模型的鲁棒性。又例如,还可以将J个样本图像中,每个样本初始图像特征与样本目标文本特征输入第二损失函数,输出第二损失值,通过样本初始图像特征与样本目标文本特征的相似度计算,实现样本图像与样本目标对象描述文本的语义对齐,加快深度学习模型的训练速度,提升训练效率和训练后的深度学习模型的鲁棒性。
图7示意性示出了根据本公开实施例的目标对象识别装置的框图。
如图7所示,目标对象识别装置700可以包括文本特征提取模块710、第一融合模块720、第一确定模块730、第二融合模块740和识别模块750。
文本特征提取模块710,用于对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,关键字文本特征与目标对象描述文本中的描述关键字相对应。
第一融合模块720,用于融合关键字文本特征与描述文本特征进行特征,得到目标文本特征。
第一确定模块730,用于根据目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征。
第二融合模块740,用于对查询特征、键特征和值特征进行融合,得到目标融合特征。
识别模块750,用于根据目标融合特征,识别初始图像中与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,目标对象描述文本包括多个描述关键字,多个描述关键字各自关联有关键字文本特征。
第一融合模块包括:第一融合子模块和目标文本特征确定子模块。
第一融合子模块,用于将多个描述关键字各自关联的关键字文本特征,分别与描述文本特征进行特征融合,得到多个中间文本特征;以及
目标文本特征确定子模块,用于根据多个中间文本特征,确定目标文本特征。
根据本公开的实施例,文本特征提取模块包括:描述关键字提取子模块、第一文本特征提取子模块和第二文本特征提取子模块。
描述关键字提取子模块,用于基于目标对象属性规则,从目标对象描述文本中,提取表征目标对象属性的描述关键字。
第一文本特征提取子模块,用于对描述关键字进行文本特征提取。
第二文本特征提取子模块,用于对目标对象描述文本进行文本特征提取。
根据本公开的实施例,第一确定模块包括:第二确定子模块和第二确定子模块。
第二确定子模块,用于根据目标文本特征,确定键特征。
第二确定子模块,用于根据初始图像特征,确定查询特征和值特征。
根据本公开的实施例,第二融合模块包括第二融合子模块。
第二融合子模块,用于根据查询特征、键特征和值特征进行I级融合,得到目标融合特征,其中,I为大于1的整数。
根据本公开的实施例,第二融合子模块包括:第一确定单元、第一融合单元和第二融合单元。
第一确定单元,用于将查询特征、键特征和值特征分别作为第1级查询特征、第1级键特征和第1级值特征。
第一融合单元,用于基于注意力机制,对第1级查询特征、第1级键特征和第1级值特征进行第1级融合,得到第1级中间融合特征。
第二融合单元,用于根据第1级中间融合特征、目标文本特征和初始图像特征进行I-1级融合。
根据本公开的实施例,第二融合单元包括:第一融合子单元、第一确定子单元、第二确定子单元和第二融合子单元。
第一融合子单元,用于将第i级中间融合特征分别与目标文本特征和初始图像特征融合,得到第i+1级文本融合特征和第i+1级图像融合特征,其中,i为大于或等于1且小于I的整数。
第一确定子单元,用于根据第i+1级文本融合特征,确定第i+1级键特征。
第二确定子单元,用于根据第i+1级图像融合特征,确定第i+1级查询特征和第i+1级值特征。
第二融合子单元,用于基于注意力机制,对第i+1级查询特征、第i+1级键特征和第i+1级值特征进行第i+1级融合,得到第i+1级中间融合特征。
根据本公开的实施例,识别模块包括:识别结果确定子模块和识别子模块。
识别结果确定子模块,用于根据目标融合特征,确定与初始图像对应的识别结果,其中,识别结果包括初始图像的候选检测框,以及与候选检测框对应的匹配置信度。
识别子模块,用于根据候选检测框与匹配置信度,识别与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,识别结果确定子模块包括识别结果确定单元。
识别结果确定单元,用于对目标融合特征进行至少一次卷积,得到与初始图像对应的识别结果。
根据本公开的实施例,识别子模块包括:目标检测框确定单元和目标图像区域确定单元。
目标检测框确定单元,用于在匹配置信度大于或等于预设置信度阈值的情况下,将与匹配置信度对应的候选检测框确定为目标检测框。
目标图像区域确定单元,用于根据目标检测框,以及与目标检测框对应的初始图像,确定目标图像区域,其中,目标图像区域至少部分表征与目标对象描述文本相匹配的目标对象。
根据本公开的实施例,目标对象识别装置还包括图像特征提取模块。
图像特征提取模块,用于对初始图像进行K级图像特征提取,得到初始图像的K级初始图像特征,K为大于1的整数。
图8示意性示出了根据本公开实施例的深度学习模型的训练装置的框图。
如图8所示,深度学习模型的训练装置800可以包括样本文本特征提取模块810、第三融合模块820、第二确定模块830、第四融合模块840、样本识别结果获得模块850和训练模块860。深度学习模型可以包括文本特征提取网络、第一融合网络、第二融合网络和识别网络。
样本文本特征提取模块810,用于将样本目标对象描述文本输入至文本特征提取网络,得到样本描述文本特征,以及与样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征。
第三融合模块820,用于将样本关键字文本特征和样本描述文本特征输入至第一融合网络,得到样本目标文本特征。
第二确定模块830,用于根据样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征。
第四融合模块840,用于将查询特征、键特征和值特征输入第二融合网络,得到样本目标融合特征。
样本识别结果获得模块850,用于将样本目标融合特征输入至识别网络,得到与样本图像对应的样本识别结果。
训练模块860,用于根据样本图像的标签和样本识别结果,训练深度学习模型。
根据本公开的实施例,深度学习模型还包括图像特征提取网络,图像特征提取网络包括第一特征提取单元和第二特征提取单元,第二特征提取单元包括K级特征提取层,K为大于1的整数。
深度学习模型的训练装置还包括:第一样本图像特征提取模块、第一样本初始图像特征提取模块和第二样本初始图像特征提取模块。
第一样本图像特征提取模块,用于将样本图像输入第一特征提取单元,得到第一样本图像特征。
第一样本初始图像特征提取模块,用于将第一样本图像特征输入第1级特征提取层,得到第1级样本初始图像特征。
第二样本初始图像特征提取模块,用于将第k级样本初始图像特征输入第k+1级特征提取层,得到第k+1级样本初始图像特征,其中,k为大于或等于1且小于K的整数。
根据本公开的实施例,训练模块包括:第一损失值获得子模块、第二损失值获得子模块和参数调整子模块。
第一损失值获得子模块,用于利用第一损失函数处理样本图像的标签和样本识别结果,得到第一损失值。
第二损失值获得子模块,用于利用基于对比损失函数构建得到的第二损失函数处理K个样本初始图像特征,以及样本目标文本特征,得到第二损失值。
参数调整子模块,用于基于第一损失值和第二损失值调整深度学习模型的参数。
根据本公开的实施例,第二融合网络包括融合单元。
第四融合模块包括第三融合子模块。
第三融合子模块,用于利用融合单元对查询特征、键特征和值特征进行I级融合,得到目标融合特征,其中,I为大于1的整数。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上所述的方法。
根据本公开的实施例,一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如上所述的方法。
根据本公开的实施例,一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如上所述的方法。
图9示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如目标对象识别方法,或者深度学习模型的训练方法。例如,在一些实施例中,如目标对象识别方法,或者深度学习模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM903并由计算单元901执行时,可以执行上文描述的如目标对象识别方法,或者深度学习模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行如目标对象识别方法,或者深度学习模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (33)
1.一种目标对象识别方法,包括:
对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,所述关键字文本特征与所述目标对象描述文本中的描述关键字相对应;
融合所述关键字文本特征与所述描述文本特征进行特征,得到目标文本特征;
根据所述目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;
对所述查询特征、所述键特征和所述值特征进行融合,得到目标融合特征;以及
根据所述目标融合特征,识别所述初始图像中与所述目标对象描述文本相匹配的目标对象。
2.根据权利要求1所述的方法,其中,所述目标对象描述文本包括多个描述关键字,多个所述描述关键字各自关联有关键字文本特征;
其中,所述融合所述关键字文本特征与所述描述文本特征进行特征,得到目标文本特征包括:
将多个所述描述关键字各自关联的关键字文本特征,分别与所述描述文本特征进行特征融合,得到多个中间文本特征;以及
根据多个所述中间文本特征,确定所述目标文本特征。
3.根据权利要求1所述的方法,其中,所述对目标对象描述文本进行文本特征提取包括:
基于目标对象属性规则,从所述目标对象描述文本中,提取表征所述目标对象属性的描述关键字;
对所述描述关键字进行文本特征提取;以及
对所述目标对象描述文本进行文本特征提取。
4.根据权利要求1所述的方法,其中,所述根据所述目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征包括:
根据所述目标文本特征,确定所述键特征;以及
根据所述初始图像特征,确定所述查询特征和所述值特征。
5.根据权利要求1所述的方法,其中,所述对所述查询特征、所述键特征和所述值特征进行融合,得到目标融合特征包括:
根据所述查询特征、所述键特征和所述值特征进行I级融合,得到所述目标融合特征,其中,I为大于1的整数。
6.根据权利要求5所述的方法,其中,所述根据所述查询特征、所述键特征和所述值特征进行I级融合包括:
将所述查询特征、所述键特征和所述值特征分别作为第1级查询特征、第1级键特征和第1级值特征;
基于注意力机制,对所述第1级所述查询特征、第1级所述键特征和第1级所述值特征进行第1级融合,得到第1级中间融合特征;以及
根据第1级所述中间融合特征、所述目标文本特征和所述初始图像特征进行I-1级融合。
7.根据权利要求6所述的方法,其中,所述根据第1级所述中间融合特征、所述目标文本特征和所述初始图像特征进行I-1级融合包括:
将第i级所述中间融合特征分别与所述目标文本特征和所述初始图像特征融合,得到第i+1级文本融合特征和第i+1级图像融合特征,其中,i为大于或等于1且小于I的整数;
根据第i+1级所述文本融合特征,确定第i+1级所述键特征;
根据第i+1级所述图像融合特征,确定第i+1级所述查询特征和第i+1级所述值特征;以及
基于注意力机制,对第i+1级所述查询特征、第i+1级所述键特征和第i+1级所述值特征进行第i+1级融合,得到第i+1级所述中间融合特征。
8.根据权利要求1所述的方法,其中,所述根据所述目标融合特征,识别所述初始图像中与所述目标对象描述文本相匹配的目标对象包括:
根据所述目标融合特征,确定与所述初始图像对应的识别结果,其中,所述识别结果包括所述初始图像的候选检测框,以及与所述候选检测框对应的匹配置信度;以及
根据候选检测框与所述匹配置信度,识别与所述目标对象描述文本相匹配的目标对象。
9.根据权利要求8所述的方法,其中,所述根据所述目标融合特征,确定与所述初始图像对应的识别结果包括:
对所述目标融合特征进行至少一次卷积,得到与所述初始图像对应的识别结果。
10.根据权利要求8所述的方法,其中,所述根据候选检测框与所述匹配置信度,识别与所述目标对象描述文本相匹配的目标对象包括:
在所述匹配置信度大于或等于预设置信度阈值的情况下,将与所述匹配置信度对应的候选检测框确定为目标检测框;以及
根据所述目标检测框,以及与所述目标检测框对应的初始图像,确定目标图像区域,其中,所述目标图像区域至少部分表征与所述目标对象描述文本相匹配的目标对象。
11.根据权利要求1所述的方法,还包括:
对所述初始图像进行K级图像特征提取,得到所述初始图像的K级所述初始图像特征,K为大于1的整数。
12.一种深度学习模型的训练方法,所述深度学习模型包括文本特征提取网络、第一融合网络、第二融合网络和识别网络,所述方法包括:包括:
将样本目标对象描述文本输入至所述文本特征提取网络,得到样本描述文本特征,以及与所述样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征;
将所述样本关键字文本特征和所述样本描述文本特征输入至所述第一融合网络,得到样本目标文本特征;
根据所述样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征;
将所述查询特征、所述键特征和所述值特征输入所述第二融合网络,得到样本目标融合特征;
将所述样本目标融合特征输入至所述识别网络,得到与所述样本图像对应的样本识别结果;以及
根据所述样本图像的标签和所述样本识别结果,训练所述深度学习模型。
13.根据权利要求12所述的方法,其中,所述深度学习模型还包括图像特征提取网络,所述图像特征提取网络包括第一特征提取单元和第二特征提取单元,所述第二特征提取单元包括K级特征提取层,K为大于1的整数;
所述方法还包括:
将所述样本图像输入所述第一特征提取单元,得到第一样本图像特征;
将第一样本图像特征输入第1级所述特征提取层,得到第1级所述样本初始图像特征;
将第k级所述样本初始图像特征输入所述第k+1级所述特征提取层,得到第k+1级所述样本初始图像特征,其中,k为大于或等于1且小于K的整数。
14.根据权利要求13所述的方法,其中,所述根据所述样本图像的标签和所述样本识别结果,训练所述深度学习模型包括:
利用第一损失函数处理所述样本图像的标签和所述样本识别结果,得到第一损失值;
利用基于对比损失函数构建得到的第二损失函数处理K个所述样本初始图像特征,以及所述样本目标文本特征,得到第二损失值;以及
基于所述第一损失值和所述第二损失值调整所述深度学习模型的参数。
15.根据权利要求12所述的方法,其中,所述第二融合网络包括融合单元;
其中,所述将所述查询特征、所述键特征和所述值特征输入所述第二融合网络,得到样本目标融合特征包括:
利用所述融合单元对所述查询特征、所述键特征和所述值特征进行I级融合,得到所述目标融合特征,其中,I为大于1的整数。
16.一种目标对象识别装置,包括:
文本特征提取模块,用于对目标对象描述文本进行文本特征提取,得到描述文本特征和关键字文本特征,其中,所述关键字文本特征与所述目标对象描述文本中的描述关键字相对应;
第一融合模块,用于融合所述关键字文本特征与所述描述文本特征进行特征,得到目标文本特征;
第一确定模块,用于根据所述目标文本特征,以及针对初始图像进行图像特征提取后得到的初始图像特征,确定查询特征、键特征和值特征;
第二融合模块,用于对所述查询特征、所述键特征和所述值特征进行融合,得到目标融合特征;以及
识别模块,用于根据所述目标融合特征,识别所述初始图像中与所述目标对象描述文本相匹配的目标对象。
17.根据权利要求16所述的装置,其中,所述目标对象描述文本包括多个描述关键字,多个所述描述关键字各自关联有关键字文本特征;
其中,所述第一融合模块包括:
第一融合子模块,用于将多个所述描述关键字各自关联的关键字文本特征,分别与所述描述文本特征进行特征融合,得到多个中间文本特征;以及
目标文本特征确定子模块,用于根据多个所述中间文本特征,确定所述目标文本特征。
18.根据权利要求16所述的装置,其中,所述文本特征提取模块包括:
描述关键字提取子模块,用于基于目标对象属性规则,从所述目标对象描述文本中,提取表征所述目标对象属性的描述关键字;
第一文本特征提取子模块,用于对所述描述关键字进行文本特征提取;以及
第二文本特征提取子模块,用于对所述目标对象描述文本进行文本特征提取。
19.根据权利要求16所述的装置,其中,所述第一确定模块包括:
第二确定子模块,用于根据所述目标文本特征,确定所述键特征;以及
第三确定子模块,用于根据所述初始图像特征,确定所述查询特征和所述值特征。
20.根据权利要求16所述的装置,其中,所述第二融合模块包括:
第二融合子模块,用于根据所述查询特征、所述键特征和所述值特征进行I级融合,得到所述目标融合特征,其中,I为大于1的整数。
21.根据权利要求20所述的装置,其中,所述第二融合子模块包括:
第一确定单元,用于将所述查询特征、所述键特征和所述值特征分别作为第1级查询特征、第1级键特征和第1级值特征;
第一融合单元,用于基于注意力机制,对所述第1级所述查询特征、第1级所述键特征和第1级所述值特征进行第1级融合,得到第1级中间融合特征;以及
第二融合单元,用于根据第1级所述中间融合特征、所述目标文本特征和所述初始图像特征进行I-1级融合。
22.根据权利要求21所述的装置,其中,所述第二融合单元包括:
第一融合子单元,用于将第i级所述中间融合特征分别与所述目标文本特征和所述初始图像特征融合,得到第i+1级文本融合特征和第i+1级图像融合特征,其中,i为大于或等于1且小于I的整数;
第一确定子单元,用于根据第i+1级所述文本融合特征,确定第i+1级所述键特征;
第二确定子单元,用于根据第i+1级所述图像融合特征,确定第i+1级所述查询特征和第i+1级所述值特征;以及
第二融合子单元,用于基于注意力机制,对第i+1级所述查询特征、第i+1级所述键特征和第i+1级所述值特征进行第i+1级融合,得到第i+1级所述中间融合特征。
23.根据权利要求16所述的装置,其中,所述识别模块包括:
识别结果确定子模块,用于根据所述目标融合特征,确定与所述初始图像对应的识别结果,其中,所述识别结果包括所述初始图像的候选检测框,以及与所述候选检测框对应的匹配置信度;以及
识别子模块,用于根据候选检测框与所述匹配置信度,识别与所述目标对象描述文本相匹配的目标对象。
24.根据权利要求23所述的装置,其中,所述识别结果确定子模块包括:
识别结果确定单元,用于对所述目标融合特征进行至少一次卷积,得到与所述初始图像对应的识别结果。
25.根据权利要求23所述的装置,其中,所述识别子模块包括:
目标检测框确定单元,用于在所述匹配置信度大于或等于预设置信度阈值的情况下,将与所述匹配置信度对应的候选检测框确定为目标检测框;以及
目标图像区域确定单元,用于根据所述目标检测框,以及与所述目标检测框对应的初始图像,确定目标图像区域,其中,所述目标图像区域至少部分表征与所述目标对象描述文本相匹配的目标对象。
26.根据权利要求16所述的装置,还包括:
图像特征提取模块,用于对所述初始图像进行K级图像特征提取,得到所述初始图像的K级所述初始图像特征,K为大于1的整数。
27.一种深度学习模型的训练装置,所述深度学习模型包括文本特征提取网络、第一融合网络、第二融合网络和识别网络,所述装置包括:包括:
样本文本特征提取模块,用于将样本目标对象描述文本输入至所述文本特征提取网络,得到样本描述文本特征,以及与所述样本目标对象描述文本中的样本描述关键字对应的样本关键字文本特征;
第三融合模块,用于将所述样本关键字文本特征和所述样本描述文本特征输入至所述第一融合网络,得到样本目标文本特征;
第二确定模块,用于根据所述样本目标文本特征,以及对样本图像进行特征提取后得到的样本初始图像特征,确定查询特征、键特征和值特征;
第四融合模块,用于将所述查询特征、所述键特征和所述值特征输入所述第二融合网络,得到样本目标融合特征;
样本识别结果获得模块,用于将所述样本目标融合特征输入至所述识别网络,得到与所述样本图像对应的样本识别结果;以及
训练模块,用于根据所述样本图像的标签和所述样本识别结果,训练所述深度学习模型。
28.根据权利要求27所述的装置,其中,所述深度学习模型还包括图像特征提取网络,所述图像特征提取网络包括第一特征提取单元和第二特征提取单元,所述第二特征提取单元包括K级特征提取层,K为大于1的整数;
所述装置还包括:
第一样本图像特征提取模块,用于将所述样本图像输入所述第一特征提取单元,得到第一样本图像特征;
第一样本初始图像特征提取模块,用于将第一样本图像特征输入第1级所述特征提取层,得到第1级所述样本初始图像特征;
第二样本初始图像特征提取模块,用于将第k级所述样本初始图像特征输入所述第k+1级所述特征提取层,得到第k+1级所述样本初始图像特征,其中,k为大于或等于1且小于K的整数。
29.根据权利要求28所述的装置,其中,所述训练模块包括:
第一损失值获得子模块,用于利用第一损失函数处理所述样本图像的标签和所述样本识别结果,得到第一损失值;
第二损失值获得子模块,用于利用基于对比损失函数构建得到的第二损失函数处理K个所述样本初始图像特征,以及所述样本目标文本特征,得到第二损失值;以及
参数调整子模块,用于基于所述第一损失值和所述第二损失值调整所述深度学习模型的参数。
30.根据权利要求27所述的装置,其中,所述第二融合网络包括融合单元;
其中,所述第四融合模块包括:
第三融合子模块,用于利用所述融合单元对所述查询特征、所述键特征和所述值特征进行I级融合,得到所述目标融合特征,其中,I为大于1的整数。
31.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至15中任一项所述的方法。
32.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至15中任一项所述的方法。
33.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至15中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310269555.5A CN116246287B (zh) | 2023-03-15 | 2023-03-15 | 目标对象识别方法、训练方法、装置以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310269555.5A CN116246287B (zh) | 2023-03-15 | 2023-03-15 | 目标对象识别方法、训练方法、装置以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116246287A true CN116246287A (zh) | 2023-06-09 |
CN116246287B CN116246287B (zh) | 2024-03-22 |
Family
ID=86627713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310269555.5A Active CN116246287B (zh) | 2023-03-15 | 2023-03-15 | 目标对象识别方法、训练方法、装置以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116246287B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116665002A (zh) * | 2023-06-28 | 2023-08-29 | 北京百度网讯科技有限公司 | 图像处理方法、深度学习模型的训练方法和装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699775A (zh) * | 2020-12-28 | 2021-04-23 | 中国平安人寿保险股份有限公司 | 基于深度学习的证件识别方法、装置、设备及存储介质 |
CN113377958A (zh) * | 2021-07-07 | 2021-09-10 | 北京百度网讯科技有限公司 | 一种文档分类方法、装置、电子设备以及存储介质 |
CN114328988A (zh) * | 2021-11-24 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 多媒体数据的特征提取方法、多媒体数据检索方法及装置 |
CN114332680A (zh) * | 2021-12-08 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 图像处理、视频搜索方法、装置、计算机设备和存储介质 |
CN114332679A (zh) * | 2021-12-07 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、设备、存储介质和计算机程序产品 |
WO2022099510A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳元戎启行科技有限公司 | 对象识别方法、装置、计算机设备和存储介质 |
CN114663952A (zh) * | 2022-03-28 | 2022-06-24 | 北京百度网讯科技有限公司 | 对象分类方法、深度学习模型的训练方法、装置和设备 |
CN115206305A (zh) * | 2022-09-16 | 2022-10-18 | 北京达佳互联信息技术有限公司 | 语义文本的生成方法、装置、电子设备及存储介质 |
-
2023
- 2023-03-15 CN CN202310269555.5A patent/CN116246287B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022099510A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳元戎启行科技有限公司 | 对象识别方法、装置、计算机设备和存储介质 |
CN112699775A (zh) * | 2020-12-28 | 2021-04-23 | 中国平安人寿保险股份有限公司 | 基于深度学习的证件识别方法、装置、设备及存储介质 |
CN113377958A (zh) * | 2021-07-07 | 2021-09-10 | 北京百度网讯科技有限公司 | 一种文档分类方法、装置、电子设备以及存储介质 |
CN114328988A (zh) * | 2021-11-24 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 多媒体数据的特征提取方法、多媒体数据检索方法及装置 |
CN114332679A (zh) * | 2021-12-07 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、设备、存储介质和计算机程序产品 |
CN114332680A (zh) * | 2021-12-08 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 图像处理、视频搜索方法、装置、计算机设备和存储介质 |
CN114663952A (zh) * | 2022-03-28 | 2022-06-24 | 北京百度网讯科技有限公司 | 对象分类方法、深度学习模型的训练方法、装置和设备 |
CN115206305A (zh) * | 2022-09-16 | 2022-10-18 | 北京达佳互联信息技术有限公司 | 语义文本的生成方法、装置、电子设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116665002A (zh) * | 2023-06-28 | 2023-08-29 | 北京百度网讯科技有限公司 | 图像处理方法、深度学习模型的训练方法和装置 |
CN116665002B (zh) * | 2023-06-28 | 2024-02-27 | 北京百度网讯科技有限公司 | 图像处理方法、深度学习模型的训练方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116246287B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949415B (zh) | 图像处理方法、装置、设备和介质 | |
US20200004815A1 (en) | Text entity detection and recognition from images | |
CN113657274B (zh) | 表格生成方法、装置、电子设备及存储介质 | |
CN115880536B (zh) | 数据处理方法、训练方法、目标对象检测方法及装置 | |
CN114549874A (zh) | 多目标图文匹配模型的训练方法、图文检索方法及装置 | |
CN113239807B (zh) | 训练票据识别模型和票据识别的方法和装置 | |
CN116246287B (zh) | 目标对象识别方法、训练方法、装置以及存储介质 | |
CN113806588A (zh) | 搜索视频的方法和装置 | |
CN114724156B (zh) | 表单识别方法、装置及电子设备 | |
CN113378857A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN115761839A (zh) | 人脸活体检测模型的训练方法、人脸活体检测方法及装置 | |
CN117407507A (zh) | 基于大语言模型的事件处理方法、装置、设备及介质 | |
CN116958512A (zh) | 目标检测方法、装置、计算机可读介质及电子设备 | |
CN115909357A (zh) | 基于人工智能的目标识别方法、模型训练方法和装置 | |
CN114419327B (zh) | 图像检测方法和图像检测模型的训练方法、装置 | |
CN116110066A (zh) | 票据文本的信息提取方法、装置、设备及存储介质 | |
CN115563976A (zh) | 文本预测方法、用于文本预测的模型建立方法及装置 | |
CN115080745A (zh) | 基于人工智能的多场景文本分类方法、装置、设备及介质 | |
CN114707017A (zh) | 视觉问答方法、装置、电子设备和存储介质 | |
CN114579876A (zh) | 虚假信息检测方法、装置、设备及介质 | |
CN114117037A (zh) | 意图识别方法、装置、设备和存储介质 | |
CN113806541A (zh) | 情感分类的方法和情感分类模型的训练方法、装置 | |
CN115471893B (zh) | 训练人脸识别模型、人脸识别的方法和装置 | |
CN114299522B (zh) | 图像识别方法装置、设备和存储介质 | |
CN116150428B (zh) | 视频标签获取方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |