CN114461890A - 分层多模态的知识产权搜索引擎方法与*** - Google Patents
分层多模态的知识产权搜索引擎方法与*** Download PDFInfo
- Publication number
- CN114461890A CN114461890A CN202111531155.4A CN202111531155A CN114461890A CN 114461890 A CN114461890 A CN 114461890A CN 202111531155 A CN202111531155 A CN 202111531155A CN 114461890 A CN114461890 A CN 114461890A
- Authority
- CN
- China
- Prior art keywords
- text
- retrieval
- image
- result
- intellectual property
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims description 35
- 239000013598 vector Substances 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000012216 screening Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 239000008358 core component Substances 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 238000004148 unit process Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9532—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Library & Information Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种分层多模态的知识产权搜索引擎方法。包括:预处理输入图像;将输入图像输入到分层深度图像检索模型,得到图像检索结果;将数据集中文本字段输入道文本语义检索模型,得到文本检索结果;将所述文本检索结果输入到相似知识产权推荐模型,得到相似推荐结果;将上述所述图像检索结果,文本检索结果与相似推荐结果进行多模态结果融合,得到融合文本结果,将融合文本结果与用户输入的查询文本进行重新排序,得到最终的检索结果。本发明还公开了分层多模态的知识产权搜索引擎***。本发明通过分层深度图像检索模型,文本语义检索模型提高检索的速度又保持检索的精度,相对于论文的搜索方法,该方案能更好表达用户检索需求。
Description
技术领域
本发明涉及多模态搜索、深度学习,具体涉及分层多模态的知识产权搜索引擎方法与***。
背景技术
在大数据时代,人工智能在各个行业都有着广泛的应用。对于知识产权的检索来说,知识网络规模巨大、连接复杂,知识节点具有异质性。面对海量信息,基于分类目录和关键词的搜索方式越来越难以适应用户的搜索需求,迫切需要将检索方式从基于词层面提高到基于语义层面,研发高增量、高时效、多模态知识产权超图网络建模技术能准确地捕捉到用户所输入语句后面的真正意图,并以此进行搜索,从而更准确地向用户返回最符合其需求的搜索结果。
知识产权检索是实现将用户的片段输入去检索,返回给用户最符合其需求的搜索结果的一种技术应用。现有的技术应用大多数是以文本搜文本的方式进行知识产权检索的。但是由于这种技术是单模态的,用户的片段输入往往很难准确表达出用户的检索需求。这时候就需要多模态的建模技术,来准确捕捉用户的真正意图。
多模态知识检索是一种应用于知识产权检索的多模态检索技术,所谓的多模态检索,就是用户可以输入不同类型的输入进行检索,比如用文本搜图,用图搜文本等。在知识产权的检索当中,用户可以输入自己的检索字段以及跟自己搜索意图相关的图片,通过搜索引擎结合对这两种类型的输入信息检索,得到最符合自己需求的搜索结果。但是受限于人工智能相关技术的发展,搜索引擎难以很好地将这两种不同类型的输入进行融合分析,返回的检索结果往往会带有一定的偏向性,会影响最终的检索结果。
目前的现有技术之一,一种通过分析用户搜索词生成相关搜索结果的方法,该方法获取用户输入的搜索词,根据搜索词确定用户需求类型,并根据需求类型确定对应的引导策略;根据引导策略和搜索词生成论文的相关搜索结果并展现在搜索结果页面,将搜索结果页面提供给用户。该方案的缺点是这种技术是单模态的,用户的片段输入往往难以准确表达用户的检索需要。
目前的现有技术之二,基于百科的中文知识搜索***的设计与实现的方法。该方法通过分词、词性标注,同义词转换,问题词转换,核心实体识别、检索、结果重排等流程,实现了基于百科实体的知识搜索。该方法的缺点是在检索时还是以同义词转换等方式来计算查询文本和待检索文本的相似度,并没有在词向量嵌入特征空间中计算相似度,要通过百科内的同义词词表实现,需要百科知识库的介入。
发明内容
本发明的目的是克服现有方法的不足,提出了分层多模态的知识产权搜索引擎方法与***。本发明解决的主要问题,一是现有通过获取用户输入的搜索词,根据搜索词确定用户的需求类型,并根据需求类型确定对应的引导策略,但是该技术是单模态的,用户的片段输入难以准确表达用户的检索需求。二是现有基于百科的中文知识搜索***的设计与实现,该技术通过在检索时还是以同义词转换等方式来计算查询文本和待检索文本的相似度,要通过百科内的同义词词表实现,需要百科知识库的介入。
为了解决上述问题,本发明提出了一种分层多模态的知识产权搜索引擎方法,所述方法包括:
从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸;
将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络以及二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的图像检索结果Rv;
将知识产权数据集中的文本字段输入到文本语义检索模型当中,得到文本检索结果,通过文本分类网络对查询文本进行提前分类,通过类别筛选有效缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索,得到文本检索结果;
将上述所述得到的文本检索输入到相似知识产权推荐模型中,得到相似推荐结果;
将上述所述得到的图像检索结果、上述所述得到的文本检索结果与上述所述得到的相似推荐结果进行多模态结果融合,将所得到结果融合组成Rb,将融合文本结果Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf;
优选地,所述从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸,具体为:
将输入的知识产权中的流程图、网络结构图等图像运用中心等比例切割和等比例缩放的方式处理成统一尺寸,并对每一次的输入图像进行随机旋转角度等数据增强手段。
优选地,所述将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络和二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv,具体为:
选用ResNet-50作为模型的骨架网络,将输入图像输入到在图像分类数据集ImageNet上预训练好的ResNet模型中,提取服装图像的视觉特征;
将所述提取的视觉特征输入到哈希编码网络进行哈希编码,将特征提取网络提取出来的高纬图像特征输入全连接层,输出n维的类二进制值,最后通过二值化操作转化为哈希特征,在误差反向传播的过程中,更新包含图像深层特征提取网络在内的整个网络参数,以更好地拟合网络在哈希编码任务上的权重,损失函数如下:
N为训练时一个batch选取的图像对的个数,hi,1,hi,2表示第i个图像对中两张图像的网络输出,即类二进制特征表示,si表示第i个图像对中的两张图像是否相似,在数据集中就表现为两张服饰图像是否属于相同类别,相似为1,否则为0,t为边界阈值参数,α为正则化强度参数。
该损失函数的前两项能够很好地让同类别的图片生成的类二值码尽可能相近,而不同类别的图像的类二值码尽可能相互远离,优化损失的过程中会让hi,1,hi,2分别尽可能接近-1或1,这样可以生成接近二值的输出,最后把0作为分界点进行二值化,即可获得标准二值输出;
汉明空间中进行粗检索。在粗检索阶段,对于查询图片经过网络输出后得到的n维二值表示bq,数据库中任一项服饰的二值表示bi,根据如下汉明距离对数据库中的服装项进行排序:
在图像特征空间中进行检索。在细检索阶段,取粗检索阶段得到的前K项结果,对于查询图片经过ResNet得到的输出表示为rq,粗检索阶段得到的前K项中任一结果经过ResNet得到的输出表示为ri,再对其基于图像深层特征的欧氏距离进行排序:
distf(rq,ri)=||rq,ri||2
从而得到较为准确的检索结果。
优选地,所述在通过文本分类网络对查询文本进行提前分类,通过类别筛选有效地缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索,得到文本检索结果,具体为:
使用基于doc2vec的文本嵌入特征提取模型,提取输入的查询文本的特征向量,使用以LSTM为核心部件构造的文本分类网络,将查询文本输入到文本分类网络,得到分类出的文本类别,在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索。
优选地,所述将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果,具体为:
在推荐模型中,定义关联性为两个单词x,y的互信息:
两个单词关联性越强则互信息值越大,通常表现为两个单词经常出现在同一个句子、经常搭配出现。使用word2vec中skip-gram模型及其优化加速模块hierarchicalsoftmax(即h-softmax)进行训练,对单词wi出现的情况下单词wk出现的概率建模,即:
p(wk|wi)
优选地,所述将上述所述得到的图像检索结果、所述得到的文本检索结果和所述得到的相似推荐结果进行多模态结果融合,具体为:
通过分层深度图像检索模型检索出图片与检索库中相似的前k_visual个文本结果Rv,通过文本语义检索模型检索出与文本描述语义相近的前k_text个文本结果Rt,接着把Rt中的前h_similar个输入相似知识产权推荐模型进行知识产权推荐,取前k_similar个作为相似结果Rs。最后把以上三个结果融合在一起组成融合文本结果Rb,将Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
相应地,本发明还提供了一种分层多模态的知识产权搜索引擎***,包括:
图像预处理单元,用于从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸;
图像检索单元,用于将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络以及二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv;
文本检索单元,用于将知识产权数据集中的文本字段输入到文本语义检索模型当中,得到文本检索结果,通过文本分类网络对查询文本进行提前分类,通过类别筛选有效缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索;
文本推荐单元,用于将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果;
多模态融合单元,用于将上述所述得到的图像检索结果、上述所述得到的文本检索结果与上述所述得到的相似推荐结果进行多模态结果融合,将所得到结果融合组成Rb,将融合文本结果Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
实施本发明,具有如下有益效果:
本发明运用中文本语义检索模型,利用文本分类器提前分类缩小检索范围,更好表征文本,提升了检索速度和精度;本发明设计分层深度图像检索模型,通过图像深层特征提取网络捕获图像的深层特征,利用哈希编码网络生成简洁的哈希特征,以哈希特征粗检索再以深层特征细检索,有效提高检索速度的同时保持效果相当的检索精度;本发明使用预训练和微调方案,相比传统的视觉特征表征方法,预训练的过程具有更广的适应性;本发明设计的相似知识产权推荐模型,采用了一种基于概率驱动的方法来量化这种相似性,可以检索出与用户意图接近的检索结果;本发明设计的多模态融合的知识产权搜索引擎***,用户可以输入查询文本以及相关的查询图片,搜索引擎可以综合考虑这两种类型的输入返回检索结果,这种多模态输入的方式更能准确捕捉用户的搜索意图。
附图说明
图1是本发明实施例的分层多模态的知识产权搜索引擎方法的总体流程图;
图2是本发明实施例的分层多模态的知识产权搜索引擎***的结构图;
图3是本发明实施例的分层深度图像检索流程图;
图4是本发明实施例的文本语义检索流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明实施例的分层多模态的知识产权搜索引擎方法的总体流程图,如图1所示,该方法包括:
S1,从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸;
S2,将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络以及二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv;
S3,将知识产权数据集中的文本字段输入到文本语义检索模型当中,得到文本检索结果,通过文本分类网络对查询文本进行提前分类,通过类别筛选有效缩小搜索范围,然后在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索;
S4,将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果;
S5,将上述所述得到的图像检索结果、所述得到的文本检索结果和所述得到的相似推荐结果进行多模态结果融合。
步骤S1,具体如下:
S1-1,输入知识产权中的流程图、网络结构图等原始图像,将输入的原始图像运用中心等比例切割和等比例缩放的方式处理成统一尺寸,并对每一次的输入图像进行随机旋转角度等数据增强手段。
步骤S2,如图3所示,具体如下:
将原始图像输入到在图像分类数据集ImageNet上预训练好的ResNet模型中,提取服装图像的视觉特征。选用ResNet-50作为模型的骨架网络,该网络具有50层网络层结构,最后一层输出的特征维度为2048,原本网络最后一层的全连接层没有被加入网络中;
将所述提取的视觉特征输入到哈希编码网络进行哈希编码。特征提取网络提取出来的高纬图像特征输入全连接层,输出n维的类二进制值,最后通过二值化操作转化为哈希特征。在误差反向传播的过程中,更新包含图像深层特征提取网络在内的整个网络的参数,以更好地拟合网络在哈希编码任务上的权重。损失函数如下:
其中N为训练时一个batch选取的图像对的个数,hi,1,hi,2表示第i个图像对中两张图像的网络输出,即类二进制特征表示,si表示第i个图像对中的两张图像是否相似,在数据集中就表现为两张服饰图像是否属于相同类别,相似为1,否则为0,t为边界阈值参数,α为正则化强度参数。
当两张图像是同类别时,该损失函数的第一项中的惩罚了类二值输出不相似的图像对;当两张图像是不同类别时,第二项中的 惩罚了类二值输出相似的图像对,t为希望两张不同类的图像对应的网络输出的距离。该损失函数的前两项能够很好地让同类别的图片生成的类二值码尽可能相近,而不同类别的图像的类二值码尽可能相互远离。α(|||hi,1|-1||1+|||hi,2|-1||1)为正则化项,优化损失的过程中会让hi,1,hi,2分别尽可能接近-1或1,这样就可以生成接近二值的输出。最后二值化的时候把0作为分界点即可获得标准二值输出。
S2-3,在汉明空间中进行粗检索。在粗检索阶段,对于查询图片经过网络输出后得到的n维二值表示bq,数据库中任一项服饰的二值表示bi,根据如下汉明距离对数据库中的服装项进行排序:
S2-4,在图像特征空间中进行检索。在细检索阶段,取粗检索阶段得到的前K项结果,,对于查询图片经过ResNet得到的输出表示为rq,粗检索阶段得到的前K项中任一结果经过ResNet得到的输出表示为ri,再对其基于图像深层特征的欧氏距离进行排序:
diStf(rq,ri)=||rq,ri||2.
从而得到较为准确的检索结果。
步骤S3,如图4所示,具体如下:
S3-1,:将查询文本输入到文本嵌入特征提取模型中提取文本的特征向量。本方法的文本嵌入特征提取模型基于doc2vec,该模型训练目标为使预测当前词的平均对数概率最大化:
其中N为文档长度,k为窗口大小的一半,wi为单词。其中概率p经过了softmax处理,归一化前的概率为::
pu=b+Kf(wi-k,…,wi+k,para;W,D)
其中,其中b和K为softmax参数,f为把从W中提取词向量与D中提取的文档向量进行级联或求平均得到中间向量表示,然后用该向量去预测下一个单词:
doc2vec还有另一种框架:PV-DBOW,它和PV-DM相反,不考虑上下文单词顺序,以文档向量预测文档窗口中的单词。本方法所构造的文本嵌入特征提取模型是基于doc2vec实现的,并且充分利用了doc2vec的两种模型的优点进行了改造。PV-DM理解了语义信息的同时考虑了单词顺序,PV-DBOW又具有存储数据少(因为不需要保存词向量矩阵W)的优点,因此为了利用两者的优点,获得更加准确稳定的向量表示,把两种模型得到的文档向量组合起来使用,组合方法就是把同一文档得到的两种向量进行级联得到更高维更高文档辨识度的向量。
S3-2,将查询文本输入到文本分类网络分类出文本类别。本方法以LSTM为核心部件构造了文本分类网络,整个网络包含Embedding层、spatialdropout1d层、LSTM层和FC层。先对输入的查询文本进行数据清洗、构建词汇表并按照词汇表把文档标号化处理构建250维的标号向量,接着把向量输入embedding层,得到包含250个timestep的100维文档嵌入表示。为了适当减少每个timestep之间的依赖性,使用Spatialropout1D层进行处理,再把文档嵌入输入LSTM,因为并不需要生成序列,最终目标是分类,所以LSTM层里采用多对一的结构,只取最后一个timestep的输出,即得到100维的输出。最后经过全连接层即FC层生成n维向量,这里的n表示服饰类别数,这是一个多分类任务,所以采用softmax激活函数对输出做处理,最终得到查询文本所属于的知识产权类别。。
S3-3,将S31以及S32输出的结果在类内进行向量检索。在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索。欧式距离的计算公式与distf(rq,ri)=||rq,ri||2类似;
步骤S4,具体如下:
S4-1,在推荐模型当中,首先把关联性定义为两个单词x,y的互信息:
两个单词关联性越强则互信息值越大,这通常表现为两个单词经常出现在同一个句子、经常搭配出现。要解决上式,首先要对单词wi出现的情况下单词wk出现的概率建模,即:
p(wk|wi)
而要做到这一点,word2vec中skip-gram模型及其优化加速模块hierarchicalsoftmax(即h-softmax)是最好的选择。
H-softmax之所以可以加速训练过程,是因为其采用了哈夫曼树对单词进行编码,高频词路径短,低频词路径长,这样可以有效地压缩词典,加快概率的计算。哈夫曼树结构中,每个叶子结点代表一个单词,以词w2为例,从根节点到w2的路径上的中间节点为m(w2,1)、m(w2,2)、m(w2,3),则输入wi预测w2的概率为路径上经过这些中间结点的概率的乘积:
p(w2|wi)=p(m(w2,1),left)*p(m(w2,2),left)*p(m(w2,3),right).
中间结点m(wi,j)向下走的概率为:
其中符号函数表示在结点m(wi,j)向左走还是向右走:
步骤S5,具体如下:
通过分层深度图像检索模型检索出图片与检索库中相似的前k_visual个文本结果R_v,通过文本语义检索模型检索出与文本描述语义相近的前k_text个文本结果Rt,接着把Rt中的前h_similar个输入相似知识产权推荐模型进行知识产权推荐,取前k_similar个作为相似结果Rs。最后把以上三个结果融合在一起组成Rb,Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf,从而实现多模态知识产权检索结果融合
相应地,本发明还提供了分层多模态的知识产权搜索引擎***,如图2所示,包括:
图像预处理单元1,用于从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸。
具体地,将输入的知识产权中的流程图、网络结构图等图像运用中心等比例切割和等比例缩放的方式处理成统一尺寸,并对每一次的输入图像进行随机旋转角度等数据增强手段。
图像检索单元2,用于将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络以及二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的图像检索结果Rv。
具体地,选用ResNet-50作为模型的骨架网络,将输入图像输入到在图像分类数据集ImageNet上预训练好的ResNet模型中,提取服装图像的视觉特征;
将所述提取的视觉特征输入到哈希编码网络进行哈希编码,将特征提取网络提取出来的高纬图像特征输入全连接层,输出n维的类二进制值,最后通过二值化操作转化为哈希特征,在误差反向传播的过程中,更新包含图像深层特征提取网络在内的整个网络参数,以更好地拟合网络在哈希编码任务上的权重,损失函数如下:
N为训练时一个batch选取的图像对的个数,hi,1,hi,2表示第i个图像对中两张图像的网络输出,即类二进制特征表示,si表示第i个图像对中的两张图像是否相似,在数据集中就表现为两张服饰图像是否属于相同类别,相似为1,否则为0,t为边界阈值参数,α为正则化强度参数。
该损失函数的前两项能够很好地让同类别的图片生成的类二值码尽可能相近,而不同类别的图像的类二值码尽可能相互远离,优化损失的过程中会让hi,1,hi,2分别尽可能接近-1或1,这样可以生成接近二值的输出,最后把0作为分界点进行二值化,即可获得标准二值输出;
汉明空间中进行粗检索。在粗检索阶段,对于查询图片经过网络输出后得到的n维二值表示bq,数据库中任一项服饰的二值表示bi,根据如下汉明距离对数据库中的服装项进行排序:
在图像特征空间中进行检索。在细检索阶段,在取粗检索阶段得到的前K项结果,对于查询图片经过ResNet得到的输出表示为rq,粗检索阶段得到的前K项中任一结果经过ResNet得到的输出表示为ri,再对其基于图像深层特征的欧氏距离进行排序:
distf(rq,ri)=||rq,ri||2
从而得到较为准确的检索结果。
文本检索单元3,用于通过文本分类网络对查询文本进行提前分类,通过类别筛选有效地缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索,得到文本检索结果。
具体地,使用基于doc2vec的文本嵌入特征提取模型,提取输入的查询文本的特征向量,使用以LSTM为核心部件构造的文本分类网络,将查询文本输入到文本分类网络,得到分类出的文本类别,在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索。
文本推荐单元4,用于将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果。
具体地,在推荐模型中,定义关联性为两个单词x,y的互信息:
两个单词关联性越强则互信息值越大,通常表现为两个单词经常出现在同一个句子、经常搭配出现。使用word2vec中skip-gram模型及其优化加速模块hierarchicalsoftmax(即h-softmax)进行训练,对单词wi出现的情况下单词wk出现的概率建模,即:
p(wk|wi)
多模态融合单元5,用于将上述所述得到的图像检索结果、所述得到的文本检索结果和所述得到的相似推荐结果进行多模态结果融合。
具体为,通过分层深度图像检索模型检索出图片与检索库中相似的前k_visual个文本结果Rv,通过文本语义检索模型检索出与文本描述语义相近的前k_text个文本结果Rt,接着把Rt中的前h_similar个输入相似知识产权推荐模型进行知识产权推荐,取前k_similar个作为相似结果Rs。最后把以上三个结果融合在一起组成融合文本结果Rb,将Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
因此,本发明通过分层深度图像检索模型,利用图像深层特征提取网络捕获图像的深层特征,运用哈希编码网络能生成简洁的哈希特征,以哈希特征粗检索再以深层特征细检索可以有效提高检索速度的同时保持效果相当的检索精度;发明中文本语义检索模型,利用文本分类器以提前分类缩小检索范围,能更好地表征文本;利用相似知识产权推荐模型,采用概率驱动的方法来量化这种相似性,可以检索出与用户意图接近的检索结果;使用了预训练和微调方案,相比传统的视觉特征表征方法,预训练的过程具有更广的适应性,可以提取出既通用又具有特定场景含义的视觉特征;发明多模态融合的知识产权搜索引擎***,用户可以输入查询文本以及相关的查询图片,搜索引擎可以综合考虑这两种类型的输入返回检索结果,这种多模态输入的方式更能准确捕捉用户的搜索意图。
以上对本发明实施例所提供的分层多模态的知识产权搜索引擎方法与***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种分层多模态的知识产权搜索引擎方法,其特征在于,所述方法包括:
从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸;
将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络以及二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv;
将知识产权数据集中的文本字段输入到文本语义检索模型当中,得到文本检索结果,通过文本分类网络对查询文本进行提前分类,通过类别筛选有效缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索;
将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果;
将上述所述得到的图像检索结果、上述所述得到的文本检索结果与上述所述得到的相似推荐结果进行多模态结果融合,将所得到结果融合组成Rb,将融合文本结果Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
2.如权利要求1所述的分层多模态的知识产权搜索引擎方法,其特征在于,所述从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸,具体为:
将输入的知识产权中的流程图、网络结构图等输入图像运用中心等比例切割和等比例缩放的方式处理成统一尺寸,并对每一次的输入图像进行随机旋转角度等数据增强手段。
3.如权利要求1所述的分层多模态的知识产权搜索引擎方法,其特征在于,所述将知识产权数据集中的输入图像输入到分层深度图像检索模型当中,得到图像检索结果,对于查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络和二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv,具体为:
选用ResNet-50作为模型的骨架网络,将输入图像输入到在图像分类数据集ImageNet上预训练好的ResNet模型中,提取服装图像的视觉特征;
将所述提取的视觉特征输入到哈希编码网络进行哈希编码,将特征提取网络提取出来的高纬图像特征输入全连接层,输出n维的类二进制值,最后通过二值化操作转化为哈希特征,在误差反向传播的过程中,更新包含图像深层特征提取网络在内的整个网络参数,以更好地拟合网络在哈希编码任务上的权重,损失函数如下:
N为训练时一个batch选取的图像对的个数,hi,1,hi,2表示第i个图像对中两张图像的网络输出,即类二进制特征表示,si表示第i个图像对中的两张图像是否相似,在数据集中就表现为两张服饰图像是否属于相同类别,相似为1,否则为0,t为边界阈值参数,α为正则化强度参数;
该损失函数的前两项能够很好地让同类别的图片生成的类二值码尽可能相近,而不同类别的图像的类二值码尽可能相互远离,优化损失的过程中会让hi,1,hi,2分别尽可能接近-1或1,这样可以生成接近二值的输出,最后把0作为分界点进行二值化,即可获得标准二值输出;
汉明空间中进行粗检索,在粗检索阶段,对于查询图片经过网络输出后得到的n维二值表示bq,数据库中任一项服饰的二值表示bi,根据如下汉明距离对数据库中的服装项进行排序:
在图像特征空间中进行检索,在细检索阶段,取粗检索阶段得到的前K项结果,对于查询图片经过ResNet得到的输出表示为rq,粗检索阶段得到的前K项中任一结果经过ResNet得到的输出表示为ri,再对其基于图像深层特征的欧氏距离进行排序:
distf(rq,ri)=‖rq,ri‖2.
从而得到较为准确的检索结果。
4.如权利要求1所述的分层多模态的知识产权搜索引擎方法,其特征在于,所述通过文本分类网络对查询文本进行提前分类,通过类别筛选有效地缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索,得到文本检索结果,具体为:
使用基于doc2vec的文本嵌入特征提取模型,提取输入的查询文本的特征向量;
使用以LSTM为核心部件构造的文本分类网络,将查询文本输入到文本分类网络,得到分类出的文本类别;
在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索。
6.如权利要求1所述的分层多模态的知识产权搜索引擎方法,其特征在于,所述将上述所述得到的图像检索结果、所述得到的文本检索结果和所述得到的相似推荐结果进行多模态结果融合,具体为:
通过分层深度图像检索模型检索出图片与检索库中相似的前k_visual个文本结果Rv,通过文本语义检索模型检索出与文本描述语义相近的前k_text个文本结果Rt,接着把Rt中的前h_similar个输入相似知识产权推荐模型进行知识产权推荐,取前k_similar个作为相似结果Rs,后把以上三个结果融合在一起组成融合文本结果Rb,将Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
7.一种基于分层多模态的知识产权搜索引擎***,其特征在于,所述***包括:
图像预处理单元,用于从知识产权数据库中筛选出输入图像与文本字段,并将图像处理成统一尺寸;
图像检索单元,用于对查询图片先用图像深层特征提取网络提取图像深层特征,然后通过哈希编码网络和二值化操作得到查询图片的二进制码,利用该哈希值进行粗检索,取前K个结果再进行基于图像深层特征细检索,最终得到分层深度图像检索模型的检索结果Rv;
文本检索单元,用于通过文本分类网络对查询文本进行提前分类,通过类别筛选有效缩小搜索范围,再在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索;
文本推荐单元,用于将上述所述得到的文本检索输入到相似知识产权推荐模型中,推荐出相似结果;
多模态融合单元,用于上述所述得到的图像检索结果、上述所述得到的文本检索结果与上述所述得到的相似推荐结果进行多模态结果融合,将所得到结果融合组成Rb,将融合文本结果Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
8.如权利要求7所述的分层多模态的知识产权搜索引擎***,其特征在于,所述图像预处理单元,需要将输入的知识产权中的流程图、网络结构图等图像运用中心等比例切割和等比例缩放的方式处理成统一尺寸,并对每一次的输入图像进行随机旋转角度等数据增强手段。
9.如权利要求7所述的分层多模态的知识产权搜索引擎***,其特征在于,所述图像检索单元,需要将输入图像输入到在图像分类数据集ImageNet上预训练好的ResNet模型中,提取服装图像的视觉特征,将所述提取的视觉特征输入到哈希编码网络进行哈希编码,在误差反向传播的过程中,更新整个网络参数,在汉明空间中进行粗检索,然后在图像特征空间中进行细检索,对检索结果基于图像深层特征的欧氏距离进行排序,从而得到较为准确的检索结果。
10.如权利要求7所述的分层多模态的知识产权搜索引擎***,其特征在于,所述文本检索单元,需要将使用基于doc2vec的文本嵌入特征提取模型,提取输入的查询文本的特征向量,使用以LSTM为核心部件构造的文本分类网络,将查询文本输入到文本分类网络,得到分类出的文本类别,在筛选出来的知识产权里通过文本嵌入特征提取模型得到的文档特征向量之间的欧氏距离来进行检索。
11.如权利要求7所述的分层多模态的知识产权搜索引擎***,其特征在于,所述文本推荐单元,需要在推荐模型中,定义关联性为两个单词x,y的互信息,两个单词关联性越强则互信息值越大,通常表现为两个单词经常出现在同一个句子、经常搭配出现,用word2vec中skip-gram模型及其h-softmax进行训练,对单词wi出现的情况下单词wk出现的概率建模。
12.如权利要求7所述的分层多模态的知识产权搜索引擎***,其特征在于,所述多模态融合单元,需要通过分层深度图像检索模型检索出图片与检索库中相似的前k_visual个文本结果Rv,通过文本语义检索模型检索出与文本描述语义相近的前k_text个文本结果Rt,接着把Rt中的前h_similar个输入相似知识产权推荐模型进行知识产权推荐,取前k_similar个作为相似结果Rs,后把以上三个结果融合在一起组成融合文本结果Rb,将Rb与用户输入的查询文本在文本嵌入特征空间中基于欧氏距离进行重新排序,得到最终的检索结果Rf。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111531155.4A CN114461890A (zh) | 2021-12-15 | 2021-12-15 | 分层多模态的知识产权搜索引擎方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111531155.4A CN114461890A (zh) | 2021-12-15 | 2021-12-15 | 分层多模态的知识产权搜索引擎方法与*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114461890A true CN114461890A (zh) | 2022-05-10 |
Family
ID=81405143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111531155.4A Pending CN114461890A (zh) | 2021-12-15 | 2021-12-15 | 分层多模态的知识产权搜索引擎方法与*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114461890A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115269882A (zh) * | 2022-09-28 | 2022-11-01 | 山东鼹鼠人才知果数据科技有限公司 | 基于语义理解的知识产权检索***及其方法 |
CN116244306A (zh) * | 2023-01-10 | 2023-06-09 | 江苏理工学院 | 基于知识组织语义关系的学术论文引文推荐方法及*** |
CN116932731A (zh) * | 2023-09-18 | 2023-10-24 | 上海帜讯信息技术股份有限公司 | 面向5g消息的多模态知识问答方法及*** |
CN118069818A (zh) * | 2024-04-22 | 2024-05-24 | 华南理工大学 | 一种基于大语言模型增强的知识问答方法 |
-
2021
- 2021-12-15 CN CN202111531155.4A patent/CN114461890A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115269882A (zh) * | 2022-09-28 | 2022-11-01 | 山东鼹鼠人才知果数据科技有限公司 | 基于语义理解的知识产权检索***及其方法 |
CN115269882B (zh) * | 2022-09-28 | 2022-12-30 | 山东鼹鼠人才知果数据科技有限公司 | 基于语义理解的知识产权检索***及其方法 |
CN116244306A (zh) * | 2023-01-10 | 2023-06-09 | 江苏理工学院 | 基于知识组织语义关系的学术论文引文推荐方法及*** |
CN116244306B (zh) * | 2023-01-10 | 2023-11-03 | 江苏理工学院 | 基于知识组织语义关系的学术论文引文推荐方法及*** |
CN116932731A (zh) * | 2023-09-18 | 2023-10-24 | 上海帜讯信息技术股份有限公司 | 面向5g消息的多模态知识问答方法及*** |
CN116932731B (zh) * | 2023-09-18 | 2024-01-30 | 上海帜讯信息技术股份有限公司 | 面向5g消息的多模态知识问答方法及*** |
CN118069818A (zh) * | 2024-04-22 | 2024-05-24 | 华南理工大学 | 一种基于大语言模型增强的知识问答方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Visual sentiment prediction based on automatic discovery of affective regions | |
CN111581961B (zh) | 一种中文视觉词汇表构建的图像内容自动描述方法 | |
CN114461890A (zh) | 分层多模态的知识产权搜索引擎方法与*** | |
CN112256939B (zh) | 一种针对化工领域的文本实体关系抽取方法 | |
CN111324765A (zh) | 基于深度级联跨模态相关性的细粒度草图图像检索方法 | |
CN111080551B (zh) | 基于深度卷积特征和语义近邻的多标签图像补全方法 | |
CN113886571A (zh) | 实体识别方法、装置、电子设备及计算机可读存储介质 | |
CN110008365B (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
CN114048354B (zh) | 基于多元表征和度量学习的试题检索方法、装置及介质 | |
CN112256904A (zh) | 一种基于视觉描述语句的图像检索方法 | |
Patel et al. | Dynamic lexicon generation for natural scene images | |
CN115952292B (zh) | 多标签分类方法、装置及计算机可读介质 | |
CN113076483A (zh) | 基于案件要素异构图的舆情新闻抽取式摘要方法 | |
CN116304066A (zh) | 一种基于提示学习的异质信息网络节点分类方法 | |
CN111581964A (zh) | 一种汉语古籍的主题分析方法 | |
Fan et al. | A hierarchical Dirichlet process mixture of generalized Dirichlet distributions for feature selection | |
CN114611491A (zh) | 基于文本挖掘技术的智慧政务舆情分析研究方法 | |
CN115168590A (zh) | 文本特征提取方法、模型训练方法、装置、设备及介质 | |
Song et al. | Sparse multi-modal topical coding for image annotation | |
Al-Tameemi et al. | Multi-model fusion framework using deep learning for visual-textual sentiment classification | |
CN112307364B (zh) | 一种面向人物表征的新闻文本发生地抽取方法 | |
Siddiqui et al. | A survey on automatic image annotation and retrieval | |
CN116662566A (zh) | 一种基于对比学习机制的异质信息网络链路预测方法 | |
Vijayaraju | Image retrieval using image captioning | |
CN116227486A (zh) | 一种基于检索和对比学习的情感分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |