CN110096986B - 一种基于图像识别与文本融合的博物馆展品智能导览方法 - Google Patents
一种基于图像识别与文本融合的博物馆展品智能导览方法 Download PDFInfo
- Publication number
- CN110096986B CN110096986B CN201910333050.4A CN201910333050A CN110096986B CN 110096986 B CN110096986 B CN 110096986B CN 201910333050 A CN201910333050 A CN 201910333050A CN 110096986 B CN110096986 B CN 110096986B
- Authority
- CN
- China
- Prior art keywords
- point
- network
- classification
- sentence
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004927 fusion Effects 0.000 title claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000009193 crawling Effects 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 17
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000010187 selection method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000007547 defect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Tourism & Hospitality (AREA)
- Evolutionary Computation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于图像识别与文本融合的博物馆展品智能导览方法,涉及图像识别与文本融合技术领域。本发明步骤如下:步骤1:收集展品图像,得到展品图片集合;步骤2:建立基于卷积神经网络结构的识别模型;使用图片X训练基于卷积神经网络结构的初始识别模型,得到损失函数L(X),根据损失函数训练识别初始模型中的参数,得到基于卷积神经网络结构的识别模型,得到图片X的识别结果;步骤3:根据识别结果作为关键词进行相关资讯的爬取收集,获得资讯数据集;步骤4:获取的资讯数据集中提取摘要T;步骤5:将步骤4中得到的摘要T进行资讯融合;本方法能够提高参观者参观体验,降低博物馆日常运营费用,减少人力成本。
Description
技术领域
本发明涉及图像识别与文本融合技术领域,尤其涉及一种基于图像识别与文本融合的博物馆展品智能导览方法。
背景技术
博物馆是人们学习历史、了解专业领域发展和丰富精神文化生活的重要载体。在传统博物馆中,导览服务主要由讲解员提供,不仅自由性差、展示形式单一、用户无法高效筛选自己想要了解的知识,甚至需要用户支付额外的费用,有时还会造成博物馆展厅内的局部堵塞。而现有的博物馆导览技术主要是基于RFID(射频识别)的技术,用户在参观时被动的接受相关展品的语音信息,体验性差,并且这种方式需要在博物馆内安装大量的无线发射装置作为展品的电子标签,安装费用高昂,而且受博物馆场馆环境的限制。近年来新兴的基于二维码的手机APP导览***,通过对展品的二维码标签进行扫描,搜索展品的相关信息,这种方法的不足之处是需要对所有的展品都贴上二维码标签。更重要的是,以上这些方法的介绍内容都是通过查询数据库获取的,而数据库中的信息通常更新速度较慢,造成信息的滞后。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于图像识别与文本融合的博物馆展品智能导览方法,本方法能够提高参观者参观体验,降低博物馆日常运营费用,减少人力成本;
为解决上述技术问题,本发明所采取的技术方案是:
本发明提供一种基于图像识别与文本融合的博物馆展品智能导览方法,包括如下步骤:
步骤1:收集展品图像,将所有图像调整成统一大小,并对图片进行数据增强处理,得到展品图片集合,所述展品图片集合中的图片为带有正确分类标签的图片;
步骤2:建立基于卷积神经网络结构的识别模型;将VGG网络结构模型中的特征提取层以及分类层参数作为基于卷积神经网络结构的初始识别模型中的参数;使用步骤1的展品图片集合中的图片X训练基于卷积神经网络结构的初始识别模型,得到损失函数L(X),根据损失函数训练识别初始模型中的参数,得到基于卷积神经网络结构的识别模型,得到图片X的识别结果;
步骤3:根据步骤2中得到的识别结果作为关键词进行相关资讯的爬取收集;将识别结果根据爬虫技术做关键词分割,根据分割后的关键词在百度上收集资讯,获得资讯数据集;
步骤4:获取的资讯数据集中提取摘要T;运用抽取式的方式进行摘要的生成,去除资讯数据集中冗余的信息,将其主要内容提取出来;将步骤3中资讯数据集中的句子排成句子序列A1、A2、…、An组成文档D,n为句子总数,通过根据概率选取D中的m个句子组成摘要T;
概率选取方法为:Extractive式摘要生成模型包括句子编码器、文档编码器以及句子提取器;其中,句子编码器中使用word2vec得到每个单词的200维向量并使用卷积与池化操作得到句子的编码向量;在文档编码器中使用LSTM网络,句子提取器部分将关键词作为额外信息,参与为句子评分的过程,最终目标是使含有关键词的句子获得更高的得分,即:
其中,u0、We、w′e为单隐层的神经网络的参数,r代表An被选入摘要的概率,代表μ时刻的句子An,hμ为μ时刻LSTM网络的中间状态,hμ′代表关键词的加权和,b为关键词的个数,K为每句话被选择到摘要T的概率,概率越大,句子An出现在T中的概率越大;ci为关键字,当句子中含有的关键词越多,hμ′越大,最后该句子选入摘要中的概率越大。
步骤5:将步骤4中得到的摘要T进行资讯融合;
将摘要T中的句子融合成有逻辑的语段,采用段落模板结合描述逻辑的方法,通过定义描述逻辑,并匹配预先定义好的段落描述模板将摘要T中的句子融合为一个完整并且有意义的段落;所述段落模板为以时间为逻辑或地点、人物为逻辑。
所述步骤2的具体步骤如下:
步骤2.1:使用VGG网络结构模型初始化分类子网络中的特征提取层以及分类层参数,输入训练集中的图片,寻找全连接层中对输入的图像的响应值,值最高的区域则选择为建议注意力区域正方形;
分类子网络f由一个全连接层以及一个softmax层组成:
P(X)=f(wc*X)
其中,X为输入的图像,P(X)为分类子网络的输出结果向量,向量的每一个维度表示输入图像属于该维度代表的种类的概率,wc为图像特征提取过程的参数矩阵;wc*X包括三段卷积网络,每段卷积网络含有两个卷积层以及一个最大池化层,经过图像特征提取得到的特征图谱分别送入分类子网络f以及注意力建议子网络g;
注意力建议子网络g由两个全连接层组成,其中最后一个全连接层的输出通道为3个,分别对应tx,ty,tl;
[tx,ty,tl]=g(wc*X)
其中,tx,ty为输出注意力区域中心点的横纵坐标、tl为输出注意力区域的边长的1/2;
从原图中裁剪提取出注意力区域的过程为:
Xatt=X⊙M(tx,ty,tl)
其中,Xatt为注意力区域,X为原始输入图像,M(tx,ty,tl)表示由tx,ty,tl生成的掩膜;
步骤2.2:整个网络以交替的方式进行训练,保持注意力区域建议子网络的参数不变,根据双线性插值的方法对每个注意力区域进行放缩;每个注意力区域建议的输出区域放大到与输入图像X大小相同的像素;
所述放缩方法如下:
首先进行水平方向的插值:
其中R1=(x,y1);
其中R2=(x,y2)
接下来进行竖直方向的插值,求出p点的像素值:
其中,p(x,y)表示待插点p的坐标为x、y,q(p)为待插点p的像素值,Q11(x1,y1)、Q12(x1,y2)、Q21(x2,y1)、Q22(x2,y2)分别为待插点p周围的四个点,x1,y1为点Q11的坐标,x1,y2为点Q12的坐标,x2,y1为点Q21的坐标,x2,y2为点Q22的坐标;R1为p点垂线与Q11和Q21两点形成的线段的焦点,x,y1为点R1的坐标;R2为p点垂线与Q12和Q22两点形成线段的焦点,x,y2为点R2的坐标;
步骤2.3:根据放缩后的注意力区域来优化每个尺度的分类损失,每个尺度的学习包括一个分类子网络和一个注意力区域建议子网络;固定卷积层和分类层的参数不变,使用损失函数来优化注意力区域建议子网络;
损失函数L(X)由分类损失与ranking损失两个部分构成,根据损失函数L(X)表示为:
其中,Y*表示图像的真实种类,Ys表示在s尺度下的分类结果,Po (s)表示在s尺度下分类子网络输出为真实种类的概率;
ranking损失Lrank(Po (s),Po (s+1))为:
Lrank(Po (s),Po (s+1))=max(0,Po (s)-Po (s+1)+margin)
其中margin表示阈值。
采用上述技术方案所产生的有益效果在于:本发明提供的一种基于图像识别与文本融合的博物馆展品智能导览方法,可以通过用户对展品进行拍照,精确的识别出展品的种类名称,并根据展品的名称提取出关键词进行相关资讯的收集,最后通过自动摘要技术以及文本融合技术为用户返回一段具有时效性的相关介绍。本发明采取的技术方案是通过卷积神经网络学习博物馆展品的特征,构建一个可以根据用户实时拍摄的图像高准确率的给出相应种类名称的神经网络模型框架,根据识别的结果收集相关的资讯进行信息的提取与整合,实现博物馆展品智能导览的功能。通过在不同尺度下循环学习的方法准确的识别细粒度相似图像的种类,后续的在线资讯获取及处理过程可以提供最新的介绍信息,在资讯处理的过程中,通过将关键词信息加入损失函数,使得处理的结果更加精确,本方法能够提高参观者参观体验,降低博物馆日常运营费用,减少人力成本。
附图说明
图1为本发明实施例提供的方法流程图;
图2为本发明实施例提供的图像识别模型示意图;
图3为本发明实施例提供的摘要生成示意图;
图4为本发明实施例提供的展品识别讲解结果示意图,其中,a为测试界面示意图;b为上传图片示意图;c为图像识别展示界面示意图;d为文本的详细信息界面示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本实施例的方法如下所述。
本发明提供一种基于图像识别与文本融合的博物馆展品智能导览方法,包括如下步骤:
步骤1:收集展品图像,将所有图像调整成统一大小,并对图片进行数据增强处理,得到展品图片集合,所述展品图片集合中的图片为带有正确分类标签的图片;
步骤2:建立基于卷积神经网络结构的识别模型;将VGG网络结构模型中的特征提取层以及分类层参数作为基于卷积神经网络结构的初始识别模型中的参数;使用步骤1的展品图片集合中的图片X训练基于卷积神经网络结构的初始识别模型,得到损失函数L(X),根据损失函数训练识别初始模型中的参数,得到基于卷积神经网络结构的识别模型,得到图片X的识别结果;如图2所示,三级的级联网络示意图,所述级联网络可由多级构成本实施例中采取3级级联网络;
步骤2.1:使用VGG(Visual Geometry Group)网络结构模型初始化分类子网络中的特征提取层以及分类层参数,输入训练集中的图片,寻找全连接层中对输入的图像的响应值,值最高的区域则选择为建议注意力区域正方形;
分类子网络f由一个全连接层以及一个softmax层组成:
p(x)=f(wc*x)
其中,X为输入的图像,P(X)为分类子网络的输出结果向量,向量的每一个维度表示输入图像属于该维度代表的种类的概率,wc为图像特征提取过程的参数矩阵;wc*X包括三段卷积网络,每段卷积网络含有两个卷积层以及一个最大池化层,经过图像特征提取得到的特征图谱分别送入分类子网络f以及注意力建议子网络g;
注意力建议子网络g由两个全连接层组成,其中最后一个全连接层的输出通道为3个,分别对应tx,ty,tl;
[tx,ty,tl]=g(wc*X)
其中,tx,ty为输出注意力区域中心点的横纵坐标、tl为输出注意力区域的边长的1/2;
从原图中裁剪提取出注意力区域的过程为:
xatt=x⊙M(tx,ty,tl)
其中,Xatt为注意力区域,X为原始输入图像,M(tx,ty,tl)表示由tx,ty,tl生成的掩膜;
步骤2.2:整个网络以交替的方式进行训练,保持注意力区域建议子网络的参数不变,根据双线性插值的方法对每个注意力区域进行放缩;每个注意力区域建议的输出区域放大到与输入图像X大小相同的像素;
所述放缩方法如下:
首先进行水平方向的插值:
其中R1=(x,y1);
其中R2=(x,y2)
接下来进行竖直方向的插值,求出p点的像素值:
其中,p(x,y)表示待插点p的坐标为x、y,q(p)为待插点p的像素值,Q11(x1,y1)、Q12(x1,y2)、Q21(x2,y1)、Q22(x2,y2)分别为待插点p周围的四个点,x1,y1为点Q11的坐标,x1,y2为点Q12的坐标,x2,y1为点Q21的坐标,x2,y2为点Q22的坐标;R1为p点垂线与Q11和Q21两点形成的线段的焦点,x,y1为点R1的坐标;R2为p点垂线与Q12和Q22两点形成线段的焦点,x,y2为点R2的坐标;
步骤2.3:根据放缩后的注意力区域来优化每个尺度的分类损失,每个尺度的学习包括一个分类子网络和一个注意力区域建议子网络;固定卷积层和分类层的参数不变,使用损失函数来优化注意力区域建议子网络;
损失函数L(X)由分类损失与ranking损失两个部分构成,根据损失函数L(X)表示为:
其中,Y*表示图像的真实种类,Ys表示在s尺度下的分类结果,Po (s)表示在s尺度下分类子网络输出为真实种类的概率;尺度s的上限是可变的;
ranking损失Lrank(Po (s),Po (s+1))为:
Lrank(Po (s),Po (s+1))=max(0,Po (s)-Po (s+1)+margin)
其中margin表示阈值;
步骤3:根据步骤2中得到的识别结果作为关键词进行相关资讯的爬取收集;将识别结果根据爬虫技术做关键词分割,根据分割后的关键词在百度上收集资讯,获得资讯数据集;
步骤4:获取的资讯数据集中提取摘要T,如图3所示;运用抽取式的方式进行摘要的生成,去除资讯数据集中冗余的信息,将其主要内容提取出来;将步骤3中资讯数据集中的句子排成句子序列A1、A2、…、An组成文档D,n为句子总数,通过根据概率选取D中的m个句子组成摘要T。
概率选取方法为:Extractive式摘要生成模型包括句子编码器、文档编码器以及句子提取器;其中,句子编码器中使用word2vec得到每个单词的200维向量并使用卷积与池化操作得到句子的编码向量;在文档编码器中使用LSTM网络,句子提取器部分将关键词作为额外信息,参与为句子评分的过程,最终目标是使含有关键词的句子获得更高的得分,即:
其中,u0、We、w′e为单隐层的神经网络的参数,r代表An被选入摘要的概率,代表μ时刻的句子An,hμ为μ时刻LSTM网络的中间状态,hμ′代表关键词的加权和,b为关键词的个数,K为每句话被选择到摘要T的概率,概率越大,句子An出现在T中的可能性越大;ci为关键字,当句子中含有的关键词越多,hμ′越大,最后该句子选入摘要中的概率也就更大。
步骤5:将步骤4中得到的摘要T进行资讯融合;
将摘要T中的句子融合成有逻辑的语段,采用段落模板结合描述逻辑的方法,通过定义描述逻辑,并匹配预先定义好的段落描述模板将摘要T中的句子融合为一个完整并且有意义的段落;所述段落模板为以时间为逻辑或地点、人物为逻辑。
如图4所示为展品通过本方法的识别结果,首先打开APP,进去如a所示的应用界面;点击“拍照”或者“上传图片”按钮会将图片上传,如b所示;然后得到图像的简要文本描述,并可点击查看相关文本主题的详细信息,如c和d所示。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (2)
1.一种基于图像识别与文本融合的博物馆展品智能导览方法,其特征在于:包括如下步骤:
步骤1:收集展品图像,将所有图像调整成统一大小,并对图片进行数据增强处理,得到展品图片集合,所述展品图片集合中的图片为带有正确分类标签的图片;
步骤2:建立基于卷积神经网络结构的识别模型;将VGG网络结构模型中的特征提取层以及分类层参数作为基于卷积神经网络结构的初始识别模型中的参数;使用步骤1的展品图片集合中的图片X训练基于卷积神经网络结构的初始识别模型,得到损失函数L(X),根据损失函数训练识别初始模型中的参数,得到基于卷积神经网络结构的识别模型,得到图片X的识别结果;
步骤3:根据步骤2中得到的识别结果作为关键词进行相关资讯的爬取收集;将识别结果根据爬虫技术做关键词分割,根据分割后的关键词在百度上收集资讯,获得资讯数据集;
步骤4:获取的资讯数据集中提取摘要T;运用抽取式的方式进行摘要的生成,去除资讯数据集中冗余的信息,将其主要内容提取出来;将步骤3中资讯数据集中的句子排成句子序列A1、A2、…、An组成文档D,n为句子总数,通过根据概率选取D中的m个句子组成摘要T;
概率选取方法为:Extractive式摘要生成模型包括句子编码器、文档编码器以及句子提取器;其中,句子编码器中使用word2vec得到每个单词的200维向量并使用卷积与池化操作得到句子的编码向量;在文档编码器中使用LSTM网络,句子提取器部分将关键词作为额外信息,参与为句子评分的过程,最终目标是使含有关键词的句子获得更高的得分,即:
其中,u0、We、w′e为单隐层的神经网络的参数,r代表An被选入摘要的概率,代表μ时刻的句子An,hμ为μ时刻LSTM网络的中间状态,hμ′代表关键词的加权和,b为关键词的个数,K为每句话被选择到摘要T的概率,概率越大,句子An出现在T中的可能性越大;ci为关键字,当句子中含有的关键词越多,hμ′越大,最后该句子选入摘要中的概率也就更大;
步骤5:将步骤4中得到的摘要T进行资讯融合;
将摘要T中的句子融合成有逻辑的语段,采用段落模板结合描述逻辑的方法,通过定义描述逻辑,并匹配预先定义好的段落描述模板将摘要T中的句子融合为一个完整并且有意义的段落;所述段落模板为以时间为逻辑或地点、人物为逻辑。
2.根据权利要求1所述的一种基于图像识别与文本融合的博物馆展品智能导览方法,其特征在于:所述步骤2的具体步骤如下:
步骤2.1:使用VGG网络结构模型初始化分类子网络中的特征提取层以及分类层参数,输入训练集中的图片,寻找全连接层中对输入的图像的响应值,值最高的区域则选择为建议注意力区域正方形;
分类子网络f由一个全连接层以及一个softmax层组成:
P(X)=f(wc*X)
其中,X为输入的图像,P(X)为分类子网络的输出结果向量,向量的每一个维度表示输入图像属于该维度代表的种类的概率,wc为图像特征提取过程的参数矩阵;wc*X包括三段卷积网络,每段卷积网络含有两个卷积层以及一个最大池化层,经过图像特征提取得到的特征图谱分别送入分类子网络f以及注意力建议子网络g;
注意力建议子网络g由两个全连接层组成,其中最后一个全连接层的输出通道为3个,分别对应tx,ty,tl;
[tx,ty,tl]=g(wc*X)
其中,tx,ty为输出注意力区域中心点的横纵坐标、tl为输出注意力区域的边长的1/2;
从原图中裁剪提取出注意力区域的过程为:
Xatt=X⊙M(tx,ty,tl)
其中,Xatt为注意力区域,X为原始输入图像,M(tx,ty,tl)表示由tx,ty,tl生成的掩膜;
步骤2.2:整个网络以交替的方式进行训练,保持注意力区域建议子网络的参数不变,根据双线性插值的方法对每个注意力区域进行放缩;每个注意力区域建议的输出区域放大到与输入图像X大小相同的像素;
所述放缩方法如下:
首先进行水平方向的插值:
其中R1=(x,y1);
其中R2=(x,y2)
接下来进行竖直方向的插值,求出p点的像素值:
其中,p(x,y)表示待插点p的坐标为x、y,q(p)为待插点p的像素值,Q11(x1,y1)、Q12(x1,y2)、Q21(x2,y1)、Q22(x2,y2)分别为待插点p周围的四个点,x1,y1为点Q11的坐标,x1,y2为点Q12的坐标,x2,y1为点Q21的坐标,x2,y2为点Q22的坐标;R1为p点垂线与Q11和Q21两点形成的线段的焦点,x,y1为点R1的坐标;R2为p点垂线与Q12和Q22两点形成线段的焦点,x,y2为点R2的坐标;
步骤2.3:根据放缩后的注意力区域来优化每个尺度的分类损失,每个尺度的学习包括一个分类子网络和一个注意力区域建议子网络;固定卷积层和分类层的参数不变,使用损失函数来优化注意力区域建议子网络;
损失函数L(X)由分类损失与ranking损失两个部分构成,根据损失函数L(X)表示为:
其中,Y*表示图像的真实种类,Ys表示在s尺度下的分类结果,Po (s)表示在s尺度下分类子网络输出为真实种类的概率;
ranking损失Lrank(Po (s),Po (s+1))为:
Lrank(Po (s),Po (s+1))=max(0,Po (s)-Po (s+1)+margin)
其中margin表示阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333050.4A CN110096986B (zh) | 2019-04-24 | 2019-04-24 | 一种基于图像识别与文本融合的博物馆展品智能导览方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910333050.4A CN110096986B (zh) | 2019-04-24 | 2019-04-24 | 一种基于图像识别与文本融合的博物馆展品智能导览方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110096986A CN110096986A (zh) | 2019-08-06 |
CN110096986B true CN110096986B (zh) | 2022-04-12 |
Family
ID=67445681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910333050.4A Active CN110096986B (zh) | 2019-04-24 | 2019-04-24 | 一种基于图像识别与文本融合的博物馆展品智能导览方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110096986B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104238884A (zh) * | 2014-09-12 | 2014-12-24 | 北京诺亚星云科技有限责任公司 | 基于数字全景的动态信息呈现与用户交互***及设备 |
CN207198847U (zh) * | 2017-06-27 | 2018-04-06 | 徐桐 | 一种基于图像对比识别的建筑信息导览的*** |
CN108595632A (zh) * | 2018-04-24 | 2018-09-28 | 福州大学 | 一种融合摘要与主体特征的混合神经网络文本分类方法 |
CN109145105A (zh) * | 2018-07-26 | 2019-01-04 | 福州大学 | 一种融合信息选择与语义关联的文本摘要模型生成算法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018071403A1 (en) * | 2016-10-10 | 2018-04-19 | Insurance Services Office, Inc. | Systems and methods for optical charater recognition for low-resolution ducuments |
US10679011B2 (en) * | 2017-05-10 | 2020-06-09 | Oracle International Corporation | Enabling chatbots by detecting and supporting argumentation |
-
2019
- 2019-04-24 CN CN201910333050.4A patent/CN110096986B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104238884A (zh) * | 2014-09-12 | 2014-12-24 | 北京诺亚星云科技有限责任公司 | 基于数字全景的动态信息呈现与用户交互***及设备 |
CN207198847U (zh) * | 2017-06-27 | 2018-04-06 | 徐桐 | 一种基于图像对比识别的建筑信息导览的*** |
CN108595632A (zh) * | 2018-04-24 | 2018-09-28 | 福州大学 | 一种融合摘要与主体特征的混合神经网络文本分类方法 |
CN109145105A (zh) * | 2018-07-26 | 2019-01-04 | 福州大学 | 一种融合信息选择与语义关联的文本摘要模型生成算法 |
Non-Patent Citations (3)
Title |
---|
An Adaptive Hierarchical Compositional Model for Phrase Embedding;Bing Li 等;《ResearchGate》;20180724;第4144-4151页 * |
An Efficient Method for High Quality and Cohesive Topical Phrase Mining;Xiaochun Yang 等;《IEEE》;20190131;第120-137页 * |
基于移动增强现实的智慧城市导览;张运超 等;《计算机研究与发展》;20141231;第302-310页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110096986A (zh) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334705B (zh) | 一种结合全局和局部信息的场景文本图像的语种识别方法 | |
CN110795543B (zh) | 基于深度学习的非结构化数据抽取方法、装置及存储介质 | |
CN109635171B (zh) | 一种新闻节目智能标签的融合推理***和方法 | |
CN107766371B (zh) | 一种文本信息分类方法及其装置 | |
CN111611436B (zh) | 一种标签数据处理方法、装置以及计算机可读存储介质 | |
JP2022023770A (ja) | 文字の認識方法及び装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN112528963A (zh) | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题智能批阅*** | |
CN110750959A (zh) | 文本信息处理的方法、模型训练的方法以及相关装置 | |
CN104142995B (zh) | 基于视觉属性的社会事件识别方法 | |
CN115457531A (zh) | 用于识别文本的方法和装置 | |
CN115994230A (zh) | 一种融合人工智能和知识图谱技术的智慧档案构建方法 | |
CN109492168B (zh) | 一种基于旅游照片的可视化旅游兴趣推荐信息生成方法 | |
CN113064995A (zh) | 一种基于图深度学习的文本多标签分类方法和*** | |
CN113297955B (zh) | 一种基于多模态分层级信息融合的手语词识别方法 | |
CN113051914A (zh) | 一种基于多特征动态画像的企业隐藏标签抽取方法及装置 | |
CN111967267A (zh) | 一种基于XLNet的新闻文本地域提取的方法及*** | |
CN113239159A (zh) | 基于关系推理网络的视频和文本的跨模态检索方法 | |
CN112541347A (zh) | 一种基于预训练模型的机器阅读理解方法 | |
CN115115740A (zh) | 思维导图识别方法、装置、设备、介质及程序产品 | |
CN112148874A (zh) | 可自动新增用户潜在意图的意图识别方法及*** | |
CN117541202A (zh) | 基于多模态知识图谱和预训练大模型融合的就业推荐*** | |
CN110096986B (zh) | 一种基于图像识别与文本融合的博物馆展品智能导览方法 | |
CN114694133B (zh) | 一种基于图像处理与深度学习相结合的文本识别方法 | |
CN116958512A (zh) | 目标检测方法、装置、计算机可读介质及电子设备 | |
CN110929013A (zh) | 一种基于bottom-up attention和定位信息融合的图片问答实现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |