CN107609563A - 图片语义描述方法及装置 - Google Patents
图片语义描述方法及装置 Download PDFInfo
- Publication number
- CN107609563A CN107609563A CN201710837882.0A CN201710837882A CN107609563A CN 107609563 A CN107609563 A CN 107609563A CN 201710837882 A CN201710837882 A CN 201710837882A CN 107609563 A CN107609563 A CN 107609563A
- Authority
- CN
- China
- Prior art keywords
- provincial characteristics
- original image
- acquisition
- suggestion areas
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明实施例提供一种图片语义描述方法及装置,属于图像处理领域。所述方法包括:将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱;将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征;将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域;基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。通过本方法可有效提高对图片语义描述的准确性。
Description
技术领域
本发明涉及图像处理领域,具体而言,涉及一种图片语义描述方法及装置。
背景技术
随着社交网络的蓬勃发展,社交媒体上海量的图片数据已经成为一个巨大的社会情况研究资源。这些数据对于图片检索,数据挖掘研究有着显著的帮助,同时还可以帮助研究社会热点事件以及社会学和人类学,如何获取图片上的有效信息成为了一个值得关注的问题。
伴随深度学习网络的发展,现有技术中主要针对端到端的图片语义获取。这可以从卷积神经网络到循环神经网络方法(CNN-RNN)的发展说起,卷积神经网络可以获取图像的计算机视觉数据(人类并不能直接理解),再把视觉数据传到循环神经网络则可以产生人类语言。但是把图像整体一次性编码到卷积网络中会限制信息获取的能力,因为在这个过程中一些特定的目标会被忽视,导致计算机不能够理解到图像的一些细节。
人类视觉注意机制是认知过程中的重要一环。相比于只注视图像的全局信息,人类的视觉可以自动的关注到图像的重要部分,而忽视掉一些无关紧要的部分。利用这个机制,一些研究人员在CNN-RNN方法下提高了语义句子的质量,采用的方法是将图片划分为固定的格子,学习网络利用格子里面的信息去获取不同语义,但是这种方法导致学习网络很难准确识别不同位置不同大小的各种语义对象,从而无法对图片进行准确的语义描述。
发明内容
有鉴于此,本发明实施例的目的在于提供一种图片语义描述方法及装置,以改善上述问题。
第一方面,本发明实施例提供了一种图片语义描述方法,所述方法包括:将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱;将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征;将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域;基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
进一步地,将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征,包括:将所述卷积特征图谱输入进区域建议网络,获取多个建议区域的各自对应特征参数,其中,每个建议区域的特征参数包括区域建议框、区域得分及区域特征。
进一步地,将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域,包括:基于获取的所述多个建议区域分布对应的区域特征获取对应的权重;基于所述权重获取所述目标区域。
进一步地,基于获取的所述多个建议区域分布对应的区域特征获取对应的权重,包括:将所述区域特征带入eti=fatt(Ri,ht-1),获取所述权重,其中,ati为所述权重,Ri为每个建议区域对应的区域特征,ht-1为语言产生模型的前一时间点的隐含状态。
进一步地,所述原始图片大小为3×W×H,将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱,包括:将大小为3×W×H的所述原始图片输入卷积神经网络;对所述原始图片进行图像编码为大小的卷积特征图谱。
第二方面,本发明实施例提供了一种图片语义描述装置,所述装置包括:特征图谱获取模块,用于将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱;建议区域特征获取模块,用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征;目标区域获取模块,用于将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域;句子生成模块,用于基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
进一步地,所述建议区域特征获取模块,具体用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域的各自对应特征参数,其中,每个建议区域的特征参数包括区域建议框、区域得分及区域特征。
进一步地,所述目标区域获取模块包括:权重获取单元,用于基于获取的所述多个建议区域分布对应的区域特征获取对应的权重;目标区域获取单元,用于基于所述权重获取所述目标区域。
进一步地,所述权重获取单元,具体用于将所述区域特征带入eti=fatt(Ri,ht-1),获取所述权重,其中,ati为所述权重,Ri为每个建议区域对应的区域特征,ht-1为语言产生模型的前一时间点的隐含状态。
进一步地,所述原始图片大小为3×W×H,所述特征图谱获取模块包括:输入单元,用于将大小为3×W×H的所述原始图片输入卷积神经网络;编码单元,用于对所述原始图片进行图像编码为大小的卷积特征图谱。
本发明实施例的有益效果是:
本发明实施例提供一种图片语义描述方法及装置,首先通过将图片输入卷积神经网络,获取所述原始图片的卷积特征图谱,再将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征,然后将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域,基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子,从而通过本方法可有效提高对图片语义描述的准确性。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了一种可应用于本申请实施例中的电子设备的结构框图;
图2为本发明实施例提供的一种图片语义描述方法的流程图;
图3为本发明实施例提供的一种图片语义描述方法中步骤S130的流程图;
图4为本发明实施例提供的一种图片语义描述装置200的结构框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1示出了一种可应用于本申请实施例中的电子设备100的结构框图。电子设备100可以包括图片语义描述装置、存储器101、存储控制器102、处理器103、外设接口104、输入输出单元105、音频单元106、显示单元107。
所述存储器101、存储控制器102、处理器103、外设接口104、输入输出单元105、音频单元106、显示单元107各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述图片语义描述装置包括至少一个可以软件或固件(firmware)的形式存储于所述存储器101中或固化在所述图片语义描述装置的操作***(operating system,OS)中的软件功能模块。所述处理器103用于执行存储器101中存储的可执行模块,例如所述图片语义描述装置包括的软件功能模块或计算机程序。
其中,存储器101可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器101用于存储程序,所述处理器103在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流过程定义的服务器所执行的方法可以应用于处理器103中,或者由处理器103实现。
处理器103可以是一种集成电路芯片,具有信号的处理能力。上述的处理器103可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器103也可以是任何常规的处理器等。
所述外设接口104将各种输入/输出装置耦合至处理器103以及存储器101。在一些实施例中,外设接口104,处理器103以及存储控制器102可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
输入输出单元105用于提供给用户输入数据实现用户与所述服务器(或本地终端)的交互。所述输入输出单元105可以是,但不限于,鼠标和键盘等。
音频单元106向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。
显示单元107在所述电子设备100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元107可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器103进行计算和处理。
所述外设接口104将各种输入/输入装置耦合至处理器103以及存储器101。在一些实施例中,外设接口104,处理器103以及存储控制器102可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
输入输出单元105用于提供给用户输入数据实现用户与处理终端的交互。所述输入输出单元105可以是,但不限于,鼠标和键盘等。
可以理解,图1所示的结构仅为示意,所述电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
请参照图2,图2为本发明实施例提供的一种图片语义描述方法的流程图,所述方法具体包括如下步骤:
步骤S110:将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱。
卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部特征,一旦该局部特征被提取后,它与其他特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。也就是说,卷积神经网络的最大特点就是:局部连接性和权值共享性,因为对一幅图像中的某个像素点来说,一般离该像素点越近的像素对其影响也就越大(局部连接性);另外,根据自然图像的统计特性,某个区域的权值也可以用另一个区域(权值共享性)。权值共享就是卷积共享,对于卷积神经网络中的卷积核将其与给定的图像做卷积就可以提前一种图像的特征,不同的卷积核可以提取不同的图像特征,即在卷积层中采用多个卷积核,一个图像特征图谱使用同一个卷积核。
本发明实施例中采用VGG16模型对大量的图片进行语义描述训练,VGG16模型是视觉几何组(Visual GeometryGroup)开发的卷积神经网络结构。将大小为3×W×H的原始图片输入卷积神经网络,卷积神经网络对输入的原始图片进行编码为大小的卷积特征图谱。其中,W、H为原始图片的长宽。
步骤S120:将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征。
区域建议网络(region proposal network)是快速区域卷积网络(Faster RCNN)的核心,可以针对图像中较为重要的部分生成有效的建议区域。
在获取到大小为的卷积特征图谱,将该卷积特征图谱作为输入,放到区域建议网络,区域建议网络输出多个建议区域,该多个建议区域包括各自对应的特征参数,如:区域建议框、区域得分及区域特征。
其中,区域建议框为大小B*4的矩阵,表示区域框的坐标偏移量回归参数,B为建议区域个数;区域得分为长度为B的向量,即每个建议区域的置信度分数,分数越高则对应区域更可能是比较感兴趣的区域,有语义含义的区域;区域特征是一个大小为B*C的特征矩阵,为每个建议区域提供特征,C是特征维度。
其具体实现方法通过卷积中的一组平移不变的锚点来实现:通过回归相对于锚点的偏移量来生成建议区域,在大小为的卷积特征图谱中,每个位置设置3个不同的纵横比和4个不同的空间尺度为中心的12个锚点,为了预测与每个锚点对应的区域坐标和区域得分,可以采用有256个滤波器的3*3卷积网络,然后通过有5个滤波器的1*1卷积网络,经过这些计算,得到每个建议区域的5维向量,其中一维是区域得分,其他维是区域框的坐标偏移量回归参数。根据这些参数,可以计算出最终的区域坐标,计算方法如下:
锚点的坐标为(xa,ya),权重为wa,高度为ha,还有偏移量回归模型的参数(tx,ty,tw,th),可以计算出输出的建议区域(x,y)的中心坐标,以及其权重w和高度h如下:
为了获取更多原始图片的细节,对原始图片进行上采样,使得小的一边固定在600,同时限制最大一边不超过1000,在上采样的过程中保持空间比例不变。训练的时候,选取一张图片的256个区域,其中一半是正例,正例与训练区域样本的交叠率(IoU)大于0.7,一半是负例,负例的交叠率(IoU)大于0小于0.3。在测试时,用区域建议网络预测的区域得分使用非极大值抑制选择最可信的有效区域,即上述的B个所述建议区域,然后对于每一个选择的建议区域,将其边界投影到卷积网络的顶层,然后在该层上修剪相关的特征图谱,采用修剪的特征图谱的平均值来产生区域特征输出。
步骤S130:将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域。
在上一步骤中获得的多个建议区域各自对应的区域特征输入到长短期记忆网络,并通过人类视觉注意机制筛选出当前时刻的目标区域。视觉注意机制是循环工作的机制,它接收语言产生模型的前一个时间点的隐含状态ht-1和所有建议区域的特征Ri,i=1...B,以此来决定哪一个建议区域被采用。
请参照图3,该步骤S130包括:
步骤S131:基于获取的所述多个建议区域分布对应的区域特征获取对应的权重。
使用视觉注意机制在每个时间点从所有建议区域中选择最合适的区域,具体地,对于每个区域特征Ri,i=1...B,此机制产生一个正值的权重ai,权重可以解释为此建议区域可以被用到语义句子下一个词语的可能性。权重ai通过函数fatt和前一个时间点的隐含状态ht-1计算产生:
eti=fatt(Ri,ht-1)
步骤S132:基于所述权重获取所述目标区域。
在计算出所有建议区域的权重后,可以选择权重ai最大的建议区域作为目标区域,权重值越大表示该建议区域越有可能被选择。
步骤S140:基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
采用长短期记忆网络(LSTM)作为语言产生模型来生成词语,通过依次生成一个个词语,从而生成用于语义描述所述原始图片的完整句子,在每个时间点上,根据所选的目标区域的区域特征,通过Tt,s:Rs→Rt表示一个已经学习好参数的样例的映射变换,具有下述公式:
Yt=Soft max(ht)
it,ft,ct,ot,ht分别代表输入门、遗忘门、记忆、输出门和隐含状态,为选中的目标区域的特征向量,在不同时间点有着不同的值。Yt-1为上一时刻生成的词,E∈im×k为词嵌入矩阵,m和n分别代表词嵌入矩阵的维度和长短期记忆网络的维度,k代表所有单词的个数。σ和分别代表logistics激活函数和向量元素依次相乘法则。Softmax代表Softmax分类器,Yt代表当前时刻生成的词。
在初始时刻,隐含状态h0通过整张图像的CNN特征计算得到,从而LSTM网络能够快速浏览整张图片的大致信息,Y0为句子开始标记符。整个过程循环往复,直至生成句子结束符停止。
另外,训练的时候,把标记好的图片和区域边界作为标签,模型的损失来自两个方面,区域定位环节和语言产生环节。在区域定位环节,采用二分类logistics损失函数,对于参数边界回归采用平滑L1损失来表示。语言产生环节,用交叉熵代价函数(cross-entropyloss)来表示损失。方程表示如下:
x是输入图片,pi,ri为目标区域置信度和其边界的标签,p′i',r′i分别是其预测值,为目标区域的二分类logistics函数损失,为边界回归的平滑L1损失,y是句子的标签,-log(P(y|x))是生成句子的交叉熵代价函数(cross-entropyloss),θ2是模型参数的权值衰减,λ,β分别是区域定位环节和权值衰减的系数。
请参照图4,图4为本发明实施例提供的一种图片语义描述装置200的结构框图,所述装置具体包括:
特征图谱获取模块210,用于将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱。
建议区域特征获取模块220,用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征。
目标区域获取模块230,用于将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域。
句子生成模块240,用于基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
作为一种方式,所述建议区域特征获取模块220,具体用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域的各自对应特征参数,其中,每个建议区域的特征参数包括区域建议框、区域得分及区域特征。
作为一种方式,所述目标区域获取模块230包括:
权重获取单元,用于基于获取的所述多个建议区域分布对应的区域特征获取对应的权重。
目标区域获取单元,用于基于所述权重获取所述目标区域。
作为一种方式,所述权重获取单元,具体用于将所述区域特征带入eti=fatt(Ri,ht-1),获取所述权重,其中,ati为所述权重,Ri为每个建议区域对应的区域特征,ht-1为语言产生模型的前一时间点的隐含状态。
作为一种方式,所述原始图片大小为3×W×H,所述特征图谱获取模块210包括:
输入单元,用于将大小为3×W×H的所述原始图片输入卷积神经网络。
编码单元,用于对所述原始图片进行图像编码为大小的卷积特征图谱。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
综上所述,本发明实施例提供一种图片语义描述方法及装置,首先通过将图片输入卷积神经网络,获取所述原始图片的卷积特征图谱,再将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征,然后将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域,基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子,从而通过本方法可有效提高对图片语义描述的准确性。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所描述的功能也可以以不同于附图中所描述的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种图片语义描述方法,其特征在于,所述方法包括:
将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱;
将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征;
将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域;
基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
2.根据权利要求1所述的方法,其特征在于,将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征,包括:
将所述卷积特征图谱输入进区域建议网络,获取多个建议区域的各自对应特征参数,其中,每个建议区域的特征参数包括区域建议框、区域得分及区域特征。
3.根据权利要求2所述的方法,其特征在于,将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域,包括:
基于获取的所述多个建议区域分布对应的区域特征获取对应的权重;
基于所述权重获取所述目标区域。
4.根据权利要求3所述的方法,其特征在于,基于获取的所述多个建议区域分布对应的区域特征获取对应的权重,包括:
将所述区域特征带入eti=fatt(Ri,ht-1),获取所述权重,其中,ati为所述权重,Ri为每个建议区域对应的区域特征,ht-1为语言产生模型的前一时间点的隐含状态。
5.根据权利要求1所述的方法,其特征在于,所述原始图片大小为3×W×H,将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱,包括:
将大小为3×W×H的所述原始图片输入卷积神经网络;
对所述原始图片进行图像编码为大小的卷积特征图谱。
6.一种图片语义描述装置,其特征在于,所述装置包括:
特征图谱获取模块,用于将原始图片输入卷积神经网络,获取所述原始图片的卷积特征图谱;
建议区域特征获取模块,用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域及其各自对应的区域特征;
目标区域获取模块,将获取的所述多个建议区域分别对应的区域特征输入到长短期记忆网络,通过视觉注意机制获取当前时刻的目标区域;
句子生成模块,基于所述目标区域的区域特征和语言产生模型上一时刻的状态生成词语,以通过所述词语生成用于对所述原始图片进行语义描述的句子。
7.根据权利要求6所述的装置,其特征在于,所述建议区域特征获取模块,具体用于将所述卷积特征图谱输入进区域建议网络,获取多个建议区域的各自对应特征参数,其中,每个建议区域的特征参数包括区域建议框、区域得分及区域特征。
8.根据权利要求7所述的装置,其特征在于,所述目标区域获取模块包括:
权重获取单元,用于基于获取的所述多个建议区域分布对应的区域特征获取对应的权重;
目标区域获取单元,用于基于所述权重获取所述目标区域。
9.根据权利要求8所述的装置,其特征在于,所述权重获取单元,具体用于将所述区域特征带入eti=fatt(Ri,ht-1),获取所述权重,其中,ati为所述权重,Ri为每个建议区域对应的区域特征,ht-1为语言产生模型的前一时间点的隐含状态。
10.根据权利要求6所述的装置,其特征在于,所述原始图片大小为3×W×H,所述特征图谱获取模块包括:
输入单元,用于将大小为3×W×H的所述原始图片输入卷积神经网络;
编码单元,用于对所述原始图片进行图像编码为大小的卷积特征图谱。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710837882.0A CN107609563A (zh) | 2017-09-15 | 2017-09-15 | 图片语义描述方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710837882.0A CN107609563A (zh) | 2017-09-15 | 2017-09-15 | 图片语义描述方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107609563A true CN107609563A (zh) | 2018-01-19 |
Family
ID=61060601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710837882.0A Pending CN107609563A (zh) | 2017-09-15 | 2017-09-15 | 图片语义描述方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107609563A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145946A (zh) * | 2018-07-09 | 2019-01-04 | 暨南大学 | 一种智能图像识别和描述方法 |
CN110119754A (zh) * | 2019-02-27 | 2019-08-13 | 北京邮电大学 | 图像生成描述方法、装置及模型 |
CN110222771A (zh) * | 2019-06-10 | 2019-09-10 | 成都澳海川科技有限公司 | 一种零样本图片的类别识别方法 |
CN110232687A (zh) * | 2019-06-21 | 2019-09-13 | 华北电力大学(保定) | 一种电力巡检图像中带销螺栓缺陷的检测方法 |
CN110287875A (zh) * | 2019-06-25 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、电子设备和存储介质 |
CN110413819A (zh) * | 2019-07-12 | 2019-11-05 | 深兰科技(上海)有限公司 | 一种图片描述信息的获取方法及装置 |
CN111553467A (zh) * | 2020-04-30 | 2020-08-18 | 陈永聪 | 一种实现通用人工智能的方法 |
CN112529857A (zh) * | 2020-12-03 | 2021-03-19 | 重庆邮电大学 | 基于目标检测与策略梯度的超声图像诊断报告生成方法 |
WO2021248409A1 (en) * | 2020-06-11 | 2021-12-16 | Alibaba Group Holding Limited | Pruning hardware unit for training neural network |
US11961431B2 (en) | 2018-07-03 | 2024-04-16 | Google Llc | Display processing circuitry |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
CN106778926A (zh) * | 2016-12-23 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于视觉注意模型的图像文字描述方法 |
-
2017
- 2017-09-15 CN CN201710837882.0A patent/CN107609563A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102054178A (zh) * | 2011-01-20 | 2011-05-11 | 北京联合大学 | 一种基于局部语义概念的国画图像识别方法 |
CN106778926A (zh) * | 2016-12-23 | 2017-05-31 | 深圳市唯特视科技有限公司 | 一种基于视觉注意模型的图像文字描述方法 |
CN106651766A (zh) * | 2016-12-30 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于深度卷积神经网络的图像风格迁移方法 |
Non-Patent Citations (2)
Title |
---|
KELVIN XU ETC: "Show, Attend and Tell: Neural Image Caption Generation with Visual Attention", 《ARXIV:1502.03044V3》 * |
PETER ANDERSON ETC.: "Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering", 《ARXIV:1707.07998V2》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11961431B2 (en) | 2018-07-03 | 2024-04-16 | Google Llc | Display processing circuitry |
CN109145946B (zh) * | 2018-07-09 | 2022-02-11 | 暨南大学 | 一种智能图像识别和描述方法 |
CN109145946A (zh) * | 2018-07-09 | 2019-01-04 | 暨南大学 | 一种智能图像识别和描述方法 |
CN110119754A (zh) * | 2019-02-27 | 2019-08-13 | 北京邮电大学 | 图像生成描述方法、装置及模型 |
CN110119754B (zh) * | 2019-02-27 | 2022-03-29 | 北京邮电大学 | 图像生成描述方法、装置及模型 |
CN110222771A (zh) * | 2019-06-10 | 2019-09-10 | 成都澳海川科技有限公司 | 一种零样本图片的类别识别方法 |
CN110232687A (zh) * | 2019-06-21 | 2019-09-13 | 华北电力大学(保定) | 一种电力巡检图像中带销螺栓缺陷的检测方法 |
CN110232687B (zh) * | 2019-06-21 | 2022-04-12 | 华北电力大学(保定) | 一种电力巡检图像中带销螺栓缺陷的检测方法 |
CN110287875B (zh) * | 2019-06-25 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、电子设备和存储介质 |
CN110287875A (zh) * | 2019-06-25 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、电子设备和存储介质 |
CN110413819B (zh) * | 2019-07-12 | 2022-03-29 | 深兰科技(上海)有限公司 | 一种图片描述信息的获取方法及装置 |
CN110413819A (zh) * | 2019-07-12 | 2019-11-05 | 深兰科技(上海)有限公司 | 一种图片描述信息的获取方法及装置 |
CN111553467A (zh) * | 2020-04-30 | 2020-08-18 | 陈永聪 | 一种实现通用人工智能的方法 |
WO2021248409A1 (en) * | 2020-06-11 | 2021-12-16 | Alibaba Group Holding Limited | Pruning hardware unit for training neural network |
CN112529857A (zh) * | 2020-12-03 | 2021-03-19 | 重庆邮电大学 | 基于目标检测与策略梯度的超声图像诊断报告生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609563A (zh) | 图片语义描述方法及装置 | |
Shrivastava et al. | Failure prediction of Indian Banks using SMOTE, Lasso regression, bagging and boosting | |
CN109359538A (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
Rahman et al. | Link prediction in dynamic networks using graphlet | |
CN106326857A (zh) | 基于人脸图像的性别识别方法及装置 | |
CN108664967A (zh) | 一种多媒体页面视觉显著性预测方法及*** | |
CN109344920A (zh) | 顾客属性预测方法、存储介质、***及设备 | |
CN107239775A (zh) | 地物分类方法及装置 | |
CN107818336A (zh) | 一种基于城市特定人群和关联政策的匹配推荐方法及*** | |
CN108256469A (zh) | 脸部表情识别方法及装置 | |
CN109508625A (zh) | 一种情感数据的分析方法及装置 | |
Gao et al. | A novel face feature descriptor using adaptively weighted extended LBP pyramid | |
Chakraborty et al. | Ten years of generative adversarial nets (GANs): a survey of the state-of-the-art | |
Yao et al. | [Retracted] Facial Expression Recognition Based on Convolutional Neural Network Fusion SIFT Features of Mobile Virtual Reality | |
Beer et al. | Algorithms: Shaping tastes and manipulating the circulations of popular culture | |
Sudha et al. | On-road driver facial expression emotion recognition with parallel multi-verse optimizer (PMVO) and optical flow reconstruction for partial occlusion in internet of things (IoT) | |
Zaman et al. | A novel driver emotion recognition system based on deep ensemble classification | |
Liu et al. | Learning shape and texture progression for young child face aging | |
CN117235633A (zh) | 机构分类方法、装置、计算机设备及存储介质 | |
CN109685143A (zh) | 一种甲状腺锝扫图像的识别模型构建方法及装置 | |
Cao et al. | Fuzzy emotional semantic analysis and automated annotation of scene images | |
Chen et al. | Probabilistic urban structural damage classification using bitemporal satellite images | |
Wijaya et al. | DeepDrive: effective distracted driver detection using generative adversarial networks (GAN) algorithm | |
Yin et al. | A study on skin tumor classification based on dense convolutional networks with fused metadata | |
Oladipo et al. | A novel genetic-artificial neural network based age estimation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180119 |
|
RJ01 | Rejection of invention patent application after publication |