CN111566665A - 在自然语言处理中应用图像编码识别的装置和方法 - Google Patents
在自然语言处理中应用图像编码识别的装置和方法 Download PDFInfo
- Publication number
- CN111566665A CN111566665A CN202080000364.3A CN202080000364A CN111566665A CN 111566665 A CN111566665 A CN 111566665A CN 202080000364 A CN202080000364 A CN 202080000364A CN 111566665 A CN111566665 A CN 111566665A
- Authority
- CN
- China
- Prior art keywords
- image
- parameter
- nlp
- feature
- positive integer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明涉及自然语言处理(Natural Language Process,NLP)领域,特别涉及应用图像编码识别来处理NLP任务的技术。
背景技术
自然语言处理(NLP)是一种用于帮助计算机以智能和有用的方式对人类语言的含义进行分析、理解和衍生的技术。近年来,NLP已成为一项重要的研究课题。NLP的应用可以帮助人们处理大量的电子文档,包括检索评论、新闻报道等,并可以与人类进行交互,例如通过电子个人助理和社交聊天机器人的方式。是的,大多数NLP的应用都与信息检索、文章自动归纳、和极性分析(如正面的/负面的分类)有关。
机器学习最近为NLP技术做出了很大贡献。机器学习能够概括和处理新案例。在机器学习模型中,如果案例类似于模型之前看过的内容,则模型可以使用其“学习”来评估案例。通过机器学习,目标是创建一个可以不断改进模型的***。
具有NLP文本分析的机器学习模型能够识别文本的各个方面,从而理解文本文档的含义。换句话说,模型可以加速和自动化基础文本分析功能,从而将非结构化文本转换为可用的数据和见解。
但是,机器学习模型的当前发展是基于语言模型的,具有明显的性能限制。例如,一些模型以类似于句子中的主语-词-宾语的方式分析目标句子结构,来了解其含义。这些类型的分析是专用于特定语言的,不能通用于其他不同语言;它们在处理复杂句子时也显示出较低的准确性。因此,在本领域中需要一种新方法用于NLP机器学习模型,可以处理大量电子文档并将其转换为可用数据,而不会丢失隐藏特征,从而提高准确性。
发明内容
本发明提供一种在执行自然语言处理(NLP)任务中应用图像编码识别的方法和装置。根据本发明的一方面,该方法包括以下处理步骤。来自文本源的句子由基于NLP的特征提取器提取。基于NLP的特征提取器根据句子生成词向量。词向量由基于NLP的特征提取器转换为特征向量其中特征向量满足参数m为正整数。转换器将特征向量转换成具有多个二维图像的图像集。图像集被输入到神经网络中,由处理器执行图像识别,从而分析句子。
根据本发明的另一方面,该装置包括基于NLP的特征提取器、转换器和处理器。基于NLP的特征提取器被配置以从文本源中提取句子,被配置以根据该句子而生成词向量,且被配置以将词向量转换为特征向量使得其中参数m是正整数。转换器被配置以将特征向量转换为具有多个二维图像的图像集。处理器被配置以将图像集输入到神经网络中以执行图像识别,从而分析句子。
在各个实施例中,该方法还包括步骤:通过修改器修改图像的分辨率。修改分辨率包括上采样过程和执行特征增强。
本发明的优点包括:(1)由于文本源被转换为特征向量,然后被转换为图像集以进行识别,因此对于NLP任务的结果实现了更高的准确性。原因是具有二维图像的图像集包含更丰富的信息和解析了的特征向量中的隐藏特征,从而给出了特征向量的更完整描述。(2)NLP任务(如极性分类)可以通过图像识别来实现,其中可以基于许多相对较成熟的基于成像的模型之一来配置和执行图像识别,从而提高NLP任务结果的性能和准确性。(3)可以进一步修改图像集。所述修改包括对图像集进行上采样和对图像集执行特征增强。对图像集的修改通过重新组织图像特征而受益,从而可以使用简单的图像分类器对图像进行分类并提高分类精度。
附图说明
以下参考附图更详细地描述本发明的实施例,其中:
图1显示本发明各个实施例的基于NLP的识别***将图像编码识别应用于处理NLP任务的方法的简化逻辑结构和数据流程图;
图2A显示本发明各个实施例的图像处理的第一示意图;
图2B显示图像处理的第二示意图。
图3显示本发明各个实施例的分辨率修改过程的简化逻辑结构和数据流程图。
图4显示本发明各个实施例的上采样图像集的示意图;
图5显示本发明各个实施例的通过插值进行重采样的示意图。
图6显示本发明各个实施例的特征增强的示意图;
图7显示本发明各个实施例的执行NLP任务的简化逻辑结构和数据流程图。
图8显示本发明各个实施例的使用图像编码识别方法生成的示例性图案;
图9显示本发明各个实施例的基于NLP的识别***的配置框图。
具体实施方式
在下面的描述中,应用图像编码识别以处理自然语言处理(NLP)任务的方法和装置,作为优选示例进行了阐述。对于本领域技术人员将显而易见的是,在不脱离本发明的范围和精神的情况下,可以进行包括增加和/或替换的修改。省略了某些具体细节,以免模糊本发明。然而,本公开内容是为了使本领域技术人员能够在不进行过多实验的情况下实践本发明教导。
图1显示本发明各个实施例的基于NLP的识别***100将图像编码识别应用于处理NLP任务的方法的简化逻辑结构和数据流程图。基于NLP的识别***100包括特征提取器110、转换器120、修改器130和处理器140,其被配置以执行该方法的不同步骤。基于NLP的识别***100执行的方法包括步骤S10、S20、S30和S40。步骤S10是由特征提取器110执行的数据预处理;步骤S20是由特征提取器110执行的形成特征向量。步骤S30是由转换器120执行的成像。步骤S40是由修改器130执行的分辨率修改;步骤S50是由处理器140执行的NLP任务。
在各个实施例中,基于NLP的识别***100可以由电子设备(例如计算机、膝上型计算机、手机、平板电脑或其他便携式设备)来实现。可以基于机器学习或深度学习模型来设计基于NLP的识别***100的组件,其中一些用于从原始数据中自动发现特征检测或分类所需的代表(representative)。因此,基于NLP的识别***100的组件可以包含一系列神经网络层,每个层被配置以从其输入数据中学习表征(representation),然后将其结果随后用于分类/回归。具体地,根据预定目的,可以在训练或学习期间确定模型要学习的知识种类,以使得该模型与那些基于馈入模型的数据的知识相一致。
该方法在文本源10上执行,以执行NLP任务。在各种实施例中,NLP任务可以是极性分析、文本撰写等。对于NLP任务在极性分析中的应用,该方法的输出为正面的/负面的分类。输入文本源10可以包含至少一个句子,例如具有正面的/负面的含义的评论、评价或笔记。例如,在评价餐厅的情况下,文本源10可以包含正面的评价如“服务友好且吸引人”,或者负面评价如“该餐厅不够努力”。
在图1的示例性说明中,文本源10被馈送到特征提取器110,以开始步骤S10。特征提取器110是一个基于NLP的特征提取器,被设计为可用于机器训练。在设计时,用包含所选择的语言的单词和字符的训练数据集对特征提取器110进行训练,其中训练数据集可以是单词向量字典、数百万个原始数据和文本文档等。在训练期间,特征提取器110被训练以生成向量表征(vector representation),将词或短语从一个集合映射到实数向量。因此,特征提取器110能够从句子中提取词向量中的共同特征,以形成其向量表征,从而从句子中获得词向量。
在步骤S10,对文本源10的数据预处理包括步骤S12和S14,它们分别是标记化(tokenization)和词嵌入(word embedding)。
在步骤S12,特征提取器110被配置以执行标记化,以便从文本源10中提取和标记句子中的所有词。具体来说,标记化是将文本源10的大量句子分成较小部分的一个过程,可以将其称为标记。
在步骤S14,特征提取器110被配置以将句子的每个词嵌入到一个向量中,以关于该句子而生成一个词向量例如,如果文本源10是一个句子,如“服务友好且吸引人”,则关于文本源10的一组词向量被形成为其中是用作自然语言元素(natural language element,NLE)的词向量。
在步骤S14的词嵌入之后,步骤S20继续处理词向量形成特征向量在步骤S20,特征向量的形成是由特征提取器110执行的。在各个实施例中,特征提取器110的训练还构建特征向量数据库。特征向量数据库可以在一个或多个数据库和/或文件***中实施,使用本地计算设备或连接用于特征提取器的计算设备和/或服务器去实施。在各种实施例中,用于构建特征向量数据库的训练,可以通过使用一个或多个神经网络(如长短期记忆(long short-term memory,LSTM)、门控循环单元(gated recurrent unit,GRU)、或其组合)来执行。这种神经网络在命名实体识别和时间序列图案分析(time series patternanalysis)中很有用。例如,基于实时正常差异(normal discrepancy)数据(或训练期间的正常差异训练数据集),LSTM神经网络可用于进行分类和做出预测。这样,特征提取器110能够过滤出在步骤S14中准备的词向量的共同特征,并将它们转换为单个特征向量其满足其中m是正整数。在这点上,表示特征向量是从句子的词向量中提取的m维向量。m的值与词向量共享的信息有关。更具体地,在关于极性的NLP任务中,目的是理解句子的极性。为了实现这一点,使用句子的词向量来生成特征向量是一种重要的手段。由于极性特征仅在词向量的所有特征中占一小部分,因此相应特征向量的维数可以很小。例如,如果使用100维词向量字典执行词嵌入,则20维特征向量足以表示极性信息。此外,如果要处理更复杂的任务,则应使用更大的m。
在形成特征向量之后,执行步骤S30,以通过图像处理生成一个或多个图像。在图像处理中,通过转换在步骤S20中准备的特征向量来形成一个或多个图像。具体地说,特征向量用作转换器120的输入源,然后转换器120输出一个或多个图像。在这方面,转换器120是基于NLP的转换器,其被训练为能够将特征向量转换为一个图像或一组图像。在一些实施例中,转换器120的训练涉及从一个输入向量形成一个矩阵,其中形成的矩阵可以被视为图像,这样就可以为构建机器学习的转换模型提供合理的指导。此外,存储在转换模型中的信息与训练数据有关。例如,由于NLP任务是正面的/负面的分类,所以存储在转换模型中的信息是极性分析。
此外,转换器120的NLP基础意味着转换器120依赖于所选择的语言并且包含转换向量其中参数i是从1开始的正整数;n是一个正整数;每个都与另一个正交;参数q表示图像的通道数。在各种实施例中,参数q取决于所选择的语言,被设置为与所选择的语言的词类(parts of speech)的数量相同。例如,如果将转换器120应用于基于英语的模型,则由于英语具有八个词类,因此参数q是数字8。在这点上,的数量与要输出的图像的数量相同(即,“i”个生成“i”个图像)。具体而言,有了特征向量通过计算其中是的转置,可以得到图像集I。对于图像集I,其尺寸是相关的。即,利用特征向量每个转换向量以及q个转换向量结果形成图像集I,使得并具有多个二维图像。
为了说明,如图2A所示,在步骤S20准备的特征向量和在步骤S30准备的转换向量被显示为带有块的条状。如图2B所示,二维图像[I]i是由特征向量和转换向量的乘积形成的。如前所述,“i”个生成“i”个图像,因此多个图像形成为图像集I。
参见图1和图3。在图像处理之后,执行步骤S40,对在步骤S30形成的图像执行分辨率修改,包括步骤S42和S44,分别进行上采样和特征增强。
在步骤S42,对在步骤S30中准备的图像集I进行上采样。对图像集I进行上采样,得到I',使得和其中参数t是一个大于参数n的正整数。例如,参数t可以是参数n的两倍,因此上采样图像I'满足在一些实施例中,在两个维度上执行上采样(即增加分辨率),使得上采样图像I'满足其中p>m并且t>n
图4显示图像集I的上采样。在各种实施例中,可以通过插值法来实现上采样,诸如通过插值法来重采样。具体地,如图5所示,原始图像数据I(如在步骤S30准备的图像集合I,)作为一个R×C图像,目标是将原始图像数据调整尺寸为R'×C',称为新图像数据J(如上采样图像,)。原始图像数据I有四个点A1[fi,j+1]、A2[fi+1,j+1]、A3[fi,j],和A4[fi+1,j]。在上采样期间,应用线性插值方法,通过分别在点A1[fi,j+1]和A2[fi+1,j+1]之间,以及在点A3[fi,j]和A4[fi+1,j]之间进行线性插值,获得两个点A5[fi*,j+1]和A6[fi*,j*]。接下来,通过在点A5[fi*,j+1]和A6[fi*,j*]之间线性插值,获得点A7[fi*,j*]。这样,获得的新图像数据J具有点A1-A7。
再次参见图3。然后将图像集I'传送到步骤S42之后的步骤S44,对图像集I'进行特征增强,这可以通过激活函数(activation function)来完成,从而产生特征增强的图像集I″。
为了说明,图6是本发明各种实施例的特征增强的示意图。将图像集I'的每个图像引入到激活函数中,从而获得图像[I″]q(又称特征增强图像集I”)。例如,图像集I'的图像[I′]q首先与矩阵F和B相乘,其中F和B是正交矩阵。此运算是根据奇异值分解(SingularValue Decomposition,SVD)的原理开发的。在SVD中,矩阵A分解为U×S×VT,其中矩阵U和V为正交矩阵,矩阵S为对角矩阵,其对角线值为矩阵A的奇异值。矩阵S更好地表征了矩阵A的特征。等效地,通过将矩阵A与矩阵U和V相乘来找到矩阵S(如S=UT×A×V)。因此,通过在前面和后面乘以合适的正交矩阵(如FT×[I′]q×B=[I″]q_q)来重新安排图像[I′]q的特征。在各种实施例中,在此运算之后,通过在[I″]q上应用激活,[I″]q的特征进一步增强了。在各种实施例中,将这两个运算重复几次以实现更好的特征增强。结果,图像集I'被重新安排为特征增强的图像集I”,其中参数r是等于或不同于参数m的正整数;参数s是等于或不同于参数n和t的正整数。因此,图像集I'被转换为用于NLP目的(如极性分析中的正面的/负面的分类)的特征形式。
在各个实施例中,如果在步骤S30准备的图像集I具有足够高的分辨率(如图像集I的特征的清晰度足以通过机器学习解析),则可以跳过步骤S42和S44。换句话说,当在步骤S30中准备的图像集I的分辨率不足以用于信息表征时,执行步骤S40。鉴于图像分辨率的修改,修改的特征以另一种方式表征,但是信息内容与以前相同,没有添加任何附加信息。在此,短语“修改的特征以另一种方式表征”意味着可以比原始特征更有效地捕获数据集中的重要信息,从而提高了准确性,而在高维度的操作,即对图像的操作,没有损耗其所包含的信息量。
在各个实施例中,仅执行步骤S42,但是省略步骤S44。即,步骤S42是用于执行步骤S44的条件之一。鉴于此,执行步骤S44的原因是图像分辨率修改可能伴随一些负面影响。例如,可能会出现图像模糊。因此,可以执行步骤S44的特征增强以补偿这种负面影响。在各种实施例中,为了补偿负面影响,可以通过机器学习来选择其他适当的方法。
参见图1和图7。执行步骤S50以处理NLP任务。如前所述,在图1和7的示例性图示中的NLP任务完成是极性分类,因此处理器140可以用作分类器。即,出于极性分类的目的,可以通过以机器学习的方式馈送图像来训练处理器140成为图像分类器,从而根据图像集I”找到结果用于NLP任务。步骤S50包括步骤S52、S54和S56,它们分别是图像集输入、图像处理和分类。
在步骤S52,将图像集I”发送到处理器140。在本实施例中,在步骤S30中准备的图像集I的分辨率被步骤S42和S44修改,因此将步骤S44作为处理器140的图像源。在其他实施例中,步骤S30或S42可以被视为处理器140的图像源(如在跳过步骤S40或跳过步骤S42的情况下)。
在步骤S54,将步骤S52的图像集输入到神经网络中,通过从图像中提取特征来执行图像识别。这样的神经网络可以是卷积神经网络(CNN)、全卷积网络(FCN)、多层感知器(MLP)、或其组合。即,用于图像分类的神经网络可以基于多种相对成熟的基于成像的模型之一。这样,利用由处理器140执行的图像识别,可以通过图像分类来完成NLP任务:分析句子以进行极性分类,这将有利于提高句子极性分类的准确性。
此外,二维图像的图像集包含更丰富的信息,从而可以实现更高的精度。在这方面,二维图像解开了特征向量的隐藏特征以给出更完整描述的特征向量,因此,与仅使用词向量相比,使用转换后的图像集可以揭示文本源10的更多信息。一般而言,传统方法仅将词向量(可能会被压缩)处理为NLP结果,这会丢失词向量中的许多隐藏特征。
在步骤S56,处理器140输出极性分类的结果,该结果可以显示文本源10是正极性还是负极性。简要地,一旦评论(或评价/笔记)被输入到基于NLP的识别***100中,评论则被转换成图像集,然后评论的极性可以根据图像集而被分类,从而显示评论是正面的还是负面的。
如下提供了一个极性分类的实际示例。一个餐厅有数千个评论,每个评论都是正面的或负面的句子。将评论输入到基于NLP的识别***100中进行极性分类。对于基于NLP的识别***100,将训练数据与测试的比率设置为0.2,这意味着800个句子用于训练,200个句子用于测试。使用不同的交叉验证数据集进行了多次训练,以确保不会发生过度拟合。在这里,“过度拟合”是指结果过于接近或恰好对应于一组特定数据,因此无法拟合其他数据或无法可靠地预测未来的观察结果。此外,“过度拟合”可能是由于处理模型包含的参数多于数据可以证明的参数。该示例的结果提供了较高的准确性和较高的F1分数,并且减少了所需的模型训练参数。
通过使用上述方式从特征向量转换的一些图像集在图8中示出。每一个图案P1-P3和N1-N3均由图像集构成并且是二维形式。
图案P1-P3对应正极性的三个不同评论。例如,图案P1是从根据句子“我和我的男朋友坐在吧台边并有完全令人愉快的经历”而生成的特征向量转换而来的;图案P2是从根据句子“他还回来定期检查我们优质服务”而生成的特征向量转换而来的;图案P3从根据句子“服务友好且吸引人”而生成的特征向量转换而来的。
图案N1-N3对应负极性的三个不同评论。例如,图案N1是根据句子“我最好不要专用的波巴茶点,也不要珍妮河粉”而生成的特征向量转换而来的;图案N2是从根据句子“我朋友的汉堡上的奶酪太冷了”而生成的特征向量转换而来的;图案N3是从根据句子“我认为这家餐厅不够努力”而生成的特征向量转换而来的。
对应正极性评论的图案P1-P3有相似的特征,它们与对应负极性评论的图案N1-N3不同。对于使用至少一个神经网络的机器学习,可以识别出正极性图案和负极性图案之间的这些差异,从而通过图像分类来实现极性分类。尽管图案P1-P3和N1-N3以灰度示出,但是应当理解,这些图案是示例性的,在其他实际情况下也可以以多色呈现。
参见图9。基于NLP的识别***100可以包括特征提取器110、转换器120、修改器130和处理器140。基于NLP的识别***100还可以包括导向器150和显示器160。导向器150被配置以链接到目标文本源,还接收文本源的评论,以便将评论输入到特征提取器110中。在各个实施例中,可以从网站、软件、公告板***(bulletin board system,BBS)、App应用、或其他合适来源中找到目标文本源。在基于NLP的识别***100通过特征提取器110、转换器120、修改器130和处理器140以上述方式处理文本源之后,可以将NLP任务的分类结果从处理器140发送到显示器160,以便在物理上和视觉上显示分类结果。例如,用户可以通过控制器150链接包含很多评论/评价的目标文本源,从而将基于NLP的识别***100设置为执行NLP任务以进行极性分类。然后,基于NLP的识别***100的显示器160可以显示极性分类的分类结果,以便通知用户评论/评价的极性是正面的还是负面的,以及正面的和负面的评论/评价的数量。
本文公开的电子实施例可以使用计算设备、计算机处理器、或电子电路(包括但不限于专用集成电路(ASIC)、现场可编程门阵列(FPGA)、以及根据本公开教导而配置或编程的其他可编程逻辑器件)来实现。基于本公开的教导,软件或电子领域的技术人员可以容易地准备在计算设备、计算机处理器或可编程逻辑设备中运行的计算机指令或软件代码。
电子实施例的全部或部分可以在一个或多个计算设备中执行,所述计算设备包括服务器计算机、个人计算机、膝上型计算机、移动计算设备如智能电话和平板计算机。
电子实施例包括计算机存储介质,其中存储有计算机指令或软件代码,可用于对计算机或微处理器进行编程以执行本发明的任何处理。存储介质可以包括但不限于软盘、光盘、蓝光光盘、DVD、CD-ROM、磁光盘、ROM、RAM、闪存设备或任何类型的适用于存储指令、代码和/或数据介质或设备。
本发明的各种实施例也可以在分布式计算环境和/或云计算环境中实施,其中,机器指令的全部或部分由一个或多个通过通信网络互连的处理设备以分布式方式执行,该通信网络例如是内部网、广域网(WAN)、局域网(LAN)、互联网和其他形式的数据传输介质。
为了说明和描述的目的,已经提供了本发明的前述描述。其并非旨在穷举或将本发明限制为所公开的精确形式。许多修改和变化对本领域技术人员而言是显而易见的。
选择和描述的实施例是为了最好地解释本发明的原理及其实际应用,从而使本领域的其他技术人员能够理解本发明的各种实施例以及具有适合于所设想的特定用途的各种修改。
Claims (20)
3.根据权利要求2所述的方法,其中所述转换向量中的任何两个彼此正交。
4.根据权利要求2所述的方法,其中所述参数q取决于所选择的语言,并且被设置为与所选择的语言的词类的数量相同。
5.根据权利要求2所述的方法,还包括:
通过修改器改变所述参数m和n中的至少一个来修改所述图像的分辨率,其中在修改所述图像的分辨率之后,将所述图像集输入到所述神经网络中以执行图像识别。
8.根据权利要求1所述的方法,其中分析所述句子,使得所述句子的极性被分类为正面的或负面的。
9.根据权利要求8所述的方法,还包括:
由显示器显示分类结果,以显示所述句子的极性是正面的或负面的。
10.根据权利要求8所述的方法,还包括:
由导向器链接到存储有多个不同评论的所述文本源,以便将所述评论输入到所述基于NLP的特征提取器中。
13.根据权利要求12所述的装置,其中所述转换向量中的任何两个彼此正交。
14.根据权利要求12所述的装置,其中所述参数q取决于所选择的语言,并且被设置为与所选择的语言的词类的数量相同。
15.根据权利要求12所述的装置,还包括:
修改器,其被配置以通过改变所述参数m和n中的至少一个来修改所述图像的分辨率。
18.根据权利要求11所述的装置,其中所述处理器还被配置以分析所述句子,使得所述句子的极性被分类为正面的或负面的。
19.根据权利要求18所述的装置,还包括:
显示器,其被配置以显示分类结果,以显示所述句子的极性是正面的还是负面的。
20.根据权利要求18所述的装置,还包括:
导向器,其被配置以链接到存储有多个不同评论的所述文本源,以便将所述评论输入到所述基于NLP的特征提取器中。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/820,667 | 2020-03-16 | ||
US16/820,667 US11132514B1 (en) | 2020-03-16 | 2020-03-16 | Apparatus and method for applying image encoding recognition in natural language processing |
PCT/CN2020/080514 WO2021184385A1 (en) | 2020-03-16 | 2020-03-20 | Apparatus and method for applying image encoding recognition in natural language processing |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111566665A true CN111566665A (zh) | 2020-08-21 |
CN111566665B CN111566665B (zh) | 2021-07-30 |
Family
ID=72074013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080000364.3A Active CN111566665B (zh) | 2020-03-16 | 2020-03-20 | 在自然语言处理中应用图像编码识别的装置和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111566665B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI800874B (zh) * | 2021-07-21 | 2023-05-01 | 國立臺灣科技大學 | 高適應性影像編碼方法與影像辨識方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372107A (zh) * | 2016-08-19 | 2017-02-01 | 中兴通讯股份有限公司 | 自然语言文句库的生成方法及装置 |
WO2017162134A1 (zh) * | 2016-03-22 | 2017-09-28 | 索尼公司 | 用于文本处理的电子设备和方法 |
CN108345633A (zh) * | 2017-12-29 | 2018-07-31 | 天津南大通用数据技术股份有限公司 | 一种自然语言处理方法及装置 |
US20190156156A1 (en) * | 2017-11-17 | 2019-05-23 | Hong Kong Applied Science and Technology Research Institute Company Limited | Flexible integrating recognition and semantic processing |
-
2020
- 2020-03-20 CN CN202080000364.3A patent/CN111566665B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017162134A1 (zh) * | 2016-03-22 | 2017-09-28 | 索尼公司 | 用于文本处理的电子设备和方法 |
CN106372107A (zh) * | 2016-08-19 | 2017-02-01 | 中兴通讯股份有限公司 | 自然语言文句库的生成方法及装置 |
US20190156156A1 (en) * | 2017-11-17 | 2019-05-23 | Hong Kong Applied Science and Technology Research Institute Company Limited | Flexible integrating recognition and semantic processing |
CN108345633A (zh) * | 2017-12-29 | 2018-07-31 | 天津南大通用数据技术股份有限公司 | 一种自然语言处理方法及装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI800874B (zh) * | 2021-07-21 | 2023-05-01 | 國立臺灣科技大學 | 高適應性影像編碼方法與影像辨識方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111566665B (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chu et al. | Automatic image captioning based on ResNet50 and LSTM with soft attention | |
CN110309839B (zh) | 一种图像描述的方法及装置 | |
US11720761B2 (en) | Systems and methods for intelligent routing of source content for translation services | |
CN113127624A (zh) | 问答模型的训练方法及装置 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
KR20200087977A (ko) | 멀티모달 문서 요약 시스템 및 방법 | |
CN112347787A (zh) | 方面级别情感分类方法、装置、设备及可读存储介质 | |
CN111985243B (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
WO2019115200A1 (en) | System and method for efficient ensembling of natural language inference | |
Fang et al. | A method of automatic text summarisation based on long short-term memory | |
Alroobaea | Sentiment analysis on amazon product reviews using the recurrent neural network (rnn) | |
Zhou et al. | A neural group-wise sentiment analysis model with data sparsity awareness | |
CN111566665B (zh) | 在自然语言处理中应用图像编码识别的装置和方法 | |
Bharathi et al. | Machine Learning Based Approach for Sentiment Analysis on Multilingual Code Mixing Text. | |
CN112528989B (zh) | 一种图像语义细粒度的描述生成方法 | |
CN112132075B (zh) | 图文内容处理方法及介质 | |
Tannert et al. | FlowchartQA: the first large-scale benchmark for reasoning over flowcharts | |
CN109446518B (zh) | 语言模型的解码方法及解码器 | |
US11132514B1 (en) | Apparatus and method for applying image encoding recognition in natural language processing | |
CN115269901A (zh) | 拓展图像生成方法、装置和设备 | |
Jain et al. | Semantic Image Captioning using Cosine Similarity Ranking with Semantic Search | |
Dehaqi et al. | Adversarial image caption generator network | |
CN114091662B (zh) | 一种文本图像生成方法、装置及电子设备 | |
CN112686052B (zh) | 试题推荐及相关模型的训练方法、电子设备、存储装置 | |
Molina | Behind the Scenes of AI in Art |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |