CN110083726A - 一种基于ugc图片数据的目的地形象感知方法 - Google Patents
一种基于ugc图片数据的目的地形象感知方法 Download PDFInfo
- Publication number
- CN110083726A CN110083726A CN201910181764.8A CN201910181764A CN110083726A CN 110083726 A CN110083726 A CN 110083726A CN 201910181764 A CN201910181764 A CN 201910181764A CN 110083726 A CN110083726 A CN 110083726A
- Authority
- CN
- China
- Prior art keywords
- picture
- ugc
- image data
- adjective
- destination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于UGC图片数据的目的地形象感知方法,包括以下步骤:S1:获取或抓取旅游目的地的UGC图片数据,并根据UGC图片数据进行数据清洗;S2:对清洗后的UGC图片数据,根据UGC图片数据的内容的进行标注;S3:根据标注进行情感极性分类和认知词频分析;S4:结合情感极性分类和认知词频分析,形成对目的地形象的综合感知。本发明提供了一种基于UGC图片数据的目的地形象感知方法为旅游目的地形象感知提供了新的角度和方法,充分利用了目前利用程度尚不充足的UGC图片数据,采用机器学习和深度学习的手段,从认知和情感两个层面出发,更加客观地形成了对旅游目的地形象的综合感知,可以为目的地的旅游管理和营销提供更全面的数据参考和决策支持。
Description
技术领域
本发明涉及机器学习技术领域,更具体的说是涉及一种基于UGC图片数据的目的地形象感知方法。
背景技术
旅游目的地的形象感知即感知旅游者对旅游目的地所持的印象,进而可以推测出旅游者对目的地的偏好,在目的地旅游管理与营销中有着不可或缺的作用。目前对目的地形象感知研究的主要方法是通过主观问卷的方式;这种方式具有较强的主观性,且获取到的信息非常有限。
现阶段也出现了对于目的地图片进行人工标注分析的方法,但这种方法同样受制于效率有限,无法适应大规模的样本集,一般的数据样本量不超过3000张图片。近年来随着互联网社交网络的发展,网络上存在非常多与旅游目的地相关的用户生成内容(UGC,UserGenerated Content)图片数据,根据以往研究结果,旅游者认为与旅游目的地相关的UGC图片数据相较于目的地营销组织(DMO,Destination Marketing Organization)所发布的目的地图片更有可信度,主要的一个原因是UGC图片数据是从旅游者视角出发而形成的对目的地形象的感知,因此与目的地相关的UGC图片数据实际具有非常重要的研究和商业价值。目前主流目的地形象图片分析方法显然无法适应数以万计UGC图片的数据量,因而在这方面数据利用上明显存在很大的不足。
因此,如何提供一种客观、效率高的目的地形象感知方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于UGC图片数据的目的地形象感知方法为旅游目的地形象感知提供了新的角度和方法,即对UGC图片进行分析,观察从旅游者视角出发的目的地形象感知。充分利用了目前利用程度尚不充足的UGC图片数据,采用机器学习和深度学习的手段,从“认知”和“情感”两个层面出发,更加客观地形成了对旅游目的地形象的综合感知,可以为目的地的旅游管理和营销提供更全面的数据参考和决策支持。
为了实现上述目的,本发明提供如下技术方案:
一种基于UGC图片数据的目的地形象感知方法,包括以下步骤:
S1:获取或抓取旅游目的地的UGC图片数据,并根据所述UGC图片数据进行数据清洗;
S2:对清洗后的UGC图片数据,根据UGC图片数据的内容的进行标注;
S3:根据所述标注进行情感极性分类和认知词频分析;
S4:结合所述情感极性分类和所述认知词频分析,形成对目的地形象的综合感知。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,步骤1中所述UGC图片数据包括:UGC图片、图片元数据和图片评论中的一种或几种;
其中,所述图片元数据为照片ID、使用者的ID、使用者昵称、拍照日期、更新日期、拍照设备、标题、描述;
所述图片评论为人的情感内容。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,UGC图片数据的内容为图片元数据和图片评论进行分词及词性标注;
其中图片元数据包含的名词作为图片的内容的“认知”标签进行标注,形容词作为图片的“情感”标签进行标注;
对图片评论进行分词及词性标注,其中的形容词同样作为图片的“情感”标签进行标注。
其中需要了解的是关于“情感”标签并非狭义的情感主要是关于形容词进行标注,例如雄伟的天安门,绿色的高山,其中雄伟的、绿色的均属于“情感”标签。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,UGC图片数据的内容为UGC图片,将UGC图片的图像内容标注为形容词+名词的组合,同时利用公开已有的以形容词+名词的组合对图片进行标注的图片数据集共同作为训练集对卷积神经网络进行训练。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,对图片元数据中包含的名词进行词频分析;图片元数据中包含的形容词和图片评论的形容词进行词频分析。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,利用训练好的卷积神经网络模型对UGC图片的图像内容进行预测分析,提取UGC图片的图像内容中的形容词和名词特征,形成与对UGC图片的图像内容相关的形容词+名词的组合,选取其中相关性最强的一个形容词+名词的组合作为对图像内容的描述。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,将所有UGC图片分析得到的形容词+名词的组合进行汇总,提取其中所有的形容词,对其中的一部分数据进行人工情感极性标注形成训练集,用以训练卷积神经网络模型,并对所有形容词+名词的组合数据进行情感极性分类;将得到的情感极性作为形容词的情感极性对其进行标注,并对所有形容词进行词频分析。
优选的,在上述的一种基于UGC图片数据的目的地形象感知方法中,所述UGC图片包含图片元数据或图片评论,对图片元数据中包含的名词进行词频分析;图片元数据中包含的形容词和图片评论的形容词进行词频分析。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于UGC图片数据的目的地形象感知方法为旅游目的地形象感知提供了新的角度和方法,即对UGC图片进行分析,观察从旅游者视角出发的目的地形象感知。充分利用了目前利用程度尚不充足的UGC图片数据,采用机器学习和深度学习的手段,从“认知”和“情感”两个层面出发,更加客观地形成了对旅游目的地形象的综合感知,可以为目的地的旅游管理和营销提供更全面的数据参考和决策支持。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明的流程图;
图2附图为本发明的实施例1的框架图;
图3附图为本发明的实施例2的框架图;
图4附图为本发明的实施例3的框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于UGC图片数据的目的地形象感知方法为旅游目的地形象感知提供了新的角度和方法,即对UGC图片进行分析,观察从旅游者视角出发的目的地形象感知。充分利用了目前利用程度尚不充足的UGC图片数据,采用机器学习和深度学习的手段,从“认知”和“情感”两个层面出发,更加客观地形成了对旅游目的地形象的综合感知,可以为目的地的旅游管理和营销提供更全面的数据参考和决策支持。
实施例1:
如图2所示,一种基于UGC图片数据的目的地形象感知方法,包括以下步骤:
S1:获取或抓取旅游目的地的图片元数据和图片评论,并根据所述UGC图片数据进行数据清洗;
S2:对清洗后的图片元数据和图片评论进行标注;
S21:利用自然语言处理工具对图片元数据进行分词和词性标注。
S22:由于名词可以更好对图片所包含的内容进行反映,即人对图片内容的“认知”,故提取图片元数据中的名词作为图片的“认知”标签对图片进行标注。由于图片元数据中的形容词可以更好地反映发图者对图片内容的主观情感,因此提取元数据中的形容词作为图片的“情感”标签对图片进行标注。
S23:利用自然语言处理工具对图片评论内容进行分词和词性标注。
S24:由于评论中的形容词可以更好对读图者(viewer)看到图片后的直观感受进行反映,即人对图片内容的“情感”感受,故提取图片评论中的形容词作为图片的“情感”标签对图片进行标注。
S3:根据所述标注进行情感极性分类和认知词频分析;
S31:对图片元数据中包含的名词进行词频分析,即对所有图片的“认知”内容进行频次分析,可以得到旅游者对旅游目的地“认知”内容及出现的频次。
S32:将得到的名词进行维度划分,并参考以往研究得到如:自然风光、人物、设施等维度。进而形成对目的地“认知”层面的形象感知。
S33:对图片元数据中含有形容词的部分及每条图片评论的内容进行情感极性分类(正向为1,负向为-1),将情感极性分析结果标注给图片元数据及图片评论中的形容词作为形容词的情感极性。对图片元数据和图片评论中的形容词进行词频分析,形成对旅游目的地“情感”层面的形象感知(包括正面形象和负面形象)。
S331:对图片评论的一部分数据进行人工情感极性标注形成训练集,用以训练卷积神经网络(CNN,Convolutional Neural Network)模型,并对所有图片元数据中含有形容词的部分及图片评论数据进行情感极性分类(正向为1,负向为-1)。
S332:由于图片评论绝大多数为简短评论,而图片元数据中含有形容词的部分一般为一个短语,均只含有单一情感极性,因此将图片元数据中含有形容词的部分或一条评论内容整体的情感极性作为标签标注给图片元数据或图片评论中的形容词,作为形容词的情感极性。
S333:将图片元数据及图片评论中的形容词进行词频分析,形成对目的地“情感”层面的形象感知(包括正面形象和负面形象)。
S4:结合所述情感极性分类和所述认知词频分析,形成对目的地形象的综合感知。
S41:综合“认知”层面和“情感”层面,可以分别得到旅游者对旅游目的地总体的“认知”形象感知和“情感”形象感知(包括正面形象和负面形象)。
S42:由于图片元数据及图片评论中的形容词是针对每张图片进行标注的,因而可以在得到总体形象感知的基础上得到划分的维度中每一个维度的“认知”形象感知和“情感”形象感知(包括正面形象和负面形象)。
为了进一步优化上述技术方案,所述图片元数据为照片ID、使用者的ID、使用者昵称、拍照日期、更新日期、拍照设备、标题、描述;
所述图片评论为人的情感内容。
实施例2:
如图3所示,一种基于UGC图片数据的目的地形象感知方法,包括以下步骤:
S1:通过社交网站的API接口获取或抓取旅游目的地相关的UGC图片。
S2:对部分UGC图片进行标注,将UGC图片的图像内容标注为形容词+名词的组合(ANP,Adjective-Noun Pair),同时利用公开已有的以ANP对图片进行标注的图片数据集共同作为训练集对卷积神经网络(CNN,Convolutional Neural Network)进行训练。
S3:利用训练好的卷积神经网络模型对UGC图片的图像内容进行预测分析,提取UGC图片图像内容中的情感(形容词)和认知(具体名词)特征,形成与对UGC图片的图像内容相关的ANP,选取其中相关性最强的一个ANP作为对图像内容的描述。例如:一张北京故宫相关的图片,可被解析为一组包含2089项ANP的数据结果,结果根据ANP与图像内容的相关性进行排序,排序靠前的ANP其数值越大,表示其与图像内容更为相关,选取其中相关性最强的一个ANP作为对图像内容的描述。
S4:将所有UGC图片分析得到的ANP进行汇总,提取其中所有的名词进行维度划分(同实施例1)和词频分析,形成对旅游目的地“认知”层面的形象感知。
S5:将所有UGC图片分析得到的ANP进行汇总,提取其中所有的形容词,对其中的一部分数据进行人工情感极性标注形成训练集,用以训练卷积神经网络(CNN,ConvolutionalNeural Network)模型,并对所有ANP数据进行情感极性分类(正向为1,负向为-1)。将得到的情感极性作为形容词的情感极性对其进行标注,并对所有形容词进行词频分析。由此形成对旅游目的地“情感”层面的形象感知(包括正面形象和负面形象)。
S6:综合“认知”形象和“情感”形象两方面可以形成对目的地形象的综合感知。
实施例3:
一种基于UGC图片数据的目的地形象感知方法,包括以下步骤:
S1:通过社交网站的API接口获取或抓取旅游目的地相关的UGC图片。
S2:若UGC图片包含图片元数据或图片评论,执行步骤S21;如不包含图片元数据或图片评论;执行S201;
S21:利用自然语言处理工具对图片元数据进行分词和词性标注,执行S22
S22:由于名词可以更好对图片所包含的内容进行反映,即人对图片内容的“认知”,故提取图片元数据中的名词作为图片的“认知”标签对图片进行标注。由于图片元数据中的形容词可以更好地反映发图者对图片内容的主观情感,因此提取元数据中的形容词作为图片的“情感”标签对图片进行标注,执行S23;
S23:利用自然语言处理工具对图片评论内容进行分词和词性标注,执行S24;
S24:由于评论中的形容词可以更好对读图者(viewer)看到图片后的直观感受进行反映,即人对图片内容的“情感”感受,故提取图片评论中的形容词作为图片的“情感”标签对图片进行标注;执行S31;
S31:对图片元数据中包含的名词进行词频分析,即对所有图片的“认知”内容进行频次分析,可以得到旅游者对旅游目的地“认知”内容及出现的频次;执行S32;
S32:将得到的名词进行维度划分,并参考以往研究得到如:自然风光、人物、设施等维度。进而形成对目的地“认知”层面的形象感知;执行S33;
S33:对图片元数据中含有形容词的部分及每条图片评论的内容进行情感极性分类(正向为1,负向为-1),将情感极性分析结果标注给图片元数据及图片评论中的形容词作为形容词的情感极性。对图片元数据和图片评论中的形容词进行词频分析,形成对旅游目的地“情感”层面的形象感知(包括正面形象和负面形象);执行S6;
S201:对部分UGC图片进行标注,将UGC图片的图像内容标注为形容词+名词的组合(ANP,Adjective-Noun Pair),同时利用公开已有的以ANP对图片进行标注的图片数据集共同作为训练集对卷积神经网络(CNN,Convolutional Neural Network)进行训练;执行S3;
S3:利用训练好的卷积神经网络模型对UGC图片的图像内容进行预测分析,提取UGC图片图像内容中的情感(形容词)和认知(具体名词)特征,形成与对UGC图片的图像内容相关的ANP,选取其中相关性最强的一个ANP作为对图像内容的描述。例如:一张北京故宫相关的图片,可被解析为一组包含2089项ANP的数据结果,结果根据ANP与图像内容的相关性进行排序,排序靠前的ANP其数值越大,表示其与图像内容更为相关,选取其中相关性最强的一个ANP作为对图像内容的描述;执行S4;
S4:将所有UGC图片分析得到的ANP进行汇总,提取其中所有的名词进行维度划分(同实施例1)和词频分析,形成对旅游目的地“认知”层面的形象感知;执行S5
S5:将所有UGC图片分析得到的ANP进行汇总,提取其中所有的形容词,对其中的一部分数据进行人工情感极性标注形成训练集,用以训练卷积神经网络(CNN,ConvolutionalNeural Network)模型,并对所有ANP数据进行情感极性分类(正向为1,负向为-1)。将得到的情感极性作为形容词的情感极性对其进行标注,并对所有形容词进行词频分析。由此形成对旅游目的地“情感”层面的形象感知(包括正面形象和负面形象)执行S6;
S6:综合“认知”形象和“情感”形象两方面可以形成对目的地形象的综合感知。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种基于UGC图片数据的目的地形象感知方法,其特征在于,包括以下步骤:
S1:获取或抓取旅游目的地的UGC图片数据,并根据所述UGC图片数据进行数据清洗;
S2:对清洗后的UGC图片数据,根据UGC图片数据的内容进行人为标注;
S3:根据所述标注进行情感极性分类和认知词频分析;
S4:结合所述情感极性分类和所述认知词频分析,形成对目的地形象的综合感知。
2.根据权利要求1所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,步骤1中所述UGC图片数据包括:UGC图片、图片元数据和图片评论中的一种或几种;
其中,所述图片元数据为照片ID、使用者的ID、使用者昵称、拍照日期、更新日期、拍照设备、标题、描述;
所述图片评论为人的情感内容。
3.根据权利要求2所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,UGC图片数据的内容为图片元数据和图片评论进行分词及词性标注;
其中图片元数据包含的名词作为图片的内容的“认知”标签进行标注,形容词作为图片的“情感”标签进行标注;
对图片评论进行分词及词性标注,其中的形容词同样作为图片的“情感”标签进行标注。
4.根据权利要求2所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,UGC图片数据的内容为UGC图片,将UGC图片的图像内容标注为形容词+名词的组合,同时利用公开已有的以形容词+名词的组合对图片进行标注的图片数据集共同作为训练集对卷积神经网络进行训练。
5.根据权利要求3所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,对图片元数据中包含的名词进行词频分析;图片元数据中包含的形容词和图片评论的形容词进行词频分析。
6.根据权利要求4所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,利用训练好的卷积神经网络模型对UGC图片的图像内容进行预测分析,提取UGC图片的图像内容中的形容词和名词特征,形成与对UGC图片的图像内容相关的形容词+名词的组合,选取其中相关性最强的一个形容词+名词的组合作为对图像内容的描述。
7.根据权利要求6所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,将所有UGC图片分析得到的形容词+名词的组合进行汇总,提取其中所有的形容词,对其中的一部分数据进行人工情感极性标注形成训练集,用以训练卷积神经网络模型,并对所有形容词+名词的组合数据进行情感极性分类;将得到的情感极性作为形容词的情感极性对其进行标注,并对所有形容词进行词频分析。
8.根据权利要求2、4、6、7中任一项所述的一种基于UGC图片数据的目的地形象感知方法,其特征在于,所述UGC图片包含图片元数据或图片评论,对图片元数据中包含的名词进行词频分析;图片元数据中包含的形容词和图片评论的形容词进行词频分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910181764.8A CN110083726B (zh) | 2019-03-11 | 2019-03-11 | 一种基于ugc图片数据的目的地形象感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910181764.8A CN110083726B (zh) | 2019-03-11 | 2019-03-11 | 一种基于ugc图片数据的目的地形象感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110083726A true CN110083726A (zh) | 2019-08-02 |
CN110083726B CN110083726B (zh) | 2021-10-22 |
Family
ID=67412414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910181764.8A Active CN110083726B (zh) | 2019-03-11 | 2019-03-11 | 一种基于ugc图片数据的目的地形象感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110083726B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750745A (zh) * | 2019-10-16 | 2020-02-04 | 四川大学 | 基于旅游ugc的目的地形象可视化方法 |
CN116757202A (zh) * | 2023-06-26 | 2023-09-15 | 中国科学院地理科学与资源研究所 | 一种旅游意象偏差定量化测算方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104636425A (zh) * | 2014-12-18 | 2015-05-20 | 北京理工大学 | 一种网络个体或群体情绪认知能力预测与可视化方法 |
CN106022878A (zh) * | 2016-05-19 | 2016-10-12 | 华南理工大学 | 基于社区评论情感倾向性分析的手游排行榜构建方法 |
US20160370353A1 (en) * | 2008-01-17 | 2016-12-22 | Technische Universität Dresden Medizinische Fakultät Carl Gustav Carus | Method for distinguishing secretory granules of different ages |
CN106599824A (zh) * | 2016-12-09 | 2017-04-26 | 厦门大学 | 一种基于情感对的gif动画情感识别方法 |
CN106777040A (zh) * | 2016-12-09 | 2017-05-31 | 厦门大学 | 一种基于情感极性感知算法的跨媒体微博舆情分析方法 |
CN106886580A (zh) * | 2017-01-23 | 2017-06-23 | 北京工业大学 | 一种基于深度学习的图片情感极性分析方法 |
CN107679580A (zh) * | 2017-10-21 | 2018-02-09 | 桂林电子科技大学 | 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法 |
CN108038725A (zh) * | 2017-12-04 | 2018-05-15 | 中国计量大学 | 一种基于机器学习的电商产品客户满意度分析方法 |
CN109034893A (zh) * | 2018-07-20 | 2018-12-18 | 成都中科大旗软件有限公司 | 一种旅游网络评论情感分析及服务质量评价方法 |
CN109213852A (zh) * | 2018-07-13 | 2019-01-15 | 北京第二外国语学院 | 一种旅游目的地图片推荐方法 |
CN109376239A (zh) * | 2018-09-29 | 2019-02-22 | 山西大学 | 一种用于中文微博情感分类的特定情感词典的生成方法 |
-
2019
- 2019-03-11 CN CN201910181764.8A patent/CN110083726B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160370353A1 (en) * | 2008-01-17 | 2016-12-22 | Technische Universität Dresden Medizinische Fakultät Carl Gustav Carus | Method for distinguishing secretory granules of different ages |
CN104636425A (zh) * | 2014-12-18 | 2015-05-20 | 北京理工大学 | 一种网络个体或群体情绪认知能力预测与可视化方法 |
CN106022878A (zh) * | 2016-05-19 | 2016-10-12 | 华南理工大学 | 基于社区评论情感倾向性分析的手游排行榜构建方法 |
CN106599824A (zh) * | 2016-12-09 | 2017-04-26 | 厦门大学 | 一种基于情感对的gif动画情感识别方法 |
CN106777040A (zh) * | 2016-12-09 | 2017-05-31 | 厦门大学 | 一种基于情感极性感知算法的跨媒体微博舆情分析方法 |
CN106886580A (zh) * | 2017-01-23 | 2017-06-23 | 北京工业大学 | 一种基于深度学习的图片情感极性分析方法 |
CN107679580A (zh) * | 2017-10-21 | 2018-02-09 | 桂林电子科技大学 | 一种基于多模态深度潜在关联的异构迁移图像情感极性分析方法 |
CN108038725A (zh) * | 2017-12-04 | 2018-05-15 | 中国计量大学 | 一种基于机器学习的电商产品客户满意度分析方法 |
CN109213852A (zh) * | 2018-07-13 | 2019-01-15 | 北京第二外国语学院 | 一种旅游目的地图片推荐方法 |
CN109034893A (zh) * | 2018-07-20 | 2018-12-18 | 成都中科大旗软件有限公司 | 一种旅游网络评论情感分析及服务质量评价方法 |
CN109376239A (zh) * | 2018-09-29 | 2019-02-22 | 山西大学 | 一种用于中文微博情感分类的特定情感词典的生成方法 |
Non-Patent Citations (4)
Title |
---|
NING DENG 等: "Feeling a destination through the "right" photos:A machine learning model for DMOs" photo selection", 《TOURISM MANAGEMENT》 * |
SPYROU E等: "Analyzing Flickr metadata to extract", 《NEUROCOMPUTING》 * |
邓宁 等: "基于UGC图片元数据的目的地形象感知", 《旅游学刊》 * |
陈麦池: "基于目的地品牌化的中国国家旅游形象感知***研究", 《四川旅游学院学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110750745A (zh) * | 2019-10-16 | 2020-02-04 | 四川大学 | 基于旅游ugc的目的地形象可视化方法 |
CN110750745B (zh) * | 2019-10-16 | 2022-06-14 | 四川大学 | 基于旅游ugc的目的地形象可视化方法 |
CN116757202A (zh) * | 2023-06-26 | 2023-09-15 | 中国科学院地理科学与资源研究所 | 一种旅游意象偏差定量化测算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110083726B (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107239801A (zh) | 视频属性表示学习方法及视频文字描述自动生成方法 | |
Kilgarriff et al. | Corpora and language learning with the Sketch Engine and SKELL | |
CN107239529A (zh) | 一种基于深度学习的舆情热点类别划分方法 | |
CN106156335A (zh) | 一种教材知识点的挖掘整理方法和*** | |
CN109766465A (zh) | 一种基于机器学习的图文融合图书推荐方法 | |
CN106909572A (zh) | 一种问答知识库的构建方法和装置 | |
CN110083726A (zh) | 一种基于ugc图片数据的目的地形象感知方法 | |
CN107402912A (zh) | 解析语义的方法和装置 | |
CN109033166B (zh) | 一种人物属性抽取训练数据集构建方法 | |
Rahimi-Dadkan et al. | Relationship among occupational adjustment, psychological empowerment and job burnout in faculty members | |
CN109408726B (zh) | 问答网站中问题回答者推荐方法 | |
CN109614480A (zh) | 一种基于生成式对抗网络的自动摘要的生成方法及装置 | |
CN110147552A (zh) | 基于自然语言处理的教育资源质量评价挖掘方法及*** | |
CN113298367A (zh) | 一种主题公园感知价值评估方法 | |
CN116821377A (zh) | 基于知识图谱和大模型的小学语文自动评测*** | |
Bhuvaneswari et al. | A study on emotional intelligence of higher secondary school teachers in Chengalpattu district. | |
CN109902920A (zh) | 用户成长体系的管理方法、装置、设备及存储介质 | |
Blake et al. | Natural language generation for nature conservation: Automating feedback to help volunteers identify bumblebee species | |
CN116611447A (zh) | 一种基于深度学习方法的信息抽取和语义匹配***及方法 | |
CN110162684A (zh) | 基于深度学习的机器阅读理解数据集构建以及评估方法 | |
CN105678325A (zh) | 一种文本情感标注方法、装置及*** | |
Wu et al. | Quality evaluation system of online courses based on review data | |
Etemadiour et al. | Components of Ideation in designing process by semiotic approach with factor analysis in R | |
CN109410100A (zh) | 推荐教师方法、***及装置 | |
Andre | Advances in human factors in training, education, and learning sciences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |