CN113450187A - 基于场景的商品关联方法、***、电子设备及存储介质 - Google Patents

基于场景的商品关联方法、***、电子设备及存储介质 Download PDF

Info

Publication number
CN113450187A
CN113450187A CN202110691279.2A CN202110691279A CN113450187A CN 113450187 A CN113450187 A CN 113450187A CN 202110691279 A CN202110691279 A CN 202110691279A CN 113450187 A CN113450187 A CN 113450187A
Authority
CN
China
Prior art keywords
scene
video
commodity
words
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110691279.2A
Other languages
English (en)
Inventor
李嘉琛
付骁弈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Minglue Artificial Intelligence Group Co Ltd
Original Assignee
Shanghai Minglue Artificial Intelligence Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Minglue Artificial Intelligence Group Co Ltd filed Critical Shanghai Minglue Artificial Intelligence Group Co Ltd
Priority to CN202110691279.2A priority Critical patent/CN113450187A/zh
Publication of CN113450187A publication Critical patent/CN113450187A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0627Directed, with specific intent or strategy using item specifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出一种基于场景的商品关联方法、***、电子设备及存储介质,其方法技术方案包括商品数据集构建步骤,获取商品信息构建一商品数据集,所述商品信息包括商品描述;视频数据集构建步骤,获取视频信息构建一视频数据集,所述视频信息包括视频文字信息;场景词库构建步骤,标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联;视频场景关联步骤,将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。本申请解决了现有方法无法给出类别关联的电商产品的问题。

Description

基于场景的商品关联方法、***、电子设备及存储介质
技术领域
本发明属于智能推荐技术领域,尤其涉及一种基于场景的商品关联方法、***、电子设备及存储介质。
背景技术
随着互联网的高速发展,短视频逐渐在人们的日常娱乐时间占有越来越高的比例,广告投放希望可以针对视频内容精准推送产品进行营销。人工智能技术的发展也使得我们可以从视频图像中提取出物理标签(视频画面中的物体),通过对视频中语音转换得到的文本。视频内容可以与营销专家挑选出的、适合营销的主题关联。
而现有的训练简单的主题分类模型,无法给出类别关联的电商产品。
发明内容
本申请实施例提供了一种基于场景的商品关联方法、***、电子设备及存储介质,以至少解决现有方法无法给出类别关联的电商产品的问题。
第一方面,本申请实施例提供了一种基于场景的商品关联方法,包括:商品数据集构建步骤,获取商品信息构建一商品数据集,所述商品信息包括商品描述;视频数据集构建步骤,获取视频信息构建一视频数据集,所述视频信息包括视频文字信息;场景词库构建步骤,标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联;视频场景关联步骤,将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
优选的,所述场景词库构建步骤进一步包括:通过一序列标注模型标注所述商品描述中的场景词。
优选的,所述场景词库构建步骤进一步包括:将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
优选的,所述视频场景关联步骤进一步包括:获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
第二方面,本申请实施例提供了一种基于场景的商品关联***,适用于上述一种基于场景的商品关联方法,包括:商品数据集构建模块,获取商品信息构建一商品数据集,所述商品信息包括商品描述;视频数据集构建模块,获取视频信息构建一视频数据集,所述视频信息包括视频文字信息;场景词库构建模块,标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联;视频场景关联模块,将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
在其中一些实施例中,所述场景词库构建模块进一步包括:通过一序列标注模型标注所述商品描述中的场景词。
在其中一些实施例中,所述场景词库构建模块进一步包括:将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
在其中一些实施例中,所述视频场景关联模块进一步包括:获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
第三方面,本申请实施例提供了一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的一种基于场景的商品关联方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的一种基于场景的商品关联方法。
本申请可应用于深度学习技术领域。相比于相关技术,本申请实施例提供的一种基于场景的商品关联方法结合多种有监督和无监督模型,同时预测出主题分类和相关营销场景的产品,将视频中的信息与营销主题和适合营销的产品进行关联,
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明的基于场景的商品关联方法流程图;
图2为本发明的基于场景的商品关联***的框架图;
图3为本发明的电子设备的框架图;
以上图中:
1、商品数据集构建模块;2、视频数据集构建模块;3、场景词库构建模块;4、视频场景关联模块;60、总线;61、处理器;62、存储器;63、通信接口。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
以下,结合附图详细介绍本发明的实施例:
在具体实施中,首先基于已有的会话文本和对应的数据标签构建训练数据集和测试数据集,可选的,其中训练集和测试集按照8:2的比例进行划分,80%的数据用于训练模型,20%的数据用于测试。
图1为本发明的基于场景的商品关联方法流程图,请参见图1,本发明基于场景的商品关联方法包括如下步骤:
S1:获取商品信息构建一商品数据集,所述商品信息包括商品描述。
在具体实施中,商品数据集可为一电商平台公开发布的大数据集,可选的,可为淘宝公开发布的大数据集,在该数据集中,包括了200多万条文本数据,每条数据具有一个商品标签和商品描述,其中商品标签是商品的关键词,商品描述是商品的宣传文案。
S2:获取视频信息构建一视频数据集,所述视频信息包括视频文字信息。
在具体实施中,视频可以是节选自电视剧、电影或短视频平台的视频片段,视频信息包括视频的语音文本、物理标签。其中,视频的语音文本是其自动语音识别结果,物理标签是视频中出现的物体进行物体检测识别的结果,语音文本、物理标签统称为视频文字信息。可选的,视频信息还包括标注的主题类别,主题分类营销专家选定一些具有营销价值的主题,通过人工进行标注标签。
S3:标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联。
在具体实施中,首先给场景定义,即什么是场景,营销中场景的定义是消费者购买产品或使用产品的时间点、地点、目的等,比如「宴会穿搭」、「约会必备物品」中,「宴会」和「约会」就是购买相关产品的场景。
可选的,通过一序列标注模型标注所述商品描述中的场景词。
在具体实施中,序列标注模型是给一个具有顺序的序列,例如文本序列,每一个字符(汉字、数字、符号)是序列的一个单元,每一个单元具有一个标签,通过训练序列标注模型去预测序列中每一个单元的标签。序列标注模型的实现包括但不限于条件随机场模型、循环神经网络模型或基于预训练语言模型微调获得的模型等。使用序列标注模型在商品数据集上预测场景词语,去重后获得一个场景词库。
在具体实施中,对商品数据集的商品描述的文本提取出来,标注消费场景相关词语。标注时可以使用但不限于BIO格式标注方法,BIO格式即词语开头标注B,词语中间标注I,词语以外的字符标注O。
可选的,将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
在具体实施中,从大量数据获取到场景词库后,发现许多场景词语代表同一个消费领域,比如「产前」和「产后」都是母婴类,因此对场景词做聚类分析。
例如,有3个词语「孕产」、「母婴」、「过年」,可以自然看出「孕产」和「母婴」是更为近似的词语,但是机器不能理解自然的语言,因此需要将自然语言的词语映射到一个数学上的向量,并且使用一个向量的相似度的计算方式(比如余弦相似度等等),目的是为了让相似的词语对应的向量之间相似度更大。在具体实施中,将词语映射为特征向量的方法包括但不限于预训练的语言模型、词向量模型等。可选的,可使用BERT预训练模型将句子编码为一个N×F维的矩阵,其中N是句子中包含的字符个数,每个字符用一个F维的向量表示,可通过序列标注模型识别出场景词在句子编码特征矩阵中对应位置的向量表示。
在具体实施中,用场景词特征向量训练聚类模型,可选的,聚类算法包括但不限于K-means算法,K代表有K个类别。K-means算法是将特征向量进行聚类分析的模型,给定最终希望得到的族数量,通过计算向量之间的相似度,将最相似的点聚为一类,将类的中心点作为新点,逐次迭代最终得到目标类别数量。每一个场景词语都可以对应到K类中的一类,相近意思的词语,例如「产前」和「产后」属于同一类。而不是场景词语的词语带入聚类模型也会被分到最近似的场景类别。
S4:将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
可选的,获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
在具体实施中,对视频数据集中的一条文本先分词,每个词语通过聚类模型归为K类中的一类,一条文本就可以转为对于场景类别的K维频次向量,再对场景特征向量按照TF-IDF(频率-逆文档频率)的思路加权,训练KNN分类器。
在具体实施中,首先将视频数据集中的语音文本text和物理标签tag切分,可选的,可以使用分词模型或者按照标点符号切分。随后将目标原文(即语音文本text和物理标签tag的拼接)输入一预训练语言模型,按照切分词语结果得到每个词语在目标原文中对应的特征向量。目标原文中包含的所有词语的场景分类合计起来类别频数,得到一个场景类别频数向量,是一个K维的向量(对应k-means模型的K类),其中目标原文中假设没有一个词语被分到第i类,那么K维向量的第i个元素为0。
最后,计算场景类别的逆文档频率作为惩罚项,经过惩罚后的K维特征向量,训练有监督的主题分类模型,包括但不限于k最邻近模型(K Nearest Neighbor模型,简称KNN)、支持向量机模型(Support Vector Machine,简称SVM模型)等。
在具体实施中,用场景类别频数向量中频数最高的,把场景类别相关的电商产品推送给视频片段,实现营销价值。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例提供了一种基于场景的商品关联***,适用于上述的一种基于场景的商品关联方法。如以下所使用的,术语“单元”、“模块”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件、或者软件和硬件的组合的实现也是可能并被构想的。
图2为根据本发明的基于场景的商品关联***的框架图,请参见图2,包括:
商品数据集构建模块1:获取商品信息构建一商品数据集,所述商品信息包括商品描述。
在具体实施中,商品数据集可为一电商平台公开发布的大数据集,可选的,可为淘宝公开发布的大数据集,在该数据集中,包括了200多万条文本数据,每条数据具有一个商品标签和商品描述,其中商品标签是商品的关键词,商品描述是商品的宣传文案。
视频数据集构建模块2:获取视频信息构建一视频数据集,所述视频信息包括视频文字信息。
在具体实施中,视频可以是节选自电视剧、电影或短视频平台的视频片段,视频信息包括视频的语音文本、物理标签。其中,视频的语音文本是其自动语音识别结果,物理标签是视频中出现的物体进行物体检测识别的结果,语音文本、物理标签统称为视频文字信息。可选的,视频信息还包括标注的主题类别,主题分类营销专家选定一些具有营销价值的主题,通过人工进行标注标签。
场景词库构建模块3:标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联。
在具体实施中,首先给场景定义,即什么是场景,营销中场景的定义是消费者购买产品或使用产品的时间点、地点、目的等,比如「宴会穿搭」、「约会必备物品」中,「宴会」和「约会」就是购买相关产品的场景。
可选的,通过一序列标注模型标注所述商品描述中的场景词。
在具体实施中,序列标注模型是给一个具有顺序的序列,例如文本序列,每一个字符(汉字、数字、符号)是序列的一个单元,每一个单元具有一个标签,通过训练序列标注模型去预测序列中每一个单元的标签。序列标注模型的实现包括但不限于条件随机场模型、循环神经网络模型或基于预训练语言模型微调获得的模型等。使用序列标注模型在商品数据集上预测场景词语,去重后获得一个场景词库。
在具体实施中,对商品数据集的商品描述的文本提取出来,标注消费场景相关词语。标注时可以使用但不限于BIO格式标注方法,BIO格式即词语开头标注B,词语中间标注I,词语以外的字符标注O。
可选的,将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
在具体实施中,从大量数据获取到场景词库后,发现许多场景词语代表同一个消费领域,比如「产前」和「产后」都是母婴类,因此对场景词做聚类分析。
例如,有3个词语「孕产」、「母婴」、「过年」,可以自然看出「孕产」和「母婴」是更为近似的词语,但是机器不能理解自然的语言,因此需要将自然语言的词语映射到一个数学上的向量,并且使用一个向量的相似度的计算方式(比如余弦相似度等等),目的是为了让相似的词语对应的向量之间相似度更大。在具体实施中,将词语映射为特征向量的方法包括但不限于预训练的语言模型、词向量模型等。可选的,可使用BERT预训练模型将句子编码为一个N×F维的矩阵,其中N是句子中包含的字符个数,每个字符用一个F维的向量表示,可通过序列标注模型识别出场景词在句子编码特征矩阵中对应位置的向量表示。
在具体实施中,用场景词特征向量训练聚类模型,可选的,聚类算法包括但不限于K-means算法,K代表有K个类别。K-means算法是将特征向量进行聚类分析的模型,给定最终希望得到的族数量,通过计算向量之间的相似度,将最相似的点聚为一类,将类的中心点作为新点,逐次迭代最终得到目标类别数量。每一个场景词语都可以对应到K类中的一类,相近意思的词语,例如「产前」和「产后」属于同一类。而不是场景词语的词语带入聚类模型也会被分到最近似的场景类别。
视频场景关联模块4:将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
可选的,获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
在具体实施中,对视频数据集中的一条文本先分词,每个词语通过聚类模型归为K类中的一类,一条文本就可以转为对于场景类别的K维频次向量,再对场景特征向量按照TF-IDF(频率-逆文档频率)的思路加权,训练KNN分类器。
在具体实施中,首先将视频数据集中的语音文本text和物理标签tag切分,可选的,可以使用分词模型或者按照标点符号切分。随后将目标原文(即语音文本text和物理标签tag的拼接)输入一预训练语言模型,按照切分词语结果得到每个词语在目标原文中对应的特征向量。目标原文中包含的所有词语的场景分类合计起来类别频数,得到一个场景类别频数向量,是一个K维的向量(对应k-means模型的K类),其中目标原文中假设没有一个词语被分到第i类,那么K维向量的第i个元素为0。
最后,计算场景类别的逆文档频率作为惩罚项,经过惩罚后的K维特征向量,训练有监督的主题分类模型,包括但不限于k最邻近模型(K Nearest Neighbor模型,简称KNN)、支持向量机模型(Support Vector Machine,简称SVM模型)等。
在具体实施中,用场景类别频数向量中频数最高的,把场景类别相关的电商产品推送给视频片段,实现营销价值。
另外,结合图1描述的一种基于场景的商品关联方法可以由电子设备来实现。图3为本发明的电子设备的框架图。
电子设备可以包括处理器61以及存储有计算机程序指令的存储器62。
具体地,上述处理器61可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器62可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器62可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器62可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器62可在数据处理装置的内部或外部。在特定实施例中,存储器62是非易失性(Non-Volatile)存储器。在特定实施例中,存储器62包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器62可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器61所执行的可能的计算机程序指令。
处理器61通过读取并执行存储器62中存储的计算机程序指令,以实现上述实施例中的任意一种基于场景的商品关联方法。
在其中一些实施例中,电子设备还可包括通信接口63和总线60。其中,如图3所示,处理器61、存储器62、通信接口63通过总线60连接并完成相互间的通信。
通信端口63可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线60包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。总线60包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(ControlBus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线60可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(FrontSide Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、***组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线60可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该电子设备可以执行本申请实施例中的一种基于场景的商品关联方法。
另外,结合上述实施例中的一种基于场景的商品关联方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种基于场景的商品关联方法。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(ReadOnly Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于场景的商品关联方法,其特征在于,包括:
商品数据集构建步骤,获取商品信息构建一商品数据集,所述商品信息包括商品描述;
视频数据集构建步骤,获取视频信息构建一视频数据集,所述视频信息包括视频文字信息;
场景词库构建步骤,标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联;
视频场景关联步骤,将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
2.根据权利要求1所述的基于场景的商品关联方法,其特征在于,所述场景词库构建步骤进一步包括:通过一序列标注模型标注所述商品描述中的场景词。
3.根据权利要求1所述的基于场景的商品关联方法,其特征在于,所述场景词库构建步骤进一步包括:将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
4.根据权利要求3所述的基于场景的商品关联方法,其特征在于,所述视频场景关联步骤进一步包括:获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
5.一种基于场景的商品关联***,其特征在于,包括:
商品数据集构建模块,获取商品信息构建一商品数据集,所述商品信息包括商品描述;
视频数据集构建模块,获取视频信息构建一视频数据集,所述视频信息包括视频文字信息;
场景词库构建模块,标注所述商品描述中的场景词,将所述场景词去重后构建一场景词库,并进一步将所述场景词库进行聚类,完成所述商品的场景关联;
视频场景关联模块,将所述视频文本信息进行分词,根据聚类后的所述场景词库进行所述视频的场景关联,并进一步根据所述场景对所述商品和所述视频进行关联。
6.根据权利要求5所述的基于场景的商品关联***,其特征在于,所述场景词库构建模块进一步包括:通过一序列标注模型标注所述商品描述中的场景词。
7.根据权利要求5所述的基于场景的商品关联***,其特征在于,所述场景词库构建模块进一步包括:将所述场景词映射为场景词特征向量,并根据所述场景词特征向量通过K-means算法进行聚类。
8.根据权利要求7所述的基于场景的商品关联***,其特征在于,所述视频场景关联模块进一步包括:获取所述分词得到的视频词语的视频词特征向量,并根据所述视频词特征向量通过所述K-means算法进行分类。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的基于场景的商品关联方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至4中任一项所述的基于场景的商品关联方法。
CN202110691279.2A 2021-06-22 2021-06-22 基于场景的商品关联方法、***、电子设备及存储介质 Pending CN113450187A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110691279.2A CN113450187A (zh) 2021-06-22 2021-06-22 基于场景的商品关联方法、***、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110691279.2A CN113450187A (zh) 2021-06-22 2021-06-22 基于场景的商品关联方法、***、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN113450187A true CN113450187A (zh) 2021-09-28

Family

ID=77812088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110691279.2A Pending CN113450187A (zh) 2021-06-22 2021-06-22 基于场景的商品关联方法、***、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113450187A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104486680A (zh) * 2014-12-19 2015-04-01 珠海全志科技股份有限公司 基于视频的广告推送方法及***
CN104679769A (zh) * 2013-11-29 2015-06-03 国际商业机器公司 对产品的使用场景进行分类的方法及装置
CN105243129A (zh) * 2015-09-30 2016-01-13 清华大学深圳研究生院 商品属性特征词聚类方法
CN106547908A (zh) * 2016-11-25 2017-03-29 三星电子(中国)研发中心 一种信息推送方法和***
CN111860575A (zh) * 2020-06-05 2020-10-30 百度在线网络技术(北京)有限公司 物品属性信息的处理方法、装置、电子设备和存储介质
CN111984837A (zh) * 2019-05-23 2020-11-24 浙江口碑网络技术有限公司 商品数据的处理方法、装置及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679769A (zh) * 2013-11-29 2015-06-03 国际商业机器公司 对产品的使用场景进行分类的方法及装置
CN104486680A (zh) * 2014-12-19 2015-04-01 珠海全志科技股份有限公司 基于视频的广告推送方法及***
CN105243129A (zh) * 2015-09-30 2016-01-13 清华大学深圳研究生院 商品属性特征词聚类方法
CN106547908A (zh) * 2016-11-25 2017-03-29 三星电子(中国)研发中心 一种信息推送方法和***
CN111984837A (zh) * 2019-05-23 2020-11-24 浙江口碑网络技术有限公司 商品数据的处理方法、装置及设备
CN111860575A (zh) * 2020-06-05 2020-10-30 百度在线网络技术(北京)有限公司 物品属性信息的处理方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN109117777B (zh) 生成信息的方法和装置
US11113599B2 (en) Image captioning utilizing semantic text modeling and adversarial learning
US11373390B2 (en) Generating scene graphs from digital images using external knowledge and image reconstruction
US11074478B2 (en) Image classification and labeling
CN112784578B (zh) 法律要素提取方法、装置和电子设备
US20120243789A1 (en) Fast image classification by vocabulary tree based image retrieval
CN115443490A (zh) 影像审核方法及装置、设备、存储介质
CN113094549A (zh) 一种视频分类方法、装置、电子设备和存储介质
CN112528053A (zh) 多媒体库分类检索管理***
CN113627151B (zh) 跨模态数据的匹配方法、装置、设备及介质
CN112667782A (zh) 一种文本分类方法、装置、设备及存储介质
Patel et al. Dynamic lexicon generation for natural scene images
CN114691864A (zh) 文本分类模型训练方法及装置、文本分类方法及装置
CN116304307A (zh) 一种图文跨模态检索网络训练方法、应用方法及电子设备
US11250299B2 (en) Learning representations of generalized cross-modal entailment tasks
CN112667813A (zh) 用于裁判文书的敏感身份信息的识别方法
Kastner et al. Estimating the imageability of words by mining visual characteristics from crawled image data
US8214310B2 (en) Cross descriptor learning system, method and program product therefor
CN116701637A (zh) 一种基于clip的零样本文本分类方法、***及介质
CN113704466B (zh) 基于迭代网络的文本多标签分类方法、装置及电子设备
CN113450187A (zh) 基于场景的商品关联方法、***、电子设备及存储介质
CN115700555A (zh) 模型训练方法、预测方法、装置和电子设备
CN113139374A (zh) 一种文档相似段落的标记查询方法、***、设备及存储介质
CN112364131A (zh) 一种语料处理方法及其相关装置
Chen et al. Emotion recognition in videos via fusing multimodal features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination