CN114077661A - 信息处理装置、信息处理方法和计算机可读介质 - Google Patents
信息处理装置、信息处理方法和计算机可读介质 Download PDFInfo
- Publication number
- CN114077661A CN114077661A CN202110232979.5A CN202110232979A CN114077661A CN 114077661 A CN114077661 A CN 114077661A CN 202110232979 A CN202110232979 A CN 202110232979A CN 114077661 A CN114077661 A CN 114077661A
- Authority
- CN
- China
- Prior art keywords
- document
- information
- user
- network
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/93—Document management systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
提供信息处理装置、信息处理方法和计算机可读介质。信息处理装置具有:信息收集单元,其收集用户的信息和文档的信息;以及处理器,其被输入由所述信息收集单元收集到的信息而进行处理,通过执行程序,创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络,生成由所述用户的属性和所述文档的属性构成的属性信息,对所述二分网络和所述属性信息进行合成而生成带属性网络,使用所述带属性网络选择针对目标用户的推荐文档。
Description
技术领域
本发明涉及信息处理装置、信息处理方法和计算机可读介质。
背景技术
一直以来,提出了活用知识库的文档数据库检索/管理***。
在日本特开2008-191702号公报中记载有喜好信息收集***,该喜好信息收集***具有:行为检测部,其检测基于取得信息的用户的行为;信息取得部,其取得作为所述行为对象的信息的详细信息,进行关键字提取;评价取得部,其根据行为进行对信息的评价;以及数据库部,其将提取关键字与评价建立对应而登记。
在日本专利第6405704号中记载了信息处理装置,该信息处理装置具有:选择部,其按照每个观点选择作为向用户提示的对象的提示对象,该提示对象是能够使根据不同的观点对反应对象的分布分别进行分析而得到的多个分析值分别提高的对象,该反应对象是向用户提示的对象中的用户给出预定反应的对象;以及提示控制部,其控制成按照每个观点将提示对象与分析值一起提示。
在日本专利第6170023号中记载有内容推荐装置,其具有:输入显示部,其受理用户所输入的多个参数并且显示向用户推荐的内容;指令取得部,其取得多个参数中的、具有领域信息的第1参数,提取与第1参数的领域信息相关的内容所具有的指令信息;语料库创建部,其取得多个参数中的、具有时事信息的第2参数,根据第2参数的时事信息创建语料库;以及潜在语义分析推荐部,其取得多个参数中的、具有热门话题信息的第3参数,对指令信息和语料库进行比较,将满足预先确定的基准的指令信息及语料库的组合和第3参数的热门话题信息转换为向量,根据从所转换的向量计算出的计算值来选择内容,作为推荐内容向输入显示部指示内容的显示。
在日本专利第5224868号中记载了信息推荐装置,该信息推荐装置具有:文档输入部,其输入文档集合,文档集合中的各文档具有指定期间内的日期和时间信息作为属性;文档分析部,其通过对文档集合和包含所浏览的文档或通过书签操作进行标签赋予的文档在内的历史文档分别进行关键字分析,求出分别包含多个关键字的多个特征向量;聚类部,其通过对文档集合进行聚类,求出由分别属于同一话题的文档构成的多个话题集群和多个子话题集群;话题转变生成部,其生成表示子话题集群之间的话题的转变的转变结构;特征属性提取部,其在各话题集群和各子话题集群中提取特征属性;兴趣集群提取部,其通过历史文档的特征向量与文档集合所包含的各文档的特征向量的类似性判定,提取相当于子话题集群中的任意一个的兴趣集群;推荐文档提取部,其根据兴趣集群所具有的转变结构,求出与该兴趣集群处于转变关系的子话题集群,将该子话题集群所包含的文档作为推荐文档提取;以及推荐文档提示部,其将推荐文档与特征属性一起提示。
在日本特开2019-008414号公报中记载了信息处理装置,该信息处理装置具有:取得单元,其取得表示各用户所具有的各项目的数据;生成单元,其生成设数据所包含的各用户和各项目分别为节点、通过链接将与用户对应的节点和与该用户所具有的各项目对应的各节点连接而成的二分网络;提取单元,其从二分网络中提取社区的层级结构;第1计算单元,其计算由提取单元提取出的层级结构中的各层的社区中的节点的重要度,根据计算出的重要度计算节点对各社区的归属度;以及第2计算单元,其根据第1计算单元计算出的归属度和社区中的项目的重要度,计算表示用户与项目的相性的指标。
但是,在使用二分网络和用户的浏览历史来进行符合用户的喜好的推荐的情况下,没有考虑文档内容上的相关性,因此,即使是同一话题的文档,在过去浏览的次数也较少时,也不太推荐,而在新文档的情况下,根本不推荐,该二分网络是设所取得的数据中包含的各用户和各文档分别为节点、通过链接将与用户对应的节点和与该用户所具有的文档对应的各节点连接而成的。
发明内容
本发明的目的在于提供一种相比使用二分网络和用户的浏览历史来进行符合用户的喜好的推荐的情况更高精度地进行文档推荐的技术,该二分网络是设所取得的数据中包含的各用户和各文档分别为节点、通过链接将与用户对应的节点和与该用户所具有的文档对应的各节点连接而成的。
根据本发明的第1方案,提供一种信息处理装置,其具有:信息收集单元,其收集用户的信息和文档的信息;以及处理器,其被输入由所述信息收集单元收集到的信息而进行处理,所述处理器通过执行程序,创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络,生成由所述用户的属性(素性)和所述文档的属性构成的属性信息,对所述二分网络和所述属性信息进行合成而生成带属性网络,使用所述带属性网络选择针对目标用户的推荐文档。
根据本发明的第2方案,所述处理器从所述带属性网络中提取社区,该社区是链接紧密地连接的聚集部分,所述处理器使用所提取的所述社区来选择针对所述目标用户的推荐文档。
根据本发明的第3方案,所述用户的属性包含所述用户的领域知识关键字,所述文档的属性包含出现单词、类别标签或通过深度学习模型得到的分布式表示中的至少任意一方。
根据本发明的第4方案,所述处理器设N为所述用户和所述文档的节点数将所述二分网络创建为N×N的矩阵,将所述属性信息创建为N×h1的向量,其中h1为向量的维数,所述处理器对所述N×N的矩阵和所述N×h1的向量进行合成而创建所述带属性网络。
根据本发明的第5方案,所述处理器使用GCN对所述带属性网络进行预处理(下処理)。
根据本发明的第6方案,所述处理器使用所述社区计算所述目标用户和推荐文档候选的第1推荐得分,选择所述第1推荐得分相对高的推荐文档候选作为所述推荐文档。
根据本发明的第7方案,所述处理器计算由所述信息收集单元收集到的文档中不包含的新文档与由所述信息收集单元收集到的现有文档的相似度,提取所述相似度相对大的多个所述现有文档作为现有文档候选,计算所述目标用户和所述现有文档候选的第2推荐得分,使用所述第2推荐得分计算所述目标用户和所述新文档的所述第1推荐得分。
根据本发明的第8方案,所述处理器将是否存在所述目标用户对所述推荐文档的浏览反馈给所述带属性网络。
根据本发明的第9方案,所述处理器使用与由所述信息收集单元收集到的各信息的经过时间对应的权重来形成所述带属性网络。
根据本发明的第10方案,提供一种计算机可读介质,其存储有使计算机执行处理的程序,其中,所述处理具有以下步骤:收集用户的信息和文档的信息;使用所收集到的信息,来创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络;生成由所述用户的属性和所述文档的属性构成的属性信息;对所述二分网络和所述属性信息进行合成而生成带属性网络;以及使用所述带属性网络选择针对目标用户的推荐文档。
根据本发明的第11方案,提供一种信息处理方法,其具有以下步骤:收集用户的信息和文档的信息;使用所收集到的信息,来创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络;生成由所述用户的属性和所述文档的属性构成的属性信息;对所述二分网络和所述属性信息进行合成而生成带属性网络;以及使用所述带属性网络选择针对目标用户的推荐文档。
(效果)
根据所述第1方案、第2方案、第4方案、第6方案、第10方案或第11方案,与使用二分网络和用户的浏览历史来进行符合用户的喜好的推荐的情况相比,能够进行精度更高的文档推荐,该二分网络是设各用户和各文档分别为节点、通过链接将与用户对应的节点和与该用户所具有的文档对应的各节点连接而成的。
根据所述第3方案,还能够使用用户的领域知识、出现单词、类别标签或通过深度学习模型得到的分布式表示中的任意一方来进行文档推荐。
根据所述第5方案,还能够使用GCN(Graph Convolutional Network:图卷积网络)来对带属性网络进行预处理,并实现学习模型的精度提高、无属性的节点的应对。
根据所述第7方案,还能够向用户进行新文档的文档推荐。
根据所述第8方案或第9方案,还能够提高学习模型的精度。
附图说明
图1A是实施方式的信息处理装置的结构框图。
图1B是实施方式的***结构图。
图2是实施方式的二分网络的说明图。
图3是实施方式的属性向量的说明图。
图4是实施方式的带属性网络的说明图。
图5是实施方式的整体处理流程图。
图6是实施方式的社区提取/特征提取的说明图。
具体实施方式
以下,根据附图对本发明的实施方式进行说明。
图1A是本实施方式中的信息处理装置的整体结构框图。本实施方式的信息处理装置是在后端学***板、移动电话、PC等便携信息终端来实现。
信息处理装置作为功能模块具有信息收集模块10、信息综合模块12、事先处理模块14、特征计算模块16和信息检索/推荐模块18。
信息收集模块10是作为历史数据收集用户的信息和文档的信息的模块,具有输入部101、信息收集部102和存储部103。输入部101具有通信接口等,从例如互联网等作为历史数据收集用户的信息和文档的信息。输入部101将所收集的历史数据输出到信息收集部102。信息收集部102将所收集的历史数据存储到存储部103中,并且输出到信息综合模块12。具体而言,历史数据是指用户与该用户所购买的文档、用户与该用户所浏览的文档、用户与该用户在SNS等中提及的文档等,是具有用户与文档的对应关系(相关性)的数据。
信息综合模块12是对各种信息进行综合/管理的模块,具有管理部121、存储部122、信息提示控制部123和用户操作取得部124。管理部121管理各种信息。在各种信息中,包含所收集的历史数据、所创建的带属性网络数据、所提取的特征数据、所运算的推荐得分等。
存储部122存储各种信息。用户操作取得部124取得来自未图示的用户终端的用户操作,输出到管理部121。在用户操作中包含来自目标用户的文档检索请求。信息提示控制部123根据来自与用户操作相对应的管理部121的指令,将与用户操作相对应的信息、具体而言符合目标用户的喜好的文档的信息输出到未图示的用户终端。
事先处理模块14是对由信息收集模块10收集到的历史数据、即用户的信息和文档的信息进行处理的模块,具有处理部141、存储部142、时间权重加工部143、语言分析部144、属性创建部145和带属性网络构建部146。处理部141对时间权重加工部143、语言分析部144、属性创建部145和带属性网络构建部146的动作进行控制。
时间权重加工部143赋予与应处理的历史数据的取得时间对应的权重。即,由于认为新数据比旧数据更反映了用户的当前时刻的特征,所以对新数据赋予相对大的权重。例如,决定1个月、半年、1年等的时间跨度,按照时间跨度对历史数据进行分割。按照各个时间跨度决定历史数据的整体权重。这时,使距目前较近的时间跨度的一方的权重相对增加。以这样的方式决定出的时间权重在乘以反映了出现频度的权重之后,设定为后述的网络的链接的权重。
语言分析部144进行历史数据的自然语言处理。自然语言处理是公知的,例如通过词素分析以单词为单位进行分割,按照每个句子对各单词的出现频度进行计数并进行向量化。然后,对作为历史数据的用户的信息和文档的信息进行语言分析,创建设各用户和各文档分别为节点、通过链接将与用户对应的节点和与文档对应的各节点连接而成的二分网络。
属性创建部145用向量表示用户的信息所包含的用户的属性信息和文档的信息所包含的文档的属性信息。用户的属性信息是用户ID、用户的性別、用户的领域知识关键字等,设它们为用户节点的属性以词袋(bag-of-word)形式(对出现单词的数量进行计数所得到的)进行向量化。文档的属性信息是文档ID、文档的内容(出现单词)、各种各样的属性(所出现的实体及其属性)、类别标签等,设它们为文档节点的属性以词袋形式进行向量化。也可以将通过任意的深度学习模型得到的分布式表示用作文档的属性信息。此处,领域知识关键字是指与领域知识相关的关键字,领域知识是指专用于某一专门领域的领域的知识,区别于一般知识。此外,通过使用用户ID、文档ID,也能够作为初始属性向量赋予给不存在属性的节点。
带属性网络构建部146使用由语言分析部144创建的二分网络和由属性创建部145创建的属性向量来构建带属性网络。带属性网络构建部146也可以同时构建二分网络和带属性网络。
特征计算模块16是从由带属性网络构建部146构建的带属性网络中提取通过社区提取而得到的潜在话题和特征的模块,该社区是链接紧密地连接的聚集部分,特征计算模块16具有特征计算部161和存储部162。特征计算部161从带属性网络中提取社区,计算各社区在各节点处的概率分布的期待值μ和社区概率分布的标准偏差σ。本实施方式中的社区具有与集群相同的含义,各个社区对应于“含义”或“功能”的集合,与潜在喜好的含义相同。此外,社区提取是指从网络中提取单个的社区结构,是指对在网络内在含义/功能上具有共通性的节点组进行聚类。在本实施方式中,通过使用被赋予属性信息的带属性网络而不使用简单的二分网络,能够提高社区提取精度。属性信息能够作为二分网络和相互补充信息发挥功能。
信息检索/推荐模块18是根据来自未图示的用户终端的用户操作来检索并推荐符合目标用户的喜好的文档的模块,具有信息检索部181、信息推荐部182和存储部183。
信息检索部181使用由特征计算模块16提取出的特征来计算推荐得分。信息推荐部182使用所计算的推荐得分来选择得分相对高的文档,并作为针对目标用户的推荐文档输出。
图1A所示的各功能模块表示逻辑上可分离的软件、硬件等部件。因此,本实施方式中的模块不仅表示计算机程序中的模块,也表示硬件结构中的模块。模块也可以与功能以1:1的方式对应,但是,可以由1个程序构成1个模块,也可以由1个程序构成多个模块。这些模块可以由图1B所示的服务器计算机22内的处理器24执行,也可以由分散或并列环境中的多个处理器24执行。在各模块的处理中,从存储器26读入作为对象的信息,在通过CPU等处理器24进行处理以后,将处理结果输出并写入存储器26中。存储器26包含HDD、RAM、CPU内的寄存器等。在一个实施方式中,单一的服务器计算机22内的单一的处理器24实现各模块10~18的功能,但不限于此。本实施方式中的处理器是指广义的处理器,包含通用的处理器(例如,CPU(Central Processing Unit:中央处理单元)等)、专用的处理器(例如,GPU(Graphics Processing Unit:图形处理单元)、ASIC(Application Specific IntegratedCircuit:专用集成电路)、FPGA(Field Programmable Gate Array:现场可编程门阵列)、可编程逻辑器件等)。
图2示意性示出设各用户50和各文档52分别为节点、通过链接将与用户对应的节点和与文档对应的各节点连接而成的二分网络。二分网络也称作二分图,是指将节点的集合分割为2个部分集合,且在相同的部分集合内的节点彼此之间没有链接的网络(图)。即,在用户的节点彼此之间没有链接,在文档的节点彼此之间也没有链接。在图2中,圆圈是表示用户的节点,正方形是表示文档的节点。此外,将用户的节点和文档的节点连接的直线是链接。
通过链接将如下用户与文档的节点之间连接,由此生成该二分网络,该用户是在历史数据中由于用户与文档具有相关性(例如,存在用户过去浏览了该文档的事实等)而赋予给历史数据的值为1的用户。在该二分网络中,在由于用户与文档没有相关性而赋予给历史数据的值为0的用户与文档的节点之间不生成链接。根据从信息综合模块12的管理部121供给的历史数据,由事先处理模块14的语言分析部144或带属性网络构建部146创建二分网络。具体而言,当设N为节点数即用户数与文档数的合计时,二分网络表示为N×N相邻矩阵的矩阵。
图3示意性示出由属性创建部145创建的属性信息向量。用户50的属性向量和文档52的属性向量分别由领域知识单词的分量和出现单词的分量构成。领域知识单词的分量由T1、T2、T3构成,出现单词的分量由T4、T5、……Tn构成。用户50的属性向量例如表示为(T1,T2,T3,T4,T5,……Tn)=(1,1,0,1,0,……0)。此外,文档52的属性向量例如表示为(T1,T2,T3,T4,T5,……Tn)=(0,0,1,1,1,……0)。具体而言,在设属性向量的维数为h1时,属性向量表示为N×h1的矩阵。
另外,在附图中,用0或1表示各向量的分量,但不限于此,也可以乘以权重来表示。此外,如上所述,作为用户50的属性向量,也可以包含用户ID、用户性別,作为文档52的属性向量,也可以包含文档ID。
图4示意性示出带属性网络构建的一例。带属性网络是根据二分网络的矩阵60和由全部属性向量构成的属性矩阵62通过GCN(Graph Convolution Network:图卷积网络)运算器64创建的,该二分网络是通过链接将与用户对应的节点和与文档对应的各节点连接而成的。GCN是对图数据进行卷积的方法,并且是除了图内的节点所具有的特征量以外,还加上对处于链接关系的节点的特征量赋予权重而得到的特征量的方法。具体而言,当设二分网络矩阵A为N×N相邻矩阵、属性矩阵X为N×h1、N为节点数(=用户数+文档数)、h1为一个属性向量的维数、h2为嵌入向量的维数(=话题/社区的数量)时,通过
GCN(X,A)=A’·ReLU(A’·X·Wo)Wi
创建带属性网络。
此处,“·”是矩阵乘法运算,
Wo是h1×h0的权重矩阵,
Wi是h2×h0的权重矩阵。h0是初始值。
此外,A’是A’=D-1/2·(IN+A)·D-1/2。
此处,IN是单位矩阵,
D是度数矩阵,并通过D=Diag(sum(A+IN,dim=1))进行定义。也就是说,将对A+IN在行方向进行sum运算而得到的向量转换为对角矩阵。
ReLU函数(Rectified Linear Unit:斜坡函数)是公知的神经网络的激活函数,并且是如下函数:在输入值为0以下的情况下,输出值始终为0,在输入值比0大的情况下,输出值为与输入值相同的值。简而言之,是
f(x)=max(0,x)。
ReLU函数的计算式简单,因此能够使处理高速化。此外,在输入值为0以下时,输出值始终为0,因此,神经元组的激活变得稀疏(疏、缝隙多),由于也能够表示不激发神经元因此具有提高精度的优点。GCN运算器64根据上述的式,分为各社区的各节点中的概率分布的期待值μ和社区概率分布的标准偏差σ来进行卷积运算。即,关于概率分布的期待值μ,通过
GCN(X,A)μ=A’·ReLU(A’·X·Wo)Wiμ
来运算,关于概率分布的标准偏差σ,通过
GCN(X,A)σ=A’·ReLU(A’·X·Wo)Wiσ
来运算。此处,Wiμ、Wiσ分别是关于期待值μ和标准偏差σ的权重矩阵Wi。
关于GCN,例如详细记述在Thomas N.Kipf,Max Welling,Semi-SupervisedClassification with Graph Convolutional Networks,(ICLR 2017)中。
使用以这样的方式创建的带属性网络来提取潜在话题和特征,检索符合目标用户的喜好的文档。
图5是本实施方式的整体处理流程图。是图1A所示的各功能模块的处理,并且是作为硬件的处理器24所执行的处理。
首先,信息收集模块10使用互联网等,作为历史数据定期或不定期地收集用户的信息和文档的信息(S101)。信息收集模块10将所收集的历史数据存储到存储部103中,并输出到信息综合模块12。信息综合模块12的管理部121将所收集的历史数据存储到存储部122中,并输出到事先处理模块14。
接着,事先处理模块14的处理部141使用所收集的历史数据来在后端学习。即,语言分析部144对历史数据进行自然语言处理(S102),创建二分网络(S103),并且向属性创建部145输出历史数据。属性创建部145对历史数据所包含的属性的信息进行向量化,创建属性向量(S104)。语言分析部144将所创建的二分网络输出到带属性网络构建部146。此外,属性创建部145将所创建的属性向量输出到带属性网络构建部146。
带属性网络构建部146根据作为二分网络的矩阵表示的二分网络矩阵A和作为属性向量的矩阵表示的属性矩阵X,使用GCN来构建带属性矩阵(S105)。事先处理模块14的处理部141将所构建的带属性矩阵存储到存储部142中,并输出到特征计算模块16。
接着,特征计算模块16的特征计算部161通过从带属性网络中提取社区,运算潜在话题/特征(S106)。具体而言,根据遵循正态分布的噪声ε、期待值μ和标准偏差σ,来运算各社区中的重要度pt和对各社区的归属度b。特征计算模块16将所运算的pt和b输出到信息检索/推荐模块18。
信息检索/推荐模块18的信息检索部181使用pt和b来运算针对目标用户的推荐候选文档的推荐得分(S107)。即,当设目标用户为U、上下文(文档)为C、推荐候选文档为R时,通过以下的计算流程运算R的推荐得分。
(1)计算R与U之间的相似度sim(R,U)。
sim(R,U)=γ1sim1(R,U)+γ2sim2(R,U)
此处,
sim1(R,U)=1/2*(b(U)*pt(R)+pt(U)*b(R))
sim2(R,U)=z(R)*z(U),
γ1=∑Rmean(sim2(C,U))/(∑Rmean(sim1(C,U))+∑Rmean(sim2(C,U))),
γ2=∑Rmean(sim1(C,U))/(∑Rmean(sim1(C,U))+∑Rmean(sim2(C,U)))。z表示已知的嵌入向量,*表示内积。
(2)通过上述的式计算R与C之间的相似度sim(R,C)。
(3)根据相似度sim(R,U)和相似度sim(R,C)计算推荐score。
score(R|C,U)=b1*sim(R,C)+b2*sim(R,U)
此处,b1和b2是满足
b1+b2=1的任意的值,例如,能够设定为b1=b2=0.5。
接着,信息推荐部182选择所运算的推荐得分中的最高得分的文档、或按照推荐得分的从高到低的顺序的上位K个文档,即符合目标用户的喜好的推荐文档(S108),作为推荐文档向用户终端输出(S109)。
图6示意性示出基于社区提取的潜在话题/特征提取的处理。另外,在附图中,关于上述的带属性网络构建的处理,也示作前级的处理。
二分网络矩阵60和属性矩阵62分别通过GCNμ运算器64a和GCNσ运算器64b进行卷积运算,并输出到特征计算模块16。
特征计算模块16的特征计算部161执行在图中示作运算模块66的运算。
即,首先,将GCNμ和GCNσ各自通过平滑函数softplus分别转换为μ’、logσ’,平滑函数softplus是将输入值转换为0以上的正的数值并输出的函数,是与ReLU函数类似的激活函数。但是,在输入值为0的附近,输出值不成为0。具体而言,是与ReLU函数(归一化线性函数)的平滑近似,是f(x)=log(1+ex)。
接着,关于μ’,使用马尔可夫链(Markov Chain)来设为
μ=A·μ’,关于logσ’,在列方向上取得平均值而设为logσ。
接着,使用遵循正态分布的噪声ε、μ和logσ,利用S形函数sigmoid通过
pt=sigmoid(μ+ε○σ)
计算社区中的重要度pt。运算符○是哈达玛积(Hadamard product)。
接着,使用pt,根据贝叶斯定理来运算对各社区的归属度b,而提取特征。关于使用了贝叶斯定理的对各社区的归属度(比例)b的计算,记载在日本特开2019-008414号公报中。
然后,由链接预测函数运算器68使用pt和b来运算链接预测函数,计算损失。具体而言,根据从pt和b使用哈达玛积○来通过
f(z;θ)=(b○pt)·(b○pt)T
运算链接预测函数f(z;θ),并且,通过
loss=binary-cross-entropy+kld1+kld2
运算损失函数loss。此处,
kld1=(μ′-μ)2/2σ2·pi_estimateT
kld2=KL_divergence(pi_prior,pi_estimate)。
另外,pi_estimate是mean[b,dim=0],mean[b,dim=0]是指在列的方向上对矩阵b进行平均。由此,根据作为N×h2的矩阵的b计算1×h2的向量。
此外,pi_prior是1×h2的向量,其值可随机地设定。损失函数是网络重新构建时的损失,调整各参数以使该损失最小化。
以上述的方式决定各社区的重要度pt和对社区的归属度b,使用所决定的pt和b来如上述那样对目标用户U和推荐候选文档R计算推荐得分。而且,按照从高到低的顺序排列推荐得分,最高得分的文档或按照得分从高到低的顺序的上位K个文档作为推荐文档提示给目标用户U。目标用户U看到所提示的文档,能够对期望的文档采取浏览等行为。
在本实施方式中,使用GCN对二分网络赋予了属性信息,但是,除了GCN以外,也可以使用任意的方法对二分网络和属性信息进行合成。此外,推荐得分也不限于上述的式,可以使用通过学习模型提取特征并能够使用该特征对目标用户的喜好性进行定量评价的任意方法。
以上,对本发明的实施方式进行了说明,但是,本发明不限于此,能够进行各种变形。
例如,在本实施方式中,针对目标用户使用历史数据检索符合该用户的喜好的文档并提示给目标用户,但是,由于在新文档的情况下不存在过去历史,所以难以直接地运算与用户的相关性。
在该情况下,通过执行以下的处理来向目标用户推荐文档即可。
(1)首先,运算新文档D与历史网络中存在的文档n之间的相似度w(D,n)。
此处,相似度运算可以通过出现单词的一致性执行,也可以使用通过BERT以及其他语言模型下的学习而得到的分布式表示的相似度(余弦相似度、内积等)。或者,也可以使用通过话题模型而得到的潜在话题来执行。话题模型例如可以使用LDA(Latent DirichletAllocation:潜在狄利克雷分配法)、PLSA(Probabilistic Latent Semantic Analysis:概率潜在语义分析法)等。
(2)接着,提取N个与新文档D最类似的现有文档候选n,通过现有文档候选n运算针对目标用户U的推荐得分。即,运算
(3)最后,将所运算的推荐得分较高的新文档D作为符合目标用户的喜好的文档来提示。
在本变形例中,也可以说,使用与存在历史数据的现有文档的相似度来评价目标用户与新文档的相关性。
此外,在本实施方式或上述的变形例中,在向目标用户提示推荐文档以后,在该目标用户浏览了该文档的情况下,根据所浏览的次数对用N×N相邻矩阵表示的二分网络的矩阵A的对应部位赋予权重,将权重作为新学习参数取入并反馈给深度学习模型,通过误差反向传播法(反向传播)等对模型的参数进行更新。
Claims (11)
1.一种信息处理装置,其具有:
信息收集单元,其收集用户的信息和文档的信息;以及
处理器,其被输入由所述信息收集单元收集到的信息而进行处理,
所述处理器通过执行程序,
创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络,
生成由所述用户的属性和所述文档的属性构成的属性信息,
对所述二分网络和所述属性信息进行合成而生成带属性网络,
使用所述带属性网络选择针对目标用户的推荐文档。
2.根据权利要求1所述的信息处理装置,其中,
所述处理器从所述带属性网络中提取社区,该社区是链接紧密地连接的聚集部分,
所述处理器使用所提取的所述社区来选择针对所述目标用户的推荐文档。
3.根据权利要求1和2中的任意一项所述的信息处理装置,其特征在于,
所述用户的属性包含所述用户的领域知识关键字,
所述文档的属性包含出现单词、类别标签或通过深度学习模型得到的分布式表示中的至少任意一方。
4.根据权利要求3所述的信息处理装置,其中,
所述处理器设N为所述用户和所述文档的节点数,将所述二分网络创建为N×N的矩阵,
所述处理器将所述属性信息创建为N×h1的向量,其中h1为向量的维数,
所述处理器对所述N×N的矩阵和所述N×h1的向量进行合成而创建所述带属性网络。
5.根据权利要求4所述的信息处理装置,其中,
所述处理器使用GCN对所述带属性网络进行预处理。
6.根据权利要求2所述的信息处理装置,其中,
所述处理器使用所述社区计算所述目标用户和推荐文档候选的第1推荐得分,选择所述第1推荐得分相对高的推荐文档候选作为所述推荐文档。
7.根据权利要求6所述的信息处理装置,其中,
所述处理器计算由所述信息收集单元收集到的文档中不包含的新文档与由所述信息收集单元收集到的现有文档的相似度,
所述处理器提取所述相似度相对大的多个所述现有文档作为现有文档候选,
所述处理器计算所述目标用户和所述现有文档候选的第2推荐得分,
所述处理器使用所述第2推荐得分计算所述目标用户和所述新文档的所述第1推荐得分。
8.根据权利要求1~7中的任意一项所述的信息处理装置,其特征在于,
所述处理器将是否存在所述目标用户对所述推荐文档的浏览反馈给所述带属性网络。
9.根据权利要求1~8中的任意一项所述的信息处理装置,其特征在于,
所述处理器使用与由所述信息收集单元收集到的各信息的经过时间对应的权重来形成所述带属性网络。
10.一种计算机可读介质,其存储有使计算机执行处理的程序,其中,所述处理具有以下步骤:
收集用户的信息和文档的信息;
使用所收集到的信息,来创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络;
生成由所述用户的属性和所述文档的属性构成的属性信息;
对所述二分网络和所述属性信息进行合成而生成带属性网络;以及
使用所述带属性网络选择针对目标用户的推荐文档。
11.一种信息处理方法,其具有以下步骤:
收集用户的信息和文档的信息;
使用所收集到的信息,来创建通过链接将与所述用户对应的节点和与所述文档对应的节点连接而成的二分网络;
生成由所述用户的属性和所述文档的属性构成的属性信息;
对所述二分网络和所述属性信息进行合成而生成带属性网络;以及
使用所述带属性网络选择针对目标用户的推荐文档。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020139540A JP2022035314A (ja) | 2020-08-20 | 2020-08-20 | 情報処理装置及びプログラム |
JP2020-139540 | 2020-08-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114077661A true CN114077661A (zh) | 2022-02-22 |
Family
ID=80269661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110232979.5A Pending CN114077661A (zh) | 2020-08-20 | 2021-03-03 | 信息处理装置、信息处理方法和计算机可读介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220058464A1 (zh) |
JP (1) | JP2022035314A (zh) |
CN (1) | CN114077661A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230136726A1 (en) * | 2021-10-29 | 2023-05-04 | Peter A. Chew | Identifying Fringe Beliefs from Text |
CN115186086B (zh) * | 2022-06-27 | 2023-08-08 | 长安大学 | 一种异构环境下嵌入预期价值的文献推荐方法 |
CN114818737B (zh) * | 2022-06-29 | 2022-11-18 | 北京邮电大学 | 科技论文数据文本语义特征提取方法、***及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7818279B2 (en) * | 2006-03-13 | 2010-10-19 | Microsoft Corporation | Event detection based on evolution of click-through data |
US10509832B2 (en) * | 2015-07-13 | 2019-12-17 | Facebook, Inc. | Generating snippet modules on online social networks |
-
2020
- 2020-08-20 JP JP2020139540A patent/JP2022035314A/ja active Pending
-
2021
- 2021-02-01 US US17/163,813 patent/US20220058464A1/en active Pending
- 2021-03-03 CN CN202110232979.5A patent/CN114077661A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220058464A1 (en) | 2022-02-24 |
JP2022035314A (ja) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107357793B (zh) | 信息推荐方法和装置 | |
Shi et al. | Functional and contextual attention-based LSTM for service recommendation in mashup creation | |
CN111539197B (zh) | 文本匹配方法和装置以及计算机***和可读存储介质 | |
CN114077661A (zh) | 信息处理装置、信息处理方法和计算机可读介质 | |
CN107688870B (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
KR20200007713A (ko) | 감성 분석에 의한 토픽 결정 방법 및 장치 | |
CN112966091B (zh) | 一种融合实体信息与热度的知识图谱推荐*** | |
CN112085565A (zh) | 基于深度学习的信息推荐方法、装置、设备及存储介质 | |
Xiao et al. | User preference mining based on fine-grained sentiment analysis | |
López et al. | ADOPS: Aspect Discovery OPinion Summarisation Methodology based on deep learning and subgroup discovery for generating explainable opinion summaries | |
Ghobakhloo et al. | Design of a personalized recommender system using sentiment analysis in social media (case study: banking system) | |
Arık et al. | Hybrid course recommendation system design for a real-time student automation application | |
Benayas et al. | Automated creation of an intent model for conversational agents | |
CN117235253A (zh) | 一种基于自然语言处理技术的卡车用户隐性需求挖掘方法 | |
US11822609B2 (en) | Prediction of future prominence attributes in data set | |
CN111061939B (zh) | 基于深度学习的科研学术新闻关键字匹配推荐方法 | |
KR20070118154A (ko) | 정보 처리 장치 및 방법, 및 프로그램 기록 매체 | |
Li et al. | Recommender Systems: Frontiers and Practices | |
Zhang et al. | A deep recommendation framework for completely new users in mashup creation | |
Nazari et al. | MoGaL: Novel Movie Graph Construction by Applying LDA on Subtitle | |
Sun et al. | Leveraging user profiling in click-through rate prediction based on Zhihu data | |
CN116957740B (zh) | 一种基于词特征的农产品推荐*** | |
Chen et al. | Hybrid Method for Short Text Topic Modeling | |
Mejia et al. | Covid-19 fake news detection using joint doc2vec and text features with pca | |
Aruna et al. | Feature Selection Based Naïve Bayes Algorithm for Twitter Sentiment Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |