WO2022001896A1 - 推荐理由生成方法、装置、设备及存储介质 - Google Patents

推荐理由生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2022001896A1
WO2022001896A1 PCT/CN2021/102539 CN2021102539W WO2022001896A1 WO 2022001896 A1 WO2022001896 A1 WO 2022001896A1 CN 2021102539 W CN2021102539 W CN 2021102539W WO 2022001896 A1 WO2022001896 A1 WO 2022001896A1
Authority
WO
WIPO (PCT)
Prior art keywords
content information
recommendation
recommendation reason
vector
reason
Prior art date
Application number
PCT/CN2021/102539
Other languages
English (en)
French (fr)
Inventor
张海楠
陈宏申
丁卓冶
包勇军
颜伟鹏
Original Assignee
北京沃东天骏信息技术有限公司
北京京东世纪贸易有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京沃东天骏信息技术有限公司, 北京京东世纪贸易有限公司 filed Critical 北京沃东天骏信息技术有限公司
Priority to EP21832360.8A priority Critical patent/EP4177812A4/en
Priority to US18/004,008 priority patent/US20230274332A1/en
Publication of WO2022001896A1 publication Critical patent/WO2022001896A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements

Definitions

  • the embodiments of the present application relate to the field of communication technologies, and in particular, to a method, apparatus, device, and storage medium for generating a recommendation reason.
  • the current more common recommendation reason generation scheme is to generate recommendation reasons according to the review information of the product. But this scheme has at least the following problems:
  • the review information of the product contains a large number of positive review templates and false positive review information. These noises can lead to inaccurate positioning of user needs, which in turn affects the effect of the generated recommendation reasons.
  • Embodiments of the present application provide a method, apparatus, device, and storage medium for generating recommendation reasons, so that the generated recommendation reasons can accurately locate user needs.
  • an embodiment of the present application provides a method for generating recommendation reasons, including:
  • the recommendation reason for the object to be recommended is generated.
  • the training data used by the recommendation reason generation model includes the question and answer data and content information of multiple objects.
  • the above-mentioned generating model and content information according to the pre-trained recommendation reasons, and generating the recommendation reasons for the objects to be recommended may include:
  • the model and the content information vector are generated to generate the recommendation reason for the object to be recommended.
  • the content information may include titles and attributes.
  • the above-mentioned use of the preset encoder to encode the content information to obtain a content information vector may include:
  • the title vector the attribute vector and the preset weight
  • the content information vector is obtained.
  • the method may further include:
  • an initial model is trained to obtain a recommendation reason generation model.
  • the above-mentioned acquisition of training data includes:
  • an apparatus for generating a recommendation reason including:
  • the acquisition module is used to acquire the content information of the object to be recommended
  • the processing module is used for generating a model and content information according to the pre-trained recommendation reasons, and generating recommendation reasons for the objects to be recommended.
  • the training data used by the recommendation reason generation model includes question-answer data and content information of multiple objects.
  • the processing module can be specifically used for:
  • the recommendation reason for the object to be recommended is generated.
  • the content information includes titles and attributes.
  • the processing module when used to encode the content information by using the preset encoder to obtain the content information vector, it is specifically:
  • the title vector the attribute vector and the preset weight
  • the content information vector is obtained.
  • the acquisition module can also be used to:
  • an initial model is trained to obtain a recommendation reason generation model.
  • the acquisition module when used to acquire training data, it is specifically:
  • the acquisition module when used to train the initial model to obtain the recommendation reason generation model based on the training data and the target recommendation reasons corresponding to the multiple objects, it is specifically as follows: based on the content information of the multiple objects, the valid data and the information corresponding to the multiple objects.
  • Target recommendation reason train the initial model to get the recommendation reason generation model.
  • the preset encoder may include at least one of the following encoders: a bidirectional Long Short-Term Memory (LSTM) encoder, a unidirectional LSTM encoder, a Transformer model, and the like.
  • LSTM Long Short-Term Memory
  • the initial model can include:
  • the priori network module is used to obtain the first recommendation reason according to the content information vector
  • the decoding module is configured to obtain the predicted recommendation reason according to the first recommendation reason, the second recommendation reason and the target recommendation reason.
  • a loss function calculation module for at least one of the following purposes:
  • a third loss function is obtained, where the third loss function is used to instruct to adjust the relevant parameters in the prior network module and/or the relevant parameters in the posterior network module.
  • memory is used to store program instructions
  • the processor is configured to invoke program instructions in the memory to perform the method according to any one of the first aspects.
  • an embodiment of the present application provides a readable storage medium on which a computer program is stored; when the computer program is executed, the method described in any one of the first aspect is implemented.
  • an embodiment of the present application further provides a program product, the program product includes a computer program, the computer program is stored in a readable storage medium, the processor can read the computer program from the readable storage medium, and the processor executes the computer program A method as described in any one of the first aspects is implemented.
  • the embodiments of the present application provide a method, apparatus, device, and storage medium for generating recommendation reasons.
  • the recommendation reason for the object to be recommended is generated,
  • the training data used by the recommendation reason generation model includes question and answer data and content information of multiple objects.
  • the training of the recommendation reason generation model is to combine the question and answer data and content information of multiple objects, the products that users care about most are mined through the question and answer data. Therefore, the recommendation reasons generated by this solution can accurately locate user needs and improve the user experience.
  • FIG. 1 is a schematic diagram of an application scenario of the method for generating a recommendation reason provided by the present application
  • FIG. 2 is a schematic flowchart of a method for generating a recommendation reason provided by an embodiment of the present application
  • FIG. 5 is a schematic flowchart of a method for generating a recommendation reason provided by another embodiment of the present application.
  • FIG. 6 is a schematic diagram of a training process of a recommendation reason generation model provided by an embodiment of the present application.
  • FIG. 7 is a schematic structural diagram of an apparatus for generating a recommendation reason provided by an embodiment of the present application.
  • FIG. 8 is a schematic structural diagram of an electronic device according to an embodiment of the present application.
  • Product recommendation focuses on how to provide users with better product rankings. But at present, only sorting can no longer meet the needs of users. With the increase of time cost, most users prefer to directly see the characteristics of the product and the reasons for recommendation, instead of clicking on the product to view the details to get the information they want. Under the limited screen space of electronic devices such as mobile phones, how to directly display the reason for recommending products and optimize user experience has become an urgent problem that needs to be solved at present.
  • the other uses the product review information as a guideline for user needs to generate recommendation reasons.
  • the comment information contains a large number of favorable template information and false favorable information. If these noise data are used to generate recommendation reasons, it will lead to inaccurate positioning of user needs, which will greatly affect the validity of the generated recommendation reasons, resulting in poor user experience.
  • the inventor found through research, and proposed to use the question and answer data of products to explore the content mining aspects that potential customers want to know. Because the question and answer data reflects the real needs of users, very few users will swipe the screen in the question and answer section, and the question and answer data can more quickly show the user's concerns. As a large number of users ask questions about the products they are interested in, and the purchased users answer their questions, these question-and-answer data themselves directly describe the content that users care about.
  • an embodiment of the present application provides a method for generating a recommendation reason.
  • the content information is assisted to generate a recommendation reason, so that the generated recommendation reason It can effectively locate user needs and improve user experience.
  • the object refers to the commodity carried on the e-commerce website
  • the recommendation reason generation method is a process of screening the commodity and recommending it to the user.
  • FIG. 1 is a schematic diagram of an application scenario of the method for generating recommendation reasons provided by the present application.
  • the application scenario may include: at least one terminal device ( FIG. 1 shows three terminal devices, namely terminal device 111 , terminal device 112 , and terminal device 113 ), network 12 and server 13 . Wherein, each terminal device and the server 13 can communicate through the network 12 .
  • the terminal device 111 when the user browses the e-commerce platform through the terminal device 111, for example, the e-commerce platform can be browsed through the e-commerce APP installed in the terminal device, the terminal device 111 sends an object recommendation request to the server 13 through the network 12, and the server 13 can The user behavior within a preset time period is acquired according to the user identifier included in the object recommendation request, and the object to be recommended to the user is further determined according to the user behavior, wherein the object corresponds to the value obtained by the method for generating recommendation reasons provided in this application. Recommendation reason, and send the recommended object and its corresponding recommendation reason to the terminal device 111 used by the user through the network 12, and the terminal device 111 displays the object and its corresponding recommendation reason to the user.
  • the user behavior includes but is not limited to the behavior of purchasing products, the behavior of adding products to the shopping cart, the behavior of browsing products, and so on.
  • the server 13 obtains the behavior of the user who has purchased the mobile phone according to the user ID, and further determines to recommend related products such as mobile phone films and mobile phone protective covers to the user.
  • the server 13 obtains the above-mentioned commodities and their corresponding recommendation reasons, and sends them to the terminal device 111 , and the terminal device 111 displays the above-mentioned commodities and their corresponding recommendation reasons to the user for the user to view.
  • FIG. 2 is a schematic flowchart of a method for generating a recommendation reason provided by an embodiment of the present application. The method is explained by taking the server in the application scenario shown in FIG. 1 as the execution subject. It should be made clear that the execution body of the method for generating recommendation reasons provided by the embodiments of the present application is not limited by the server, as long as it is an electronic device with a certain computing power, it can be used as the execution body.
  • the method includes the following steps:
  • the terminal device when a user logs in to the APP through a terminal device, for example, when logging in to an e-commerce APP, the terminal device sends a request carrying the user ID to the server, and the server obtains the user's recent user behavior according to the user ID. Get the content information of the object to be recommended. For example, in a recent period of time, the user has the behavior of adding an object to the shopping cart, the server determines the behavior according to the user ID, and obtains content information of similar objects according to the behavior.
  • the server scans each object in its corresponding database, wherein the database stores various related information of the object, such as content information, and obtains the corresponding content information.
  • the core of recommendation reason generation is selling point mining, combined with question and answer data, and a recommendation reason generation model is generated based on content information.
  • the recommendation reason generation model since abundant question and answer data only exists in hot-selling products, it is difficult to obtain enough question-and-answer data for a large number of non-hot-selling products. Reality.
  • the training data used by the recommendation reason generation model since the training data used by the recommendation reason generation model includes the question and answer data and content information of multiple objects, the object that the user cares about most is mined through the question and answer data, and the recommendation reason for the auxiliary object is generated. Therefore, for non-hot-selling products , the recommendation reason generation model has learned the attention points of this type of products, and only the content information can also generate effective recommendation reasons.
  • the recommendation reason for the object to be recommended is generated by acquiring the content information of the object to be recommended, and generating a model and content information according to the pre-trained recommendation reason, wherein the recommendation reason generation model uses
  • the training data includes question answering data and content information of multiple subjects.
  • the model and content information are generated according to the pre-trained recommendation reason, and the recommendation reason for the object to be recommended is generated, which may include:
  • the content information is first encoded to obtain a content information vector.
  • the encoding process converts the content information into a parameter form that can be processed by the recommendation reason generation model, and the content information vector is the input parameter of the recommendation reason generation model.
  • the recommendation reason corresponding to the object to be recommended is obtained, that is, the recommendation reason of the object to be recommended is the output of the recommendation reason generation model.
  • the preset encoder may include at least one of the following encoders: a bidirectional LSTM encoder, a unidirectional LSTM encoder, a Transformer model, and the like.
  • the Transformer model adopts the structure of full attention mechanism instead of the structure of LSTM, and has achieved better results in translation tasks.
  • the content information may include titles and attributes. S301, using a preset encoder to encode the content information to obtain a content information vector, which may include: using a preset encoder to encode the title and the attribute respectively to obtain the title vector and the attribute vector; according to the title vector and the attribute vector and Preset weights to obtain the content information vector.
  • a content information vector which may include: using a preset encoder to encode the title and the attribute respectively to obtain the title vector and the attribute vector; according to the title vector and the attribute vector and Preset weights to obtain the content information vector.
  • the content information including the title and the attribute is used as an example for illustration, but the embodiment of the present application is not limited thereto.
  • the content information can also include any information related to the object itself and stored in the data knowledge base.
  • the set content information includes title and attributes, among which, the title is "LED rechargeable night light", the attribute is “charging, light, large capacity”, and the dimension of the word vector is 128 dimensions.
  • the above-mentioned embodiment introduces the practical application of the recommendation reason generation model, and then describes how to obtain the recommendation reason generation model, that is, the training process of the recommendation reason generation model.
  • FIG. 4 is a schematic flowchart of a method for generating a recommendation reason provided by another embodiment of the present application.
  • the method for generating recommendation reasons in this embodiment may include:
  • acquiring training data may include: acquiring content information of multiple objects; acquiring question-answer data of multiple objects; filtering the question-answer data and content information to obtain valid data.
  • the filtered products manuals are invited to write the target recommendation reasons for the products, and manuals are required to write the target recommendation reasons from the perspective of user experience and according to the question and answer data and content information.
  • the word count of the target recommendation reason is limited to 20 words.
  • this step may include: training an initial model to obtain a recommendation reason generation model based on the content information of the multiple objects, the valid data and the target recommendation reasons corresponding to the multiple objects.
  • This step is similar to S201, and the specific description is as described above, which is not repeated here.
  • This application does not limit the execution order of S402 and S403.
  • the initial model includes:
  • the posterior network module is used to obtain the second recommendation reason according to the content information vector and the question and answer data vector;
  • a third loss function is obtained, where the third loss function is used to instruct to adjust relevant parameters in the prior network module and/or relevant parameters in the posterior network module.
  • the above-mentioned embodiments it may be implemented in whole or in part by software, hardware, firmware or any combination thereof.
  • software it can be implemented in whole or in part in the form of a computer program product.
  • the computer program product includes one or more computer instructions. When the computer program instructions are loaded and executed on a computer, all or part of the processes or functions described in the embodiments of the present application are generated.
  • the computer may be a general purpose computer, special purpose computer, computer network, or other programmable device.
  • an embodiment of the present application further provides a computer-readable storage medium, where computer-executable instructions are stored in the computer-readable storage medium, and when the computer-readable storage medium runs on a computer, the computer executes the instructions as described in the foregoing method embodiments. Methods.
  • an embodiment of the present application further provides a chip for running an instruction, where the chip is configured to execute the method described in the foregoing method embodiment.
  • At least one means one or more
  • plural means two or more.
  • the character “/” generally indicates that the related objects before and after are an “or” relationship; in the formula, the character “/” indicates that the related objects are a “division” relationship.
  • “At least one item(s) below” or similar expressions refer to any combination of these items, including any combination of single item(s) or plural items(s).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种推荐理由生成方法、装置、设备及存储介质,通过获取待推荐对象的内容信息(S201),并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息(S202)。由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,提高了用户的体验。

Description

推荐理由生成方法、装置、设备及存储介质
本申请要求于2020年07月01日提交中国专利局、申请号为202010619641.0、申请名称为“推荐理由生成方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请实施例涉及通信技术领域,尤其涉及一种推荐理由生成方法、装置、设备及存储介质。
背景技术
目前,商品推荐的方法在学术界被广泛研究,并在工业界得到了实际应用。在过去的电商场景下,大多数用户会直接搜索自己想要的产品。但随着经济的快速发展和商品的日益丰富,越来越多的用户并不知道自己需要什么,因此更加习惯于基于商品推荐进行网上购物。
当前较常见的推荐理由生成方案是根据商品的评论信息生成推荐理由。但该方案至少存在以下问题:
商品的评论信息包含了大量的好评模板和虚假好评信息,这些噪音会导致对用户需求的定位不准确,进而影响所生成的推荐理由的效果。
发明内容
本申请实施例提供一种推荐理由生成方法、装置、设备及存储介质,以使得所生成的推荐理由可以准确定位用户需求。
第一方面,本申请实施例提供一种推荐理由生成方法,包括:
获取待推荐对象的内容信息;
根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容 信息。
在一种可能的实施方式中,上述根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,可以包括:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
在一种可能的实施方式中,内容信息可以包括标题和属性。此时上述采用预设编码器对内容信息进行编码处理,得到内容信息向量,可以包括:
分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;
根据标题向量和属性向量及预设权重,得到内容信息向量。
在一种可能的实施方式中,上述根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由之前,还可以包括:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在一种可能的实施方式中,上述获取训练数据,包括:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据。
相应地,上述基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型,包括:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
第二方面,本申请实施例提供一种推荐理由生成装置,包括:
获取模块,用于获取待推荐对象的内容信息;
处理模块,用于根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
在一种可能的实施方式中,处理模块可具体用于:
采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
根据预先训练好的推荐理由生成模型和所述内容信息向量,生成待推荐对象的推荐理由。
在一种可能的实施方式中,内容信息包括标题和属性。此时,处理模块在用于采用预设编码器对内容信息进行编码处理,得到内容信息向量时,具体为:
分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;
根据标题向量和属性向量及预设权重,得到内容信息向量。
在一种可能的实施方式中,获取模块还可以用于:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在一种可能的实施方式中,获取模块在用于获取训练数据时,具体为:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据和内容信息进行过滤处理,获得有效数据。
相应地,获取模块在用于基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型时,具体为:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在上述任一种可能的实施方式的基础上:
可选地,预设编码器可以包括以下编码器中的至少一种:双向长短期记忆网络(Long Short-Term Memory,简称LSTM)编码器、单向LSTM编码器和Transformer模型,等等。
可选地,初始模型可以包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
可选地,初始模型还可以包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
第三方面,本申请实施例提供一种电子设备,包括:存储器和处理器;
存储器用于存储程序指令;
处理器用于调用存储器中的程序指令以执行如第一方面任一项所述的方法。
第四方面,本申请实施例提供一种可读存储介质,可读存储介质上存储有计算机程序;计算机程序被执行时,实现如第一方面任一项所述的方法。
第五方面,本申请实施例还提供一种程序产品,程序产品包括计算机程序,计算机程序存储在可读存储介质中,处理器可以从可读存储介质中读取计算机程序,处理器执行计算机程序实现如第一方面任一项所述的方法。
本申请实施例提供一种推荐理由生成方法、装置、设备及存储介质,通过获取待推荐对象的内容信息,并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。该技术方案中,由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,提高了用户的体验。
附图说明
图1是本申请提供的推荐理由生成方法的应用场景示意图;
图2为本申请一实施例提供的推荐理由生成方法的流程示意图;
图3为本申请另一实施例提供的推荐理由生成方法的流程示意图;
图4为本申请又一实施例提供的推荐理由生成方法的流程示意图;
图5为本申请又一实施例提供的推荐理由生成方法的流程示意图;
图6为本申请一实施例提供的推荐理由生成模型的训练过程示意图;
图7为本申请一实施例提供的推荐理由生成装置的结构示意图;
图8为本申请一实施例提供的电子设备的结构示意图。
具体实施方式
应当理解,本申请实施例中涉及的“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在介绍本申请的技术方案之前,首先结合本申请的一个具体应用场景引出现有技术存在的问题以及本申请的技术构思过程。
示例性的,以下以本申请提供的推荐理由生成方法应用于商品推荐进行说明。具体的,随着电子商务业务的快速发展,网络购物已成为一种购物趋势。在过去的电商场景下,大多数用户会直接搜索自己想要的产品。随着经济的发展和商品的日益丰富,越来越多的用户并不知道自己需要什么,因此更加习惯于基于推荐理由进行网上购物。
商品推荐关注于如何为用户提供更好的商品排序。但是目前仅排序已经无法满足用户的需求。随着时间成本的增加,大多数用户更希望直接地看到商品的特性和推荐理由,而不需要点击商品查看详情才能获得自己想要的信息。在例如手机等电子设备的屏幕有限的空间下,如何直截了当地展示商品的推荐理由,优化用户体验,成为当前亟需解决的问题。
而且,精准有效的推荐理由可以更好地吸引用户的注意力,提升用户的点击和购买。在线分析显示,通过推荐理由的展示,可以快速抓住用户的眼球,提升商品的点击率。总之,生成每个商品的精准有效的推荐理由,是电子商务中重要且实用的问题。
目前,常用的推荐理由生成方法主要包括两种:
一种只关注商品本身,通过商品的标题、属性等内容信息生成推荐理由, 但是它无法准确探知用户最关心的商品方面,***渴望了解的商品内容没有展示,影响用户的体验。
另一种使用商品的评论信息作为用户需求的指引,生成推荐理由。但是由于评论信息包含了大量的好评模板信息和虚假好评信息。如果使用这些噪音数据进行推荐理由生成,会导致对用户需求的定位不准确,进而极大影响所生成的推荐理由的有效性,致使用户体验差的问题。
针对上述问题,发明人通过研究发现,针对潜在客户希望了解的内容挖掘方面,提出使用商品的问答数据进行探索。因为问答数据反映了用户的真实需求,极少有用户会在问答板块刷屏,问答数据可以更快捷地展示用户的关注点。随着大量的用户对感兴趣的商品提问,已购买用户对其问题进行回答,这些问答数据本身就直接描述了用户关心的内容。
具体地,本申请实施例提供了一种推荐理由生成方法,通过对商品的内容信息和问答数据进行学习,使用问答数据作为指引,对内容信息进行辅助生成推荐理由,以使得所生成的推荐理由可以有效定位用户需求,提升用户体验。
值得说明的是,在本申请的实施例中,对象指的是电商网站中承载的商品,相应的,该推荐理由生成方法是筛选商品并推荐给用户的过程。
示例性的,图1是本申请提供的推荐理由生成方法的应用场景示意图。如图1所示,该应用场景可以包括:至少一个终端设备(图1示出了三个终端设备,分别为终端设备111、终端设备112、终端设备113)、网络12和服务器13。其中,每个终端设备与服务器13均可以通过网络12进行通信。
示例地,当用户通过终端设备111浏览电商平台时,例如,可通过终端设备中已安装的电商APP浏览电商平台,终端设备111通过网络12向服务器13发送对象推荐请求,服务器13可以根据对象推荐请求包括的用户标识获取在预设时间段内的用户行为,并进一步地根据用户行为确定要推荐给该用户的对象,其中,对象对应有通过本申请提供的推荐理由生成方法得到的推荐理由,并通过网络12向该用户使用的终端设备111发送推荐的对象及其对应的推荐理由,由终端设备111展示对象及其对应的推荐理由给用户。
其中,用户行为包括但不限于商品购买行为、将商品添加至购物车的行为、浏览商品的行为,等等。以商品购买行为为例,用户在近段时间内购买 过手机,则服务器13根据用户标识获取该用户购买过手机的行为,进一步确定推荐手机膜、手机保护套等相关商品给用户,此时,服务器13获得上述商品及其对应的推荐理由,并发送给终端设备111,由终端设备111展示上述商品及其对应的推荐理由给用户,以供用户查看。
需要说明的是,附图1仅是本申请实施例提供的一种应用场景的示意图,本申请实施例不对图1中包括的设备进行限定,也不对图1中设备之间的位置关系进行限定,例如,在图1所示的应用场景中,还可以包括数据存储设备,该数据存储设备相对服务器13可以是外部存储器,也可以是集成在服务器13中的内部存储器。另外,服务器13可以是独立的服务器,或者,也可以是服务集群等。
下面,通过具体实施例对本申请的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为本申请一实施例提供的推荐理由生成方法的流程示意图。该方法以图1所示应用场景中的服务器作为执行主体进行解释说明。需明确,本申请实施例提供的推荐理由生成方法的执行主体不以服务器为限制,只要是具备一定算力的电子设备,均可作为执行主体。
如图2所示,该方法包括如下步骤:
S201、获取待推荐对象的内容信息。
示例地,在实际应用中,用户通过终端设备登录APP时,例如,登录电商APP,终端设备发送携带该用户标识的请求给服务器,服务器根据用户标识获得该用户最近的用户行为,基于用户行为获取待推荐对象的内容信息。例如,近段时间内,用户有将对象添加至购物车的行为,服务器根据用户标识确定这一行为,并根据该行为获取类似对象的内容信息。
或者,服务器扫描其对应的数据库中各个对象,其中,数据库中存储有对象的各种相关信息,例如内容信息,并获取对应的内容信息。
S202、根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
具体地,推荐理由生成的核心是卖点挖掘,结合问答数据,基于内容信 息生成推荐理由生成模型。
在实际应用中,由于丰富的问答数据仅存在于热销产品,大量的非热销产品难以获得足够的问答数据,当考虑从问答数据进行推荐理由生成时,会面临问答数据不平衡带来的现实问题。本申请实施例中,由于推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的对象,辅助对象的推荐理由生成,因此,针对非热销商品,推荐理由生成模型已经学习到了该类商品的受关注点,仅使用内容信息也可以生成有效的推荐理由。
本申请实施例提供的推荐理由生成方法,通过获取待推荐对象的内容信息,并根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。该技术方案中,由于推荐理由生成模型的训练是结合多个对象的问答数据和内容信息,通过问答数据挖掘用户最在意的商品,因此,通过本方案生成的推荐理由可准确定位用户需求,从而大幅度节约了人工成本,提高了用户的体验。
在上述实施例的基础上,一种实现方式中,如图3所示,根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由,可以包括:
S301、采用预设编码器对内容信息进行编码处理,得到内容信息向量。
S302、根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
该实现方式中,首先对内容信息进行编码处理,得到内容信息向量,可以理解,编码处理即将内容信息转换为推荐理由生成模型可处理的参数形式,内容信息向量为推荐理由生成模型的输入参数,并经推荐理由生成模型处理后得到对应待推荐对象的推荐理由,也就是说,待推荐对象的推荐理由为推荐理由生成模型的输出。
其中,预设编码器可以包括以下编码器中的至少一种:双向LSTM编码器、单向LSTM编码器和Transformer模型等。其中,Transformer模型是采用全注意力机制的结构代替了LSTM的结构,在翻译任务上取得了更好的成绩。
一些实施例中,内容信息可以包括标题和属性。S301、采用预设编码器 对内容信息进行编码处理,得到内容信息向量,可以包括:分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;根据标题向量和属性向量及预设权重,得到内容信息向量。需说明的是,这里是以内容信息包括标题和属性为例进行示例说明,但本申请实施例不以此为限制。例如,内容信息除包括标题和属性之外,也可以包含任何跟对象本身有关,存储在数据知识库中的信息。
示例地,通过以下例子说明推荐理由的生成过程:
1)设定内容信息包括标题和属性,其中,标题为“LED充电式小夜灯”,属性为“充电、轻便、大容量”,字向量的维度为128维,使用双向LSTM编码器分别对标题和属性进行256维编码处理,分别获得标题对应的256维向量和属性对应的256维向量,也就是标题向量和属性向量,其维度均为256维。
2)将这两个256维向量与预设权重结合,标题向量与预设权重λ相乘,属性向量与(1-λ)相乘,得到256维的内容信息向量,作为内容信息的向量表示。
3)将该256维的内容信息向量作为输入,通过预先训练好的推荐理由生成模型,生成推荐理由“小巧便捷可收纳”。
上述实施例介绍了推荐理由生成模型的实际应用,接下来说明如何获取推荐理由生成模型,即推荐理由生成模型的训练过程。
图4为本申请又一实施例提供的推荐理由生成方法的流程示意图。参考图4,该实施例中的推荐理由生成方法可以包括:
S401、获取训练数据。
可选地,S401、获取训练数据,可以包括:获取多个对象的内容信息;获取多个对象的问答数据;对问答数据和内容信息进行过滤处理,获得有效数据。
例如,服务器从数据知识库中获取多个对象的内容信息,例如给定商品的ID、标题和属性等信息。另外,服务器收集对应给定商品的问答数据,包括问题和该问题对应的所有答案以及它们对应的点赞数等。
对于过滤处理,可以理解,示例地:
从商品粒度出发:如果给定商品的问题个数少于3个,做剔除该给定商 品的处理;或者,如果给定商品的问题个数超过70,则保留该给定商品排名在前的70个问题及其答案。
从商品对应的问题粒度出发:针对每个商品,删除没有答案的问题;和/或,如果某问题对应的答案超过20条,则保留排名在前的20条答案。
应当理解,对于剔除的商品,其对应的内容信息也做删除处理。
对于过滤后的商品,邀请人工撰写商品的目标推荐理由,要求人工从用户体验的角度出发,根据问答数据和内容信息,撰写目标推荐理由。示例地,目标推荐理由的字数限制在20字以内。
最终,获得了训练数据和多个对象对应的目标推荐理由。
S402、基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
与S401的相关描述相对应,该步骤可以包括:基于多个对象的内容信息、有效数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
S403、获取待推荐对象的内容信息。
该步骤与S201类似,具体描述如前所述,此处不再赘述。对于S402与S403的执行顺序,本申请不予限制。
S404、根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由。
该步骤与S202类似,具体描述如前所述,此处不再赘述。
该实施例,在获取训练数据之后,其中训练数据包括多个对象的内容信息和问答数据,对问答数据进行过滤处理,以剔除噪声干扰,获得有效问答数据;进一步地,基于多个对象的内容信息、有效问答数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型,这样,可快速得到性能较好的推荐理由生成模型。
请参见图5,图5为本申请又一实施例提供的推荐理由生成方法的流程示意图,其具体包括以下步骤:获取多个对象的内容信息;获取多个对象的问答数据;对多个对象的内容信息和问答数据进行过滤处理,得到有效数据;使用该有效数据对初始网络进行训练,得到推荐理由生成模型;获取待推荐对象的内容信息,通过推荐理由生成模型处理,得到该待推荐对象的推荐理 由。其中,左边虚线框用于获得训练数据,右边虚线框为推荐理由生成装置要实现的功能,其中,推荐理由生成装置的相关描述可参考后续实施例,此处不再赘述。
接下来,介绍初始模型的具体构成。初始模型包括:
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
进一步地,初始模型还包括:损失函数计算模块。该损失函数计算模块可用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,第三损失函数用于指示调整先验网络模块中相关参数和/或后验网络模块中相关参数。
示例地,推荐理由生成模型的训练过程如图6所示。参考图6,训练过程如下:
一、将商品的标题和属性分别作为预设编码器的输入,如图6下方所示,获得标题和属性的向量表示。具体地,设定属性为W={w 1,…,w n},使用双向LSTM编码器将属性表示为固定的向量表示h W={h W,1,…,h W,n};此外,设定标题T={t 1,…,t n},使用双向LSTM编码器将标题表示为固定的向量表示h T={h t,1,…,h t,n}。
二、通过自注意力机制模块,线性叠加标题向量和属性向量,如图6中间所示,最终获得内容信息向量。具体地,将标题向量h T和属性向量h W作为初始化输入
Figure PCTCN2021102539-appb-000001
Figure PCTCN2021102539-appb-000002
那么第l层的自注意力表示为:
Figure PCTCN2021102539-appb-000003
Figure PCTCN2021102539-appb-000004
其中,FFN表示前向神经网络,MHA表示多头自注意力机制。
最终的内容信息向量表示为:
Figure PCTCN2021102539-appb-000005
其中,λ 1表示线性调节参数,
Figure PCTCN2021102539-appb-000006
Figure PCTCN2021102539-appb-000007
表示最后一层(即第N层)多头注意力机制的输出。
三、将商品对应的问答数据,包括问题语句和答案语句,作为预设编码器的输入,如图6左边所示,获得问答数据的向量表示。具体地,给定第i个问答数据qa={q 1,…,q n,a 1,…,a n},我们仍然使用双向LSTM编码器将该问答数据表示为
Figure PCTCN2021102539-appb-000008
具体地,给定商品的问答数据,将问答数据中问题对应的答案做拼接操作,使用双向LSTM编码器对问答数据进行编码,作为该问答数据的向量表示。
四、通过内容信息的指导机制,最终获得不同问答数据的权重,综合后得到问答数据的向量表示。具体地,给定每个问答数据的表示集合
Figure PCTCN2021102539-appb-000009
问答数据向量表示为:
Figure PCTCN2021102539-appb-000010
Figure PCTCN2021102539-appb-000011
其中,W 1、W 2、b 1和b 2是模型学习的参数。
为了获得该商品在问答数据的最终表示,将商品的内容信息融入到问答数据中,用于指导商品问答数据的向量表示。将商品的内容信息向量进行线性变换,并对每个问答数据向量进行线性变换,将这两个线性变换后的向量进行乘积操作,通过softmax函数,得到该问答数据的权重。最后通过该权重与该问答数据做乘积操作,获得该问答数据的向量表示。
五、后验网络模块将商品的内容信息和问答数据作为输入,将推荐理由作为输出,即
Figure PCTCN2021102539-appb-000012
先验网络模块将商品的内容信息作为输入,将推荐理由作为输出,即
Figure PCTCN2021102539-appb-000013
如图6上方所示,使用KL距离,使得先验网络模块与后验网络模块无限接近,即
Figure PCTCN2021102539-appb-000014
其中,W 3、W 4、b 3和b 4是模型学习的参数。
将商品的内容信息向量与商品的问答数据向量进行拼接,通过多层感知机,得到后验网络模块的表示,将该表示输入到解码模块中。仅使用商品的 内容信息向量,通过相同的多层感知机,得到先验网络模块的表示,将该表示输入到解码模块中。通过KL距离,使得后验网络模块与先验网络模块无限接近,达到训练网络的目的。
六、解码模块使用标准的Transformer模型进行解码,解码模块的结构如图6右侧部分所示。
模型训练目标包括先验后验网络的KL距离(即第三损失函数)、后验网络模块生成推荐理由KLL损失函数(即第二损失函数)和通过问答数据生成推荐理由REG损失函数(即第一损失函数)三部分。具体地,
Figure PCTCN2021102539-appb-000015
其中,y <t表示已经生成的字,θ表示模型参数。
Figure PCTCN2021102539-appb-000016
最终的损失函数表示为:
Figure PCTCN2021102539-appb-000017
基于Transformer模型生成的推荐理由,其中可以使用预训练模型对词表进行进一步优化,增强数据的关系化建模,从而提升推荐理由的有效性。
仍以上述标题为“LED充电式小夜灯”,属性为“充电、轻便、大容量”的示例为例,将256维的内容信息向量作为解码模块的输入,输出为词表大小的归一向量,每个维度对应一个中文字,一步步获得每个字的概率分布。通过集束搜索(beam search)方式,生成的推荐理由。
例如第一个解码的beam=3的最大概率的3个字为“充,小,大”,分别将这五个字作为解码模块的输入,进行下一步解码。以“充”为输入获得“电,气,满”,以“小”为输入获得“巧,孩,时”,以“大”为输入获得“容,点,号”,综合比较“充电、充气、充满、小巧、小孩、小时、大容、大点、大号”的概率,选择排序在前三的词语“充电、小巧、大容”作为根节点,继续进行下一步解码。最终在获得的排序在前三的短语中,选择概率最大的作为生成的推荐理由,例如“小巧便捷可收纳”。
本申请提出了一个基于用户问答数据的推荐理由自动生成方案,即层次化多源后验网络推荐理由生成方法。针对非热销商品的推荐理由生成,本申请利用后验网络模块具有记忆的特点,通过该商品的标题和属性,就能够生成满足用户需求的推荐理由。
另外,将问答数据的问题和答案的关系进行细致的建模,可以有效提升问答数据挖掘的准确度。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图7为本申请一实施例提供的推荐理由生成装置的结构示意图。本申请实施例提供一种推荐理由生成装置,该装置可以集成在例如服务器等电子设备上,或该装置可以集成在电子设备的芯片上,或该装置也可以是电子设备。如图7所示,推荐理由生成装置60包括:获取模块61和处理模块62。其中:
获取模块61,用于获取待推荐对象的内容信息。
处理模块62,用于根据预先训练好的推荐理由生成模型和内容信息,生成待推荐对象的推荐理由。其中,推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
可选地,处理模块62具体用于:采用预设编码器对内容信息进行编码处理,得到内容信息向量;根据预先训练好的推荐理由生成模型和内容信息向量,生成待推荐对象的推荐理由。
进一步地,内容信息可以包括标题和属性。对应地,处理模块62在用于采用预设编码器对内容信息进行编码处理,得到内容信息向量时,可以具体为:分别采用预设编码器对标题和属性进行编码处理,得到标题向量和属性向量;根据标题向量和属性向量及预设权重,得到内容信息向量。
示例地,预设编码器可以包括以下编码器中的至少一种:双向LSTM编码器、单向LSTM编码器和Transformer模型等。
一些实施例中,获取模块61还可以用于:
获取训练数据;
基于训练数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
进一步地,获取模块61在用于获取训练数据时,可以具体为:
获取多个对象的内容信息;
获取多个对象的问答数据;
对问答数据进行过滤处理,获得有效问答数据。
相应地,获取模块61在用于基于训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型时,可以具体为:基于多个对象的内容信息、有效问答数据和多个对象对应的目标推荐理由,训练初始模型得到推荐理由生成模型。
在上述任一实施例中,初始模型可以包括:
内容信息模块,用于对内容信息进行编码处理,得到内容信息向量;
问答数据模块,用于根据内容信息向量和问答数据,获得问答数据向量;
先验网络模块,用于根据内容信息向量,获得第一推荐理由;
后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
更进一步地,初始模型还可以包括:
损失函数计算模块,用于以下至少一种用途:
根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整先验网络模块中相关参数和/或后验网络模块中相关参数。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,处理模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形 式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上处理模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(Digital Signal Processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上***(System-On-a-Chip,简称SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘solid state disk(SSD))等。
图8为本申请一实施例提供的电子设备的结构示意图。如图8所示,该电子设备可以包括:处理器71、存储器72、通信接口73和***总线74。其中,存储器72和通信接口73通过***总线74与处理器71连接并完成相互 间的通信,存储器72用于存储计算机执行指令,通信接口73用于和其他设备进行通信,处理器71执行上述计算机执行指令时实现如上述方法实施例所述的方案。
该图8中提到的***总线可以是外设部件互连标准(Peripheral Component Interconnect,简称PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,简称EISA)总线等。该***总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可选的,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当其在计算机上运行时,使得计算机执行如上述方法实施例所述的方法。
可选的,本申请实施例还提供一种运行指令的芯片,所述芯片用于执行上述方法实施例所述的方法。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中,至少一个处理器可以从该计算机可读存储介质中读取计算机程序,该至少一个处理器执行所述计算机程序时可实现上述方法实施例所述的方法。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系;在公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括 单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中,a,b,c可以是单个,也可以是多个。
可以理解的是,在本申请的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的实施例的范围。在本申请的实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (18)

  1. 一种推荐理由生成方法,其特征在于,包括:
    获取待推荐对象的内容信息;
    根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,所述推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
  2. 根据权利要求1所述的方法,其特征在于,所述根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,包括:
    采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
    根据预先训练好的推荐理由生成模型和所述内容信息向量,生成所述待推荐对象的推荐理由。
  3. 根据权利要求2所述的方法,其特征在于,所述内容信息包括标题和属性,所述采用预设编码器对所述内容信息进行编码处理,得到内容信息向量,包括:
    分别采用所述预设编码器对所述标题和所述属性进行编码处理,得到标题向量和属性向量;
    根据所述标题向量和所述属性向量及预设权重,得到所述内容信息向量。
  4. 根据权利要求2所述的方法,其特征在于,所述预设编码器,包括以下编码器中的至少一种:
    双向长短期记忆网络LSTM编码器、单向LSTM编码器、Transformer模型。
  5. 根据权利要求1至4中任一项所述的方法,其特征在于,所述根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由之前,还包括:
    获取所述训练数据;
    基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
  6. 根据权利要求5所述的方法,其特征在于,所述获取所述训练数据,包括:
    获取所述多个对象的内容信息;
    获取所述多个对象的问答数据;
    对问答数据和内容信息进行过滤处理,获得有效数据;
    相应地,所述基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型,包括:
    基于所述多个对象的内容信息、所述有效数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
  7. 根据权利要求5所述的方法,其特征在于,所述初始模型,包括:
    先验网络模块,用于根据内容信息向量,获得第一推荐理由;
    后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
    解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
  8. 根据权利要求7所述的方法,其特征在于,所述初始模型,还包括:
    损失函数计算模块,用于以下至少一种用途:
    根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
    根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
    根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
  9. 一种推荐理由生成装置,其特征在于,包括:
    获取模块,用于获取待推荐对象的内容信息;
    处理模块,用于根据预先训练好的推荐理由生成模型和所述内容信息,生成所述待推荐对象的推荐理由,所述推荐理由生成模型使用的训练数据包括多个对象的问答数据和内容信息。
  10. 根据权利要求9所述的装置,其特征在于,所述处理模块具体用于:
    采用预设编码器对所述内容信息进行编码处理,得到内容信息向量;
    根据预先训练好的推荐理由生成模型和所述内容信息向量,生成所述待推荐对象的推荐理由。
  11. 根据权利要求10所述的装置,其特征在于,所述内容信息包括标题和属性,所述处理模块在用于采用预设编码器对所述内容信息进行编码处理,得到内容信息向量时,具体为:
    分别采用所述预设编码器对所述标题和所述属性进行编码处理,得到标题向量和属性向量;
    根据所述标题向量和所述属性向量及预设权重,得到所述内容信息向量。
  12. 根据权利要求10所述的装置,其特征在于,所述预设编码器,包括以下编码器中的至少一种:
    双向长短期记忆网络LSTM编码器、单向LSTM编码器、Transformer模型。
  13. 根据权利要求9至12中任一项所述的装置,其特征在于,所述获取模块还用于:
    获取所述训练数据;
    基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
  14. 根据权利要求13所述的装置,其特征在于,所述获取模块在用于获取所述训练数据时,具体为:
    获取所述多个对象的内容信息;
    获取所述多个对象的问答数据;
    对问答数据和内容信息进行过滤处理,获得有效数据;
    相应地,所述获取模块在用于基于所述训练数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型时,具体为:
    基于所述多个对象的内容信息、所述有效数据和所述多个对象对应的目标推荐理由,训练初始模型得到所述推荐理由生成模型。
  15. 根据权利要求13所述的装置,其特征在于,所述初始模型,包括:
    先验网络模块,用于根据内容信息向量,获得第一推荐理由;
    后验网络模块,用于根据内容信息向量和问答数据向量,获得第二推荐理由;
    解码模块,用于根据第一推荐理由、第二推荐理由和目标推荐理由,获得预测推荐理由。
  16. 根据权利要求15所述的装置,其特征在于,所述初始模型,还包括:
    损失函数计算模块,用于以下至少一种用途:
    根据问答数据向量和目标推荐理由,获得第一损失函数,所述第一损失函数用于指示调整所述解码模块中相关参数;
    根据预测推荐理由和目标推荐理由,获得第二损失函数,所述第二损失函数用于指示调整所述解码模块中相关参数;
    根据第一推荐理由和第二推荐理由,获得第三损失函数,所述第三损失函数用于指示调整所述先验网络模块中相关参数和/或所述后验网络模块中相关参数。
  17. 一种电子设备,其特征在于,包括:存储器和处理器;
    所述存储器用于存储程序指令;
    所述处理器用于调用所述存储器中的程序指令以执行如权利要求1至8中任一项所述的方法。
  18. 一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序;所述计算机程序被执行时,实现如权利要求1至8中任一项所述的方法。
PCT/CN2021/102539 2020-07-01 2021-06-25 推荐理由生成方法、装置、设备及存储介质 WO2022001896A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21832360.8A EP4177812A4 (en) 2020-07-01 2021-06-25 METHOD AND DEVICE FOR GENERATING RECOMMENDATION CAUSES AS WELL AS DEVICE AND STORAGE MEDIUM
US18/004,008 US20230274332A1 (en) 2020-07-01 2021-06-25 Method and apparatus for generating recommendation reason, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010619641.0 2020-07-01
CN202010619641.0A CN112308650B (zh) 2020-07-01 2020-07-01 推荐理由生成方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
WO2022001896A1 true WO2022001896A1 (zh) 2022-01-06

Family

ID=74483107

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/102539 WO2022001896A1 (zh) 2020-07-01 2021-06-25 推荐理由生成方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US20230274332A1 (zh)
EP (1) EP4177812A4 (zh)
CN (1) CN112308650B (zh)
WO (1) WO2022001896A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024022066A1 (zh) * 2022-07-29 2024-02-01 北京沃东天骏信息技术有限公司 文案生成方法、装置及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308650B (zh) * 2020-07-01 2022-09-30 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质
CN113158056A (zh) * 2021-04-27 2021-07-23 口碑(上海)信息技术有限公司 推荐语的生成方法及装置
CN113409123A (zh) * 2021-07-01 2021-09-17 北京沃东天骏信息技术有限公司 一种信息推荐方法、装置、设备及存储介质
CN113688309B (zh) * 2021-07-23 2022-11-29 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置
CN114722188A (zh) * 2022-06-09 2022-07-08 北京鑫宇创世科技有限公司 基于运营数据的广告生成方法、装置、设备及存储介质
CN114936301B (zh) * 2022-07-20 2022-10-25 深圳装速配科技有限公司 智能家居建材数据的管理方法、装置、设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060217962A1 (en) * 2005-03-08 2006-09-28 Yasuharu Asano Information processing device, information processing method, program, and recording medium
US20090138443A1 (en) * 2007-11-23 2009-05-28 Institute For Information Industry Method and system for searching for a knowledge owner in a network community
CN103914543A (zh) * 2014-04-03 2014-07-09 北京百度网讯科技有限公司 搜索结果的展现方法和装置
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN106776568A (zh) * 2016-12-26 2017-05-31 成都康赛信息技术有限公司 基于用户评价的推荐理由生成方法
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置
US20190228269A1 (en) * 2018-01-04 2019-07-25 IAS Machine, LLC Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质
CN110458638A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 一种商品推荐方法及装置
CN112308650A (zh) * 2020-07-01 2021-02-02 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7376576B2 (en) * 2001-03-16 2008-05-20 Portblue Corporation Decision making and implementation system
US20120233020A1 (en) * 2008-01-02 2012-09-13 Turnto Networks, Inc. Using social network and transaction information
US20140358635A1 (en) * 2013-05-29 2014-12-04 International Business Machines Corporation Making product substitution recommendations
CN107918616A (zh) * 2016-10-09 2018-04-17 阿里巴巴集团控股有限公司 搜索***、页面显示方法及客户端
CN110532463A (zh) * 2019-08-06 2019-12-03 北京三快在线科技有限公司 推荐理由生成装置及方法、存储介质以及电子设备
CN110990600B (zh) * 2019-12-04 2023-04-18 腾讯科技(深圳)有限公司 多媒体文件推荐、参数调整方法、装置、介质及电子设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060217962A1 (en) * 2005-03-08 2006-09-28 Yasuharu Asano Information processing device, information processing method, program, and recording medium
US20090138443A1 (en) * 2007-11-23 2009-05-28 Institute For Information Industry Method and system for searching for a knowledge owner in a network community
CN103914543A (zh) * 2014-04-03 2014-07-09 北京百度网讯科技有限公司 搜索结果的展现方法和装置
CN106776568A (zh) * 2016-12-26 2017-05-31 成都康赛信息技术有限公司 基于用户评价的推荐理由生成方法
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置
US20190228269A1 (en) * 2018-01-04 2019-07-25 IAS Machine, LLC Procedural language and content generation environment for use in augmented reality/mixed reality systems to support laboratory and related operations
CN110188182A (zh) * 2019-05-31 2019-08-30 中国科学院深圳先进技术研究院 模型训练方法、对话生成方法、装置、设备及介质
CN110458638A (zh) * 2019-06-26 2019-11-15 平安科技(深圳)有限公司 一种商品推荐方法及装置
CN110457452A (zh) * 2019-07-08 2019-11-15 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质
CN112308650A (zh) * 2020-07-01 2021-02-02 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN LONG: "Intelligent Text Understanding for Product Reviews", CHINESE SELECTED DOCTORAL DISSERTATIONS AND MASTER'S THESES FULL-TEXT DATABASES (DOCTORAL), INFORMATION SCIENCE AND TECHNOLOGY, no. 1, 15 January 2020 (2020-01-15), XP055884159 *
See also references of EP4177812A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024022066A1 (zh) * 2022-07-29 2024-02-01 北京沃东天骏信息技术有限公司 文案生成方法、装置及存储介质

Also Published As

Publication number Publication date
US20230274332A1 (en) 2023-08-31
EP4177812A4 (en) 2024-06-12
CN112308650A (zh) 2021-02-02
EP4177812A1 (en) 2023-05-10
CN112308650B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
WO2022001896A1 (zh) 推荐理由生成方法、装置、设备及存储介质
US11960556B2 (en) Techniques for presenting content to a user based on the user's preferences
US10409880B2 (en) Techniques for presenting content to a user based on the user's preferences
WO2021047593A1 (zh) 推荐模型的训练方法、预测选择概率的方法及装置
KR102472572B1 (ko) 사용자 의도 프로파일링 방법 및 이를 위한 장치
US10796094B1 (en) Extracting keywords from a document
WO2023065211A1 (zh) 一种信息获取方法以及装置
KR20160144384A (ko) 딥 러닝 모델을 이용한 상황 의존 검색 기법
EP4258132A1 (en) Recommendation method, recommendation network, and related device
US9767204B1 (en) Category predictions identifying a search frequency
Yan et al. A unified video recommendation by cross-network user modeling
WO2019072098A1 (zh) 一种识别核心产品词的方法和***
Shen et al. A voice of the customer real-time strategy: An integrated quality function deployment approach
CN115659995B (zh) 一种文本情感分析方法和装置
US10474670B1 (en) Category predictions with browse node probabilities
WO2024002167A1 (zh) 一种操作预测方法及相关装置
JP7204903B2 (ja) 情報プッシュ方法、装置、機器及び記憶媒体
US10387934B1 (en) Method medium and system for category prediction for a changed shopping mission
CN114429384B (zh) 基于电商平台的产品智能推荐方法及***
JP2024512597A (ja) マルチモーダル談話ツリーを生成するための技術
CN111177493B (zh) 数据处理方法、装置、服务器和存储介质
Kalou et al. Semantic web rules and ontologies for developing personalised mashups
US11860917B1 (en) Catalog adoption in procurement
US20240184839A1 (en) Techniques for presenting content to a user based on the user's preferences
Wang et al. Interactive Art Design and Color Perception Based on the Sparse Network and the VR System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21832360

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021832360

Country of ref document: EP

Effective date: 20230201