JP2014225091A - Recommendation server and feature dictionary generation method - Google Patents
Recommendation server and feature dictionary generation method Download PDFInfo
- Publication number
- JP2014225091A JP2014225091A JP2013103312A JP2013103312A JP2014225091A JP 2014225091 A JP2014225091 A JP 2014225091A JP 2013103312 A JP2013103312 A JP 2013103312A JP 2013103312 A JP2013103312 A JP 2013103312A JP 2014225091 A JP2014225091 A JP 2014225091A
- Authority
- JP
- Japan
- Prior art keywords
- occurrence
- word
- content
- user history
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数のユーザ端末に対しレコメンドコンテンツを提供するレコメンドサーバ、及び、レコメンドコンテンツを決定するために使用される特徴辞書を作成する特徴辞書生成方法に関する。なお、以下では、レコメンドコンテンツを提供する対象のユーザを「対象ユーザ」という。 The present invention relates to a recommendation server that provides recommended content to a plurality of user terminals, and a feature dictionary generation method for creating a feature dictionary used for determining recommended content. Hereinafter, a target user who provides recommended content is referred to as a “target user”.
レコメンデーション技術においては、対象ユーザが過去に利用又は視聴したコンテンツをもとに、個々の対象ユーザの嗜好性を学習し、当該対象ユーザの嗜好性に類似した特徴を有するコンテンツを提供する。これを実現するための技術としては、例えば非特許文献1に記載された技術が用いられる。以下、既存のレコメンデーション技術の一例を説明する。
In the recommendation technique, the target user learns the preference of each target user based on the content that the target user has used or watched in the past, and provides content having characteristics similar to the target user's preference. As a technique for realizing this, for example, the technique described in Non-Patent
このレコメンデーション技術は、以下の3ステップの処理を行うことにより、レコメンドコンテンツを提供する。
(ステップ1)コンテンツの特徴をコンテンツ特徴ベクトルとして表現する。
(ステップ2)対象ユーザの視聴履歴に基づき対象ユーザの特徴をユーザ特徴ベクトルとして表現する。
(ステップ3)コンテンツ特徴ベクトルとユーザ特徴ベクトルとの類似度を計算し、類似度の高いコンテンツをレコメンド対象とする。
This recommendation technology provides recommended content by performing the following three-step process.
(Step 1) The feature of the content is expressed as a content feature vector.
(Step 2) The feature of the target user is expressed as a user feature vector based on the viewing history of the target user.
(Step 3) The similarity between the content feature vector and the user feature vector is calculated, and the content with a high similarity is set as a recommendation target.
上記のステップ1においては、コンテンツを特徴づけるためにベクトル化の処理を行う。このベクトル化の処理では、非特許文献1に記載されるように、特徴辞書と呼ばれる情報の集合により、特徴語を定義する。そして、定義された特徴語が、各コンテンツに対応するメタデータ内に出現する頻度を基に数値化し、ベクトル化する。このベクトル化の処理により得られるベクトルを、コンテンツ特徴ベクトルと呼ぶ。
In
より具体的には、例えば図1に示されるように、特徴ID「1」〜「5」にそれぞれ特徴語「ドラマ」、「スポーツ」、「街」、「涙」、「演劇」を対応付ける特徴辞書が定義されているとする。 More specifically, for example, as shown in FIG. 1, the feature words “drama”, “sports”, “town”, “tears”, and “drama” are associated with feature IDs “1” to “5”, respectively. Suppose a dictionary is defined.
このとき、あるコンテンツ1に付随するメタデータに「ドラマ」という特徴語が1つ、「涙」という特徴語が2つ、「演劇」という特徴語が2つ、それぞれ含まれている場合には、このコンテンツ1のコンテンツ特徴ベクトルは、{1/3,0,0,2/3,2/3}となる。コンテンツ特徴ベクトルの各次元の成分は、(メタデータにおける特徴語の出現数)/(ノルム)で計算される。ここで、ノルムは、各特徴語の出現数の2乗値の総和の平方根である。ノルムで除算を行っているのは、コンテンツ特徴ベクトルの長さを1にするための正規化処理である。
At this time, if metadata associated with a
また、別のコンテンツ2のメタデータに「街」という特徴語しか含まれない場合には、このコンテンツ2のコンテンツ特徴ベクトルは、{0,0,1,0,0}となる。
When only the feature word “town” is included in the metadata of
次のステップ2においては、ユーザの履歴に基づいてユーザの特徴をベクトル化する。このベクトル化の処理により得られるベクトルを、ユーザ特徴ベクトルと呼ぶ。ユーザ特徴ベクトルの計算方法はいくつか提案されているが、一例として、非特許文献2に記載された、SVM(Support Vector Machine)という手法を用いた計算方法がある。SVMを用いた計算方法について、以下説明する。
In the
例えば、ユーザAがコンテンツ1とコンテンツ2とを視聴していた場合には、コンテンツ1のメタデータに含まれる特徴語「ドラマ」及び「涙」に対応する特徴辞書の第1次元及び第4次元、並びにコンテンツ2のメタデータに含まれる特徴語「街」に対応する特徴辞書の第3次元に正の値を有するベクトルとして、ユーザ特徴ベクトル{0.58,0,0.58,0.58,0}が得られる。
For example, when user A is viewing
また、あるユーザBがコンテンツ2のみを視聴していた時は、コンテンツ2の特徴語「街」に対応する特徴辞書の第3次元のみに正の値を有するベクトルとして、ユーザ特徴ベクトルは{0,0,1,0,0}となる。
When a user B is viewing only the
最後のステップ3において、対象ユーザの特徴に応じてどのコンテンツをレコメンドするかを最終的に決定する。レコメンドされるコンテンツの決定は、対象ユーザのユーザ特徴ベクトルと各コンテンツのコンテンツ特徴ベクトルとの類似度を計算し、類似度の高いコンテンツを選択することにより行われる。類似度の計算は、例えばユーザ特徴ベクトルとコンテンツ特徴ベクトルとの内積を計算することにより行われる。
In the
ところで、上述のユーザBに対するレコメンドコンテンツを決定する際に、問題になる場合がある。例えば、レコメンド対象コンテンツのうち、メタデータに「街」という特徴語を含むコンテンツがコンテンツ2しかない場合を考える。ユーザBのユーザ特徴ベクトルは、上述の通り{0,0,1,0,0}である。したがって、類似度の高い(すなわちユーザBのユーザ特徴ベクトルと、当該コンテンツのコンテンツ特徴ベクトルとの内積が正の値となる)コンテンツは、コンテンツ2しか存在しない。しかしながら、コンテンツ2は、既にユーザBが視聴したコンテンツであるため、このコンテンツ2をレコメンドするのは、サービス上、効果がない。
By the way, when determining the recommended content for the user B described above, there may be a problem. For example, let us consider a case in which only
このような問題を解決するために、特徴ベクトルの各次元に複数の特徴語を対応付ける方法がある。この方法で定義される特徴辞書を図2に示す。この特徴辞書では、特徴ID1に特徴語1〜4としてそれぞれ「ドラマ」、「国内」、「海外」、「映画」が対応付けられ、特徴ID2に特徴語1〜4としてそれぞれ「スポーツ」、「野球」、「バスケ」、「卓球」が対応付けられている。このように特徴辞書を定義することにより、1つの次元に複数の特徴語を対応付けられるため、特徴ベクトルの1次元あたり、より多くのコンテンツの特徴を表現することができる。
In order to solve such a problem, there is a method of associating a plurality of feature words with each dimension of the feature vector. A feature dictionary defined by this method is shown in FIG. In this feature dictionary, “drama”, “domestic”, “overseas”, and “movie” are associated with
しかしながら、従来の方法では、特徴辞書の各次元への特徴語のまとめ方は、似たような言葉をサービス運用者が手作業でまとめて各次元に対応付けるというものであった。この方法では、作業に労力や時間がかかっており、さらに、複数の特徴語をまとめる方法も確立されていなかった。 However, in the conventional method, the feature words are grouped in each dimension of the feature dictionary in which similar words are manually collected by the service operator and associated with each dimension. In this method, labor and time are required for the work, and a method for collecting a plurality of feature words has not been established.
そこで、本発明は、特徴ベクトルの各次元に複数の特徴語を対応付ける特徴辞書を定義する場合に、特徴語を自動的に且つ適切に特徴ベクトルの各次元に対応付けるレコメンドサーバ及び特徴辞書生成方法を提供することを目的とする。 Therefore, the present invention provides a recommendation server and a feature dictionary generation method for automatically and appropriately associating a feature word with each dimension of a feature vector when defining a feature dictionary that associates a plurality of feature words with each dimension of the feature vector. The purpose is to provide.
本発明に係るレコメンドサーバは、コンテンツを表すデータから抽出されたユーザ履歴内共起元ワードのそれぞれについて、コンテンツを表すデータから抽出された他のワードとのユーザ履歴内共起強度を算出するユーザ履歴内共起強度算出手段と、ユーザ履歴内共起強度算出手段により算出されたユーザ履歴内共起強度の強い順に、ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードを1つ以上選択し、ユーザ履歴内共起元ワード及び選択されたユーザ履歴内共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するユーザ履歴内共起ワード設定手段と、ユーザ履歴内共起ワード設定手段により特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成する特徴辞書生成手段と、を備える。 The recommendation server according to the present invention calculates a user history co-occurrence intensity with another word extracted from data representing content for each of the user history co-occurrence source words extracted from the data representing content. User history co-occurrence strength calculating means and user history co-occurrence intensity calculating means, in the order of the strongest user history co-occurrence intensity, the user history co-occurrence source word and the user history co-occurrence destination User history co-occurrence word setting means for selecting one or more words and collectively setting the user history co-occurrence source word and the selected user history co-occurrence destination word as feature words corresponding to each dimension of the feature vector; And generating a feature dictionary composed of feature words set as feature words corresponding to each dimension of the feature vector by the user history co-occurrence word setting means It includes a feature dictionary generating means.
上記のレコメンドサーバによれば、ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードがユーザ履歴内共起強度の強い順に選択され、ユーザ履歴内共起元ワードとともに特徴ベクトルの各次元に対応する特徴語としてまとめて設定される。そして、このように設定された特徴語で構成された特徴辞書が生成される。これにより、関連の強い1つ以上の特徴語をまとめて特徴ベクトルの各次元に対応させた特徴辞書が生成されるため、特徴ベクトルの各次元に複数の特徴語を対応付ける特徴辞書を定義する場合に、特徴語を自動的に且つ適切に定義することができる。そして、このように特徴辞書を生成することにより、コンテンツを表すデータに所定のワードを含むコンテンツを視聴した対象ユーザに、当該所定のワードと関連の強い(すなわちユーザ履歴内共起する)他のワードを含む他のコンテンツをレコメンドすることができ、対象ユーザに対するレコメンドコンテンツのバリエーションが広がる。 According to the above recommendation server, the co-occurrence source word in the user history and the co-occurrence destination word in the user history that co-occurs in the user history are selected in the order of the strength of the co-occurrence in the user history, and together with the co-occurrence source word in the user history It is set collectively as feature words corresponding to each dimension of the vector. Then, a feature dictionary composed of the feature words set in this way is generated. As a result, a feature dictionary in which one or more strongly related feature words are collected and corresponded to each dimension of the feature vector is generated. Therefore, when defining a feature dictionary that associates a plurality of feature words to each dimension of the feature vector In addition, feature words can be defined automatically and appropriately. Then, by generating the feature dictionary in this way, the target user who has watched the content including the predetermined word in the data representing the content is strongly related to the predetermined word (that is, co-occurs in the user history). Other contents including the word can be recommended, and variations of the recommended contents for the target user are expanded.
上記のレコメンドサーバでは、ユーザ履歴内共起ワード設定手段により選択されなかったワードであるコンテンツ間共起元ワードのそれぞれについて、他のワードとのコンテンツ間共起強度を算出するコンテンツ間共起強度算出手段と、コンテンツ間共起強度算出手段により算出されたコンテンツ間共起強度の強い順に、コンテンツ間共起元ワードとコンテンツ間共起するコンテンツ間共起先ワードを1つ以上選択し、コンテンツ間共起元ワード及び選択されたコンテンツ間共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するコンテンツ間共起ワード設定手段と、をさらに備え、特徴辞書生成手段は、ユーザ履歴内共起ワード設定手段及びコンテンツ間共起ワード設定手段により特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成してもよい。この場合、コンテンツを表すデータに所定のワードを含むコンテンツを視聴した対象ユーザに、当該所定のワードと関連の強いワードとして、当該所定のワードとコンテンツ間共起する他のワードを含む他のコンテンツをレコメンドすることもできるようになり、対象ユーザに対するレコメンドコンテンツのバリエーションがさらに広がる。 In the recommendation server, the content co-occurrence strength for calculating the content co-occurrence strength with other words is calculated for each of the content co-occurrence source words that are not selected by the user history co-occurrence word setting unit. Select one or more content co-occurrence source words and content co-occurrence destination words that co-occur between content items in the order of the content co-occurrence strength calculated by the calculation unit and the content co-occurrence strength calculation unit. A content co-occurrence word setting unit configured to collectively set the co-occurrence source word and the selected inter-content co-occurrence destination word as a feature word corresponding to each dimension of the feature vector; Corresponding to each dimension of feature vector by internal co-occurrence word setting means and inter-content co-occurrence word setting means The feature dictionary configured with the set characteristic word as symptoms word may be generated. In this case, other content including another word that co-occurs between the predetermined word and the content as a word strongly related to the predetermined word to a target user who has viewed the content including the predetermined word in the data representing the content Can also be recommended, and the variation of the recommended content for the target user is further expanded.
また、上記のレコメンドサーバでは、コンテンツ間共起ワード設定手段は、特徴語としてまとめて設定されたコンテンツ間共起元ワード及びコンテンツ間共起先ワードのうち少なくとも1つを、コンテンツを表すデータに含むコンテンツの数が所定の閾値以上となるようにコンテンツ間共起元ワード及びコンテンツ間共起先ワードを選択してもよい。この場合、特徴ベクトルの1次元あたりでカバーされるコンテンツの数が所定の閾値以上となるため、特徴ベクトルの1次元あたり、コンテンツの特徴をより多く表現することができる。 In the recommendation server, the inter-content co-occurrence word setting unit includes at least one of the inter-content co-occurrence source word and the inter-content co-occurrence destination word collectively set as feature words in the data representing the content. The inter-content co-occurrence source word and the inter-content co-occurrence destination word may be selected so that the number of contents is equal to or greater than a predetermined threshold. In this case, since the number of contents covered per one dimension of the feature vector is equal to or greater than a predetermined threshold value, more features of the contents can be expressed per one dimension of the feature vector.
また、上記のレコメンドサーバでは、ユーザ履歴内共起ワード設定手段は、特徴語としてまとめて設定されたユーザ履歴内共起元ワード及びユーザ履歴内共起先ワードのうち少なくとも1つを、コンテンツを表すデータに含むコンテンツの数が所定の閾値以上となるようにユーザ履歴内共起元ワード及びユーザ履歴内共起先ワードを選択してもよい。この場合、特徴ベクトルの1次元あたりでカバーされるコンテンツの数が所定の閾値以上となるため、特徴ベクトルの1次元あたり、コンテンツの特徴をより多く表現することができる。 In the recommendation server, the user history co-occurrence word setting means represents at least one of the user history co-occurrence source word and the user history co-occurrence destination word collectively set as a feature word to represent content. The user history co-occurrence source word and the user history co-occurrence destination word may be selected so that the number of contents included in the data is equal to or greater than a predetermined threshold. In this case, since the number of contents covered per one dimension of the feature vector is equal to or greater than a predetermined threshold value, more features of the contents can be expressed per one dimension of the feature vector.
また、上記のレコメンドサーバでは、ユーザ履歴内共起強度は、コンテンツを表すデータにユーザ履歴内共起元ワードが含まれるコンテンツの視聴履歴を有するユーザが視聴したコンテンツのうち、コンテンツを表すデータにユーザ履歴内共起先ワードが含まれるコンテンツの個数であってもよい。この場合、コンテンツを表すデータにユーザ履歴内共起先ワードが含まれるコンテンツの個数が多くなるように、特徴語がまとめて設定される。そのため、特徴ベクトルの1次元あたりでカバーされるコンテンツの数がより多くなるため、より多くのコンテンツをユーザに対してレコメンドすることが可能となる。 In the recommendation server, the co-occurrence strength in the user history is the data representing the content among the content viewed by the user who has the viewing history of the content including the co-occurrence source word in the user history in the data representing the content. It may be the number of contents including the co-occurrence destination word in the user history. In this case, the feature words are set together so that the number of contents including the co-occurrence destination word in the user history is increased in the data representing the contents. For this reason, since the number of contents covered per one dimension of the feature vector is increased, it is possible to recommend more contents to the user.
また、上記のレコメンドサーバでは、ユーザ履歴内共起強度は、コンテンツを表すデータにユーザ履歴内共起元ワードが含まれるコンテンツの視聴履歴を有するユーザのうち、コンテンツを表すデータにユーザ履歴内共起先ワードが含まれるコンテンツの視聴履歴を有するユーザの数であってもよい。この場合、コンテンツを表すデータにユーザ履歴内共起元ワードを含むコンテンツを視聴し、かつコンテンツを表すデータにユーザ履歴内共起先ワードを含むコンテンツを視聴したユーザの数が多くなるように、特徴語がまとめて設定される。ここで、2つのコンテンツを見ているユーザが多ければ、それらの2つのコンテンツの関連性は、それだけ強いと考えることができる。そのため、上記の構成によれば、より関連性の強いコンテンツをユーザに対してレコメンドすることが可能となる。 Further, in the above recommendation server, the co-occurrence strength in the user history is the user history co-occurrence in the data representing the content among the users having the viewing history of the content including the co-occurrence source word in the user history in the data representing the content. It may be the number of users who have a viewing history of content including the destination word. In this case, the feature is such that the number of users who view the content including the co-occurrence source word in the user history in the data representing the content, and view the content including the co-occurrence destination word in the user history in the data representing the content increases. Words are set together. Here, if there are many users watching two contents, it can be considered that the relevance of these two contents is so strong. Therefore, according to said structure, it becomes possible to recommend a more relevant content with respect to a user.
また、本発明に係る特徴辞書生成方法は、レコメンドサーバにより実行される特徴辞書生成方法であって、コンテンツを表すデータから抽出されたユーザ履歴内共起元ワードのそれぞれについて、コンテンツを表すデータから抽出された他のワードとのユーザ履歴内共起強度を算出するユーザ履歴内共起強度算出ステップと、ユーザ履歴内共起強度算出ステップにより算出されたユーザ履歴内共起強度の強い順に、ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードを1つ以上選択し、ユーザ履歴内共起元ワード及び選択されたユーザ履歴内共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するユーザ履歴内共起ワード設定ステップと、ユーザ履歴内共起ワード設定ステップにより特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成する特徴辞書生成ステップと、を備える。 The feature dictionary generation method according to the present invention is a feature dictionary generation method executed by a recommendation server, and for each of the user history co-occurrence source words extracted from the data representing content, from the data representing content The user history co-occurrence intensity calculating step for calculating the user history co-occurrence intensity with the other extracted word and the user history co-occurrence intensity calculating step calculated in the user history co-occurrence intensity calculating step One or more user history co-occurrence destination words that co-occur in the user history and user history co-occurrence destination words are selected, and the user history co-occurrence source word and the selected user history co-occurrence destination word in each dimension of the feature vector The user history co-occurrence word setting step and the user history co-occurrence word setting step collectively set as corresponding feature words And a feature dictionary generating step of generating a configuration feature dictionary feature words are set as the feature words corresponding to each dimension of Torr.
なお、本明細書において、共起元ワードと共起先ワードとがユーザ履歴内共起するとは、コンテンツを表すデータに共起元ワードが含まれるコンテンツを視聴したユーザが視聴したコンテンツに共起先ワードが含まれることを意味する。また、共起元ワードと共起先ワードとがコンテンツ間共起するとは、一つのコンテンツについて、当該コンテンツを表すデータに共起元ワード及び共起先ワードの両方が含まれることを意味する。 In this specification, the co-occurrence source word and the co-occurrence destination word co-occur in the user history means that the co-occurrence destination word is included in the content viewed by the user who has viewed the content including the co-occurrence source word in the data representing the content. Is included. Further, the co-occurrence source word and the co-occurrence destination word co-occurrence between contents means that, for one content, both the co-occurrence source word and the co-occurrence destination word are included in the data representing the content.
本発明によれば、特徴ベクトルの各次元に複数の特徴語を対応付ける特徴辞書を定義する場合に、特徴語を自動的に且つ適切に特徴ベクトルの各次元に対応付けるレコメンドサーバ及び特徴辞書生成方法が提供される。 According to the present invention, when defining a feature dictionary that associates a plurality of feature words with each dimension of a feature vector, a recommendation server and a feature dictionary generation method that automatically and appropriately associate a feature word with each dimension of a feature vector. Provided.
以下、図面を参照しながら、本発明に係る実施形態を説明する。以下の実施形態では、図3に示されるように、1つのレコメンドサーバ100と複数(ここでは一例として8つ)のユーザ端末11〜18とが通信する形態を想定する。ユーザ端末11〜18のユーザには、それぞれA〜HのユーザIDが予め与えられており、以下、これらのユーザ(ユーザID=A〜Hのユーザ)を対象ユーザとして説明する。なお、レコメンドサーバ100とユーザ端末11〜18との間の通信は、有線通信ネットワークを介して行われてもよいし、無線通信ネットワークを介して行われてもよい。
Embodiments according to the present invention will be described below with reference to the drawings. In the following embodiment, as illustrated in FIG. 3, a mode is assumed in which one
[レコメンドサーバの構成]
本実施形態におけるレコメンドサーバ100の構成を図4に示す。この図4に示すように、レコメンドサーバ100は、形態素解析部101、メタデータ管理部102、コンテンツ・ワード対応管理部103、ユーザ履歴蓄積部104、ユーザ履歴内共起ワード算出部105(ユーザ履歴内共起強度算出手段)、ユーザ履歴内共起ワードテーブル作成部106(ユーザ履歴内共起ワード設定手段)、コンテンツ間共起ワード算出部107(コンテンツ間共起強度算出手段)、コンテンツ間共起ワードテーブル作成部108(コンテンツ間共起ワード設定手段)、及び特徴辞書管理部109(特徴辞書生成手段)を備える。以下、各部の機能・動作について説明する。
[Configuration of recommendation server]
The structure of the
メタデータ管理部102は、コンテンツを表すデータであるとともに各コンテンツに対応付けられるデータであるメタデータを保持し、形態素解析部101にメタデータを出力する。メタデータは、例えば、コンテンツID及び当該コンテンツに関する情報(例えばタイトルやジャンル、出演者、コンテンツ内容の詳細情報など)を含む。
The
形態素解析部101は、メタデータ管理部102からメタデータを受け取り、受け取ったメタデータに対して形態素解析を行う。そして、形態素解析部101は、メタデータに対する形態素解析により抽出されたワードを、当該メタデータに対応するコンテンツのコンテンツIDと対応付けてコンテンツ・ワード対応管理部103に出力する。
The
コンテンツ・ワード対応管理部103は、形態素解析部101から出力されたコンテンツID及びワードを受け取り、後述のコンテンツID・ワード対応表を作成し管理する。
The content / word
ユーザ履歴蓄積部104は、各ユーザがどのコンテンツを視聴したかを示すユーザ履歴情報を蓄積しており、ユーザ履歴内共起ワード算出部105にユーザ履歴情報を出力する。ユーザ履歴情報は、各ユーザ端末11〜18からアップロードされたものであり、各ユーザ端末11〜18に対応するユーザID,及び当該ユーザ端末においてユーザが視聴したコンテンツのコンテンツIDを含む。
The user
ユーザ履歴内共起ワード算出部105は、コンテンツ・ワード対応管理部103からコンテンツID・ワード対応表を受け取るとともに、ユーザ履歴蓄積部104からユーザ履歴情報を受け取る。そして、ユーザ履歴内共起ワード算出部105は、各ワードをユーザ履歴内共起元ワードとして、当該ユーザ履歴内共起元ワードをメタデータに含むコンテンツを視聴したユーザにおいて、ユーザ履歴情報に記載されたコンテンツ(すなわち当該ユーザが視聴したコンテンツ)のメタデータが、ユーザ履歴内共起元ワード以外のワードとしてどのようなワードを含んでいるかを調べる。そして、ユーザ履歴内共起元ワードと他のワードとの共起の強さ(ユーザ履歴内共起強度)を算出し、ユーザ履歴内共起ワードテーブル作成部106に出力する。
The user history co-occurrence
ユーザ履歴内共起ワードテーブル作成部106は、ユーザ履歴内共起ワード算出部105から、各ワードについてのワード同士のユーザ履歴内共起強度を受け取るとともに、コンテンツ・ワード対応管理部103からコンテンツID・ワード対応表を受け取り、ユーザ履歴内共起強度をテーブルとして整理する。後述のように、本実施形態では、ユーザ履歴内共起強度は、コンテンツの個数で表されるものとする。さらに、ユーザ履歴内共起ワードテーブル作成部106は、後述のように、ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードを1つ以上選択し、ユーザ履歴内共起ワード及び選択されたユーザ履歴内共起先ワードを、特徴辞書の特徴ベクトルの各次元に対応する特徴語としてまとめて設定する。ユーザ履歴内共起ワードテーブル作成部106は、まとめて設定された特徴語を特徴辞書管理部109に出力する。
The user history co-occurrence word
コンテンツ間共起ワード算出部107は、ユーザ履歴内共起ワードテーブル作成部106によって選択されなかったワード(すなわち、ユーザ履歴内共起の観点から特徴語として選択されなかったワードであり、典型的には、ユーザ履歴情報における出現数の少ないワード)を受け取るとともに、コンテンツ・ワード対応管理部103からコンテンツID・ワード対応表を受け取る。そして、コンテンツ間共起ワード算出部107は、ユーザ履歴内共起ワードテーブル作成部106から受け取ったワードをコンテンツ間共起元ワードとして、各コンテンツ間共起元ワードについて、コンテンツID・ワード対応表をもとに他のワードとのコンテンツ間共起強度を算出し、算出結果をコンテンツ間共起ワードテーブル作成部108に出力する。ここで、2つのワード間のコンテンツ間共起強度とは、2つのワードの両方をメタデータに含むコンテンツの数を指す。
The inter-content co-occurrence
コンテンツ間共起ワードテーブル作成部108は、コンテンツ間共起ワード算出部107から各ワードについてのコンテンツ間共起強度を受け取るとともに、コンテンツ・ワード対応管理部103からコンテンツID・ワード対応表を受け取る。そして、コンテンツ間共起強度及びコンテンツID・ワード対応表に基づいて、コンテンツ間共起強度をテーブルとして整理する。さらに、コンテンツ間共起ワードテーブル作成部108は、後述のように、コンテンツ間共起強度の強い順に、コンテンツ間共起元ワードとコンテンツ間共起するコンテンツ間共起先ワードを1つ以上選択し、コンテンツ間共起元ワード及び選択されたコンテンツ間共起先ワードを、特徴辞書の特徴ベクトルの各次元に対応する特徴語としてまとめて設定する。コンテンツ間共起ワードテーブル作成部108は、まとめて設定された特徴語を特徴辞書管理部109に出力する。
The inter-content co-occurrence word
特徴辞書管理部109は、ユーザ履歴内共起ワードテーブル作成部106及びコンテンツ間共起ワードテーブル作成部108により特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成し、生成された特徴辞書を管理する。レコメンドサーバ100は、特徴辞書管理部109により生成され管理された特徴辞書に基づいて、ユーザ端末11〜18に対してレコメンドコンテンツの情報を提供する。
The feature
図17には、レコメンドサーバ100のハードウェア構成例を示す。レコメンドサーバ100には、物理的には、CPU100A、主記憶装置であるRAM100B及びROM100C、入力デバイスであるキーボード及びマウス等の入力装置100D、ディスプレイ等の出力装置100E、ネットワークカード等のデータ送受信デバイスである通信モジュール100F、ハードディスク等の補助記憶装置100Gなどを含むコンピュータシステムとして構成されている。図4を参照して説明した各部の機能は、図15に示すCPU100A、RAM100B等のハードウェア上に所定のコンピュータソフトウェアを読み込ませて実行することにより、CPU100Aの制御のもとで入力装置100D、出力装置100E、通信モジュール100Fを動作させ、RAM100Bや補助記憶装置100Gにおけるデータの読み出し及び書き込みを行うことで実現される。
FIG. 17 shows a hardware configuration example of the
[特徴辞書の生成]
次に、本実施形態に係るレコメンドサーバ100により実行される特徴辞書生成方法について説明する。
[Generate feature dictionary]
Next, a feature dictionary generation method executed by the
図5は、特徴辞書生成方法において行われる処理の全体を示すフローチャートである。まず、形態素解析部101が、メタデータ管理部102に蓄積されたコンテンツのメタデータに対して、形態素解析によるワード抽出処理を行う(ステップS1)。この形態素解析によるワード抽出処理では、形態素解析部101は、メタデータ管理部102から受け取ったメタデータから、形態素解析によって特徴語候補を抽出する。そして、形態素解析部101は、形態素解析の対象としたメタデータに対応するコンテンツのコンテンツIDと、抽出された特徴語候補であるワードとを対応付ける、図8に示されるコンテンツID・ワード対応表を作成する。図8の例では、例えば、コンテンツID=001の行において、ワード「野球」の列に丸が付されている。これは、コンテンツID=001のコンテンツのメタデータにワード「野球」が含まれており、他のワードは含まれていないことを意味する。
FIG. 5 is a flowchart showing the entire processing performed in the feature dictionary generation method. First, the
次に、ユーザ履歴内共起ワード算出部105及びユーザ履歴内共起ワードテーブル作成部106が、ユーザ履歴内共起による特徴語選択処理を行う(ステップS2)。次に、コンテンツ間共起ワード算出部107及びコンテンツ間共起ワードテーブル作成部108が、コンテンツ間共起による特徴語選択処理を行う(ステップS3)。ステップS2及びS3については、以下で詳述する。
Next, the co-occurrence
ステップS2のユーザ履歴内共起による特徴語選択処理について、図6を参照して説明する。まず、ユーザ履歴蓄積部104が、図9で示される視聴ログテーブルとして、ユーザ端末11〜18におけるユーザの視聴履歴を蓄積する(ステップS11)。図9の例では、例えば、ユーザID=Aのユーザ(すなわちユーザ端末11のユーザ)は、コンテンツID=001,003,004の3つのコンテンツを視聴している。
The feature word selection process by co-occurrence in the user history in step S2 will be described with reference to FIG. First, the user
次に、ユーザ履歴内共起ワード算出部105及びユーザ履歴内共起ワードテーブル作成部106が、ユーザ履歴内共起ワードテーブルの作成を行う(ステップS12:ユーザ履歴内共起強度算出ステップ)。この処理では、ユーザ履歴の観点から、ワードの互いの共起関係をまとめる処理が行われるとともに、ワード間のユーザ履歴内共起強度が算出される。
Next, the user history co-occurrence
ステップS12の処理について、具体例を挙げて説明する。ここでは、まず、コンテンツの共起関係に着目する。図9の視聴ログテーブルから、例えばコンテンツID=001のコンテンツは、ユーザAの視聴履歴情報内に存在する。このユーザAは、コンテンツID=003,004のコンテンツも視聴している。したがって、コンテンツID=001,003,004のコンテンツは、ユーザ履歴の観点から共起関係にあることが分かる。言い換えれば、コンテンツID=001のコンテンツをユーザ履歴内共起元コンテンツとし、コンテンツID=001,003,004のコンテンツをユーザ履歴内共起先コンテンツとした場合に、これらのユーザ履歴内共起元コンテンツ及びユーザ履歴内共起先コンテンツは共起関係にあるといえる。同様にして、ユーザ履歴内共起元コンテンツとユーザ履歴内共起先コンテンツとの共起関係の有無を調べることにより、ユーザ履歴内共起ワード算出部105は、図10に示されるユーザ履歴内共起コンテンツテーブルを作成する。
The process of step S12 will be described with a specific example. Here, attention is first focused on the co-occurrence relationship of contents. From the viewing log table of FIG. 9, for example, the content with content ID = 001 exists in the viewing history information of the user A. This user A is also viewing content with content ID = 003,004. Therefore, it can be seen that the content with content ID = 001, 003, 004 has a co-occurrence relationship from the viewpoint of the user history. In other words, when the content with content ID = 001 is the co-occurrence source content in the user history and the content with content ID = 001, 003, 004 is the co-occurrence destination content in the user history, these co-occurrence content in the user history It can be said that the co-occurrence content in the user history has a co-occurrence relationship. Similarly, by checking the co-occurrence relationship between the co-occurrence source content in the user history and the co-occurrence destination content in the user history, the co-occurrence
ここで、図8に示したコンテンツID・ワード対応表に記載されたワードのうち、「旅行」というワードに着目する。コンテンツID・ワード対応表から、「旅行」というワードは、コンテンツID=002,005のコンテンツのメタデータに含まれる。図9の視聴ログテーブルを参照すると、コンテンツID=002,005のコンテンツを視聴しているユーザは、ユーザB及びユーザGの2名である。このうち、ユーザBは、コンテンツID=002,005のコンテンツを視聴した履歴を有する。図10のユーザ履歴内共起コンテンツテーブルから、ユーザBが視聴した2つのコンテンツのうち、コンテンツID=002のコンテンツと共起するコンテンツは、コンテンツID=005のコンテンツである。また、ユーザBが視聴した2つのコンテンツのうち、コンテンツID=005のコンテンツと共起するコンテンツは、コンテンツID=002,006,007のコンテンツである。以上より、ユーザ履歴の観点から「旅行」というワードと共起するコンテンツは、コンテンツID=002,005,006,007の4コンテンツとなる。 Here, attention is focused on the word “travel” among the words described in the content ID / word correspondence table shown in FIG. From the content ID / word correspondence table, the word “travel” is included in the content metadata of content ID = 002,005. Referring to the viewing log table of FIG. 9, there are two users B and G who are viewing the content with content ID = 002,005. Among these, the user B has a history of viewing content with content ID = 002,005. Of the two contents viewed by user B from the co-occurrence content table in the user history of FIG. 10, the content that co-occurs with the content with content ID = 002 is the content with content ID = 005. Of the two contents viewed by user B, the content that co-occurs with the content with content ID = 005 is the content with content ID = 002, 006, 007. As described above, the contents co-occurring with the word “travel” from the viewpoint of the user history are four contents of content ID = 002, 005, 006, 007.
図8のコンテンツID・ワード対応表を参照すると、これらのコンテンツID=002,005,006,007の4コンテンツのうち、コンテンツID=002のコンテンツのメタデータに含まれるワードは「温泉」、「旅行」、「海外」であり、コンテンツID=005のコンテンツのメタデータに含まれるワードは「旅行」、「海外」であり、コンテンツID=006のコンテンツのメタデータに含まれるワードは「海外」、「ニュース」であり、コンテンツID=007のコンテンツのメタデータに含まれるワードは「ミステリー」、「海外」である。これらをまとめると、ユーザ履歴の観点から、ユーザ履歴内共起元ワードである「旅行」と共起するユーザ履歴内共起先ワードは、「旅行」、「温泉」、「海外」、「ニュース」、「ミステリー」である。 Referring to the content ID / word correspondence table of FIG. 8, among the four content ID = 002, 005, 006, 007, the word included in the metadata of the content with content ID = 002 is “hot spring”, “ “Travel” and “Overseas”, and the word included in the metadata of the content with content ID = 005 is “Travel” and “Overseas”, and the word included in the metadata of the content with content ID = 006 is “Overseas”. , “News”, and the words included in the content metadata of content ID = 007 are “Mystery” and “Overseas”. In summary, from the viewpoint of the user history, the co-occurrence destination word in the user history that co-occurs with “travel” in the user history is “travel”, “hot spring”, “overseas”, “news”. , "Mystery".
次に、ユーザ履歴内共起ワード算出部105は、これらのユーザ履歴内共起元ワード及びユーザ履歴内共起先ワードの、ユーザ履歴内共起強度を調べる。ユーザ履歴内共起強度としては、例えば、メタデータにユーザ履歴内共起元ワードが含まれるコンテンツの視聴履歴を有するユーザが視聴したコンテンツのうち、メタデータにユーザ履歴内共起先ワードが含まれるコンテンツの個数が用いられる。先に挙げた具体例を用いて説明すると、ユーザ履歴内共起強度は、「旅行」というユーザ履歴内共起元ワードをメタデータに含むコンテンツとユーザ履歴の観点から共起するコンテンツID=002,005,006,007のコンテンツのメタデータにおいて、ユーザ履歴内共起先ワード「旅行」、「温泉」、「海外」、「ニュース」、「ミステリー」というワードを含むコンテンツの個数である。
Next, the user history co-occurrence
図8のコンテンツID・ワード対応表から、コンテンツID=002,005,006,007のコンテンツのうち、ユーザ履歴内共起先ワード「旅行」がメタデータに含まれるのはコンテンツID=002,005の2コンテンツであり、ユーザ履歴内共起先ワード「温泉」がメタデータに含まれるのはコンテンツID=002の1コンテンツであり、ユーザ履歴内共起先ワード「海外」がメタデータに含まれるのはコンテンツID=002,005,006,007の4コンテンツであり、ユーザ履歴内共起先ワード「ニュース」がメタデータに含まれるのはコンテンツID=006の1コンテンツであり、ユーザ履歴内共起先ワード「ミステリー」がメタデータに含まれるのはコンテンツID=007の1コンテンツである。以上のようにして、ユーザ履歴内共起ワード算出部105は、ユーザ履歴内共起元ワード「旅行」とユーザ履歴内共起先ワード「旅行」、「温泉」、「海外」、「ニュース」、「ミステリー」とのユーザ履歴内共起強度をそれぞれ2,4,1,1,1と計算する。
From the content ID / word correspondence table of FIG. 8, among the content of content ID = 002, 005, 006, 007, the user history co-occurrence destination word “travel” is included in the metadata of content ID = 002, 005. It is 2 contents, and the user history co-occurrence destination word “hot spring” is included in the metadata for one content with content ID = 002, and the user history co-occurrence destination word “overseas” is included in the metadata. 4 contents of ID = 002, 005, 006, 007, and the co-occurrence destination word “news” in the user history is included in the metadata for one content of content ID = 006, and the co-occurrence destination word “mystery in the user history”. "Is included in the metadata is one content with content ID = 007. As described above, the user history co-occurrence
ユーザ履歴内共起ワード算出部105は、上述したユーザ履歴内共起強度の計算を、他のワードをユーザ履歴内共起元ワードとして繰り返し、計算されたユーザ履歴内共起強度をユーザ履歴内共起ワードテーブル作成部106に出力する。ユーザ履歴内共起ワードテーブル作成部106は、ユーザ履歴内共起ワード算出部105から出力されたユーザ履歴内共起強度を、ユーザ履歴内共起元ワード及びユーザ履歴内共起先ワードと対応付けて、図11に示されるユーザ履歴内共起ワードテーブルを作成する。
The user history co-occurrence
そして、ユーザ履歴内共起ワードテーブル作成部106は、作成されたユーザ履歴内共起ワードテーブルに基づき、図6に示される処理、すなわちワードを特徴ベクトルの同次元に対応する特徴語にまとめる処理を行う。
Then, the user history co-occurrence word
まず、ユーザ履歴内共起ワードテーブル作成部106は、図11のユーザ履歴内共起ワードテーブルから、ユーザ履歴に出現しないワードを削除し(ステップS13)、図12に示されるようにユーザ履歴内共起ワードテーブルを変形する。ユーザ履歴に出現しないワードを削除する理由は、ユーザ履歴に出現しないワードは、ユーザの興味が低いワードであるため、特徴語としての重要度も低いと考えられるからである。図11のユーザ履歴内共起ワードテーブルの例では、ユーザ履歴内に一度も出現しない特徴語として、「時事」、「釣り」、「フェリー」、「家庭」という4つのワードがある。そこで、ユーザ履歴内共起ワードテーブル作成部106は、図11のユーザ履歴内共起ワードテーブルから、上記4つのワードに対応する行及び列を削除し、図12に示される変形済みユーザ履歴内共起ワードテーブルを得る。
First, the co-occurrence word
次に、ユーザ履歴内共起ワードテーブル作成部106は、共起元ワードをメタデータに含むコンテンツ数が最も少なくなるように、共起元ワードを選択する(ステップS14)。このステップS14の処理は、例えば、図12の変形済みユーザ履歴内共起ワードテーブルを、共起元ワードをメタデータに含むコンテンツの数の順にソートすることにより、行うことができる。
Next, the co-occurrence word
具体例で説明すると、例えばワード「野球」は、図8のコンテンツID・ワード表から、コンテンツID=001,003のコンテンツのメタデータに含まれているため、当該ワードをメタデータに含むコンテンツの数は2となる。同様に他のコンテンツ内共起元ワードについても、当該コンテンツ内共起元ワードをメタデータに含むコンテンツの数を計算し、コンテンツの数の小さい順にソートすると、図13に示すソート済みユーザ履歴内共起ワードテーブルが得られる。 For example, the word “baseball” is included in the content metadata of content ID = 001,003 from the content ID / word table of FIG. The number is 2. Similarly, for other co-occurrence source words in content, if the number of contents including the content co-occurrence source word in the metadata is calculated and sorted in ascending order of the number of contents, the contents in the sorted user history shown in FIG. A co-occurrence word table is obtained.
以下、ユーザ履歴内共起ワードテーブル作成部106は、図13のソート済みユーザ履歴内共起ワードテーブルをもとに、コンテンツ数の小さいユーザ履歴内共起元ワードから順に特徴語のまとめ処理を行う。コンテンツ数の小さいユーザ履歴内共起元ワードから処理を行う理由は、特徴ベクトルの1つの次元あたりでカバーできるコンテンツの数、すなわち、当該次元に対応する特徴語をメタデータに含むコンテンツの数を増加させることが、レコメンデーション技術においては好ましいからである。
Thereafter, the co-occurrence word
従って、本例では、コンテンツ数が最小である1のユーザ履歴内共起元ワードから順に処理することになる。図13のソート済みユーザ履歴内共起ワードテーブルでは、ユーザ履歴内共起元ワードをメタデータに含むコンテンツ数が1のユーザ履歴内共起元ワードとして「感動」、「サッカー」、「温泉」があるが、ここでは、「感動」を選択する。 Therefore, in this example, processing is performed in order from the co-occurrence source word in the user history having the smallest number of contents. In the sorted user history co-occurrence word table of FIG. 13, the user history co-occurrence source word including the user history co-occurrence source word in the metadata has “1”, “soccer”, “hot spring” as the user history co-occurrence source words. Here, “impression” is selected.
ここで、予め、特徴ベクトルの1次元あたりでカバーするコンテンツの数の最低値を閾値Nとして定めておく。本実施形態では、閾値Nを5とする。 Here, the minimum value of the number of contents covered per one dimension of the feature vector is determined in advance as the threshold value N. In the present embodiment, the threshold value N is 5.
次に、ユーザ履歴内共起ワードテーブル作成部106が、ユーザ履歴内共起元ワードと最もユーザ履歴内共起強度の高いワードを選択する(ステップS15)。そして、ユーザ履歴内共起ワードテーブル作成部106が、ユーザ履歴内共起元ワード及びステップS15で選択されたワードをメタデータに含むコンテンツ数が閾値N以上であるか否かを判定する(ステップS16)。このコンテンツ数が閾値N以上であれば(ステップS16:NO)、ユーザ履歴内共起ワードテーブル作成部106は、他にユーザ履歴内共起先ワードがあるか否かを判定する(ステップS17)。他にユーザ履歴内共起先ワードがあれば(ステップS17:YES)、ユーザ履歴内共起ワードテーブル作成部106は、まだ選択されていないユーザ履歴内共起先ワードのうち、最も共起強度の大きいユーザ履歴内共起先ワードを選択し(ステップS18)、再びステップS16に戻る。
Next, the user history co-occurrence word
ステップS16において、ユーザ履歴内共起元ワード及びステップS15で選択されたユーザ履歴内共起先ワードをメタデータに含むコンテンツ数が閾値N以上である場合(ステップS16:YES)、又はステップS17において、他にユーザ履歴内共起先ワードがない場合(ステップS17:NO)は、ユーザ履歴内共起ワードテーブル作成部106が、ここまで選択された特徴語を特徴ベクトルの1次元にまとめ、まとめられたワードをユーザ履歴内共起ワードテーブルから削除する(ステップS19)。そして、ユーザ履歴内共起ワードテーブル作成部106が、ユーザ履歴内共起ワードテーブルが空になったか否かを判定する(ステップS20)。ユーザ履歴内共起ワードテーブルが空になっていれば(ステップS20:YES)、ユーザ履歴内共起による特徴語選択処理を終了する。ユーザ履歴内共起ワードテーブルが空になっていなければ(ステップS20:NO)、再びS14に戻り、他の共起元ワードを選択する。なお、上述のステップS14〜S20が、本発明の特徴辞書生成方法におけるユーザ履歴内共起ワード設定ステップに対応する。
In step S16, when the number of contents including the user history co-occurrence source word and the user history co-occurrence destination word selected in step S15 in the metadata is greater than or equal to the threshold N (step S16: YES), or in step S17, If there is no other co-occurrence word in the user history (step S17: NO), the co-occurrence word
ステップS14〜S20について、具体例を挙げて説明する。前述の通り、各ユーザ履歴内共起元ワードをメタデータに含むコンテンツ数が1のユーザ履歴内共起元ワードとして「感動」が選択されている。図13のソート済みユーザ履歴内共起ワードテーブルを参照すると、「感動」というワードと最もユーザ履歴内共起強度の高い共起先ワードは、ユーザ履歴内共起強度が2の「ミステリー」である。図8のコンテンツID・ワード対応表を参照すると、ワード「感動」及び「ミステリー」でカバーできるコンテンツ(すなわちメタデータに「感動」又は「ミステリー」を含むコンテンツ)は、コンテンツID=007,008,009,013の4つのコンテンツであることが分かる。しかしながら、このように「感動」と「ミステリー」を1次元にまとめただけでは、この1次元によりカバーできるコンテンツの個数が4であり、閾値5に満たない。そして、図14を参照すると、他にユーザ履歴内共起元ワード「感動」と共起するユーザ履歴内共起先ワードとして、「ドラマ」、「海外」、「笑い」がある。ここで、図14に示される通り、ユーザ履歴内共起先ワード「ドラマ」、「海外」、「笑い」のユーザ履歴内共起元ワード「感動」とのユーザ履歴内共起強度は、いずれも1である。したがって、どのユーザ履歴内共起先ワードを選択してもよいが、ここでは「ドラマ」を選択することとする。 Steps S14 to S20 will be described with specific examples. As described above, “impressed” is selected as the co-occurrence source word in the user history with the number of contents including each user history co-occurrence word in the metadata. Referring to the sorted user history co-occurrence word table in FIG. 13, the word “impressed” and the co-occurrence destination word with the highest user history co-occurrence strength are “mystery” with a user history co-occurrence strength of 2. . Referring to the content ID / word correspondence table of FIG. 8, content that can be covered by the words “impression” and “mystery” (that is, content including “impression” or “mystery” in metadata) is content ID = 007,008, It can be seen that there are four contents of 009 and 013. However, if only “impression” and “mystery” are combined in one dimension in this way, the number of contents that can be covered by this one dimension is four, which is less than the threshold value five. Then, referring to FIG. 14, there are “drama”, “overseas”, and “laughter” as other user history co-occurrence destination words co-occurring with the user history co-occurrence source word “impressed”. Here, as shown in FIG. 14, the co-occurrence intensity in the user history with the co-occurrence source word “impressed” in the user history of the user history co-occurrence destination words “drama”, “overseas”, and “laughter” are all 1. Therefore, any user history co-occurrence destination word may be selected, but “drama” is selected here.
図8に示されるコンテンツID・ワード対応表から、「ドラマ」は、コンテンツID=003,008,013のコンテンツのメタデータに含まれる。このため、ユーザ履歴内共起元ワード「感動」及びこれまでに選択されたユーザ履歴内共起先ワード「ミステリー」に加え、新たに「ドラマ」を選択することにより、ここまで選択されたワード「感動」、「ミステリー」、「ドラマ」により、コンテンツID=003,007,008,009,013の5個のコンテンツをカバーできることになる。したがって、カバーされるコンテンツの数が閾値「5」以上となる。このため、ユーザ履歴内共起ワードテーブル作成部106は、ユーザ履歴内共起元ワード「感動」とユーザ履歴内共起先ワード「ミステリー」及び「ドラマ」とを、特徴ベクトル上の同一次元の特徴語としてまとめることを決定する。そこで、ユーザ履歴内共起ワードテーブル作成部106は、これらの3つのワードの行及び列を図13に示されるユーザ履歴内共起ワードテーブルから削除する。削除される行及び列は、図14において、太枠で囲んで示されている。
From the content ID / word correspondence table shown in FIG. 8, “drama” is included in the metadata of the content with content ID = 003, 008, 013. For this reason, in addition to the user history co-occurrence source word “impression” and the user history co-occurrence destination word “mystery” selected so far, by newly selecting “drama”, the word “ The five contents of content ID = 003, 007, 008, 009, 013 can be covered by “impression”, “mystery”, and “drama”. Therefore, the number of contents to be covered is equal to or greater than the threshold “5”. For this reason, the user history co-occurrence word
この時点で、まだユーザ履歴内共起ワードテーブルが空にはなっていない。そこで、再度ステップS14に戻り、処理を続行する。当該ワードをメタデータに含むコンテンツ数が最も少ない、ここでは1のユーザ履歴内共起元ワードとして、「サッカー」を選択する。次に、ステップS15で、ワード「サッカー」と最もユーザ履歴内共起強度の高いワードを選択するが、この場合、図14から、「サッカー」と共起するワードは「野球」のみである。そこで、「サッカー」及び「野球」を特徴語としてまとめる。これにより、図8から、ユーザ履歴内共起元ワード「サッカー」及びユーザ履歴内共起先ワード「野球」により、コンテンツID=001,003,004の3個のコンテンツをカバーできる。このコンテンツの数3は、閾値「5」に達していない。しかしながら、図14から、削除されていないユーザ履歴内共起先ワードが他に存在しない。そこで、ここまで選択されたワード「サッカー」及び「野球」を、特徴ベクトル上の同一次元の特徴語としてまとめることを決定する。
At this time, the co-occurrence word table in the user history is not yet empty. Then, it returns to step S14 again and continues a process. “Soccer” is selected as the co-occurrence source word in the user history having the smallest number of contents including the word in the metadata. Next, in step S15, the word “soccer” and the word having the highest co-occurrence strength in the user history are selected. In this case, the word that co-occurs with “soccer” is only “baseball” from FIG. Therefore, “soccer” and “baseball” are summarized as feature words. Accordingly, from FIG. 8, the three contents of content ID = 001, 003, 004 can be covered by the co-occurrence source word “soccer” in the user history and the co-occurrence destination word “baseball” in the user history. The
このようにして各ワードについて処理を繰り返すと、最終的には、特徴ベクトルの各次元に対応する特徴語として、以下のようにワードがまとめられる。
{感動、ドラマ、ミステリー}
{サッカー、野球}
{温泉、海外、旅行}
{アニメ、笑い}
{ニュース}
When the processing is repeated for each word in this way, finally, the words are collected as follows as feature words corresponding to each dimension of the feature vector.
{Impression, drama, mystery}
{Soccer, baseball}
{Onsen, overseas, travel}
{Anime, Laughter}
{news}
そして、特徴辞書管理部109は、上記のようにコンテンツ間共起ワードテーブル作成部108によりまとめて設定された特徴語で構成された特徴語を生成する(特徴辞書生成ステップ)。
Then, the feature
次に、図5のステップS3のコンテンツ間共起による特徴語選択処理について、図7を参照して説明する。この処理は、ユーザ履歴に出現しなかったワードを特徴語として選定する処理として行われる。 Next, the feature word selection process by content co-occurrence in step S3 of FIG. 5 will be described with reference to FIG. This process is performed as a process of selecting a word that has not appeared in the user history as a feature word.
まず、コンテンツ間共起ワード算出部107及びコンテンツ間共起ワードテーブル作成部108が、コンテンツ間共起ワードテーブルを作成する(ステップS31)。次に、コンテンツ間共起ワードテーブル作成部108が、各ワードをメタデータに含むコンテンツ数の最も少ないワードをコンテンツ間共起元ワードとして選択する(ステップS32:コンテンツ間共起強度算出ステップ)。この処理では、複数のコンテンツ間の関係の観点から、ワードの互いの共起関係をまとめる処理が行われるとともに、ワード間のコンテンツ間共起強度が算出される。
First, the inter-content co-occurrence
次に、コンテンツ間共起ワードテーブル作成部108が、コンテンツ間共起元ワードと最もコンテンツ間共起強度の強いワードをコンテンツ間共起先ワードとして選択する(ステップS33)。ここで、2つのワードの間のコンテンツ間共起強度としては、2つのワードの両方をメタデータに含むコンテンツの数を用いる。
Next, the inter-content co-occurrence word
次に、コンテンツ間共起ワードテーブル作成部108が、コンテンツ間共起元ワード及びステップS33で選択されたワードをメタデータに含むコンテンツ数が閾値N以上であるか否かを判定する(ステップS34)。このコンテンツ数が閾値N以上であれば(ステップS34:NO)、コンテンツ間共起ワードテーブル作成部108は、他にコンテンツ間共起先ワードがあるか否かを判定する(ステップS35)。他にコンテンツ間共起先ワードがあれば(ステップS35:YES)、コンテンツ間共起ワードテーブル作成部108は、まだ選択されていないコンテンツ間共起先ワードのうち、最も共起強度の大きいコンテンツ間共起先ワードを選択し(ステップS36)、再びステップS34に戻る。
Next, the inter-content co-occurrence word
ステップS34において、コンテンツ間共起元ワード及びステップS33で選択されたコンテンツ間共起先ワードをメタデータに含むコンテンツ数が閾値N以上である場合(ステップS34:YES)、又はステップS35において、他にコンテンツ間共起先ワードがない場合(ステップS35:NO)は、コンテンツ間共起ワードテーブル作成部108が、ここまで選択された特徴語を特徴ベクトルの1次元にまとめ、まとめられたワードをコンテンツ間共起ワードテーブルから削除する(ステップS37)。そして、コンテンツ間共起ワードテーブル作成部108が、コンテンツ間共起ワードテーブルが空になったか否かを判定する(ステップS38)。コンテンツ間共起ワードテーブルが空になっていれば(ステップS38:YES)、コンテンツ間共起による特徴語選択処理を終了する。コンテンツ間共起ワードテーブルが空になっていなければ(ステップS38:NO)、再びS32に戻り、他の共起元ワードを選択する。なお、上述のステップS34〜S38が、本発明の特徴辞書生成方法におけるコンテンツ間共起ワード設定ステップに相当する。
In step S34, if the number of contents including the inter-content co-occurrence source word and the inter-content co-occurrence destination word selected in step S33 in the metadata is equal to or greater than the threshold value N (step S34: YES), or otherwise in step S35 When there is no inter-content co-occurrence destination word (step S35: NO), the inter-content co-occurrence word
この処理について、具体例を挙げて説明する。本例では、「時事」、「釣り」、「フェリー」、「家庭」というワードが対象となる。 This process will be described with a specific example. In this example, the words “current affairs”, “fishing”, “ferry”, and “home” are targeted.
コンテンツ間共起ワード算出部107は、次のようにコンテンツ間共起強度を算出する。図8のコンテンツID・ワード対応表から、ワード「フェリー」は、コンテンツID=014,015の2つのコンテンツのメタデータに含まれる。そして、この2つのコンテンツのいずれのメタデータにも、ワード「家庭」が含まれている。したがって、ワード「フェリー」とワード「家庭」との間のコンテンツ間共起強度は2となる。
The inter-content co-occurrence
同様に、コンテンツ間共起ワード算出部107は、ワード「釣り」、「家庭」についてもコンテンツ間共起強度を算出する。そして、コンテンツ間共起ワード算出部107は、コンテンツ間共起ワードテーブル作成部108に、算出されたコンテンツ間共起強度を出力する。コンテンツ間共起ワードテーブル作成部108は、コンテンツ間共起ワード算出部107から受け取ったコンテンツ間共起強度に基づいて、図16に示されるコンテンツ間共起テーブルを作成する。
Similarly, the inter-content co-occurrence
図8のコンテンツID・ワード対応表からも分かるように、ワード「釣り」、「フェリー」、「家庭」のうち、当該ワードをメタデータに含むコンテンツの数が最も小さいワードは、「釣り」である。そこで、ワード「釣り」とまとめる特徴語を決定する処理を行う。ワード「釣り」は、「フェリー」、「家庭」を共起する。そして、ワード「釣り」、「フェリー」、「家庭」で、コンテンツID=010,014,015の3つのコンテンツをカバーできる。本例では、他のコンテンツ間共起先ワードがないため、「釣り」、「フェリー」、「家庭」を特徴語としてまとめる。これにより、コンテンツ間共起による特徴語選択処理を終了する。 As can be seen from the content ID / word correspondence table of FIG. 8, among the words “fishing”, “ferry”, and “home”, the word with the smallest number of contents including the word in the metadata is “fishing”. is there. Therefore, processing for determining feature words to be combined with the word “fishing” is performed. The word “fishing” co-occurs “ferry” and “family”. The three contents of content ID = 010, 014, and 015 can be covered with the words “fishing”, “ferry”, and “home”. In this example, since there is no other content co-occurrence destination word, “fishing”, “ferry”, and “home” are collected as feature words. Thereby, the feature word selection process by co-occurrence between contents is completed.
なお、ワード「時事」は、コンテンツID=010のコンテンツのメタデータのみに含まれる。しかしながら、このコンテンツID=010のコンテンツのメタデータには、「釣り」、「フェリー」、「家庭」の単語はいずれも含まれない。したがって、「時事」というワードは、コンテンツID=010のコンテンツしか表現できないため、コンテンツの特徴を示すワードとしての重要度が低いと考えられる。したがって、「時事」は特徴語の候補から外す。 Note that the word “current affair” is included only in the metadata of the content with content ID = 010. However, the content metadata of content ID = 010 does not include any of the words “fishing”, “ferry”, and “home”. Therefore, since the word “current” can only express the content with content ID = 010, it is considered to be less important as a word indicating the feature of the content. Therefore, “current affairs” are excluded from candidate feature words.
そして、特徴辞書管理部109は、以上のようにコンテンツ間共起ワードテーブル作成部108によりまとめて設定された特徴語{釣り、フェリー、家庭}を特徴辞書に追加する(特徴辞書生成ステップ)。
The feature
以上述べたユーザ履歴内共起による特徴語選択処理及びコンテンツ間共起による特徴語選択処理によれば、以下のように特徴ベクトルの各次元に特徴語をまとめた特徴辞書が得られる。
{感動、ドラマ、ミステリー}
{サッカー、野球}
{温泉、海外、旅行}
{アニメ、笑い}
{ニュース}
{釣り、フェリー、家庭}
According to the feature word selection process based on the co-occurrence within the user history and the feature word selection process based on the co-occurrence between contents described above, a feature dictionary in which the feature words are summarized in each dimension of the feature vector is obtained as follows.
{Impression, drama, mystery}
{Soccer, baseball}
{Onsen, overseas, travel}
{Anime, Laughter}
{news}
{Fishing, ferry, home}
以上説明した本実施形態によれば、ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードがユーザ履歴内共起強度の強い順に選択され、ユーザ履歴内共起元ワードとともに特徴ベクトルの各次元に対応する特徴語としてまとめて設定される。また、コンテンツ間共起元ワードとコンテンツ間共起するコンテンツ間共起先ワードがコンテンツ間共起強度の強い順に選択され、コンテンツ間共起元ワードとともに特徴ベクトルの各次元に対応する特徴語としてまとめて設定される。そして、このように設定された特徴語で構成された特徴辞書が生成される。これにより、関連の強い1つ以上の特徴語をまとめて特徴ベクトルの各次元に対応させた特徴辞書が生成されるため、特徴ベクトルの各次元に複数の特徴語を対応付ける特徴辞書を定義する場合に、特徴語を自動的に且つ適切に定義することができる。そして、このように特徴辞書を生成することにより、メタデータに所定のワードを含むコンテンツを視聴した対象ユーザに、当該所定のワードと関連の強い(すなわちユーザ履歴内共起又はコンテンツ間共起する)他のワードをメタデータに含む他のコンテンツをレコメンドすることができ、対象ユーザに対するレコメンドコンテンツのバリエーションが広がる。 According to the embodiment described above, the co-occurrence source word in the user history and the co-occurrence destination word in the user history that co-occurs in the user history are selected in descending order of the co-occurrence strength in the user history. At the same time, it is collectively set as a feature word corresponding to each dimension of the feature vector. Also, the content co-occurrence source word and the content co-occurrence destination word are selected in the order of the strength of the content co-occurrence, and are summarized as feature words corresponding to each dimension of the feature vector together with the content co-occurrence source word. Is set. Then, a feature dictionary composed of the feature words set in this way is generated. As a result, a feature dictionary in which one or more strongly related feature words are collected and corresponded to each dimension of the feature vector is generated. Therefore, when defining a feature dictionary that associates a plurality of feature words to each dimension of the feature vector In addition, feature words can be defined automatically and appropriately. Then, by generating the feature dictionary in this manner, the target user who has viewed the content including the predetermined word in the metadata is strongly related to the predetermined word (that is, co-occurrence in the user history or between contents) ) Other content including other words in the metadata can be recommended, and the variation of the recommended content for the target user is expanded.
なお、本実施形態において、コンテンツを表すデータとして、メタデータを対象としたが、コンテンツを表すデータは、メタデータには限定されない。例えば、コンテンツがテキストデータである場合には、コンテンツを表すデータは、当該コンテンツ自身、すなわちテキストデータの全文としてもよい。 In this embodiment, metadata is targeted as data representing content, but data representing content is not limited to metadata. For example, when the content is text data, the data representing the content may be the content itself, that is, the entire text of the text data.
また、本実施形態のうち、ユーザ履歴内共起による特徴語選択処理において、図15に示されるように、図6に示した処理において、ステップS17でNOと判定してからステップS19に移行する前に、ユーザ履歴内共起元ワードと共起し、かつ、既にユーザ履歴内共起ワードテーブルから削除されたワードをメタデータに含む特徴語と、ユーザ履歴内共起元ワード及び選択されたユーザ履歴内共起先ワードとをまとめてもよい。例えば、本実施形態の説明で示した具体例では、「サッカー」及び「野球」をまとめたところで、ユーザ履歴内共起元ワード「サッカー」に対する処理を終了したが、そのような処理に代えて、次のように処理してもよい。ワード「サッカー」が、図14の太枠で囲まれた(すなわち削除済みの)ワード「ドラマ」と共起している。そこで、前述の通りまとめられたワード「感動」、「ミステリー」、「ドラマ」の3つに加えて「サッカー」、「野球」の2つを加えて、合計5ワードを特徴ベクトルの同一次元に対応する特徴語としてまとめてもよい。このようにした場合には、図8のコンテンツID・ワード対応表から、コンテンツID=001,003,004,007,008,009,013の7つのコンテンツを上記の5ワードによりカバーできる。 Further, in the present embodiment, in the feature word selection process by co-occurrence in the user history, as shown in FIG. 15, in the process shown in FIG. 6, it is determined NO in step S17, and then the process proceeds to step S19. Before, a feature word that co-occurs with a user history co-occurrence source word and has already been deleted from the user history co-occurrence word table in the metadata, a user history co-occurrence source word, and the selected word The co-occurrence destination words in the user history may be collected. For example, in the specific example shown in the description of the present embodiment, the processing for the co-occurrence source word “soccer” in the user history is finished when “soccer” and “baseball” are collected, but instead of such processing, The following processing may be performed. The word “soccer” co-occurs with the word “drama” surrounded (ie, deleted) by a thick frame in FIG. Therefore, in addition to the three words “impression”, “mystery” and “drama” summarized as described above, two words “soccer” and “baseball” are added, and a total of five words are put into the same dimension of the feature vector. You may summarize as a corresponding feature word. In this case, from the content ID / word correspondence table of FIG. 8, the seven contents of content ID = 001, 003, 004, 007, 008, 009, 013 can be covered with the above five words.
このようなステップS51を加えた変形例の処理によれば、特徴ベクトルの1次元あたりでカバーできるコンテンツの数は増える。一方、ステップS51を加えない処理によれば、ワードが1次元にまとめられずに2つの特徴ベクトルの次元に分かれる。したがって、多くの次元でコンテンツを表現することができる。そのため、細やかなレコメンドサービスを実現できる。 According to the process of the modified example in which step S51 is added, the number of contents that can be covered per one dimension of the feature vector increases. On the other hand, according to the process without adding step S51, the words are not combined into one dimension but divided into two feature vector dimensions. Therefore, content can be expressed in many dimensions. Therefore, detailed recommendation service can be realized.
また、本実施形態のうち、コンテンツ間共起による特徴語選択処理の具体例において、「釣り」、「フェリー」、「家庭」の3つのワードを1つの次元にまとめた。しかしながら、カバーするコンテンツの閾値を「5」としていたため、この閾値「5」を下回る3つのコンテンツしかカバーできていない。そこで、「釣り」、「フェリー」、「家庭」は、いずれもコンテンツの特徴を表すワードとしての重要性が小さいと考え、これらをいずれも特徴語として採用しないこととしてもよい。 In this embodiment, in the specific example of the feature word selection process by co-occurrence between contents, three words “fishing”, “ferry”, and “home” are combined into one dimension. However, since the threshold value of the content to be covered is “5”, only three contents that are lower than this threshold value “5” can be covered. Therefore, “fishing”, “ferry”, and “home” are all considered to be less important as words representing the characteristics of the content, and none of them may be adopted as feature words.
さらに、本実施形態のコンテンツサーバ100において、コンテンツ間共起ワード算出部107及びコンテンツ間共起ワードテーブル108を省略してもよい。また、本実施形態の特徴辞書生成方法において、コンテンツ間共起による特徴語選択処理(ステップS3(図5参照))を省略してもよい。
Furthermore, in the
100…コンテンツサーバ、105…ユーザ履歴内共起ワード算出部(ユーザ履歴内共起強度算出手段)、106…ユーザ履歴内共起ワードテーブル作成部(ユーザ履歴内共起ワード設定手段)、107…コンテンツ間共起ワード算出部(コンテンツ間共起強度算出手段)、108…コンテンツ間共起ワードテーブル作成部(コンテンツ間共起ワード設定手段)、109…特徴辞書管理部(特徴辞書生成手段)。
DESCRIPTION OF
Claims (7)
前記ユーザ履歴内共起強度算出手段により算出されたユーザ履歴内共起強度の強い順に、前記ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードを1つ以上選択し、前記ユーザ履歴内共起元ワード及び前記選択されたユーザ履歴内共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するユーザ履歴内共起ワード設定手段と、
前記ユーザ履歴内共起ワード設定手段により特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成する特徴辞書生成手段と、
を備えるレコメンドサーバ。 A user history co-occurrence strength calculating means for calculating a user history co-occurrence strength with another word extracted from the data representing content for each of the user history co-occurrence source words extracted from the data representing content; ,
The user history co-occurrence intensity calculated by the user history co-occurrence intensity calculating means selects one or more user history co-occurrence source words and user history co-occurrence destination words co-occurring in the user history in descending order. The user history co-occurrence source word and the selected user history co-occurrence destination word are collectively set as feature words corresponding to each dimension of the feature vector;
Feature dictionary generating means for generating a feature dictionary composed of feature words set as feature words corresponding to each dimension of a feature vector by the user history co-occurrence word setting means;
A recommendation server with
前記コンテンツ間共起強度算出手段により算出されたコンテンツ間共起強度の強い順に、前記コンテンツ間共起元ワードとコンテンツ間共起するコンテンツ間共起先ワードを1つ以上選択し、前記コンテンツ間共起元ワード及び前記選択されたコンテンツ間共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するコンテンツ間共起ワード設定手段と、
をさらに備え、
前記特徴辞書生成手段は、前記ユーザ履歴内共起ワード設定手段及び前記コンテンツ間共起ワード設定手段により特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成する、請求項1に記載のレコメンドサーバ。 Content co-occurrence intensity calculating means for calculating content co-occurrence intensity with other words for each content co-occurrence source word that is a word not selected by the user history co-occurrence word setting means,
One or more content co-occurrence source words and one or more content co-occurrence destination words co-occurring between the contents are selected in descending order of the content co-occurrence strength calculated by the content co-occurrence strength calculating means, An inter-content co-occurrence word setting means for collectively setting an origin word and the selected inter-content co-occurrence destination word as a feature word corresponding to each dimension of a feature vector;
Further comprising
The feature dictionary generating means generates a feature dictionary composed of feature words set as feature words corresponding to each dimension of a feature vector by the user history co-occurrence word setting means and the inter-content co-occurrence word setting means. The recommendation server according to claim 1.
請求項2に記載のレコメンドサーバ。 The inter-content co-occurrence word setting means has a predetermined number of contents including at least one of the inter-content co-occurrence source word and the inter-content co-occurrence destination word collectively set as feature words in the data representing the content. Select the inter-content co-occurrence source word and the inter-content co-occurrence destination word so as to be equal to or greater than a threshold
The recommendation server according to claim 2.
請求項1〜3の何れか一項に記載のレコメンドサーバ。 The user history co-occurrence word setting means includes at least one of user history co-occurrence source words and user history co-occurrence destination words collectively set as feature words in the data representing the content. Selecting the co-occurrence source word in the user history and the co-occurrence destination word in the user history so that is equal to or greater than a predetermined threshold,
The recommendation server as described in any one of Claims 1-3.
請求項1〜4の何れか一項に記載のレコメンドサーバ。 The co-occurrence strength in the user history is the content of the user history in the data representing the content out of the content viewed by the user who has the viewing history of the content including the co-occurrence source word in the user history in the data representing the content. This is the number of contents that contain the co-occurrence destination word.
The recommendation server as described in any one of Claims 1-4.
請求項1〜4の何れか一項に記載のレコメンドサーバ。 The in-user history co-occurrence strength is the user history co-occurrence destination word in the data representing the content among the users having the viewing history of the content in which the data representing the content includes the co-occurrence source word in the user history. The number of users who have a viewing history of the included content;
The recommendation server as described in any one of Claims 1-4.
コンテンツを表すデータから抽出されたユーザ履歴内共起元ワードのそれぞれについて、コンテンツを表すデータから抽出された他のワードとのユーザ履歴内共起強度を算出するユーザ履歴内共起強度算出ステップと、
前記ユーザ履歴内共起強度算出ステップにより算出されたユーザ履歴内共起強度の強い順に、前記ユーザ履歴内共起元ワードとユーザ履歴内共起するユーザ履歴内共起先ワードを1つ以上選択し、前記ユーザ履歴内共起元ワード及び前記選択されたユーザ履歴内共起先ワードを特徴ベクトルの各次元に対応する特徴語としてまとめて設定するユーザ履歴内共起ワード設定ステップと、
前記ユーザ履歴内共起ワード設定ステップにより特徴ベクトルの各次元に対応する特徴語として設定された特徴語で構成された特徴辞書を生成する特徴辞書生成ステップと、
を備える特徴辞書生成方法。 A feature dictionary generation method executed by a recommendation server,
A user history co-occurrence intensity calculating step for calculating a user history co-occurrence intensity with another word extracted from the data representing the content for each of the user history co-occurrence source words extracted from the data representing the content; ,
One or more co-occurrence source words in the user history that co-occur in the user history and the co-occurrence source words in the user history are selected in descending order of the co-occurrence intensity in the user history calculated in the step of calculating the co-occurrence intensity in the user history The user history co-occurrence source word and the selected user history co-occurrence destination word are collectively set as a feature word corresponding to each dimension of the feature vector, and a user history co-occurrence word setting step;
A feature dictionary generating step of generating a feature dictionary composed of feature words set as feature words corresponding to each dimension of a feature vector by the user history co-occurrence word setting step;
A feature dictionary generation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013103312A JP2014225091A (en) | 2013-05-15 | 2013-05-15 | Recommendation server and feature dictionary generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013103312A JP2014225091A (en) | 2013-05-15 | 2013-05-15 | Recommendation server and feature dictionary generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014225091A true JP2014225091A (en) | 2014-12-04 |
Family
ID=52123738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013103312A Pending JP2014225091A (en) | 2013-05-15 | 2013-05-15 | Recommendation server and feature dictionary generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014225091A (en) |
-
2013
- 2013-05-15 JP JP2013103312A patent/JP2014225091A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8468105B2 (en) | Learning apparatus, learning method, information processing apparatus, data selection method, data accumulation method, data conversion method and program | |
US9805022B2 (en) | Generation of topic-based language models for an app search engine | |
US20170188102A1 (en) | Method and electronic device for video content recommendation | |
KR102008000B1 (en) | Computing similarity between media programs | |
WO2017107453A1 (en) | Video content recommendation method, device, and system | |
CN106326391B (en) | Multimedia resource recommendation method and device | |
CN110909182B (en) | Multimedia resource searching method, device, computer equipment and storage medium | |
US8869211B2 (en) | Zoomable content recommendation system | |
US8838641B2 (en) | Content recommendation system, content recommendation method, content recommendation device, and information storage medium | |
CN104008139B (en) | The creation method and device of video index table, the recommendation method and apparatus of video | |
CN101847158A (en) | Based on contextual video finder | |
CN105653572A (en) | Resource processing method and apparatus | |
JP2010067175A (en) | Hybrid content recommendation server, recommendation system, and recommendation method | |
KR102314645B1 (en) | A method and device of various-type media resource recommendation | |
US20130024547A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
CN107592572B (en) | Video recommendation method, device and equipment | |
US9183263B2 (en) | Information providing system, information providing method, and program | |
CN103384883A (en) | Semantic enrichment by exploiting Top-K processing | |
US20130268525A1 (en) | Retrieval device, retrieval system, retrieval method, retrieval program, and computer-readable recording medium storing retrieval program | |
US9110990B2 (en) | Apparatuses, methods and systems for improving the relevancy of interactive program guide search results on a wireless user's handset and television | |
US20140089238A1 (en) | Information processing device and information processing method | |
CN104965903A (en) | Resource recommendation method and apparatus | |
CN112825089A (en) | Article recommendation method, article recommendation device, article recommendation equipment and storage medium | |
Tsunoda et al. | Automatic metadata expansion and indirect collaborative filtering for TV program recommendation system | |
US20140032537A1 (en) | Apparatus, system, and method for music identification |