JP5454827B1 - 文書評価装置、文書評価方法、及びプログラム - Google Patents

文書評価装置、文書評価方法、及びプログラム Download PDF

Info

Publication number
JP5454827B1
JP5454827B1 JP2013536946A JP2013536946A JP5454827B1 JP 5454827 B1 JP5454827 B1 JP 5454827B1 JP 2013536946 A JP2013536946 A JP 2013536946A JP 2013536946 A JP2013536946 A JP 2013536946A JP 5454827 B1 JP5454827 B1 JP 5454827B1
Authority
JP
Japan
Prior art keywords
document
missing
score
feature
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013536946A
Other languages
English (en)
Other versions
JPWO2013125482A1 (ja
Inventor
優輔 村岡
大 久寿居
幸貴 楠村
弘紀 水口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013536946A priority Critical patent/JP5454827B1/ja
Application granted granted Critical
Publication of JP5454827B1 publication Critical patent/JP5454827B1/ja
Publication of JPWO2013125482A1 publication Critical patent/JPWO2013125482A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08LCOMPOSITIONS OF MACROMOLECULAR COMPOUNDS
    • C08L23/00Compositions of homopolymers or copolymers of unsaturated aliphatic hydrocarbons having only one carbon-to-carbon double bond; Compositions of derivatives of such polymers
    • C08L23/02Compositions of homopolymers or copolymers of unsaturated aliphatic hydrocarbons having only one carbon-to-carbon double bond; Compositions of derivatives of such polymers not modified by chemical after-treatment
    • C08L23/04Homopolymers or copolymers of ethene
    • C08L23/06Polyethene
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J3/00Processes of treating or compounding macromolecular substances
    • C08J3/20Compounding polymers with additives, e.g. colouring
    • C08J3/22Compounding polymers with additives, e.g. colouring using masterbatch techniques
    • C08J3/226Compounding polymers with additives, e.g. colouring using masterbatch techniques using a polymer as a carrier
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C43/00Compression moulding, i.e. applying external pressure to flow the moulding material; Apparatus therefor
    • B29C43/22Compression moulding, i.e. applying external pressure to flow the moulding material; Apparatus therefor of articles of indefinite length
    • B29C43/24Calendering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C45/00Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor
    • B29C45/0013Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor using fillers dispersed in the moulding material, e.g. metal particles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/001Combinations of extrusion moulding with other shaping operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/022Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor characterised by the choice of material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/03Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor characterised by the shape of the extruded material at extrusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/03Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor characterised by the shape of the extruded material at extrusion
    • B29C48/07Flat, e.g. panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/03Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor characterised by the shape of the extruded material at extrusion
    • B29C48/07Flat, e.g. panels
    • B29C48/08Flat, e.g. panels flexible, e.g. films
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C48/00Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor
    • B29C48/03Extrusion moulding, i.e. expressing the moulding material through a die or nozzle which imparts the desired form; Apparatus therefor characterised by the shape of the extruded material at extrusion
    • B29C48/09Articles with cross-sections having partially or fully enclosed cavities, e.g. pipes or channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Data Mining & Analysis (AREA)
  • Polymers & Plastics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Dispersion Chemistry (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

特徴量が欠損している文書サンプルが訓練データとして含まれる場合であっても、文書を評価するための関数を精度良く学習するため、文書評価装置は、第1特徴ベクトルの欠損パターンに基づき、文書サンプルの集合を分類するデータ分類部3と、評価値を分類毎に重みづけした第1スコアを計算する第1計算式を、第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、分類毎に学習する第1学習部4と、第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成する特徴ベクトル生成部5と、評価対象となる文書を評価するための第2スコアを計算する第2計算式を、第2特徴ベクトル及び評価値を用いて学習する第2学習部6と、を備えている。

Description

本発明は、文書評価装置、文書評価方法、及びこれらを実現するプログラムに関し、特に、文書を評価する際、訓練データの特徴ベクトルの一部の値が欠損している場合でも学習を行える文書評価装置、文書評価方法、及びプログラムに関する。
検索システムにおいて、目的の文書を迅速に見つけ出すためには、検索結果文書のランキングが重要である。このランキング手法として、多くの評価者が良いと評価した文書が上位にランキングされる手法が一般的に知られている。
ところで、上述したランキング手法では、作成されて間もない文書等のような、評価が少ないか又は未評価の文書が、不当にランキングの下位(または上位)になってしまうという問題がある。そこで、ユーザが文書を評価したログを用いた学習により、文書の筆者、文書の作成日時等の特徴量から文書の評価値を推定し、この評価値をランキングに用いるという手法が知られている。
しかし、これら特徴量の値が、記録漏れなどの要因で、欠損している場合がある。このように特徴量の値が欠損している場合、通常の学習アルゴリズムでは学習が不可能である。このような問題に対して、特許文献1には、特徴量の値が欠損している訓練データを扱う、学習システムの一例が記載されている。
図14に示すように、この特許文献1に記載された学習システム10は、欠損値補完部11と予測モデル学習部12とから構成されており、次のように動作する。まず、欠損値補完部11は、特徴量が欠損している文書サンプルと、欠損していない文書サンプルとが混じった訓練データの入力を受け付ける。すると、欠損値補完部11は、特徴量の値が欠損していない文書サンプルを入力として、値が欠損している特徴量を他の特徴量から推定する関数を学習する。
次に、推定した関数を用いて、値が欠損している特徴量を補完し、欠損値が補完された文書サンプルの集合を予測モデル学習部12に出力する。そして、予測モデル学習部12は、この欠損値が補完された文書サンプルを含む訓練データを用いて、特徴量に基づき目的変数を推定する関数を学習する。以上のように、上述した特許文献1に記載された学習システム10においては、特徴量が欠損している文書サンプルが訓練データに含まれている場合、この欠損している特徴量を補完してから、目的変数を推定する関数を学習している。
特開2008−234352号公報
しかし、上述した特許文献1による関数の学習では、欠損している特徴量が文書の評価に大きく影響する特徴量である場合に次の問題が生じる。すなわち、欠損している特徴量を補完してから関数の学習を行ったが、この特徴量の評価への寄与が低い関数を学習することになってしまう場合がある。この結果、特徴量が欠損していない文書に比べて、特徴量が欠損している文書を不当に順位を低くまたは高くランキングしてしまうという問題があった。
そこで、本発明の目的の一例は、特徴量が欠損している文書サンプルが訓練データとして含まれる場合であっても、文書を評価するための関数を精度良く学習することができる文書評価装置、文書評価方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における文書評価装置は、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価装置であって、
前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するデータ分類部と、
前記評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習する第1学習部と、
前記第1スコアを用いて、各分類に対応した特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成する特徴ベクトル生成部と、
評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習する第2学習部と、
を備えることを特徴とする。
また、上記目的を達成するため、本発明の一側面における文書評価方法は、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価方法であって、
(a)前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
(b)前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
(c)前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
(d)評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータによって、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するためのプログラムであって、
前記コンピュータに、
(a)前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
(b)前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
(c)前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
(d)評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
を実行させる、ことを特徴とする。
以上のように本発明によれば、特徴量が欠損している文書サンプルが訓練データとして含まれる場合であっても、文書を評価するための関数を精度良く学習することができる。
図1は本発明の実施形態における文書評価装置の構成を示すブロック図である。 図2は本発明の実施形態における文書評価装置の動作の一部を示すフロー図である。 図3は本発明の実施形態における文書評価装置の動作の一部を示すフロー図である。 図4は本発明の実施形態における文書評価装置を実現するコンピュータの一例を示すブロック図である。 図5は本発明の実施例における文書サンプルの特徴量及び評価値の一例を示す図である。 図6は本発明の実施例における出現頻度のデータを示す図である。 図7は本発明の実施例において欠損パターン記憶部に登録されるデータを示す図である。 図8は本発明の実施例において欠損パターン数削減部が出力するデータを示す図である。 図9は本発明の実施例においてデータ分類部が出力するデータを示す図である。 図10は本発明の実施例において第1学習部が出力するデータを示す図である。 図11は本発明の実施例において特徴ベクトル生成部が出力するデータを示す図である。 図12は本発明の実施例においてランキング部に入力される文書のデータを示す図である。 図13は本発明の実施例においてランキング部によって生成された第2特徴ベクトルのデータを示す図である。 図14は特許文献1に記載の学習システムの構成を示すブロック図である。
(実施形態)
次に、発明の実施形態における文書評価装置、文書評価方法、及びプログラムについて図1〜図4を参照して詳細に説明する。
[文書評価装置]
最初に図1を用いて、本実施形態における文書評価装置1の構成について説明する。図1は、本実施形態における文書評価装置の構成を示すブロック図である。
図1に示すように、本実施形態における文書評価装置1は、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価装置である。この文書評価装置1は、データ分類部3と、第1学習部4と、特徴ベクトル生成部5と、第2学習部6とを備えている。
データ分類部3は、第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、文書サンプルの集合を分類する。第1学習部4は、評価値を分類毎に重みづけした第1スコアを計算する第1計算式を、第1特徴ベクトルにおいて欠損していない特徴量及び評価値を用いて、分類毎に学習する。
特徴ベクトル生成部5は、分類に対応する特徴量を有する第2特徴ベクトルを生成する。この各特徴量は対応する分類に属する第1スコアを用いて算出される。第2学習部6は、評価対象となる文書を評価するための第2スコアを計算する第2計算式を、第2特徴ベクトル及び評価値を用いて学習する。
このように、文書評価装置1は、欠損していない特徴量及び文書の評価値に基づいて、最終的に第2スコアを算出する第2計算式を学習する。この第2計算式は、欠損している特徴量を別の値で補完することなく学習されているため、評価に影響の大きい特徴量を重視して文書を評価することができる。
ここで、文書評価装置1の構成を更に具体的に説明する。図1に示すように、本実施形態では、文書評価装置1は、欠損パターン数削減部2と、欠損パターン記憶部7と、ランキング部8とを更に備えている。なお、本実施形態における文書サンプルは、複数の特徴量からなる第1特徴ベクトルと、文書サンプルの評価値とを含んでおり、訓練データとして用いられる。この文書サンプルの評価値とは、例えば、当該文書を読んだユーザが記録した評価や、閲覧された回数、貼られているリンクの本数などを示す。また、文書サンプルの特徴量としては、例えば、文書の更新日時や、クエリと文書との類似度、筆者の信頼度等を挙げることができる。
欠損パターン記憶部7は、欠損している特徴量のパターンを示す欠損パターンを記憶する。欠損パターンとしては、例えば、更新日時が欠損しているパターン、更新日時及び筆者の信頼度が欠損しているパターン、及びいずれの特徴量も欠損していないパターンなどがある。
欠損パターン数削減部2は、出現頻度の低い欠損パターンに対して、出現頻度の高い欠損パターンと一致するように欠損パターンを変更することにより、欠損パターンの数を削減する。詳細には、まず、欠損パターン数削減部2は、文書サンプルの集合、及び閾値パラメータの入力を受け付ける。そして、欠損パターン数削減部2は、欠損パターン毎の文書サンプルの出現頻度を数える。
欠損パターン数削減部2は、閾値パラメータよりも大きい出現頻度の欠損パターンを欠損パターン記憶部7に登録する。そして、欠損パターン数削減部2は、この欠損パターン記憶部7に登録された欠損パターン(登録欠損パターン)を有する文書サンプルについては、そのままの状態で次のデータ分類部3に出力する。
一方、欠損パターン数削減部2は、閾値パラメータ以下の出現頻度である欠損パターン、すなわち、欠損パターン記憶部7に登録されていない欠損パターン(未登録欠損パターン)を有する文書サンプルについては、以下の処理を行った後、次のデータ分類部3に出力する。
まず、欠損パターン数削減部2は、欠損パターン記憶部7を参照し、当該未登録欠損パターンとの差分が最も小さい登録欠損パターンを選ぶ。そして、欠損パターン数削減部2は、この選んだ登録欠損パターンと一致するように、未登録欠損パターンの欠損パターンを変更する。
具体的には、欠損パターン数削減部2は、未登録欠損パターンの欠損している特徴量を推定して欠損していない状態としたり、未登録欠損パターンの欠損していない特徴量を欠損している状態としたりする。その結果、欠損パターン数削減部2は、選んだ登録欠損パターンに未登録欠損パターンを一致させる。
なお、欠損している特徴量の推定には、例えば、他の特徴量から欠損している特徴量を推定する関数を用いてもよい。欠損パターン数削減部2は、この関数を、文書サンプルの集合のうち、推定したい特徴量が欠損していない文書サンプルを用いて学習することができる。この学習には、例えば線形回帰、又はサポートベクトル回帰(SVR)を用いることができる。また、欠損パターン数削減部2は、推定したい特徴量が欠損していない複数の文書サンプルから、平均値、最頻値などの代表値を算出し、これを欠損している特徴量として推定することもできる。
データ分類部3は、本実施形態では、各文書サンプルを、欠損パターンに応じて分類し、この分類結果を対応させた文書サンプルの集合を次の第1学習部4に出力する。
第1学習部4は、本実施形態では、欠損していない特徴量及び評価値に基づき、データ分類部3による分類毎に第1計算式を学習する。各第1計算式は、欠損していない特徴量から、各文書サンプルに対して第1スコアを計算する式である。第1スコアは、文書サンプルの評価値が高いものほど大きくなるスコアであり、分類毎に評価値を重みづけしたものである。
具体的には、第1学習部4は、第1計算式を機械学習法によって学習することができる。この機械学習法としては、例えば、文書の評価値を第1スコアとし、各文書サンプルの欠損していない特徴量から第1スコアを予測する第1計算式を学習するような線形回帰法、又はサポートベクトル回帰法(SVR)等を用いることができる。なお、サポートベクトル回帰法による学習方法は、例えば、文献「”A tutorial on Support Vector Regression” Alex J. Smola and Bernhard Sch¨olkopf」に記載された方法を用いることができる。
また、その他の機械学習法として、例えば、2つの文書サンプルのペアを比較したときに、評価値が高い文書サンプルの第1スコアが高くなるような第1計算式を学習する方法(pairwise法、例えばranking SVM)を用いることもできる。さらに他の機械学習法として、文書サンプルのリストを評価値の高い順に並べたときに、その順に第1スコアが大きくなるような第1計算式を学習する方法(listwiseな方法、例えばListNet)を用いてもよい。なお、ranking SVMによって第1計算式を学習する方法については、文献「“A Support Vector Method for Multivariate Performance Measures”T. Joachim」に記載の方法を用いることができる。また、ListNetによって第1計算式を学習する方法については、文献「“Learning to rank: from pairwise approach to listwise approach” Z. Cao, T.Qin, T.-Y. Liu, M.-F. Tsai, H. Li」に記載の方法を用いることができる。
そして、第1学習部4は、データ分類部3から入力された文書サンプルそれぞれに第1スコアを対応付け、この第1スコアが対応付けられた文書サンプルを次の特徴ベクトル生成部5へ出力する。
特徴ベクトル生成部5は、本実施形態では、第2特徴ベクトルを構成する各特徴量を、対応する分類に属する第1スコアから算出する。ここで、各特徴量は、第1スコアを所定範囲内に収まるよう正規化されたものであってもよい。
第2学習部6は、本実施形態では、第2計算式によって算出される第2スコアが、文書サンプルの評価値が高いものほど大きくなるように第2計算式を学習する。第2学習部6は、機械学習によって第2計算式を学習することができる。例えば、第2学習部6は、上述した線形回帰法、サポートベクトル回帰法、ranking SVM、又はListNetなどにより第2計算式を学習することができる。
ランキング部8は、文書の集合と各文書の第1特徴ベクトルが入力されると、文書毎に第2計算式を用いて第2スコアを計算し、第2スコアに基づいて各文書を順位付けして出力する。
具体的には、ランキング部8は、まず、入力された各文書の欠損パターンが、欠損パターン記憶部7に登録されているか否か、すなわち登録欠損パターンと一致するか否かを判定する。
ランキング部8は、入力された文書の欠損パターンが登録欠損パターンと一致すれば、第1学習部の出力した第1計算式を用いて第1スコアをまず算出する。次に、ランキング部8は、この第1スコアを用いて第2特徴ベクトルを生成する。そして、ランキング部8は、第2特徴ベクトルから、第2学習部6の出力した第2計算式を用いて、各文書に対し、第2スコアを計算する。そして、ランキング部8は、第2スコアが高い順に順序を付与した文書の集合を出力する。
一方、入力された文書の欠損パターンが登録欠損パターンと一致しなければ、ランキング部8は、欠損パターン数削減部2と同様に、当該欠損パターンを欠損パターン記憶部7に登録されている欠損パターンと差分が最も小さい欠損パターンと一致させる処理を行う。そして、ランキング部8は、入力された文書に対して、欠損パターンが登録欠損パターンと一致する場合と同様に第2スコアを計算して、第2スコアが高い順に順序を付与した文書の集合を出力する。
[文書評価装置の動作]
次に、本発明の実施形態における文書評価装置1の動作について、図1を適宜参酌しつつ、図2及び図3を用いて説明する。なお、本実施形態では、文書評価装置1を動作させることによって文書評価方法が実施されるため、本実施形態における文書評価方法の説明は以下の文書評価装置1の動作説明に代える。
最初に、文書評価装置1が、文書を評価する際に使用する第1計算式及び第2計算式を学習する動作について図2を参照しつつ説明する。図2は、本実施形態における文書評価装置1が第1計算式及び第2計算式を学習する動作を示すフロー図である。図2に示すように、まず、欠損パターン数削減部2が、文書サンプルの集合及び閾値パラメータの入力を受け付ける(ステップA1)。
次に、欠損パターン数削減部2は、各文書サンプルの欠損パターンを特定し、欠損パターン毎に文書サンプルの出現頻度を数え上げ、その出現頻度が閾値パラメータよりも大きい欠損パターンを欠損パターン記憶部7に登録する(ステップA2)。
次に、欠損パターン数削減部2は、登録されていない欠損パターン、すなわち、出現頻度が閾値パラメータ以下の欠損パターン(未登録欠損パターン)を抽出する。欠損パターン数削減部2は、この未登録欠損パターンとの差分が最も小さい欠損パターンを、欠損パターン記憶部7に登録された欠損パターン(登録欠損パターン)の中から選択する。そして、欠損パターン数削減部2は、選択した登録欠損パターンと一致するよう、抽出した未登録欠損パターンの欠損パターンを変更する(ステップA3)。
以上のように、欠損パターン数削減部2は、未登録欠損パターンを有する文書サンプルについては、その欠損パターンを変更してデータ分類部3へ出力する。一方、登録欠損パターンを予め有する文書サンプルについては、そのままの状態でデータ分類部3へ出力する。
次に、データ分類部3は、入力された文書サンプルそれぞれを、欠損パターンに応じて分類する(ステップA4)。そして、データ分類部3は、分類結果が対応付けられた文書サンプルの集合を第1学習部4に出力する。
続いて、第1学習部4は、欠損していない特徴量及び評価値を用いて、第1スコアを計算する第1計算式を分類毎に学習する(ステップA5)。そして、第1学習部4は、学習によって得た第1計算式を用いて、データ分類部3から入力した文書サンプルそれぞれに第1のスコアを対応付け、分類及び第1スコアが対応付けられた文書サンプルの集合を特徴ベクトル生成部5に出力する。
次に、特徴ベクトル生成部5は、第1スコアを用いて第2特徴ベクトルを生成する(ステップA6)。そして、特徴ベクトル生成部5は、第2特徴ベクトルと文書の評価値とを第2学習部6に出力する。
次に、第2学習部6は、文書サンプルの評価値が高いものほど大きくなる第2スコアを計算する第2計算式を第2特徴ベクトル及び評価値に基づいて学習する(ステップA7)。
続いて、文書評価装置1が、上記第1計算式及び第2計算式を用いて、入力された文書に順序付けする動作について図3を参照しつつ説明する。図3は、本実施形態における文書評価装置1が、入力された文書を順序付けする動作を示すフロー図である。
図3に示すように、ランキング部8は、ランキング対象となる文書集合と各文書の第1特徴ベクトルの入力を受け付ける(ステップA11)。ランキング部8は、文書集合の入力を受け付けると、各文書の欠損パターンを特定する(ステップA12)。
ランキング部8は、欠損パターン記憶部7を参照し、ステップA12において特定された各文書の欠損パターンが登録欠損パターンと一致するか否か判定する(ステップA13)。
ランキング部8は、登録欠損パターンと一致する欠損パターンを有する文書については、そのまま欠損パターンを変更することなく後述するステップA15を実行する。一方、ランキング部8は、未登録欠損パターンを有する文書については、次のステップA14を実行する。
ステップA14において、ランキング部8は、未登録欠損パターンを有する文書の欠損パターンと最も差分が小さい登録欠損パターンを、欠損パターン記憶部7に登録されている欠損パターンから選ぶ。そして、ランキング部8は、当該文書の欠損している特徴量を推定して補完したり、欠損していない特徴量を欠損している状態とすることで、当該文書の欠損パターンを変更する。この結果、ランキング部8は、文書の欠損パターンを登録欠損パターンに一致させる。
次に、ランキング部8は、第1学習部4が出力した学習結果と、第2学習部6が出力した学習結果、すなわち、第1計算式及び第2計算式を用いて第2スコアを計算し、この第2スコアを各文書に対応付ける(ステップA15)。
ランキング部8は、各文書に対し、ステップA15で計算された第2スコアが大きい順に順位を付けし、順位付けされた文書集合を外部に出力する(ステップA16)。
以上、本実施形態における文書評価装置1によれば、欠損している特徴量を有する文書であっても、その欠損している特徴量を補完することなく第2計算式を学習することができる。このため、第2計算式から算出される第2のスコアを用いて文書を評価することで、評価に影響の大きい特徴量を重視して文書を評価することができる。
また、本実施形態の文書評価装置1は、第1学習部4によって得られる第1スコアから文書を順位付けするのではなく、特徴ベクトル生成部5及び第2学習部6によって得られる第2スコアで文書を順位付けする。このため、分類ごとに文書を順位付けするのではなく、分類を問わずに文書の集合全てに対して、評価の高い文書サンプルに類似している文書が上位になるように文書の集合を順位付けすることができる。
また、本実施形態の文書評価装置1は、欠損パターン数削減部2によって、文書サンプルの出現頻度が低い欠損パターンを出現頻度が高い欠損パターンに変更することで、欠損パターンの数を減らすことができる。このため、文書評価装置1は、第1特徴ベクトルの次元が高くなり欠損パターンの種類が増えた場合であっても、第2計算式の学習を精度良く行うことができる。
[プログラム]
本発明の実施形態におけるプログラムは、コンピュータに、図2に示すステップA1〜A7、図3に示すステップA11〜A16を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし実行することによって、本実施形態における文書評価装置と文書評価方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、欠損パターン数削減部2、データ分類部3、第1学習部4、特徴ベクトル生成部5、第2学習部6、及びランキング部8して機能し、処理を行う。また、コンピュータに備えられた記憶装置は、欠損パターン記憶部7として機能する。
[コンピュータ]
ここで、本実施形態におけるプログラムを実行することによって、文書評価装置1を実現するコンピュータについて図4を用いて説明する。図4は、本実施形態における文書評価装置を実現するコンピュータの一例を示すブロック図である。
図4に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
次に、本実施形態における文書評価装置1の動作を、図2、図3、図5〜図13を参照しつつ、実施例を用いて具体的に説明する。なお、本実施例では、質問及びその回答が記載された文書がランキングの対象となる。また、ランキングはキーワード検索の結果の表示に際して行われる。
[ステップA1]
まず、図5に示すような文書サンプルの特徴量、評価値、及び閾値パラメータの入力を欠損パターン数削減部2が受け付ける(ステップA1)。なお、本実施例において、訓練データに用いる文書サンプルの個数は1370であり、以下では、説明の簡略化のため、文書ID1〜6の6つの文書サンプルを代表として説明を行う。また、閾値パラメータは100とする。
各文書サンプルは、F1:更新日時(ある日時からの差分)、F2:クエリと文書の類似度、F3:筆者の信頼度、F4:クエリと質問部分の類似度、F5:解決済みか、といった各特徴量と、評価値とを含む。
ここで評価値とは、例えば文書を読んだユーザが記録した評価、閲覧された回数、又は貼られているリンクの本数などから算出された値である。また、F2:クエリと文書の類似度は、コサイン類似度によって求めることができる。また、F4:クエリと質問部分の類似度は、類似度測定システムが文書中の「質問」の部分を自動で抽出し、その部分とクエリとの類似度をコサイン類似度によって求めたものとする。なお、「質問」の部分が抽出できなかった文書に対しては、F4の特徴量が欠損している。
また、図5中の「NA」とは、特徴量が欠損していることを表す。例えば、「F3:筆者の信頼度」について、筆者がユーザ登録していた場合は評価値があるが、筆者がユーザ登録していない場合は、F3に関する特徴量が欠損している。
[ステップA2]
次に、欠損パターン数削減部2は、ステップA2を実行する。すなわち、欠損パターン数削減部2は、まず、文書サンプルそれぞれについて欠損パターンを特定し、欠損パターン毎の文書サンプルの出現頻度をカウントする。このカウントした結果が図6である。
図6に示すように、「欠損なし」のパターン、「F3のみが欠損している」パターン、「F3及びF4が欠損している」パターンの3つの欠損パターンは、その出現頻度が閾値パラメータの100よりも大きい。このため、欠損パターン数削減部2は、これら3つの欠損パターン{欠損なし、(F3),(F3,F4)}の出現頻度が閾値パラメータより大きいと判定する。そして、欠損パターン数削減部2は、これら3つの欠損パターンを登録欠損パターンとして、欠損パターン記憶部7に登録する。なお、欠損パターン記憶部7は、例えば図7のようなデータを保持する。
[ステップA3]
次に、欠損パターン数削減部2は、入力された各文書サンプルに対し、その欠損パターンが未登録欠損パターンである文書サンプルを抽出し、この文書サンプルの欠損パターンを変更する(ステップA3)。詳細に説明すると、欠損パターン数削減部2は、文書ID1,2,3,4,5の文書サンプルの欠損パターンは登録欠損パターンと一致するため、これら文書サンプルの欠損パターンは変更しない。一方、欠損パターン数削減部2は、文書ID6の文書サンプルの欠損パターン(F4のみが欠損するパターン)は未登録欠損パターンであるため、この文書ID6の文書サンプルを抽出して以下の処理を行う。
欠損パターン数削減部2は、文書ID6の文書サンプルの欠損パターンと最も差分の小さい登録欠損パターンを選択する。文書ID6の文書サンプルは、「F4のみが欠損している」という欠損パターンである。この欠損パターンと最も差分の小さい登録欠損パターンは、「欠損なし」の欠損パターンか、「F3及びF4が欠損している」欠損パターンである。このように候補の登録欠損パターンが複数ある場合、欠損パターン数削減部2は、例えば登録が最も古い「欠損なし」の欠損パターンを差分が最も小さい登録欠損パターンとして選ぶ。
続いて、欠損パターン数削減部2は、文書ID6の文書サンプルを欠損パターンなしの登録欠損パターンと一致させるために、文書ID6の欠損していない特徴F1,F2,F3,F5の各特徴量からF4の特徴量の推定を行う。なお、本実施例において、欠損パターン数削減部2は、線形回帰により、以下の数1のように特徴F4の特徴量fを他の特徴F1、F2,F3,F5の特徴量f、f、f、fから推定する。
Figure 0005454827
なお、a、a1、a2、a3、a5は、以下の数2の連立方程式から求めることができる。
Figure 0005454827
ここで、上記数1を算出するために使用する文書サンプルは、特徴量が欠損していない文書サンプル(文書ID2,5、・・・)であり、この文書ID列を若い番号から順にσ、σ、・・・とする(σ=2、σ=5、・・・)。また、文書IDnの特徴Fの特徴量をfnkとする。この場合、例えば、文書ID2の更新日時F1の特徴量は、fσ1 1(又はf2 1)と表される。
本実施例では、以上の数1によって求められた文書ID6のF4の特徴量が0.02となったとする。そして、欠損パターン数削減部2は、以上のように算出した特徴量で補完することで、文書ID6の文書サンプルの欠損パターンを欠損無しパターンとし、図8に示すデータを出力する。
[ステップA4]
次に、データ分類部3は、欠損パターン数削減部2が出力した図8のデータを入力とし、欠損パターンに基づいて各文書サンプルを分類し、各文書サンプルに分類番号を付与した図9のデータを出力する(ステップA4)。
[ステップA5]
次に、第1学習部4は、データ分類部3の出力した図9のデータを入力とし、分類毎に、第1計算式の学習を行う(ステップA5)。すなわち、第1学習部4は、分類番号1の文書サンプル(ID2、5、6、・・・)の各特徴量から、評価値が高いほどスコアが大きくなる第1計算式の学習を行う。その結果得られた式の一例を数4に示す。同様に、第1学習部4は、分類番号2の文書サンプル(ID3、4、・・・)の各特徴量から、数5に示した式の一例を第1計算式として学習する。また、第1学習部4は、分類番号3の文書サンプル(ID1、・・・)の各特徴量から、数6に示した式の一例を第1計算式として学習する。
なお、数4〜数6の式は、線形回帰を用いて得ることができ、具体的には、以下の数3の連立方程式を解いた結果のaξkの値によって得られる。ここで、文書ID
nの特徴F の特徴量をf
ξk、文書ID nの評価値をeで表す。また、対象の分類に属する文書IDのID列を若い番号から順にσ、σ、・・・σ、と表し、その対象の分類の欠損していない特徴量を若い特徴番号から順にfσi ξ1、fσi
ξ2、・・・fσi ξkと表す。なお、ξkは、対象分類における欠損していない特徴量の番号を表す数列である。
Figure 0005454827
Figure 0005454827
Figure 0005454827
Figure 0005454827
次に、第1学習部4は、分類番号1の文書サンプルに対しては数4の第1計算式、分類番号2の文書サンプルに対しては数5の第1計算式、分類番号3の文書サンプルに対しては数6の第1計算式を用いて第1スコアを算出する。そして、第1学習部4は、この算出した各第1スコアを対応させた図10のデータを出力する。
[ステップA6]
次に、特徴ベクトル生成部5は、第1学習部4の出力した、図10のデータを入力として、第2特徴ベクトルを生成する(ステップA6)。第2特徴ベクトルは、特徴として、G1,G2,G3を有している。そして、分類jの文書サンプルは、第1スコアを[0,1]に収まるよう正規化した値を特徴Gj(j=1,2,3)の特徴量とし、特徴Gj以外の特徴量は0とする。
例えば、文書ID1の文書サンプルは分類番号3であるため、特徴ベクトル生成部5は、第1スコアを正規化した値を特徴G3の特徴量とし、特徴G1,G2の特徴量は0とする第2特徴ベクトルを生成する。また、特徴ベクトル生成部5は、文書ID2,5,6の文書サンプルは分類番号1であるため、各第1スコアを正規化した値を、特徴G1の特徴量とし、特徴G2、G3の特徴量は0とする第2特徴ベクトルを生成する。また、特徴ベクトル生成部5は、文書ID3,4の文書サンプルは分類番号2であるため、第1スコアを正規化した値を、特徴G2の特徴量とし、特徴G1,G3の特徴量を0とする第2特徴ベクトルを生成する。以上のように、特徴ベクトル生成部5は、各文書サンプルの第2特徴ベクトルを生成した結果、図11のデータを出力する。
次に、第2学習部6は、特徴ベクトル生成部5の出力した、図11のデータを入力として、以下の数8に示した式を第2計算式として学習する(ステップA7)。具体的には、以下の数7の連立方程式を解いた結果得られたb、b、bを用いて、数8に示した第2計算式を得る。なお、文書IDiの分類jの第2特徴ベクトルの値をgijで表す。以下の式は分類番号jが1〜cまである場合であるが、本実施例では、図7に示すように、分類番号jは1〜3であり、数7によってb1 = 1.5、b2 = 1、b3 = 1.2が得られたとする。
Figure 0005454827
Figure 0005454827
こうして学習された結果(第1計算式、及び第2計算式)を、新たなクエリによって得られた新たな文書集合に対して用いる。まず、ランキング部8は、新たな文書集合の入力を受け付ける(ステップA11)。
次に、ランキング部8は、各文書の欠損パターンを特定する(ステップA12)。例えば、図12に示すような特徴量を有する文書に対して、欠損パターン数削減部2は、「F3及びF4が欠損している」欠損パターンであると欠損パターンを特定する。そして、欠損パターン数削減部2は、欠損パターン記憶部7を参照して、この文書の欠損パターンが登録欠損パターンと一致していると判定する(ステップA13)。
この欠損パターンは分類番号3であるため、ランキング部8は、まず、数6の式を用いて以下の数9のように第1スコアを計算する。
Figure 0005454827
そして、この第1スコア0.775を[0,1]の範囲に収まるように以下の数10のように正規化する。
Figure 0005454827
なお、この正規化の方法は、(第1スコア−最小値)/(最大値−最小値)であり、本実施例の分類番号3に属する文書サンプルにおける第1スコアの最大値が3.8、最小値が0.005であるとする。よって、この文書の第2特徴ベクトルは、図13のようになる。
続いて、ランキング部8は、この第2特徴ベクトルから、数8に示す第2計算式を用いて、以下の数11のように第2スコアが0.2436であることを算出する。
Figure 0005454827
そして、ランキング部8は、入力された各文書に対して、同様に第2スコアを算出し、この第2スコアが大きい順に順序を付与して出力する。
また、本実施形態の効果について上記実施例を用いて説明する。まず、従来の方法では、欠損している特徴量を平均値で補完して学習する。例えば、文書サンプルの集合のF3の特徴量の平均値が0の場合、F3の特徴量が欠損している文書ID1,3,4に対して、単純にF3に0を代入することとなる。
ここで、本来、F3は文書の評価値と相関が高いため、F3の特徴量が大きい文書は高い評価値となり、最終的に得られるスコアも大きいものが割り当てられることが望ましい。しかし、上述したように欠損している特徴量を単純に補完すると、文書ID1,3,及び4と、文書ID6とを比較した場合、F3の特徴量が小さい文書ID1,3,及び4の文書サンプルの方が高い評価値となり、F3の特徴量が大きい文書ID6の方が低い評価値となってしまう。この結果、F3の特徴量が大きい文書ID6に対して、小さいスコアが割り当てられることになってしまう。
以上のように、従来の方法は、評価値に大きな影響のある特徴量が欠損している場合、その影響を不当に軽視することになり、評価値の高い文書に大きなスコアをつけられないという問題が生じてしまう。
一方で、本実施例によれば、F3の特徴量が欠損していない文書ID2,5,6のサンプルについては、これらのみから、第2スコアの計算式を学習するため、F3の特徴量が大きい文書は最終的に得られる第2スコアも大きくなっている。また、F3の特徴量が欠損している文書サンプルについては、欠損していない特徴量に基づいて評価値が大きい文書サンプルほど最終的に得られる第2のスコアが大きくなっている。
以上のように、本実施例では、欠損している特徴量を別の値で補完することがないため、評価値に影響の大きい特徴を重視して第2スコアを計算することができ、評価値の高い文書に大きなスコアをつけることができる。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価装置であって、
前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するデータ分類部と、
前記評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習する第1学習部と、
前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成する特徴ベクトル生成部と、
評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習する第2学習部と、
を備えることを特徴とする文書評価装置。
(付記2)
前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させる欠損パターン数削減部をさらに備えることを特徴とする付記1に記載の文書評価装置。
(付記3)
文書の集合の入力を受け付け、前記第2計算式に基づいて、前記文書集合を構成する各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするランキング部をさらに備えることを特徴とする付記1又は2に記載の文書評価装置。
(付記4)
前記特徴ベクトル生成部は、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、付記1から3のいずれかに記載の文書評価装置。
(付記5)
複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価方法であって、
(a)前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
(b)前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
(c)前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
(d)評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
を有する、文書評価方法。
(付記6)
(e)前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させるステップ、をさらに有することを特徴とする付記5に記載の文書評価方法。
(付記7)
(f)文書の集合の入力を受け付け、前記第2計算式に基づいて、前記各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするステップをさらに有することを特徴とする付記5又は6に記載の文書評価方法。
(付記8)
前記(c)のステップにおいて、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、付記5から7のいずれかに記載の文書評価方法。
(付記9)
コンピュータによって、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するためのプログラムであって、
前記コンピュータに、
(a)前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
(b)前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
(c)前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
(d)評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
を実行させる、プログラム。
(付記10)
(e)前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させるステップ、をさらに前記コンピュータに実行させることを特徴とする付記9に記載のプログラム
(付記11)
(f)文書の集合の入力を受け付け、前記第2計算式に基づいて、前記各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするステップをさらに前記コンピュータに実行させることを特徴とする付記9又は10に記載のプログラム
(付記12)
前記(c)のステップにおいて、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、付記9から11のいずれかに記載のプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2012年2月24日に出願された日本出願特願2012−38286を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、ユーザから高い評価がされた文書と類似の文書を上位に表示する検索システムや推薦システムといった用途に適用できる。
1 文書評価装置
2 欠損パターン数削減部
3 データ分類部
4 第1学習部
5 特徴ベクトル生成部
6 第2学習部
7 欠損パターン記憶部
8 ランキング部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (12)

  1. 複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価装置であって、
    前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するデータ分類部と、
    前記評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習する第1学習部と、
    前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成する特徴ベクトル生成部と、
    評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習する第2学習部と、
    を備えることを特徴とする文書評価装置。
  2. 前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させる欠損パターン数削減部をさらに備えることを特徴とする請求項1に記載の文書評価装置。
  3. 評価対象となる文書の集合の入力を受け付け、前記第2計算式に基づいて、前記各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするランキング部をさらに備えることを特徴とする請求項1又は2に記載の文書評価装置。
  4. 前記特徴ベクトル生成部は、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、請求項1から3のいずれかに記載の文書評価装置。
  5. 複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するための文書評価方法であって、
    (a)コンピュータによって、前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
    (b)前記コンピュータによって、前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
    (c)前記コンピュータによって、前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
    (d)前記コンピュータによって、評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
    を有する、文書評価方法。
  6. (e)前記コンピュータによって、前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させるステップ、をさらに有することを特徴とする請求項5に記載の文書評価方法。
  7. (f)前記コンピュータによって、文書の集合の入力を受け付け、前記第2計算式に基づいて、前記各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするステップをさらに有することを特徴とする請求項5又は6に記載の文書評価方法。
  8. 前記(c)のステップにおいて、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、請求項5から7のいずれかに記載の文書評価方法。
  9. コンピュータによって、複数の特徴量からなる第1特徴ベクトルと文書の評価値とを有する文書サンプルの集合を用いて文書を評価するためのプログラムであって、
    前記コンピュータに、
    (a)前記第1特徴ベクトルにおいて欠損している特徴量のパターンを示す欠損パターンに基づき、前記文書サンプルの集合を分類するステップと、
    (b)前記各評価値を前記分類毎に重みづけした第1スコアを計算する第1計算式を、前記第1特徴ベクトルにおいて欠損していない特徴量及び前記評価値を用いて、前記分類毎に学習するステップと、
    (c)前記第1スコアを用いて、各分類に対応する特徴量を算出し、算出した特徴量を有する第2特徴ベクトルを生成するステップと、
    (d)評価対象となる文書を評価するための第2スコアを計算する第2計算式を、前記第2特徴ベクトル及び前記評価値を用いて学習するステップと、
    を実行させる、プログラム。
  10. (e)前記文書サンプルの集合から、前記欠損パターン毎の前記文書サンプルの出現頻度を計測し、前記出現頻度が設定した閾値以下の欠損パターンを、当該欠損パターンと最も類似し且つ前記出現頻度が前記閾値よりも大きい欠損パターンと一致させるステップ、をさらに前記コンピュータに実行させることを特徴とする請求項9に記載のプログラム。
  11. (f)文書の集合の入力を受け付け、前記第2計算式に基づいて、前記各文書に対して前記第2スコアを算出し、前記第2スコアに基づいて前記各文書を順位付けするステップをさらに前記コンピュータに実行させることを特徴とする請求項9又は10に記載のプログラム。
  12. 前記(c)のステップにおいて、前記第1スコアを設定した範囲内に収まるように正規化して前記第2特徴ベクトルを構成する特徴量を生成する、請求項9から11のいずれかに記載のプログラム。
JP2013536946A 2012-02-24 2013-02-18 文書評価装置、文書評価方法、及びプログラム Active JP5454827B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013536946A JP5454827B1 (ja) 2012-02-24 2013-02-18 文書評価装置、文書評価方法、及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012038286 2012-02-24
JP2012038286 2012-02-24
PCT/JP2013/053856 WO2013125482A1 (ja) 2012-02-24 2013-02-18 文書評価装置、文書評価方法、及びコンピュータ読み取り可能な記録媒体
JP2013536946A JP5454827B1 (ja) 2012-02-24 2013-02-18 文書評価装置、文書評価方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP5454827B1 true JP5454827B1 (ja) 2014-03-26
JPWO2013125482A1 JPWO2013125482A1 (ja) 2015-07-30

Family

ID=49005667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013536946A Active JP5454827B1 (ja) 2012-02-24 2013-02-18 文書評価装置、文書評価方法、及びプログラム

Country Status (3)

Country Link
US (1) US9249287B2 (ja)
JP (1) JP5454827B1 (ja)
WO (1) WO2013125482A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129124A1 (ja) * 2015-02-13 2016-08-18 株式会社Ubic データ分析システム、データ分析方法、およびデータ分析プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6201556B2 (ja) * 2013-09-17 2017-09-27 日本電気株式会社 予測モデル学習装置、予測モデル学習方法およびコンピュータプログラム
BR112017017079A2 (pt) * 2015-02-12 2018-04-10 Koninklijke Philips N.V. aparelho para classificação robusta, método realizado por um processador, e, mídia não transitória legível por computador
US10943181B2 (en) 2015-06-26 2021-03-09 Microsoft Technology Licensing, Llc Just in time classifier training
WO2017090051A1 (en) * 2015-11-27 2017-06-01 Giridhari Devanathan A method for text classification and feature selection using class vectors and the system thereof
CN107025228B (zh) * 2016-01-29 2021-01-26 阿里巴巴集团控股有限公司 一种问题推荐方法及设备
US20180060409A1 (en) * 2016-08-26 2018-03-01 Sap Se Multi-dimensional match engine
US10685026B2 (en) 2017-04-11 2020-06-16 Sap Se Database query based match engine
JP7169369B2 (ja) * 2018-01-22 2022-11-10 ジャック カッパー 機械学習アルゴリズムのためのデータを生成する方法、システム
JP6596605B1 (ja) * 2019-03-28 2019-10-23 株式会社博報堂Dyホールディングス 推定システム、推定方法、及びコンピュータプログラム
US11676034B2 (en) * 2019-06-27 2023-06-13 The Nielsen Company (Us), Llc Initialization of classification layers in neural networks
CN110750658B (zh) * 2019-09-18 2022-12-09 平安科技(深圳)有限公司 一种媒体资源的推荐方法、服务器及计算机可读存储介质
US11941497B2 (en) * 2020-09-30 2024-03-26 Alteryx, Inc. System and method of operationalizing automated feature engineering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040079A (ja) * 1998-07-24 2000-02-08 Fujitsu Ltd 並列データ分析装置
JP2001312501A (ja) * 2000-04-28 2001-11-09 Mitsubishi Electric Corp 文書自動分類システム、文書自動分類方法、及び文書自動分類プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2010016313A1 (ja) * 2008-08-08 2010-02-11 日本電気株式会社 パターン判定装置、方法、およびプログラム
JP2010146171A (ja) * 2008-12-17 2010-07-01 Nippon Hoso Kyokai <Nhk> 表現補完装置およびコンピュータプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234352A (ja) 2007-03-20 2008-10-02 Nec Corp 欠損値補完方法及び装置
US20110258170A1 (en) * 2010-01-15 2011-10-20 Duggan Matthew Systems and methods for automatically correcting data extracted from electronic documents using known constraints for semantics of extracted data elements

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040079A (ja) * 1998-07-24 2000-02-08 Fujitsu Ltd 並列データ分析装置
JP2001312501A (ja) * 2000-04-28 2001-11-09 Mitsubishi Electric Corp 文書自動分類システム、文書自動分類方法、及び文書自動分類プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2010016313A1 (ja) * 2008-08-08 2010-02-11 日本電気株式会社 パターン判定装置、方法、およびプログラム
JP2010146171A (ja) * 2008-12-17 2010-07-01 Nippon Hoso Kyokai <Nhk> 表現補完装置およびコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129124A1 (ja) * 2015-02-13 2016-08-18 株式会社Ubic データ分析システム、データ分析方法、およびデータ分析プログラム

Also Published As

Publication number Publication date
US20130332401A1 (en) 2013-12-12
US9249287B2 (en) 2016-02-02
WO2013125482A1 (ja) 2013-08-29
JPWO2013125482A1 (ja) 2015-07-30

Similar Documents

Publication Publication Date Title
JP5454827B1 (ja) 文書評価装置、文書評価方法、及びプログラム
US11928567B2 (en) System and method for improving machine learning models by detecting and removing inaccurate training data
Xu et al. Investigating bias and fairness in facial expression recognition
RU2672394C1 (ru) Способы и системы для оценки обучающих объектов посредством алгоритма машинного обучения
US11704500B2 (en) Techniques to add smart device information to machine learning for increased context
US20170294010A1 (en) Utilizing deep learning for rating aesthetics of digital images
Saberi Anari A Hybrid Model for Leaf Diseases Classification Based on the Modified Deep Transfer Learning and Ensemble Approach for Agricultural AIoT‐Based Monitoring
US20160275413A1 (en) Model vector generation for machine learning algorithms
Aydin et al. Learning sparse models for a dynamic Bayesian network classifier of protein secondary structure
JP2018045559A (ja) 情報処理装置、情報処理方法およびプログラム
US20200097997A1 (en) Predicting counterfactuals by utilizing balanced nonlinear representations for matching models
US20230153694A1 (en) Training data generation method, training data generation device
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
US11550707B2 (en) Systems and methods for generating and executing a test case plan for a software product
Shilaskar et al. Diagnosis system for imbalanced multi-minority medical dataset
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
Reis Network‐induced supervised learning: network‐induced classification (NI‐C) and network‐induced regression (NI‐R)
Komorniczak et al. problexity—An open-source Python library for supervised learning problem complexity assessment
Zhu et al. Adaptive conformal semi-supervised vector quantization for dissimilarity data
Joshi Python machine learning cookbook
JP2023526772A (ja) 機械学習モデル誤り検出
Pavana et al. Software fault prediction using machine learning algorithms
CN108229552B (zh) 一种模型处理方法、装置及存储介质
US20220207368A1 (en) Embedding Normalization Method and Electronic Device Using Same
Rudovic et al. Context-sensitive conditional ordinal random fields for facial action intensity estimation

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5454827

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150