JP6330901B2 - 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体 - Google Patents

階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体 Download PDF

Info

Publication number
JP6330901B2
JP6330901B2 JP2016511462A JP2016511462A JP6330901B2 JP 6330901 B2 JP6330901 B2 JP 6330901B2 JP 2016511462 A JP2016511462 A JP 2016511462A JP 2016511462 A JP2016511462 A JP 2016511462A JP 6330901 B2 JP6330901 B2 JP 6330901B2
Authority
JP
Japan
Prior art keywords
payout amount
node
model
component
hierarchical hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016511462A
Other languages
English (en)
Other versions
JP2016537693A (ja
Inventor
洋介 本橋
洋介 本橋
森永 聡
聡 森永
遼平 藤巻
遼平 藤巻
江藤 力
力 江藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2016537693A publication Critical patent/JP2016537693A/ja
Application granted granted Critical
Publication of JP6330901B2 publication Critical patent/JP6330901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体に関する。
販売店における商品の払出量は、様々な要因によって観測され、蓄積されるデータである。このように、これらのデータは、1つの要因ではなく、様々な要因から生じた観測値として蓄積される。売上は、払出量の例の1つである。このようなデータが生じる要因を分析すること、例えば、天候や時間帯と売上との相関を分析することによって、欠品や在庫を減らすことが可能になる。払出量の一例としては、商品の売上数、出荷数、売上金額、販売店における売上総額などが挙げられる。
そのため、過去の売上データなどから未来の需要を予測する技術が提案されている(例えば、特許第4139410号公報(以下「特許文献1」と表記)、特開2010−128779号公報(以下「特許文献2」と表記)を参照)。特許文献1には、曜日、日時、キャンペーン情報などの情報に応じた予測モデルを用いて、適切な在庫量を計算する技術が開示されている。特許文献2には、マーケティングの専門家の数、店舗エリア、交通、又は、エリア人口などの情報に基づいて抽出された最適重回帰型を使用して、売上げを計算するための技術が開示されている。
また、隠れ変数モデルの代表例である混合モデルに対して、完全周辺尤度関数を近似し、その下界(下限)を最大化することによって、観測確率の種類を判定する方法が、Ryohei Fujimaki, Satoshi Morinaga: Factorized Asymptotic Bayesian Inference for Mixture Modeling, Proceedings of the Fifteenth International Conference on Artificial Intelligence and Statistics (AISTATS), March 2012(以下「非特許文献1」と表記;「Factorized Asymptotic Bayesian Inference for Mixture Modeling」とも表記。)、及び、国際公開第2012/128207号(以下「特許文献3」と表記)に記載されている。
特許第4139410号公報 特開2010−128779号公報 国際公開第2013/128207号
Ryohei Fujimaki, Satoshi Morinaga: Factorized Asymptotic Bayesian Inference for Mixture Modeling, Proceedings of the Fifteenth International Conference on Artificial Intelligence and Statistics (AISTATS), March 2012.
特許文献1及び特許文献2に記載の技術によれば、曜日、季節、気象情報ごとに異なる予測モデルを用いて売上の予測が行われる。予測モデルをどの情報に基づいて分けるかは、専門家の知見などに基づいてシステムの設計者や利用者が判定する。そのため、予測モデルを分けるための適切な基準を設定することは困難である。また、予測モデルを分けるための基準が適切でない場合、予測結果の信頼性が低くなりうる。
また、非特許文献1及び特許文献3に記載された方法を用いたとしても、依然として、階層的な隠れ変数を含むモデルのモデル選択問題は解決できないという問題がある。その理由は、非特許文献1及び特許文献3に記載された方法は、階層的な隠れ変数を考慮していないため、自明には計算手順を構築できないからである。また、非特許文献1及び特許文献3に記載された方法は、階層的な隠れ変数がある場合には適用できないという強い仮定に基づいているため、この方法を単純に適用した場合には理論的正当性を失ってしまう。
本発明の主な目的は、上述した課題を解決する、階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体を提供することにある。
第1の例示的態様は、商品の払出量を予測する階層隠れ変数モデルを推定するための階層隠れ変数モデル推定装置であって、商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数の、複数の組み合わせである学習用データを入力する学習データ入力手段と、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である、階層隠れ構造を設定する階層隠れ構造設定手段と、前記学習データ入力手段によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算手段と、前記学習用データ入力手段によって入力された学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化するコンポーネント最適化処理手段と、前記階層隠れ構造のノードにおいて前記説明変数従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化する門関数最適化手段とを備える階層隠れ変数モデル推定装置である。
第2の例示的態様は、商品の払出量を予測する階層隠れ変数モデルを推定するための階層隠れ変数モデル方法であって、商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力し、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、入力された前記学習用データに基づいて、計算された変分確率に対して前記コンポーネントの各々を最適化し、前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける隠れ変数の変分確率に基づいて最適化する階層隠れ変数モデル推定方法である。
また、第3の例示的態様は、商品の払出量を予測する階層隠れ変数モデルを推定するための階層隠れ変数モデル推定プログラムを記録した非一時的で有形な記録媒体であって、前記階層隠れ変数モデル推定プログラムは、コンピュータに、商品の既知の払出量である目的変数と当該払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力する学習データ入力処理と、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定する階層隠れ構造設定処理と、前記学習データ入力処理によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードにつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算処理と、前記学習データ入力処理によって入力された学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化するコンポーネント最適化処理と、前記階層隠れ構造のノードにおいて多変量データに従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化する門関数最適化処理と、を実行させる一時的で有形な記録媒体である。第3の例示的態様は、その階層隠れ変数モデル推定プログラムによっても実現される。
また、第4の例示的態様は、商品の払出量を予測するための払出量予測装置であって、商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力する予測データ入力手段と、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に使用される前記コンポーネントを決定するコンポーネント決定手段と、前記コンポーネント決定手段によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測手段とを備える払出量予測装置である。
また、第5の例示的態様は、商品の払出量を予測する払出量予測方法であって、商品の前記払出量に影響を与え得る情報項目である1つ以上の説明変数である予測用データを入力し、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に使用される前記コンポーネントを決定し、決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測方法である。
また、第6の例示的態様は、商品の払出量を予測するための払出量予測プログラムが記録された非一時的で有形な記録媒体であって、払出量予測プログラムは、コンピュータに、商品の前記払出量に影響を与え得る情報項目である1つ以上の説明変数である予測用データを入力する予測用データ入力処理と、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に用いる前記コンポーネントを決定するコンポーネント決定処理と、前記コンポーネント決定処理によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測処理と、を実行させる非一時的で有形な記録媒体である。第6の例示的態様は、その払出量予測プログラムによっても実現される。
また、第7の例示的態様は、商品の払出量を予測するための払出量予測システムであって、商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力する学習データ入力手段と、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定する階層隠れ構造設定手段と、前記学習データ入力手段によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算する変分確率計算手段と、前記学習用データ入力手段によって入力された学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントを最適化するコンポーネント最適化処理手段と、前記階層隠れ構造のノードにおいて前記説明変数従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化する門関数最適化手段と、商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力する予測用データ入力手段と、前記門関数最適化手段によって最適化された前記門関数と前記予測用データとに基づいて、前記コンポーネント最適化処理手段によって最適化された前記コンポーネントのうち、前記払出量の予測に使用される前記コンポーネントを決定するコンポーネント決定手段と、前記コンポーネント決定手段によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測手段とを備える払出量予測システムである。
また、第8の例示的態様は、商品の払出量を予測するための払出量予測方法であって、商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力し、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算し、入力された前記学習用データに基づいて、計算された変分確率に対して前記コンポーネントの各々を最適化し、前記階層隠れ構造のノードにおいて前記説明変数従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化し、商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力し、最適化された前記門関数と前記予測用データとに基づいて、最適化された前記コンポーネントのうち前記払出量の予測に使用される前記コンポーネントを決定し、決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測方法である。
また、第9の例示的態様は、商品の払出量を予測するための階層隠れ変数モデルを記録した非一時的で有形な記録媒体であって、商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力し、隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算し、入力された前記学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化し、前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化することによって得られる、最適化された前記コンポーネント及び最適化された前記門関数を記録した非一時的で有形な記録媒体である。
上記例示的態様によれば、予測モデルの分類を自動化し、かつ適切な予測モデルを用いて払出量予測を行うことができる。
図1は、少なくとも1つの実施形態に係る払出量予測システムの構成例を示すブロック図である。 図2Aは、少なくとも1つの実施形態に係る学習データベース(払出テーブル)が記憶する情報の例を示す図である。 図2Bは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(気象テーブル)の例を示す図である。 図2Cは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(顧客テーブル)の例を示す図である。 図2Dは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(在庫テーブル)の例を示す図である。 図2Eは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(店舗属性テーブル)の例を示す図である。 図2Fは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(日時属性テーブル)の例を示す図である。 図2Gは、少なくとも1つの実施形態に係る学習データベースが記憶する情報(商品属性テーブル)の例を示す図である。 図3は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。 図4は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部の構成例を示すブロック図である。 図5は、少なくとも1つの実施形態に係る門関数最適化処理部の構成例を示すブロック図である。 図6は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。 図7は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部の動作例を示すフローチャートである。 図8は、少なくとも1つの実施形態に係る門関数最適化処理部の動作例を示すフローチャートである。 図9は、少なくとも1つの実施形態に係る払出量予測装置の構成例を示すブロック図である。 図10は、少なくとも1つの実施形態に係る払出量予測装置の動作例を示すフローチャートである。 図11は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。 図12は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部の構成例を示すブロック図である。 図13は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。 図14は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部の動作例を示すフローチャートである。 図15は、少なくとも1つの実施形態に係る門関数最適化処理部の構成例を示すブロック図である。 図16は、少なくとも1つの実施形態に係る門関数最適化処理部の動作例を示すフローチャートである。 図17は、階層隠れ変数モデル推定装置の基本構成を示すブロック図である。 図18は、払出量予測装置の基本構成を示すブロック図である。 図19は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
本明細書において、階層隠れ変数モデルとは、隠れ変数(すなわち、階層構造)が木構造を持つモデルである。その木構造の最下層のノードには、確率モデルであるコンポーネントが配置される。また、各分岐ノードには、入力に応じて分岐を振り分ける門関数が設けられている。以下の説明では、特に深さ2の階層隠れ変数モデルについて詳細に説明を行う。
階層構造は木構造を想定しているため、根ノードから所与のノードまでの道筋は一つに決定される。以下、階層隠れ構造において根ノードから所与のノードまで結んだときの道筋(リンク)のことを経路と記す。経路ごとに隠れ変数を辿ることによって、経路隠れ変数が決定される。例えば、最下層経路隠れ変数とは、根ノードから最下層ノードまでの経路ごとに決定される経路隠れ変数を示す。
以下の説明では、データ列x(n=1,・・・,N)が入力されると仮定し、各xがM次元多変量データ列(x=x ,・・・,x )であるとする。データ列xのことを観測変数と記すこともある。観測変数xに対する第1層分岐隠れ変数z 、最下層分岐隠れ変数zj|i 、最下層経路隠れ変数zij が定義される。
=1は、根ノードに入力されたxが第1層第iノードへ分岐することを表し、z =0は、第1層第iノードへは分岐しないことを表している。zj|i =1は、第1層第iノードに入力されたxが第2層第jノードへ分岐することを表し、zj|i =0は、第1層第iノードに入力されたxnが第2層第jノードへは分岐しないことを表している。zij =1は、xが第1層第iノード、第2層第jノードを通ることによって辿られるコンポーネントに対応することを表し、zij =0は、xが第1層第iノード、第2層第jノードを通ることによって辿られるコンポーネントに対応しないことを表している。
なお、iについてのz の和は1に等しく、jについてのzj|i の和は1に等しく、zij はz とzj|i の積に等しいので、z はjについてのzij の和に等しい。xと、最下層経路隠れ変数zij の代表値であるzとの組みは、「完全変数」と呼ばれる。対照的に、xは、「不完全変数」と呼ばれる。
完全変数に関する深さ2の階層隠れ変数モデル同時分布は、以下に示す式1で表される。
Figure 0006330901
すなわち、完全変数に関する深さ2の階層隠れ変数モデル同時分布は、上に示す式1に含まれるP(x,y)=P(x,z1st,z2nd)で定義される。ここで、z の代表値をz1st とし、zj|i の代表値をz2nd とする。さらに、第1層分岐隠れ変数z に対する変分分布をq(z )とし、最下層経路隠れ変数zij に対する変分分布をq(zij )とする。
上に示す式1において、Kは、第1層のノード数を表し、Kは、第1層のノードそれぞれから分岐するノード数を表す。最下層のコンポーネントは、Kで表される。また、f=(b,b1,・・・,bK,h1,・・・,hK)が、モデルのパラメータを表す。ここで、bは、根ノードの分岐パラメータであり、bkは、第1層第kノードの分岐パラメータであり、hkは、k番目のコンポーネントに対する観測パラメータである。
また、S1,・・・,SKは、hkに対応する観測確率の種類を表すとする。例えば、多変量データ生成確率の場合、S1〜SKになり得る候補は、{正規分布、対数正規分布、指数分布}などである。また、例えば、多項曲線が出力される場合、S1〜SKになり得る候補は、{0次曲線、1次曲線、2次曲線、3次曲線}などである。
以下の説明において、具体的な例として、深さ2の階層隠れ変数モデルが用いられる。しかし、少なくとも1つの実施形態に係る階層隠れ変数モデルは、深さ2の階層隠れ変数モデルに限定されず、深さが1又は3以上の階層隠れ変数モデルであってもよいことに留意する。この場合も、深さ2の階層隠れ変数モデルの場合と同様に、上に示す式1、及び、以下に示す式2から4は、深さ2の階層隠れ変数モデルの場合と同様に導出でき、推定装置は、同様の構成によって実現できる。
以下では、ターゲット変数をXとした場合の分布について説明するが、回帰又は判別のように、観測分布が条件付モデルP(Y|X)(Yはターゲットとなる確率変数)である場合も適用可能である。
また、実施形態について説明する前に、実施形態に係る推定装置と、「Factorized Asymptotic Bayesian Inference for Mixture Modeling」(非特許文献1)及び国際公開第2012/128207号(特許文献3)に記載されている混合隠れ変数モデルのための推定方法との本質的な違いを説明する。
非特許文献1及び特許文献3に記載されている方法では、隠れ変数を各コンポーネントのインジケータとする一般的な混合モデルが想定され、最適化の基準が、非特許文献1及び特許文献3の式10のように導出される。しかし、フィッシャー情報行列が非特許文献1及び特許文献3の式6の形式で与えられているように、非特許文献1及び特許文献3に記載された方法では、コンポーネントのインジケータである隠れ変数の確率分布が混合モデルの混合比にのみ依存すると仮定されている。そのため、入力に応じたコンポーネントの切り替えが実現できず、この最適化基準は、適切でない。
上で述べた問題を解決するためには、以下の実施形態で示すように、階層的な隠れ変数を設定し、適切な最適化基準を用いて計算する必要がある。以下の実施形態では、適切な最適化基準として、入力に応じて各分岐ノードにおいて分岐を振り分けるための多段の特異モデルを想定する。
以下では、図面を参照して実施形態を説明する。
第1の実施形態
図1は、少なくとも1つの実施形態に係る払出量予測システムの構成例を示すブロック図である。本実施形態に係る払出量予測システム10は、階層隠れ変数モデル推定装置100と、学習データベース300と、モデルデータベース500と、払出量予測装置700とを備える。払出量予測システム10は、商品の過去の払出に係る情報に基づいて払出量の予測に用いるモデルを生成し、そのモデルを用いて払出量の予測を行う。
階層隠れ変数モデル推定装置100は、学習データベース300に格納されているデータを用いて、商品の払出量を予測するためのモデルを推定し、そのモデルをモデルデータベース500に格納する。
図2Aから2Gは、少なくとも1つの実施形態に係る学習データベース300が記憶する情報の例を示す図である。
学習データベース300は、商品及び店舗に関するデータを記録する。
詳しくは、学習データベース300は、商品の払出に関連するデータを記憶する払出テーブルを記憶する。図2Aに示すように、払出テーブルは、日時、商品ID(Identifier)、店舗ID、及び、顧客IDの組み合わせに関連して、商品の売上数、単価、小計、レシート番号を格納する。顧客IDは、顧客を一意に識別するための情報であり、例えば会員カード又はポイントカードの提示により、特定される。
加えて、学習データベース300は、気象に関連するデータを記憶するための気象テーブルを記憶する。気象テーブルは、図2Bに示すように、日時に関連して、気温、その日の最高気温、その日の最低気温、降水量、天気、及び、不快指数などを格納する。
加えて、学習データベース300は、商品を購入した顧客に関連するデータを記憶するための顧客テーブルを記憶する。顧客テーブルは、図2Cに示すように、顧客IDに関連して、年齢、住所、及び、家族構成員などを格納する。本実施形態においては、これらの情報項目は、会員カード又はポイントカードの登録の際に記録される。
学習データベース300は、商品の在庫数に関連するデータを記憶するための在庫テーブルを記憶する。在庫テーブルは、図2Dに示すように、日時と商品IDの組み合わせに関連して、在庫数、前回の在庫数からの増減値を格納する。
学習データベース300は、店舗に関連するデータを記憶するための店舗属性テーブルを記憶する。店舗属性テーブルは、図2Eに示すように、店舗IDに関連して、店舗名、住所、種類、広さ、及び、駐車場の数を含む。店舗の種類の例は、駅前に位置する駅前タイプ、住宅地に位置する住宅地タイプ、及び、ガソリンスタンド等の他の施設との複合である混合型タイプを含む。
加えて、学習データベース300は、日付に関連するデータを記憶するための日付属性テーブルを記憶する。日付属性テーブルは、図2Fに示すように、日付に関連して、その日付の属性を示す情報種別及び値と、商品IDと、店舗IDとを格納する。情報種別の例は、祝日、促進販売の日付、及び、店舗の近くで開催されるイベントなどを含む。日付属性テーブルの値は、1又は0である。日付属性テーブルの値が1である場合、その値に関連付けられている日付の属性が、その値に関連付けられている情報種別によって表される属性を含む。また、値が0である場合、その値に関連付けられている日時が、その値に関連付けられている情報種別が表す属性を含まない。その値は、その値に関連付けられている日付が、その値に関連付けられている情報種別が表す属性を有していないことを表す。加えて、商品ID及び店舗IDは、情報種別の種類によって、必須であってもそうではなくてもよい。例えば、情報種別が販売促進を示す場合、どの商品が販売促進中であるか及びどの店舗においてかを示す必要があり、そのため、商品ID及び店舗IDは必須な項目である。他方、情報種別が祝日を示す場合、その日が祝日であるという事実は、店舗及び商品の種別と関係がないため、商品ID及び店舗IDは必須な項目ではない。
加えて、学習データベース300は、商品に関連するデータを記憶するための商品属性テーブルを記憶する。商品属性テーブルは、図2Gに示すように、商品IDに関連して、商品名、商品の大分類、それの中分類、それの小分類、単価、及び、原価などを記憶する。
モデルデータベース500は、階層隠れ変数モデル推定装置によって推定された、商品の払出量を予測するためのモデルを記憶する。モデルデータベース500は、ハードディスクドライブ又はソリッドステートドライブなどの、一時的でない有形の媒体によって構成される。
払出量予測装置700は、商品及び店舗に関連するデータを受信し、そのデータとモデルデータベース500に格納されたモデルとに基づいて、商品の払出量を予測する。
図3は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。本実施形態の階層隠れ変数モデル推定装置100は、データ入力装置101と、階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104と、コンポーネント最適化処理部105と、門関数最適化処理部106と、最適性判定処理部107と、最適モデル選択処理部108と、モデル推定結果出力装置109とを備える。
階層隠れ変数モデル推定装置100は、学習データベース300に格納されているデータに基づいて生成された入力データ111の入力の後、その入力データ111に対して階層隠れ構造及び観測確率の種類を最適化し、最適化した結果をモデル推定結果112として出力し、モデルデータベース500に格納する。本実施形態における入力データ111は、学習用データの一例である。
図4は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部104の構成例を示すブロック図である。階層隠れ変数変分確率計算処理部104は、最下層経路隠れ変数変分確率計算処理部104−1と、階層設定部104−2と、上層経路隠れ変数変分確率計算処理部104−3と、階層計算終了判定処理部104−4を含む。
階層隠れ変数変分確率計算処理部104は、入力データ111と、後述するコンポーネント最適化処理部105によって推定されたモデル104−5との入力の後、階層隠れ変数変分確率104−6を出力する。階層隠れ変数変分確率計算処理部104は後で詳細に説明される。本実施形態におけるコンポーネントは、各説明変数に係る重みである。払出量予測装置700は、そのコンポーネントが示す重みを乗算することによって得られる説明変数の総和を計算することによって、目的変数を得ることができる。
図5は、少なくとも1つの実施形態に係る門関数最適化処理部106の構成例を示すブロック図である。門関数最適化処理部106は、分岐ノード情報取得部106−1と、分岐ノード選択処理部106−2と、分岐パラメータ最適化処理部106−3と、全分岐ノード最適化終了判定処理部106−4とを含む。
門関数最適化処理部106は、入力データ111と、後述する階層隠れ変数変分確率計算処理部104によって計算された階層隠れ変数変分確率104−6と、コンポーネント最適化処理部105によって推定されたモデル104−5との入力の後、門関数モデル106−6を出力する。門関数最適化処理部106は後で詳細に説明される。本実施形態における門関数は、入力データ111に含まれる情報が所定の条件を満たすか否かを決定するための関数である。加えて、門関数は、階層隠れ構造の内部ノードに対応して設けられる。払出量予測装置700は、階層隠れ構造のノードをたどる際、門関数の決定された結果に従って、次にたどるノードを決定する。
データ入力装置101は、入力データ111を入力するための装置である。データ入力装置101は、学習データベース300の払出テーブルに記録されたデータに基づいて、所定の時間範囲(例えば、1時間又は6時間)毎の、商品の既知の払出量を示す目的変数を生成する。目的変数として、例えば、1つの店舗における1つの商品の所定の時間範囲毎の売上数、全店舗における1つの商品の所定の時間範囲毎の売上数、1つの店舗における全商品の所定の時間範囲毎の販売価格などを用いることができる。加えて、データ入力装置101は、学習データベース300の気象テーブル、顧客テーブル、店舗属性テーブル、日時属性テーブル、及び、商品属性テーブルに記録されたデータに基づいて、目的変数ごとに、その目的変数に影響を与え得る情報である、1つ以上の説明変数を生成する。データ入力装置101は、目的変数と説明変数との複数の組み合わせを、入力データ111として入力する。データ入力装置101は、入力データ111を入力する際、観測確率の種類とコンポーネント数との候補などの、モデル推定に必要なパラメータを同時に入力する。本実施形態において、データ入力装置101は、学習用データ入力部の一例である。
階層隠れ構造設定部102は、観測確率の種類及びコンポーネント数の、入力された候補から、最適化の候補として、階層隠れ変数モデルの構造を、選択し設定する。本実施形態で用いられる隠れ構造は、木構造である。以下では、設定されたコンポーネント数をCと表記し、説明に用いられる数式は、深さが2の階層隠れ変数モデルに関連する。なお、階層隠れ構造設定部102は、選択された階層隠れ変数モデルの構造を内部のメモリに記憶してもよい。
例えば、2分木モデル(各分岐ノードが2つの分岐を持つモデル)の深さが2の木構造の場合、階層隠れ構造設定部102は、2つの第一階層ノードと、4つの第二階層ノード(本実施形態では、最下層ノード)とを持つ階層隠れ構造を選択する。
初期化処理部103は、階層隠れ変数モデルを推定するための初期化処理を実施する。初期化処理部103は、初期化処理を任意の方法によって実行できる。初期化処理部103は、例えば、観測確率の種類をコンポーネントごとにランダムに設定し、設定された種類にしたがって、各観測確率のパラメータをランダムに設定してもよい。さらに、初期化処理部103は、階層隠れ変数の最下層経路変分確率をランダムに設定してもよい。
階層隠れ変数変分確率計算処理部104は、階層ごとに経路隠れ変数の変分確率を計算する。パラメータfは、初期化処理部103によって、または、コンポーネント最適化処理部105および門関数最適化処理部106によって計算される。そのため、階層隠れ変数変分確率計算処理部104は、そのパラメータfを使用して変分確率を計算する。
階層隠れ変数変分確率計算処理部104は、周辺化対数尤度関数を完全変数に対する推定量(例えば、最尤推定量や最大事後確率推定量)に関してラプラス近似し、そして、その下界を最大化することによって、変分確率を計算する。以下、そのような計算された変分確率を最適化基準Aと呼ぶ。
以下では、最適化基準Aを計算する手順を、深さが2の階層隠れ変数モデルを例として使用して説明する。周辺化対数尤度は、以下に示す式2によって与えられ、ここではlogは例えば自然対数関数である。自然対数の代わりに、底がネイピア数ではない他の対数関数も適用できる。
Figure 0006330901
まず、上に示す式2によって与えられる周辺化対数尤度の下界を考える。式2では、最下層経路隠れ変数変分確率q(z)が最大化された場合、等号が成立する。分子における、完全変数の周辺化尤度を、完全変数に対する最尤推定量を用いてラプラス近似することによって、以下の式3に示す周辺化対数尤度関数の近似式がもたらされる。
Figure 0006330901
式3において、上付きのバーは、完全変数に対する最尤推定量を表し、Dは、下付きのパラメータ*の次元を表す。
次に、最尤推定量の、対数尤度関数を最大化する性質と、対数関数が凹関数である事実との使用によって、式3の下界は、以下に示す式4に従って計算される。
Figure 0006330901
第1層分岐隠れ変数の変分分布q’及び、最下層経路隠れ変数の変分分布q’’は、変分分布について式4を最大化することによってそれぞれ得られる。ここでは、q’’及びfは、q’’=q(t−1)、及び、f=f(t−1)となるように固定され、q’は、以下の式Aに示す値に固定される。
Figure 0006330901
ただし、上付きの(t)は、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106、最適性判定処理部107の繰り返し計算におけるt回目の繰り返しを表す。
以下では、階層隠れ変数変分確率計算処理部104の動作を、図4を参照して説明する。
最下層経路隠れ変数変分確率計算処理部104−1は、入力データ111と推定モデル104−5との入力を受け取り、最下層隠れ変数変分確率q(z)を計算する。階層設定部104−2は、最下層を、変分確率計算対象として設定する。詳しくは、最下層経路隠れ変数変分確率計算処理部104−1は、入力データ111の目的変数と説明変数との組み合わせ毎に、各推定モデル104−5の変分確率を計算する。変分確率の計算は、推定モデル104−5に入力データ111の説明変数を代入することによって得られる解と入力データ111の目的変数とを比較することで行う。
上層経路隠れ変数変分確率計算処理部104−3は、一つ上の層の経路隠れ変数変分確率を計算する。詳しくは、上層経路隠れ変数変分確率計算処理部104−3は、同じ分岐ノードを親として持つ現在の層の隠れ変数変分確率の和を計算し、その和を一つ上の層の経路隠れ変数変分確率とする。
階層計算終了判定処理部104−4は、変分確率が計算される層が上にまだ存在するか否かを判定する。階層計算終了判定処理部104−4が、上の層が存在すると判定した場合、階層設定部104−2は、一つ上の層を、変分確率計算対象として設定する。その後、上層経路隠れ変数変分確率計算処理部104−3および階層計算終了判定処理部104−4は、上述の処理を繰り返す。階層計算終了判定処理部104−4が、上の層がないと判定した場合、階層計算終了判定処理部104−4は、すべての階層について経路隠れ変数変分確率が計算されたと決定する。
コンポーネント最適化処理部105は、上記の式4に対して各コンポーネントのモデル(パラメータfおよび種類S)を最適化し、最適化されたモデル104−5を出力する。深さが2の階層隠れ変数モデルの場合、コンポーネント最適化処理部105は、qおよびq’’を、階層隠れ変数変分確率計算処理部104によって計算された最下層経路隠れ変数変分確率q(t)に固定し、q’を、上に示す式Aによって表される上層経路隠れ変数変分確率に固定する。コンポーネント最適化処理部105は、式4におけるGの値を最大化するためのモデルを計算する。
式4により定義されるGは、コンポーネントごとに最適化関数を分解することが可能である。そのため、コンポーネントの種類の組み合わせ(例えば、S1からSKのどの種類を指定するか)を考慮に入れることなく、S1からSK及びパラメータh1からhKを別々に最適化できる。このように最適化できる特性が、この処理において重要である。これにより、組み合わせ爆発を回避しながら、コンポーネントの種類を最適化できる。
以下では、図5を参照して、門関数最適化処理部106の動作を説明する。分岐ノード情報取得部106−1は、コンポーネント最適化処理部105によって推定されたモデル104−5を用いて、分岐ノードリストを抽出する。分岐ノード選択処理部106−2は、抽出された分岐ノードリストから、1つの分岐ノードを選択する。以下、選択されたノードのことを選択ノードと記すこともある。
分岐パラメータ最適化処理部106−3は、入力データ111と、階層隠れ変数変分確率104−6から得られる選択ノードについての隠れ変数変分確率とを用いて、選択ノードの分岐パラメータを最適化する。選択ノードの分岐パラメータは、上述の門関数に対応する。
全分岐ノード最適化終了判定処理部106−4は、分岐ノード情報取得部106−1によって抽出されたすべての分岐ノードが最適化されたか否かを判定する。すべての分岐ノードが最適化されている場合、門関数最適化処理部106は、ここでの処理を終了する。一方、すべての分岐ノードが最適化されてはいない場合、分岐ノード選択処理部106−2はその処理を行い、その後、分岐パラメータ最適化処理部106−3および全分岐ノード最適化終了判定処理部106−4は、それぞれの処理を行う。
門関数の具体例を、2分木の階層モデルに対するベルヌーイ分布に基づく門関数を使用して説明する。以下では、ベルヌーイ分布に基づく門関数を、ベルヌーイ門関数とも表記する。xの第d次元をxとし、この値がある閾値wを超えないときに2分木の左下へ分岐する確率をg−とし、この値が閾値wを超えるときに2分木の左下へ分岐する確率をg+とする。分岐パラメータ最適化処理部106−3は、上記最適化パラメータd、w、g−、g+をベルヌーイ分布に基づいて最適化する。
最適性判定処理部107は、上に示す式4を用いて計算される最適化基準Aが収束したか否かを判定する。最適化基準Aが収束していない場合、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106および最適性判定処理部107による処理が繰り返される。最適性判定処理部107は、例えば、最適化基準Aの増加量が所定の閾値未満である場合に、最適化基準Aが収束したと判定してもよい。
以下では、階層隠れ変数変分確率計算処理部104、コンポーネント最適化処理部105、門関数最適化処理部106および最適性判定処理部107による処理は、また、階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理と、まとめて表記する。階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理が、繰り返し行われ、変分分布とモデルが更新され、その結果として、適切なモデルを選択できる。なお、これらの処理を繰り返すことにより、最適化基準Aが単調に増加することが保証される。
最適モデル選択処理部108は、最適なモデルを選択する。詳しくは、階層隠れ構造設定部102によって設定された隠れ状態の数Cに対して、階層隠れ変数変分確率計算処理部104から最適性判定処理部107による処理の結果として計算される最適化基準Aが、現在設定されている最適化基準Aよりも大きい場合、最適モデル選択処理部108は、そのモデルを最適なモデルとして選択する。
モデル推定結果出力装置109は、入力された観測確率の種類及びコンポーネント数の候補から設定される階層隠れ変数モデルの構造の候補についてモデル最適化が完了した場合、最適な隠れ状態の数、観測確率の種類、パラメータ、及び、変分分布などを、モデル推定結果出力結果112として出力する。一方、最適化の済んでいない候補が存在する場合、手順は階層隠れ構造設定部102の処理に進み、上述する処理が同様に行われる。
階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104(更に具体的には、最下層経路隠れ変数変分確率計算処理部104−1と、階層設定部104−2と、上層経路隠れ変数変分確率計算処理部104−3と、階層計算終了判定処理部104−4)と、コンポーネント最適化処理部105と、門関数最適化処理部106(更に具体的には、分岐ノード情報取得部106−1と、分岐ノード選択処理部106−2と、分岐パラメータ最適化処理部106−3と、全分岐ノード最適化終了判定処理部106−4)と、最適性判定処理部107と、最適モデル選択処理部108とは、プログラム(階層隠れ変数モデルの推定プログラム)に従って動作するコンピュータのCPU(Central Processing Unit)によって実現される。
例えば、プログラムは、CPUを備える階層隠れ変数モデル推定装置100の記憶部(示されない)に記憶されてもよく、そのCPUは、そのプログラムを読み、そのプログラムに従って、階層隠れ構造設定部102、初期化処理部103、階層隠れ変数変分確率計算処理部104(更に具体的には、最下層経路隠れ変数変分確率計算処理部104−1と、階層設定部104−2と、上層経路隠れ変数変分確率計算処理部104−3と、階層計算終了判定処理部104−4)、コンポーネント最適化処理部105、門関数最適化処理部106(更に具体的には、分岐ノード情報取得部106−1と、分岐ノード選択処理部106−2と、分岐パラメータ最適化処理部106−3と、全分岐ノード最適化終了判定処理部106−4)、最適性判定処理部107および最適モデル選択処理部108として動作する。
かわりに、階層隠れ構造設定部102と、初期化処理部103と、階層隠れ変数変分確率計算処理部104と、コンポーネント最適化処理部105と、門関数最適化処理部106と、最適性判定処理部107と、最適モデル選択処理部108とは、それぞれが専用のハードウェアで実現されていてもよい。
以下では、本実施形態の階層隠れ変数モデル推定装置の動作を説明する。図6は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の動作例を示すフローチャートである。
まず、データ入力装置101は、入力データ111を入力する(ステップS100)。次に、階層隠れ構造設定部102は、入力された階層隠れ構造の候補値から、まだ最適化されていない階層隠れ構造を選択し、設定する(ステップS101)。次に、初期化処理部103は、設定された階層隠れ構造に対して、推定に用いられるパラメータ及び隠れ変数変分確率の初期化処理を行う(ステップS102)。
次に、階層隠れ変数変分確率計算処理部104は、各経路隠れ変数の変分確率を計算する(ステップS103)。次に、コンポーネント最適化処理部105は、観測確率の種類とパラメータを推定することにより、各コンポーネントを最適化する(ステップS104)。
次に、門関数最適化処理部106は、各分岐ノードにおける分岐パラメータを最適化する(ステップS105)。次に、最適性判定処理部107は、最適化基準Aが収束したか否かを判定する(ステップS106)。すなわち、最適性判定処理部107は、モデルの最適性を判定する。
ステップS106において、最適化基準Aが収束したと判定されなかった場合、すなわち、モデルが最適ではないと判定された場合(ステップS106a:No)、ステップS103からステップS106の処理が繰り返される。
一方、ステップS106において、最適化基準Aが収束したと判定された場合、すなわち、モデルが最適であると判定された場合(ステップS106a:Yes)、最適モデル選択処理部108は、現在設定されている最適なモデル(例えば、コンポーネント数、観測確率の種類、パラメータ)に従った最適化基準Aと、最適なモデルとして現在設定されているモデルに従った最適化基準Aの値を比較し、値の大きいモデルを最適なモデルとして選択する(ステップS107)。
次に、最適モデル選択処理部108は、推定されていない階層隠れ構造の候補が残っているか否かを判定する(ステップS108)。候補が残っている場合(ステップS108:Yes)、ステップS102からステップS108の処理が繰り返される。一方、候補が残っていない場合(ステップS108:Yes)、モデル推定結果出力装置109は、モデル推定結果を出力し、処理を終了する(ステップS109)。すなわち、モデル推定結果出力装置109は、コンポーネント最適化処理部105によって最適化されたコンポーネントと、門関数最適化処理部106によって最適化された門関数とを、モデルデータベース500に記録する。
以下では、本実施形態の階層隠れ変数変分確率計算処理部104の動作を説明する。図7は、少なくとも1つの実施形態に係る階層隠れ変数変分確率計算処理部104の動作例を示すフローチャートである。
まず、最下層経路隠れ変数変分確率計算処理部104−1は、最下層経路隠れ変数変分確率を計算する(ステップS111)。次に、階層設定部104−2は、どの層まで経路隠れ変数を計算したか設定する(ステップS112)。次に、上層経路隠れ変数変分確率計算処理部104−3は、階層設定部104−2によって設定された層の経路隠れ変数変分確率を用いて、1つ上の層の経路隠れ変数変分確率を計算する(ステップS113)。
次に、階層計算終了判定処理部104−4は、経路隠れ変数が計算されていない層が残っているか否かを判定する(ステップS114)。経路隠れ変数が計算されていない層が残っている場合(ステップS114:No)、ステップS112からステップS113の処理が繰り返される。一方、経路隠れ変数が計算されていない層が残っていない場合、階層隠れ変数変分確率計算処理部104は、処理を終了する。
以下では、本実施形態の門関数最適化処理部106の動作を説明する。図8は、少なくとも1つの実施形態に係る門関数最適化処理部106の動作例を示すフローチャートである。
まず、分岐ノード情報取得部106−1は、すべての分岐ノードを認識する(ステップS121)。次に、分岐ノード選択処理部106−2は、1つの分岐ノードを最適化の対象として選択する(ステップS122)。次に、分岐パラメータ最適化処理部106−3は、選択された分岐ノードにおける分岐パラメータを最適化する(ステップS123)。
次に、全分岐ノード最適化終了判定処理部106−4は、最適化されていない分岐ノードが残っているか否かを判定する(ステップS124)。最適化されていない分岐ノードが残っている場合、ステップS122からステップS123の処理が繰り返される。一方、最適化されていない分岐ノードが残っていない場合、門関数最適化処理部106は、処理を終了する。
上述のように、本実施形態によれば、階層隠れ構造設定部102が、階層隠れ構造を設定する。ここで、階層隠れ構造は、隠れ変数が木構造で表された構造であり、確率モデルを表すコンポーネントがその木構造の最下層のノードに配置される。
そして、階層隠れ変数変分確率計算処理部104が、経路隠れ変数の変分確率(すなわち、最適化基準A)を計算する。階層隠れ変数変分確率計算処理部104は、木構造の各階層の隠れ変数の変分確率を、最下層のノードから順に計算してもよい。例えば、階層隠れ変数変分確率計算処理部104は、周辺化対数尤度を最大化する変分確率を計算してもよい。
これに伴って、コンポーネント最適化処理部105が、計算された変分確率に対してコンポーネントを最適化し、門関数最適化処理部106が、階層隠れ構造のノードにおける隠れ変数の変分確率に基づく門関数モデルを最適化する。なお、門関数モデルは、階層隠れ構造のノードにおいて多変量データに従って分岐方向を決定するためのモデルである。
多変量データに対する階層隠れ変数モデルは、上述の構成によって推定されるため、理論的な正当性を失うことなく、適切な計算量で、階層的な隠れ変数を含む階層隠れ変数モデルを推定でき、階層隠れ変数問題のモデル選択問題も解決できる。加えて、階層隠れ変数モデル推定装置100を用いることによって、コンポーネントを分けるための適切な基準を人手で設定する必要はない。
階層隠れ構造設定部102が、隠れ変数が2分木構造で表される階層隠れ構造を設定してもよく、そこでは、門関数最適化処理部106が、ノードにおける隠れ変数の変分確率に基づいて、ベルヌーイ分布に基づく門関数モデルを最適化する。この場合、各パラメータが解析解を持ち、それはより高速な最適化に寄与する。
これらの処理によって、階層隠れ変数モデル推定装置100は、気温が低い時や高い時によく売るパターン、午前や午後によく売るパターン、週明けや週末によく売るパターンなどに、コンポーネントを分類できる。
本実施形態の払出量予測装置について説明する。図9は、少なくとも1つの実施形態に係る払出量予測装置の構成例を示すブロック図である。
払出量予測装置700は、データ入力装置701と、モデル取得部702と、コンポーネント決定部703と、払出量予測部704と、予測結果出力装置705とを含む。
データ入力装置701は、払出量に影響を与え得る情報である1つ以上の説明変数を、入力データ711として入力する。入力データ711を構成する説明変数の種類は、入力データ111の説明変数と同じ種類である。本実施形態において、データ入力装置701は、予測データ入力部の一例である。
モデル取得部702は、払出量の予測に用いられるモデルとして、モデルデータベース500から門関数又はコンポーネントを取得する。当該門関数は、門関数最適化処理部106によって最適化されている。加えて、コンポーネントは、コンポーネント最適化処理部106によって最適化されている。
コンポーネント決定部703は、データ入力装置701によって入力された入力データ711とモデル取得部702が取得した門関数とに基づいて、階層隠れ構造をたどる。そして、コンポーネント決定部703は、払出量の予測に用いるコンポーネントに、階層隠れ構造の最下層のノードに関連付けられたコンポーネントを決定する。
払出量予測部704は、コンポーネント決定部703によって決定されたコンポーネントに、データ入力装置701が入力した入力データ711を代入することによって、払出量を予測する。
予測結果出力装置705は、払出量予測部704によって得られた、払出量の予測結果712を出力する。
次に、本実施形態の払出量予測装置の動作を説明する。図10は、少なくとも1つの実施形態に係る払出量予測装置の動作例を示すフローチャートである。
まず、データ入力装置701は、入力データ項目711を入力する(ステップS131)。データ入力装置701は、1つの入力データ項目711のみではなく、複数の入力データ項目711を入力してもよい。例えば、データ入力装置701は、所与の店舗におけるその日の各所与の時点の入力データ項目711を入力しても良い。データ入力装置701が複数の入力データ項目711を入力する場合、払出量予測部704は、入力データ項目711毎の払出量を予測する。次に、モデル取得部702は、モデルデータベース500から門関数及びコンポーネントを取得する(ステップS132)。
次に、払出量予測装置は、入力データ711を1つずつ選択し、選択した入力データ711についての、ステップS134からステップS136の処理を実行する(ステップS133)。
まず、コンポーネント決定部703は、モデル取得部702が取得した門関数に基づいて、階層隠れ構造の根ノードから最下層のノードまでたどることで、払出量の予測のために用いられるコンポーネントを決定する(ステップS134)。詳しくは、コンポーネント決定部703は、以下の手順でコンポーネントを決定する。
コンポーネント決定部703は、階層隠れ構造のノードの各々について、ノードに関連付けられた門関数を読み出す。次に、コンポーネント決定部703は、入力データ711が、読み出された門関数を満たすか否かを判定する。次に、コンポーネント決定部703は、判定結果に基づいて次にたどる子ノードを決定する。コンポーネント決定部703は、払出量の予測に用いるコンポーネントに、その処理により階層隠れ構造のノードをたどることによって最下層のノードに到達した場合、そのノードに関連付けられたコンポーネントを決定する。
ステップS134においてコンポーネント決定部703が払出量の予測のために用いられるコンポーネントを決定した場合、払出量予測部704は、ステップS133において選択された入力データ711をそのコンポーネントに代入することによって、払出量を予測する(ステップS135)。そして、予測結果出力装置705は、払出量予測部705による払出量の予測結果712を出力する(ステップS136)。
払出量予測装置700は、ステップS134〜ステップS136の処理をすべての入力データ711について実行し、処理を完了する。
上述のように、本実施形態によれば、払出量予測装置700は、門関数による適切なコンポーネントを用いることによって、優れた精度で払出量の予測を行うことができる。特に、当該門関数及びコンポーネントは、階層隠れ変数モデル推定装置100によって理論的な正当性を失うことなく推定されるので、払出量予測装置700は、適切な基準によって分類されたコンポーネントを用いて払出量の予測を行うことができる。
第2の実施形態
次に、払出量予測システムの第2の実施形態について説明する。本実施形態に係る払出量予測システムは、階層隠れ変数モデル推定装置100が階層隠れ変数モデル推定装置200に置き換えられているということのみにおいて、払出量予測システム10と相違する。
図11は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置の構成例を示すブロック図である。なお、第1の実施形態のものと同様の構成には、図3におけるものと同一の符号を付与され、それらの説明は省略される。本実施形態の階層隠れ変数モデル推定装置200は、階層隠れ構造最適化処理部201が接続され、最適モデル選択処理部108が接続されていないことのみにおいて、階層隠れ変数モデル推定装置100と相違する。
第1の実施形態では、階層隠れ変数モデル推定装置100が、階層隠れ構造の候補に対してコンポーネント及び門関数のモデルを最適化し、最適化基準Aを最適化するための階層隠れ構造を選択する。一方、本実施形態の階層隠れ変数モデル推定装置200では、階層隠れ変数変分確率計算処理部104による処理の後に、階層隠れ構造最適化処理部201が、隠れ変数が減少した経路をモデルから除去する処理が追加される。
図12は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部201の構成例を示すブロック図である。階層隠れ構造最適化処理部201は、経路隠れ変数和演算処理部201−1と、経路除去判定処理部201−2と、経路除去実行処理部201−3とを含む。
経路隠れ変数和演算処理部201−1は、階層隠れ変数変分確率104−6の入力を受信し、各コンポーネントにおける最下層経路隠れ変数変分確率の和(以下、サンプル和と記す)を計算する。
経路除去判定処理部201−2は、サンプル和が所定の閾値e以下であるか否かを判定する。ここで、eは、入力データ111と共に入力される閾値である。詳しくは、経路除去判定処理部201−2によって判定される条件は、例えば、以下の式5によって表すことができる。
Figure 0006330901
すなわち、経路除去判定処理部201−2は、各コンポーネントにおける最下層経路隠れ変数変分確率q(zij )が上に示される式5によって表される基準を満たすか否かを判定する。言い換えると、経路除去判定処理部201−2は、サンプル和が十分小さいか否かを判定する。
経路除去実行処理部201−3は、サンプル和が十分小さいと判定された経路の変分確率を、0に設定する。そして、経路除去実行処理部201−3は、残りの経路(すなわち、変分確率が0に設定されていない経路)に対して正規化した最下層経路隠れ変数変分確率を用いて、各階層での階層隠れ変数変分確率104−6を再計算し、再計算の結果を出力する。
以下、この処理の妥当性を説明する。下に例として示す式6は、繰り返し最適化におけるq(zij )の更新式である。
Figure 0006330901
上に示す式6において、指数部に負の項が含まれ、その前の処理で計算されたq(zij )がその項の分母に存在する。したがって、この分母の値が小さければ小さいほど、最適化されたq(zij )の値も小さい。そのため、小さい経路隠れ変数変分確率は、繰り返し計算によって、徐々に減少する。
階層隠れ構造最適化処理部201(より具体的には、経路隠れ変数和演算処理部201−1と、経路除去判定処理部201−2と、経路除去実行処理部201−3)は、プログラム(階層隠れ変数モデル推定プログラム)に従って動作するコンピュータのCPUによって実現されることに留意する。
以下では、本実施形態の階層隠れ変数モデル推定装置200の動作を説明する。図13は、少なくとも1つの実施形態に係る階層隠れ変数モデル推定装置200の動作例を示すフローチャートである。
まず、データ入力装置101は、入力データ111を入力する(ステップS200)。次に、階層隠れ構造設定部102は、階層隠れ構造として、隠れ状態数の初期状態を設定する(ステップS201)。
第1の実施形態では、コンポーネント数に対する最適解の探索が、複数個の候補全てに対して実行される。一方、本実施形態では、コンポーネント数も最適化でき、そのため、階層隠れ構造は、一度の処理において最適化できる。よって、最適化が実行されていない候補が複数の候補から選択される、第1の実施形態におけるステップS102とは異なり、ステップS201では、隠れ状態数の初期値のみを、一度設定する必要がある。
次に、初期化処理部103は、設定された階層隠れ構造に対して、推定に用いられるパラメータ及び隠れ変数変分確率の初期化処理を行う(ステップS202)。
次に、階層隠れ変数変分確率計算処理部104は、各経路隠れ変数の変分確率を計算する(ステップS203)。次に、階層隠れ構造最適化処理部201は、コンポーネント数を推定することによって、階層隠れ構造を最適化する(ステップS204)。すなわち、コンポーネントは最下層ノードに配置されているので、階層隠れ構造を最適化する場合、コンポーネント数も最適化される。
次に、コンポーネント最適化処理部105は、観測確率の種類とパラメータを推定することによって、各コンポーネントを最適化する(ステップS205)。次に、門関数最適化処理部106は、各分岐ノードにおける分岐パラメータを最適化する(ステップS206)。次に、最適性判定処理部107は、最適化基準Aが収束したか否かを判定する(ステップS207)。すなわち、最適性判定処理部107は、モデルの最適性を判定する。
ステップS207において、最適化基準Aが収束したと判定されなかった場合、すなわち、モデルが最適ではないと判定された場合(ステップS207a:No)、ステップS203からステップS207の処理が繰り返される。
一方、ステップS207において、最適化基準Aが収束したと判定された場合、すなわち、モデルが最適であると判定された場合(ステップS207a:Yes)、モデル推定結果出力装置109は、モデル推定結果112を出力し、処理を終了(ステップS208)。
以下では、本実施形態の階層隠れ構造最適化処理部201の動作を説明する。図14は、少なくとも1つの実施形態に係る階層隠れ構造最適化処理部201の動作例を示すフローチャートである。
まず、経路隠れ変数和演算処理部201−1は、経路隠れ変数のサンプル和を計算する(ステップS211)。次に、経路除去判定処理部201−2は、計算したサンプル和が十分小さいか否か判定する(ステップS212)。次に、経路除去実行処理部201−3は、サンプル和が十分小さいと判定された最下層経路隠れ変数変分確率が0である状態において再計算された階層隠れ変数変分確率を出力し、処理を終了する(ステップS213)。
上述のように、本実施形態では、階層隠れ構造最適化処理部201が、計算された変分確率が所定の閾値以下である経路をモデルから除外することによって、階層隠れ構造を最適化する。
このような構成によって、第1の実施形態の効果に加えて、一回の処理においてコンポーネント数を最適化でき、階層隠れ変数モデル推定装置100のように複数の階層隠れ構造の候補を最適化する必要がない。これにより、コンポーネント数、観測確率の種類とパラメータ、及び、変分分布を同時に推定でき、計算コストを削減できる。
第3の実施形態
以下では、払出量予測システムの第3の実施形態について説明する。本実施形態に係る払出量予測システムは、階層隠れ変数モデル推定装置の構成が第2の実施形態と異なる。本実施形態の階層隠れ変数モデル推定装置は、門関数最適化処理部106が門関数最適化処理部113に置き換得られていることのみにおいて、階層隠れ変数モデル推定装置200と異なる。
図15は、第3の実施形態の門関数最適化処理部113の構成例を示すブロック図である。門関数最適化処理部113は、有効分岐ノード選別部113−1と、分岐パラメータ最適化並列処理部113−2を含む。
有効分岐ノード選別部113−1は、階層隠れ構造から有効な分岐ノードのみを選別する。詳しくは、有効分岐ノード選別部113−1は、コンポーネント最適化処理部105によって推定されたモデル104−5の使用を通じて、モデルから除去された経路を考慮に入れることによって、有効な分岐ノードのみを選別する。このように、有効な分岐ノードは、階層隠れ構造から除去されていない経路上の、分岐ノードを意味する。
分岐パラメータ最適化並列処理部113−2は、有効な分岐ノードに関する分岐パラメータの最適化処理を並列に行い、門関数モデル106−6を出力する。詳しくは、分岐パラメータ最適化並列処理部113−2は、入力データ111と、階層隠れ変数変分確率計算処理部104によって計算された階層隠れ変数変分確率104−6とを用いて、有効なすべての分岐ノードに関する分岐パラメータを同時に並行に最適化する
例えば、分岐パラメータ最適化並列処理部113−2は、図15に例示するように、並列に配置された、第1の実施形態の分岐パラメータ最適化処理部106−3を含んでいてもよい。このような構成により、すべての門関数の分岐パラメータを一度に最適化できる。
すなわち、階層隠れ変数モデル推定装置100及び200は、門関数の最適化処理を1度に1つ実行するが、本実施形態の階層隠れ変数モデル推定装置は、門関数の最適化処理を並行に行うことができ、それは高速なモデル推定に貢献する。
門関数最適化処理部113(より具体的には、有効分岐ノード選別部113−1と、分岐パラメータ最適化並列処理部113−2)は、プログラム(階層隠れ変数モデル推定プログラム)に従って動作するコンピュータのCPUによって実現されることに留意する。
以下では、本実施形態の門関数最適化処理部113の動作を説明する。図16は、少なくとも1つの実施形態に係る門関数最適化処理部113の動作例を示すフローチャートである。まず、有効分岐ノード選別部113−1は、全ての有効な分岐ノードを選択する(ステップS301)。次に、分岐パラメータ最適化並列処理部113−2は、全ての有効な分岐ノードを並列に最適化し、処理を終了する(ステップS302)。
上述のように、本実施形態によれば、有効分岐ノード選別部113−1は、階層隠れ構造のノードから有効な分岐ノードを選別し、門関数最適化並列処理部113−2が、各有効な分岐ノードにおける隠れ変数の変分確率に基づいて門関数モデルを最適化する。ここで、門関数最適化並列処理部113−2は、有効な分岐ノードに関する分岐パラメータを並列に最適化する。従って、門関数の最適化処理を並行に行うことができ、それにより、前述の実施形態の効果に加え、より高速なモデル推定を達成することができる。
基本的な構成
次に、階層隠れ変数モデル推定装置の基本的な構成について説明する。図17は、階層隠れ変数モデル推定装置の基本構成を示すブロック図である。
階層隠れ変数モデル推定装置は、商品の払出量を予測するための階層隠れ変数モデルを推定する。階層隠れ変数モデル推定装置は、基本的な構成として、学習データ入力部80と、階層隠れ構造設定部81と、変分確率計算部82と、コンポーネント最適化処理部83と、門関数最適化部84とを含む。
学習データ入力部80は、学習用のデータを入力する。そのデータは、目的変数及び1つ以上の説明変数の、複数の組み合わせである。目的変数は、商品の既知の払出量である。1つ以上の説明変数は、その払出量に影響を与え得る情報項目である。学習データ入力部80の例として、データ入力装置101が用いられる。
階層隠れ構造設定部81は、隠れ変数が木構造で表され、確率モデルを表すコンポーネントがその木構造の最下層のノードに配置された構造である、階層隠れ構造を設定する。階層隠れ構造設定部81の例として、階層隠れ構造設定部102が用いられる。
変分確率計算部82は、学習データ入力部80によって入力された学習用のデータとコンポーネントとに基づいて、階層隠れ構造において根ノードを対象ノードと結ぶ経路に含まれる隠れ変数である経路隠れ変数の、変分確率(例えば、最適化基準A)を計算する。変分確率計算部82の例として、階層隠れ変数変分確率計算処理部104が用いられる。
コンポーネント最適化処理部83は、学習データ入力部80によって入力された学習用のデータに基づいて、計算された変分確率に対して各コンポーネントを最適化する。コンポーネント最適化処理部83の例として、コンポーネント最適化処理部105が用いられる。
門関数最適化部84は、階層隠れ構造のノードにおいて説明変数に応じた分岐方向を決定するためのモデルである門関数モデルを、そのノードにおける隠れ変数の変分確率に基づいて最適化する。門関数最適化部84の例として、門関数最適化処理部106が用いられる。
そのような構成により、階層隠れ変数モデル推定装置は、階層的な隠れ変数を含む階層隠れ変数モデルを、理論的正当性を失うことなく、適切な計算量で推定できる。
そのうえ、階層隠れ変数モデル推定装置は、計算された変分確率が所定の閾値以下である経路をモデルから除外することにより階層隠れ構造を最適化するための階層隠れ構造最適化部(例えば、階層隠れ構造最適化処理部201)を含んでいてもよい。そのような構成により、コンポーネントの数を一回の処理で最適化でき、複数の階層隠れ構造の候補を最適化する必要がない。
そのうえ、門関数最適化部84は、階層隠れ構造から除外されていない経路の分岐ノードである有効分岐ノードをその階層隠れ構造のノードから選択する有効分岐ノード選別部(例えば、有効分岐ノード選別部113−1)と、有効分岐ノードにおける隠れ変数の変分確率に基づいて門関数モデルを最適化する門関数最適化並列処理部(例えば、分岐パラメータ最適化並列処理部113−2)とを含んでいてもよい。門関数最適化並列処理部は、有効分岐ノードに関する各分岐パラメータの最適化を並行に行ってもよい。そのような構成により、より高速なモデル推定を実現することができる。
そのうえ、階層隠れ構造設定部81は、隠れ変数が2分木構造で表される階層隠れ構造を設定してもよい。そして、門関数最適化部84は、ノードにおける隠れ変数の変分確率に基づいて、ベルヌーイ分布に基づく門関数モデルを最適化してもよい。この場合、各パラメータが解析解を持ち、そのことは、より高速な最適化に貢献する。
詳しくは、変分確率計算部82は、周辺化対数尤度を最大化するように隠れ変数の変分確率を計算してもよい。
以下では、払出量予測装置の基本構成について説明する。図18は、払出量予測装置の基本構成を示すブロック図である。
払出量予測装置は、予測データ入力部90と、コンポーネント決定部91と、払出量予測部92とを備える。
予測データ入力部90は、商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である予測用データを入力する。予測データ入力部90の例として、データ入力装置701が用いられる。
コンポーネント決定部91は、隠れ変数が木構造で表され、当該木構造の最下層のノードに確率モデルを表すコンポーネントが配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおいて分岐方向を決定するための門関数と、予測用データとに基づいて、払出量の予測に用いるコンポーネントを決定する。コンポーネント決定部81の例として、コンポーネント決定部703が用いられる。
払出量予測部92は、コンポーネント決定部91によって決定されたコンポーネントと予測用データとに基づいて、払出量を予測する。払出量予測部92の例として、払出量予測部704が用いられる。
そのような構成により、払出量予測装置は、門関数による適切なコンポーネントを用いることによって、優れた精度で払出量の予測を行うことができる。
図19は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略的ブロック図である。
コンピュータ1000は、CPU1001、主記憶装置1002、補助記憶装置1003、インタフェース1004を備える。
上述の階層隠れ変数モデル推定装置又は払出量予測装置は、それぞれ、コンピュータ1000に実装される。加えて、階層隠れ変数モデル推定装置が実装されるコンピュータ1000と払出量予測装置が実装されるコンピュータ1000は、互いに異なっていていもよい。上述の各処理部の動作は、プログラム(階層隠れ変数モデルの推定プログラム又は払出量予測プログラム)の形態で、補助記憶装置1003に格納されている。CPU1001は、プログラムを補助記憶装置1003から読み出し、主記憶装置1002に展開し、そして、そのプログラムに従って上述の処理を実行する。
少なくとも1つの実施形態において、補助記憶装置1003は、非一時的で有形な媒体の例である。非一時的な有形である媒体の他の例は、インタフェース1004を介して接続される、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、又は、半導体メモリ等を含む。加えて、プログラムが通信線によってコンピュータ1000に配信される場合、配信が行われたコンピュータ1000が、プログラムを主記憶装置1002に展開してもよく、処理を実行してもよい。
加えて、そのプログラムは、上述の機能の一部を実現するために使用されてもよい。さらに、そのプログラムは、上述の機能を補助記憶装置1003に先に格納された他のプログラムと結合されることによって、上述の機能を実現するためのプログラムであってもよく、それは、いわゆる差分ファイル(差分プログラム)である。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる
この出願は、2013年9月20日に出願された米国出願第14/032295号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 払出量予測システム
80 学習データ入力部
81 階層隠れ構造設定部
82 変分確率計算部
83 コンポーネント最適化処理部
84 門関数最適化部
90 予測データ入力部
91 コンポーネント決定部
92 払出量予測部
100 階層隠れ変数モデル推定装置
101 データ入力装置
102 階層隠れ構造設定部
103 初期化処理部
104 階層隠れ変数変分確率計算処理部
104−1 最下層経路隠れ変数変分確率計算処理部
104−2 階層設定部
104−3 上層経路隠れ変数変分確率計算処理部
104−4 階層計算終了判定処理部
104−5 推定されたモデル
104−6 階層隠れ変数変分確率
105 コンポーネント最適化処理部
106 門関数最適化処理部
106−1 分岐ノード情報取得部
106−2 分岐ノード選択処理部
106−3 分岐パラメータ最適化処理部
106−4 全分岐ノード最適化終了判定処理部
106−6 門関数モデル
107 最適性判定処理部
108 最適モデル選択処理部
109 モデル推定結果出力装置
111 入力データ
112 モデル推定結果
113 門関数最適化処理部
113−1 有効分岐ノード選別部
113−2 分岐パラメータ最適化並列処理部
200 階層隠れ変数モデル推定装置
201 階層隠れ構造最適化処理部
201−1 経路隠れ変数和演算処理部
201−2 経路除去判定処理部
201−3 経路除去実行処理部
300 学習データベース
500 モデルデータベース
700 払出量予測装置
701 データ入力装置
702 モデル取得部
703 コンポーネント決定部
704 払出量予測部
705 予測結果出力装置
711 入力データ
712 予測結果
1000 コンピュータ
1001 CPU
1002 主記憶装置
1003 補助記憶装置
1004 インタフェース

Claims (15)

  1. 商品の払出量を予測する階層隠れ変数モデルを推定するための階層隠れ変数モデル推定装置であって、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数の複数の組み合わせである学習用データを入力する学習データ入力手段と、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である、階層隠れ構造を設定する階層隠れ構造設定手段と、
    前記学習データ入力手段によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算手段と、
    前記学習データ入力手段によって入力された学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化するコンポーネント最適化処理手段と、
    前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける隠れ変数の変分確率に基づいて最適化する門関数最適化手段と、
    を備える階層隠れ変数モデル推定装置。
  2. 計算された変分確率が所定の閾値以下である経路を前記モデルから除去することによって、前記階層隠れ構造を最適化する階層隠れ構造最適化手段
    を更に備える請求項1に記載の階層隠れ変数モデル推定装置。
  3. 前記門関数最適化手段は、
    前記階層隠れ構造から除去されない経路の分岐ノードである有効分岐ノードを、前記階層隠れ構造のノードから選択する有効分岐ノード選別手段と、
    前記有効分岐ノードにおける前記隠れ変数の前記変分確率に基づいて、前記門関数モデルを最適化する門関数最適化並列処理手段と、を含み、
    前記門関数最適化並列処理手段は、前記有効分岐ノードに対して、各分岐パラメータの最適化を並列に行う
    請求項2に記載の階層隠れ変数モデル推定装置。
  4. 階層隠れ構造設定手段は、前記隠れ変数が2分木構造で表される前記階層隠れ構造を設定し、
    門関数最適化手段は、前記ノードにおける前記隠れ変数の前記変分確率に基づいて、ベルヌーイ分布に基づく前記門関数モデルを最適化する
    請求項1乃至3のいずれか1項に記載の階層隠れ変数モデル推定装置。
  5. 変分確率計算手段は、周辺化対数尤度を最大化するように前記隠れ変数の前記変分確率を計算する
    請求項1乃至4のいずれか1項に記載の階層隠れ変数モデル推定装置。
  6. 商品の払出量を予測する階層隠れ変数モデルを推定するための階層隠れ変数モデル推定方法であって、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力し、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、
    入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算し、
    入力された前記学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化し、
    前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける隠れ変数の変分確率に基づいて最適化する
    階層隠れ変数モデル推定方法。
  7. 計算された変分確率が所定の閾値以下である経路を前記モデルから除去することによって、前記階層隠れ構造を最適化する
    請求項6記載の階層隠れ変数モデル推定方法。
  8. コンピュータに、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力する学習データ入力処理と、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定する階層隠れ構造設定処理と、
    前記学習データ入力処理によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である経路隠れ変数の変分確率を計算する変分確率計算処理と、
    前記学習データ入力処理によって入力された学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化するコンポーネント最適化処理と、
    前記階層隠れ構造のノードにおいて多変量データに従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化する門関数最適化処理
    を実行させる階層隠れ変数モデル推定プログラム。
  9. コンピュータに、
    計算された変分確率が所定の閾値以下である経路を前記モデルから除去することによって、前記階層隠れ構造を最適化する階層隠れ構造最適化処理
    を実行させる請求項8記載の階層隠れ変数モデル推定プログラム。
  10. 商品の払出量を予測するための払出量予測装置であって、
    商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力する予測データ入力手段と、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に使用される前記コンポーネントを決定するコンポーネント決定手段と、
    前記コンポーネント決定手段によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測手段と、
    を備える払出量予測装置。
  11. 商品の払出量を予測するための払出量予測方法であって、
    商品の前記払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力し、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に使用される前記コンポーネントを決定し、
    決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する
    払出量予測方法。
  12. コンピュータに、
    商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力する予測用データ入力処理と、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造と、当該階層隠れ構造のノードにおける分岐方向を決定するための門関数と、前記予測用データとに基づいて、前記払出量の予測に使用される前記コンポーネントを決定するコンポーネント決定処理と、
    前記コンポーネント決定処理によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測処理
    を実行させる払出量予測プログラム。
  13. 商品の払出量を予測するための払出量予測システムであって、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力する学習データ入力手段と、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定する階層隠れ構造設定手段と、
    前記学習データ入力手段によって入力された学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算する変分確率計算手段と、
    前記学習データ入力手段によって入力された前記学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化するコンポーネント最適化処理手段と、
    前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化する門関数最適化手段と、
    商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力する予測用データ入力手段と、
    前記門関数最適化手段によって最適化された前記門関数モデルと前記予測用データとに基づいて、前記コンポーネント最適化処理手段によって最適化された前記コンポーネントのうち、前記払出量の予測に使用される前記コンポーネントを決定するコンポーネント決定手段と、
    前記コンポーネント決定手段によって決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する払出量予測手段と、
    を備える払出量予測システム。
  14. 商品の払出量を予測するための払出量予測方法であって、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数の、複数の組み合わせである学習用データを入力し、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、
    入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算し、
    入力された前記学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化し、
    前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化し、
    商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力し、
    最適化された前記門関数モデルと前記予測用データとに基づいて、最適化された前記コンポーネントのうち、前記払出量の予測に使用される前記コンポーネントを決定し、
    決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測する
    払出量予測方法。
  15. 商品の払出量を予測するためのプログラムであって、
    商品の既知の払出量である目的変数と前記払出量に影響を与え得る情報項目である1つ以上の説明変数との、複数の組み合わせである学習用データを入力し、
    隠れ変数が木構造で表され、確率モデルを表すコンポーネントが、前記木構造の最下層のノードに配置された構造である階層隠れ構造を設定し、
    入力された前記学習用データと前記コンポーネントとに基づいて、前記階層隠れ構造において根ノードを対象ノードとつなぐ経路に含まれる隠れ変数である、経路隠れ変数の変分確率を計算し、
    入力された前記学習用データに基づいて、計算された前記変分確率に対して前記コンポーネントの各々を最適化し、
    前記階層隠れ構造のノードにおいて前記説明変数に従って分岐方向を決定するためのモデルである門関数モデルを、前記ノードにおける前記隠れ変数の前記変分確率に基づいて最適化し、
    商品の払出量に影響を与え得る情報項目である1つ以上の説明変数である、予測用データを入力し、
    最適化された前記門関数モデルと前記予測用データとに基づいて、最適化された前記コンポーネントのうち、前記払出量の予測に使用される前記コンポーネントを決定し、
    決定された前記コンポーネントと前記予測用データとに基づいて、前記払出量を予測するする
    処理をコンピュータに実行させるプログラム
JP2016511462A 2013-09-20 2014-09-02 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体 Active JP6330901B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/032,295 US9324026B2 (en) 2013-09-20 2013-09-20 Hierarchical latent variable model estimation device, hierarchical latent variable model estimation method, supply amount prediction device, supply amount prediction method, and recording medium
US14/032,295 2013-09-20
PCT/JP2014/004494 WO2015040806A1 (en) 2013-09-20 2014-09-02 Hierarchical latent variable model estimation device, hierarchical latent variable model estimation method, supply amount prediction device, supply amount prediction method, and recording medium

Publications (2)

Publication Number Publication Date
JP2016537693A JP2016537693A (ja) 2016-12-01
JP6330901B2 true JP6330901B2 (ja) 2018-05-30

Family

ID=52688477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016511462A Active JP6330901B2 (ja) 2013-09-20 2014-09-02 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体

Country Status (4)

Country Link
US (1) US9324026B2 (ja)
JP (1) JP6330901B2 (ja)
CN (1) CN105556546B (ja)
WO (1) WO2015040806A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355196B2 (en) * 2013-10-29 2016-05-31 Nec Corporation Model estimation device and model estimation method
US9489632B2 (en) * 2013-10-29 2016-11-08 Nec Corporation Model estimation device, model estimation method, and information storage medium
EP3913508A1 (en) * 2016-07-06 2021-11-24 Nippon Telegraph And Telephone Corporation Fisher's exact test calculation apparatus, method, and program
WO2019003376A1 (ja) * 2017-06-29 2019-01-03 日本電気株式会社 可視化システム、可視化方法および可視化プログラム
JP7249103B2 (ja) * 2018-02-23 2023-03-30 ヤフー株式会社 選択装置、選択方法、及び選択プログラム
JP7489275B2 (ja) 2020-09-09 2024-05-23 株式会社Screenホールディングス 情報処理装置、情報処理システムおよび情報処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3767954B2 (ja) 1996-11-07 2006-04-19 富士通株式会社 需要予測装置
JP4139410B2 (ja) 2006-01-30 2008-08-27 アクセンチュア株式会社 最適在庫量/発注量を指示する発注指示システム
JP2010128779A (ja) 2008-11-27 2010-06-10 Kansai Electric Power Co Inc:The 重回帰式の抽出方法
SG189314A1 (en) 2011-03-18 2013-05-31 Nec Corp Multivariate data mixture model estimation device, mixture model estimation method, and mixture model estimation program
CN102129860B (zh) * 2011-04-07 2012-07-04 南京邮电大学 基于无限状态隐马尔可夫模型的与文本相关的说话人识别方法
US8892491B2 (en) 2011-11-21 2014-11-18 Seiko Epson Corporation Substructure and boundary modeling for continuous action recognition
US8909582B2 (en) * 2013-02-04 2014-12-09 Nec Corporation Hierarchical latent variable model estimation device, hierarchical latent variable model estimation method, and recording medium

Also Published As

Publication number Publication date
US20150088789A1 (en) 2015-03-26
CN105556546A (zh) 2016-05-04
CN105556546B (zh) 2019-01-08
US9324026B2 (en) 2016-04-26
JP2016537693A (ja) 2016-12-01
WO2015040806A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
JP6344395B2 (ja) 払出量予測装置、払出量予測方法、プログラム、及び、払出量予測システム
JP6459968B2 (ja) 商品推薦装置、商品推薦方法、及び、プログラム
JP6344396B2 (ja) 発注量決定装置、発注量決定方法、プログラム、及び、発注量決定システム
JP6330901B2 (ja) 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体
JP6179598B2 (ja) 階層隠れ変数モデル推定装置
Ma et al. Estimating warehouse rental price using machine learning techniques
JP6525002B2 (ja) メンテナンス時期決定装置、劣化予測システム、劣化予測方法および記録媒体
US11182808B2 (en) Method and system for attributes based forecasting
JP6451735B2 (ja) エネルギー量推定装置、エネルギー量推定方法、及び、エネルギー量推定プログラム
JP6451736B2 (ja) 価格推定装置、価格推定方法、及び、価格推定プログラム
JP6477703B2 (ja) Cm計画支援システムおよび売上予測支援システム
Chang et al. High‐Speed Data‐Driven Methodology for Real‐Time Traffic Flow Predictions: Practical Applications of ITS
Tsai et al. An effective hyperparameter optimization algorithm for DNN to predict passengers at a metro station
Borchert et al. Multi-objective model selection for time series forecasting
Kanwal et al. An attribute weight estimation using particle swarm optimization and machine learning approaches for customer churn prediction
Hu Overdue invoice forecasting and data mining
KR20230127861A (ko) 신용평가 모델 업데이트 또는 교체 방법 및 장치
JP6972641B2 (ja) 情報処理装置及び情報処理プログラム
KR102510463B1 (ko) 상권 분석 정보 제공 방법 및 이를 기록한 기록매체
Nikitin et al. Shopping Basket Analisys for Mining Equipment: Comparison and Evaluation of Modern Methods
Hu et al. Improving the station-level demand prediction by using feature engineering in bike sharing systems
Malandrakis Exploring Machine Learning for Price Recommendation in Parking Data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6330901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150