JP7139932B2 - 需要予測方法、需要予測プログラムおよび需要予測装置 - Google Patents

需要予測方法、需要予測プログラムおよび需要予測装置 Download PDF

Info

Publication number
JP7139932B2
JP7139932B2 JP2018235377A JP2018235377A JP7139932B2 JP 7139932 B2 JP7139932 B2 JP 7139932B2 JP 2018235377 A JP2018235377 A JP 2018235377A JP 2018235377 A JP2018235377 A JP 2018235377A JP 7139932 B2 JP7139932 B2 JP 7139932B2
Authority
JP
Japan
Prior art keywords
product
learning
demand
prediction
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018235377A
Other languages
English (en)
Other versions
JP2020098388A (ja
Inventor
浩子 鈴木
勇 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018235377A priority Critical patent/JP7139932B2/ja
Publication of JP2020098388A publication Critical patent/JP2020098388A/ja
Application granted granted Critical
Publication of JP7139932B2 publication Critical patent/JP7139932B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、需要予測方法、需要予測プログラムおよび需要予測装置に関する。
商品の需要予測は、過去の売上実績の傾向に基づき将来を予測する手法が一般的であるが、新商品の発売前の研究開発や企画段階では、予測したい新商品の受注データや売上データが存在しないため、売上予測ができない。このため、過去にすでに発売された類似商品を探索し、その類似商品の過去の売上データを用いることで、新商品の売上予測をすることが行われている。
例えば、新商品の発売前や発売初期に、予測実行者が複数の類似商品の探索および各類似商品の重みを指定し、その重みを用いて類似商品の過去の売上の重み付け加算を算出して、需要予測を行う技術が知られている。また、商品に関する発言を含むソーシャルメディアデータと商品属性データを用いて、過去に発売された類似商品を抽出し、この類似商品の実績を用いて、新商品の売り上げを予測する技術が知られている。
特開2008-186413号公報 特開2000-3388号公報 特開2013-182415号公報
しかしながら、上記技術では、発売前である新商品の需要予測の精度を向上させることが難しい。
例えば、予測実行者が類似商品の指定と重み付けの指定を行う場合、主観的や属人的な要素が強く、類似商品のどのような内容が新商品の需要予測に影響するのかを定量的に把握することができないので、必ずしも新商品の需要予測の精度が高いとは限らない。また、類似商品の過去の売上の重み付け加算やソーシャルメディアデータでは、過去の類似製品の単純な組み合わせでは表現できない新商品の需要を正しく予測することができない。
一つの側面では、新商品の需要予測の精度を向上させることができる需要予測方法、需要予測プログラムおよび需要予測装置を提供することを目的とする。
第1の案では、需要予測方法は、コンピュータが、発売が開始されている既存商品または発売が開始されていない新商品の属性が記載された各文書から、予め設定された条件に基づいて各商品の属性を示す特徴語を抽出する処理を実行する。需要予測方法は、コンピュータが、前記各文書に含まれる特徴語の出現頻度から、商品ごとに特徴語を有する度合の組み合わせを示したクラスタリング情報を生成する処理を実行する。需要予測方法は、コンピュータが、生成したクラスタリング情報を説明変数に設定し、前記既存商品の売上実績を目的変数に設定した学習データを用いて、前記新商品の需要予測を行う予測モデルを学習する処理を実行する。
一実施形態によれば、新商品の需要予測の精度を向上させることができる。
図1は、実施例1にかかる需要予測装置を説明する図である。 図2は、実施例1にかかる需要予測装置の機能構成を示す機能ブロック図である。 図3は、企画書DBに記憶される企画書の一例を示す図である。 図4は、売上情報DBに記憶される情報の例を示す図である。 図5は、月別売上情報DBに記憶される情報の例を示す図である。 図6は、実施例1にかかる学習フェーズを説明する図である。 図7は、実施例1にかかる適用フェーズを説明する図である。 図8は、処理の流れを示すフローチャートである。 図9は、実施例2にかかる需要予測装置を説明する図である。 図10は、実施例2にかかる学習フェーズを説明する図である。 図11は、実施例2にかかる適用フェーズを説明する図である。 図12は、スムージングの例を説明する図である。 図13は、スムージングの別例を説明する図である。 図14は、スムージング結果を説明する図である。 図15は、効果を説明する図である。 図16は、効果の比較例を説明する図である。 図17は、ハードウェア構成例を説明する図である。
以下に、本願の開示する需要予測方法、需要予測プログラムおよび需要予測装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[需要予測装置の説明]
図1は、実施例1にかかる需要予測装置10を説明する図である。図1に示す需要予測装置10は、発売前の新商品の需要予測を実行するコンピュータ装置の一例である。この需要予測装置10は、学習フェーズにおいて予測モデルを学習し、適用フェーズにおいて学習済みの予測モデルを用いた需要予測を実行する。
図1に示すように、学習フェーズでは、需要予測装置10は、すでに発売されている既存商品の企画書や発売前の研究開発時や企画時に作成される新商品の企画書などのテキスト情報から、内容を表す単語(キーワード)を抽出する。そして、需要予測装置10は、抽出したキーワードを用いて、クラスタリングを行ってクラスタを生成する。その後、需要予測装置10は、既存商品のクラスタ結果を説明変数、既存商品の売上情報を目的変数とする学習データを用いて、需要予測を行う予測モデルを学習する。
学習完了後の適用フェーズでは、需要予測装置10は、学習フェーズで生成された新商品のクラスタ結果を、学習済みの予測モデルに入力する。そして、需要予測装置10は、予測モデルの出力結果を需要予測として取得する。
このように、需要予測装置10は、商品に紐づくテキスト情報を入力としてクラスタリングを行い、キーワード群の意味的なまとまりを持つクラスタを得て、このクラスタ結果を説明変数として予測モデルに投入する。これにより、各クラスタの売上に対する影響度を定量的に計算することができる。したがって、需要予測装置10は、新商品の需要予測の精度を向上させることができる。
[機能構成]
図2は、実施例1にかかる需要予測装置10の機能構成を示す機能ブロック図である。図2に示すように、需要予測装置10は、通信部11、記憶部12、制御部30を有する。
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者から各種処理開始の指示や各種データなどを受信し、管理者端末に学習結果や予測結果などを送信する。
記憶部12は、各種データや制御部30が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。記憶部12は、企画書DB13、売上情報DB14、月別売上情報DB15、テキスト情報DB16、重み情報DB17、クラスタDB18、学習データDB19、学習結果DB20、予測結果DB21を有する。
企画書DB13は、すでに発売されている既存商品の企画書のデータと、発売前であり、研究開発段階や企画段階で生成された新商品の企画書のデータとを記憶するデータベースである。具体的には、企画書DB13は、材料名、ターゲット年代、商品の内容などの商品に関する情報を表すキーワードが含まれる各企画書のデータを記憶する。
図3は、企画書DB13に記憶される企画書の一例を示す図である。図3に示すように、企画書は、商品の特徴や商品の説明などを表す項目aと項目bが記載される。また、項目aには、項目aに関する情報を具体的に記載した文書1aが記載され、項目bには、項目bに関する情報を具体的に記載した文書1bが記載される。また、文書1aと文書1bには、キーワードが含まれる。例えば、項目aは、商品特徴を説明する項目であり、項目bは、商品のターゲットを記載する項目などである。
売上情報DB14は、既存商品の売上情報を記憶するデータベースである。具体的には、売上情報DB14は、既存商品の発売日の売上を記憶する。図4は、売上情報DB14に記憶される情報の例を示す図である。図4に示すように、売上情報DB14は、「商品、発売日、売り上げ」を対応付けて記憶する。
ここで記憶される「商品」は、発売された既存商品の商品名であり、「発売日」は、発売が開始された日であり、「売り上げ」は、売上個数などである。図4の例では、商品1は、2018年6月10日に発売が開始されて、その日の売上が100個だったことを示す。なお、売上情報DB14は、発売開始日の売上に限らず、特定のある発売日の売上を記憶することもできる。なお、本実施例では、商品1、商品2、商品3を既存商品として説明する。
月別売上情報DB15は、既存商品の月別の売上情報を記憶するデータベースである。図5は、月別売上情報DB15に記憶される情報の例を示す図である。図5に示すように、売上情報DB14は、「商品、1か月目、2か月目、3か月目」を対応付けて記憶する。
ここで記憶される「商品」は、発売された既存商品の商品名であり、「1か月目」等は、発売開始から1か月、2か月、3か月ごとの売上個数などである。図5の例では、商品1は、発売開始から1か月目で1000個、1か月目から2か月目で300個、2か月目から3か月目で100個の売り上げがあったことを示す。なお、月別に限らず、日別や年別などの情報を用いることもできる。
テキスト情報DB16は、既存商品および新商品の各企画書に関するデータを記憶するデータベースである。具体的には、テキスト情報DB16は、各商品について、項目aと項目bのそれぞれにどのような文書が含まれるかを記憶する。
例えば、テキスト情報DB16は、「商品、項目a、項目b」を対応付けて記憶する。ここで記憶される「商品」は、商品名であり、「項目a」と「項目b」は、クラスタ分類に使用されるキーワードの抽出元となる文書が記載されている箇所を示す情報である。一例を挙げると、商品1の項目aに含まれる文書1aと項目bに含まれる文書1bとが抽出元である場合、テキスト情報DB16は、「商品、項目a、項目b」として「商品1、文書1a、文書1b」を記憶する。
重み情報DB17は、テキスト情報に含まれるキーワードの重みに関する情報を記憶するデータベースである。具体的には、重み情報DB17は、企画書などから抽出された各キーワードの重みを記憶する。
クラスタDB18は、既存商品と新商品とを含む各商品が分類されたクラスタに関する情報を記憶するデータベースである。具体的には、クラスタDB18は、各商品をキーワードでクラスタリングした結果を記憶する。すなわち、クラスタDB18は、商品ごとの、各クラスタに割り当てられたクラスタIDを記憶する。
学習データDB19は、月別の予測モデルの学習に使用される学習データを記憶するデータベースである。具体的には、学習データDB19は、各商品のクラスタIDを説明変数に設定し、各商品の発売後の月別ごとの各売り上げを目的変数に設定した複数の学習データを記憶する。例えば、学習データDB19は、1か月目の売上予測用の予測モデルを学習するための学習データ、2か月目の売上予測用の予測モデを学習するための学習データル、3か月目の売上予測用の予測モデルそれぞれを学習するための学習データを記憶する。
学習結果DB20は、月別の各予測モデルの学習結果を記憶するデータベースである。例えば、学習結果DB20は、制御部30による学習データの判別結果(分類結果)、重回帰分析や機械学習などによって学習された各種パラメータを記憶する。例えば、学習結果DB20は、1か月目の売上予測用の予測モデル、2か月目の売上予測用の予測モデル、3か月目の売上予測用の予測モデルそれぞれを構成するための各種パラメータなどを記憶する。
予測結果DB21は、学習済みの予測モデルを用いて予測された、新商品の売上予測結果を記憶するデータベースである。具体的には、予測結果DB21は、各新商品について、1か月目の売上予測結果、2か月目の売上予測結果、3か月目の売上予測結果を記憶する。
制御部30は、需要予測装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部30は、学習処理部40と予測処理部50を有する。なお、学習処理部40と予測処理部50は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
学習処理部40は、単語抽出部41、重み算出部42、選定部43、クラスタリング部44、学習データ生成部45、学習部46を有し、月別ごとの予測モデルを学習する処理部である。
単語抽出部41は、既存商品および新商品の企画書に含まれる項目ごとに出現するキーワードを抽出する処理部である。例えば、単語抽出部41は、商品1の企画書の項目aに記載される文書1aに形態素解析などを実行して、キーワードとして、K1a、K2a、K3a、K4aなどを抽出する。また、単語抽出部41は、商品1の企画書の項目bに記載される文書1bに形態素解析などを実行して、キーワードとして、K1b、K2b、K3b、K4b、K5bなどを抽出する。
このようにして、単語抽出部41は、既存商品の企画書および新商品の企画書からキーワードを抽出し、抽出結果をテキスト情報DB16に格納するとともに、重み算出部42に出力する。
重み算出部42は、各キーワードの重みを算出する処理部である。具体的には、重み算出部42は、単語抽出部41によって抽出された各キーワードのTFIDF(Term Frequency Inverse Document Frequency)を算出する。上記例で説明すると、重み算出部42は、商品1について、項目aの文書1aにおけるキーワード「K1a」のTGIDFを、K1aの重みとして算出する。
このようにして、重み算出部42は、既存商品の企画書から抽出された各キーワードおよび新商品の企画書から抽出された各キーワードの重みを算出して、算出結果を重み情報DB17に格納し、選定部43に出力する。
選定部43は、キーワードの選定を実行する処理部である。具体的には、選定部43は、単語抽出部41によって抽出された各キーワードのうち、重みが所定値未満のキーワード、ストップワードリストに該当するキーワード、除外対象に品詞に該当するキーワードを除外する。
このようにして、選定部43は、既存商品の各キーワードおよび新商品の各キーワードのそれぞれから選定を実行し、選定結果をクラスタリング部44に出力する。なお、ストップキーワードとは、キーワードとして対象外とする単語の一覧であり、除外対象の品詞とは、助詞などであり、これらは管理者等により予め設定されたり、一般的な辞書を用いたりすることができる。
クラスタリング部44は、選定部43により選定されたキーワードを用いて、商品のクラスタリングを実行する処理部である。すなわち、クラスタリング部44は、商品ごとに特徴語を有する度合の組み合わせを示したクラスタリング情報を生成する。
例えば、クラスタリング部44は、各商品についてクラスタリングを実行し、各クラスタにクラスタIDを付与する。例えば、クラスタリング部44は、項目aに属するキーワードのうち、K1aとK3aを有するクラスタにID「C1a」を設定し、K2aとK3aを有するクラスタにID「C2a」を設定する。同様に、クラスタリング部44は、項目bに属するキーワードのうち、K1bとK2bを有するクラスタにID「C1b」を設定し、K2bとK3bを有するクラスタにID「C2b」を設定する。
そして、クラスタリング部44は、商品とクラスタIDとを対応付けて、商品ごとに「項目a(C1a、C2a)、項目b(C1b、C2b)」を生成する。例えば、クラスタリング部44は、商品1の項目aにおけるキーワードが「K2a、K3a」、項目bにおけるキーワードが「K1b、K2b」である場合、商品1の「項目a(C1a、C2a)、項目b(C1b、C2b)」として「0,1,1,0」を生成する。
このようにして、クラスタリング部44は、既存商品および新商品を含む各商品のクラスタリングを実行し、クラスタリング結果をクラスタDB18に格納し、学習データ生成部45に出力する。なお、クラスタリング手法は、一般的な様々な手法を用いることができる。
学習データ生成部45は、クラスタリング結果を用いて、学習データを生成する処理部である。具体的には、学習データ生成部45は、クラスタリング結果のうち既存商品のクラスタリング結果を説明変数、月別売上情報を目的変数とする学習データを生成し、学習データDB19に格納する。
上記例で説明すると、学習データ生成部45は、商品1の「項目a(C1a、C2a)、項目b(C1b、C2b)」である「0,1,1,0」を説明変数、月別売上情報DB15に記憶される1か月目の売上「1000」、2か月目の売上「300」、3か月目の売上「100」それぞれを目的変数とする学習データを生成する。
つまり、学習データ生成部45は、1か月目の売上予測を行う予測モデル用の学習データとして「(0,1,1,0),1000」を生成し、2か月目の売上予測を行う予測モデル用の学習データとして「(0,1,1,0),300」を生成し、1か月目の売上予測を行う予測モデル用の学習データとして「(0,1,1,0),100」を生成する。このようにして、学習データ生成部45は、既存商品が属するクラスタIDを用いて、月別ごとの予測モデル用の各学習データを生成する。
学習部46は、月別ごとの予測モデルの学習を実行する処理部である。具体的には、学習部46は、学習データDB19に記憶される月別ごとの学習データを用いて、月別ごとの予測モデルを生成する教師有学習を実行する。例えば、学習部46は、重回帰分析を用いて学習処理を実行する。
そして、学習部46は、学習結果を学習結果DB20に格納する。なお、学習処理を終了するタイミングは、所定数以上の学習データを用いた学習が完了した時点、目的変数(ラベル)と予測モデルの出力結果との誤差が閾値未満となった時点など、任意に設定することができる。
予測処理部50は、学習済みの予測モデルを用いて、新商品の売上予測を実行する処理部である。例えば、予測処理部50は、学習結果DB20から各種パラメータを読み出して、1か月目用の予測モデル、2か月目用の予測モデル、3か月目用の予測モデルを構築する。そして、予測処理部50は、新商品に対応付けられたクラスタID「1,0,1,0」を特徴量として各予測モデルに入力して各出力結果を取得し、予測結果DB21に格納する。このようにして、予測処理部50は、新商品について、1か月目の売上予測、2か月目の売上予測、3か月目の売上予測を行う。
[具体例]
次に、図6と図7を用いて、学習フェーズと適用フェーズの具体例を説明する。図6は、実施例1にかかる学習フェーズを説明する図である。図7は、実施例1にかかる適用フェーズを説明する図である。
(学習フェーズ)
図6に示すように、テキスト情報DB16は、商品ごとに項目aに属する文書と項目bに属する文書とを記憶する。具体的には、テキスト情報DB16は、「商品、項目a、項目b」として「商品1、文書1a、文書1b」、「商品2、文書2a、文書2b」、「商品3、文書3a、文書3b」、「新商品、文書a、文書b」を記憶する。
そして、単語抽出部41は、各商品の文書からキーワードを抽出する(S1)。例えば、単語抽出部41は、項目aの文書からキーワード「K1a、K2a、K3a」を抽出し、項目bの文書からキーワード「K1b、K2b、K3b」を抽出する。
続いて、重み算出部42が、各キーワードのTFIDFを算出し、選定部43は、キーワードの選定を実行する(S2)。例えば、商品1については、K1aは該当なし、K2aは重み(0.7)、K3aは重み(0.1)、K1bは重み(0.8)、K2bは重み(0.6)、K3bは該当なしと選定される。商品2については、K1aは重み(0.8)、K2aは該当なし、K3aは重み(0.7)、K1bは該当なし、K2bは重み(0.1)、K3bは重み(0.8)と選定される。
商品3については、K1aは該当なし、K2aは重み(0.8)、K3aは重み(0.3)、K1bは該当なし、K2bは重み(0.3)、K3bは重み(0.5)と選定される。新商品については、K1aは重み(0.7)、K2aは該当なし、K3aは重み(0.9)、K1bは重み(0.7)、K2bは重み(0.6)、K3bは該当なしと選定される。
そして、クラスタリング部44は、重み算出やキーワード選定の結果を用いて、既存商品および新商品のクラスタリングを実行する(S3)。例えば、クラスタリング部44は、項目aについて、K1aとK3aを含む商品をクラスタC1aに分類し、K2aとK3aを含む商品をクラスタC2aに分類する。また、クラスタリング部44は、項目bについて、K1bとK2bを含む商品をクラスタC1bに分類し、K2bとK3bを含む商品をクラスタC2bに分類する。
この結果、商品1は、項目aに関してC2aに属し、項目bに関してC1bに属するので、クラスタリング結果「C1a,C2a,C1b,C2b」として「0,1,1,0」が生成される。商品2は、項目aに関してC1aに属し、項目bに関してC2bに属するので、クラスタリング結果「C1a,C2a,C1b,C2b」として「1,0,0,1」が生成される。
商品3は、項目aに関してC2aに属し、項目bに関してC2bに属するので、クラスタリング結果「C1a,C2a,C1b,C2b」として「0,1,0,1」が生成される。新商品は、項目aに関してC1aに属し、項目bに関してC1bに属するので、クラスタリング結果「C1a,C2a,C1b,C2b」として「1,0,1,0」が生成される。
その後、学習データ生成部45は、既存商品と新商品とを含むクラスタリング結果のうち既存商品のクラスタリング結果と、既存商品の売上実績とを用いて、学習データを生成する(S4とS5)。
例えば、学習データ生成部45は、商品1について3つの学習データを生成する。すなわち、学習データ生成部45は、商品1のクラスタリング結果「0,1,1,0」を説明変数に設定し、1か月目の売上「1000」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品1のクラスタリング結果「0,1,1,0」を説明変数に設定し、2か月目の売上「300」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品1のクラスタリング結果「0,1,1,0」を説明変数に設定し、3か月目の売上「100」を目的変数に設定した学習データを生成する。
同様に、学習データ生成部45は、商品2のクラスタリング結果「1,0,0,1」を説明変数に設定し、1か月目の売上「1500」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品2のクラスタリング結果「1,0,0,1」を説明変数に設定し、2か月目の売上「1000」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品2のクラスタリング結果「1,0,0,1」を説明変数に設定し、3か月目の売上「700」を目的変数に設定した学習データを生成する。
同様に、学習データ生成部45は、商品3のクラスタリング結果「0,1,0,1」を説明変数に設定し、1か月目の売上「5000」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品3のクラスタリング結果「0,1,0,1」を説明変数に設定し、2か月目の売上「2000」を目的変数に設定した学習データを生成する。学習データ生成部45は、商品3のクラスタリング結果「0,1,0,1」を説明変数に設定し、3か月目の売上「500」を目的変数に設定した学習データを生成する。
そして、学習部46は、生成された各学習データを用いて、各予測モデルを学習する(S6)。すなわち、学習部46は、クラスタリング結果を商品の特徴を表すベクトルデータ、月別の売上情報を正解情報として、予測モデル(学習モデル)を学習する。
例えば、学習部46は、商品1の学習データ「(0,1,1,0)、1000」と、商品2の学習データ「(1,0,0,1)、1500」と、商品3の学習データ「(0,1,0,1)、5000」とを用いて、重回帰分析により、1か月目の売上予測を行う予測モデルを学習する。
同様に、学習部46は、商品1の学習データ「(0,1,1,0)、300」と、商品2の学習データ「(1,0,0,1)、1000」と、商品3の学習データ「(0,1,0,1)、2000」とを用いて、重回帰分析により、2か月目の売上予測を行う予測モデルを学習する。
同様に、学習部46は、商品1の学習データ「(0,1,1,0)、100」と、商品2の学習データ「(1,0,0,1)、700」と、商品3の学習データ「(0,1,0,1)、500」とを用いて、重回帰分析により、3か月目の売上予測を行う予測モデルを学習する。
(適用フェーズ)
適用フェーズでは、図7に示すように、予測処理部50は、図6のS3で得られたクラスタリング結果のうち、新商品のクラスタリング結果「C1a,C2a,C1b,C2b」として「1,0,1,0」を抽出する。
そして、予測処理部50は、新商品のクラスタリング結果「1,0,1,0」を、1か月用の予測モデル、2か月用の予測モデル、3か月用の予測モデルのそれぞれに入力する。その後、予測処理部50は、1か月用の予測モデルの出力値「2500」、2か月用の予測モデルの出力値「20」、3か月用の予測モデルの出力値「300」を取得する。
この結果、予測処理部50は、新商品が発売されてから1か月目の売上予測を「2500個」、1か月目から2か月目までの売上予測を「20個」、2か月目から3か月目までの売上予測を「300個」と予測する。
[処理の流れ]
図8は、処理の流れを示すフローチャートである。図8に示すように、学習処理部40は、処理開始が指示されると(S101:Yes)、企画書DB13に記憶される企画書のデータを読み込む(S102)。
続いて、学習処理部40は、各企画書のデータからキーワードを抽出し(S103)、キーワードの重みを算出する(S104)。そして、学習処理部40は、ストップワードリストや重みを用いて、キーワードの選定を実行する(S105)。
その後、学習処理部40は、選定されたキーワードを用いてクラスタリングを実行し(S106)、商品とクラスタIDとを対応付けたクラスタリング結果を生成する(S107)。
そして、学習処理部40は、新商品を含むクラスタリングのうち、既存商品のクラスタリング結果を説明変数として抽出し(S108)、各商品の月別の売上情報を用いて学習データを生成する(S109)。続いて、学習処理部40は、学習データを用いて、予測モデルの学習を実行する(S110)。
その後、学習が完了すると(S111:Yes)、予測処理部50は、学習フェーズにおけるクラスタリング結果のうち、新商品のクラスタリング結果を学習済みの予測モデルに入力して(S112)、予測結果を取得する(S113)。
実施例1では、新商品を含めた状態でクラスタリングを実行する例を説明したが、この手法は、学習時に、新商品の企画書などが作成されている場合には有効な手法である。しかし、学習時に新商品の企画書がない場合も考えられる。そこで、実施例2では、学習時には既存商品の企画書を用いて予測モデルを学習し、予測時に新商品の企画書を用いて予測を実行する例を説明する。
[実施例2にかかる需要予測装置の説明]
図9は、実施例2にかかる需要予測装置10を説明する図である。図9に示すように、学習フェーズでは、需要予測装置10は、すでに発売されている既存商品の企画書から、内容を表すキーワードを抽出する。そして、需要予測装置10は、抽出した単語を用いて、既存商品のクラスタリングを行ってクラスタを生成する。その後、需要予測装置10は、既存商品のクラスタ結果を説明変数に設定し、既存商品の売上情報を目的変数に設定した学習データを用いて、需要予測を行う予測モデルを学習する。
学習完了後の適用フェーズでは、需要予測装置10は、新商品の企画書からキーワードを抽出し、キーワードの一致数などを用いて、各商品と新商品とのテキスト間の類似度を算出する。そして、需要予測装置10は、各商品と新商品とのテキスト間の類似度を用いて、既存商品のクラスタIDごとの重み付け加算を算出する。すなわち、需要予測装置10は、各商品が属するクラスタへの新商品の依存度を算出する。その後、需要予測装置10は、重み付け加算の結果を各予測モデルに入力して、予測モデルの出力結果を需要予測として取得する。
[具体例]
次に、図10と図11を用いて、学習フェーズと適用フェーズの具体例を説明する。図10は、実施例2にかかる学習フェーズを説明する図である。図11は、実施例2にかかる適用フェーズを説明する図である。
(学習フェーズ)
実施例1と異なる点は、新商品の情報は用いずに、既存商品の情報のみを用いて、既存商品のみをクラスタリングする点である。具体的には、図10に示すように、テキスト情報DB16は、商品ごとに項目aに属する文書情報である「商品、項目a、項目b」として「商品1、文書1a、文書1b」、「商品2、文書2a、文書2b」、「商品3、文書3a、文書3b」を記憶する。
そして、単語抽出部41は、各商品の文書からキーワードを抽出する(S10)。例えば、単語抽出部41は、項目aの文書からキーワード「K1a、K2a、K3a」を抽出し、項目bの文書からキーワード「K1b、K2b、K3b」を抽出する。
続いて、重み算出部42が、各キーワードのTFIDFを算出し、選定部43は、キーワードの選定を実行する(S11)。例えば、商品1については、K1aは該当なし、K2aは重み(0.7)、K3aは重み(0.1)、K1bは重み(0.8)、K2bは重み(0.6)、K3bは該当なしと選定される。商品2については、K1aは重み(0.8)、K2aは該当なし、K3aは重み(0.7)、K1bは該当なし、K2bは重み(0.1)、K3bは重み(0.8)と選定される。商品3については、K1aは該当なし、K2aは重み(0.8)、K3aは重み(0.3)、K1bは該当なし、K2bは重み(0.3)、K3bは重み(0.5)と選定される。
そして、クラスタリング部44は、重み算出やキーワード選定の結果を用いて、既存商品のクラスタリングを実行する(S12)。例えば、クラスタリング部44は、実施例1と同様、項目aについてクラスタC1aとC2aに分類し、項目bについてクラスタC1bとC2bに分類する。
この結果、商品1について、クラスタリング結果「C1a,C2a,C1b,C2b」として「0,1,1,0」が生成される。商品2について、クラスタリング結果「C1a,C2a,C1b,C2b」として「1,0,0,1」が生成される。商品3について、クラスタリング結果「C1a,C2a,C1b,C2b」として「0,1,0,1」が生成される。
その後、学習データ生成部45は、既存商品のクラスタリング結果と既存商品の売上実績とを用いて、学習データを生成する(S13)。例えば、学習データ生成部45は、商品1について、商品1のクラスタリング結果「0,1,1,0」を説明変数に設定し、1か月目の売上「1000」、2か月目の売上「300」、3か月目の売上「100」のそれぞれを目的変数に設定した3つの学習データを生成する。
同様に、学習データ生成部45は、商品2のクラスタリング結果「1,0,0,1」を説明変数に設定し、1か月目の売上「1500」、2か月目の売上「1000」、3か月目の売上「700」それぞれを目的変数に設定した、3つの学習データを生成する。同様に、学習データ生成部45は、商品3のクラスタリング結果「0,1,0,1」を説明変数に設定し、1か月目の売上「5000」、2か月目の売上「2000」、3か月目の売上「500」それぞれを目的変数に設定した、3つの学習データを生成する。
そして、学習部46は、生成された各学習データを用いて、各予測モデルを学習する(S14)。例えば、学習部46は、商品1の学習データ「(0,1,1,0)、1000」と、商品2の学習データ「(1,0,0,1)、1500」と、商品3の学習データ「(0,1,0,1)、5000」とを用いて、重回帰分析により、1か月目の売上予測を行う予測モデルを学習する。
同様に、学習部46は、商品1の学習データ「(0,1,1,0)、300」と、商品2の学習データ「(1,0,0,1)、1000」と、商品3の学習データ「(0,1,0,1)、2000」とを用いて、重回帰分析により、2か月目の売上予測を行う予測モデルを学習する。
同様に、学習部46は、商品1の学習データ「(0,1,1,0)、100」と、商品2の学習データ「(1,0,0,1)、700」と、商品3の学習データ「(0,1,0,1)、500」とを用いて、重回帰分析により、3か月目の売上予測を行う予測モデルを学習する。
(適用フェーズ)
適用フェーズでは、実施例1と異なり、新商品の情報を用いて、新商品と既存商品とのテキスト間類似度を算出し、新商品が分類済みのクラスタにどれだけ関連するかを示す特徴量を算出する。そして、新商品の特徴量を入力として予測を実行する。
図11に示すように、テキスト情報DB16は、新商品の企画書データ「商品、項目a、項目b」として「新商品、文書a、文書b」を記憶する。この状態で、予測処理部50は、新商品の企画書データの各文書からキーワードを抽出し、TGIDFなどを用いた各キーワードの重みの算出、キーワードの選定などを実行する(S20)。例えば、予測処理部50は、新商品の項目aの文書aからキーワード「K1a、K3a」を抽出し、項目bの文書bからキーワード「K1b、K2b」を抽出する。そして、予測処理部50は、K1aの重み「0.7」、K3aの重み「0.9」、K1bの重み「0.7」、K2bの重み「0.6」を算出する。ここでは、K2aとK3bは、抽出されなかったとする。
続いて、予測処理部50は、コサイン類似度などの手法を用いて、新商品の重み情報と各既存商品の重み情報との間のテキスト間類似度を算出する(S21)。例えば、予測処理部50は、既存の商品1について、項目aのテキスト間類似度「0.11」と項目bのテキスト間類似度「1.00」を算出する。同様に、予測処理部50は、既存の商品2について、項目aのテキスト間類似度「0.98」と項目bのテキスト間類似度「0.08」を算出する。また、予測処理部50は、既存の商品3について、項目aのテキスト間類似度「0.28」と項目bのテキスト間類似度「0.33」を算出する。なお、コサイン類似度を用いたテキスト間類似度に限らず、全キーワードののうち一致する割合など一般的な類似度の算出手法を用いることもできる。
その後、予測処理部50は、既存商品のクラスタIDのダミー変数を、テキスト間類似度で重み付け加算を行う。(S22)。上記例で説明すると、予測処理部50は、商品1に対して、図10のS12で生成されたクラスタリング結果を参照し、商品1が属する項目aのクラスタC2aにテキスト間類似度「0.11」、商品1が属する項目bのクラスタC1bにテキスト間類似度「1.00」を設定する。
同様に、予測処理部50は、商品2に対して、図10のS12で生成されたクラスタリング結果を参照し、商品2が属する項目aのクラスタC1aにテキスト間類似度「0.98」、商品2が属する項目bのクラスタC2bにテキスト間類似度「0.08」を設定する。また、予測処理部50は、商品3に対して、図10のS12で生成されたクラスタリング結果を参照し、商品3が属する項目aのクラスタC2aにテキスト間類似度「0.28」、商品2が属する項目bのクラスタC2bにテキスト間類似度「0.33」を設定する。
その後、予測処理部50は、各既存商品のクラスタIDに対して設定されたテキスト間類似度を加算して、新商品の特徴量(特徴ベクトル)を生成する。上記例で説明すると、予測処理部50は、項目aのC1aに対して、商品2のテキスト間類似度「0.98」を設定し、項目aのC2aに対して、商品1のテキスト間類似度「0.11」と商品3のテキスト間類似度「0.28」を加算した「0.39」を設定する。同様に、予測処理部50は、項目bのC1bに対して、商品1のテキスト間類似度「1.00」を設定し、項目bのC2bに対して、商品2のテキスト間類似度「0.08」と商品3のテキスト間類似度「0.33」を加算した「0.42」を設定する。
そして、予測処理部50は、加算結果「0.98,0.39,1.00,0.42」を説明変数として、学習済みである1か月用の予測モデル、2か月用の予測モデル、3か月用の予測モデルそれぞれに入力して、予測結果を取得する(S23)。上記例で説明すると、予測処理部50は、新商品が発売されてから1か月目の売上予測を「2500個」、1か月目から2か月目までの売上予測を「20個」、2か月目から3か月目までの売上予測を「300個」と予測する。
ところで、実施例1と実施例2では、月別の予測モデルを用いて、月別の需要予測を行う場合を説明したが、これに限定されるものではない。例えば、月別の需要予測結果を用いてスムージングを実行することにより、予測されていない期間の予測結果を推測することができる。
例えば、需要予測装置10の予測処理部50は、学習データの時間粒度(例えば4週)が予測したい時間粒度(例えば週次)よりも大きい場合は、予測結果が得られたのち、予測したい時間粒度に合わせて等分割する。例を挙げると、予測処理部50は、4週分の予測値4分割して、階段状の週次の予測値に変換する。
続いて、予測処理部50は、発売後の売上が特定の確率分布に従って時間的に変化すると仮定する。なお、一般に売上は減衰していくので、ワイブル分布、対数正規分布、対数ロジスティック分布などの確率分布を使用する。
そして、予測処理部50は、複数の予測値全体にフィットするように、一般的な手法を用いて確率分布のパラメータを計算し、得られたパラメータを用いて、任意の時刻での新たな予測値(補間・補正した予測値)を計算する。つまり、時刻を代入すると新たな予測値が得られる。
ここで、図12から図14を用いて具体例を説明する。図12は、スムージングの例を説明する図であり、図13は、スムージングの別例を説明する図である。図14は、スムージング結果を説明する図である。
図12では、スムージングを不規則変動の低減に用いる場合を説明する。例えば、週別の売上を独立に予測するため、予測結果に不規則変化(予測誤差)が含まれると予測結果がばらつく可能性がある。このため、複数週の予測結果を総合的に判断して予測値の補間や補正を行うことにより、不規則変化を抑えることができる。
図12に示す図は、週次の売上実績を目的変数として週次の予測モデルを学習し、学習済みの週次の予測モデルを用いて発売日から週次(各週)の売上予測を算出し、週次の予測値に対しスムージングを行った結果である。このようにすることで、予測値を補正することができるので、需要予測の精度を向上させることができる。なお、入力の予測値の単位は週次に限定されない。月次の予測値や4週分の予測値に対し同様の処理を行うことも可能である。
図13では、学習データの時間粒度と予測の時間粒度のギャップ調整に用いる場合を説明する。例えば、予測モデルの学習に使用するデータの単位(例えば4週)と、予測が必要となる単位(例えば週次)にギャップがある場合がある。
例を挙げると、4週でしかデータを取得して管理していないので、週次データが存在しないときが挙げられる。また、週次のデータは存在するが、数量が少量のためデータ量が不足し、そのままではうまく予測モデルを作成することができず、より大きい括り(4週)で集計して学習に使用する必要が発生したときなどが挙げられる。これらの場合、一般的な手法では、学習データと同じ単位での予測結果しか得られない。
そこで、予測結果を補間および補正することにより、学習データとは異なる任意の時間粒度での予測結果を計算する。図13では、4週分データで学習し得られた4週分の予測値に対してスムージングを行い、新たに週次の予測値が得られた結果である。つまり、4週分の予測値を4分割して、階段状の週次の予測値に一度変換したものを図示する。
このように、予測結果では得られない予測値を推定することができるので、学習データに依存することなく、需要予測を行うことができる。なお、週次に限らず、日次など任意の単位で算出を行うことができる。また、入力の予測値の単位は4週に限定されず、月次の予測値や週次の予測値に対し、同様の処理を行うこともできる。
このようなスムージング手法を実施例1や実施例2に適用することで、図14に示す結果を得ることができる。具体的には、月別の予測モデルから得られた月別の予測結果を用いて、週別の予測値を推定することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[実施例の効果]
図15と図16を用いて、上記実施例の効果を説明する。図15は、効果を説明する図である。図16は、効果の比較例を説明する図である。図15に示すように、上記実施例による手法は、企画書に記載される狙い、ターゲット層、特徴、キャンペーン情報などを用いてテキストマイニングおよびクラスタリングを実行した結果を説明変数に設定し、商品の属性である過去の販売実績などを目的変数に設定した学習データを用いた機械学習を実行する。
このような学習により、上記実施例による手法は、新商品の初期需要と需要の推移を学習することができるとともに、累積の増加や需要傾向(パターン)をも学習することができる。すなわち、上記実施例による手法は、類似商品の需要パターンを要素の組合せに分解して学習することができる。
この結果、図16に示すように、定数予測を行う一般手法Aや、定型情報や数値情報のみを用いた機械学習を行う一般手法Bに比べて、誤差率を低減することができる。シミュレーションによれば、実施例による手法を用いることで、誤差率の中央値を19.3%まで低減することができる。
[データや数値等]
上記実施例で用いた数値、データ例、データの数、ラベルの設定内容等は、あくまで一例であり、任意に変更することができる。また、キーワードは、特徴語の一例である。また、既存商品は、過去の商品であり、現段階で販売が終了している商品であってもよく、現段階で販売が継続中の商品であってもよい。また、目的変数には、売上以外にも、携帯電話などの契約数を用いることができる。また、上記実施例では、月別の売上情報を用いて月別の予測モデルを生成する例を説明したが、これに限定されるものではなく、日別、週別、年別の売上情報を用いることで、様々な予測モデルを生成することができる。
また、企画書データの項目aと項目bを用いる例を説明したが、これに限定されるものではなく、1つ以上の項目を用いることができ、企画書全体を1つの項目として用いることもできる。また、企画書以外にも商品の説明書などを用いることもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習処理部40と予測処理部50とを別々の装置で実現することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図17は、ハードウェア構成例を説明する図である。図17に示すように、需要予測装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図17に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、需要予測装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、学習処理部40と予測処理部50等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、学習処理部40と予測処理部50等と同様の処理を実行するプロセスを実行する。
このように需要予測装置10は、プログラムを読み出して実行することで需要予測方法を実行する情報処理装置として動作する。また、需要予測装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、需要予測装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 需要予測装置
11 通信部
12 記憶部
13 企画書DB
14 売上情報DB
15 月別売上情報DB
16 テキスト情報DB
17 重み情報DB
18 クラスタDB
19 学習データDB
20 学習結果DB
21 予測結果DB
30 制御部
40 学習処理部
41 単語抽出部
42 重み算出部
43 選定部
44 クラスタリング部
45 学習データ生成部
46 学習部
50 予測処理部

Claims (10)

  1. コンピュータが、
    発売が開始されている既存商品または発売が開始されていない新商品の属性が記載された各文書から、予め設定された条件に基づいて各商品の属性を示す特徴語を抽出し、
    前記各文書に含まれる特徴語の出現頻度から、商品ごとに特徴語を有する度合の組み合わせを示したクラスタリング情報を生成し、
    生成したクラスタリング情報を説明変数に設定し、前記既存商品の売上実績を目的変数に設定した学習データを用いて、前記新商品の需要予測を行う予測モデルを学習する
    処理を実行することを特徴とする需要予測方法。
  2. 前記抽出する処理は、複数の既存商品それぞれに対応する各文書と前記新商品に対応する文書とから前記特徴語を抽出し、
    前記生成する処理は、前記複数の既存商品と前記新商品とを、それぞれから抽出された特徴語を用いてクラスタリングして前記クラスタリング情報を生成し、
    前記学習する処理は、前記クラスタリング情報のうち前記複数の既存商品それぞれに該当するクラスタリング情報を用いて複数の学習データを生成し、前記複数の学習データを用いて前記予測モデルを学習する処理を実行することを特徴とする請求項1に記載の需要予測方法。
  3. 前記クラスタリング情報のうち、前記新商品に該当するクラスタリング情報を、学習済みの予測モデルに入力し、前記学習済みの予測モデルの出力結果を、前記新商品の需要予測として取得する、処理を前記コンピュータが実行することを特徴とする請求項2に記載の需要予測方法。
  4. 前記抽出する処理は、複数の既存商品それぞれに対応する各文書から前記特徴語を抽出し、
    前記生成する処理は、前記複数の既存商品を、それぞれから抽出された特徴語を用いてクラスタリングして前記クラスタリング情報を生成し、
    前記学習する処理は、複数の既存商品の前記クラスタリング情報を用いて複数の学習データを生成し、前記複数の学習データを用いて前記予測モデルを学習する処理を実行することを特徴とする請求項1に記載の需要予測方法。
  5. 前記新商品に対応する文書から前記特徴語を抽出し、
    前記新商品の特徴語と、前記複数の既存商品それぞれの特徴語とを用いて、前記新商品と前記複数の既存商品それぞれとの類似度を算出し、
    前記類似度を用いて、前記新商品を前記複数の既存商品がクラスタリングされた各クラスタに対応付け、
    前記新商品を前記各クラスタに対応付けた結果を、学習済みの予測モデルに入力し、前記学習済みの予測モデルの出力結果を、前記新商品の需要予測として取得する、
    処理を前記コンピュータが実行することを特徴とする請求項4に記載の需要予測方法。
  6. 前記学習する処理は、前記クラスタリング情報を説明変数に設定し、前記既存商品の所定期間ごとの売上実績それぞれを目的変数に設定した各学習データを用いて、前記所定期間ごとの前記新商品の需要予測を行う各予測モデルを学習することを特徴とする請求項1に記載の需要予測方法。
  7. 前記新商品に該当するクラスタリング情報を、学習済みの各予測モデルに入力し、前記学習済みの各予測モデルの出力結果を、前記所定期間ごとの前記新商品の需要予測として取得する、処理を前記コンピュータが実行することを特徴とする請求項6に記載の需要予測方法。
  8. 前記所定期間ごとに予測された前記新商品の需要予測の結果を用いてスムージングを実行して各所定期間の間の予測結果を補間する、処理を前記コンピュータが実行することを特徴とする請求項7に記載の需要予測方法。
  9. コンピュータに、
    発売が開始されている既存商品または発売が開始されていない新商品の属性が記載された各文書から、予め設定された条件に基づいて各商品の属性を示す特徴語を抽出し、
    前記各文書に含まれる特徴語の出現頻度から、商品ごとに特徴語を有する度合の組み合わせを示したクラスタリング情報を生成し、
    生成したクラスタリング情報を説明変数に設定し、前記既存商品の売上実績を目的変数に設定した学習データを用いて、前記新商品の需要予測を行う予測モデルを学習する
    処理を実行させることを特徴とする需要予測プログラム。
  10. 発売が開始されている既存商品または発売が開始されていない新商品の属性が記載された各文書から、予め設定された条件に基づいて各商品の属性を示す特徴語を抽出する抽出部と、
    前記各文書に含まれる特徴語の出現頻度から、商品ごとに特徴語を有する度合の組み合わせを示したクラスタリング情報を生成する生成部と、
    生成したクラスタリング情報を説明変数に設定し、前記既存商品の売上実績を目的変数に設定した学習データを用いて、前記新商品の需要予測を行う予測モデルを学習する学習部と
    を有することを特徴とする需要予測装置。
JP2018235377A 2018-12-17 2018-12-17 需要予測方法、需要予測プログラムおよび需要予測装置 Active JP7139932B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235377A JP7139932B2 (ja) 2018-12-17 2018-12-17 需要予測方法、需要予測プログラムおよび需要予測装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235377A JP7139932B2 (ja) 2018-12-17 2018-12-17 需要予測方法、需要予測プログラムおよび需要予測装置

Publications (2)

Publication Number Publication Date
JP2020098388A JP2020098388A (ja) 2020-06-25
JP7139932B2 true JP7139932B2 (ja) 2022-09-21

Family

ID=71105959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235377A Active JP7139932B2 (ja) 2018-12-17 2018-12-17 需要予測方法、需要予測プログラムおよび需要予測装置

Country Status (1)

Country Link
JP (1) JP7139932B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102590158B1 (ko) * 2021-02-24 2023-10-17 주식회사 그로비 머신 러닝에 기반하는 수요 예측 시스템 및 수요 예측 방법
KR102675804B1 (ko) * 2021-11-18 2024-06-18 광운대학교 산학협력단 게임 아이템의 가격 분석을 위한 서비스 제공 장치 및 방법
JP7391343B1 (ja) 2023-03-15 2023-12-05 株式会社Fronteo 情報処理装置及び情報処理方法
JP7376033B1 (ja) 2023-03-15 2023-11-08 株式会社Fronteo 情報処理装置及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004394A (ja) 2005-06-22 2007-01-11 Toyota Motor Corp 製品設計支援装置、製品設計支援方法
WO2018079367A1 (ja) 2016-10-31 2018-05-03 日本電気株式会社 商品需要予測システム、商品需要予測方法および商品需要予測プログラム
US20180341898A1 (en) 2017-05-24 2018-11-29 Sears Brands, L.L.C. Demand forecast

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004394A (ja) 2005-06-22 2007-01-11 Toyota Motor Corp 製品設計支援装置、製品設計支援方法
WO2018079367A1 (ja) 2016-10-31 2018-05-03 日本電気株式会社 商品需要予測システム、商品需要予測方法および商品需要予測プログラム
US20180341898A1 (en) 2017-05-24 2018-11-29 Sears Brands, L.L.C. Demand forecast

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡部 勇,安定した予測精度と運用効率化を両立するAI需要予測~動的アンサンブル予測~,FUJITSU,富士通株式会社,2018年07月01日,Vol.69 No.4,pp.26-34

Also Published As

Publication number Publication date
JP2020098388A (ja) 2020-06-25

Similar Documents

Publication Publication Date Title
JP7139932B2 (ja) 需要予測方法、需要予測プログラムおよび需要予測装置
CN111538912B (zh) 内容推荐方法、装置、设备及可读存储介质
Wauters et al. A nearest neighbour extension to project duration forecasting with artificial intelligence
JP6414363B2 (ja) 予測システム、方法およびプログラム
CN103502899B (zh) 动态预测建模平台
CN111639516B (zh) 基于机器学***台
Song et al. eXtreme gradient boosting for identifying individual users across different digital devices
US10373067B1 (en) Domain-specific sentiment keyword extraction with weighted labels
US11928616B2 (en) Method and system for hierarchical forecasting
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
Ju et al. Using dynamic multi-task non-negative matrix factorization to detect the evolution of user preferences in collaborative filtering
US11887167B2 (en) Utilizing machine learning models to generate an optimized digital marketing simulation
US11995667B2 (en) Systems and methods for business analytics model scoring and selection
JP2018113002A (ja) 商標情報処理装置及び方法、並びにプログラム
CN113592589A (zh) 纺织原料推荐方法、装置及处理器
US20230419195A1 (en) System and Method for Hierarchical Factor-based Forecasting
CN114282657A (zh) 一种市场数据长期预测模型训练方法、装置、设备及存储介质
WO2021240715A1 (ja) 気分予測方法、気分予測装置及びプログラム
US12020124B2 (en) Selecting optimum primary and secondary parameters to calibrate and generate an unbiased forecasting model
WO2021077227A1 (en) Method and system for generating aspects associated with a future event for a subject
JP6617605B6 (ja) 需要量予測プログラム、需要量予測方法、及び情報処理装置
WO2021192232A1 (ja) 商品推薦システム、商品推薦装置、商品推薦方法、及び、商品推薦プログラムが格納された記録媒体
JP6025796B2 (ja) 行動予測装置、行動予測方法及びプログラム
CN113590692A (zh) 一种三阶段人群挖掘条件优化方法及***
JP6990757B1 (ja) 生成装置、生成方法及び生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7139932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150