JP2018139071A - 生成モデル学習方法、生成モデル学習装置およびプログラム - Google Patents

生成モデル学習方法、生成モデル学習装置およびプログラム Download PDF

Info

Publication number
JP2018139071A
JP2018139071A JP2017033845A JP2017033845A JP2018139071A JP 2018139071 A JP2018139071 A JP 2018139071A JP 2017033845 A JP2017033845 A JP 2017033845A JP 2017033845 A JP2017033845 A JP 2017033845A JP 2018139071 A JP2018139071 A JP 2018139071A
Authority
JP
Japan
Prior art keywords
learning
data
model
generation model
learned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017033845A
Other languages
English (en)
Inventor
裕介 金箱
Yusuke Kanebako
裕介 金箱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017033845A priority Critical patent/JP2018139071A/ja
Priority to US15/886,311 priority patent/US20180247183A1/en
Priority to CN201810155481.1A priority patent/CN108509977A/zh
Publication of JP2018139071A publication Critical patent/JP2018139071A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】最終的に意図したデータの生成が可能な生成モデル学習方法、生成モデル学習装置およびプログラムを提供する。【解決手段】本発明の生成モデル学習方法は、第1の学習データに基づいて、データを生成するための生成モデルを学習する第1の学習ステップと、第2の学習データに基づいて、第1の学習ステップにより学習中の生成モデルを学習する第2の学習ステップと、を含み、第1の学習ステップと第2の学習ステップを交互に繰り返して生成モデルを学習する。【選択図】図2

Description

本発明は、生成モデル学習方法、生成モデル学習装置およびプログラムに関する。
従来、人工知能の分野では、生成モデルが利用されている。生成モデルは、データセットのモデルを学習することにより、当該データセットに含まれる学習データと類似するデータを生成することができる。
近年、変分自己符号化器(VAE:Variational Auto Encoder)や敵対的ネットワーク(GAN:Generative Adversarial Networks)などの、ディープラーニングを利用した生成モデルが提案されている。これらの生成モデルは、深層生成モデルと呼ばれ、従来の生成モデルに比べて、高い精度で学習データに類似するデータを生成することができる。
しかしながら、従来の深層生成モデルは、生成されるデータの制御が困難であったため、最終的に意図したデータを生成することが困難であった。
本発明は、最終的に意図したデータの生成が可能な生成モデル学習方法、生成モデル学習装置およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、第1の学習データに基づいて、データを生成するための生成モデルを学習する第1の学習ステップと、第2の学習データに基づいて、前記第1の学習ステップにより学習中の前記生成モデルを学習する第2の学習ステップと、を含み、前記第1の学習ステップと前記第2の学習ステップを交互に繰り返して前記生成モデルを学習する生成モデル学習方法である。
本発明によれば、最終的に意図したデータの生成が可能になる。
図1は、生成モデル学習装置のハードウェア構成例を示す図である。 図2は、生成モデル学習装置が有する機能の一例を示す図である。 図3は、学習部による学習手順を模式的に示す図である。 図4は、学習部の動作例を示すフローチャートである。 図5は、第2の学習部による学習手順を模式的に示す図である。 図6は、実施形態の学習部の動作例を示すフローチャートである。 図7は、学習に使用した画像例を示す図である。 図8は、学習に使用した画像例を示す図である。 図9は、従来公知のDCGANを用いて生成した画像例を示す図である。 図10は、実施形態の構成により生成した画像例を示す図である。
以下、添付図面を参照しながら、本発明に係る生成モデル学習方法、生成モデル学習装置およびプログラムの実施形態を詳細に説明する。
図1は、本実施形態の生成モデル学習装置1のハードウェア構成例を示す図である。生成モデル学習装置1は、サーバコンピュータやクライアントコンピュータなどのコンピュータにより構成される。図1に示すように、生成モデル学習装置1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、HDD(Hard Disk Drive)104と、を備える。また、生成モデル学習装置1は、入力装置105と、表示装置106と、通信インタフェース107と、バス108と、を備える。
CPU101は、プログラムを実行することにより、生成モデル学習装置1の各構成を制御し、生成モデル学習装置1が有する各種の機能を実現する。生成モデル学習装置1が有する各種の機能については後述する。ROM102は、CPU101が実行するプログラムを含む各種データを記憶する。RAM103は、CPU101の作業領域を有する揮発性のメモリである。HDD104は、CPU101が実行するプログラムやデータセットを含む各種データを記憶する。入力装置105は、ユーザによる操作に応じた情報を学習装置1に入力する。入力装置105は、マウス、キーボード、タッチパネル又はハードウェアキーであり得る。表示装置106は、後述の生成データを含む各種データを表示する。表示装置106は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ又はブラウン管ディスプレイであり得る。通信インタフェース107は、学習装置1を、LAN(Local Area Network)やインターネットなどのネットワークに接続するためのインタフェースである。生成モデル学習装置1は、通信インタフェース107を介して外部装置と通信する。バス108は、CPU101、ROM102、RAM103、HDD104、入力装置105、表示装置106及び通信インタフェース107の各々を接続するための配線である。なお、図1の例では、生成モデル学習装置1は、単一のコンピュータにより構成されているが、これに限らず、例えばネットワークを介して接続された複数のコンピュータにより構成された形態であってもよい。
図2は、生成モデル学習装置1が有する機能の一例を示す図である。図2に示すように、生成モデル学習装置1は、データセット記憶部201と、学習部202と、データ生成部203と、データ表示部204とを有する。
データセット記憶部201は、ユーザにより予め用意されたデータセットを記憶する。データセットは、複数の学習データの組であり、データを生成する生成モデルの学習に利用される。学習データは、画像データ、テキストデータ又は映像データであり得る。以下では、学習データは、画像データであるものとする。ここでは、データセット記憶部201は、2種類のデータセット(複数の学習データの組)を記憶している。より具体的には、データセット記憶部201は、複数の第1の学習データの組である第1の学習データセットと、複数の第2の学習データの組である第2の学習データセットと、を記憶する。
学習部202は、予め用意された第1の学習データおよび第2の学習データに基づいて、データを生成するための生成モデルを学習する。ここでは、学習部202は、第1の学習データセットおよび第2の学習データセットに基づいて、生成モデルを学習することになる。
図2に示すように、学習部202は、第1の学習部210と、第2の学習部211とを含む。第1の学習部210は、第1の学習データに基づいて、データを生成するための生成モデルを学習する。ここでは、生成モデルは、データを生成する生成器を少なくとも含む。第1の学習部210は、生成器(後述の図3に示す生成器300に相当)と、第1の学習データおよび生成器により生成されたデータを識別する識別器(後述の図3に示す識別器301に相当)と、を含む敵対ネットワークの学習方法により、生成モデルを学習する。より具体的には、第1の学習部210は、生成器の評価値と識別器の評価値とに基づいて、生成モデルを学習する。識別器の評価値は、識別器の識別精度が高いほど高い値を示し、生成器の評価値は、識別器が生成器により生成されたデータを第1の学習データであると誤認識するほど高い値を示す。第1の学習部210による学習の具体的な内容については後述する。第1の学習部210は、第1の学習データセットに基づいて、生成器および識別器の各々を構成する各パラメータの値を学習(生成モデルを学習)することになる。
第2の学習部211は、第2の学習データに基づいて、第1の学習部210により学習中の生成モデルを学習する。以下の説明では、「生成モデル」とは、第1の学習部210により学習中の生成モデルであることを前提とする。ここでは、第2の学習部211は、入力されたデータから特徴量を算出するのに用いられる学習済みのモデルを用いて、第2の学習データから第1の特徴量を算出し、学習済みのモデルを用いて、生成モデル(第1の学習部210により学習中の生成モデル)により生成されたデータから第2の特徴量を算出し、第1の特徴量と第2の特徴量との誤差が最小となるように、生成モデルを学習する。ここでは、学習済みのモデルは、深層学習により学習済みのモデルである。この例では、深層学習は、CNN(Convolutional Neural Network)を利用した学習であるが、これに限られるものではない。また、例えば第2の学習部211は、学習済みモデルを用いずに別の特徴量抽出方法で、第2の学習データから第2の特徴量を抽出する形態であってもよい。例えば画像データであれば、公知のHOG特徴量の抽出方法や公知のSIFT特徴量の抽出方法を用いてもよいし、例えば音声データであれば、公知のホルマント遷移特徴量の抽出方法を用いることができる。
この例では、第2の学習部211は、学習済みのモデル(CNNを利用した学習により学習済みのモデル)を用いて第2の学習データから算出したスタイル行列と、該学習済みのモデルを用いて、生成モデルにより生成されたデータ(生成データ)から算出したスタイル行列との誤差を示す第1の誤差を算出し、該学習済みのモデルを用いて第2の学習データから算出した中間層出力と、該学習済みのモデルを用いて、生成データから算出した中間層出力との誤差を示す第2の誤差を算出し、第1の誤差と第2の誤差との和が最小となるよう、生成モデルを学習する。つまり、この例では、上記第1の特徴量は、CNNを利用した学習により学習済みのモデルを用いて第2の学習データから算出したスタイル行列、および、該学習済みのモデルを用いて第2の学習データから算出した中間層出力である。また、上記第2の特徴量は、該学習済みのモデルを用いて、生成データから算出したスタイル行列、および、該学習済みのモデルを用いて、生成データから算出した中間層出力である。第2の学習部211による学習の具体的な内容については後述する。第2の学習部211は、第2の学習データセットに基づいて、生成モデルに含まれる生成器を構成する各パラメータの値を学習(生成モデルを学習)することになる。
学習部202は、第1の学習部210による学習(第1の学習ステップ)と第2の学習部202による学習(第2の学習ステップ)を交互に繰り返して生成モデルを学習する。
データ生成部203は、学習部202により学習された生成モデルに、入力変数(潜在変数)を入力することによりデータを生成する。ここでは、データ生成部203により生成されたデータを「生成データ」と称する。
データ表示部204は、データ生成部203により生成された生成データを表示装置106に表示する。
次に、学習部202による学習の具体的な内容を説明する。図3は、学習部202による学習手順を模式的に示す図である。
まず、第1の学習部210による学習について説明する。この例では、第1の学習部210は、上記敵対ネットワークの学習方法の一例としてGAN(Generative Adversarial Networks)を利用するが、これに限られるものではない。図3において、xは識別器301に入力される入力変数、yは識別器301が出力する出力変数、zは生成器300に入力される入力変数(潜在変数)である。
識別器301は、入力変数xが第1の学習データであるか、生成器300により生成されたデータ(生成データ)であるかを識別可能なように学習される。この例では、入力変数xが生成データの場合は出力変数が0となり、入力変数xが第1の学習データの場合は出力変数yが1になるように、識別器301を構成する各パラメータの値が学習される。これに対して、生成器300は、識別器301が第1の学習データと識別できない生成データを生成可能なように学習される。この例では、入力変数xが第1の学習データの場合は出力変数yが0になるように、生成器300を構成する各パラメータの値が学習される。上記学習を繰り返すことで、識別器301の識別精度が向上し、生成器300の生成精度(生成データが第1の学習データに類似する精度)が向上する。
以上の第1の学習部210による学習は、以下の式(1)で表される評価関数を解くことにより実現される。
Figure 2018139071
上記式(1)において、Vは評価値、Dは識別器301を構成するパラメータ群、Gは生成器300を構成するパラメータ群、E[・]は期待値、x~pdataはデータセットからサンプリングされた学習データの集合(入力変数x)に相当する。また、z~pzは入力変数z、D(x)は入力変数xが入力された場合の出力変数y、G(z)は入力変数zを入力された場合の生成データに相当する。
上記式(1)の右辺第1項は、識別器301の評価値に相当し、識別器301の識別精度が高いほど、高い値となる。上記式(1)の右辺第2項は、生成器300の評価値に相当し、識別器301が生成データを第1の学習データであると誤認識するほど(識別器301の識別間違いが多いほど)、高い値となる。
以上の式から分かるように、識別器301の学習が進むほど、式(1)の右辺第1項が高くなり、右辺第2項が低くなる。また、生成器300の学習が進むほど、式(1)の右辺第1項が低くなり、右辺第2項が高くなる。
次に、第2の学習部211による学習について説明する。図3の例では、第2の学習部211は、学習済みモデル400を用いて、第2の学習データから第1の特徴量を算出する。また、第2の学習部211は、学習済みモデル400を用いて、第2の学習データから第2の特徴量を算出する。そして、第1の特徴量と第2の特徴量との誤差dを算出し、その算出した誤差dが最小となるよう、生成器300を構成する各パラメータの値を学習する。第2の学習部211による学習のより具体的な内容については後述する。
図4は、学習部202の動作例を示すフローチャートである。学習部202は、ステップS431〜ステップS456の処理を繰り返して実行することで、生成モデルを学習する。図4の例では、ステップS431〜ステップS440の処理は、第1の学習部210による学習であり、ステップS451〜ステップS456の処理は、第2の学習部211による学習である。
まず、ステップS431〜ステップS433の処理について説明する。ステップS431では、第1の学習部210は、データセット記憶部201から、予め用意された第1の学習データセットを読み込む。次に、第1の学習部210は、第1の学習データを識別器301で識別させ(ステップS432)、その結果を元に識別器301の評価値を算出する(ステップS433)。
次に、ステップS434〜ステップS436の処理について説明する。ステップS434では、第1の学習部210は、生成器300にてデータを生成させる。次に、第1の学習部210は、ステップS434で生成されたデータ(生成データ)を識別器301で識別させ(ステップS435)、その結果を元に生成器300の評価値を算出する(ステップS436)。
ステップS431〜ステップS433の処理、および、ステップS434〜ステップS436の処理の後、第1の学習部210は、上記式(1)で表される評価関数を解くことにより、識別器301および生成器300の各々のパラメータの値を算出(更新)する(ステップS440)。
続いて、第2の学習部211による処理を説明する。まずステップS451〜ステップS452の処理について説明する。ステップS451では、第2の学習部211は、データセット記憶部201から、予め用意された第2の学習データセットを読み込む。次に、第2の学習部211は、学習済みモデル400を用いて、第2の学習データから第1の特徴量を算出する(ステップS452)。
次に、ステップS453〜ステップS454の処理について説明する。ステップS453では、第2の学習部211は、生成器300にてデータを生成させる。次に、第2の学習部211は、学習済みモデルを用いて、ステップS453で生成されたデータ(生成データ)から第2の特徴量を算出する(ステップS454)。
上述のステップS451〜ステップS452の処理、および、上述のステップS453〜ステップS454の処理の後、第2の学習部211は、ステップS452で算出した第1の特徴量と、ステップS454で算出した第2の特徴量との誤差を算出する(ステップS455)。そして、ステップS455で算出した誤差が最小となるよう、生成器300のパラメータ値を算出(更新)する(ステップS456)。
ここで、第2の学習部211による学習のより具体的な内容について説明する。本実施形態においては、上記学習済みモデルは、深層学習の一例であるCNNを利用した学習により学習済みのモデルであり、第2の学習部211は、ニューラルネットを用いた画風変換手法の一例であるA Neural Algorithm of Artistic Style(以下、単に「画風変換手法」と称する場合はこの手法を示す)で用いられる中間層出力とスタイル行列を特徴量とした学習を行う。ただし、第2の学習部211による学習はこの形態に限られるものではない。
図5は、本実施形態における第2の学習部211による学習手順を模式的に示す図である。本実施形態では、第2の学習部211は、学習済みモデル(CNNを利用した学習により学習済みのモデル)を用いて、第2の学習データからスタイル行列(上記第1の特徴量の一例)を算出する。また、第2の学習部211は、上記学習済みモデルを用いて、生成器300により生成されたデータ(生成データ)からスタイル行列(上記第2の特徴量の一例)を算出する。スタイル行列は、ニューラルネットワークの階層に相当する複数の層(上位層から下位層)の各フィルタからの出力を用いてグラム行列を算出することで求めることができる。以下の説明では、第2の学習データから算出されたスタイル行列を「第1のスタイル行列」、生成データから算出されたスタイル行列を「第2のスタイル行列」と称する場合がある。そして、第2の学習部211は、第2の学習データセットに含まれる複数の第2の学習データごとに第1のスタイル行列を算出し、算出した第1のスタイル行列と、生成データから算出された第2のスタイル行列との誤差を算出し、その平均二乗値(以下の説明では「平均二乗誤差d’」と称する場合がある)を求める。
また、第2の学習部211は、上記学習済みモデルを用いて、第2の学習データから中間層出力(上記第1の特徴量の一例)を算出する。また、第2の学習部211は、上記学習済みモデルを用いて、生成器300により生成されたデータ(生成データ)から中間層出力(上記第2の特徴量の一例)を算出する。この場合、上位層から下位層までの各層のうち下位層の各フィルタからの出力値を中間層出力として使用する。以下の説明では、第2の学習データから算出された中間層出力を「第1の中間層出力」、生成データから算出された中間層出力を「第2の中間層出力」と称する場合がある。そして、第2の学習部211は、第2の学習データセットに含まれる複数の第2の学習データごとに第1の中間層出力を算出し、その算出した第1の中間層出力と、生成データから算出した第2の中間層出力との誤差を算出し、その平均二乗値(以下の説明では「平均二乗誤差d’’」と称する場合がある)を求める。
続いて、第2の学習部211は、平均二乗誤差d’と平均二乗誤差d’’の和が最小になるように、生成器300を構成する各パラメータの値を学習する。
図6は、本実施形態の学習部202の動作例を示すフローチャートである。ここでは、第2の学習部211による処理(ステップS460〜ステップS468)の部分が図4と相異するが、他の部分は同じである。以下、本実施形態における第2の学習部211による処理(ステップS460〜ステップS468)を説明する。
まず、ステップS460〜ステップS462の処理について説明する。ステップS460では、第2の学習部211は、データセット記憶部201から、予め用意された第2の学習データセットを読み込む。次に、第2の学習部211は、学習済みモデルを用いて、第2の学習データから第1のスタイル行列を算出する(ステップS461)。具体的には、第2の学習データごとに第1のスタイル行列を算出する。また、第2の学習部211は、学習済みモデルを用いて、第2の学習データから第1の中間層出力を算出する(ステップS462)。具体的には、第2の学習データごとに第1の中間層出力を算出する。
次に、ステップS463〜ステップS465の処理について説明する。ステップS463では、第2の学習部211は、生成器300にてデータを生成させる。次に、第2の学習部211は、学習済みモデルを用いて、ステップS463で生成されたデータ(生成データ)から第2のスタイル行列を算出する(ステップS464)。また、第2の学習部211は、学習済みモデルを用いて、ステップS463で生成されたデータ(生成データ)から第2の中間層出力を算出する(ステップS465)。なお、以上に説明したステップS463〜ステップS465、および、ステップS460〜ステップS462の処理の順序は任意に変更可能である。
上述のステップS460〜ステップS462の処理、および、上述のステップS463〜ステップS465の処理の後、第2の学習部211は、ステップS461で算出した第1のスタイル行列ごとに、該第1のスタイル行列と、ステップS464で算出した第2のスタイル行列との誤差を算出し、その平均二乗値である平均二乗誤差d’を算出する(ステップS466)。また、第2の学習部211は、ステップS462で算出した第1の中間層出力ごとに、該第1の中間層出力と、ステップS465で算出した第2の中間層出力との誤差を算出し、その平均二乗値である平均二乗誤差d’’を算出する(ステップS467)。
上述のステップS466および上述のステップS467の後、第2の学習部211は、平均二乗誤差d’と平均二乗誤差d’’との和が最小となるように、生成器300を構成する各パラメータの値を算出(更新)する(ステップS468)。
ここで、学習データの具体例として、MNISTの手書き数字画像データセット(http://yann.lecun.com/exdb/mnist/参照)を用いる場合を想定する。この場合、「7」と「8」のクラスからランダムに各500枚を選んで第1の学習データセットとし、第1の学習データセットに使用しなかった画像を各クラス500枚ずつ選んで第2の学習データセットとする。このように学習データセットを選ぶことで、通常の生成モデルの学習では「7」と「8」が混ざったような画像が生成されるが、以上に説明したように本実施形態では第2の学習データセットで「7」と「8」の画像構造を持つように情報を与えるため、最終的に生成される画像は「7」と「8」が混ざり合うような画像が生成されにくくなることを確認する。
図7は、学習に使用した、MNISTのクラス「7」の画像例を示す図であり、図8は、学習に使用した、MNISTのクラス「8」の画像例を示す図である。また、図9は、従来公知のDCGAN(Deep Convolutional Generative Adversarial Network)を用いて生成した画像例を示す図であり、図10は、本実施形態の構成により生成した画像例を示す図である。図9に示す画像では、学習に使用した画像にはなかった数字の「9」のような画像が生成され、部分的に欠損しているなど不自然な画像が多く生成されてしまっている。一方、本実施形態の構成により生成した画像では、数字の「9」のような画像は殆ど生成されておらず、かつ殆どの画像の画像構造が自然なものになっていることが分かる。
以上に説明したように、本実施形態では、上述の第1の学習部210による学習と、上述の第2の学習部211による学習を交互に繰り返して生成モデルを学習することにより、最終的に意図したデータの生成を可能にする。つまり、異なる学習データを用いて生成モデルを学習することで、該生成モデルが生成するデータの特徴をコントロールすることができる。これにより、最終的に学習された生成モデルにより生成されたデータは、ユーザが意図したデータとすることができる。
以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
また、上述した実施形態の生成モデル学習装置1で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
1 生成モデル学習装置
201 データセット記憶部
202 学習部
203 データ生成部
204 データ表示部
210 第1の学習部
211 第2の学習部
J. Gauthier. Conditional generative adversarial nets for convolutional face generation. Class Project for Stanford CS231N: Convolutional Neural Networks for Visual Recognition, Winter semester 2014 UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS

Claims (11)

  1. 第1の学習データに基づいて、データを生成するための生成モデルを学習する第1の学習ステップと、
    第2の学習データに基づいて、前記第1の学習ステップにより学習中の前記生成モデルを学習する第2の学習ステップと、を含み、
    前記第1の学習ステップと前記第2の学習ステップを交互に繰り返して前記生成モデルを学習する、
    生成モデル学習方法。
  2. 前記第1の学習ステップは、
    データを生成する生成器と、前記第1の学習データおよび前記生成器により生成されたデータを識別する識別器と、を含む敵対ネットワークの学習方法により、前記生成モデルを学習する、
    請求項1に記載の生成モデル学習方法。
  3. 前記第1の学習ステップは、
    前記生成器の評価値と前記識別器の評価値とに基づいて、前記生成モデルを学習する、
    請求項2に記載の生成モデル学習方法。
  4. 前記識別器の評価値は、前記識別器の識別精度が高いほど高い値を示し、
    前記生成器の評価値は、前記識別器が前記生成器により生成されたデータを前記第1の学習データであると誤認識するほど高い値を示す、
    請求項3に記載の生成モデル学習方法。
  5. 前記第2の学習ステップは、
    入力されたデータから特徴量を算出するのに用いられる学習済みのモデルを用いて、前記第2の学習データから第1の特徴量を算出し、
    前記学習済みのモデルを用いて、前記生成モデルにより生成されたデータから第2の特徴量を算出し、
    前記第1の特徴量と前記第2の特徴量との誤差が最小となるよう、前記生成モデルを学習する、
    請求項1乃至4のうちの何れか1項に記載の生成モデル学習方法。
  6. 前記学習済みのモデルは、深層学習により学習済みのモデルである、
    請求項5に記載の生成モデル学習方法。
  7. 前記深層学習は、CNN(Convolutional Neural Network)を利用した学習である、
    請求項6に記載の生成モデル学習方法。
  8. 前記第2の学習ステップは、
    前記学習済みのモデルを用いて前記第2の学習データから算出したスタイル行列と、前記学習済みのモデルを用いて、前記生成モデルにより生成されたデータから算出したスタイル行列との誤差を示す第1の誤差を算出し、
    前記学習済みのモデルを用いて前記第2の学習データから算出した中間層出力と、前記学習済みのモデルを用いて、前記生成モデルにより生成されたデータから算出した中間層出力との誤差を示す第2の誤差を算出し、
    前記第1の誤差と前記第2の誤差との和が最小となるよう、前記生成モデルを学習する、
    請求項7に記載の生成モデル学習方法。
  9. 前記第1の特徴量は、前記学習済みのモデルを用いて前記第2の学習データから算出したスタイル行列、および、前記学習済みのモデルを用いて前記第2の学習データから算出した中間層出力であり、
    前記第2の特徴量は、前記学習済みのモデルを用いて、前記生成モデルにより生成されたデータから算出したスタイル行列、および、前記学習済みのモデルを用いて、前記生成モデルにより生成されたデータから算出した中間層出力である、
    請求項8に記載の生成モデル学習方法。
  10. 第1の学習データに基づいて、データを生成するための生成モデルを学習する第1の学習部と、
    第2の学習データに基づいて、前記第1の学習部により学習中の前記生成モデルを学習する第2の学習部と、を含み、
    前記第1の学習部による学習と前記第2の学習部による学習を交互に繰り返して前記生成モデルを学習する、
    生成モデル学習装置。
  11. コンピュータに、
    第1の学習データに基づいて、データを生成するための生成モデルを学習する第1の学習ステップと、
    第2の学習データに基づいて、前記第1の学習ステップにより学習中の前記生成モデルを学習する第2の学習ステップと、を実行させ、
    前記第1の学習ステップと前記第2の学習ステップを交互に繰り返して前記生成モデルを学習するためのプログラム。
JP2017033845A 2017-02-24 2017-02-24 生成モデル学習方法、生成モデル学習装置およびプログラム Pending JP2018139071A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017033845A JP2018139071A (ja) 2017-02-24 2017-02-24 生成モデル学習方法、生成モデル学習装置およびプログラム
US15/886,311 US20180247183A1 (en) 2017-02-24 2018-02-01 Method and system for generative model learning, and recording medium
CN201810155481.1A CN108509977A (zh) 2017-02-24 2018-02-23 生成模型学习方法、生成模型学习装置及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017033845A JP2018139071A (ja) 2017-02-24 2017-02-24 生成モデル学習方法、生成モデル学習装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2018139071A true JP2018139071A (ja) 2018-09-06

Family

ID=63246378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017033845A Pending JP2018139071A (ja) 2017-02-24 2017-02-24 生成モデル学習方法、生成モデル学習装置およびプログラム

Country Status (3)

Country Link
US (1) US20180247183A1 (ja)
JP (1) JP2018139071A (ja)
CN (1) CN108509977A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200037492A (ko) * 2018-10-01 2020-04-09 한국과학기술원 생성모델을 이용한 실험 최적화 및 실험 가설 생성 시스템 및 방법
WO2020084741A1 (ja) * 2018-10-25 2020-04-30 日本電気株式会社 音声処理装置、音声処理方法、及びコンピュータ読み取り可能な記録媒体
KR20200047006A (ko) * 2018-10-26 2020-05-07 주식회사 피도텍 머신 러닝 기반의 근사모델 구축 방법 및 시스템
WO2020230777A1 (ja) * 2019-05-15 2020-11-19 ブラザー工業株式会社 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル
JP2022501661A (ja) * 2018-09-30 2022-01-06 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co., Ltd. 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460206B2 (en) * 2017-11-22 2019-10-29 Facebook, Inc. Differentiating physical and non-physical events
US10970765B2 (en) 2018-02-15 2021-04-06 Adobe Inc. Generating user-customized items using a visually-aware image generation network
JP7183904B2 (ja) * 2019-03-26 2022-12-06 日本電信電話株式会社 評価装置、評価方法、および、評価プログラム
TWI730467B (zh) 2019-10-22 2021-06-11 財團法人工業技術研究院 影像轉換方法及影像轉換網路
US11475313B2 (en) 2020-02-13 2022-10-18 International Business Machines Corporation Unsupervised, semi-supervised, and supervised learning using deep learning based probabilistic generative models

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266975A (ja) * 2009-05-13 2010-11-25 Sony Corp 学習装置、学習方法、データ生成装置、データ生成方法、及び、プログラム
US9275306B2 (en) * 2013-11-13 2016-03-01 Canon Kabushiki Kaisha Devices, systems, and methods for learning a discriminant image representation
CN106296692A (zh) * 2016-08-11 2017-01-04 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501661A (ja) * 2018-09-30 2022-01-06 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co., Ltd. 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム
JP7463643B2 (ja) 2018-09-30 2024-04-09 京東方科技集團股▲ふん▼有限公司 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム
KR20200037492A (ko) * 2018-10-01 2020-04-09 한국과학기술원 생성모델을 이용한 실험 최적화 및 실험 가설 생성 시스템 및 방법
KR102203336B1 (ko) * 2018-10-01 2021-01-15 한국과학기술원 생성모델을 이용한 실험 최적화 및 실험 가설 생성 시스템 및 방법
WO2020084741A1 (ja) * 2018-10-25 2020-04-30 日本電気株式会社 音声処理装置、音声処理方法、及びコンピュータ読み取り可能な記録媒体
JPWO2020084741A1 (ja) * 2018-10-25 2021-09-09 日本電気株式会社 音声処理装置、音声処理方法、及びプログラム
JP7205546B2 (ja) 2018-10-25 2023-01-17 日本電気株式会社 音声処理装置、音声処理方法、及びプログラム
KR20200047006A (ko) * 2018-10-26 2020-05-07 주식회사 피도텍 머신 러닝 기반의 근사모델 구축 방법 및 시스템
KR102170968B1 (ko) * 2018-10-26 2020-10-28 주식회사 피도텍 머신 러닝 기반의 근사모델 구축 방법 및 시스템
WO2020230777A1 (ja) * 2019-05-15 2020-11-19 ブラザー工業株式会社 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル
JP2020187583A (ja) * 2019-05-15 2020-11-19 ブラザー工業株式会社 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル
JP7423905B2 (ja) 2019-05-15 2024-01-30 ブラザー工業株式会社 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル

Also Published As

Publication number Publication date
US20180247183A1 (en) 2018-08-30
CN108509977A (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
JP2018139071A (ja) 生成モデル学習方法、生成モデル学習装置およびプログラム
JP2018063504A (ja) 生成モデル学習方法、装置及びプログラム
CN112509099B (zh) 虚拟形象驱动方法、装置、设备和存储介质
JP2019139792A (ja) 情報処理方法および情報処理装置
CN109670558A (zh) 使用深度学习的数字图像完成
US20180330237A1 (en) Information processing method and information processing apparatus
CN108427632A (zh) 自动测试方法及装置
US10649618B2 (en) System and method for creating visual representation of data based on generated glyphs
CN110599393A (zh) 图片风格转换方法、装置、设备及计算机可读存储介质
JP6468356B2 (ja) プログラム生成装置、プログラム生成方法および生成プログラム
JP7247442B2 (ja) ユーザ対話における情報処理方法、装置、電子デバイス及び記憶媒体
US9141255B2 (en) Mosaic generation from user-created content
CN113223121B (zh) 视频生成方法、装置、电子设备及存储介质
US20160171738A1 (en) Heirarchy-based character rigging
CN110516808A (zh) 一种知识表示模型的创建方法
Moreno et al. Challenges on multimedia for decision-making in the era of cognitive computing
CN108205608B (zh) 一种模型可配置的仿真装置
CN114494711B (zh) 一种图像特征的提取方法、装置、设备及存储介质
JP6694197B2 (ja) 学習ネットワーク生成装置、及び学習ネットワーク生成プログラム
CN111886602A (zh) 信息处理方法、信息处理设备和程序
CN111680623B (zh) 姿态转换方法及装置、电子设备、存储介质
CN110008038A (zh) 控制家电设备的方法、装置、设备及存储介质
US11461951B2 (en) Post-split contralateral combinations
CN111126620B (zh) 一种用于时间序列的特征指纹生成方法及应用
US11810396B2 (en) Image annotation using prior model sourcing