JP7078875B2 - 信号生成装置、信号生成学習装置、方法、及びプログラム - Google Patents

信号生成装置、信号生成学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP7078875B2
JP7078875B2 JP2021009845A JP2021009845A JP7078875B2 JP 7078875 B2 JP7078875 B2 JP 7078875B2 JP 2021009845 A JP2021009845 A JP 2021009845A JP 2021009845 A JP2021009845 A JP 2021009845A JP 7078875 B2 JP7078875 B2 JP 7078875B2
Authority
JP
Japan
Prior art keywords
attribute
neural network
signal
hidden variable
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021009845A
Other languages
English (en)
Other versions
JP2021073594A (ja
Inventor
卓弘 金子
薫 平松
邦夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2021073594A publication Critical patent/JP2021073594A/ja
Application granted granted Critical
Publication of JP7078875B2 publication Critical patent/JP7078875B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、信号生成装置、信号生成学習装置、方法、及びプログラムに係り、特に、信号を生成するための信号生成装置、信号生成学習装置、方法、及びプログラムに関する。
本願は、2017年5月2日に、日本に出願された特願2017-091742号に基づき優先権を主張し、その内容をここに援用する。
従来より、画像を生成する方法が知られている(非特許文献1、2)。非特許文献1に記載の方法では、生成器と識別器とを含むGenerative Adversarial Networks(GAN)により、乱数から画像を生成する生成器を学習する。また、非特許文献2に記載の方法では、教師データとして与えられた属性情報を用いて、生成器と識別器とを含むConditional Generative Adversarial Networks(CGAN)により、乱数から画像を生成する生成器を学習している。
I. Goodfellow et al., "Generative Adversarial Nets," NIPS2014 M. Mirza and S. Osindero, "Conditional Generative Adversarial Nets," ArXiv:1411.1784v1, November 2014
非特許文献1に記載の方法では、生成する画像を制御することができない。
また、非特許文献2に記載の方法では、属性の表現能力は教師データに制約されるため、表現能力に限界がある。
本発明は、上記事情を考慮して成されたものであり、属性を制御しつつ、多様な信号を生成することができる信号生成装置、方法、及びプログラムを提供することを目的とする。
また、信号の属性を制御しつつ、多様な信号を生成することができるニューラルネットワークを学習することができる信号生成学習装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の態様に係る信号生成装置は、信号における複数の特徴に対応する複数の隠れ変数を生成する変数生成部と、属性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成する信号生成部と、を含み、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である
上記目的を達成するために、本発明の第2の態様に係る信号生成装置は、信号における複数の特徴に対応する複数の隠れ変数を生成する変数生成部と、性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成する信号生成部と、を含み、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数であり、前記少なくとも1つのニューラルネットワークは、生成器としての第1のニューラルネットワークと、判定器としての第2のニューラルネットワークとを含み、前記第1のニューラルネットワークは、前記属性を表す隠れ変数に基づいて、信号を生成し、前記第2のニューラルネットワークは、前記第1のニューラルネットワークにより生成される信号が、真の信号と同一の分布に従うか否かを識別し、前記第1及び第2のニューラルネットワークは、互いに競合する最適化条件に従って学習した。
本発明の第3の態様によれば、第1又は第2の態様の信号生成装置において、前記属性を表す隠れ変数は、前記属性に対して、複数の隠れ変数を有する。
本発明の第4の態様によれば、第1から第3の態様の何れかの信号生成装置において、前記信号生成部は、前記生成しようとする信号を生成する複数の階層を有し、前記信号生成部は、前記複数の階層にそれぞれ対応するよう設けられたニューラルネットワークを前記少なくとも1つのニューラルネットワークとして有し、前記複数の階層のうち1層目の属性を表す隠れ変数は、生成しようとする信号における属性を表す隠れ変数であり、前記複数の階層のうち2層目以降の属性を表す隠れ変数は、当該属性を表す隠れ変数に対応する層より浅い層の属性を表す隠れ変数に基づいて前記複数の隠れ変数のうち一部の隠れ変数を変換することにより得られ、前記信号生成部は、前記複数の階層それぞれの属性を表す隠れ変数を、前記複数の階層に対応する前記ニューラルネットワークに入力し、前記少なくとも1つのニューラルネットワークに基づいて前記生成しようとする信号を生成する。
本発明の第5の態様によれば、第1から第3の態様の何れかの信号生成装置において、前記変数生成部は、乱数により、前記複数の隠れ変数を生成する。
本発明の第6の態様に係る信号生成学習装置は、信号における特徴を表す複数の隠れ変数を生成する変数生成部と、真の信号を含む学習データと、前記複数の隠れ変数とに基づいて、信号を生成する生成器としての第1のニューラルネットワークと、前記生成器により生成される信号が前記真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとを互いに競合する最適化条件に従って学習させる学習部と、を含み、前記変数生成部は、前記信号における前記特徴のうち個体性を表す隠れ変数と、前記個体性を表す隠れ変数とは独立する隠れ変数であって前記信号における前記特徴のうち属性を表す隠れ変数とを含む前記複数の隠れ変数を生成し、前記学習部は、前記属性を表す隠れ変数と前記個体性を表す隠れ変数とを前記第1のニューラルネットワークに供給し、前記第1のニューラルネットワークにより生成される信号と前記真の信号とを前記第2のニューラルネットワークに供給して、前記第1及び第2のニューラルネットワークを互いに競合する前記最適化条件に従って学習させ、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である
本発明の第7の態様に係る信号生成学習方法は、変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、学習部が、真の信号を含む学習データと、前記複数の隠れ変数とに基づいて、信号を生成する生成器としての第1のニューラルネットワークと、前記生成器により生成される信号が前記真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとを互いに競合する最適化条件に従って学習させ、前記変数生成部は、前記信号における前記特徴のうち個体性を表す隠れ変数と、前記個体性を表す隠れ変数とは独立する隠れ変数であって前記信号における前記特徴のうち属性を表す隠れ変数とを含む前記複数の隠れ変数を生成し、前記学習部は、前記属性を表す隠れ変数と前記個体性を表す隠れ変数とを前記第1のニューラルネットワークに供給し、前記第1のニューラルネットワークにより生成される信号と前記真の信号とを前記第2のニューラルネットワークに供給して、前記第1及び第2のニューラルネットワークを互いに競合する前記最適化条件に従って学習させ、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である
本発明の第8の態様に係る信号生成方法は、変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、信号生成部が、属性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成し、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である
本発明の第9の態様に係る信号生成方法は、変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、信号生成部が、属性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成し、前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数であり、前記少なくとも1つのニューラルネットワークは、生成器としての第1のニューラルネットワークと、判定器としての第2のニューラルネットワークとを含み、前記第1のニューラルネットワークは、前記属性を表す隠れ変数に基づいて、信号を生成し、前記第2のニューラルネットワークは、前記第1のニューラルネットワークにより生成される信号が、真の信号と同一の分布に従うか否かを識別し、前記第1及び第2のニューラルネットワークは、互いに競合する最適化条件に従って学習した。
本発明の第10の態様に係るプログラムは、コンピュータを、第1の態様から第5の態様に記載の信号生成装置と、第6の態様に記載の信号生成学習装置とのうち何れかの装置として機能させるためのプログラムである。
本発明の信号生成装置、方法、及びプログラムによれば、信号における個体性を表す隠れ変数、及び属性を表す隠れ変数が生成される。生成しようとする信号における属性を表す属性ベクトルの値により、属性を表す隠れ変数が変換される。前記生成された個体性を表す隠れ変数、及び変換結果を入力としてニューラルネットワークが信号を生成することにより、属性を制御しつつ、多様な信号を生成することができる、という効果が得られる。
本発明の信号生成学習装置、方法、及びプログラムによれば、信号における個体性を表す隠れ変数、及び属性を表す隠れ変数が生成される。入力された真の信号と、前記生成された個体性を表す隠れ変数、及び属性を表す隠れ変数とに基づいて、信号を生成するための生成器としての第1のニューラルネットワークと、前記生成された信号が、真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとが、互いに競合する最適化条件に従って学習することにより、属性を制御しつつ、多様な信号を生成することができる第1のニューラルネットワークの学習をすることができる、という効果が得られる。
本発明の第1の実施の形態における生成器の概念図である。 第1の実施の形態における生成器及び識別器の概念図である。 第1の実施の形態に係る信号生成装置の構成を示すブロック図である。 第1及び第2の実施の形態に係る信号生成装置における学習処理ルーチンを示すフローチャートである。 第1及び第2の実施の形態に係る信号生成装置における生成処理ルーチンを示すフローチャートである。 第2の実施の形態における3層目の生成器の概念図である。 第2の実施の形態における生成器、識別器、及び近似分布の概念図である。 第2の実施の形態における1層目の生成器の概念図である。 第2の実施の形態における2層目の生成器の概念図である。 第2の実施の形態に係る信号生成装置により、手書き数字を表す画像データを生成した例を示す図である。 第2の実施の形態に係る信号生成装置により、手書き数字を表す画像データを生成した他の例を示す図である。 第2の実施の形態に係る信号生成装置により、顔画像を表す画像データを生成した第1の例を示す図である。 第2の実施の形態に係る信号生成装置により、顔画像を表す画像データを生成した第2の例を示す図である。 第2の実施の形態に係る信号生成装置により、顔画像を表す画像データを生成した第3の例を示す図である。 第2の実施の形態における学習部が備える構成の一例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の第1の実施の形態に係る概要>
まず、本発明の第1の実施の形態における概要を説明する。
人物のポートレート画像として世の中には多様な画像データが存在する。様々な顔の向き、様々な照明条件、様々な年齢、様々な表情などである。
そこで、本実施の形態における信号生成装置は、複数の隠れ変数を生成し、ニューラルネットワークを用いて、画像を生成する。複数の隠れ変数は、画像を表現するのに有用なエッセンスのようなものであり、画像の特徴を示す。信号生成装置は、ニューラルネットワークとして、例えばConvolutional Neural Networks (CNN)を用いる。
また、画像の特徴を示す一つの属性の中にも多様性が存在する。例えば、一言に「前髪」と言っても様々な形状が存在する。
そこで、本実施の形態では、図1に示すように、生成器2は、生成する画像の各属性を複数の隠れ変数で表現する。具体的には、複数の隠れ変数を個体性と属性とに分離することで、生成器2により生成される画像の属性をコントロールしやすくする。生成器2は、各属性を複数の隠れ変数で表現することにより、十分な表現能力を得る。属性が離散的な値で表現される場合、属性が取り得る離散的な値で定められた区間における任意の値を取り得る連続値で隠れ変数を表現してもよい。連続値を有する隠れ変数で各属性を表現することにより、生成器2は、十分な表現能力を得る。同様に、属性がある分布で表現される場合、それよりもより詳細な分布で隠れ変数を表現してもよい。より詳細な分布に従う隠れ変数で各属性を表現することにより、生成器2は、十分な表現能力を得る。
図1に例示される生成器2は、2層のネットワークからなるニューラルネットワークGを有し、入力される隠れ変数z、zと属性ベクトルyとに基づいて画像データG(z,z,y)を生成する。画像の属性は、複数の隠れ変数のうち属性ベクトルyにより制約が付与される隠れ変数zで示される。画像の個体性は、複数の隠れ変数のうち属性ベクトルyにより制約が付与されない隠れ変数zで示される。属性ベクトルyは、少なくとも1つの属性の有無又は度合いを表す。
また、GANを用いて生成器の構造を学習する場合には、生成器の入力が乱数zのみなので、個体性と属性とを容易に分離することが出来ない。CGANを用いた場合には、生成器の入力が乱数zと属性ベクトルyとであり、生成器を属性ベクトルyで条件付けされた識別器と学習させることで、個体性と属性との分離が出来る。しかし、属性ベクトルyは属性の有無や正負などの限定的な特徴を表すため、個体性と分離できる属性情報は限定的となる。
そこで、本実施の形態では、図2に示すように、学習時にConditional Filtered Generative Adversarial Networks (CFGAN)を一緒に学習する。CFGANは、生成器2と識別器3とを含む。生成器2の入力が乱数zと属性の多次元表現であるz’とを含むため、属性情報yで条件付けられた識別器3とともに生成器2を学習させることで個体性と詳細な属性情報zとを分離できる。
従来法では、画像の精緻化という目的で生成器と識別器とを含むGANを利用していたが(非特許文献1参照)、本実施の形態では、個体性と属性との分離のために生成器2と識別器3とを含むCFGANを利用する。
<本発明の第1の実施の形態に係る信号生成装置の構成>
本発明の第1の実施の形態に係る信号生成装置の構成について説明する。図3に示すように、本発明の第1の実施の形態に係る信号生成装置100は、入力部10と、演算部20と、出力部90とを備えている。信号生成装置100は、central processing unit (CPU)とrandom access memory (RAM)とread only memory (ROM)とを含むコンピュータで構成してもよい。CPUは、ROMに記憶された後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムと各種データとを読み出し、プログラムを実行することにより入力部10、演算部20及び出力部90として動作してもよい。
入力部10は、真の画像データx及び当該画像データxの各属性を表す属性ベクトルyのペアを含む複数の学習データを受け付ける。入力部10は、生成しようとする画像データの各属性を表す属性ベクトルyを受け付ける。属性ベクトルyは、例えば属性の有無や正負を表すが、特にこれらに限定されない。
演算部20は、学習用変数生成部28と、学習部30と、ニューラルネットワーク記憶部40と、信号生成用変数生成部52と、信号生成部56とを含んで構成されている。
学習用変数生成部28は、あるデータ分布から個体性を表す隠れ変数z及び各属性を表す隠れ変数zを生成する。学習用変数生成部28は、乱数を用いて、隠れ変数z及び隠れ変数zを生成してもよい。
例えば、属性を表す隠れ変数zが離散的である場合には、学習用変数生成部28は、式(1)に従って、属性を表す隠れ変数zを生成する。
Figure 0007078875000001
式(1)において、kは、カテゴリ数(離散的な値の数)を表す。また、Catは、カテゴリ数Kの各カテゴリを示す値からなる分布であり、pは確率である。
属性を表す隠れ変数zが連続的である場合には、学習用変数生成部28は、式(2)に従って、属性を表す隠れ変数zを生成する。
Figure 0007078875000002
式(2)において、Unif(-1,1)は、値の範囲を-1から1までとした一様分布である。
なお、生成方法はこれらに限定されず、ガウシアン分布やディリクレ分布など任意の分布から隠れ変数zを生成してもよい。
ある分布から生成されたものを、別のニューラルネットワークで変換したものを隠れ変数zとして用いてもよい。
学習部30は、生成器2として動作するニューラルネットワークG(第1のニューラルネットワーク)と、識別器3として動作するニューラルネットワークD(第2のニューラルネットワーク)とを有する。2つのニューラルネットワークG、Dは、入力部10に入力された複数の学習データに基づいて、互いに競合する最適化条件に従って学習する。学習部30は、真の画像データxと、当該画像データxの各属性を表す属性ベクトルyと、生成された個体性を表す隠れ変数zと各属性を表す隠れ変数zとを入力する。ニューラルネットワークGは、個体性を表す隠れ変数及び各属性を表す隠れ変数から、画像データを生成する。ニューラルネットワークDは、ニューラルネットワークGにより生成された画像データと、真の画像データxと、属性ベクトルyとを入力し、生成された画像が属性ベクトルyの下で真の画像データと同一の分布に従うか否かを識別する。すなわち、ニューラルネットワークDは、生成された画像データが真の画像データであるか否かを識別する。真の画像データは、複数の学習データに含まれる画像データである。学習部30における各ニューラルネットワークに、例えばCNNが用いられてもよい。
具体的には、学習部30は、入力された学習データに含まれる真の画像データxと属性ベクトルyと、生成された個体性を表す隠れ変数zと各属性を表す隠れ変数zとを入力とする。ここで、画像データxが、顔画像データである場合には、属性ベクトルyが、「メガネ」、「化粧」、「髭」、「前髪」の各々の有無や、「男性/女性」、「笑顔でない/笑顔」、「老けている/若い」の区別を表す。属性を表す隠れ変数zが、各属性の多様性を表す。属性ベクトルyが「メガネ」の有無を表す場合、属性の多様性は、例えば、メガネの形状及び色を表す。
画像データxが文字画像データである場合には、属性ベクトルyが、文字の種類(例:a,b,c,…,1,2,…)の各々の有無を表す。属性を表す隠れ変数zが、文字の多様性を表す。例えば、属性ベクトルyが文字「4」を表す場合、文字の多様性は、「4」の大きさや形状を表す。あるいは、属性ベクトルyが、文字のフォント(例:ゴシック体、明朝体、太字、斜体字、…)の各々の有無を表し、属性を表す隠れ変数zが、フォントの多様性を表す。例えば、属性ベクトルyがゴシック体を表す場合、フォントの多様性は、ゴシック体の種別を表す。
学習部30は、学習用変数生成部28により生成された個体性を表す隠れ変数zと各属性を表す隠れ変数zとを入力し、生成器2としてのニューラルネットワークGを用いて、個体性を表す隠れ変数zと各属性を表す隠れ変数z’とから画像データを生成する。生成器2としてのニューラルネットワークGの入力となる各属性を表す隠れ変数z’は、各属性を表す隠れ変数zを属性ベクトルyの値により変換することにより得られ、各属性を多次元で表現する。変換の一例としては、属性ベクトルyが属性の有無を表す場合に、生成された各属性を表す隠れ変数zと属性ベクトルyとを掛け合わせることが考えられる。式(3)は、この場合の変換の一例を示す。
Figure 0007078875000003
あるいは、属性ベクトルyが属性の正負を表す場合に、生成された各属性を表す隠れ変数zに対して、属性ベクトルyに応じて正負を与えることが考えられる。式(4)は、この場合の変換の一例を示す。
Figure 0007078875000004
生成器2としてのニューラルネットワークGの学習において、学習部30は、生成された画像データを属性ベクトルyの下で真の画像データxと同一の分布に従うと識別器3が識別するように、生成器2としてのニューラルネットワークGのパラメータを更新する。すなわち、生成される画像を真の画像データであると識別器3が識別するように、ニューラルネットワークGのパラメータが更新される。
識別器3としてのニューラルネットワークDの学習において、学習部30は、生成器2により生成された画像データを属性ベクトルyの下で真の画像データxと同一の分布に従わないと識別器3が識別し、かつ、真の画像データxに含まれる各画像データを真の画像データxと同一の分布に従うと識別器3が識別するように、識別器3としてのニューラルネットワークDのパラメータを更新する。
なお、生成器としてのニューラルネットワークGと、識別器としてのニューラルネットワークDとが、学習において互いに競合する最適化条件は、式(5)で表される。
Figure 0007078875000005
式(5)に含まれ、式(6-1)~(6-4)で示される動作は、次の通りである。式(6-1)の動作は、学習データから、真の画像データxと属性ベクトルyをサンプリングすることを表す。式(6-2)の動作は、個体性を表す隠れ変数zを、あるデータ分布から生成することを表す。例えば、個体性を表す隠れ変数zは、乱数で生成する。式(6-3)の動作は、属性を表す隠れ変数zを、あるデータ分布から生成することを表す。例えば、属性を表す隠れ変数zは、乱数で生成する。式(6-4)の動作は、学習データから、属性ベクトルyをサンプリングすることを表す。
Figure 0007078875000006
学習部30は、上記の処理を、学習データ毎に行って、生成器2としてのニューラルネットワークGのパラメータと、識別器3としてのニューラルネットワークDのパラメータとを繰り返し交互に更新する。
最終的に得られた、生成器2としてのニューラルネットワークGと、識別器3としてのニューラルネットワークDは、ニューラルネットワーク記憶部40に記憶される。
信号生成用変数生成部52は、あるデータ分布から個体性を表す隠れ変数z及び各属性を表す隠れ変数zを生成する。信号生成用変数生成部52は、乱数を用いて、隠れ変数z及び隠れ変数zを生成してもよい。
信号生成部56は、信号生成用変数生成部52によって生成された個体性を表す隠れ変数zと各属性を表す隠れ変数zと、生成しようとする画像データの各属性を表す属性ベクトルyとを入力し、ニューラルネットワーク記憶部40に記憶された、生成器2としてのニューラルネットワークGを読み出す。信号生成部56は、読み出したニューラルネットワークGを用いて、属性ベクトルyと隠れ変数z、zとから画像データを生成し、生成した画像データを出力部90により出力する。このとき、生成器2としてのニューラルネットワークGの入力となる各属性を表す隠れ変数z’は、生成された各属性を表す隠れ変数zを属性ベクトルyの値により変換することにより得られる。変換の一例としては、生成された各属性を表す隠れ変数zと属性ベクトルyとを掛け合わせることが考えられる。各属性を表す隠れ変数zは、属性毎に複数の隠れ変数を有しているため、属性ベクトルyの要素は、属性が対応する複数の隠れ変数の全てに掛け合わされる。
<本発明の第1の実施の形態に係る信号生成装置の作用>
本発明の第1の実施の形態に係る信号生成装置100の作用について説明する。信号生成装置100は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。
学習処理ルーチンについて説明する。入力部10が学習データとして、画像データxと属性ベクトルyとの複数のペアを学習データとして受け付けると、信号生成装置100は、図4に示す学習処理ルーチンを実行する。
ステップS100では、学習部30が、入力部10で受け付けた複数の学習データのうちの何れか一つを取得する。
ステップS102では、学習用変数生成部28が、あるデータ分布から個体性を表す隠れ変数zと各属性を表す隠れ変数zを生成する。
ステップS104では、学習部30が、ステップS102で生成された各属性を表す隠れ変数zを、ステップS100で取得した学習データに含まれる属性ベクトルyの値により変換することにより、各属性を表す隠れ変数z’を求める。
ステップS106では、学習部30が、ステップS102で生成された個体性を表す隠れ変数zと、S104で求められた各属性を表す隠れ変数の変換結果z’とから、生成器2としてのニューラルネットワークを用いて、画像データxを生成する。
ステップS108では、学習部30が、ステップS102で生成された個体性を表す隠れ変数zと各属性を表す隠れ変数zと、ステップS106で生成された画像データxと、ステップS100で得た学習データに含まれる画像データx及び属性ベクトルyとに基づいて、生成器2としてのニューラルネットワークGのパラメータ、及び識別器3としてのニューラルネットワークDのパラメータを更新する。
ステップS110では、学習部30が、全ての学習データについて、ステップS100~S108の処理を実行したか否かを判定する。ステップS100~S108の処理に使用されていない学習データが存在する場合、学習部30は、ステップS100へ戻り、当該学習データを取得する。全ての学習データがステップS100~S108の処理に使用されている場合には、学習部30は、学習処理ルーチンを終了する。学習部30は、最終的に得られた、生成器2としてのニューラルネットワークGのパラメータ、及び識別器3としてのニューラルネットワークDのパラメータを、ニューラルネットワーク記憶部40に格納する。
生成処理ルーチンについて説明する。入力部10が、生成しようとする画像データの各属性を表す属性ベクトルyを受け付けると、信号生成装置100は、図5に示す生成処理ルーチンを実行する。
ステップS150では、信号生成部56が、入力部10で受け付けた属性ベクトルyを取得する。
ステップS152では、信号生成用変数生成部52が、あるデータ分布から個体性を表す隠れ変数zと各属性を表す隠れ変数zとを生成する。なお、個体性を表す隠れ変数zと各属性を表す隠れ変数zとをユーザが任意に設定してもよい。
ステップS154では、信号生成部56が、ステップS152で生成された各属性を表す隠れ変数zを、ステップS150で取得した属性ベクトルyの値により変換して、各属性を表す隠れ変数z’を得る。
ステップS156では、信号生成部56が、ステップS152で生成された個体性を表す隠れ変数zと、ステップS154で得られた各属性を表す隠れ変数z’とに基づいて、ニューラルネットワーク記憶部40に記憶された、生成器2としてのニューラルネットワークGを用いて、画像データを生成する。信号生成部56は、生成した画像データを出力部90により出力して、生成処理ルーチンを終了する。
以上説明したように、本発明の第1の実施の形態に係る信号生成装置は、画像データにおける個体性を表す隠れ変数、及び各属性を表す隠れ変数を生成する。信号生成装置は、生成しようとする信号における各属性を表す属性ベクトルを入力し、属性ベクトルの値により、各属性を表す隠れ変数を変換する。信号生成装置は、生成された個体性を表す隠れ変数、及び変換結果を生成器の入力として、生成器としてのニューラルネットワークを用いて、画像データを生成する。上述の動作を含む信号生成方法を行うことにより、第1の実施の形態に係る信号生成装置は、画像の属性を制御しつつ、多様な画像データを生成することができる。例えば、メガネに関する属性だけを変えたい場合は、信号生成部への入力において、個体性を表す隠れ変数zを固定して、属性を多次元で表す隠れ変数zの各次元をインタラクティブに変更すればよい。属性を維持したまま個体性だけを変えたい場合は、信号生成部の入力において、各属性を表す隠れ変数zを固定して、個体性を表す隠れ変数zを変更すればよい。
本発明の第1の実施の形態に係る信号生成装置は、画像データにおける個体性を表す隠れ変数、及び各属性を表す隠れ変数を生成する。信号生成装置は、入力された学習データに含まれる真の画像データと、生成された個体性を表す隠れ変数、及び各属性を表す隠れ変数とに基づいて、画像を生成する生成器としてのニューラルネットワークと、生成された画像データが、属性ベクトルの下での真の画像データと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとを、互いに競合する最適化条件に従って学習させる。上述の動作を含む信号生成学習方法を行うことにより、信号生成装置は、画像の属性を制御しつつ、多様な画像データを生成することができるニューラルネットワークを学習することができる。
信号生成学習装置は、属性毎に、複数の隠れ変数、またはより詳細な分布に従う隠れ変数を有するため、属性の多様性を表現することができる。
上記の実施の形態において、学習部30が、互いに競合する最適化条件に従って、生成器2としてのニューラルネットワークGと、識別器3としてのニューラルネットワークDとを学習する場合を例に説明したが、これに限定されるものではない。例えば、各隠れ変数が独立なものを表現するように制約を更に設けてもよい。具体的には、式(7)に示す、隠れ変数z’と、隠れ変数z’から生成された画像データとの相関(情報量)が大きくなるように制約を更に設ける。
Figure 0007078875000007
式(7)において、I(z’;G(z,z,y)|y)は、属性ベクトルyの下において生成される画像G(z,z,y)と、各属性を表す隠れ変数z’との相互情報量を表す。H(z’|y)、H(z’|G(z,z,y),y)は、条件付きエントロピーを表す。Eは期待値を表す。DKLは、KL(Kullback-Leibler)ダイバージェンスを表す。P(z’|x,y)は学習データに含まれる真の画像データx及び属性ベクトルyが与えられたときの各属性を示す隠れ変数z’の分布を表す。^z’(^はzの上に付される)は、P(z’|x,y)の分布に従って得られた隠れ変数である。
P(z’|x,y)は未知であるため、上記の情報量Iを直接求めることは困難である。そのため、上記のように近似分布Q(z’|x,y)を導入する。学習部30は、変分法を使い、情報量Iの下限を最大化するように、近似分布Q(z’|x,y)を推定するニューラルネットワークQを学習すると共に、互いに競合する最適化条件の最適化を行う。これにより、属性「メガネ」に対する複数の隠れ変数が隠れ変数z と隠れ変数z とを含み、かつ、属性「メガネ」に対する隠れ変数z がサングラスを表す場合に、隠れ変数z がサングラス以外のメガネを表現するようになる。
<本発明の第2の実施の形態に係る概要>
本発明の第2の実施の形態に係る信号生成装置の構成について説明する。第2の実施の形態に係る信号生成装置は、第1の実施の形態に係る信号生成装置と同様であるため、同一の符号を付して説明を省略する。
第2の実施の形態では、各属性を表す隠れ変数が、階層構造になっている点が、第1の実施の形態と異なっている。
第2の実施の形態では、信号生成装置100は、属性に対して階層的な制御を行う。この制御を実現するために、図6に示すように、各属性を表す隠れ変数が、2階層以上の階層的な隠れ変数であって、階層的に変換される構造を学習部30が有する。1層目の隠れ変数cは1層目の各属性を表す隠れ変数であり、第1の実施の形態における属性ベクトルyに対応している。隠れ変数は、例えば属性の有無や正負を表すが、特にこれらに限定されない。
2層目の隠れ変数cは、1層目の隠れ変数cの値により変換され、変換結果c’が得られる。3層目の隠れ変数cは、2層目の隠れ変数cの変換結果c’の値により変換され、変換結果c’が得られる。信号生成装置100は、3層目において、個体性を表す隠れ変数zと、各属性を表す隠れ変数としての変換結果c’とを生成器の入力とし、生成器としてのニューラルネットワークGにより、画像データを生成する。同様に、信号生成装置100は、1層目、2層目において、生成器としてのニューラルネットワークGにより、画像データをそれぞれ生成する。
ニューラルネットワークの学習では、図7に示すように、1層目の隠れ変数c及び個体性を表す隠れ変数zを入力とし、画像データを生成するニューラルネットワークG、識別器としてのニューラルネットワークD、及び、隠れ変数cの分布を推定するニューラルネットワークQの学習が行われる。2層目の隠れ変数の変換結果c’及び個体性を表す隠れ変数zを入力とし、画像データを生成するニューラルネットワークG、識別器としてのニューラルネットワークD、及び、隠れ変数c’の分布を推定するニューラルネットワークQの学習が行われる。3層目の隠れ変数の変換結果c’及び個体性を表す隠れ変数zを入力とし、画像データを生成するニューラルネットワークG、識別器としてのニューラルネットワークD、及び、隠れ変数c’の分布を推定するニューラルネットワークQの学習が行われる。各層における学習は順次行われる。図7におけるP、P、Pは、識別器としてのニューラルネットワークD、D、Dによる識別結果をそれぞれ表す。
上述のように、信号生成装置100は、1層目の隠れ変数に対応する各ニューラルネットワークを最初に学習し、その学習結果をもとに一層深い層の隠れ変数に対応するニューラルネットワークを学習することを再帰的に行って、一階層ずつ、各ニューラルネットワークを学習する。階層的な学習により、浅い階層において、抽象的な概念が最初に獲得され、階層が深くなるに従って、徐々に属性の多様性を詳細化することができる。
<本発明の第2の実施の形態に係る信号生成装置の構成>
本発明の第2の実施の形態に係る信号生成装置100の入力部10は、学習データとして、複数の真の画像データxを受け付ける。
学習用変数生成部28は、あるデータ分布から個体性を表す隠れ変数z(z、z、z)及び各階層における各属性を表す隠れ変数c、c、cを生成する。各隠れ変数は、例えば各階層における属性の有無や正負を表すものが考えられるが、特にこれらに限定されない。学習用変数生成部28は、乱数を用いて、隠れ変数z(z、z、z)及び隠れ変数c、c、cを生成してもよい。
学習部30は、生成器として動作するニューラルネットワークG、G、Gと、識別器として動作するニューラルネットワークD、D、Dと、隠れ変数c、c’、c’の分布を推定するニューラルネットワークQ、Q、Qとを有する。
生成器としてのニューラルネットワークG、G、Gは、真の画像データxと、生成された個体性を表す隠れ変数zと、各階層における各属性を表す隠れ変数c、c、cとを入力とし、個体性を表す隠れ変数z及び各属性を表す隠れ変数c、c、cから、画像データをそれぞれ生成する。識別器として動作するニューラルネットワークD、D、Dは、ニューラルネットワークG、G、Gにより生成された画像データが真の画像データと同一の分布に従うか否かをそれぞれ識別する。ニューラルネットワークQ、Q、Qは、ニューラルネットワークG、G、Gにより生成される画像データについての各属性を示す隠れ変数c、c’、c’に対する分布P(c|x)、P(c’|x,c)、P(c’|x,c,c’)の近似分布をそれぞれ推定する。ニューラルネットワークQ、Q、Qは、推定した近似分布に基づいて、各属性を表す隠れ変数c、c’、c’をそれぞれ推定する。
生成器、識別器として動作する各ニューラルネットワークG、G、G、D、D、Dは、入力部10に入力された複数の学習データに基づいて、互いに競合する最適化条件に従い学習する。同時に、ニューラルネットワークQ、Q、Qは、ニューラルネットワークG、G、Gにより生成された画像データの情報量の下限を最大化するように学習する。学習部30は、各階層のニューラルネットワークに対して学習を再帰的に繰り返し行う。学習部30における各ニューラルネットワークに、例えばCNNが用いられてもよい。
具体的には、学習部30は、1層目に対して、入力された学習データに含まれる真の画像データxと、生成された個体性を表す隠れ変数zと、生成された1層目の各属性を表す隠れ変数cとを入力とする。
学習部30は、生成された個体性を表す隠れ変数zと、1層目の各属性を表す隠れ変数cとをニューラルネットワークGの入力とし、生成器としてのニューラルネットワークGを用いて、画像データを生成する。
生成器としてのニューラルネットワークGの学習において、学習部30は、生成された画像データを真の画像データと同一の分布に従うと識別器が識別するように、ニューラルネットワークGのパラメータを更新する。すなわち、生成される画像を真の画像データであると識別器としてのニューラルネットワークDが識別するように、ニューラルネットワークGのパラメータが更新される。
識別器としてのニューラルネットワークDの学習において、学習部30は、生成器により生成された画像データを真の画像データと同一の分布に従わないと識別器が識別し、かつ、真の画像データxに含まれる各画像データを真の画像データと同一の分布に従うと識別器が識別するように、識別器としてのニューラルネットワークDのパラメータを更新する。
ニューラルネットワークQは、生成器としてのニューラルネットワークGにより生成された画像データについての1層目の各属性を表す隠れ変数cを予測する。ニューラルネットワークQの学習において、学習部30は、隠れ変数cと、隠れ変数cから生成された画像データとの相関(情報量)の下限が最大化するように、ニューラルネットワークQのパラメータを更新する。
学習部30は、2層目に対して、入力された学習データに含まれる真の画像データxと、ニューラルネットワークQによって予測された1層目の各属性を表す隠れ変数cと、生成された個体性を表す隠れ変数zと、生成された2層目の各属性を表す隠れ変数cとを入力とする。このとき、2層目の各属性を表す隠れ変数c’は、2層目の各属性を表す隠れ変数cを、1層目の各属性を表す隠れ変数cの値により変換することにより得られる。変換の一例としては、2層目の各属性を表す隠れ変数cと1層目の各属性を表す隠れ変数cとを掛け合わせることが考えられる。
学習部30は、生成された個体性を表す隠れ変数zと、生成された2層目の各属性を表す隠れ変数cの変換結果c’とをニューラルネットワークGの入力とし、生成器としてのニューラルネットワークGを用いて、画像データを生成する。
生成器としてのニューラルネットワークGの学習において、学習部30は、生成された画像データを1層目の各属性を表す隠れ変数cの下で真の画像データと同一の分布に従うと識別器が識別するように、生成器としてのニューラルネットワークGのパラメータを更新する。すなわち、生成される画像を真の画像データであると識別器としてのニューラルネットワークDが識別するように、ニューラルネットワークGのパラメータが更新される。
識別器としてのニューラルネットワークDの学習において、学習部30は、生成器により生成された画像データを1層目の各属性を表す隠れ変数cの下で真の画像データと同一の分布に従わないと識別器が識別し、かつ、真の画像データxに含まれる各画像データを真の画像データと同一の分布に従うと識別器が識別するように、識別器としてのニューラルネットワークDのパラメータを更新する。
ニューラルネットワークQは、1層目の各属性を表す隠れ変数cの下で、ニューラルネットワークGにより生成された画像データについての2層目の各属性を表す隠れ変数c’を予測する。ニューラルネットワークQの学習において、学習部30は、隠れ変数c’と、隠れ変数c’から生成された画像データとの相関(情報量)の下限が最大化するように、ニューラルネットワークQのパラメータを更新する。
学習部30は、3層目に対して、入力された学習データに含まれる真の画像データxと、ニューラルネットワークQによって予測された2層目の各属性を表す隠れ変数c’と、生成された個体性を表す隠れ変数zと、生成された3層目の各属性を表す隠れ変数cとを入力とする。このとき、3層目の各属性を表す隠れ変数c’は、3層目の各属性を表す隠れ変数cを、2層目の各属性を表す隠れ変数cの変換結果c’の値により変換することにより得られる。
学習部30は、生成された個体性を表す隠れ変数zと、生成された3層目の各属性を表す隠れ変数cの変換結果c’とをニューラルネットワークGの入力とし、生成器としてのニューラルネットワークGを用いて、画像データを生成する。
生成器としてのニューラルネットワークGの学習において、学習部30は、生成された画像データを2層目の各属性を表す隠れ変数cの変換結果c’の下で真の画像データと同一の分布に従うと識別器が識別するように、生成器としてのニューラルネットワークGのパラメータを更新する。すなわち、生成される画像を真の画像データであると識別器としてのニューラルネットワークDが識別するように、ニューラルネットワークGのパラメータが更新される。
識別器としてのニューラルネットワークDの学習において、学習部30は、生成器により生成された画像データを2層目の各属性を表す隠れ変数cの変換結果c’の下で真の画像データと同一の分布に従わないと識別器が識別し、かつ、真の画像データxに含まれる各画像データを真の画像データと同一の分布に従うと識別器が識別するように、識別器としてのニューラルネットワークDのパラメータを更新する。
ニューラルネットワークQは、2層目の各属性を表す隠れ変数cの変換結果c’の下で、ニューラルネットワークGにより生成された画像データについての3層目の各属性を表す隠れ変数c’を予測する。ニューラルネットワークQの学習において、学習部30は、隠れ変数c’と、隠れ変数c’から生成された画像データとの相関(情報量)の下限が最大化するように、ニューラルネットワークQのパラメータを更新する。
学習部30は、上記の処理を、学習データ毎に行って、各種のニューラルネットワークのパラメータを繰り返し更新する。
最終的に得られた、生成器としてのニューラルネットワークG、G、Gと、識別器としてのニューラルネットワークD、D、Dと、ニューラルネットワークQ、Q、Qとは、ニューラルネットワーク記憶部40に記憶される。
信号生成用変数生成部52は、あるデータ分布から個体性を表す隠れ変数z(z、z、z)及び2層目以降の各階層における各属性を表す隠れ変数c、cを生成する。信号生成用変数生成部52は、乱数を用いて、隠れ変数z(z、z、z)及び隠れ変数c、cを生成してもよい。
信号生成部56は、各階層に対し、信号生成用変数生成部52によって生成された個体性を表す隠れ変数zと、当該階層の各属性を表す隠れ変数又は当該階層の各属性を表す隠れ変数の変換結果とを入力する。信号生成部56は、ニューラルネットワーク記憶部40に記憶された、生成器としてのニューラルネットワークを用いて、画像データを生成し、生成した画像データを出力部90により出力する。
具体的には、信号生成部56は、ニューラルネットワーク記憶部40に記憶された、生成器としてのニューラルネットワークGを用いる。信号生成部56は、1層目に対し、図8に示すように、信号生成用変数生成部52によって生成された個体性を表す隠れ変数zと1層目の各属性を表す隠れ変数cとを入力し、ニューラルネットワークGを用いて、画像データを生成する。信号生成部56は、生成した画像データを出力部90により出力する。
信号生成部56は、ニューラルネットワーク記憶部40に記憶された、生成器としてのニューラルネットワークGを用いる。信号生成部56は、2層目に対し、図9に示すように、信号生成用変数生成部52によって生成された個体性を表す隠れ変数zと、2層目の各属性を表す隠れ変数cの変換結果c’とを入力し、ニューラルネットワークGを用いて、画像データを生成する。信号生成部56は、生成した画像データを出力部90により出力する。2層目の各属性を表す隠れ変数c’は、1層目の各属性を表す隠れ変数cの値により、生成された2層目の各属性を表す隠れ変数cを変換することにより得られる。2層目の各属性を表す隠れ変数cは、属性毎に複数の隠れ変数を有しているため、1層目の隠れ変数cは、隠れ変数cが表す属性に対応する複数の隠れ変数の全てに掛け合わされる。
信号生成部56は、ニューラルネットワーク記憶部40に記憶された、生成器としてのニューラルネットワークGを用いる。信号生成部56は、3層目に対し、図6に示すように、信号生成用変数生成部52によって生成された個体性を表す隠れ変数zと、3層目の各属性を表す隠れ変数cの変換結果c’とを入力し、ニューラルネットワークGを用いて、画像データを生成する。信号生成部56は、生成した画像データを出力部90により出力する。3層目の各属性を表す隠れ変数c’は、生成された3層目の各属性を表す隠れ変数cを、2層目の各属性を表す隠れ変数cの変換結果c’の値により変換することにより得られる。
なお、4層目以降が存在する場合には、学習部30は、1層目の各属性を表す隠れ変数cの値により、2層目の各属性を表す隠れ変数cを変換する。学習部30は、2層目以降の各階層について順番に、当該階層の複数の隠れ変数の変換結果の値により、次の階層の複数の隠れ変数を変換することを繰り返す。学習部30は、生成された個体性を表す隠れ変数z、及び当該階層について得られた変換結果を、生成器としてのニューラルネットワークに入力して、画像データを生成すればよい。
なお、第2の実施の形態に係る信号生成装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。
以上説明したように、本発明の第2の実施の形態に係る信号生成装置は、画像データにおける個体性を表す隠れ変数、及び2層目以降の各属性を表す隠れ変数を生成する。信号生成装置は、生成しようとする信号における各属性の有無又は正負を表す、1層目の各属性を表す隠れ変数の値により、2層目の各属性を表す隠れ変数を変換する。信号生成装置は、3層目以降の各属性を表す隠れ変数も同様に変換する。信号生成装置は、各階層に対し、生成された個体性を表す隠れ変数と、当該階層の各属性を表す隠れ変数、又は当該階層の各属性を表す隠れ変数の変換結果とを、生成器としてのニューラルネットワークに入力して、画像データを生成する。上述の動作を含む信号生成方法を行うことにより、第2の実施の形態に係る信号生成装置は、画像の属性を制御しつつ、多様な画像データを生成することができる。
本発明の第2の実施の形態に係る信号生成装置は、画像データにおける個体性を表す隠れ変数、及び2層目以降の各属性を表す隠れ変数を生成する。信号生成装置は、入力された学習データに含まれる真の画像データと、予測された、生成しようとする画像データにおける1層目の各属性を表す隠れ変数と、生成された個体性を表す隠れ変数、及び2層目以降の各属性を表す隠れ変数とに基づいて、各階層に対し、画像を生成する生成器としてのニューラルネットワークと、生成された画像データが、一つ浅い階層の各属性を表す隠れ変数(あるいは変換結果)の下での真の画像データと同一の分布に従うか否かを識別する識別器としてのニューラルネットワークとを、互いに競合する最適化条件に従って学習することを再帰的に繰り返す。上述の動作を含む信号学習方法を行うことにより、信号生成装置は、画像の属性を制御しつつ、多様な画像データを生成することができるニューラルネットワークを学習することができる。
例えば、第2の実施の形態に係る信号生成装置は、図10A及び図10Bに示すように、手書きの数字を表す多様な画像データを生成することができる。第2の実施の形態では、学習データに含まれる画像データから、1層目の各属性を表す隠れ変数cを予測して、学習に用いる場合を例に説明したが、これに限定されるものではない。例えば、学習する際に、1層目の各属性を表す隠れ変数cを学習データとして入力するようにしてもよい。図10A及び図10Bは、隠れ変数cを学習データとして入力した場合に生成された画像データの例を示す。具体的には、文字の種類(1,2,3、…)に関する情報を学習データとして与えている。図10Aは、属性「0」を有とする1層目の各属性を表す隠れ変数を入力した場合に、1層目~4層目それぞれの生成器としてのニューラルネットワークにより生成された画像データを示している。また、図10Bは、属性「5」を有とする1層目の各属性を表す隠れ変数を入力した場合に、1層目~4層目それぞれの生成器としてのニューラルネットワークにより生成された画像データを示している。図10A及び図10Bに示した例では、階層毎に、個体性を表す隠れ変数が異なっている。
第2の実施の形態に係る信号生成装置は、図11A、図11B及び図11Cに示すように、顔画像を表す多様な画像データを生成することができる。図11A、図11B及び図11Cに示す例でも、隠れ変数cを学習データとして入力している。具体的には、属性の有無に関する情報を学習データとして与えている。図11Aは、属性「メガネ」を有とする1層目の各属性を表す隠れ変数を入力した場合に、1層目~4層目それぞれの生成器としてのニューラルネットワークにより生成された画像データを示している。図11Bは、属性「前髪」を有とする1層目の各属性を表す隠れ変数を入力した場合に、1層目~4層目それぞれの生成器としてのニューラルネットワークにより生成された画像データを示している。図11Cは、属性「笑顔」を有とする1層目の各属性を表す隠れ変数を入力した場合に、1層目~4層目それぞれの生成器としてのニューラルネットワークにより生成された画像データを示している。図11A、図11B及び図11Cに示した例では、階層毎に、個体性を表す隠れ変数が異なっている。
図10A、図10B、図11A、図11B及び図11Cに示した例のように、1層目、2層目、3層目、4層目の各属性を表す隠れ変数c、c、c、cの値を変えることで、信号生成装置は、画像の属性について多次元かつ階層的に制御して画像を生成可能である。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、ニューラルネットワークの学習を行う学習部30を含む信号生成装置100として構成していたが、これに限定されるものではない。例えば、学習用変数生成部28及び学習部30を含む信号生成学習装置と、信号生成用変数生成部52及び信号生成部56を含む信号生成装置100とのそれぞれに分けて構成してもよい。
上述した実施の形態では、入力される信号が、顔画像データや文字画像データである場合を例に説明した。しかし、入力される信号は、これに限定されるものではなく、これら以外の画像データであってもよい。例えば、入力される信号が、動物画像データ(例えば、鳥画像データ)であってもよい。この場合には、属性ベクトルyが、色の有無を表し、属性を表す隠れ変数zが、色の多様性を表す。例えば、属性ベクトルyが赤色の有無を表し、隠れ変数zが鳥のいずれの部位が赤いか又は赤の色合いを表す。あるいは、属性ベクトルyが、鳥の部位の形状を表し、属性を表す隠れ変数zが、鳥の部位の多様性を表す。例えば、属性ベクトルyが嘴の先端が丸いか、尖っているかを表し、どのように丸い嘴であるかを隠れ変数zが表す。
入力される信号が、背景画像データであってもよい。この場合には、属性ベクトルyが、背景のタイプを表し、属性を表す隠れ変数zが、背景のタイプの多様性を表す。例えば、属性ベクトルyが海、山、川、家又は道路の有無を表し、どのような海、山、川、家又は道路であるかを隠れ変数zが表す。
入力される信号が、家画像データであってもよい。この場合には、属性ベクトルyが、色の有無を表し、属性を表す隠れ変数zが、色の多様性を表す。例えば、属性ベクトルyが赤の有無を表し、隠れ変数zが家のいずれの部位が赤いか又は赤の色合いを表す。
入力される信号が、建物画像データであってもよい。この場合には、属性ベクトルyが、建物の種類それぞれの有無を表し、属性を表す隠れ変数zが、建物の多様性を表す。例えば、属性ベクトルyがビル、戸建及びタワーの有無を表し、どのような形状の建物であるかを隠れ変数zが表す。
あるいは、属性ベクトルyが、建物のパーツの形状の有無を表し、属性を表す隠れ変数zが、パーツの多様性を表す。例えば、属性ベクトルyが平らな屋根、丸い屋根及び三角形状の屋根の有無を表し、屋根がどのように平らであるかを隠れ変数zが表す。
上述した実施の形態では、入力される信号が、画像データである場合を例に説明した。しかし、入力される信号は、これに限定されるものではなく、画像データ以外の信号であってもよい。例えば、入力される信号が、音声信号(あるいは楽曲信号)、テキストデータ、動画データであってもよい。
入力される信号が、音声信号である場合には、信号生成装置は、個体性を表す隠れ変数と、各属性を表す隠れ変数とを生成し、生成器としてのニューラルネットワークが音声信号を生成するようにしてもよい。各属性を表す隠れ変数は、音声信号の発生源である人に関する属性や、音声信号を構成する要素に関する属性を表してもよい。例えば、音声信号の発生源である人に関する属性は、魅力、感情及び方言などの有無、人が男性であるか女性であるか、人が若いか年寄りかを表す。音声信号を構成する要素に関する属性は、スピーチの速度、声の高さなどを表す。これにより、信号生成装置は、音声の属性を制御しつつ、多様な音声信号を生成することができる。
入力される信号が、テキストデータである場合には、信号生成装置は、個体性を表す隠れ変数と、各属性を表す隠れ変数とを生成し、生成器としてのニューラルネットワークがテキストデータを生成するようにしてもよい。各属性を表す隠れ変数は、テキストデータの発生源である人に関する属性や、テキストデータを構成する要素に関する属性を表してもよい。例えば、人に関する属性は、丁寧度、人が男性であるか女性であるかなどを表す。要素に関する属性は、テキストが抽象的であるか具体的であるか、テキストが感情的であるか否か、テキストのジャンル、テキストが口語的であるか文語的であるか、テキストがフォーマルであるか否かを表す。これにより、信号生成装置は、テキストの属性を制御しつつ、多様なテキストデータを生成することができる。
入力される信号が、動画データである場合には、信号生成装置は、個体性を表す隠れ変数と、各属性を表す隠れ変数とを生成し、生成器としてのニューラルネットワークが動画データを生成するようにしてもよい。各属性を表す隠れ変数は、動画データを構成する要素に関する属性を表す。例えば、要素に関する属性は、コミカル度、動画が古いか新しいか、動画が実写であるかアニメであるか、感情の有無、動画のジャンルなどを表す。これにより、信号生成装置は、動画の属性を制御しつつ、多様な動画データを生成することができる。
入力される信号が、楽曲信号(歌)である場合には、信号生成装置は、個体性を表す隠れ変数と、各属性を表す隠れ変数とを生成し、生成器としてのニューラルネットワークが楽曲信号を生成するようにしてもよい。例えば、個体性を表す隠れ変数は音色を表し、各属性を表す隠れ変数は曲調を表す。曲調には、ラップ調、オーケストラ調などが含まれる。これにより、信号生成装置は、楽曲信号の属性を制御しつつ、多様な楽曲信号を生成することができる。
上述した実施の形態では、生成器、識別器、近似分布を推定するニューラルネットワークとして、CNNを用いる場合を例に説明したが、これに限定されるものではなく、他のニューラルネットワーク構造を用いてもよい。例えば、時系列性を考慮したモデルであるRecurrent Neural Network(RNN)やFully Connectedなどを用いてもよい。RNNは、Long Short-Term Memory (LSTM)を用いて構成してもよい。
第2の実施の形態では、学習データに含まれる画像データから、1層目の各属性を表す隠れ変数cを予測して、学習に用いる場合を例に説明したが、これに限定されない。学習する際に、1層目の各属性を表す隠れ変数cを学習データとして学習部30へ入力するようにしてもよい。
1層目の各属性を表す隠れ変数cだけでなく、任意の階層の各属性を表す隠れ変数も学習データとして学習部30へ入力して、より深い階層を学習するようにしてもよい。
第1の実施の形態では、学習データに含まれる全ての画像データxについて、属性ベクトルyが付与されている場合を例に説明したが、これに限定されない。学習データに含まれる一部の画像データxについてだけ、属性ベクトルyが付与されていてもよい。あるいは、学習データが属性ベクトルyを含まずともよい。この場合、信号生成装置は、第2の実施の形態の信号生成装置が属性ベクトルyに対応する各属性を表す隠れ変数cを推定するのと同様に、属性ベクトルyを推定してもよい。信号生成装置は、推定した属性ベクトルyに基づいて、各ニューラルネットワークを学習してもよい。
第2の実施の形態において、任意の階層の各属性を表す隠れ変数を学習データとして入力するときに、学習データに含まれる画像データxの一部に対して隠れ変数を付与するようにしてもよい。
第2の実施の形態の信号生成装置が、1つ前の層の各属性を表す隠れ変数ci-1’の値により、隠れ変数cを変換して隠れ変数c’を得る場合について説明した。しかし、信号生成装置は、これに限定されることなく、隠れ変数c’に対応する層より浅い層の隠れ変数c’(j=1,2,…,i-1)のうち少なくとも1つにより、隠れ変数cを変換して隠れ変数c’を得てもよい。例えば、信号生成装置は、隠れ変数c’を得る際に、隠れ変数c’に対応する層より2つ浅い層の隠れ変数ci-2’により、隠れ変数cを変換して隠れ変数c’を得てもよい。更に、信号生成装置は、隠れ変数c’に対応する層より浅い層の隠れ変数c’(j=1,2,…,i-1)と隠れ変数c’との予め定められた関係に基づいて、隠れ変数c’を得てもよい。
第1の実施の形態の信号生成装置における生成器2において、隠れ変数zを属性ベクトルyで変換する処理をニューラルネットワークが行ってもよい。学習部は、隠れ変数zを変換するニューラルネットワークの学習を、生成器としてのニューラルネットワークGの学習とともに行ってもよい。第2の実施の形態の信号生成装置における生成器2において、隠れ変数cを隠れ変数ci-1’で変換して隠れ変数c’を得る処理をニューラルネットワークが行ってもよい。学習部は、隠れ変数c’を得るニューラルネットワークの学習を、生成器としてのニューラルネットワークGの学習とともに行ってもよい。
第1の実施の形態における信号生成装置が、カテゴリ分布又は一様分布に基づいた乱数を用いて隠れ変数z、zを生成する場合について説明した。しかし、隠れ変数z、zを生成する方法は、これに限定されない。例えば、信号生成装置は、ガウシアン分布、ディリクレ分布などを含む任意の分布に基づいて、隠れ変数z、zを生成してもよい。第2の実施の形態における信号生成装置は、同様に、ガウシアン分布、ディリクレ分布などを含む任意の分布に基づいて、隠れ変数z,z,z,c,c,cを生成してもよい。あるいは、第1及び第2の実施の形態における信号生成装置は、隠れ変数それぞれを生成するニューラルネットワークを備えてもよい。
第1及び第2の実施の形態における信号生成装置が、生成器としてのニューラルネットワークGと識別器としてのニューラルネットワークDとの学習における最適化条件として式(5)で表される目的関数を用いる場合について説明した。しかし、生成器としてのニューラルネットワークGと識別器としてのニューラルネットワークDとの学習における最適化条件を表す目的関数は、これに限定されない。例えば、信号生成装置は、Least Squares GAN、Wasserstein GANなどを含む任意の拡張モデルを用いてもよい。
第1及び第2の実施の形態における識別器としてのニューラルネットワークDが、生成器により生成される画像データが属性ベクトルの下で真の画像データと同一の分布に従うか否かを識別する場合について説明した。しかし、識別器としてのニューラルネットワークDが識別する対象は、これに限定されない。例えば、識別器としてのニューラルネットワークDは、生成される画像データが真の画像データと同一の分布に従うか否かを識別してもよい。この場合、生成器としてのニューラルネットワークGと、識別器としてのニューラルネットワークDとの学習における目的関数に、画像データが属性ベクトルを含むか否かの識別結果を加えてもよい。画像データが属性ベクトルを含むとは、属性ベクトルが示す属性(特徴)が画像データに含まれていることである。画像データが属性ベクトルを含むか否かの識別は、例えば、P(c|x)及びP(c|x,p)の近似分布を推定するニューラルネットワークQ(l=1,2,…,L)が行ってもよい。
画像データが属性ベクトルを含むか否かの識別結果を、最適化条件としての目的関数に加える場合、例えば、目的関数は式(8)で表される。式(8)で表される目的関数を用いる学習では、生成器としてのニューラルネットワークGと、識別器としてのニューラルネットワークDと、P(c|x)及びP(c|x,p)近似分布を推定するニューラルネットワークQ(l=1,2,…,L)との学習が行われる。
Figure 0007078875000008
式(8)における、λ,…,λは、トレードオフ・パラメータである。LGAN(D,G)は式(9-1)で表される。LMI/AC(G,Q)は、式(9-2)で表されるLMI(G,Q)と、式(9-3)で表されるLAC(G,Q)との何れかを用いることを表す。学習データに属性ベクトルが含まれない場合、LMI(G,Q)が用いられる。学習データに属性ベクトルが含まれる場合、LAC(G,Q)が用いられる。LHCMI(G,Q)は、式(9-4)で表される。
Figure 0007078875000009
式(9-1)~式(9-4)におけるx~Pdata(x)は、学習データから真の画像データxをサンプリングすることを表す。z~P(z)は、隠れ変数z(z,z)をあるデータ分布から生成することを表す。c~P(c)は、1層目の属性ベクトルcをあるデータ分布から生成することを表す。x~G(^c,z)は、L階層における各属性を表す隠れ変数^cと隠れ変数z(z,z)に基づいて、生成器としてのニューラルネットワークGで画像データを生成することを表す。c,x~Pdata(c,x)は、学習データから真の画像データxと画像データxに対応する属性ベクトルcとをサンプリングすることを表す。c~P(c|p)は、P(c|p)の分布に従って隠れ変数cをサンプリングすることを表す。式(9-4)におけるcはl層目の各属性を表す隠れ変数であり、pは(l-1)層目の各属性を表す隠れ変数である。
第2の実施の形態の信号生成装置において、生成される画像データが真の画像データと同一の分布に従うか否かを識別器が識別する場合、学習部30は、図7に示した3層のニューラルネットワークを有する構成に代えて、図12に示す1層のニューラルネットワークを有する構成を備えてもよい。図12に示す1層のニューラルネットワークの構成を学習部30が備える場合、学習部30は、生成器として動作するニューラルネットワークGと、識別器として動作するニューラルネットワークDと、各属性を表す隠れ変数c、c’、c’の分布を推定するニューラルネットワークQ、Q、Qとを有する。
各ニューラルネットワークの学習において、学習部30は、学習対象となる1つのニューラルネットワーク以外の他のニューラルネットワークのパラメータを固定して、学習対象のニューラルネットワークのパラメータを更新する。学習部30が有するニューラルネットワークそれぞれの学習は、第1及び第2の実施の形態において説明した学習と同様に、学習データ毎に繰り返し行われる。
ニューラルネットワークQの学習を行う際、学習部30は、予め定められた初期値を設定した隠れ変数c、cと、あるデータ分布から生成される隠れ変数z、cとに基づいて、ニューラルネットワークQのパラメータを更新する。ニューラルネットワークQの学習を行う際、学習部30は、初期値を設定した隠れ変数cと、あるデータ分布から生成される隠れ変数z、c、cとに基づいて、ニューラルネットワークQのパラメータを更新する。ニューラルネットワークQの学習を行う際、学習部30は、あるデータ分布から生成される隠れ変数z、c、c、cに基づいて、ニューラルネットワークQのパラメータを更新する。
属性を表す隠れ変数c、cに設定する初期値は、例えば、隠れ変数c、cが取り得る値の期待値、平均値に基づいて決定される。あるいは、隠れ変数c、cに含まれる変数の数に基づいて初期値を決定してもよい。ニューラルネットワークG、Dの学習は、第2の実施の形態において説明した学習と同様である。
画像データが属性ベクトルを含むか否かの識別は、識別器としてのニューラルネットワークDが行ってもよい。画像データが属性ベクトルを含むか否かの識別を識別器が行う場合、識別器は、入力される画像データに各属性が含まれるか否かを判定するニュールラルネットワークを更に含んでもよい。
信号生成装置は、生成した画像データに対して、既知の画像処理技術を適用してもよい。例えば、信号生成装置は、生成した画像に対して超解像処理や画質の補正を行ってもよい。
本発明は、生成される信号の属性を制御しつつ、多様な信号を生成することが要求される用途に適用できる。
10 入力部
20 演算部
28 学習用変数生成部
30 学習部
40 ニューラルネットワーク記憶部
52 信号生成用変数生成部
56 信号生成部
90 出力部
100 信号生成装置

Claims (10)

  1. 信号における複数の特徴に対応する複数の隠れ変数を生成する変数生成部と、
    性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成する信号生成部と、
    を含み、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である信号生成装置。
  2. 信号における複数の特徴に対応する複数の隠れ変数を生成する変数生成部と、
    性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成する信号生成部と、
    を含み、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数であり、
    前記少なくとも1つのニューラルネットワークは、生成器としての第1のニューラルネットワークと、判定器としての第2のニューラルネットワークとを含み、
    前記第1のニューラルネットワークは、前記属性を表す隠れ変数に基づいて、信号を生成し、
    前記第2のニューラルネットワークは、前記第1のニューラルネットワークにより生成される信号が、真の信号と同一の分布に従うか否かを識別し、
    前記第1及び第2のニューラルネットワークは、互いに競合する最適化条件に従って学習した、信号生成装置。
  3. 前記属性を表す隠れ変数は、前記属性に対して、複数の隠れ変数を有する請求項1または請求項2に記載の信号生成装置。
  4. 前記信号生成部は、前記生成しようとする信号を生成する複数の階層を有し、
    前記信号生成部は、前記複数の階層にそれぞれ対応するよう設けられたニューラルネットワークを前記少なくとも1つのニューラルネットワークとして有し、
    前記複数の階層のうち1層目の属性を表す隠れ変数は、生成しようとする信号における属性を表す隠れ変数であり、
    前記複数の階層のうち2層目以降の属性を表す隠れ変数は、当該属性を表す隠れ変数に対応する層より浅い層の属性を表す隠れ変数に基づいて前記複数の隠れ変数のうち一部の隠れ変数を変換することにより得られ、
    前記信号生成部は、前記複数の階層それぞれの属性を表す隠れ変数を、前記複数の階層に対応する前記ニューラルネットワークに入力し、前記少なくとも1つのニューラルネットワークに基づいて前記生成しようとする信号を生成する、
    請求項1から請求項3の何れか1項記載の信号生成装置。
  5. 前記変数生成部は、乱数により、前記複数の隠れ変数を生成する、
    請求項1から請求項4の何れか1項記載の信号生成装置。
  6. 信号における特徴を表す複数の隠れ変数を生成する変数生成部と、
    真の信号を含む学習データと、前記複数の隠れ変数とに基づいて、信号を生成する生成器としての第1のニューラルネットワークと、前記生成器により生成される信号が前記真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとを互いに競合する最適化条件に従って学習させる学習部と、
    を含み、
    前記変数生成部は、前記信号における前記特徴のうち個体性を表す隠れ変数と、前記個体性を表す隠れ変数とは独立する隠れ変数であって前記信号における前記特徴のうち属性を表す隠れ変数とを含む前記複数の隠れ変数を生成し、
    前記学習部は、属性を表す隠れ変数と前記個体性を表す隠れ変数とを前記第1のニューラルネットワークに供給し、前記第1のニューラルネットワークにより生成される信号と前記真の信号とを前記第2のニューラルネットワークに供給して、前記第1及び第2のニューラルネットワークを互いに競合する前記最適化条件に従って学習させ、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である、信号生成学習装置。
  7. 変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、
    学習部が、真の信号を含む学習データと、前記複数の隠れ変数とに基づいて、信号を生成する生成器としての第1のニューラルネットワークと、前記生成器により生成される信号が前記真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとを互いに競合する最適化条件に従って学習させ、
    前記変数生成部は、前記信号における前記特徴のうち個体性を表す隠れ変数と、前記個体性を表す隠れ変数とは独立する隠れ変数であって前記信号における前記特徴のうち属性を表す隠れ変数とを含む前記複数の隠れ変数を生成し、
    前記学習部は、属性を表す隠れ変数と前記個体性を表す隠れ変数とを前記第1のニューラルネットワークに供給し、前記第1のニューラルネットワークにより生成される信号と前記真の信号とを前記第2のニューラルネットワークに供給して、前記第1及び第2のニューラルネットワークを互いに競合する前記最適化条件に従って学習させ、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である、
    信号生成学習方法。
  8. 変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、
    信号生成部が、属性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成し、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数である信号生成方法。
  9. 変数生成部が、信号における複数の特徴に対応する複数の隠れ変数を生成し、
    信号生成部が、属性を表す隠れ変数と予め学習された少なくとも1つのニューラルネットワークに基づき、前記少なくとも1つのニューラルネットワークを用いて前記生成しようとする信号を生成し、
    前記属性を表す隠れ変数は、前記属性を表す隠れ変数が属する階層とは異なる階層の少なくとも1つの隠れ変数により1回以上変換された隠れ変数であり、
    前記少なくとも1つのニューラルネットワークは、生成器としての第1のニューラルネットワークと、判定器としての第2のニューラルネットワークとを含み、
    前記第1のニューラルネットワークは、前記属性を表す隠れ変数に基づいて、信号を生成し、
    前記第2のニューラルネットワークは、前記第1のニューラルネットワークにより生成される信号が、真の信号と同一の分布に従うか否かを識別し、
    前記第1及び第2のニューラルネットワークは、互いに競合する最適化条件に従って学習した、信号生成方法。
  10. コンピュータを、請求項1から請求項5に記載の信号生成装置と、請求項6に記載の信号生成学習装置とのうち何れかの装置として機能させるためのプログラム。
JP2021009845A 2017-05-02 2021-01-25 信号生成装置、信号生成学習装置、方法、及びプログラム Active JP7078875B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017091742 2017-05-02
JP2017091742 2017-05-02

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019515733A Division JP6912740B2 (ja) 2017-05-02 2018-05-01 信号生成装置、信号生成学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021073594A JP2021073594A (ja) 2021-05-13
JP7078875B2 true JP7078875B2 (ja) 2022-06-01

Family

ID=64016637

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019515733A Active JP6912740B2 (ja) 2017-05-02 2018-05-01 信号生成装置、信号生成学習装置、方法、及びプログラム
JP2021009845A Active JP7078875B2 (ja) 2017-05-02 2021-01-25 信号生成装置、信号生成学習装置、方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019515733A Active JP6912740B2 (ja) 2017-05-02 2018-05-01 信号生成装置、信号生成学習装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US20200151561A1 (ja)
JP (2) JP6912740B2 (ja)
WO (1) WO2018203550A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019032421A1 (en) * 2017-08-07 2019-02-14 Siemens Aktiengesellschaft IMPROVED VISUAL LEARNING TECHNOLOGY MACHINE
JP7188182B2 (ja) * 2019-02-26 2022-12-13 日本電信電話株式会社 データ変換学習装置、データ変換装置、方法、及びプログラム
JP7513947B2 (ja) * 2019-08-08 2024-07-10 ブラザー工業株式会社 学習済みの機械学習モデル、画像データ生成装置、および、方法
US12033047B2 (en) * 2020-08-12 2024-07-09 International Business Machines Corporation Non-iterative federated learning
JP6856965B1 (ja) * 2020-11-27 2021-04-14 株式会社ネフロック 画像出力装置及び画像出力方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116546221A (zh) * 2016-02-05 2023-08-04 渊慧科技有限公司 使用神经网络压缩图像

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN. X et al.,InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets,[online],2016年06月12日,pp.1-9,https://arxiv.org/abs/1606.03657,[検索日 2018.07.04]

Also Published As

Publication number Publication date
JPWO2018203550A1 (ja) 2020-02-06
US20200151561A1 (en) 2020-05-14
JP6912740B2 (ja) 2021-08-04
WO2018203550A1 (ja) 2018-11-08
JP2021073594A (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7078875B2 (ja) 信号生成装置、信号生成学習装置、方法、及びプログラム
JP7144699B2 (ja) 信号変更装置、方法、及びプログラム
JP6831453B2 (ja) 信号検索装置、方法、及びプログラム
Krohn et al. Deep learning illustrated: a visual, interactive guide to artificial intelligence
Bontrager et al. Deep interactive evolution
Goodfellow Nips 2016 tutorial: Generative adversarial networks
KR20200078214A (ko) 스타일 변환을 위한 영상 처리 장치 및 방법
CN113435211B (zh) 一种结合外部知识的文本隐式情感分析方法
JPWO2019022136A1 (ja) 学習方法、学習プログラム、学習装置及び学習システム
KR20220004491A (ko) 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
CN112257775B (zh) 一种基于卷积神经网络和无监督语言模型的由图成诗方法
JP6692272B2 (ja) 信号調整装置、信号生成学習装置、方法、及びプログラム
CN115564027A (zh) 多模态学习行为分析方法、***及存储介质
CN117409109A (zh) 图像生成方法以及图像生成的数据处理方法
JP6886120B2 (ja) 信号検索装置、方法、及びプログラム
CN114494783A (zh) 一种基于动态图神经网络的预训练方法
Ye et al. A modified harmony search algorithm and its applications in weighted fuzzy production rule extraction
Glez-Morcillo et al. Gaudii: An automated graphic design expert system
CN117237479A (zh) 基于扩散模型的产品风格自动生成方法、装置及设备
CN114581829A (zh) 基于强化学习的连续手语识别方法、电子设备和存储介质
CN115206269A (zh) 音乐生成模型的训练方法及训练装置、存储介质、设备
KR102608266B1 (ko) 이미지 생성 장치 및 방법
US20240135611A1 (en) Neural compositing by embedding generative technologies into non-destructive document editing workflows
Huang Analyzing the Emotional Characteristics of British and American Literature by Combining Semiotics and the Operational Model of Thinking
Lin et al. A New Family of Generative Adversarial Nets Using Heterogeneous Noise to Model Complex Distributions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7078875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150