JP2021190062A - イメージ生成システム及びこれを利用したイメージ生成方法 - Google Patents

イメージ生成システム及びこれを利用したイメージ生成方法 Download PDF

Info

Publication number
JP2021190062A
JP2021190062A JP2020169539A JP2020169539A JP2021190062A JP 2021190062 A JP2021190062 A JP 2021190062A JP 2020169539 A JP2020169539 A JP 2020169539A JP 2020169539 A JP2020169539 A JP 2020169539A JP 2021190062 A JP2021190062 A JP 2021190062A
Authority
JP
Japan
Prior art keywords
image
style
reference image
domain
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020169539A
Other languages
English (en)
Other versions
JP7224323B2 (ja
Inventor
ユンジェ チェー
Yun Jey Choi
ヨンジョン ウ
Young Jung Uh
ジョンウ ハ
Jung Woo Ha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Naver Corp
Original Assignee
Line Corp
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp, Naver Corp filed Critical Line Corp
Publication of JP2021190062A publication Critical patent/JP2021190062A/ja
Application granted granted Critical
Publication of JP7224323B2 publication Critical patent/JP7224323B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/32Image data format

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】 イメージを生成するシステムを提供する。【解決手段】 本発明に係るイメージ生成システムは、変換の対象になるソースイメージを受信するイメージ入力部と、基準イメージの外貌スタイルと関連したスタイルコードを入力するスタイルコード入力部と、前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するイメージ生成部とを備えることができる。【選択図】 図1

Description

本発明は、イメージを生成するシステム及びこれを利用したイメージ生成方法に関する。
イメージの一部特徴を他の特徴に変換したり、複数のイメージを互いに合成することにより、新しいイメージを生成するイメージ生成技術は、産業界において様々な目的に活用されているだけでなく、最近では、一般ユーザにも娯楽の要素として広く活用されている。
このようなイメージ生成技術は、人工知能の発達により、その生成技術が日々発展しており、実際に、人の目では区別が難しい程度の水準まで至った。
特に、イメージ生成技術は、2014年にヨシュア・ベンジオ(Yoshua Bengio)教授の研究チームで考案された、敵対的生成ネットワーク(Generative Adversarial Network。略字:GAN)に基づいて飛躍的に発展した。
敵対的生成ネットワーク(GAN)は、確率分布を学習する生成モデルと互いに異なる集合を区分する識別モデルとで構成される。このとき、イメージ生成モデル(または、生成子)は、ターゲットドメインを有する偽物イメージを作って識別モデルを最大限詐称して訓練するようになされる。そして、識別モデル(または、識別子)は、生成モデルが提示する偽物イメージと実際イメージとをターゲットドメインを基準に最大限正確に区分するように訓練される。
このように、識別モデルを詐称するように生成モデルを訓練する方式を対立的プロセスという。このような敵対的生成ネットワークは、生成モデルと識別モデルとを対立的プロセスを介して発展させる過程であって、ターゲットドメインに対して実際イメージと極めて類似した類似イメージ、すなわち、偽物イメージを生成できるようになった。
しかしながら、このような敵対的生成ネットワークにおいてイメージ生成モデル及び識別モデルは、ターゲットドメインを基準に学習されるので、ターゲットドメインが変更される場合、新しいイメージ生成モデル及び識別モデルを訓練しなければならないという限界を有する。
これにより、様々なターゲットドメインに対して柔軟に対処できるイメージ生成方法に対するニーズが依然として存在する。
本発明は、互いに異なるターゲットドメインに対応する様々なイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。
前述したような課題を解決するために、本発明に係るイメージ生成システムは、変換の対象になるソースイメージを受信するイメージ入力部と、基準イメージの外貌スタイルと関連したスタイルコードを入力するスタイルコード入力部と、前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するイメージ生成部とを備えることができる。
本発明に係るイメージ生成システムは、ドメインの特性を含むスタイルコードを用いて、スタイルコードに含まれたドメイン特性に該当するドメインを有するイメージを生成できる。
本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法を説明するための概念図である。 本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法を説明するための概念図である。 本発明に係るイメージ生成方法を説明するためのフローチャートである。 本発明に係るマッピングネットワークを利用してスタイルコードを生成する方法を説明するための概念図である。 本発明に係るマッピングネットワークを利用してスタイルコードを生成する方法を説明するための概念図である。 本発明に係るマッピングネットワークを利用してスタイルコードを生成する方法を説明するための概念図である。 本発明に係るスタイルエンコーダを用いてスタイルコードを生成する方法を説明するための概念図である。 本発明に係るスタイルエンコーダを用いてスタイルコードを生成する方法を説明するための概念図である。 本発明に係るイメージ生成システムを学習する方法を説明するための概念図である。
以下、添付された図面を参照して本明細書に開示された実施形態を詳細に説明するものの、図面符号に関係なく、同一であるか、類似した構成要素には同じ参照符号を付し、これについての重複する説明を省略する。以下の説明において使用される構成要素に対する接尾辞の「モジュール」及び「部」は、明細書作成の容易さだけが考慮されて付与されるか、混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。また、本明細書に開示された実施形態を説明するにあたって、関連した公知技術についての具体的な説明が本明細書に開示された実施形態の要旨を不明確にする恐れがあると判断される場合、その詳細な説明を省略する。また、添付された図面は、本明細書に開示された実施形態を容易に理解できるようにするためのものであり、添付された図面によって本明細書に開示された技術的思想が限定されず、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物ないし代替物を含むことと理解されるべきである。
第1、第2などのように、序数を含む用語は、様々な構成要素を説明するのに使用され得るが、上記構成要素等は、前記用語等により限定されるものではない。前記用語等は、1つの構成要素を他の構成要素から区別する目的にのみ使用される。
ある構成要素が他の構成要素に「連結されて」いるまたは「接続されて」いると言及されたときには、その他の構成要素に直接的に連結されているまたは接続されていることもできるが、中間に他の構成要素が存在することもできると理解されるべきであろう。それに対し、ある構成要素が他の構成要素に「直接連結されて」いるまたは「直接接続されて」いると言及されたときには、中間に他の構成要素が存在しないことと理解されるべきであろう。
単数の表現は、文脈上明白に異なるように意味しない限り、複数の表現を含む。
本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、1つまたは複数の他の特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものの存在または付加可能性を予め排除しないことと理解されなければならない。
一方、本発明は、互いに異なるターゲットドメインに対応する様々なイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。
より具体的に、本発明は、単一のイメージ生成部を利用して、互いに異なるターゲットドメインに各々対応する互いに異なるイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。
さらに、本発明は、ターゲットドメインを基準に様々な外貌スタイルを有するイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。本発明は、イメージ生成システム及びこれを利用したイメージ生成方法に関するものであって、特に、本発明に係るイメージ生成システムは、「イメージトゥイメージ(image to image)変換(translation)」に基づいてイメージを生成できる。
ここで、「イメージトゥイメージ変換」とは、与えられた入力イメージを基に新しいイメージを生成することを意味する。より具体的に、イメージトゥイメージ変換では、入力イメージの少なくとも一部分を変換することで、新しいイメージを生成することを意味できる。
本発明は、特に、「イメージトゥイメージ変換」を行うにあたって、単一の「イメージ生成部」だけで、様々なスタイル及びドメインに該当する新しいイメージを生成できるイメージ生成システムに関するものである。
このとき、イメージ生成部は、同じドメインに対する様々なスタイルのイメージを生成する、または、互いに異なるドメインに対する同じスタイルのイメージを生成できる。以下では、本発明に係るイメージ生成システムについて添付された図面とともにより具体的に説明する。図1及び図2は、本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法を説明するための概念図であり、図3は、本発明に係るイメージ生成方法を説明するためのフローチャートである。
図1に示されたように、本発明に係るイメージ生成システム100は、生成部(generator、または、イメージ生成部、110)及びスタイルコード入力部120を備えるように構成されることができる(以下、説明の都合上、「生成部110」は「イメージ生成部110」と命名する)。さらに、イメージ生成システム100は、入力部130及び出力部140のうち、少なくとも1つをさらに備えることができる。
イメージ生成部110は、入力部130を介して入力されるイメージを基にイメージを生成し、生成されたイメージは、出力部140を介して出力されることができる。
本発明では、説明の都合上、イメージ生成部110に、イメージ生成のために入力されるイメージを「ソースイメージ(source image)」と命名する。
ここで、ソースイメージは、イメージ変換(または、イメージ生成)の基になるイメージを意味できる。イメージ生成部110は、ソースイメージを基に新しいイメージを生成できる。図1に示されたように、ソースイメージ100aは、入力部130を介してイメージ生成部110に入力されることができる。
さらに、本発明では、説明の都合上、イメージ生成部110により生成されたイメージを「合成イメージ(または、出力イメージ)」と命名する。図1に示されたように、合成イメージ200は、出力部140を介して出力されることができる。
このように、イメージ生成部110は、入力部130を介して入力されるソースイメージ100aを基に、基準イメージ100bを用いて合成イメージ200を生成できる。
このとき、イメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードを用いて合成イメージ200を生成できる。
図1に示されたように、ソースイメージ100aには、少なくとも1つのグラフィックオブジェクト(例えば、人のイメージ)が含まれ得る。イメージ生成部110は、このようなグラフィックオブジェクト(または、第1のグラフィックオブジェクト)に、スタイルコードによる外貌スタイルを反映して合成イメージ200を生成できる。
本発明において、グラフィックオブジェクトは、人、動物、自動車、花、かばん、山などのように、事物に対するイメージと理解されることができる。
本明細書では、説明の都合上、ソースイメージ100aに含まれたグラフィックオブジェクトを「第1のグラフィックオブジェクト」と命名する。そして、合成イメージ200に含まれたグラフィックオブジェクトを「第3のグラフィックオブジェクト」と命名する。そして、基準イメージ100bに含まれたグラフィックオブジェクトを「第2のグラフィックオブジェクト」と命名する。さらに、第2のグラフィックオブジェクトは、基準イメージ100bに含まれたものだけでなく、ガウス分布から抽出されるノイズ情報によって特定されるオブジェクトを意味できる。このような、ガウス分布から抽出されるオブジェクトは、スタイルコードの抽出対象(または、スタイルコードを抽出するために参照される対象)とも表現することができる。
すなわち、第2のグラフィックオブジェクトは、基準イメージ(reference image)100bに含まれるか、または複数の基準イメージに対するデータ分布によるガウス分布の特定ノイズに対応することができる。
以下では、説明の都合上、ガウス分布の特定ノイズに対応する第2のグラフィックオブジェクトについて別に称さずに、全て「基準イメージ」と統一して説明する。
すなわち、以下では、説明の都合上、第2のグラフィックオブジェクトと基準イメージとを同じ意味として説明する。したがって、以下において基準イメージは、ガウス分布により特定されるオブジェクトを意味することもできる。
また、本明細書では、ソースイメージと第1のグラフィックオブジェクトとを互いに同じ意味として使用することができる。すなわち、ソースイメージの外貌スタイルは、つまり、第1のグラフィックオブジェクトの外貌スタイルを意味できる。
ここで、スタイルコードは、基準イメージ100bの外貌スタイルと関連することができる。「外貌スタイル」は、基準イメージ100bの視覚的な外観を定義できる要素であって、ヘアスタイル(または、頭髪スタイル)、性別など、様々な要素によって決定されることができる。
前述したように、基準イメージ100bは、ソースイメージ100aの外貌スタイルを変更するために参照される対象を意味できる。
このように、イメージ生成部110は、ソースイメージ100aに、基準イメージの外貌スタイルに該当するスタイルコードを反映することにより、前記基準イメージの外貌スタイルが反映された合成イメージ200を生成できる。
本発明において、合成イメージ200を生成するとは、ソースイメージ100a、すなわち、第1のグラフィックオブジェクトの外貌スタイルを、基準イメージ100bの外貌スタイルを参照して変換(または、変更)することを意味できる。その結果、本発明では、第1のグラフィックオブジェクトの一部分が基準イメージの外貌スタイルに変換された合成イメージが生成され得る。
一方、本発明において、スタイルコードは、スタイル情報及びドメイン特性情報を含むことができる。このとき、スタイル情報は、ドメイン特性情報によるドメインと関連したスタイルに関する情報でありうる。
イメージ生成部110は、スタイルコードに含まれたスタイル情報及びドメイン特性情報に基づいて、ソースイメージ100a(より具体的には、ソースイメージ100aに含まれた第1のグラフィックオブジェクト)の外貌スタイルを変換することにより合成イメージ200を生成できる。このとき、イメージ生成部110は、合成イメージ200が、スタイルコードに含まれたドメイン特性情報に対応するドメインを有するように、前記ソースイメージ100aを基に合成イメージ200を生成できる。
その結果、合成イメージ200に含まれた第3のグラフィックオブジェクトは、第1のグラフィックオブジェクトに、前記スタイルコードに含まれたスタイル情報及びドメイン特性情報が反映されたグラフィックオブジェクトでありうる。すなわち、第3のグラフィックオブジェクトは、第1のグラフィックオブジェクトに第2のグラフィックオブジェクトの外貌スタイルが合成されたイメージでありうる。
このように、本発明では、スタイル情報及びドメイン特性情報が含まれたスタイルコードを用いて、ソースイメージ100aを基にする合成イメージ200を生成できる。
すなわち、本発明に係るイメージ生成システム100は、ソースイメージ100aの特定ドメインを基準イメージ100bの特定ドメインに変更することにより合成イメージ200を生成できる。
スタイルコードは、図2に示されたように、それぞれの基準イメージ101b、102b、103b、104b、105b、106bに対するスタイル及びドメインに関する情報を含むことができる。
このとき、スタイルコードは、図2に示されたように、ベクトル(vector)形式を有するようになされることができる。さらに、スタイルコード入力部120は、このようなベクトル形式を有するスタイルコードを、適応インスタンス正規化(adaptive instance normalization)(AdaIN)を介してイメージ生成部110に入力することができる。
上述したように、スタイルコードは、基準イメージ100bのスタイル及びドメインを特定するための、スタイル情報及びドメイン特性情報を含むことができる。以下では、本発明に対する理解を助けるために、スタイル情報、ドメイン、及びドメイン特性情報が有する意味について説明する。
まず、「スタイル情報」は、グラフィックオブジェクトが有する外貌スタイル、すなわち、視覚的特徴(または、視覚的外観)に関する情報を意味する。
ここで、視覚的特徴は、頭髪スタイルなどのように、目に見える外貌(appearance)と関連した特徴を意味できる。
このようなスタイル情報は、複数のカテゴリー(または、スタイルカテゴリー、属性(attribute)などと命名可能である)のうち、少なくとも1つのカテゴリーに対する特徴情報を含むことができる。
ここで、カテゴリーまたは属性は、グラフィックオブジェクトが有する意味のある視覚的特徴を区分するための区分基準であると理解されることができる。また、カテゴリーは、グラフィックオブジェクトの外貌スタイルを定義するための要素であると理解されることができる。
一方、カテゴリーに対する特徴情報は、グラフィックオブジェクトが当該カテゴリーにおいて「どのような視覚的特徴を有するか」をデータとして表現したことを意味できる。
このとき、「カテゴリーに対する特徴情報」は、「属性値(attribute value)」とも命名されることができる。
「カテゴリー(または、属性)」についてより具体的に説明すれば、グラフィックオブジェクトの外貌スタイル、すなわち、視覚的特徴を表現するためのカテゴリー(または、属性)の種類は非常に様々でありうる。
例えば、性別、年齢、ヘアスタイル(頭髪スタイル)、ヘア色相(頭髪色相)、皮膚色相、メーキャップ(化粧)、ひげ、顔型、表情、メガネ、アクセサリー、眉毛形状、目形状、***形状、鼻形状、耳形状、人中形状などが全てそれぞれの個別カテゴリー(または、属性)と理解されることができる。
スタイル情報は、カテゴリーに対する識別情報(カテゴリー種類、カテゴリーインデックス情報等)及び当該カテゴリーに対する特徴情報を全て含むことができる。
例えば、カテゴリーに対する識別情報は、「ヘアスタイル」であり、カテゴリーに対する特徴情報は、「金髪ウェーブ」でありうる。
このように、スタイルコードは、グラフィックオブジェクトの外貌スタイルを定義できる様々なカテゴリーのうち、少なくとも1つのカテゴリーに関する情報(カテゴリーに対する識別情報及びカテゴリーに対する特徴情報のうち、少なくとも1つを含む)を含むスタイル情報を含むことができる。
例えば、図1に示された合成イメージ200のうち、第1の合成イメージ201及び第2の合成イメージ202を「ヘアスタイル」カテゴリー観点で説明する。この場合、第1の合成イメージ201は、ヘアスタイルカテゴリーに対して、第1の基準イメージ101bによる「黒色ウェーブ髪201a」に該当するカテゴリーに対する特徴情報、すなわち、スタイル情報を有することができる。そして、第2の合成イメージ202は、ヘアスタイルカテゴリーに対して、第2の基準イメージ102bに該当する「前髪がある金髪ウェーブ髪202a」によるカテゴリーに対する特徴情報、すなわち、スタイル情報を有することができる。
このように、第1及び第2の合成イメージ201、202は、同じカテゴリー(例えば、「ヘアスタイル」カテゴリー)に対して互いに異なるスタイル情報を有することができる。
したがって、スタイルコードにどのカテゴリーのどのような特徴を有するスタイル情報が含まれるかによって合成イメージの外貌スタイルが変わることができる。
したがって、本発明に係るイメージ生成部110は、ソースイメージ100aに対して、基準イメージ100bの外貌スタイルから抽出されたスタイル情報を含むスタイルコードを反映できる。これにより、イメージ生成部110は、基準イメージ100bの外貌スタイルを有する合成イメージ200を生成できる。
このように、イメージ生成部110は、スタイルコードに含まれたスタイル情報に基づいて、ソースイメージ100aの少なくとも1つのカテゴリーに対する変換を行うことができる。
イメージ生成部110は、ソースイメージ(100a、または、第1のグラフィックオブジェクト)の外貌スタイルを定義するための複数のカテゴリーのうち、スタイル情報に含まれたカテゴリーと同一または対応するカテゴリーを基準に変換を行うことができる。
ここで、ソースイメージ100aの特定カテゴリーに対して変換を行うとは、ソースイメージ100aの特定カテゴリーに対する特徴情報または属性値を変換することであって、このような特徴情報が変更される場合、当該カテゴリーに対する視覚的外観が変わるようになる。
次に、ドメイン及びドメイン特性情報について説明する。
ドメイン(domain)は、前述した、イメージ(または、グラフィックオブジェクト)の外貌スタイルを区分する互いに異なる複数のカテゴリーのうち、基準になる少なくとも1つのカテゴリーに対する特徴情報(または、属性値)を意味できる。
ここで、「基準」は、イメージ変換の基準、イメージ分類の基準、またはイメージ区分の基準のように、様々な意味と受け入れられることができる。
ドメイン(domain)は、互いに異なる複数のイメージが、「特定カテゴリーに対して互いに同じ属性値を有する」または「特定カテゴリーに対して互いに異なる共通属性値を有する」と表現するとき、「特定カテゴリーに対する属性値」がつまり、ドメインを意味できる。
例えば、複数のカテゴリーのうち、「性別」カテゴリーを基準にドメインを説明するとき、図2に示されたように、第1、第2、及び第3のイメージ201、202、203は、同じドメインを有する。そして、第4、第5、及び第6イメージ204、205、206も同じドメインを有する。しかし、第1、第2、及び第3のイメージ201、202、203のドメインは、第4、第5、及び第6のイメージ204、205、206のドメインと互いに異なることができる。すなわち、第1、第2、及び第3のイメージ201、202、203は、「女性」であり、第4、第5、及び第6のイメージ204、205、206のドメインは、「男性」である。このとき、「女性」または「男性」がつまり、ドメインを意味できる。
このように、ドメインは、外貌スタイルと関連した様々なカテゴリーに対する属性値のうち、少なくとも1つであって、イメージの変換、イメージの分類、またはイメージの区分基準になる指標でありうる。
一方、スタイルコードに含まれたドメイン特性情報は、特定ドメイン(または、ターゲットドメイン)を表すデータであって、外貌スタイルを区分する特定カテゴリー(または、属性)及びこれに対する特徴情報(属性値)を含むことができる。
一方、イメージ生成部110は、スタイルコードに含まれたドメイン特性情報に基づいて合成イメージ200のドメインを決定できる。
前記イメージ生成部110は、合成イメージ200がスタイルコードに含まれたドメイン特性情報によるドメインを有するようにソースイメージ100aを変換できる。
ここで、スタイルコードに含まれたドメイン特性情報は、基準イメージの特定ドメインに関する情報でありうる。すなわち、イメージ生成部110は、合成イメージ200が、基準イメージの特定ドメインと同じドメインを有するようにソースイメージ100aを変換できる。
例えば、スタイルコードに第4、第5、及び第6の基準イメージ104b、105b、106bによる「男性」に該当する特定ドメインに対するドメイン特性情報が含まれた場合、イメージ生成部110により生成された第4、第5、及び第6のイメージ204、205、206は、「男性」ドメインを有することができる。
このように、イメージ生成部110は、合成イメージ204、205、206が基準イメージ(例えば、第4、第5、及び第6の基準イメージ104b、105b、106b)の特定ドメイン(例えば、男性)を有するように、ソースイメージ100aに前記ドメイン特性情報を反映できる。
このとき、イメージ生成部110は、ソースイメージ100aのドメインとスタイルコードに含まれたドメイン特性情報による特定ドメインとが異なる場合、これを考慮せずに合成イメージ200のドメインを決定できる。
すなわち、イメージ生成部110は、ソースイメージ100aの特定ドメインと基準イメージ100bの特定ドメインとが異なる場合、ソースイメージ100aの特定ドメインより、前記基準イメージ100bの特定ドメインを優先して、合成イメージ(または、第3のグラフィックオブジェクト)のドメインを決定できる。その結果、合成イメージ200は、基準イメージ100bの特定ドメインを有する。
一方、イメージ生成部110は、スタイルコードに基づいてソースイメージ100aを変換する場合、ソースイメージ100aの外貌的正体性を決定する少なくとも1つの外貌特徴部分を基準に、残りの部分に対する外貌スタイルを変更できる。
より具体的に、ソースイメージ100aは、前記ソースイメージ100aの外貌的正体性を決定する少なくとも1つの外貌特徴部分を含むことができる。イメージ生成部100aは、ソースイメージ100aの外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージ100aに対して基準イメージ100bの外貌スタイルを反映できる。このとき、基準イメージ100bの外貌スタイルは、スタイルコードに含まれたドメイン特性情報に対応する基準イメージの特定ドメインを基準に定義された外貌スタイルを意味できる。
ソースイメージ100a及び基準イメージ100bが人に対応する場合、前記ソースイメージ100aの前記外貌特徴部分は、人の目、鼻、及び口のうち、少なくとも1つに対応する部分でありうる。このとき、前記基準イメージ100bの外貌スタイルは、人の頭髪スタイル、ひげ、年齢、皮膚色、メーキャップのうち、少なくとも1つと関連したものでありうる。
一方、前記ソースイメージ100aの外貌的正体性を決定する要素は様々でありうるし、イメージ生成部110は、合成イメージ200の合成目的によって、外貌的正体性を決定する要素を異なるように決定することができる。
イメージ生成部110において、どの部分を外貌的正体性と決定するか否かは、予め入力された情報に基づいて決定されることも可能である。
例えば、合成イメージ200の目的が特定人物に対する様々な頭髪スタイルの変化を表すことであるならば、このとき、外貌的正体性を表す外貌特徴部分は、特定人物の目、鼻、口、顔型などに対応する部分でありうる。
その結果、図1に示されたように、イメージ生成部110は、ソースイメージ100aの外貌的正体性に該当する外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージ100aに対して基準イメージ100bの外貌スタイル(例えば、ヘアスタイル)を反映できる。その結果、ソースイメージ100aの外貌的正体性を維持しながら、基準イメージ100bの外貌スタイルを有する合成イメージ200が生成され得る。
一方、ここで、外貌的正体性は、ソースイメージ100aに含まれたグラフィックオブジェクトのポーズ(pose)または姿勢を含むことができる。
すなわち、イメージ生成部110は、ソースイメージ100aに含まれたグラフィックオブジェクトのポーズと同じポーズを有するグラフィックオブジェクトが含まれるように合成イメージ200を生成できる。
このように、本発明に係るイメージ生成システム100は、入力部110を介してソースイメージを受信し(S310)、スタイルコード入力部120を介して外貌スタイルと関連したスタイルコードを受信する(S320)。そして、受信されたスタイルコードを用いて、スタイルコードに対応する外貌スタイルが反映されたイメージを生成できる(S330)。
以上で説明したように、本発明に係るイメージ生成システム100は、イメージ生成部110にドメインの特性情報を含むスタイルコードに基づいて合成イメージを生成できる。
以下では、スタイルコードを生成する方法について添付された図面とともにより具体的に説明する。図4、図5、及び図6は、本発明に係るマッピングネットワークを利用してスタイルコードを生成する方法を説明するための概念図である。
前述したように、本発明に係るイメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードにより、ソースイメージ100aにおいてどのドメインを基準にイメージを変換するかを決定できる。
すなわち、スタイルコードは、特定ドメイン(または、ターゲットドメイン)に対するドメイン特性情報及び前記特定ドメインを基準に抽出されたスタイル情報を含むことができる。一方、スタイルコードに含まれたドメイン特性情報に基づいて、ソースイメージ100aの変換対象ターゲットドメインが決定される。
このようなスタイルコードは、図4に示されたマッピングネットワーク400から抽出されることができる。イメージ生成部110は、マッピングネットワーク400から抽出されたスタイルコードを用いて、ソースイメージの特定ドメインを、スタイルコードに含まれたドメイン特性情報による特定ドメイン(または、ターゲットドメイン)に変換することができる。
より具体的に、図4に示されたように、マッピングネットワーク400は、マッピングネットワーク部410、入力部420、及び出力部430のうち、少なくとも1つを備えることができる。
マッピングネットワーク部410は、ガウス分布400aからノイズ情報(z1ないしz7)を抽出し、抽出されたノイズ情報を利用してスタイルコードを生成できる。
このようなノイズ情報は、潜在コード(latent code)とも命名されることができる。
マッピングネットワーク部410は、ガウス分布400aからランダムにサンプリングを行うことにより、様々なドメイン及び様々なスタイルを有する様々なスタイルコードを生成できる。
マッピングネットワーク部410は、このようなガウス分布400aからサンプリングを行ってノイズ情報(潜在コードまたはノイズ)を抽出できる。このように抽出されたノイズ情報は、特定ドメインに対するスタイル情報になることができる。
マッピングネットワーク部410は、スタイルコードに反映しようとする特定ドメインの情報とガウス分布400aから抽出された特定ノイズ情報とを組み合わせることができる。そして、マッピングネットワーク部410は、前記組み合わせに基づいて、特定ドメインに対する特性情報及び前記抽出された特定ノイズ情報に対応するスタイル情報を含むスタイルコードを生成できる。
このとき、ガウス分布400aは、複数のイメージに対するものであって、複数のイメージに対するデータセット(data set)の確率分布でありうる。
前述したように、マッピングネットワーク部410は、ノイズ情報からスタイルコードを変換するとき、変換されたスタイルコードにドメインの情報が含まれるようにスタイルコードを生成できる。
例えば、図5に示されたように、ガウス分布400aから特定ノイズ情報z1が抽出された場合、当該ノイズ情報z1がどのドメインに対することであるかによって、互いに異なるスタイルコードが生成され得る。
すなわち、マッピングネットワーク部400は、ガウス分布400aから同一ノイズ情報が抽出されても、基準になるドメインによって、互いに異なるスタイルコードを生成できる。
このために、マッピングネットワーク部400は、互いに異なるドメインに対するスタイルコードを出力するための複数の出力分岐があるMLP(multilayer perceptron)(MLP with multiple output branches)で構成されることができる。このような、同じノイズ情報に対して互いに異なるスタイルコードが生成され得る。この場合、互いに異なるスタイルコードは、各々互いに異なるターゲットドメインに対応することができる。
より具体的に、図5において特定ノイズ情報z1は、図1及び図2において説明した基準イメージ101bを表すためのデータを含むことができる。
マッピングネットワーク部410は、基準イメージ101bに対応するノイズ情報zからスタイルコードを生成できる。この場合、マッピングネットワーク部410は、互いに異なる様々なドメインを基準にスタイルコードを生成できる。すなわち、マッピングネットワーク部400は、特定ドメインを基準に互いに異なるスタイルコードを生成できる。
例えば、図5に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「性別」である場合、マッピングネットワーク部410は、基準イメージ101bの性別(例えば、「女性」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
このとき、マッピングネットワーク部410は、ノイズ情報zから前記特定ドメインが有する特徴(例えば、「女性」の特徴:長髪、化粧)を中心にスタイル情報を抽出できる。
さらに他の例として、図5に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「年齢」である場合、マッピングネットワーク部410は、基準イメージ101bの年齢(例えば、「若者」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
このとき、マッピングネットワーク部410は、ノイズ情報zから前記特定ドメインが有する特徴(例えば、「若い女性」の特徴:滑らかな皮膚、化粧)を中心にスタイル情報を抽出できる。
また、図示したように、マッピングネットワーク部410は、ヘアカラー、皮膚カラー、ヘアスタイル、顔型など、様々なターゲットドメインを基準に、ノイズ情報zからスタイル情報を抽出できる。
一方、本発明において、「ターゲットドメインを基準にスタイル情報を抽出する」とは、ノイズ情報zから、ターゲットドメインと関連した特徴(例えば、ターゲットドメインが女性である場合、長髪、化粧)と関連した外貌的な特徴を有するスタイル情報を抽出することを意味できる。
このように、本発明に係るマッピングネットワーク部410は、複数の基準イメージに対するガウス分布から基準イメージ101bに対応するノイズ情報zを抽出し、前記抽出されたノイズ情報zを利用して、基準イメージ101bの外貌スタイルと関連したスタイルコードを生成できる。
前述したように、マッピングネットワーク部410は、前記ノイズ情報に前記第2のグラフィックオブジェクトの外貌スタイルに基づいて分類可能な複数のドメインのうち、いずれか1つのドメイン(または、ターゲットドメイン、特定ドメイン)を基準にスタイルコードを生成できる。したがって、スタイルコードは、前記いずれか1つのドメイン(ターゲットドメイン)によるドメイン特性情報が反映されて存在することができる。
一方、図5に示されたように、スタイルコードは、ドメインを基準に互いに異なるスケール(scale)を有するベクトルで構成されることができる。
例え、図示されてはいないが、マッピングネットワーク400は、学習部をさらに備えることができる。マッピングネットワーク400の学習部は、抽出されたノイズ情報をスタイルコードに変換する学習を行うことができる。
より具体的に、学習部は、抽出されたノイズ情報から、与えられた特定ドメインに対応するスタイル情報が抽出されるようにする学習を行うことができる。
このような学習を介して、マッピングネットワーク部410は、ノイズ情報から前記特定ドメインが有する特徴(例えば、「女性」の特徴)をより正確に反映されるようにするスタイル情報を抽出できる。
すなわち、学習部は、マッピングネットワーク部410が、ノイズ情報から特定ドメイン(ターゲットドメイン)に対してありそうな(確率が高い)スタイル情報を抽出させる学習を進行できる。マッピングネットワーク部410は、特定ドメインに対してありそうなスタイル情報を含むスタイルコードを生成することにより、ソースイメージをより実際に近く変換することができる。
例えば、ターゲットドメインが女性である場合、初期にマッピングネットワーク部410から抽出されたスタイルコードに「ひげ」に対するスタイル情報が含まれた場合、学習を介して、「ひげ」に対するスタイル情報が除外され得る。
一方、マッピングネットワーク400は、ガウス分布内に存在するノイズ情報に基づいてスタイルコードを生成するので、連続する隣接したノイズ情報は、類似したスタイル情報を含むことができる。
したがって、図1において説明したソースイメージ100aに対し、ターゲットドメインを「女性」としてイメージ変換を行う場合、図5において説明した特定ノイズ情報z及びこれと隣接したノイズ情報に基づいて生成されたスタイルコードにより合成されたイメージ610、620、630、640、660は、図6に示されたように、隣り合った合成イメージと互いに類似した外貌スタイルを有することができる。
以上で説明したように、本発明に係るマッピングネットワークシステムは、ノイズ情報から様々なドメインに対するスタイルコードを生成できる。さらに、イメージ生成部110は、このようなスタイルコードを用いて、ソースイメージに対する様々なドメインの変更を行いながら、様々なスタイルを有する合成イメージを生成できる。
一方、以上では、マッピングネットワークシステムを利用してスタイルコードを生成する方法について説明したが、本発明では、スタイルエンコーダを用いて、スタイルコードを生成することも可能である。以下では、スタイルエンコーダを活用してスタイルコードを生成する方法について添付された図面とともにより具体的に説明する。図7及び図8は、本発明に係るスタイルエンコーダを用いてスタイルコードを生成する方法を説明するための概念図である。
前述したように、本発明に係るイメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードを介して、ソースイメージ100aでどのドメインを基準にイメージを変換するかを決定できる。
すなわち、スタイルコードは、特定ドメイン(または、ターゲットドメイン)に対するドメイン特性情報及び前記特定ドメインを基準に抽出されたスタイル情報を含むことができる。一方、スタイルコードに含まれたドメイン特性情報に基づいてソースイメージ100aの変換対象ターゲットドメインが決定される。
このようなスタイルコードは、図7に示されたスタイルエンコーダシステム700から抽出されることができる。イメージ生成部110は、スタイルエンコーダシステム700から抽出されたスタイルコードを用いて、ソースイメージの特定ドメインを、スタイルコードに含まれたドメイン特性情報による特定ドメイン(または、ターゲットドメイン)に変換することができる。
より具体的に、図7に示されたように、スタイルエンコーダシステム700は、スタイルエンコーダ710、入力部720、及び出力部730のうち、少なくとも1つを備えることができる。
スタイルエンコーダ710は、入力部720を介して入力される基準イメージ(701ないし703)から特定ドメイン(または、ターゲットドメイン)を基準にスタイル情報を抽出できる。そして、スタイルエンコーダ部710は、抽出されたスタイル情報及び特定ドメインに対するドメイン特性情報を利用してスタイルコードを生成できる。
スタイルエンコーダ710は、基準イメージ101b(図7の図面符号701ないし706参照)から、基準イメージ101bの外貌スタイルと関連したスタイル情報を抽出できる。
このとき、スタイルエンコーダ710は、基準イメージから、前記基準イメージ101bの外貌スタイルを基に分類可能な複数のドメインのうち、いずれか1つのドメインを基準に前記スタイル情報を抽出できる。ここで、いずれか1つのドメインは、特定ドメインまたはターゲットドメインと命名されることができる。
図8に示された基準イメージ701を例を挙げて説明すれば、スタイルエンコーダ710は、基準イメージ701から、基準イメージ701の外貌スタイルを基に分類可能な複数のドメイン(例えば、女性、黒色の長髪、白色皮膚など)のうち、いずれか少なくとも1つのドメイン(例えば、女性)を基準にスタイル情報を抽出できる。
ここで、基準になるドメインは、前述したように、ターゲットドメインと命名されることができる。スタイルエンコーダ710は、基準イメージ701から互いに異なるターゲットドメインに各々該当するスタイル情報を抽出し、これを利用してスタイルコードを生成できる。
例えば、図8に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「性別」である場合、スタイルエンコーダ710は、基準イメージ701の性別(例えば、「女性」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
このとき、スタイルエンコーダ710は、基準イメージ701から前記特定ドメインが有する特徴(例えば、「女性」の特徴:長髪、化粧)を中心にスタイル情報を抽出できる。
さらに他の例として、図8に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「年齢」である場合、スタイルエンコーダ710は、基準イメージ701の年齢(例えば、「若者」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
このとき、スタイルエンコーダ710は、基準イメージ701から前記特定ドメインが有する特徴(例えば、「若い女性」の特徴:滑らかな皮膚、化粧)を中心にスタイル情報を抽出できる。
また、図示したように、スタイルエンコーダ710は、ヘアカラー、皮膚カラー、ヘアスタイル、顔型など、様々なターゲットドメインを基準に、基準イメージ701からスタイル情報を抽出できる。
そして、このように抽出されたスタイル情報は、基準になるターゲットドメインに該当するドメイン特性情報を含んで、互いに異なるスタイルコードとして生成されることができる。
前述したように、スタイルエンコーダ710は、基準イメージ701の外貌スタイルを基に分類可能な複数のドメイン(例えば、性別、頭髪スタイル等)のうち、いずれか1つのドメイン(または、ターゲットドメイン、特定ドメイン)を基準にスタイルコードを生成できる。したがって、スタイルコードは、前記いずれか1つのドメイン(ターゲットドメイン)によるドメイン特性情報が反映されて存在することができる。一方、図8に示されたように、スタイルコードは、ドメインを基準に互いに異なるスケール(scale)のベクトルで構成されることができる。
以上で説明したように、本発明に係るイメージ生成システムのイメージ生成部は、マッピングネットワークまたはスタイルエンコーダシステムを介して生成されたスタイルコードを用いて、ソースイメージの特定ドメインを基準イメージのターゲットドメインに変更することができる。
一方、本発明に係るイメージ生成システムは、学習を介してイメージ生成の性能を高めることができ、以下では、学習過程について添付された図面とともにより具体的に説明する。図9は、本発明に係るイメージ生成システムを学習する方法を説明するための概念図である。
本発明では、様々な学習アルゴリズムを利用して、イメージ生成システムを学習させることが可能である。イメージ生成部(110、図1参照)は、スタイルコードによるターゲットドメインと区分されない合成イメージを作るようにする学習が進行される。
例えば、図示されてはいないが、本発明に係るイメージ生成システム100は、学習部をおき、様々な学習アルゴリズムを利用してイメージ生成部110に対する学習を行うことができる。イメージ生成部110は、スタイルコードにより定義されるターゲットドメイン(例えば、黒髪)と、さらに類似または同一の合成イメージを生成するように学習されることができる。
一例として、学習部は、識別部(Discriminator、900)を利用して学習を進行できる。識別部900は、ターゲットドメイン(例えば、黒髪)を基準に、合成イメージ201と基準イメージ101bとを比較できる。そして、比較結果に基づいて、識別部900は、合成イメージ201が実際(または、本物)イメージ(real image)であるか、または、作られた偽物イメージ(fake image)であるかを判断できる。
識別部900は、合成イメージ201が実際イメージであると判断された場合、「1」の値を出力し、偽物イメージであると判断された場合、「0」の値を出力できる。
さらに、学習部は、識別部900での比較結果に該当する、合成イメージ201と基準イメージ101との間の差値を用いてイメージ生成部110を学習できる。イメージ生成部110は、前記差値が最小になるようにするイメージを生成するように学習されることができる。
また、例え、図示されてはいないが、スタイルエンコーダシステム700は、学習部をさらに備えることができる。スタイルエンコーダシステム700の学習部は、イメージ生成部110を介して生成された合成イメージから、前記合成イメージのスタイルコードが抽出されるように前記スタイルエンコーダを制御できる。ここで、合成イメージは、スタイルエンコーダ部710により生成されたスタイルコードにより生成されたイメージでありうる。
学習部は、スタイルエンコーダ710により生成されたスタイルコードが反映された合成イメージを利用してスタイルエンコーダ710を学習させることができる。
より具体的に、学習部は、スタイルエンコーダ710に合成イメージを基準イメージとして入力し、合成イメージからスタイルコードを生成できる。このとき、ターゲットドメインは、合成イメージの生成に使用されたスタイルコードのターゲットドメインと同一に設定されることができる。
一方、学習部は、合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)と、合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)とを比較し、比較結果を利用してイメージ生成部110を学習させることができる。すなわち、イメージ生成部110を介して生成された合成イメージにターゲットドメインのスタイル情報が含まれているか判断し、判断結果に基づいてイメージ生成部110が学習される方式である。
前記学習部は、前記比較結果、i)合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)とii)合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)とが互いに相違した場合、i)合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)とii)合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)との差値が最小になるようにイメージ生成部110を学習させることができる。このとき、学習部は、スタイル再構成損失(style reconstruction loss)関数を利用して学習を行うことができる。
一方、以上で説明した学習の方法の他にも、学習部は、様々な損失(loss)関数(例えば、ダイバーシティセンシティブ損失(diversity sensitive loss)関数、サイクル一貫性損失(cycle consistency loss))を利用して本発明に係るイメージ生成システムを学習させることができる。
上述したように、本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法は、ドメインの特性を含むスタイルコードを用いて、スタイルコードに含まれたドメイン特性に該当するドメインを有するイメージを生成できる。
このとき、本発明では、スタイルコードにスタイル情報を含めることにより、スタイルコードだけで生成しようとするイメージのスタイル及びドメインを特定できる。
したがって、本発明によれば、スタイルコードにどのドメインによるドメイン特性が反映されているかによって、生成されるイメージのドメインが様々に定義され得る。
すなわち、本発明では、イメージ生成部に入力されるスタイルコードにドメインの特性を反映することにより、単一のイメージ生成部だけでも互いに異なる様々なドメインに対応する様々なイメージを生成できる。
したがって、本発明によれば、ドメイン毎に別のイメージ生成部を備えなくとも、単一のイメージ生成部だけでも、様々なドメインに対する新しいイメージを生成できるドメイン側面での拡張性を提供できる。
また、本発明は、スタイルコードにどのスタイルによるスタイル情報を含めるかによって、同じドメインに対して互いに異なるスタイルのイメージを生成できる。したがって、本発明は、スタイルコードに含まれるスタイル情報を変更させることだけでも、同じドメインに対する様々なスタイルのイメージを生成することにより、スタイル側面での多様性を提供できる。
一方、上記で説明した本発明は、コンピュータで1つ以上のプロセスによって実行され、このようなコンピュータ読み取り可能な媒体に格納可能なプログラムとして実現されることができる。
さらに、上記で説明した本発明は、プログラムが記録された媒体にコンピュータ読み取り可能なコードまたは命令語として実現することが可能である。すなわち、本発明は、プログラムの形態で提供されることができる。
一方、コンピュータ読み取り可能な媒体は、コンピュータシステムによって読み取られることができるデータが格納されるあらゆる種類の記録装置を含む。コンピュータ読み取り可能な媒体の例では、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、キャリアウェーブ(例えば、インターネットを介しての送信)の形態で実現されることも含む。
さらに、コンピュータ読み取り可能な媒体は、格納所を含み、電子機器が通信を介して接近できるサーバまたはクラウド格納所でありうる。
さらに、本発明では、上記で説明したコンピュータは、プロセッサ、すなわち、CPU(Central Processing Unit、中央処理装置)が搭載された電子機器であって、その種類に対して特別な限定をおかない。
一方、上記の詳細な説明は、あらゆる面において制限的に解釈されてはならず、例示的なことと考慮されなければならない。本発明の範囲は、添付された請求項の合理的解釈により決定されなければならず、本発明の等価的範囲内での全ての変更は本発明の範囲に含まれる。

Claims (16)

  1. 変換の対象になるソースイメージを受信するイメージ入力部と、
    基準イメージの外貌スタイルと関連したスタイルコードを入力するスタイルコード入力部と、
    前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するイメージ生成部と、
    を備え、
    前記基準イメージの外貌スタイルは、前記基準イメージの特定ドメインと関連している、イメージ生成システム。
  2. 前記スタイルコードは、
    前記基準イメージの特定ドメインに対応するドメイン特性情報を含み、
    前記イメージ生成部は、
    前記スタイルコードに基づいて、前記合成イメージが、前記基準イメージの特定ドメインを有するように前記合成イメージを生成する、請求項1に記載のイメージ生成システム。
  3. 前記イメージ生成部は、
    前記ソースイメージの特定ドメインを、前記基準イメージの特定ドメインに変換して前記合成イメージを生成し、
    前記ソースイメージの特定ドメイン及び前記基準イメージの特定ドメインは、互いに対応する外貌的属性である、請求項2に記載のイメージ生成システム。
  4. 前記イメージ生成部は、
    前記ソースイメージの特定ドメインと前記基準イメージの特定ドメインとが互いに異なる場合、
    前記ソースイメージの特定ドメインより、前記基準イメージの特定ドメインを優先して、前記合成イメージのドメインを決定する、請求項3に記載のイメージ生成システム。
  5. スタイルエンコーダをさらに備え、
    前記スタイルエンコーダは、
    前記基準イメージから、前記基準イメージの外貌スタイルと関連したスタイル情報を抽出する、請求項1〜4のいずれか1項に記載のイメージ生成システム。
  6. 前記スタイルエンコーダは、
    前記基準イメージから、前記基準イメージの特定ドメインを基準に前記スタイル情報を抽出し、
    前記スタイル情報及び前記基準イメージの特定ドメインによるドメイン特性情報が含まれた前記スタイルコードを生成する、請求項5に記載のイメージ生成システム。
  7. 前記スタイルコードは、
    前記基準イメージから、複数のドメインのうち、どのドメインを基準に前記基準イメージの外貌スタイルと関連したスタイル情報が抽出されたかによって、互いに異なるベクトル値を有する、請求項5に記載のイメージ生成システム。
  8. マッピングネットワーク部をさらに備え、
    前記マッピングネットワーク部は、
    ガウス分布から抽出されるノイズ情報を利用して、前記基準イメージの特定ドメインと関連した前記スタイルコードを生成する、請求項1〜7のいずれか1項に記載のイメージ生成システム。
  9. 前記マッピングネットワーク部は、
    前記抽出されたノイズ情報から、前記基準イメージの特定ドメインと関連したスタイル情報を抽出する、請求項8に記載のイメージ生成システム。
  10. 前記マッピングネットワーク部は、
    前記抽出されたノイズ情報を利用して、前記基準イメージと関連した複数のドメインの各々に対して互いに異なるスタイルコードを生成し、
    前記基準イメージの特定ドメインは、前記複数のドメインのうち、いずれか1つである、請求項9に記載のイメージ生成システム。
  11. 前記ソースイメージは、
    前記ソースイメージの外貌的正体性を決定する少なくとも1つの外貌特徴部分を含み、
    前記イメージ生成部は、
    前記ソースイメージの外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージに対して前記基準イメージの外貌スタイルを反映する、請求項1〜10のいずれか1項に記載のイメージ生成システム。
  12. 前記ソースイメージ及び前記基準イメージが人に対応する場合、
    前記ソースイメージの前記外貌特徴部分は、
    人の目、鼻、及び口のうち、少なくとも1つに対応し、
    前記基準イメージの外貌スタイルは、
    人の頭髪スタイル、ひげ、年齢、皮膚色、メーキャップのうち、少なくとも1つと関連している、請求項11に記載のイメージ生成システム。
  13. 識別部をさらに備え、
    前記識別部は、
    前記基準イメージを基に、前記合成イメージが、前記基準イメージの特定ドメインに対して、前記イメージ生成部により生成された偽物イメージであるか否かを識別し、
    識別結果、前記合成イメージが偽物イメージと識別された場合、前記基準イメージと前記合成イメージとが偽物イメージとの差値が最小化されるように前記イメージ生成部を学習させる、請求項1〜12のいずれか1項に記載のイメージ生成システム。
  14. 学習部をさらに備え、
    前記学習部は、
    スタイルエンコーダを用いて、前記合成イメージから前記基準イメージの特定ドメインと関連したスタイルコードを抽出し、
    前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとを比較する、請求項1〜13のいずれか1項に記載のイメージ生成システム。
  15. 前記学習部は、
    比較結果、前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとが互いに相違した場合、前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとの差値が最小になるように前記イメージ生成部を学習させる、請求項14に記載のイメージ生成システム。
  16. 変換の対象になるソースイメージを受信するステップと、
    基準イメージの外貌スタイルと関連したスタイルコードを受信するステップと、
    前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するステップと、
    を含み、
    前記基準イメージの外貌スタイルは、前記基準イメージの特定ドメインと関連している、イメージ生成方法。
JP2020169539A 2020-05-29 2020-10-07 イメージ生成システム及びこれを利用したイメージ生成方法 Active JP7224323B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0064860 2020-05-29
KR1020200064860A KR102427484B1 (ko) 2020-05-29 2020-05-29 이미지 생성 시스템 및 이를 이용한 이미지 생성 방법

Publications (2)

Publication Number Publication Date
JP2021190062A true JP2021190062A (ja) 2021-12-13
JP7224323B2 JP7224323B2 (ja) 2023-02-17

Family

ID=78849731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020169539A Active JP7224323B2 (ja) 2020-05-29 2020-10-07 イメージ生成システム及びこれを利用したイメージ生成方法

Country Status (2)

Country Link
JP (1) JP7224323B2 (ja)
KR (1) KR102427484B1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543451B1 (ko) * 2022-04-29 2023-06-13 주식회사 이너버즈 딥 러닝을 이용한 이미지의 특징 추출 및 합성 시스템 및 이의 학습 방법
KR102515436B1 (ko) * 2022-08-01 2023-03-29 주식회사 어썸커머스 인공지능 기반 얼굴 메이크업 처리 방법, 장치 및 시스템
KR102594578B1 (ko) * 2022-11-15 2023-10-27 주식회사 블록버스터랩 게임 런처 운영 시스템 및 방법
WO2024122754A1 (ko) * 2022-12-08 2024-06-13 서울과학기술대학교 산학협력단 영상 스타일 변환 장치 및 방법
KR102636155B1 (ko) * 2023-07-18 2024-02-13 주식회사 젠젠에이아이 콘텐츠 코드를 이용한 이미지 생성 방법 및 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086462A (ja) * 2019-11-28 2021-06-03 株式会社Preferred Networks データ生成方法、データ生成装置、モデル生成方法、モデル生成装置及びプログラム
JP2021111372A (ja) * 2020-01-08 2021-08-02 パロ アルト リサーチ センター インコーポレイテッド 局在編集を用いた合成画像生成のためのシステム及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825219B2 (en) * 2018-03-22 2020-11-03 Northeastern University Segmentation guided image generation with adversarial networks
KR20200034028A (ko) * 2018-09-13 2020-03-31 정형록 인공지능 기반 가상 피팅 시스템 및 방법
KR102211400B1 (ko) * 2019-11-08 2021-02-03 송우상 이미지/텍스트 기반 디자인 생성 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086462A (ja) * 2019-11-28 2021-06-03 株式会社Preferred Networks データ生成方法、データ生成装置、モデル生成方法、モデル生成装置及びプログラム
JP2021111372A (ja) * 2020-01-08 2021-08-02 パロ アルト リサーチ センター インコーポレイテッド 局在編集を用いた合成画像生成のためのシステム及び方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
柳井啓司: ""1章 質感の視覚工学 1−3 深層学習によるスタイル変換"", 映像情報メディア学会誌, vol. 第73巻, 第3号, JPN6021052418, 2019, pages 413 - 417, ISSN: 0004840336 *
金子卓弘, 外2名: ""Conditional Filtered Generative Adversarial Networksを用いた生成的属性制御"", 情報処理学会研究報告, vol. Vol.2017-CVIM-208, No.36, JPN6021052417, 2017, pages 213 - 220, ISSN: 0004840337 *

Also Published As

Publication number Publication date
KR20210147507A (ko) 2021-12-07
JP7224323B2 (ja) 2023-02-17
KR102427484B1 (ko) 2022-08-05

Similar Documents

Publication Publication Date Title
JP2021190062A (ja) イメージ生成システム及びこれを利用したイメージ生成方法
CN110785767B (zh) 紧凑的无语言面部表情嵌入和新颖三元组的训练方案
WO2021254499A1 (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
US10789755B2 (en) Artificial intelligence in interactive storytelling
US10853987B2 (en) Generating cartoon images from photos
US11144597B2 (en) Computer generated emulation of a subject
CN112991160B (zh) 图像处理方法、装置、计算机设备及存储介质
JPWO2018012136A1 (ja) メイクアップ支援装置およびメイクアップ支援方法
CN111260754A (zh) 人脸图像编辑方法、装置和存储介质
WO2024109374A1 (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
US12033264B2 (en) Systems and methods for authoring and managing extended reality (XR) avatars
CN114463827A (zh) 一种基于ds证据理论的多模态实时情绪识别方法及***
Van et al. Interpreting the latent space of generative adversarial networks using supervised learning
CN114240736A (zh) 基于VAE和cGAN的同时生成和编辑任意人脸属性的方法
CN117152308B (zh) 一种虚拟人动作表情优化方法与***
KR102247481B1 (ko) 나이 변환된 얼굴을 갖는 직업영상 생성 장치 및 방법
Na et al. Miso: Mutual information loss with stochastic style representations for multimodal image-to-image translation
KR102334666B1 (ko) 얼굴 이미지 생성 방법
Sun et al. AnyFace++: A unified framework for free-style text-to-face synthesis and manipulation
CN113379594A (zh) 脸型变换模型训练、脸型变换方法及相关装置
Lambiase et al. A two-tier GAN architecture for conditioned expressions synthesis on categorical emotions
Nakashima et al. A Comparison of Cartoon Portrait Generators Based on Generative Adversarial Networks
WO2023208090A1 (en) Method and system for personal identifiable information removal and data processing of human multimedia
Li et al. Egt2i: Exemplar-Guided Text-to-Image Synthesis with Contrastive Learning and Spatial Constraints
CN116524264A (zh) 基于广义零样本学习的图像生成方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201007

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201026

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221129

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221212

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350