JP2018132855A - 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム - Google Patents

画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム Download PDF

Info

Publication number
JP2018132855A
JP2018132855A JP2017024688A JP2017024688A JP2018132855A JP 2018132855 A JP2018132855 A JP 2018132855A JP 2017024688 A JP2017024688 A JP 2017024688A JP 2017024688 A JP2017024688 A JP 2017024688A JP 2018132855 A JP2018132855 A JP 2018132855A
Authority
JP
Japan
Prior art keywords
image
style
network
encoder
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017024688A
Other languages
English (en)
Inventor
啓司 柳井
Keiji Yanai
啓司 柳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Original Assignee
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC filed Critical University of Electro Communications NUC
Priority to JP2017024688A priority Critical patent/JP2018132855A/ja
Publication of JP2018132855A publication Critical patent/JP2018132855A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】リアルタイム処理を可能としつつ、任意のスタイルに変換することのできる、画像スタイル変換技術を提供する。【解決手段】画像スタイル変換装置1は、変換元となる画像を入力する変換元画像入力部101と、スタイル参照用の画像を入力するスタイル参照用画像入力部104と、変換元となる画像を事前の学習結果に基づいて変換後の画像に変換する、畳み込みニューラルネットワークによるエンコーダ・デコーダ・ネットワーク102と、スタイル参照用の画像のスタイルを示すスタイル・ベクトルを抽出する、畳み込みニューラルネットワークによるスタイル抽出ネットワーク105と、スタイル抽出ネットワークにより抽出されたスタイル・ベクトルを、エンコーダ・デコーダ・ネットワークの中間層に結合する結合部108と、エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する変換後画像出力部109とを備える。【選択図】図3

Description

本発明は、画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラムに関する。
絵画等の画像が、その画像に含まれる対象物に対応するコンテンツと、表現の手法に対応するスタイルとに分離可能であることが知られている。そして、畳み込みニューラルネットワーク(Convolutional Neural Networks:CNN)を用いることにより、任意の写真等の画像から、コンテンツを残しつつ、元のスタイルを著名な画家の画風等のスタイルに変換する技術が提案されている(非特許文献1〜4等を参照)。
非特許文献1に開示される技術は、反復処理を必要とすることから、画像1枚についての処理時間が長く(例:5分程度)、リアルタイムの処理は困難であった。
非特許文献2に開示される技術は、フィードフォワード処理により処理時間を短縮し、リアルタイムの処理を可能としているが、学習された1種類のスタイルについてしか適用できないものであった。
非特許文献3に開示される技術は、リアルタイム処理を可能としつつ、30種類程度の学習済のスタイルからスタイルを選択可能としているが、任意のスタイルに変換することはできなかった。
非特許文献4に開示される技術は、コンテンツ特徴とスタイル特徴から変換後の画像の特徴マップを生成し、事前に学習した逆変換ネットワークによって特徴マップから画像を復元することで、スタイルが入れ替わった画像を得ている。しかし、特徴マップの生成に若干時間がかかり(1秒程度)、高速ではあるが厳密なリアルタイム処理は難しい。また、本来難しい逆変換が行われているため、生成される画像のクオリティーを高めるのは困難である。
L. A. Gatys et al.: Image style transfer using convolutional neural networks, CVPR, 2016. (ArXiv:1508.06576, 2015/08) J. Johnson et al.: Perceptual Losses for Real-Time Style Transfer and Super-Resolution, ECCV, 2016. (ArXiv: 1603.08155) V. Dumoulin et al.: A Learned Representation for Artistic Style, ArXiv 1610.07629, 2016/10. Tian Qi Chen et al.: Fast Patch-based Style Transfer of Arbitrary Style, arXiv 1612.04337v1 [cs.CV] 13 Dec 2016.
上述したように、従来、リアルタイム処理を可能としつつ、任意のスタイルに変換することは困難であり、その解決が要望されていた。
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、リアルタイム処理を可能としつつ、任意のスタイルに変換することのできる、画像スタイル変換技術を提供することにある。
上記の課題を解決するため、本発明にあっては、変換元となる画像を入力する第1の画像入力部と、スタイル参照用の画像を入力する第2の画像入力部と、前記第1の画像入力部により入力された変換元となる画像を、事前の学習結果に基づいて変換後の画像に変換する、畳み込みニューラルネットワークによるエンコーダ・デコーダ・ネットワークと、前記第2の画像入力部により入力されたスタイル参照用の画像のスタイルを示すスタイル・ベクトルを抽出する、畳み込みニューラルネットワークによるスタイル抽出ネットワークと、前記スタイル抽出ネットワークにより抽出されたスタイル・ベクトルを、前記エンコーダ・デコーダ・ネットワークの中間層に結合する結合部と、前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する画像出力部とを備える。
本発明にあっては、リアルタイム処理を可能としつつ、任意のスタイルに変換することができる。
本発明の一実施形態にかかる画像スタイル変換装置の学習時における機能構成例を示す図(その1)である。 本発明の一実施形態にかかる画像スタイル変換装置の学習時における機能構成例を示す図(その2)である。 本発明の一実施形態にかかる画像スタイル変換装置の変換時における機能構成例を示す図(その1)である。 本発明の一実施形態にかかる画像スタイル変換装置の変換時における機能構成例を示す図(その2)である。 本発明の一実施形態にかかる画像スタイル変換装置の変換時における機能構成例を示す図(その3)である。 画像スタイル変換装置のハードウェア構成例を示す図である。 学習時の処理例を示すフローチャートである。 変換時の処理例を示すフローチャート(その1)である。 変換元画像、スタイル参照画像および変換後画像の例を示す図である。 変換時の処理例を示すフローチャート(その2)である。
以下、本発明の好適な実施形態につき説明する。
<構成>
図1は本発明の一実施形態にかかる画像スタイル変換装置1の学習時における機能構成例を示す図である。図1において、画像スタイル変換装置1は、変換元画像入力部101とエンコーダ・デコーダ・ネットワーク102とロス・ネットワーク103とを備えている。また、画像スタイル変換装置1は、スタイル参照用画像入力部104とスタイル抽出ネットワーク105と圧縮部106と複製部107と結合部108とを備えている。
変換元画像入力部101は、学習用の変換元画像(例えば、8万枚程度)を逐次に入力する機能を有している。学習用の変換元画像は、変換時に与えられる可能性のある変換元画像をカバーできるような、偏りのない広範な画像が選ばれる。
エンコーダ・デコーダ・ネットワーク102は、変換元画像入力部101により入力された変換元画像に対して変換を行い、変換後画像を出力する機能を有している。エンコーダ・デコーダ・ネットワーク102は、畳み込みニューラルネットワークによる複数のエンコード層(畳み込み層)convと、複数のデコード層deconvとを有している。また、複数のエンコード層とデコード層の中間に、複製後スタイル・ベクトルが結合される結合層Lcと、その直後にデータ(Feature Maps)のサイズが結合前のサイズに戻される調整層Ltとが設けられている。各エンコード層は、1以上の畳み込み処理部と、プーリング処理部とを有し、各層の結果のデータ(Feature Maps)が内部的に保持される。各デコード層は、エンコード層と逆方向の変換を行う。結合層Lcと調整層Ltは、例えば、図示のようにエンコード層とデコード層の繋ぎ目に設けられるものでもよいし、繋ぎ目よりも前のエンコード層の途中に設けられるものでもよい。
ロス・ネットワーク103は、学習済の畳み込みニューラルネットワークによるものであり、評価対象の画像と、コンテンツ参照用の画像と、スタイル参照用の画像とを入力する。そして、ロス・ネットワーク103は、評価対象の画像のコンテンツとコンテンツ参照用の画像のコンテンツとの差異(コンテンツ・ロス)と、評価対象の画像のスタイルとスタイル参照用の画像のスタイルとの差異(スタイル・ロス)とを出力する機能を有している。コンテンツ・ロスとスタイル・ロスはエンコーダ・デコーダ・ネットワーク102にフィードバックされ、コンテンツ・ロスとスタイル・ロスが最小となるようにバックプロパゲーションにより最適化が行われる。
ロス・ネットワーク103において、コンテンツについては、例えば、畳み込みニューラルネットワークのいずれかの中間層のデータが比較に用いられる。スタイルについては、例えば、畳み込みニューラルネットワークの複数の中間層のデータのチャンネル相関により得られるグラム行列(Gram Matrix)が比較に用いられる。スタイルについては、チャンネル相関に代えて、各チャンネルの平均、分散等の、特徴マップ(Feature Maps)のチャンネルに関する分布統計量が用いられてもよい。評価対象の画像にはエンコーダ・デコーダ・ネットワーク102の出力が用いられる。コンテンツ参照用の画像は変換元画像入力部101により入力された変換元画像が用いられる。スタイル参照用の画像はスタイル参照用画像入力部104により入力されたスタイル参照用画像が用いられる。
スタイル参照用画像入力部104は、学習用のスタイル参照用画像(例えば、5千枚程度)を逐次に入力する機能を有している。学習用のスタイル参照用画像は、変換時に与えられる可能性のあるスタイル参照用画像をカバーできるような、偏りのない広範な画像が選ばれる。
スタイル抽出ネットワーク105は、ロス・ネットワーク103と同様に、学習済の畳み込みニューラルネットワークによるものである。スタイル抽出ネットワーク105は、入力されたスタイル参照用画像からスタイルを示すデータを抽出し、スタイル・ベクトルとして出力する機能を有している。スタイルを示すデータは、複数の中間層のデータのチャンネル相関により得られるグラム行列のほか、各チャンネルの平均、分散等の、特徴マップ(Feature Maps)のチャンネルに関する分布統計量が用いられる。スタイル・ベクトルについて解説した文献として、「Shin Matsuo and Keiji Yanai: CNN-based Style Vector for Style Image Retrieval, ICMR (2016/06).」がある。分布統計量によるスタイルの表現について言及した文献として、「Yanghao Liy et al.: Demystifying Neural Style Transfer, arXiv 1701.01036v1 [cs.CV] 4 Jan 2017.」がある。
圧縮部106は、スタイル抽出ネットワーク105から出力されるスタイル・ベクトルを、スタイルの特徴を損なわずに圧縮する機能を有している。具体的には、主成分分析(Principal Component Analysis:PCA)や非負行列因子分解法(Non-negative Matrix Factorization:NMF)が用いられる。学習済のニューラルネットワークが用いられてもよい。PCAとNMFとの比較では、実験上、非負の重みが得られるNMFの方が良い結果が得られているが、NMFは反復計算のために若干計算時間が掛るため、PCAの方が高速処理(変換時にはリアルタイム処理)には向いていると考えられる。
複製部107は、圧縮部106により得られた圧縮後スタイル・ベクトルを結合時のサイズ(ピクセル数に対応)に合わせて複製する機能を有している。
結合部108は、複製部107により得られた複製後スタイル・ベクトルをエンコーダ・デコーダ・ネットワーク102の中間層である結合層Lcに結合(concatenation)する機能を有している。結合は、例えば、結合層Lcの直前のデコード層のデータ(Feature Maps)の奥行き方向にデータが追加されることで行われる。
なお、スタイル・ベクトルがエンコーダ・デコーダ・ネットワーク102の中間層のデータに結合されることが重要であり、圧縮部106や複製部107は副次的なものである。例えば、スタイル抽出ネットワーク105において、結合部108において直接に結合できる形式のスタイル・ベクトルを出力する場合には、圧縮部106や複製部107を省略することもできる。
図2は本発明の一実施形態にかかる画像スタイル変換装置1の学習時における他の機能構成例を示す図である。図2では、スタイル抽出ネットワーク105がニューラルネットワークにより構成され、圧縮後と同等のスタイル情報が出力されるようになっており、圧縮部106は省略されている。また、スタイル抽出ネットワーク105には、エンコーダ・デコーダ・ネットワーク102と同様に、ロス・ネットワーク103からコンテンツ・ロスとスタイル・ロスがフィードバックされ、ランダムな初期値の状態から同時に一体的に学習(End-to-End学習)が行われる。
図3は本発明の一実施形態にかかる画像スタイル変換装置1の変換時における機能構成例を示す図であり、図1に示した構成のうち変換時において用いられる構成である。図3において、図1の構成と比較して、ロス・ネットワーク103がなくなっている点と、エンコーダ・デコーダ・ネットワーク102により変換された画像を変換後画像として外部に出力する変換後画像出力部109が設けられている点が異なる。また、変換元画像入力部101により入力される変換元画像は変換の対象となる1枚の画像となり、スタイル参照用画像入力部104により入力されるスタイル参照用画像は流用したいスタイルを示す1枚の画像となる。入力される変換元画像やスタイル参照用画像は学習時に用いられた画像である必要はなく、任意の画像でよい。
図4は本発明の一実施形態にかかる画像スタイル変換装置1の変換時における機能構成例を示す図であり、図2に示した構成のうち変換時において用いられる構成である。図4において、図2の構成と比較して、ロス・ネットワーク103がなくなっている点と、エンコーダ・デコーダ・ネットワーク102により変換された画像を変換後画像として外部に出力する変換後画像出力部109が設けられている点が異なる。また、変換元画像入力部101により入力される変換元画像は変換の対象となる1枚の画像となり、スタイル参照用画像入力部104により入力されるスタイル参照用画像は流用したいスタイルを示す1枚の画像となる。入力される変換元画像やスタイル参照用画像は学習時に用いられた画像である必要はなく、任意の画像でよい。
図5は本発明の一実施形態にかかる画像スタイル変換装置1の変換時における他の機能構成例を示す図であり、スタイル参照用画像の入力に代え、ユーザ操作によりスタイル設定の入力が行われるようにしたものである。
図5において、図3の構成と比較して、スタイル参照用画像入力部104とスタイル抽出ネットワーク105がなくなっている点と、スタイル設定入力部110とスタイル・ベクトル生成部111とが設けられている点が異なる。スタイル設定入力部110は、例えば、スタイル・ベクトルの各要素に対応したスライダ等を備えたユーザインタフェースにより、スタイル設定を入力させる。スタイル・ベクトル生成部111は、スタイル設定入力部110により入力されたスタイル設定に基づいてスタイル・ベクトルを生成する。
また、図4の構成に対応させて、スタイル・ベクトル生成部111によりスタイル抽出ネットワーク105の出力するスタイル情報と同等の情報量のスタイル・ベクトルが生成されるようにすることで、圧縮部106が省略可能である。
なお、変換時の実装として、図3〜図5における変換元画像入力部101、スタイル参照用画像入力部104、スタイル設定入力部110、変換後画像出力部109をスマートフォン等のクライアント端末に設けることができる。また、画像スタイル変換装置1の他の機能をクラウド上のサーバに配置し、クライアント端末とサーバの間で入出力データの送受信機能を持たせる。これにより、モバイル環境での画像スタイル変換を実現することができる。
図6は画像スタイル変換装置1のハードウェア構成例を示す図である。図6において、画像スタイル変換装置1は、バス17を介して相互に接続されたCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)/SSD(Solid State Drive)14を備えている。また、画像スタイル変換装置1は、接続I/F(Interface)15、通信I/F16を備えている。
CPU11は、RAM13をワークエリアとしてROM12またはHDD/SSD14等に格納されたプログラムを実行することで、画像スタイル変換装置1の動作を統括的に制御する。図1〜図5で説明した画像スタイル変換装置1の機能は、CPU11において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。
<動作>
図7は学習時の処理例を示すフローチャートであり、図1の構成における動作である。図7において、管理者の指示等に応じて学習が開始されると、変換元画像入力部101とスタイル参照用画像入力部104は、変換元画像とスタイル参照用画像をそれぞれ入力する。そして、変換元画像とスタイル参照用画像の各組み合わせについて以下のループ処理が行われる(ステップS11〜S15)。
ループ処理において、スタイル抽出ネットワーク105は入力されたスタイル参照用画像からスタイル・ベクトルを抽出する。そして、圧縮部106はスタイル・ベクトルを圧縮し、複製部107は圧縮後スタイル・ベクトルを複製して複製後スタイル・ベクトルを生成する(ステップS12)。
次いで、エンコーダ・デコーダ・ネットワーク102は入力された変換元画像を変換するが、その過程で、結合部108はエンコーダ・デコーダ・ネットワーク102の中間層に複製後スタイル・ベクトルを結合する(ステップS13)。
次いで、ロス・ネットワーク103はエンコーダ・デコーダ・ネットワーク102の出力画像と変換元画像とスタイル参照用画像とからコンテンツ・ロスとスタイル・ロスを計算する。そして、コンテンツ・ロスとスタイル・ロスはエンコーダ・デコーダ・ネットワーク102にフィードバックされ、バックプロパゲーションが実施される(ステップS14)。
その後、変換元画像とスタイル参照用画像の全ての組み合わせについて未処理の場合はループ処理が継続され、全ての組み合わせについて処理が行われた場合はループ処理が終了され(ステップS15)、学習処理が終了される。
図2の構成については、ステップS12において明示的な圧縮が行われない点と、ステップS14において、スタイル抽出ネットワーク105についても同時にバックプロパゲーションによる学習が実施される点が異なる。
以上の処理により、用意された多数の変換元画像とスタイル参照用画像について、変換元画像のコンテンツを残しつつ、スタイル参照用画像のスタイルが適用された画像へ変換する変換器としてエンコーダ・デコーダ・ネットワーク102が学習される。
図8は変換時の処理例を示すフローチャートであり、図3の構成における動作である。図8において、ユーザの指示等に応じて変換処理が開始されると、変換元画像入力部101とスタイル参照用画像入力部104は変換元画像とスタイル参照用画像をそれぞれ入力する(ステップS21)。
次いで、スタイル抽出ネットワーク105は入力されたスタイル参照用画像からスタイル・ベクトルを抽出する。そして、圧縮部106はスタイル・ベクトルを圧縮し、複製部107は圧縮後スタイル・ベクトルを複製して複製後スタイル・ベクトルを生成する(ステップS22)。
次いで、エンコーダ・デコーダ・ネットワーク102は入力された変換元画像を変換するが、その過程で、結合部108はエンコーダ・デコーダ・ネットワーク102の中間層に複製後スタイル・ベクトルを結合する(ステップS23)。
次いで、変換後画像出力部109はエンコーダ・デコーダ・ネットワーク102から出力される画像についてフォーマット変換等を行い、変換後画像として外部に出力し(ステップS24)、変換処理が終了される。
図4の構成については、ステップS22において明示的な圧縮が行われない点が異なる。
以上の変換処理において、エンコーダ・デコーダ・ネットワーク102による画像変換は一方向に流れる処理で完了するため、高速なリアルタイム処理が可能となる。また、任意に与えられるスタイル参照用画像のスタイルを考慮した変換が可能となる。概念的には、学習時における多数のスタイル参照用画像のスタイルが融合された形で、任意に与えられるスタイル参照用画像のスタイルに近似されて適用される。
図9は変換の例を示しており、(a)は変換元画像、(b)はスタイル参照用画像(出典:https://www.wikiart.org/en/vincent-van-gogh/the-starry-night-1889)、(c)は変換後画像を示している。すなわち、(a)の変換元画像のコンテンツ(山と道の風景)に(b)のスタイル参照用画像のスタイル(画風)が適用された変換後画像が(c)のように得られる。
また、スタイルとしては、絵画における画風に限らず、質感等でもよい。例えば、変換元画像のコンテンツを「野球のボール」とし、スタイル参照用画像のスタイルを「岩石の質感を示す画像」とすると、変換元画像の野球のボールの表面が岩石の質感に置き換えられた変換後画像が得られる。
図10は変換時の他の処理例を示すフローチャートであり、図5の構成における動作である。図10において、ユーザの指示等に応じて変換処理が開始されると、スタイル設定入力部110はユーザからスタイル設定を入力する(ステップS31)。
次いで、変換元画像入力部101は変換元画像を入力する(ステップS32)。なお、ユーザの操作としては、変換元画像の指定がスタイル設定の入力より先でもよい。
次いで、スタイル・ベクトル生成部111は、スタイル設定入力部110により入力されたスタイル設定からスタイル・ベクトルを生成する。そして、圧縮部106はスタイル・ベクトルを圧縮し、複製部107は圧縮後スタイル・ベクトルを複製して複製後スタイル・ベクトルを生成する(ステップS33)。
次いで、エンコーダ・デコーダ・ネットワーク102は入力された変換元画像を変換するが、その過程で、結合部108はエンコーダ・デコーダ・ネットワーク102の中間層に複製後スタイル・ベクトルを結合する(ステップS34)。
次いで、変換後画像出力部109はエンコーダ・デコーダ・ネットワーク102から出力される画像についてフォーマット変換等を行い、変換後画像として外部に出力し(ステップS35)、変換処理が終了される。
図4の構成に対応して、図5の構成から圧縮部106が省略される場合、ステップS33において明示的な圧縮は行われない。
以上の変換処理では、特にスタイル参照用画像を用意しなくても、ユーザがスライダ等のユーザインタフェースを操作することで、任意のスタイルによる所望の変換後画像を行わせることができる。
<総括>
以上説明したように、本実施形態によれば、リアルタイム処理を可能としつつ、任意のスタイルに変換することができる。
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
1 画像スタイル変換装置
101 変換元画像入力部
102 エンコーダ・デコーダ・ネットワーク
103 ロス・ネットワーク
104 スタイル参照用画像入力部
105 スタイル抽出ネットワーク
106 圧縮部
107 複製部
108 結合部
109 変換後画像出力部
110 スタイル設定入力部
111 スタイル・ベクトル生成部

Claims (9)

  1. 変換元となる画像を入力する第1の画像入力部と、
    スタイル参照用の画像を入力する第2の画像入力部と、
    前記第1の画像入力部により入力された変換元となる画像を、事前の学習結果に基づいて変換後の画像に変換する、畳み込みニューラルネットワークによるエンコーダ・デコーダ・ネットワークと、
    前記第2の画像入力部により入力されたスタイル参照用の画像のスタイルを示すスタイル・ベクトルを抽出する、畳み込みニューラルネットワークによるスタイル抽出ネットワークと、
    前記スタイル抽出ネットワークにより抽出されたスタイル・ベクトルを、前記エンコーダ・デコーダ・ネットワークの中間層に結合する結合部と、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する画像出力部と
    を備えたことを特徴とする画像スタイル変換装置。
  2. 変換元となる画像を入力する画像入力部と、
    前記画像入力部により入力された変換元となる画像を、事前の学習結果に基づいて変換後の画像に変換する、畳み込みニューラルネットワークによるエンコーダ・デコーダ・ネットワークと、
    ユーザ設定に応じてスタイルを示すスタイル・ベクトルを生成するスタイル・ベクトル生成部と、
    前記スタイル・ベクトル生成部により生成されたスタイル・ベクトルを、前記エンコーダ・デコーダ・ネットワークの中間層に結合する結合部と、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する画像出力部と
    を備えたことを特徴とする画像スタイル変換装置。
  3. 前記結合部に与えられるスタイル・ベクトルを圧縮する圧縮部を備え、
    前記結合部は、圧縮後のスタイル・ベクトルを前記エンコーダ・デコーダ・ネットワークの中間層に結合する
    ことを特徴とする請求項1または2に記載の画像スタイル変換装置。
  4. 前記圧縮部は、主成分分析、非負行列因子分解法、または、ニューラルネットワークにより、スタイル・ベクトルを圧縮する
    ことを特徴とする請求項3に記載の画像スタイル変換装置。
  5. 前記圧縮後のスタイル・ベクトルを複製する複製部を備え、
    前記結合部は、複製後のスタイル・ベクトルを前記エンコーダ・デコーダ・ネットワークの中間層に結合する
    ことを特徴とする請求項3または4に記載の画像スタイル変換装置。
  6. 変換元となる画像およびスタイル参照用の画像を入力し、
    入力された前記スタイル参照用の画像のスタイルを示すスタイル・ベクトルを、畳み込みニューラルネットワークのスタイル抽出ネットワークにより抽出し、
    抽出された前記スタイル・ベクトルを、畳み込みニューラルネットワークのエンコーダ・デコーダ・ネットワークの中間層に結合し、
    入力された前記変換元となる画像を、前記エンコーダ・デコーダ・ネットワークにより、事前の学習結果に基づいて変換後の画像に変換し、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する、
    処理をコンピュータが実行することを特徴とする画像スタイル変換方法。
  7. 変換元となる画像を入力し、
    ユーザ設定に応じてスタイルを示すスタイル・ベクトルを生成し、
    生成された前記スタイル・ベクトルを、畳み込みニューラルネットワークのエンコーダ・デコーダ・ネットワークの中間層に結合し、
    入力された前記変換元となる画像を、前記エンコーダ・デコーダ・ネットワークにより、事前の学習結果に基づいて変換後の画像に変換し、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する、
    処理をコンピュータが実行することを特徴とする画像スタイル変換方法。
  8. 変換元となる画像およびスタイル参照用の画像を入力し、
    入力された前記スタイル参照用の画像のスタイルを示すスタイル・ベクトルを、畳み込みニューラルネットワークのスタイル抽出ネットワークにより抽出し、
    抽出された前記スタイル・ベクトルを、畳み込みニューラルネットワークのエンコーダ・デコーダ・ネットワークの中間層に結合し、
    入力された前記変換元となる画像を、前記エンコーダ・デコーダ・ネットワークにより、事前の学習結果に基づいて変換後の画像に変換し、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する、
    処理をコンピュータに実行させることを特徴とする画像スタイル変換プログラム。
  9. 変換元となる画像を入力し、
    ユーザ設定に応じてスタイルを示すスタイル・ベクトルを生成し、
    生成された前記スタイル・ベクトルを、畳み込みニューラルネットワークのエンコーダ・デコーダ・ネットワークの中間層に結合し、
    入力された前記変換元となる画像を、前記エンコーダ・デコーダ・ネットワークにより、事前の学習結果に基づいて変換後の画像に変換し、
    前記エンコーダ・デコーダ・ネットワークから変換後の画像を取得して出力する、
    処理をコンピュータに実行させることを特徴とする画像スタイル変換プログラム。
JP2017024688A 2017-02-14 2017-02-14 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム Pending JP2018132855A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017024688A JP2018132855A (ja) 2017-02-14 2017-02-14 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017024688A JP2018132855A (ja) 2017-02-14 2017-02-14 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム

Publications (1)

Publication Number Publication Date
JP2018132855A true JP2018132855A (ja) 2018-08-23

Family

ID=63248892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017024688A Pending JP2018132855A (ja) 2017-02-14 2017-02-14 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム

Country Status (1)

Country Link
JP (1) JP2018132855A (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109444604A (zh) * 2018-12-13 2019-03-08 武汉理工大学 一种基于卷积神经网络的dc/dc变换器故障诊断方法
CN109872272A (zh) * 2019-01-30 2019-06-11 天津大学 一种基于实例正规化网络生成器的图像风格转换方法
KR20190138438A (ko) * 2018-06-05 2019-12-13 네이버 주식회사 모바일 환경에서 실시간 추론이 가능한 dnn 구성을 위한 최적화 기법
CN110599395A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
CN110874841A (zh) * 2018-09-04 2020-03-10 斯特拉德视觉公司 参照边缘图像的客体检测方法及装置
WO2020057492A1 (zh) * 2018-09-19 2020-03-26 北京金山办公软件股份有限公司 图像压缩、解压缩方法、装置、电子设备及存储介质
WO2020130747A1 (ko) * 2018-12-21 2020-06-25 삼성전자 주식회사 스타일 변환을 위한 영상 처리 장치 및 방법
WO2020180105A1 (en) * 2019-03-05 2020-09-10 Samsung Electronics Co., Ltd. Electronic device and control method thereof
CN111651969A (zh) * 2019-03-04 2020-09-11 微软技术许可有限责任公司 样式迁移
CN111753859A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备
KR102197653B1 (ko) * 2019-08-08 2021-01-04 네이버웹툰 유한회사 스케치-라인 변환 방법, 시스템 및 프로그램
KR102229572B1 (ko) * 2019-11-28 2021-03-18 영남대학교 산학협력단 영상 스타일 변환 장치 및 방법
CN112740645A (zh) * 2018-10-12 2021-04-30 三星电子株式会社 显示装置、服务器及其控制方法
WO2021145635A1 (ko) * 2020-01-13 2021-07-22 (주)에스프레소미디어 Ai 기반 이미지 스타일 학습 및 공유 시스템
CN113888400A (zh) * 2021-11-04 2022-01-04 大连理工大学 一种图像风格迁移方法及装置
JP2022501688A (ja) * 2019-08-22 2022-01-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 画像処理方法及び装置、電子機器並びに記憶媒体
CN113989102A (zh) * 2021-10-19 2022-01-28 复旦大学 一种具有高保形性的快速风格迁移方法
JP2022512340A (ja) * 2019-06-24 2022-02-03 センスタイム グループ リミテッド 画像生成及びニューラルネットワーク訓練方法、装置、機器並びに媒体
JP2022525552A (ja) * 2019-03-18 2022-05-17 グーグル エルエルシー 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン
JP2022530518A (ja) * 2019-04-29 2022-06-29 センスタイム グループ リミテッド 画像生成方法及び装置、電子機器並びに記憶媒体
JP2022534884A (ja) * 2019-05-21 2022-08-04 コオダットゥデイ インク 認識領域のスタイルを変換するシステム及び方法
US11625886B2 (en) 2020-03-30 2023-04-11 Brother Kogyo Kabushiki Kaisha Storage medium storing program, training method of machine learning model, and image generating apparatus
KR20230137075A (ko) * 2022-03-21 2023-10-04 한국기술교육대학교 산학협력단 스타일 전이를 이용한 실시간 작품 생성 시스템 및 그 방법
WO2024024727A1 (ja) * 2022-07-26 2024-02-01 株式会社Preferred Networks 画像処理装置、画像表示装置、画像処理方法、画像表示方法及びプログラム
WO2024066549A1 (zh) * 2022-09-29 2024-04-04 华为技术有限公司 一种数据处理方法及相关设备

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190138438A (ko) * 2018-06-05 2019-12-13 네이버 주식회사 모바일 환경에서 실시간 추론이 가능한 dnn 구성을 위한 최적화 기법
KR102096388B1 (ko) 2018-06-05 2020-04-06 네이버 주식회사 모바일 환경에서 실시간 추론이 가능한 dnn 구성을 위한 최적화 기법
CN110874841B (zh) * 2018-09-04 2023-08-29 斯特拉德视觉公司 参照边缘图像的客体检测方法及装置
CN110874841A (zh) * 2018-09-04 2020-03-10 斯特拉德视觉公司 参照边缘图像的客体检测方法及装置
JP2020038658A (ja) * 2018-09-04 2020-03-12 株式会社ストラドビジョン エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
WO2020057492A1 (zh) * 2018-09-19 2020-03-26 北京金山办公软件股份有限公司 图像压缩、解压缩方法、装置、电子设备及存储介质
CN112740645A (zh) * 2018-10-12 2021-04-30 三星电子株式会社 显示装置、服务器及其控制方法
CN112740645B (zh) * 2018-10-12 2023-01-24 三星电子株式会社 服务器、控制服务器的方法及可读记录介质
CN109444604A (zh) * 2018-12-13 2019-03-08 武汉理工大学 一种基于卷积神经网络的dc/dc变换器故障诊断方法
US11887215B2 (en) 2018-12-21 2024-01-30 Samsung Electronics Co., Ltd. Image processing apparatus and method for style transformation
WO2020130747A1 (ko) * 2018-12-21 2020-06-25 삼성전자 주식회사 스타일 변환을 위한 영상 처리 장치 및 방법
CN109872272A (zh) * 2019-01-30 2019-06-11 天津大学 一种基于实例正规化网络生成器的图像风格转换方法
CN111651969A (zh) * 2019-03-04 2020-09-11 微软技术许可有限责任公司 样式迁移
CN111651969B (zh) * 2019-03-04 2023-10-27 微软技术许可有限责任公司 样式迁移
US11238630B2 (en) 2019-03-05 2022-02-01 Samsung Electronics Co., Ltd. Electronic device for generating an image based on a style of another image and control method thereof
WO2020180105A1 (en) * 2019-03-05 2020-09-10 Samsung Electronics Co., Ltd. Electronic device and control method thereof
KR102586014B1 (ko) 2019-03-05 2023-10-10 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR20200106657A (ko) * 2019-03-05 2020-09-15 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
JP2022525552A (ja) * 2019-03-18 2022-05-17 グーグル エルエルシー 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン
JP7504120B2 (ja) 2019-03-18 2024-06-21 グーグル エルエルシー 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン
CN111753859B (zh) * 2019-03-26 2024-03-26 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备
CN111753859A (zh) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 样本生成方法、装置及设备
JP2022530518A (ja) * 2019-04-29 2022-06-29 センスタイム グループ リミテッド 画像生成方法及び装置、電子機器並びに記憶媒体
JP7394147B2 (ja) 2019-04-29 2023-12-07 センスタイム グループ リミテッド 画像生成方法及び装置、電子機器並びに記憶媒体
US11900648B2 (en) 2019-04-29 2024-02-13 Sensetime Group Limited Image generation method, electronic device, and storage medium
JP2022534884A (ja) * 2019-05-21 2022-08-04 コオダットゥデイ インク 認識領域のスタイルを変換するシステム及び方法
JP7220011B2 (ja) 2019-05-21 2023-02-09 コオダットゥデイ インク 認識領域のスタイルを変換するシステム及び方法
JP2022512340A (ja) * 2019-06-24 2022-02-03 センスタイム グループ リミテッド 画像生成及びニューラルネットワーク訓練方法、装置、機器並びに媒体
KR102197653B1 (ko) * 2019-08-08 2021-01-04 네이버웹툰 유한회사 스케치-라인 변환 방법, 시스템 및 프로그램
JP2022501688A (ja) * 2019-08-22 2022-01-06 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 画像処理方法及び装置、電子機器並びに記憶媒体
CN110599395B (zh) * 2019-09-17 2023-05-12 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
CN110599395A (zh) * 2019-09-17 2019-12-20 腾讯科技(深圳)有限公司 目标图像生成方法、装置、服务器及存储介质
KR102229572B1 (ko) * 2019-11-28 2021-03-18 영남대학교 산학협력단 영상 스타일 변환 장치 및 방법
WO2021145635A1 (ko) * 2020-01-13 2021-07-22 (주)에스프레소미디어 Ai 기반 이미지 스타일 학습 및 공유 시스템
US11625886B2 (en) 2020-03-30 2023-04-11 Brother Kogyo Kabushiki Kaisha Storage medium storing program, training method of machine learning model, and image generating apparatus
CN113989102A (zh) * 2021-10-19 2022-01-28 复旦大学 一种具有高保形性的快速风格迁移方法
CN113888400B (zh) * 2021-11-04 2024-04-26 大连理工大学 一种图像风格迁移方法及装置
CN113888400A (zh) * 2021-11-04 2022-01-04 大连理工大学 一种图像风格迁移方法及装置
KR102599170B1 (ko) 2022-03-21 2023-11-06 한국기술교육대학교 산학협력단 스타일 전이를 이용한 실시간 작품 생성 시스템 및 그 방법
KR20230137075A (ko) * 2022-03-21 2023-10-04 한국기술교육대학교 산학협력단 스타일 전이를 이용한 실시간 작품 생성 시스템 및 그 방법
WO2024024727A1 (ja) * 2022-07-26 2024-02-01 株式会社Preferred Networks 画像処理装置、画像表示装置、画像処理方法、画像表示方法及びプログラム
WO2024066549A1 (zh) * 2022-09-29 2024-04-04 华为技术有限公司 一种数据处理方法及相关设备

Similar Documents

Publication Publication Date Title
JP2018132855A (ja) 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム
US20210160556A1 (en) Method for enhancing resolution of streaming file
Zeng et al. Learning image-adaptive 3d lookup tables for high performance photo enhancement in real-time
JP7185014B2 (ja) モデルトレーニング方法、機械翻訳方法、コンピュータ装置及びプログラム
Chen et al. Fsrnet: End-to-end learning face super-resolution with facial priors
EP3901829A1 (en) Data processing method and device, storage medium, and electronic device
JP7026262B2 (ja) ニューラルネットワークモデルのトレーニング、タイムラプス撮影ビデオの生成方法及び装置
JP2022503647A (ja) クロスドメイン画像変換
JP2020010331A (ja) 画質を向上させる方法
JP2019114227A (ja) 映像の相互作用処理方法、相互作用処理装置、学習方法、学習装置及びコンピュータプログラム
CN111402399A (zh) 人脸驱动和直播方法、装置、电子设备及存储介质
WO2023151529A1 (zh) 人脸图像的处理方法及相关设备
WO2022262660A1 (zh) 针对超分辨率网络的剪枝量化压缩方法、***及介质
WO2023050720A1 (zh) 图像处理方法、图像处理装置、模型训练方法
Zhu et al. A semantic-aware transmission with adaptive control scheme for volumetric video service
KR102130076B1 (ko) 특징 영역의 학습 중요도를 바탕으로 스트리밍 파일의 해상도를 개선하는 방법
CN113297933A (zh) 一种图像生成方法及相关装置
WO2023098688A1 (zh) 图像编解码方法和装置
Zhang et al. GI-AEE: GAN inversion based attentive expression embedding network for facial expression editing
WO2021037174A1 (zh) 一种神经网络模型训练方法及装置
EP4275152A1 (en) Method of training a neural network configured for converting 2d images into 3d models
CN111553961B (zh) 线稿对应色图的获取方法和装置、存储介质和电子装置
KR20220021495A (ko) Ai에 기반하여 스트리밍 파일의 해상도를 개선하는 방법
KR20220070866A (ko) 딥러닝 기술이 적용된 영상 개선 방법, 장치 및 프로그램
Hu et al. Image steganography based on style transfer