JP7055530B1 - 人工知能により生成される画像のベクター画像化 - Google Patents

人工知能により生成される画像のベクター画像化 Download PDF

Info

Publication number
JP7055530B1
JP7055530B1 JP2022029232A JP2022029232A JP7055530B1 JP 7055530 B1 JP7055530 B1 JP 7055530B1 JP 2022029232 A JP2022029232 A JP 2022029232A JP 2022029232 A JP2022029232 A JP 2022029232A JP 7055530 B1 JP7055530 B1 JP 7055530B1
Authority
JP
Japan
Prior art keywords
image
information processing
classifier
identification result
format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022029232A
Other languages
English (en)
Other versions
JP2023125242A (ja
Inventor
望 窪田
Original Assignee
望 窪田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 望 窪田 filed Critical 望 窪田
Priority to JP2022029232A priority Critical patent/JP7055530B1/ja
Priority to JP2022057575A priority patent/JP2023126068A/ja
Application granted granted Critical
Publication of JP7055530B1 publication Critical patent/JP7055530B1/ja
Priority to CN202310207502.0A priority patent/CN116664708A/zh
Priority to US18/115,361 priority patent/US20230274469A1/en
Publication of JP2023125242A publication Critical patent/JP2023125242A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/32Image data format

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Figure 0007055530000001
【課題】人工知能等により生成される画像であっても、画質の劣化を防ぎつつサイズ変更を可能にする。
【解決手段】プロセッサを有する情報処理装置により実行される情報処理方法であって、プロセッサは、生成器と識別器とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成すること、第1画像をベクター形式の第2画像に変換すること、第2画像がラスター形式に変換された第3画像、又は第2画像を識別器に入力し、識別結果を取得すること、識別結果が真であれば、又は識別結果が識別器による第1画像の識別結果と同じであれば、第2画像を記憶部に記憶すること、を実行する。
【選択図】図6

Description

本発明は、人工知能により生成される画像をベクター画像化する情報処理方法、情報処理装置及びプログラムに関する。
従来、敵対的生成ネットワーク(GANs:Generative Adversarial Networks)を利用して高品質の画像が生成されることが知られている(例えば特許文献1参照)。
特開2022-3423号公報
人口知能(AI:Artificial Intelligence)を利用して画像が生成される場合、敵対的生成ネットワーク(GAN)を用いて画像が生成されるケースが多い。GANsにより生成される画像は高品質ではあるが、ラスター形式の画像であることがほとんどであるため、画像サイズの変更には適していない。例えば、高解像度のラスター画像であっても、大幅に拡大をすると、どうしても曲線などの部分にぼやけが生じ、画質が劣化してしまう。
そこで、本発明は、人工知能(AI)等により生成される画像であっても、画質の劣化を防ぎつつサイズ変更を可能にする情報処理方法、情報処理装置、及びプログラムを提供する。
本発明の一態様に係る情報処理方法は、プロセッサを有する情報処理装置により実行される情報処理方法であって、前記プロセッサは、生成器と識別器とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成すること、前記第1画像をベクター形式の第2画像に変換すること、前記第2画像がラスター形式に変換された第3画像、又は前記第2画像を前記識別器に入力し、識別結果を取得すること、前記識別結果が真であれば、又は前記識別結果が前記識別器による前記第1画像の識別結果と同じであれば、前記第2画像を記憶部に記憶すること、を実行する。
本発明によれば、人工知能(AI)等により生成される画像であっても、画質の劣化を防ぎつつサイズ変更を可能にする。
実施形態に係るシステム構成の一例を示す図である。 実施形態に係る情報処理装置の物理的構成の一例を示す図である。 実施形態に係る情報処理装置の処理ブロックの一例を示す図である。 実施例1に係る保存画像の一例を示す図である。 実施例1に係る画像変換アルゴリズムに対応付けられるノイズの一例を示す図である。 実施例1に係る情報処理装置の処理例を示すフローチャートである。 実施例2に係る情報処理装置の処理ブロックの一例を示す図である。 実施例2に係る情報処理装置の処理例を示すフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
<システム構成>
図1は、実施形態に係るシステム構成の一例を示す図である。図1に示す例では、サーバ10と、各情報処理装置20A、20B、20C、20Dとが、ネットワークを介してデータ送受信可能なように接続される。情報処理装置を個別に区別しない場合は情報処理装置20とも表記する。
サーバ10は、データを収集、分析可能な情報処理装置であり、1つ又は複数の情報処理装置から構成されてもよい。情報処理装置20は、スマートフォン、パーソナルコンピュータ、タブレット端末、サーバ、コネクティッドカーなど、機械学習を実行可能な情報処理装置である。なお、情報処理装置20は、脳波をセンシングする侵襲型又は非侵襲型の電極に直接的又は間接的に接続されており、脳波データを解析、送受信可能な装置でもよい。
図1に示すシステムでは、サーバ10は、例えばGANsにより画像を生成し、生成した画像をラスター形式(フォーマット)に変換してベクター形式の画像を記憶する。このとき、単にGANsにより生成されたラスター形式の画像をベクター形式に変換するのではなく、ラスター形式の画像をベクター形式の画像に変換する際の変換誤差が考慮される。すなわち、ラスター形式からベクター形式への変換誤差があることを考慮したうえで、ベクター形式の画像がディスプレイ等に表示される際に、元のラスター形式の画像の表示とほぼ同一の表示となるようなベクター形式の画像が保存される。
サーバ10は、各情報処理装置20からの所定画像のリクエストに応じて、GANsを用いて所定画像を生成し、生成された所定画像に基づいて、上述したベクター形式の所定画像を生成し、このベクター形式の所定画像を、リクエストした情報処理装置20に送信したりしてもよい。
各情報処理装置20は、条件等を指定して所定画像を生成するリクエストをサーバ10に送信する。また、各情報処理装置20は、サーバ10からベクター形式の所定画像を受信し、仮想空間上で所定画像を表示してもよい。
これにより、AIにより生成されたラスター形式の所定画像は、変換誤差を考慮して、ラスター画像と同一視可能なベクター形式に変換されているため、この所定画像に対してサイズの変更がなされても、画質の劣化を防ぐことができる。例えば、AIにより生成された画像が仮想空間上(例えばメタバース上)で販売される場合、サイズが変更されても画質劣化がない画像の販売が可能になる。
<ハードウェア構成>
図2は、実施形態に係る情報処理装置10の物理的構成の一例を示す図である。情報処理装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
本実施形態では、情報処理装置10が一台のコンピュータで構成される場合について説明するが、情報処理装置10は、複数のコンピュータ又は複数の演算部が組み合わされて実現されてもよい。また、図1で示す構成は一例であり、情報処理装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
CPU10aは、プロセッサの一例であり、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、例えば、所定の学習モデルを用いて学習を行うプログラム(学習プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、各学習モデル、各学習モデルのパラメータに関するデータ、学習に使用するデータなどを記憶してもよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば学習プログラムや、書き換えが行われないデータを記憶してよい。
通信部10dは、情報処理装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fが演算結果を表示することは、XAI(eXplainable AI:説明可能なAI)に貢献し得る。表示部10fは、例えば、学習結果や、学習に関連するデータを表示してもよい。
学習プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な非一時的な記録媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。情報処理装置10では、1又は複数のCPU10aがプログラムを実行することにより、後述する様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、情報処理装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。また、情報処理装置10は、GPU(Graphical Processing Unit)やASIC(Application Specific Integrated Circuit)を備えていてもよい。
なお、情報処理装置20の構成は、図2に示す情報処理装置10の構成と同様であるため、その説明を省略する。また、情報処理装置10と情報処理装置20とは、データ処理を行う基本的な構成であるCPU10aやRAM10b等を有していればよく、入力部10eや表示部10fは設けられなくてもよい。また、入力部10eや表示部10fは、外部からインターフェースを用いて接続されてもよい。
<処理構成>
図3は、実施形態に係る情報処理装置(サーバ装置)10の処理ブロックの一例を示す図である。情報処理装置10は、取得部102、画像生成部104、データベース(DB)110、第1画像変換部112、第2画像変換部114、判定部116、記憶部118、出力部120を備える。情報処理装置20は、量子コンピュータなどで構成されてもよい。
取得部102及び出力部120は、例えば図2に示す通信部10dにより実現されうる。画像生成部104、第1画像変換部112、第2画像変換部114、及び判定部116は、例えば図2に示すCPU10aにより実現されうる。DB110は、例えば図2に示すROM10c及び/又はRAM10bにより実現されうる。記憶部118は、例えば図2に示すRAM10b及び/又はROM10cにより実現されうる。
取得部102は、画像生成リクエストを取得する。画像生成リクエストは、各情報処理装置20から送信されたリクエストでもよいし、情報処理装置10を管理するユーザの操作に応じて取得されたリクエストでもよい。例えば、画像生成リクエストは、画像データと画像生成の条件又は画像生成のためのテキストなどであり、GANsにより画像を生成するために入力されるデータでもよい。取得部102は、画像生成リクエストの取得に応じて、画像生成部104に画像を生成するよう命令する。
画像生成部104は、例えば、敵対的生成ネットワーク(GANs)を実行することにより所定の画像を生成する。具体例として、画像生成部104は、生成器106と識別器108とを含む敵対的生成ネットワーク(GANs)を用いてラスター形式の第1画像を生成する。例えば、GANsは、以下の手法のいずれかを用いることが可能である。
(1)pix2pix
条件画像と画像のペアから画像同士の関係を学習することで、1枚の画像から学習したペアの画像関係を補完した画像が生成される。
(2)CycleGAN
2組の画像を使い、一方の画像から他方の画像を生成し、他方の画像から一方の画像に戻した時に(サイクルした時に)精度が高くなるように学習させる。
(3)CGAN((Conditional GAN)
条件付きGANと呼ばれ、生成器と識別器に画像データに加えて追加の情報を与えることで、条件付けができるように訓練を行う。
(4)DCGAN(Deep Convolutional GAN)
DCGANは広い意味でCGANの一種であり、オリジナルGANとの大きな違いは、生成器(generator)と識別器(Discriminator)それぞれのネットワークに全結合層ではなく、畳み込み層と転置畳み込み層を使用し、画像が生成される。
(5)PGGAN(Progressive Growing GAN)
PGGANとDCGANとは異なり、段階的に学習データの解像度を上げて行き、これに合わせて生成器と識別器のネットワークもその対象構造を保ったまま層を追加して解像度を上げていくことで、画像が生成される。
(6)BigGAN
生成器に直行正規化を用い、最大で512x512ピクセルの高解像度画像を条件付きで生成するモデルを用いて、画像が生成される。
(7)StyleGAN
低解像度の学習から初めて、モデルに徐々に高い解像度に対応した層を加えながら学習を進めるprogressive growingを用いることで、画像が生成される。
(8)StackGAN
GANを多段構成にすることによって、最初のステージのGANで大枠をとらえた低解像度な画像が生成され、以降のステージのGANでより高解像度な画像が生成される。
(9)AttnGAN
画像のキャプションのようなテキストによる描写の個々の単語に注意を払うことにより、画像のさまざまなサブ領域で詳細を合成することが、画像が生成される。
上述した手法はGANsの一例であり、その他のGANsの手法が用いられてもよい。
画像生成部104は、所定のGANsを実行することで、画像生成リクエストに応じた画像を生成する。例えば、画像生成部104は、ノイズを発生させて、ノイズを生成器106に入力する。生成器106は、入力されたノイズ、又は画像生成リクエストに含まれるデータを用いて画像を生成する。ノイズは乱数でもよい。例えば、生成器106は、上述したGANsのいずれかの所定の構造を有するニューラルネットワークが用いられてもよい。
識別器108は、生成器106により生成されたラスター形式の第1画像、及び/又はDB110に記憶されている正解画像を取得する。識別器108は、入力画像が生成器106により生成された画像であるか、正解画像であるかを判別する。例えば、識別器108は、上述したGANsのうち、生成器106に対応する所定の構造を有するニューラルネットワークが用いられてもよい。なお、正解画像は、必ずしもDB110に記憶されたものである必要はなく、画像生成リクエストにより指定された条件を満たす画像であってもよい。
画像生成部104は、識別器108による真贋の判別結果により、生成器106と識別器108とのパラメータを更新する。例えば、画像生成部104は、識別器108が入力画像の真贋を正しく判別するように、誤差逆伝搬法(バックプロパゲーション)を用いて識別器108のパラメータを更新する。また、画像生成部104は、識別器108が、生成器106によって生成された画像を正解画像であると判別するように、誤差逆伝搬法を用いて生成器106のパラメータを更新する。画像生成部104は、最終的に生成された画像を第1画像変換部112に出力する。
第1画像変換部112は、画像生成部104により生成された最終的な画像(第1画像)を取得し、ベクター形式の画像(第2画像)に変換する。第1画像変換部112は、ラスター形式からベクター形式への変換手法について、公知のいずれかの手法を用いればよい。例えば、ラスター形式からベクター形式への変換ツールは、Vectorizer.io、Vector Magic、Autotracer.org、Convertio、pngtosvg.comなどがある。第1画像変換部112は、ベクター形式の第2画像を第2画像変換部114又は識別器108に出力する。
第2画像変換部114は、第1画像変換部112により生成されたベクター形式の第2画像をラスター形式の画像(第3画像)に変換する。例えば、第2画像変換部114は、ベクター形式の画像をディスプレイに表示する処理を実行し、画像が表示される状態からラスター形式に変換してもよい。また、SVG(Scalable Vector Graphics)形式の第2画像であれば、ブラウザによりディスプレイに表示可能であり、ディスプレイに表示される形態の画像がラスター形式の第3画像に変換されてもよい。第2画像変換部114は、ベクター形式の変換手法について、公知のいずれかの手法を用いればよい。例えば、ベクター形式からラスター形式への変換ツールは、svgtopng.com、Adobe Photoshop Expressなどがある。第2画像変換部114は、ラスター形式の第3画像を識別器108に出力する。
識別器108は、第1画像変換部112により出力されたベクター形式の第2画像、又は、第2画像変換部114により出力されたラスター形式の第3画像を入力し、識別結果を取得する。
識別器108に第3画像が入力される場合、識別器108は、モデルに寄らないメタ学習(Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks:https://arxiv.org/abs/1703.03400)を実行してもよい。識別器108は、データ形式が異なるデータでも分類学習を行うことが可能なメタ学習を行うことで、ラスター形式の画像と、ベクター形式の画像とを同じ学習モデルを用いて真贋の分類を行うことが可能になる。
判定部116は、識別器108により出力された第2画像又は第3画像の識別結果と、第2画像の元となる第1画像の識別結果とを取得し、両者の識別結果が同じであるか否かを判定する。例えば、第1画像の識別結果は、正解画像と同じであり、すなわち真(True)と識別されていることが想定される。よって、判定部116は、識別器108により出力された第2画像又は第3画像の識別結果が真(正解画像と同じ)であるか否かを判定してもよい。判定部116は、判定結果が肯定である場合、ベクター形式の第2画像を記憶するよう記憶部118に指示する。
記憶部118は、判定部116により肯定判定された第2画像を記憶する。肯定判定とは、識別器108により出力された第2画像又は第3画像の識別結果が真(正解画像と同じ)であると判定されること、又は、識別器108により出力された第2画像又は第3画像の識別結果と、第1画像の識別結果とが同じであると判定されることである。
なお、識別器108は、真贋判定する際に、DB110に登録された正解画像や、画像生成リクエストにより特定される所定画像を真として識別するが、第2画像又は第3画像が入力される場合は、第1画像を真として真贋を識別してもよい。
出力部120は、画像生成リクエストを送信した情報処理装置20に対し、記憶部118に記憶されたベクター形式の第2画像を出力してもよい。また、出力部120は、第2画像に対する取得リクエストを送信した情報処理装置20に出力してもよい。
以上の処理により、AIにより生成されたラスター形式の所定画像は、変換誤差を考慮してベクター形式に変換されているため、この所定画像に対してサイズが変更されても、画質の劣化を防ぐことができる。例えば、AIにより生成された画像が仮想空間上(例えばメタバース上)で販売される場合、サイズ変更しても画質劣化がない画像の販売が可能になる。
ここで、ラスター画像からベクター画像への変換誤差により、真贋判定において偽(False)と判断された場合、又は変換前後において識別器108の識別結果が異なる結果となる場合に、表示される際の画像を考慮したベクター形式の画像が生成されるとよい。このとき、ベクター形式の画像の更新について、ラスター形式の画像を用いてベクター形式の画像を更新する実施例1と、ベクター形式の画像を直接更新する実施例2とがあり、以下に説明する。
[実施例1]
実施例1では、上述したとおり、ラスター形式の画像を用いてベクター形式の画像を更新するが、画像生成部104のGANsを利用して新たな第1画像を生成する(更新する)。図3に示すブロック構成は、実施例1に係るブロック構成に対応する。
実施例1における判定部116は、第2画像又は第3画像の識別結果が偽(False)となる場合、又は、第2画像又は第3画像の識別結果と第1画像が前記識別器に入力されたときの識別結果とが異なる場合、生成器106にノイズを与えて新たな画像を生成するよう指示する。
生成器106は、ノイズを用いて画像を生成し、識別器108は、生成器106に生成された画像に対して真贋の識別を行う。ここで真と判断された画像(更新された第1画像)が第1画像変換部112に出力され、更新された第1画像は第2画像に変換される。そして、第2画像、又は、第2画像が変換された第3画像が識別器108に入力され、この識別結果が判定部116に出力される。判定部116において、識別器108の結果が真と判定されるまで、画像生成、真贋識別、変換、判定の処理が繰り返される。最終的に、判定部116により肯定判定された場合のベクター形式の第2画像が記憶部118に記憶される。
これにより、変換誤差を考慮して、表示された場合に識別器108に真と判定されるようなベクター形式の画像を保存することが可能になる。これにより、拡大縮小時に画質が劣化せず、画像生成AIにより生成された画像の画質を保つことが可能になる。
また、判定部116は、生成器106に画像生成の指示を行うとき、ラスター形式の第1画像からベクター形式の第2画像への変換アルゴリズムに応じてノイズを変更することを含んでもよい。例えば、情報処理装置10は、ラスター形式からベクター形式への変換アルゴリズムとノイズとの関係について学習モデルを用いて学習し、どのノイズを与えれば、早く収束するかを把握しておくとよい。このとき、判定部116は、変換アルゴリズムごとにノイズを対応づけた情報を保持し、この情報を用いて、第1画像変換部112が利用した変換アリゴリズムに対応するノイズを選択して生成器106に出力するようにしてもよい。
これにより、判定部116により肯定判定されるまでの収束速度を早くし、情報処理装置10の処理効率を向上させることが可能になる。
<データ例>
図4は、実施例1に係る保存画像の一例を示す図である。図4に示す例では、記憶部118に記憶された画像の例を示す。例えば、ベクター形式の画像には画像IDが付与され、画像ID「0001」には、「Img01」としてベクター形式のデータが対応付けられる。ベクター形式のデータは、例えば、コントロールポイントである複数の点の数値、この点から数式によって導き出される曲線などである。
図5は、実施例1に係る画像変換アルゴリズムに対応付けられるノイズの一例を示す図である。図5に示す情報は、例えば判定部116により保持される。例えば、ラスター形式の「PNG」からベクター形式の「SVG」に変換する変換アルゴリズムの場合、ノイズ「N01」が対応付けられている。図5に示す変換アルゴリズムとノイズとの関係は、学習モデルを用いて学習されててもよい。
<処理例>
図6は、実施例1に係る情報処理装置10の処理例を示すフローチャートである。ステップS102において、画像生成部104は、生成器106と識別器108とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成する。
ステップS104において、第1画像変換部112は、画像生成部104により生成された第1画像をベクター形式の第2画像に変換する。このとき、画像生成部104は、最終的に生成された(識別器108により真と判断された)第1画像を第1画像変換部112に出力するとよい。
ステップS106において、第1画像変換部112は、変換した第2画像を識別器108に入力し、又は第2画像変換部114は、第2画像をラスター形式の第3画像に変換し、変換した第3画像を識別器108に入力する。識別器108は、第2画像又は第3画像に対する真贋の識別を行い、識別結果を取得する。
ステップS108において、判定部116は、第2画像又は第3画像の識別結果が真であるか、又はこの識別結果が識別器108による第2画像の元となる第1画像の識別結果と同じであるかを判定する。ステップS108の判定結果が肯定であれば、処理はステップS110に進み、ステップS108の判定結果が否定であれば、ステップS102に戻り、第1画像が画像生成部104により更新される。
ステップS110において、記憶部118は、判定部116の結果が肯定である場合、肯定判定されたときのベクター形式の第2画像を記憶する。
以上の処理により、敵対的生成ネットワーク(GANs)を用いて真と判断された第1画像に対して、ベクター形式への変換誤差を考慮して、同じGANsを用いて画像を更新することが可能になり、ベクター形式の画像として保存することが可能になる。最終的に判定部116により肯定されたベクター形式の第2画像は、この第2画像が表示されるときに、識別器108で真と判断されたラスター形式の画像と品質が変わらず、サイズ変換時にも画質が劣化しない。
[実施例2]
実施例2では、上述したとおり、ベクター形式の画像を直接更新するが、例えば、ベクター形式の画像を生成できるDeepSVG(https://proceedings.neurips.cc/paper/2020/file/bcf9d6bd14a2095866ce8c950b702341-Paper.pdf)の生成モデルを用いてベクター形式の画像を更新する。なお、ベクター形式の画像を生成するモデルであればいずれのモデルが利用されてもよい。
図7は、実施例2に係る情報処理装置10の処理ブロックの一例を示す図である。図3に示す処理ブロックと同様の処理を行うものは同じ符号を付す。図7に示す第2画像生成部202は、ベクター形式の画像を生成可能な生成モデル(例えばDeepSVG)を用いてベクター形式の画像を生成する第2生成器204と識別器206とを含む第2敵対的生成ネットワークを構成する。ここで、ラスター形式の画像を生成する敵対的生成ネットワークは、第1画像生成部104と表記する。
判定部208は、第1画像変換部112により変換された第2画像の識別器206による識別結果が真でない場合、第2生成器204に対し、ベクター形式の画像を生成するよう指示する。
第2生成器204は、生成モデルを用いて生成したベクター画像を識別器206に入力する。ここで、第2画像生成部202は、第2生成器204と識別器206とを有する敵対的生成ネットワークを用いて、高品質なベクター画像を生成する。ここで、識別器206は、ベクター形式の画像を用いて真贋判断を行うため、上述したようなメタ学習を実行する学習モデルを有する。
判定部208は、第2画像生成部202の識別器206による識別結果を取得し、識別結果が偽であれば、第2生成器204に画像生成を指示し、識別結果が真であれば、ベクター形式の第2画像を記憶部118に記憶するために出力する。
以上の処理により、ベクター形式の画像を生成する第2生成器204と、ベクター形式の画像で真贋の識別を行う識別器206とを用いて新たな敵対的生成ネットワークを構成することにより、ベクター形式の画像のまま処理を実行することが可能になる。これにより、ラスター形式からベクター形式の画像への変換処理を削減することができる。情報処理装置10の処理負荷を減らすことが可能になる。
<処理例>
図8は、実施例2に係る情報処理装置10の処理例を示すフローチャートである。実施例2に係る処理について、図6に示すステップS102からステップS106までは同様の処理であるため処理を省略する。図8では、ステップS108以降の処理を記載する。
ステップS108において、判定部208は、第2画像又は第3画像の識別結果が真であるか、又はこの識別結果が識別器206による第2画像の元となる第1画像の識別結果と同じであるかを判定する。ステップS108の判定結果が肯定であれば、処理はステップS206に進み、ステップS108の判定結果が否定であれば、ステップS202に進む。
ステップS202において、第2生成器204は、ベクター形式の画像を生成する生成モデルを用いて、新たな第2画像を生成する(更新する)。
ステップS204において、判定部208は、更新された第2画像の識別結果が真であるかを判定する。ステップS204の判定結果が肯定であれば、処理はステップS206に進み、ステップS204の判定結果が否定であれば、ステップS202に戻る。
ステップS206において、記憶部118は、判定部208の結果が肯定である場合、肯定判定されたときのベクター形式の第2画像を記憶する。
以上の処理により、ベクター形式の画像を生成する第2生成器204と、ベクター形式の画像で真贋の識別を行う識別器206とを用いて新たな敵対的生成ネットワークを構成することにより、ベクター形式の画像のまま処理を実行することが可能になる。これにより、ラスター形式からベクター形式の画像への変換処理を削減することができる。情報処理装置10の処理負荷を減らすことが可能になる。実施例2において、第1画生成部104以外で生成されたラスター形式の画像を真の画像として、第1画像変換部112と第2画像生成部202と判定部208とを用いて、上述されたベクター形式の画像を生成してもよい。
また、上述したとおり、実施例1又は実施例2の記憶部118に記憶された第2画像は、仮想空間上で利用されてもよい。ラスター形式の画像はラスター画像、ベクター形式の画像はベクター画像と称されてもよい。
以上、実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10、20…情報処理装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、102…取得部、104…画像生成部(第1画像生成部)、106…生成器(第1生成器)、108…識別器、110…DB、112…第1画像変換部、114…第2画像変換部、116…判定部、118…記憶部、120…出力部、202…第2画像生成部、204…第2生成器、206…識別器、208…判定部

Claims (8)

  1. プロセッサを有する情報処理装置により実行される情報処理方法であって、
    前記プロセッサは、
    生成器と識別器とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成すること、
    前記第1画像をベクター形式の第2画像に変換すること、
    前記第2画像がラスター形式に変換された第3画像、又は前記第2画像を前記識別器に入力し、識別結果を取得すること、
    前記識別結果が真であれば、又は前記識別結果が前記識別器による前記第1画像の識別結果と同じであれば、前記第2画像を記憶部に記憶すること、
    を実行する情報処理方法。
  2. 前記識別器に前記第3画像が入力される場合、前記識別器は、モデルに寄らないメタ学習(Model-Agnostic Meta-Learning)を実行することを含む、請求項1に記載の情報処理方法。
  3. 前記プロセッサは、
    前記識別結果が偽である場合、又は前記第1画像が前記識別器に入力されたときの識別結果と異なる場合、前記生成器にノイズを与えて新たな画像を生成するよう指示すること、
    をさらに実行する、請求項1又は2に記載の情報処理方法。
  4. 前記指示することは、
    前記第1画像から前記第2画像への変換アルゴリズムに応じて、前記ノイズを変更することを含む、請求項3に記載の情報処理方法。
  5. 前記プロセッサは、
    前記識別結果が偽である場合、ベクター形式の画像を生成する他の生成器に新たな画像を生成するよう指示すること、
    前記他の生成器は、生成したベクター形式の画像を前記識別器に入力すること、
    をさらに実行する、請求項2に記載の情報処理方法。
  6. 前記記憶部に記憶された前記第2画像は、仮想空間上で利用される、請求項1又は2に記載の情報処理方法。
  7. プロセッサを有する情報処理装置であって、
    前記プロセッサは、
    生成器と識別器とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成すること、
    前記第1画像をベクター形式の第2画像に変換すること、
    前記第2画像がラスター形式に変換された第3画像、又は前記第2画像を前記識別器に入力し、識別結果を取得すること、
    前記識別結果が真であれば、又は前記識別結果が前記識別器による前記第1画像の識別結果と同じであれば、前記第2画像を記憶部に記憶すること、
    を実行する情報処理装置。
  8. 情報処理装置に含まれるプロセッサに、
    生成器と識別器とを含む敵対的生成ネットワークを用いてラスター形式の第1画像を生成すること、
    前記第1画像をベクター形式の第2画像に変換すること、
    前記第2画像がラスター形式に変換された第3画像、又は前記第2画像を前記識別器に入力し、識別結果を取得すること、
    前記識別結果が真であれば、又は前記識別結果が前記識別器による前記第1画像の識別結果と同じであれば、前記第2画像を記憶部に記憶すること、
    を実行させるプログラム。
JP2022029232A 2022-02-28 2022-02-28 人工知能により生成される画像のベクター画像化 Active JP7055530B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022029232A JP7055530B1 (ja) 2022-02-28 2022-02-28 人工知能により生成される画像のベクター画像化
JP2022057575A JP2023126068A (ja) 2022-02-28 2022-03-30 人工知能により生成される画像のベクター画像化
CN202310207502.0A CN116664708A (zh) 2022-02-28 2023-02-27 对人工智能生成的图像进行矢量化的信息处理方法、装置及计算机可读存储介质
US18/115,361 US20230274469A1 (en) 2022-02-28 2023-02-28 Vectorization of images generated by artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022029232A JP7055530B1 (ja) 2022-02-28 2022-02-28 人工知能により生成される画像のベクター画像化

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022057575A Division JP2023126068A (ja) 2022-02-28 2022-03-30 人工知能により生成される画像のベクター画像化

Publications (2)

Publication Number Publication Date
JP7055530B1 true JP7055530B1 (ja) 2022-04-18
JP2023125242A JP2023125242A (ja) 2023-09-07

Family

ID=81289287

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022029232A Active JP7055530B1 (ja) 2022-02-28 2022-02-28 人工知能により生成される画像のベクター画像化
JP2022057575A Pending JP2023126068A (ja) 2022-02-28 2022-03-30 人工知能により生成される画像のベクター画像化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022057575A Pending JP2023126068A (ja) 2022-02-28 2022-03-30 人工知能により生成される画像のベクター画像化

Country Status (3)

Country Link
US (1) US20230274469A1 (ja)
JP (2) JP7055530B1 (ja)
CN (1) CN116664708A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119255A (ja) 2019-01-23 2020-08-06 京セラドキュメントソリューションズ株式会社 画像変換システムおよび情報処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020119255A (ja) 2019-01-23 2020-08-06 京セラドキュメントソリューションズ株式会社 画像変換システムおよび情報処理装置

Also Published As

Publication number Publication date
US20230274469A1 (en) 2023-08-31
JP2023125242A (ja) 2023-09-07
CN116664708A (zh) 2023-08-29
JP2023126068A (ja) 2023-09-07

Similar Documents

Publication Publication Date Title
EP3963516B1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
US20220012533A1 (en) Object Recognition Method and Apparatus
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
JP2020507824A (ja) 電子装置及びその制御方法
CN113902921A (zh) 图像处理方法、装置、设备及存储介质
EP4207051A1 (en) Image super-resolution method and electronic device
CN112991171B (zh) 图像处理方法、装置、电子设备及存储介质
CN112488923A (zh) 图像超分辨率重建方法、装置、存储介质及电子设备
CN114612289A (zh) 风格化图像生成方法、装置及图像处理设备
CN114266943A (zh) 图像风格迁移方法、装置、设备及存储介质
CN115272082A (zh) 模型训练、视频质量提升方法、装置和计算机设备
US20220301106A1 (en) Training method and apparatus for image processing model, and image processing method and apparatus
JP7055530B1 (ja) 人工知能により生成される画像のベクター画像化
CN114762004A (zh) 数据生成方法、数据生成装置、模型生成方法、模型生成装置及程序
WO2023119922A1 (ja) 画像生成装置、方法及びプログラム並びに学習装置及び学習データ
CN116957964A (zh) 一种基于扩散模型的小样本图像生成方法及***
JP7199121B1 (ja) 計算グラフの改善
Cosmo et al. Multiple sequential regularized extreme learning machines for single image super resolution
CN112837318B (zh) 超声图像生成模型的生成方法、合成方法、介质及终端
JP5388779B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN114743000A (zh) 基于Unet的多任务气胸医学图像语义分割模型***及其方法
CN114066726A (zh) 一种图像处理方法、装置、设备及存储介质
KR102580159B1 (ko) 자기수렴 생성망 학습 방법 및 시스템
US20240070813A1 (en) Image processing apparatus, image processing method, non-transitory computer readable medium, and endoscope system
CN115526775B (zh) 图像数据处理方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7055530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150