JP7242185B2 - 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体 - Google Patents

画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP7242185B2
JP7242185B2 JP2018001552A JP2018001552A JP7242185B2 JP 7242185 B2 JP7242185 B2 JP 7242185B2 JP 2018001552 A JP2018001552 A JP 2018001552A JP 2018001552 A JP2018001552 A JP 2018001552A JP 7242185 B2 JP7242185 B2 JP 7242185B2
Authority
JP
Japan
Prior art keywords
image
correct
image processing
training
gamma correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001552A
Other languages
English (en)
Other versions
JP2019121252A (ja
Inventor
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001552A priority Critical patent/JP7242185B2/ja
Priority to CN201910010097.7A priority patent/CN110021047B/zh
Priority to US16/240,864 priority patent/US10922799B2/en
Publication of JP2019121252A publication Critical patent/JP2019121252A/ja
Application granted granted Critical
Publication of JP7242185B2 publication Critical patent/JP7242185B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6058Reduction of colour to a range of reproducible colours, e.g. to ink- reproducible colour gamut
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、ディープラーニングを用いた画像処理方法に関する。
特許文献1には、ガラス越しに被写体を撮影することで得られる入力画像から、畳み込みニューラルネットワークを用いてガラスの汚れや水滴の像が除去された画像を推定する方法が開示されている。特許文献1に開示された方法では、畳み込みニューラルネットワークにより、汚れ及び水滴の像の検出と、検出された領域のインペインティングが行われる。非特許文献1には、様々な回帰問題に対して汎用的に適用可能なネットワーク構成が開示されている。また非特許文献1には、ネットワークを用いて、入力画像のアップサンプリング、JPEGデブロッキング(圧縮ノイズの除去)、デノイジング、ノンブラインドなデブラー、または、インペインティングを実行することが開示されている。
米国特許第9373160号 X. Mao, C. Shen, Y. Yang, "Image Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections", https://arxiv.org/abs/1606.08921.
しかし、特許文献1および非特許文献1に開示された方法では、入力画像がRAW画像である際に適切な推定を行うことができない。
ところで、多層のニューラルネットワークにRAW画像を入力し、所望の出力画像を推定しようとする場合、ニューラルネットワークの学習もRAW画像を用いて行う必要がある。学習では、訓練用のRAW画像をネットワークへ入力して得られた出力と正解のRAW画像の誤差を最小化することで、ネットワークパラメータを最適化する。このため、学習時の誤差は、RAW画像の状態(光量と信号値が略線型の状態)で最小化される。しかし、実際にユーザが現像された出力画像を鑑賞する際は、ガンマ補正が実行されるため、信号値の大きさによって誤差が変化する。具体的には、推定画像の暗部において誤差が拡大され、推定精度が低下する。
そこで本発明は、現像された画像の信号の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを取得可能な画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体を提供することを目的とする。
本発明の一側面としての画像処理方法は、RAW画像である訓練画像と正解画像を取得する工程と、前記訓練画像を多層のニューラルネットワークへ入力して出力画像を生成する工程と、前記正解画像と前記出力画像のそれぞれにガンマ補正を実行し、ガンマ補正された前記正解画像とガンマ補正された前記出力画像の誤差を算出する工程と、前記誤差に基づいて、前記ニューラルネットワークのネットワークパラメータを更新する工程とを有する。
本発明の他の側面としての画像処理装置は、RAW画像である訓練画像と正解画像を取得する取得部と、前記訓練画像を多層のニューラルネットワークへ入力して出力画像を生成する生成部と、前記正解画像と前記出力画像のそれぞれにガンマ補正を実行し、ガンマ補正された前記正解画像とガンマ補正された前記出力画像の誤差を算出する算出部と、前記誤差に基づいて、前記ニューラルネットワークのネットワークパラメータを更新する更新部とを有する。
本発明の他の側面としての画像処理プログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての記憶媒体は、前記画像処理プログラムを記憶している。
本発明の目的及び特徴は、以下の実施例において説明される。
本発明によれば、現像された画像の信号の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを取得可能な画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体を提供することができる。
各実施例における畳み込みニューラルネットワークを示す図である。 ガンマ補正の説明図である。 実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 各実施例における学習工程のフローチャートである。 各実施例における画像の色成分に関する説明図である。 各実施例における推定工程のフローチャートである。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
まず、以下に用語を定義する。本発明は、ディープラーニングによって回帰問題を解き、入力画像から様々な出力画像を推定する方法に関する。ディープラーニングとは、多層のニューラルネットワークを用いた機械学習である。大量の訓練画像とそれに対応する正解画像(得たい出力)のペアから、ネットワークパラメータ(重みとバイアス)を学習することで、未知の入力画像に対しても高精度な推定が可能となる。
多層のニューラルネットワークを用いた画像処理には、ネットワークパラメータ(重みとバイアス)を更新するための処理工程と、更新されたパラメータを用いて未知の入力に対して推定を行う処理工程の二つが存在する。以下、前者を学習工程と呼び、後者を推定工程と呼ぶ。本発明は、学習工程において特徴を有する。
次に、学習工程と推定工程における画像の名称を定める。ネットワークへ入力する画像を入力画像とし、特に学習工程の際に用いる、正解画像が既知の入力画像を訓練画像と呼称する。ネットワークから出力された画像を出力画像とし、特に推定工程の際の出力画像を推定画像と呼称する。ネットワークの入力画像と、正解画像はRAW画像である。ここでRAW画像とは、撮像素子から出力された未現像の画像データであり、各画素の光量と信号値とが略線型の関係にある。ユーザが画像を鑑賞する前にRAW画像は現像されるが、その際にガンマ補正が実行される。ガンマ補正は、例えば入力の信号値を冪乗する処理であり、その冪指数として1/2.2などが用いられる。
また出力画像も、推定によって正解画像に準ずる画像として生成されるため、RAW画像の性質を有する。推定工程には、様々な処理が含まれる。例えば、アップサンプリング、デノイジング、圧縮ノイズの除去、デブラー(ぼけ補正)、インペインティング、デモザイキング、ディヘイズ(Dehaze)、高階調化、色成分の推定(モノクロのカラー化など)、リライティング(照明環境の変更)がある。
次に、本発明の要旨を簡単に述べる。本発明は、RAW画像を入力とする多層のニューラルネットワークの学習工程において、ガンマ補正の影響を考慮する。これにより、現像後の推定画像が信号値の大きさに依らず、おおよそ一定の推定精度を保つことができる。特に、高解像化(アップサンプリングやデブラー)や高コントラスト化(ディヘイズ)で出やすいアンダーシュートやリンギングが抑制される。
学習時にガンマ補正を考慮する方法として、本発明では最小化する誤差を算出する前に、ネットワークの出力画像と正解画像に対してガンマ補正を実行する。この方法以外に、正解画像とネットワークに入力する前の入力画像をガンマ補正する方法、又はネットワーク内でガンマ補正相当の処理を行う方法が考えられる。しかし、本発明の手法では、出力画像(推定画像を含む)において光量と信号値が略線型の関係となるのに対し、後者の二つの手法は出力画像における光量と信号値の関係がガンマ補正後のものとなる。このため、後者の二つの手法では、出力画像に対して通常の現像処理を行う場合、その前に逆ガンマ補正を実行しなければならない。しかし、ガンマ補正には様々な形があり、高輝度部の階調潰れが問題になることがある。さらに、逆ガンマ補正の解が一意的に定まらない場合もある。その例を図2に示す。
図2は、ガンマ補正の説明図であり、ガンマ補正に用いられるガンマカーブの一例を表す。図2において、横軸はガンマ補正前の信号値、縦軸はガンマ補正後の信号値をそれぞれ示し、それぞれの信号値は規格化されている。図2のガンマカーブでは、高輝度部においてガンマ補正後の信号が同一値になっている。このため、逆ガンマ補正時にはこの部分の信号値が一意的に定まらない。このような高輝度部での階調潰れは、ユーザが現像時に露出の調整などの編集作業を行った際に正しい画像が得られない要因となる。この対策として、例えばユーザが露出調整を行った場合、露出調整した状態のRAW画像を入力画像として、ネットワークへ入力し直すことが考えられる。しかしこの方法では、ユーザが露出調整する度にネットワーク内の演算を再実行する必要があり、計算負荷が増大する。そこで、以下の各実施例の手法を用いることで、高輝度の階調潰れや演算負荷の増大を抑制することができる。
まず、本発明の実施例1における画像処理システムについて説明する。本実施例の画像処理システムでは、学習工程を実行する装置(パラメータ学習装置101)と、推定工程を行う装置(画像編集装置111)とが個別に存在する。本実施例における推定工程は、収差・回折によるぼけの補正(デブラーの一種)であるが、これに限定されるものではない。
図3および図4を参照して、本実施例における画像処理システムについて説明する。図3は、画像処理システム100のブロック図である。図4は、画像処理システム100の外観図である。図3および図4に示されるように、画像処理システム100は、パラメータ学習装置101、画像編集装置111、撮像装置121、表示装置123、記録媒体122、および、出力装置124を備えて構成される。
パラメータ学習装置101は、学習工程を実行する画像処理装置であり、記憶部102および学習部103を有する。学習部103は、推定工程に必要なネットワークパラメータ(重みとバイアス)を算出する学習工程を実行する。この際、学習部103は、記憶部102に記憶された複数の訓練画像と正解画像を用いる。訓練画像と正解画像は、収差・回折によるぼけの有無が異なる画像である。
本実施例において、学習部103は、取得部103a、生成部103b、算出部103c、および、更新部103dを有する。取得部103aは、訓練画像と正解画像を取得する。本実施例において、訓練画像と正解画像はそれぞれRAW画像である。生成部103bは、訓練画像を多層のニューラルネットワークへ入力して出力画像を生成する。算出部103cは、正解画像と出力画像のそれぞれにガンマ補正を実行し、ガンマ補正された正解画像と出力画像の誤差を算出する。更新部103dは、算出部103cにより算出された誤差に基づいて、ニューラルネットワークのネットワークパラメータを更新する。なお、学習工程に関する詳細は、フローチャートを用いて後述する。学習されたネットワークパラメータは、記憶部102に記憶される。
画像編集装置111は、推定工程を実行する装置であり、記憶部112および推定部113を有する。撮像装置121は、CMOSセンサやCCDセンサなどの撮像素子125を有し、光学系(撮像光学系)により形成された光学像を光電変換して撮像画像を出力する。画像編集装置111は、有線または無線で接続された撮像装置121、または半導体メモリなどの記録媒体122から、RAW画像である撮像画像を取得し、記憶部112に記憶する。推定部113は、撮像画像から入力画像を取得して多層のニューラルネットワークへ入力し、収差・回折によるぼけが補正された推定画像を生成する。画像編集装置111とパラメータ学習装置101は、有線または無線で互いに接続されており、画像編集装置111は、記憶部102に記憶されたネットワークパラメータを読み出し、推定工程に用いる。また画像編集装置111は、推定画像から収差・回折によるぼけが補正された撮像画像を生成し、補正された撮像画像は記録媒体122、表示装置123、または、出力装置124の少なくとも一つに出力される。表示装置123は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置123を介して、編集途中の画像を確認しながら作業を行うことができる。出力装置124は、プリンタなどである。画像編集装置111は、その他に現像処理などを行う機能を有していてもよい。
次に、図5を参照して、パラメータ学習装置101の学習部103で実行される学習工程に関して説明する。図5は、学習工程のフローチャートである。図5の各ステップは、学習部103の各部(取得部103a、生成部103b、算出部103c、および、更新部103d)により実行される。
まず、ステップS101において、学習部103(取得部103a)は、記憶部102から複数の訓練画像と正解画像を取得する。訓練画像と正解画像はそれぞれ、未現像のRAW画像である。訓練画像とは、収差・回折によるぼけが作用した画像である。正解画像は、訓練画像と同一の被写体が写っており、且つぼけのない(または非常に小さい)画像である。訓練画像は、収差・回折の影響が少ないRAW画像(正解画像)に対して、シミュレーションで収差・回折によるぼけを付与することで生成できる。また訓練画像と正解画像は、同一の被写体を異なるF値で撮影することでも生成可能である。この場合、例えば、絞りが開放に近く、収差の影響が大きい画像が訓練画像であり、絞りをある程度絞って収差と回折による劣化が抑えられた画像が正解画像となる。学習工程において含まれていない収差・回折によるぼけ、または被写体の構造(エッジなど)は、後の推定工程で精度良く推定することができない。このため学習部103は、様々な種類の被写体の構造や補正しようとする収差・回折のぼけが含まれるように、ステップS101では複数の訓練画像と正解画像を取得する。
なお、収差・回折によるぼけ補正以外の処理に関しても、同様にシミュレーションで訓練画像と正解画像のペアを用意することで、学習工程を実行することができる。デノイジングに関しては、低ノイズの正解画像に想定されるノイズを付与することで、訓練画像を生成することができる。アップサンプリングに関しては、実施例2にて後述する。圧縮ノイズの除去に関しては、無圧縮または圧縮率の小さい正解画像を圧縮することで、訓練画像を生成することができる。収差・回折以外(デフォーカスぼけなど)のデブラーに関しては、ぼけの少ない正解画像に想定されるぼけを畳み込むことで、訓練画像を生成することができる。デフォーカスぼけの場合、距離に依存するため、複数の訓練画像と正解画像に異なる距離のデフォーカスぼけを畳み込むようにする。インペインティングに関しては、欠損のない正解画像に欠損を与えることで、訓練画像を生成することができる。デモザイキングに関しては、三板式の撮像素子などで撮像された正解画像をBayer配列などで再サンプリングすることで、訓練画像を生成することができる。ディヘイズに関しては、霧や靄のない正解画像に対して散乱光を付与することで、訓練画像を生成することができる。霧や靄は、濃度や距離によって散乱光の強さが変化するため、異なる濃度や距離の散乱光に対して複数の訓練画像を生成する。高階調化に関しては、高階調な正解画像を低階調化することで訓練画像を得ることができる。色成分の推定に関しては、複数の色成分を有する正解画像の色成分を減らすことで、訓練画像を生成することができる。リライティングに関しては、正解画像の被写体における法線、形状、反射率の分布が既知であれば、シミュレーションで異なる光源環境の訓練画像を生成することができる。ただし、この場合、計測の負荷が大きいため、実際に異なる照明環境で被写体を撮影して正解画像と訓練画像のペアを生成してもよい。
続いてステップS102において、学習部103(取得部103a)は、学習工程で用いられるガンマ補正に関する情報を取得する。学習工程で用いられるガンマ補正を、推定画像の現像に用いるガンマ補正と合わせることで、補正後の信号値の大きさに依らないより安定した精度の推定が可能となる。本実施例では、様々なガンマ補正に対応するため、学習部103は複数のガンマ補正に対してそれぞれ学習工程を実行し、各ガンマ補正で最適化されたネットワークパラメータを記憶部102に記憶しておく。ガンマ補正に関する情報の取得は、記憶部102に記憶された複数のガンマ補正に関する情報から選択することができ、または、ユーザがガンマ補正の数式やルックアップテーブルなどを入力してもよい。なおガンマ補正とは、図2に示されるように、補正前後における信号値の関係を示すカーブ(ガンマカーブ)が傾き1の直線(図2中の一点鎖線)以上の位置に存在する処理である。ガンマ補正を表す関数gの具体的な例としては、以下の式(1)乃至(3)などが挙げられる。
Figure 0007242185000001
Figure 0007242185000002
Figure 0007242185000003
式(1)乃至(3)において、sはガンマ補正前の規格化された信号値であり、α(>1)、β(>0)、γ(>1)、δ(>0)は定数である。ただし、ガンマ補正は式(1)乃至(3)の形に限定されず、区分線形関数やルックアップテーブルでもよい。なお、ステップS102は、ステップS104の前であれば、いつ実行してもよい。
続いてステップS103において、学習部103(生成部103b)は、ステップS101にて取得された複数の訓練画像のうち少なくとも一の訓練画像を選択し、選択された訓練画像をネットワークへ入力して出力画像を算出(生成)する。複数の訓練画像の全てを選択する(訓練画像の全てをネットワークへ入力し、それら全ての出力を用いてネットワークパラメータを更新する)場合をバッチ学習と呼ぶ。この方法は、訓練画像の数が増えるにつれて、演算負荷が膨大になる。一枚の訓練画像のみを選択する場合(ネットワークパラメータの更新に一枚の訓練画像のみを用いて、更新ごとに異なる訓練画像を用いる)場合をオンライン学習と呼ぶ。この手法は、訓練画像の総数が増えても演算量が増大しないが、一枚の訓練画像に存在するノイズの影響を受けやすい。このため、複数の訓練画像から少数(ミニバッチ)を選択し、それらを用いてネットワークパラメータの更新を行なうミニバッチ法を用いることが好ましい。次の更新では、異なる小数の訓練画像を選択して用いる。この処理を繰り返すことにより、バッチ学習とオンライン学習の欠点を小さくすることができる。
ここで、図1を参照して、多層のニューラルネットワークで行われる処理に関して説明する。図1は、畳み込みニューラルネットワーク(CNN)を示す図である。ただし本実施例は、これに限定されるものではなく、例えばCNNに残差ネットワークを採用することができ、または、GAN(Generative Adversarial Network)などを用いてもよい。なお図1では、簡単のため、入力する訓練画像201を一枚だけ描画しているが、実際には選択された複数の訓練画像それぞれに対して、出力画像が生成される。訓練画像201は、RAW画像を色成分ごとに三次元方向に配列した画像である。
図6は、画像の色成分に関する説明図である。本実施例において、訓練画像は図6(A)に示されるようなBayer配列の画像である。ここでRGBは、それぞれ赤、緑、青を表す。図6(A)のBayer配列から、各色の成分だけを配列し直した構成が図6(B)である。Gは、GとGの2種類があるため、それぞれを抽出して配列する。図6(B)の四枚の画像を三次元方向に配列した4チャンネルの画像が、図1における訓練画像201である。この作業は必ずしも必要ではないが、収差・回折は波長によって変化するため、同一のぼけを持つ色成分を配列させた方が補正しやすい。また、RGBが同一次元内に配列されていると、局所的に異なる明るさを有する画素が混合されるため、推定精度が低下しやすい。このため、訓練画像を色成分ごとに分離することが好ましい。なお、ここではBayer配列の場合を示しているが、その他の配列(ハニカム構造など)に関しても同様である。なお、モノクロの場合、色成分の再配列は実行しなくてよい。また本実施例では、複数の色成分を一括で学習、推定する例を示すが、各色で個別に学習、推定してもよい。図1では描画を簡略化するため、訓練画像201を4×4の4チャンネル画像としているが、縦横の画像サイズはこれに限定されるものではない。
本実施例において、訓練画像および正解画像はそれぞれ、周期的に配列された複数の色成分を有し、訓練画像または正解画像の各色成分のみで構成される色成分画像を生成する工程を設けてもよい。ここで、色成分画像を生成する工程は、訓練画像に対してニューラルネットワークへの入力前に実行され、正解画像に対して誤差の算出前に実行される。
CNNは複数の層構造になっており、各層で線型変換と非線型変換が実行される。線型変換は、入力された画像(または特徴マップ)とフィルタの畳み込み、およびバイアス(図1中のbias)との和で表現される。各層におけるフィルタの重みとバイアスをネットワークパラメータと呼び、その値を学習工程によって更新する。非線形変換は、活性化関数(Activation Function)と呼ばれる非線型関数による変換である(図1中のAF)。活性化関数の例としては、シグモイド関数やハイパボリックタンジェント関数などがあり、本実施例では以下の式(4)で表されるReLU(Rectified Linear Unit)が用いられる。
Figure 0007242185000004
式(4)において、maxは、引数のうち最大値を出力するMAX関数を表す。
入力層に入力された訓練画像201は、第1畳み込み層で複数のフィルタ202それぞれとのコンボリューションと、バイアスとの和を取られる。フィルタ202それぞれのチャンネル数は、訓練画像201と一致し、訓練画像201のチャンネル数が2以上の場合、3次元フィルタとなる(三次元目がチャンネル数を表す)。なお、フィルタの縦横の大きさは任意である。コンボリューションと和の結果は、活性化関数によって非線形変換が施され、第1特徴マップ203が第1中間層に出力される。ここで、第1特徴マップ203のチャンネル数(三次元方向の配列数)は、フィルタ202の数と同じである。次に、第2畳み込み層へ第1特徴マップ203が入力され、前述と同様に複数のフィルタ204のそれぞれとのコンボリューションと、バイアスとの和が取られる。その結果を非線形変換し、以下同様に畳み込み層の数だけ繰り返す。一般に、畳み込み層が3層以上あるCNNが、ディープラーニングに該当する。最後の畳み込み層から出力された結果が、CNNの出力画像211である。なお、最後の畳み込み層では、活性化関数による非線形変換を実行しなくてもよい。
続いてステップS104において、学習部103(算出部103c)は、出力画像211および正解画像221のそれぞれに対してガンマ補正を実行し、ガンマ補正された出力画像と正解画像との誤差を算出する。正解画像221も訓練画像201と同様に、色成分ごとに配列してチャンネル方向にスタックされている。本実施例において、学習部103は、以下の式(5)を用いて誤差Lを算出する。
Figure 0007242185000005
式(5)において、tは正解画像221の信号値、yは出力画像211の信号値、jは画素の番号、Nは総画素数、gはガンマ補正を示す。式(5)ではユークリッドノルムを用いているが、正解画像と出力画像の差異を表す値であれば、他の指標を用いてもよい。
続いてステップS105において、学習部103(更新部103d)は、ステップS104にて算出された誤差からネットワークパラメータの更新量を算出し、ネットワークパラメータを更新する。ここでは、誤差逆伝搬法(Backpropagation)が用いられる。誤差逆伝搬法では、誤差の微分に基づいて更新量を算出する。ただし、本実施例はこれに限定されるものではない。
続いてステップS106において、学習部103は、所定の終了条件を満たすか否か、すなわち、ネットワークパラメータの最適化が終了したか否かを判定する。ここで所定の終了条件とは、例えば、学習工程が既定の時間に達した場合、パラメータの更新回数が既定の回数に達した場合、パラメータ更新には用いない訓練画像と正解画像を用意しておき、その出力画像と正解画像の誤差が所定の値以下になった場合などである。または、ユーザが最適化終了を指示してもよい。所定の終了条件を満たさない場合、ステップS103に戻り、学習部103は新たなミニバッチを取得してネットワークパラメータを更新する。一方、所定の終了条件を満たす場合、ステップS107へ進む。
ステップS107において、学習部103は、更新されたネットワークパラメータを記憶部102に出力する。記憶部102は、そのネットワークパラメータを記憶する。本実施例において、学習部103は異なるガンマ補正ごとにネットワークパラメータを学習するため、記憶部102はネットワークパラメータとそれに対応するガンマ補正の情報とを合わせて記憶する。以上の学習工程により、現像された画像の信号値の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを得ることができる。
次に、図7を参照して、画像編集装置111の推定部113で実行される推定工程に関して説明する。図7は、推定工程のフローチャートである。
まず、ステップS201において、推定部113は、撮像装置121または記録媒体122から、撮像画像を取得する。撮像画像は、未現像のRAW画像である。RAW画像の信号値が符号化されている場合、推定部113は復号処理を実行する。また推定部113は、撮像画像を後に現像する際に用いられるガンマ補正に関する情報を取得する。
続いてステップS202において、推定部113は、ステップS201にて取得したガンマ補正に関する情報から、その情報に対応するネットワークパラメータを取得する。ネットワークパラメータは、パラメータ学習装置101の記憶部102から読み出される。または、予め画像編集装置111の記憶部112に複数のネットワークパラメータを保存しておき、記憶部112から読み出してもよい。取得するネットワークパラメータは、ステップS201にて取得したガンマ補正に関する情報と学習工程で用いられたガンマ補正に関する情報とが互いに一致するもの、または、最も近いものである。
続いてステップS203において、推定部113は、撮像画像からCNNへ入力する入力画像を取得する。入力画像は、訓練画像と同様に、色成分ごとに配列して三次元方向にスタックされる。なお、推定工程の入力画像のサイズは、学習工程における訓練画像のサイズと、必ずしも一致する必要はない。続いてステップS204において、推定部113は、入力画像とネットワークパラメータに基づいて、推定画像を生成する。推定画像の生成には、学習工程と同様に、図1に示されるCNNが用いられる。ただし、図1中の出力画像211が推定画像となり、それ以降のガンマ補正および正解画像との誤差算出は行わない。
続いてステップS205において、推定部113は、撮像画像の所定の領域に対して推定(本実施例では、収差・回折のぼけ補正)が完了したか否かを判定する。推定が完了していない場合、ステップS203へ戻り、推定部113は、撮像画像の所定の領域から新たな入力画像を取得する。推定に用いられるCNNにおいて、出力画像のサイズが入力画像よりも小さくなる場合、所定の領域からオーバーラップして入力画像を取得する必要がある。所定の領域は、撮像画像の全体または一部である。撮像画像はRAW画像であるため、受光して得られた画像の他に、ヘッダ(前記画像の画素数や撮影時刻などの情報)や撮像素子のオプティカルブラックの情報が含まれていることがある。ヘッダやオプティカルブラックは、収差・回折のぼけと無関係であるため、所定の領域からそれらを除いてもよい。
続いてステップS206において、推定部113は、生成された複数の推定画像を合成して、収差・回折によるぼけが補正された撮像画像を出力する。必要に応じて、推定部113は、ヘッダやオプティカルブラックの情報を含めて出力する。以上の推定工程により、現像後の信号値の大きさに対する影響を抑えて、収差・回折によるぼけを補正することができる。推定工程後、ユーザが任意で露出補正などの編集を行い、現像処理により最終的な現像画像を得る。
次に、本発明の効果を増すための好ましい条件に関して説明する。まず、CNNへ入力する入力画像と正解画像の信号値を規格化する工程を設けることが好ましい。撮像画像は、撮像装置の構成によって、画像の信号値の取り得る範囲が異なる。学習工程と推定工程とで入力画像における信号値の範囲が異なる場合、正しい推定結果が得られない。このため、信号値の規格化を行うことが好ましい。信号値が取り得る範囲は、下限値(オプティカルブラックの信号値)と上限値(輝度飽和値)とで規定される。信号値の範囲に関する情報は、撮像画像のヘッダやオプティカルブラック領域から取得することができる。具体的には、例えば以下の式(6)に従って規格化するとよい。
Figure 0007242185000006
式(6)において、sはRAW画像の信号値、sOBはオプティカルブラックの信号値、ssatuは信号の輝度飽和値、snorは規格化された信号値を示す。推定工程では、出力された推定画像に対して、式(6)の逆を行って元のスケールに戻す。
また、式(5)の誤差に対し、式(1)または式(2)で表されるようなガンマ補正を用いる場合、出力画像の信号値がゼロになる近傍で微分が発散することがある。誤差の微分が発散すると、誤差逆伝搬法が正しく動作しない。また、ガンマ補正の式によっては、補正される信号値がある範囲に収まっていないと、正しい補正値が出力されない。これらを回避するため、ガンマ補正の実行前に、出力画像の信号値を所定の範囲でクリッピングする工程を設けることが好ましい。所定の範囲は、ガンマ補正が定義されて、かつ微分が発散しない範囲である。例えば式(1)では、クリッピングの下限を正の微小な値とし、上限を1とする。
同様に、推定画像の信号値も画像信号が取り得る範囲を超過することがある。このため、ステップS204では、推定画像の信号値をクリッピングすることが好ましい。規格化されている場合には0~1で、規格化されていない場合にはオプティカルブラックの信号値と輝度飽和値でクリッピングする。
また、本実施例の学習工程では、一つのガンマ補正に関する情報ごとにネットワークパラメータを学習する。このため、取り得るガンマ補正の種類が多い場合、ネットワークパラメータのデータ容量が大きくなる。この対策として、複数のガンマ補正に対して一括でネットワークパラメータを学習してもよい。例えば、以下の式(7)で表される誤差Lsumを用いて学習することができる。
Figure 0007242185000007
式(7)において、gはkで指定されるガンマ補正であり、kによって互いに異なる。Mはガンマ補正の種類の総数である。正解画像と出力画像に複数のガンマ補正それぞれを実行し、算出された複数の誤差を合わせた誤差Lsumを用いて学習することで、ネットワークパラメータの容量を削減することができる。
本実施例によれば、現像された画像の信号値の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを取得し、そのニューラルネットワークを用いて推定を行うことが可能な画像処理システムを提供することができる。
次に、本発明の実施例2における画像処理システムについて説明する。本実施例の画像処理システムでは、学習工程および推定工程を行う装置(サーバ301)と、複数の撮像装置(第1撮像装置311、第2撮像装置312、第3撮像装置313)とが互いに接続されている。本実施例における推定工程は、アップサンプリングであるが、これに限定されるものではない。
図8および図9を参照して、本実施例における画像処理システムについて説明する。図8は、画像処理システム300のブロック図である。図9は、画像処理システム300の外観図である。図8および図9に示されるように、画像処理システム300は、サーバ(画像処理装置)301、第1撮像装置311、第2撮像装置312、および、第3撮像装置313を有する。サーバ301は、記憶部302、学習部303、推定部304、および、現像部305を有する。学習部303は、記憶部302に記憶された複数の訓練画像と正解画像を読み出して学習工程を実行し、ニューラルネットワークのネットワークパラメータ(重みとバイアス)を学習する。学習部303は、図3に示される取得部103a、生成部103b、算出部103c、および、更新部103dと同様の機能を有する。
本実施例において、訓練画像は低解像度の画像(第1の解像度を有する画像)であり、正解画像は高解像度の画像(第1の解像度よりも高い第2の解像度を有する画像)である。訓練画像は、正解画像をダウンサンプリングすることで用意することができる。または、本実施例において、訓練画像は低コントラストの画像(第1のコントラストを有する画像)であり、正解画像は高コントラストの画像(第1のコントラストよりも高い第2のコントラストを有する画像)であってもよい。
なお、訓練画像と正解画像は、サイズ合わせを行ってもよいし、行わなくてもよい。正解画像を1/n倍にダウンサンプリングして訓練画像を生成した場合、訓練画像をバイキュービックなどの補間でn倍に引き伸ばすことにより、サイズ合わせを行うことができる。サイズ合わせを行わない場合、ネットワーク内に逆畳み込み(Deconvolution)層や逆プーリング(Depooling)層などを挿入することが好ましい。
学習部303は、図1に示されるネットワークを用いて、ネットワークパラメータを学習する。本実施例において、学習部303は、式(7)のように複数のガンマ補正が混合された誤差を最小化するように、ネットワークパラメータを学習する。学習されたネットワークパラメータは、記憶部302に記憶される。サーバ301は、複数の撮像装置(第1撮像装置311、第2撮像装置312、および、第3撮像装置313)と無線接続されており、各撮像装置から撮像画像を受信する。撮像画像はRAW画像である。推定部304は、記憶部302からネットワークパラメータを読み出し、撮像画像に対して推定工程を実行する。これにより、アップサンプリングされた撮像画像が生成される。アップサンプリングされた撮像画像は、現像部305により現像され、元の撮像装置へ送信される。
学習部303で実行される学習工程は、図5を参照して説明した学習工程と同様である。ただし、本実施例ではステップS102が存在しない。推定部304で実行される推定工程は、図7を参照して説明した推定工程と同様である。
本実施例によれば、現像された画像の信号値の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを取得し、そのニューラルネットワークにより推定が可能な画像処理システムを提供することができる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、現像された画像の信号の大きさに対して、推定精度が影響されにくい多層のニューラルネットワークを取得可能な画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体を提供することが可能である。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
101 パラメータ学習装置(画像処理装置)
103a 取得部
103b 生成部
103c 算出部
103d 更新部

Claims (12)

  1. 訓練画像と正解画像を取得する工程と、
    前記訓練画像を多層のニューラルネットワークへ入力して出力画像を生成する工程と、
    前記正解画像と前記出力画像のそれぞれにガンマ補正を実行し、ガンマ補正された前記正解画像とガンマ補正された前記出力画像の誤差を算出する工程と、
    前記誤差に基づいて、前記ニューラルネットワークのネットワークパラメータを更新する工程と、を有することを特徴とする画像処理方法。
  2. 前記訓練画像および前記正解画像はそれぞれ、周期的に配列された複数の色成分を有し、
    前記画像処理方法は、前記訓練画像または前記正解画像の各色成分のみで構成される色成分画像を生成する工程を有し、
    前記色成分画像を生成する工程は、前記訓練画像に対して前記ニューラルネットワークへの入力前に実行され、前記正解画像に対して前記誤差の算出前に実行されることを特徴とする請求項1に記載の画像処理方法。
  3. 前記ガンマ補正の実行前に、前記出力画像の信号値を所定の範囲でクリッピングする工程を更に有することを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記正解画像は、前記訓練画像よりも高い解像度またはコントラストを有する画像であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理方法。
  5. 前記訓練画像と前記正解画像のそれぞれの信号値が取り得る下限値と上限値を取得する工程と、
    前記下限値と前記上限値に基づいて、前記訓練画像と前記正解画像のそれぞれの前記信号値を規格化する工程と、を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理方法。
  6. ガンマ補正を指定する工程を更に有し、
    前記誤差を算出する工程において、前記ガンマ補正を指定する工程で指定されたガンマ補正を前記出力画像と前記正解画像のそれぞれに実行することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理方法。
  7. 前記ガンマ補正を指定する工程で指定された前記ガンマ補正に関する情報と、前記ネットワークパラメータを更新する工程で更新された前記ネットワークパラメータを記憶する工程を更に有することを特徴とする請求項6に記載の画像処理方法。
  8. 前記ネットワークパラメータを更新する工程において、前記正解画像と前記出力画像に複数のガンマ補正をそれぞれ実行して算出された複数の前記誤差に基づいて、前記ネットワークパラメータを更新することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。
  9. RAW画像である訓練画像と正解画像を取得する取得部と、
    前記訓練画像を多層のニューラルネットワークへ入力して出力画像を生成する生成部と、
    前記正解画像と前記出力画像のそれぞれにガンマ補正を実行し、ガンマ補正された前記正解画像とガンマ補正された前記出力画像の誤差を算出する算出部と、
    前記誤差に基づいて、前記ニューラルネットワークのネットワークパラメータを更新する更新部と、を有することを特徴とする画像処理装置。
  10. 前記ネットワークパラメータを記憶する記憶部を更に有することを特徴とする請求項9に記載の画像処理装置。
  11. 請求項1乃至8のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
  12. 請求項11に記載の画像処理プログラムを記憶していることを特徴とする記憶媒体。
JP2018001552A 2018-01-10 2018-01-10 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体 Active JP7242185B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018001552A JP7242185B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体
CN201910010097.7A CN110021047B (zh) 2018-01-10 2019-01-07 图像处理方法、图像处理装置和存储介质
US16/240,864 US10922799B2 (en) 2018-01-10 2019-01-07 Image processing method that performs gamma correction to update neural network parameter, image processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001552A JP7242185B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2019121252A JP2019121252A (ja) 2019-07-22
JP7242185B2 true JP7242185B2 (ja) 2023-03-20

Family

ID=67140222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001552A Active JP7242185B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体

Country Status (3)

Country Link
US (1) US10922799B2 (ja)
JP (1) JP7242185B2 (ja)
CN (1) CN110021047B (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11322073B2 (en) * 2018-09-21 2022-05-03 Dell Products, Lp Method and apparatus for dynamically optimizing gamma correction for a high dynamic ratio image
JP6954260B2 (ja) * 2018-12-18 2021-10-27 セイコーエプソン株式会社 学習装置、印刷制御装置及び学習済モデル
WO2020176007A1 (en) * 2019-02-27 2020-09-03 Huawei Technologies Co., Ltd. An image processing apparatus and method
KR20210020387A (ko) * 2019-08-14 2021-02-24 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7170602B2 (ja) * 2019-08-27 2022-11-14 富士フイルム富山化学株式会社 学習データ作成装置及び方法、並びに機械学習装置及び方法
CN110570375B (zh) * 2019-09-06 2022-12-09 腾讯科技(深圳)有限公司 一种图像处理方法、装置、电子设置以及存储介质
CN111105379A (zh) * 2019-12-23 2020-05-05 福州大学 一种U-Net融合局部模糊核的图像盲去模糊方法
CN111179202B (zh) * 2019-12-31 2022-09-02 内蒙古工业大学 一种基于生成对抗网络的单幅图像去雾增强方法和***
US11574390B2 (en) 2020-01-20 2023-02-07 Canon Kabushiki Kaisha Apparatus and method for image processing
CN113139911A (zh) * 2020-01-20 2021-07-20 北京迈格威科技有限公司 图像处理方法及装置、图像处理模型的训练方法及装置
EP3869781A1 (en) 2020-02-20 2021-08-25 Koninklijke Philips N.V. Determining intensity distributions in imaging
EP3879483A1 (en) 2020-03-09 2021-09-15 Canon Kabushiki Kaisha Learning data manufacturing method, learning method, learning data manufacturing apparatus, learning apparatus, program, and memory medium
KR102304647B1 (ko) * 2020-05-19 2021-09-24 (주)가온아이 전자 기록물에 대한 검수 업무의 효율적인 할당이 가능한 검수 업무 관리 장치 및 그 동작 방법
US11829885B2 (en) 2020-06-17 2023-11-28 Canon Kabushiki Kaisha Image processing apparatus that performs machine learning of learning model, method of controlling image processing apparatus, and storage medium
CN111540312B (zh) * 2020-07-07 2020-10-02 武汉精立电子技术有限公司 一种Gamma调制方法
CN111829458B (zh) * 2020-07-20 2022-05-13 南京理工大学智能计算成像研究院有限公司 基于深度学习的伽马非线性误差矫正方法
CN114066785A (zh) * 2020-07-31 2022-02-18 北京小米移动软件有限公司 图像处理方法及装置、终端和存储介质
CN114830627A (zh) * 2020-11-09 2022-07-29 谷歌有限责任公司 红外光引导的肖像重照明
TWI768555B (zh) * 2020-11-23 2022-06-21 威盛電子股份有限公司 調整神經網路輸入資料的系統及方法
CN112381898B (zh) * 2020-12-07 2024-03-01 苏州律点信息科技有限公司 一种影像特征的提取方法、装置、存储介质及电子设备
CN112950497A (zh) * 2021-02-22 2021-06-11 上海商汤智能科技有限公司 图像处理方法、装置、电子设备及存储介质
CN113689343B (zh) * 2021-03-31 2024-06-18 西安理工大学 一种Resnet计算Veil的单幅图像去雾方法
US20240112384A1 (en) * 2021-04-06 2024-04-04 Nippon Telegraph And Telephone Corporation Information processing apparatus, information processing method, and program
KR20220161595A (ko) * 2021-05-27 2022-12-07 삼성디스플레이 주식회사 전자 장치 및 그 구동 방법
CN113824945B (zh) * 2021-11-22 2022-02-11 深圳深知未来智能有限公司 一种基于深度学***衡和颜色矫正方法
US20230179772A1 (en) 2021-12-06 2023-06-08 Canon Kabushiki Kaisha Image processing apparatus, image processing method, generation method and storage medium
WO2023229591A1 (en) * 2022-05-25 2023-11-30 Innopeak Technology, Inc. Real scene super-resolution with raw images for mobile devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005217592A (ja) 2004-01-28 2005-08-11 Mega Chips Corp 画素補間フィルタ生成装置および画素補間装置
JP2006140952A (ja) 2004-11-15 2006-06-01 Toa Corp 画像処理装置および画像処理方法
JP2009032021A (ja) 2007-07-26 2009-02-12 Seiko Epson Corp 画像処理装置、画像処理方法、およびコンピュータプログラム
US20170185871A1 (en) 2015-12-29 2017-06-29 Qiang Zhang Method and apparatus of neural network based image signal processor

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5376962A (en) * 1993-03-31 1994-12-27 Panasonic Technologies, Inc. Neural network video image processor
US8050452B2 (en) * 2001-03-22 2011-11-01 Digimarc Corporation Quantization-based data embedding in mapped data
JP4865771B2 (ja) * 2008-08-27 2012-02-01 シャープ株式会社 画像処理装置、画像形成装置、画像処理方法、画像処理プログラム及びコンピュータ読み取り可能な記録媒体
US20130321675A1 (en) * 2012-05-31 2013-12-05 Apple Inc. Raw scaler with chromatic aberration correction
US9373160B2 (en) 2013-12-18 2016-06-21 New York University System, method and computer-accessible medium for restoring an image taken through a window
JP2015154307A (ja) 2014-02-17 2015-08-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6282156B2 (ja) * 2014-03-31 2018-02-21 キヤノン株式会社 画像装置、画像処理方法、制御プログラム及び記憶媒体
JP2016031747A (ja) 2014-07-30 2016-03-07 キヤノン株式会社 情報処理装置、情報処理方法
CN106157273B (zh) * 2015-03-30 2020-01-21 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
FR3059804B1 (fr) * 2016-12-07 2019-08-02 Idemia Identity And Security Systeme de traitement d'images
US10176551B2 (en) * 2017-04-27 2019-01-08 Apple Inc. Configurable convolution engine for interleaved channel data
US10776904B2 (en) * 2017-05-03 2020-09-15 Samsung Electronics Co., Ltd. Method and apparatus for processing image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005217592A (ja) 2004-01-28 2005-08-11 Mega Chips Corp 画素補間フィルタ生成装置および画素補間装置
JP2006140952A (ja) 2004-11-15 2006-06-01 Toa Corp 画像処理装置および画像処理方法
JP2009032021A (ja) 2007-07-26 2009-02-12 Seiko Epson Corp 画像処理装置、画像処理方法、およびコンピュータプログラム
US20170185871A1 (en) 2015-12-29 2017-06-29 Qiang Zhang Method and apparatus of neural network based image signal processor

Also Published As

Publication number Publication date
JP2019121252A (ja) 2019-07-22
US10922799B2 (en) 2021-02-16
CN110021047B (zh) 2023-08-04
US20190213719A1 (en) 2019-07-11
CN110021047A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
JP7242185B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体
JP5188651B2 (ja) 画像処理装置、およびそれを用いた撮像装置
JP4571670B2 (ja) 画像モデルにおける色成分の修復のための方法、システム、プログラムモジュールおよびコンピュータプログラム製品
JP6327922B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7258604B2 (ja) 画像処理方法、画像処理装置、プログラム、および学習済みモデルの製造方法
US9036032B2 (en) Image pickup device changing the size of a blur kernel according to the exposure time
WO2011122283A1 (ja) 画像処理装置、およびそれを用いた撮像装置
US11830173B2 (en) Manufacturing method of learning data, learning method, learning data manufacturing apparatus, learning apparatus, and memory medium
JP7234057B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
JP2017010092A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6541454B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2012156715A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP2012003454A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP7414745B2 (ja) 学習データの製造方法、学習方法、学習データ製造装置、学習装置、およびプログラム
JP6559011B2 (ja) 画像処理装置、および画像処理方法
JP2021189929A (ja) 画像処理方法、プログラム、画像処理装置、および、画像処理システム
JP7504629B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、および記憶媒体
JP2012156714A (ja) プログラム、画像処理装置、画像処理方法および撮像装置。
JP2021140663A (ja) 画像処理方法、画像処理装置、画像処理プログラム、および記憶媒体
JP2021170197A (ja) 画像処理方法、画像処理装置、画像処理プログラム、および学習済みモデルの製造方法
WO2022215375A1 (ja) 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム
JP2017041763A (ja) 画像処理装置、および画像処理方法
JP6818461B2 (ja) 撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JP2024032621A (ja) 画像処理方法、画像処理装置、及びプログラム
JP2021190814A (ja) 学習方法、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R151 Written notification of patent or utility model registration

Ref document number: 7242185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151