JP7362284B2 - 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 - Google Patents

画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 Download PDF

Info

Publication number
JP7362284B2
JP7362284B2 JP2019067279A JP2019067279A JP7362284B2 JP 7362284 B2 JP7362284 B2 JP 7362284B2 JP 2019067279 A JP2019067279 A JP 2019067279A JP 2019067279 A JP2019067279 A JP 2019067279A JP 7362284 B2 JP7362284 B2 JP 7362284B2
Authority
JP
Japan
Prior art keywords
image
map
image processing
input
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067279A
Other languages
English (en)
Other versions
JP2020166628A (ja
Inventor
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019067279A priority Critical patent/JP7362284B2/ja
Priority to US16/826,370 priority patent/US11600025B2/en
Priority to CN202010210572.8A priority patent/CN111753869A/zh
Priority to EP20165811.9A priority patent/EP3716146A1/en
Publication of JP2020166628A publication Critical patent/JP2020166628A/ja
Application granted granted Critical
Publication of JP7362284B2 publication Critical patent/JP7362284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、ニューラルネットワークの推定精度の低下を抑制することが可能な画像処理方法に関する。
特許文献1には、ニューラルネットワークを用いて、画像中における認識対象の位置を高精度に判定する方法が開示されている。
特開2016-110232号公報
O. Ronneberger, P. Fischer, and T. Brox, "U-net: Convolutional networks for biomedical image segmentation," in MICCAI, 2015.
しかし、特許文献1で開示されている方法では、画像中に輝度飽和領域または黒潰れ領域が存在する場合、判定の精度が低下する。撮像素子のダイナミックレンジや撮像時の露出によって、画像中には輝度飽和領域または黒潰れ領域が発生し得る。輝度飽和領域または黒潰れ領域においては、被写体空間の構造に関する情報を取得することができず、また領域の境界部に本来は存在しない偽エッジが出現することもある。これらの影響のため、被写体本来とは異なる特徴量が抽出され、推定精度の低下を招く。
そこで本発明は、輝度飽和や黒潰れが発生している場合でも、ニューラルネットワークの推定精度の低下を抑制することが可能な画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法を提供することを目的とする。
本発明の一側面としての画像処理方法は、入力画像の信号値と該信号値の閾値とに基づくマップを取得する工程と、前記入力画像と前記マップとを含む入力データをニューラルネットワーク入力することで、認識または回帰のタスクを実行する工程とを有し、前記マップは、前記入力画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップである。
本発明の他の側面としての学習済みモデルの製造方法は、訓練画像と、訓練画像の信号値と該信号値の閾値とに基づくマップと、正解データとを取得する工程と、前記訓練画像と前記マップとを含む入力データと、前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う工程とを有し、前記マップは、前記訓練画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップである。
本発明の他の側面としての画像処理装置は、入力画像の信号値と該信号値の閾値とに基づくマップを取得する取得手段と、前記入力画像と前記マップとを含む入力データをニューラルネットワーク入力することで、認識または回帰のタスクを実行する処理手段とを有し、前記マップは、前記入力画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップである。
本発明の他の側面としての画像処理装置は、訓練画像と、訓練画像の信号値と該信号値の閾値とに基づくマップと、正解データとを取得する取得手段と、前記訓練画像と前記マップとを含む入力データと、前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う学習手段とを有し、前記マップは、前記訓練画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップである。
本発明の他の側面としての撮像装置は、被写体空間を撮像して撮像画像を取得する撮像手段と、前記画像処理装置とを有する。
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての画像処理システムは、第1の装置と、前記第1の装置と通信可能な第2の装置を含む画像処理システムであって、前記第1の装置は、撮像画像に対する処理を前記第2の装置に実行させるための要求を送信する送信手段を有し、前記第2の装置は、前記送信手段によって送信された前記要求を受信する受信手段と、前記撮像画像の信号値と該信号値の閾値とに基づく前記撮像画像のダイナミックレンジ外マップを取得する取得手段と、前記撮像画像と前記ダイナミックレンジ外マップとを含む入力データをニューラルネットワークへ入力し、認識または回帰のタスクを実行する処理手段と、前記タスクの結果を送信する送信手段とを有する。
本発明の他の側面としての学習済みモデルの製造方法は、訓練画像と、前記訓練画像の信号値と該信号値の閾値とに基づく前記訓練画像のダイナミックレンジ外マップと、正解データとを取得する工程と、前記訓練画像と前記ダイナミックレンジ外マップとを含む入力データと、前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワークを学習する工程とを有する。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、輝度飽和や黒潰れが発生している場合でも、ニューラルネットワークの推定精度の低下を抑制することが可能な画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法を提供することができる。
実施例1におけるニューラルネットワークの構成を示す図である。 実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 実施例1におけるウエイトの学習に関するフローチャートである。 実施例1における訓練画像と正解クラスマップの例を示す図である。 実施例1における訓練画像の輝度飽和領域とダイナミックレンジ外マップの例を示す図である。 実施例1における推定クラスマップの生成に関するフローチャートである。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。 実施例2におけるウエイトの学習に関するフローチャートである。 実施例2における訓練画像の輝度飽和および黒潰れ領域と、ダイナミックレンジ外マップの例を示す図である。 実施例2における訓練画像の4チャンネル化を示す図である。 実施例2におけるニューラルネットワークの構成を示す図である。 実施例2における加重平均画像の生成に関するフローチャートである。 実施例3における画像処理システムのブロック図である。 実施例3における出力画像の生成に関するフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
実施例の具体的な説明を行う前に、本発明の要旨を説明する。本発明は、ニューラルネットワークを用いた認識または回帰のタスクにおいて、画像中の輝度飽和や黒潰れによる推定精度の低下を抑制する。ここで、ニューラルネットワークに入力される入力データをx(d次元のベクトル。dは自然数)とする。認識とは、ベクトルxに対応するクラスyを求めるタスクである。例えば、画像中の被写体を人、犬、車などに分類するタスクや、顔画像から笑顔、泣き顔などの表情を認識するタスクなど、被写体の性質や意味を認識するタスクが挙げられる。クラスyは一般に離散変数であり、セグメンテーションマップの生成などではベクトルにもなり得る。これに対して回帰は、ベクトルxに対応する連続変数yを求めるタスクである。例えば、ノイズのある画像からノイズのない画像を推定するタスクや、ダウンサンプリングされた画像からダウンサンプリング前の高解像な画像を推定するタスクなどが挙げられる。
前述したように、輝度飽和や黒潰れを起こした領域(輝度飽和領域または黒潰れ領域)では、被写体空間の構造に関する情報が失われ、各領域の境界で偽エッジが出現することもあり、被写体の正しい特徴量を抽出できない。このため、ニューラルネットワークの推定精度が低下する。本発明は、これを抑制するため、ニューラルネットワークの入力データとして、入力画像と入力画像に対応するダイナミックレンジ外マップを用いる。ダイナミックレンジ外マップとは、入力画像において輝度飽和領域または黒潰れ領域を表すマップである。ダイナミックレンジ外マップを入力することで、ニューラルネットワークが前述のような問題のある領域を特定できるため、推定精度の低下を抑制することができる。
なお以下では、ニューラルネットワークのウエイトを学習する段階のことを学習フェーズとし、学習済みのウエイトで認識または回帰を行う段階のことを推定フェーズとする。
まず、本発明の実施例1における画像処理システムに関して説明する。実施例1においてニューラルネットワークは、画像中の人領域を検出する認識タスク(人か否かのセグメンテーション)を実行する。ただし、これに限定されず、その他の認識または回帰タスクにも同様に適用が可能である。
図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。図3には、撮像装置102の表裏の両方が示されている。画像処理システム100は、学習装置101、撮像装置102、および、ネットワーク103を有する。学習装置101は、記憶部111、取得部(取得手段)112、検出部(学習手段)113、および、更新部(学習手段)114を有し、人領域の検出を行うニューラルネットワークのウエイトを学習する。この学習の詳細に関しては、後述する。学習装置101で学習されたウエイトの情報は、記憶部111に記憶される。撮像装置102は、撮像画像の取得とニューラルネットワークによる人領域の検出を実行する。
撮像装置102は、光学系121と撮像素子122を有する。光学系121は、被写体空間から撮像装置102へ入射した光を集光する。撮像素子122は、光学系121を介して形成された光学像(被写体像)を受光して(光電変換して)撮像画像を取得する。撮像素子122は、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal-Oxide Semiconductor)センサなどである。
画像処理部123は、取得部(取得手段)123aと検出部(処理手段)123bを有し、撮像画像の少なくとも一部を入力画像として、人領域の検出を実行する。この際、記憶部124に記憶されたウエイトの情報が用いられる。ウエイトの情報は、事前に有線または無線のネットワーク103を介して学習装置101から読み込んで、記憶部124に記憶されている。記憶されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。人領域の検出処理に関する詳細は後述する。画像処理部123は、検出した人領域に基づく処理を実行し、出力画像を生成する。例えば、人領域が適切な明るさになるように撮像画像の明るさ調整などを行う。出力画像は、記録媒体125に保存される。或いは、撮像画像をそのまま記録媒体125に保存し、その後、画像処理部123が記録媒体125から撮像画像を読み込んで、人領域の検出を行ってもよい。記録媒体125に保存された出力画像は、ユーザの指示に従って表示部126に表示される。一連の動作は、システムコントローラ127によって制御される。
次に、図4を参照して、本実施例における学習装置101で実行されるウエイトの学習(学習済みモデルの製造)に関して説明する。図4は、ウエイトの学習に関するフローチャートである。図4の各ステップは、主に、学習装置101の取得部112、検出部113、または、更新部114により実行される。
まずステップS101において、取得部112は、1組以上の訓練画像と正解クラスマップ(正解のセグメンテーションマップ、正解データとも言う)、及びダイナミックレンジ外マップを取得する。訓練画像は、ニューラルネットワークの学習フェーズにおける入力画像である。正解クラスマップは、訓練画像に対応する正解のセグメンテーションマップである。
図5は、訓練画像と正解クラスマップの例である。図6は、訓練画像の輝度飽和領域とダイナミックレンジ外マップの例を示す図である。図5(A)は訓練画像の例を示し、図5(B)はそれに対応する正解クラスマップを示す。図5(B)中の白が人領域を表すクラスであり、黒がそれ以外の領域を表すクラスである。図5(A)の訓練画像は、輝度飽和している領域が存在する。
図6(A)は、輝度飽和領域を波線で描画した画像を示す。本実施例において、ダイナミックレンジ外マップは、訓練画像の各画素に対して輝度飽和が発生しているか否かを表すマップである。ただし本発明は、これに限定されるものではなく、黒潰れを表すマップでもよい。ダイナミックレンジ外マップは、訓練画像の各画素における信号値と、閾値である輝度飽和値とを比較し、信号値が輝度飽和値以上である場合にダイナミックレンジ外であるとして生成される。或いは、訓練画像に対して前記手法で予め生成されたダイナミックレンジ外マップを読み出して取得してもよい。
本実施例において、ダイナミックレンジ外マップは、図6(B)のような1か0か(輝度飽和しているか否かを示す情報、なお、数値の意味は逆でもよい)のバイナリマップである。バイナリマップは、データの容量を軽量にできる利点がある。ただし本発明は、これに限定されるものではなく、信号値が輝度飽和値にどの程度近いかを表すような、中間値を有するマップでもよい。推定フェーズで未知の撮像シーンの画像に対しても、安定して人領域を検出できるように、学習フェーズでは様々な撮像シーンの訓練画像を複数使用する。また、同一の撮像シーンでも、明るさを変更して複数の訓練画像としてもよい。なお、訓練画像は、推定フェーズの入力画像と同じ形式である。推定フェーズの入力画像が未現像のRAW画像であれば、訓練画像も同様に未現像のRAW画像である。推定フェーズの入力画像が現像後の画像であれば、訓練画像も同様である。また、訓練画像がRAW画像の場合、ホワイトバランスをかけてからダイナミックレンジ外マップを生成してもよい。なお、推定フェーズの入力画像と訓練画像の画素数は、必ずしも一致しなくてよい。
続いて、図4のステップS102において、検出部113は、訓練画像とダイナミックレンジ外マップをニューラルネットワークへ入力し、推定クラスマップを生成する。本実施例において、ニューラルネットワークは、図1に示されるU-Net(詳細は非特許文献1を参照)を使用するが、これに限定されるものではない。入力データ201は、訓練画像とダイナミックレンジ外マップをチャンネル方向に連結(concatenation)したデータである。連結順に制限はなく、その他のデータを途中に挟んでもよい。訓練画像は、RGB(Red,Green,Blue)の複数チャンネルを有していてもよい。ダイナミックレンジ外マップは1チャンネルだけでも、訓練画像と同じチャンネル数を有していてもよい。1チャンネルの場合は、例えば色差を除いた輝度成分に対して輝度飽和の有無を表現したマップとなる。訓練画像とダイナミックレンジ外マップの1チャンネルあたりの画素数(要素数)は、同じである。ニューラルネットワークには輝度飽和を含む様々なシーンの訓練画像が入力されるが、入力データにダイナミックレンジ外マップを含めることで、訓練画像の輝度飽和領域をニューラルネットワークが特定できるため、推定精度の低下を抑制できる。
入力データは、必要に応じて正規化を行ってもよい。訓練画像がRAW画像の場合、撮像素子やISO感度によって黒レベルが異なる場合があるため、訓練画像の信号値から黒レベルを減算した後、ニューラルネットワークへ入力する。正規化に関しても、黒レベルを減算してから行うことが望ましい。図1中のConv.は1層以上の畳み込み層、Max Poolは最大値プーリング、Up Conv.はアップサンプリングを含む1層以上の畳み込み層、Concat.はチャンネル方向の連結を表す。学習の初回において、各畳み込み層のフィルタのウエイトは乱数で決定する。訓練画像に対応したU-Netの出力である推定クラスマップ202が算出される。
また、入力画像またはダイナミックレンジ外マップの一方のみをニューラルネットワークの第1層に入力して少なくとも第1層を経た後の出力である特徴マップと第1層に入力されない他方をチャンネル方向に連結し、後続の層へ入力してもよい。また、ニューラルネットワークの入力部分を分岐させ、入力画像とダイナミックレンジ外マップをそれぞれ異なる層で特徴マップに変換し、それらの特徴マップを連結して後続の層へ入力してもよい。
続いて、図4のステップS103において、更新部114は、推定クラスマップと正解クラスマップから、ニューラルネットワークのウエイトを更新する。実施例1では、ロス関数として推定クラスマップと正解クラスマップのクロスエントロピーを使用するが、これに限定されるものではない。算出されたロス関数の値から、誤差逆伝播法(Backpropagation)などによってウエイトの更新を行う。
続いて、図4のステップS104において、更新部114は、ウエイトの学習が完了したかを判定する。完了は、学習(ウエイトの更新)の反復回数が規定値に達したかや、更新時のウエイトの変化量が規定値より小さいかなどによって、判定することができる。未完と判定された場合はステップS101へ戻り、1組以上の新たな訓練画像、ダイナミックレンジ外マップ、正解クラスマップを取得する。完了と判定された場合は学習を終了し、ウエイトの情報を記憶部111に保存する。
次に、図7を参照して、本実施例における画像処理部123で実行される入力画像の人領域検出(推定クラスマップの生成、推定フェーズ)に関して説明する。図7は、推定クラスマップの生成に関するフローチャートである。図7の各ステップは、主に、画像処理部123の取得部123aまたは検出部123bにより実行される。
まずステップS201において、取得部123aは、入力画像と入力画像に対応する閾値(本実施例では輝度飽和値)を取得する。入力画像は、撮像素子122で撮像された撮像画像の少なくとも一部である。撮像素子122の輝度飽和値は、記憶部124に保存されており、その値を読み込んで取得する。続いてステップS202において、取得部123aは、入力画像の各画素における信号値と閾値との比較に基づいて、ダイナミックレンジ外マップを生成する。続いてステップS203において、検出部123bは、入力画像とダイナミックレンジ外マップを入力データとして、ニューラルネットワークへ入力し、推定クラスマップを生成する。この際、図1のニューラルネットワークと学習フェーズで得られたウエイトが使用される。
本実施形態によれば、輝度飽和が発生している場合でも、高精度なセグメンテーションマップを生成することが可能な画像処理システムを実現することができる。
次に、本発明の実施例2における画像処理システムに関して説明する。本実施例において、ニューラルネットワークは、撮像画像の収差、回折によるぼけを補正する回帰タスク(デブラー)を実行する。ただし本発明は、これに限定されるものではなく、その他の認識または回帰タスクにも適用が可能である。
図8は、本実施例における画像処理システム300のブロック図である。図9は、画像処理システム300の外観図である。画像処理システム300は、学習装置(画像処理装置)301、撮像装置302、画像推定装置303、表示装置304、記録媒体305、出力装置306、および、ネットワーク307を有する。
学習装置301は、記憶部301a、取得部(取得手段)301b、生成部(学習手段)301c、および、更新部(学習手段)301dを有する。撮像装置302は、光学系302aと撮像素子302bを有する。撮像素子302bで撮像された撮像画像には、光学系302aの収差や回折によるぼけと、撮像素子302bのダイナミックレンジによる輝度飽和と黒潰れが存在する。画像推定装置303は、記憶部303a、取得部303b、および、生成部303cを有し、撮像画像の少なくとも一部である入力画像のぼけを補正した推定画像を生成し、入力画像と推定画像から加重平均画像を生成する。入力画像および推定画像は、RAW画像である。ぼけ補正にはニューラルネットワークを使用し、そのウエイトの情報は記憶部303aから読み出される。該ウエイトは学習装置301で学習されたものであり、画像推定装置303は、事前にネットワーク307を介して記憶部301aから該ウエイトの情報を読み出し、記憶部303aに記憶している。ウエイトの学習、およびウエイトを用いたぼけ補正処理に関する詳細は、後述する。画像推定装置303は、加重平均画像に対して現像処理を行い、出力画像を生成する。出力画像は、表示装置304、記録媒体305、出力装置306の少なくともいずれかに出力される。表示装置304は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは表示装置304を介して、処理途中の画像を確認しながら編集作業などを行うことができる。記録媒体305は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバ等である。出力装置306は、プリンタなどである。
次に、図10を参照して、学習装置301で実行されるウエイトの学習(学習フェーズ)に関して説明する。図10は、ウエイトの学習に関するフローチャートである。図10の各ステップは、主に、学習装置301の取得部301b、生成部301c、または、更新部301dにより実行される。
まずステップS301において、取得部301bは、一組以上のソース画像と撮像条件を取得する。収差、回折によるぼけ補正の学習には、ぼけ画像(第1の訓練画像)とぼけのない画像(正解画像)のペアが必要になる。本実施例では、このペアをソース画像から撮像シミュレーションによって生成する。ただし本発明は、これに限定されるものではなく、収差、回折によるぼけを補正したいレンズとそれよりも高性能なレンズで同一被写体を撮像し、前記ペアを用意してもよい。
なお本実施例では、RAW画像での学習とぼけ補正を行うが、本発明はこれに限定されるものではなく、現像後の画像でもよい。ソース画像はRAW画像であり、撮像条件はソース画像を被写体として撮像シミュレーションを行う際のパラメータである。パラメータは、撮像に使用する光学系、光学系のステート(ズーム、絞り、合焦距離)、像高、光学ローパスフィルタの有無と種類、撮像素子のノイズ特性、画素ピッチ、ISO感度、カラーフィルタ配列、ダイナミックレンジ、黒レベルなどである。本実施例では、光学系ごとにぼけ補正に使用するウエイトの学習を行う。特定の光学系に対して、ステートや像高、画素ピッチやISO感度などの組み合わせを複数設定して、異なる撮像条件での第1の訓練画像と正解画像(正解データ)のペアを生成する。望ましくは、ソース画像は訓練画像よりもダイナミックレンジの広い画像であるとよい。ソース画像と訓練画像のダイナミックレンジが同じ場合、ソース画像の小さな輝度飽和領域や黒潰れ領域はぼかし処理によって消滅し、学習できなくなるためである。ダイナミックレンジの広いソース画像は、ダイナミックレンジの広い撮像素子で撮像するか、異なる露出で同一被写体の画像を撮像して合成するか、などによって用意することができる。
続いてステップS302において、生成部301cは、撮像条件に基づいて、ソース画像から第1の訓練画像および第2の訓練画像と正解画像を生成する。第1の訓練画像と正解画像はそれぞれ、ソース画像に対して光学系で発生する収差、回折によるぼけを付与した画像と、付与しない画像である。必要に応じて、第1の訓練画像と正解画像にノイズを付与する。第1の訓練画像にノイズを付与しない場合、推定フェーズにおいて、ニューラルネットワークはぼけ補正と同時にノイズの増幅を行う。第1の訓練画像にノイズを付与し、正解画像にノイズを付与しない、または第1の訓練画像のノイズと相関のないノイズを付与すると、ニューラルネットワークではぼけ補正とデノイジングが学習される。これに対して、正解画像に第1の訓練画像のノイズと相関のあるノイズを付与すると、ノイズ変化を抑制したぼけ補正が学習される。
本実施例では、第1の訓練画像と正解画像に相関のあるノイズを付与する。ソース画像のダイナミックレンジが、第1の訓練画像より大きい場合、信号値のクリップによって第1の訓練画像と正解画像のダイナミックレンジを本来の正しい範囲に収める。また本実施例では、第1の訓練画像に対してWienerフィルタを使用し、ぼけをある程度補正した第2の訓練画像(学習フェーズにおける中間ぼけ補正画像)を生成する。Wienerフィルタは、第1の訓練画像に付与したぼけから算出されたフィルタである。ただし、補正方法はWienerフィルタに限定されず、その他の逆フィルタベースの手法や、Richardson-Lucy法などを用いてもよい。第2の訓練画像も使用することで、ニューラルネットワークのぼけの変化に対するぼけ補正のロバスト性を向上することができる。また、必要に応じて、撮像シミュレーションの際にソース画像を縮小する。ソース画像をCG(Computer Graphics)でなく実写で用意した場合、ソース画像は何らかの光学系を介して撮像された画像である。故に、既に収差、回折によるぼけが存在している。しかし、縮小を行うことによって、ぼけの影響を小さくし、高周波まで存在する正解画像を生成することができる。
続いてステップS303において、生成部301cは、ダイナミックレンジ外マップを生成する。第1の訓練画像(学習フェーズにおける入力画像)の信号値と信号の閾値の比較に基づいて、ダイナミックレンジ外マップを生成する。ただし、第2の訓練画像の信号値からダイナミックレンジ外マップを生成してもよい。
本実施例において、信号の閾値は、撮像素子302bの輝度飽和値と黒レベルに基づく。例を図11に示す。図11(A)は、第1の訓練画像であり、信号値が輝度飽和値(第1の閾値)以上の領域を波線で表している。また、信号値が黒レベルに定数を加えた値(第2の閾値)以下の領域を縦線で表している。この際、第1の訓練画像に対応するダイナミックレンジ外マップは、図11(B)のようになる。第1の閾値以上の領域を1、第2の閾値以下の領域を0、それ以外の領域を0.5としている。ただし本発明は、これに限定されるものではなく、例えば第2の閾値より大きく且つ第1の閾値未満の領域を0とし、それ以外の構造の潰れた領域を1としてもよい。
次に、第2の閾値において、黒レベルに定数を加算した理由を説明する。第1の訓練画像にはノイズが付与されているため、真の信号値が黒レベルでも、ノイズによって信号値が黒レベルを超えることがある。このため、ノイズによる信号値の上昇を考慮して、第2の閾値には定数を加算する。定数は、ノイズ量を反映した値とすることが望ましい。例えば、ノイズの標準偏差のn倍(nは正の実数)などにするとよい。ダイナミックレンジ外マップは、学習フェーズと推定フェーズの両方でニューラルネットワークに入力される。学習フェーズにおいては、シミュレーションでノイズを付与するため、標準偏差が既知だが、推定フェーズにおける入力画像のノイズは未知である。このため、推定フェーズでは、撮像素子302bのノイズ特性を計測しておき、撮像時のISO感度から第2の閾値に加算する定数を決定するとよい。ただし、ノイズが充分に小さい場合は、定数はゼロとしてもよい。
続いてステップS304において、生成部301cは、第1及び第2の訓練画像とダイナミックレンジ外マップをニューラルネットワークに入力し、推定画像(ぼけ補正画像)を生成する。本実施例では、第1及び第2の訓練画像とダイナミックレンジ外マップを、各々4チャンネル化して、ニューラルネットワークへ入力する。図12を用いて、これを説明する。図12(A)は、第1の訓練画像のカラーフィルタ配列を表したものである。G1とG2は、2つのGreen成分を表す。ニューラルネットワークに入力する際、第1の訓練画像を図12(B)のように4チャンネル化する。破線は、同一位置における各チャンネル成分を表す。ただし色の配列順は、図12のものに限定されない。同様に、第2の訓練画像とダイナミックレンジ外マップも4チャンネル化する。ただし、4チャンネル化を必ずしも行う必要はない。また必要に応じて、第1及び第2の訓練画像の正規化や黒レベルの減算を行う。
本実施例では、図13に示されるニューラルネットワークを使用するが、本発明はこれに限定されるものではなく、例えばGAN(Generative Adversarial Network)などを用いてもよい。入力データ511は、4チャンネル化された第1の訓練画像501、第2の訓練画像、ダイナミックレンジ外マップをチャンネル方向に連結したデータである。チャンネル方向の連結順に制限はない。Conv.は1層以上の畳み込み層、Deconv.は、1層以上の逆畳み込み層を表す。第2乃至第4のスキップコネクション522乃至524は、2つの特徴マップに関して要素ごとの和を取る。或いは、チャンネル方向に連結してもよい。第1のスキップコネクション521は、第1の訓練画像501(或いは、第2の訓練画像でもよい)と最終層から出力された残差画像の和を取り、推定画像512を得る。ただし、スキップコネクションの数は、図13に限定されるものではない。推定画像512も、図12(B)のような4チャンネル画像である。
ぼけ補正のような画像の高解像化や高コントラスト化では、輝度飽和や黒潰れによって被写体の情報が失われた領域の近傍に弊害が出やすい。また、ぼけが補正されたことによって、被写体情報の失われた領域が小さくなることがある。このため、被写体情報の失われた領域においてニューラルネットワークは、それ以外の領域と異なり、インペインティング処理を行う必要がある。ダイナミックレンジ外マップの入力によって、ニューラルネットワークがこれらの領域を特定することができるため、高精度な補正が可能になる。
続いてステップS305において、更新部301dは、推定画像と正解画像からニューラルネットワークのウエイトを更新する。本実施例では、推定画像と正解画像における信号値の差のユークリッドノルムをロス関数とする。ただし、ロス関数はこれに限定されない。差分を取る前に、正解画像も推定画像に合わせて4チャンネル化する。さらに実施例2では、輝度飽和や黒潰れの起きた領域をロスから除外する。前記領域は、被写体空間の情報が失われているため、正解画像に近付けるには前述したようにインペインティングのタスクが必要になる。しかし、インペインティングは偽構造を発生させる可能性があるため、前記領域は実施例2において推定から除外し、推定フェーズにおいても入力画像で置き換える。第1の訓練画像は、図12(B)に示されるように複数の色成分を有する。このため、ある色成分が輝度飽和または黒潰れしていても、他の色成分で被写体の構造が取得されていることがある。この場合、極近傍の位置に存在する画素から情報を推定できるため、偽構造が出現しにくい。故に、ダイナミックレンジ外マップにおいて、全チャンネルがダイナミックレンジ外となっている画素を0とし、残りの画素を1としたロス重みマップを生成し、推定画像と正解画像の差分に対して、要素ごとの積を取り、ロスを計算する。これによって、偽構造の出現しやすい領域のみを除外することができる。なお、ロスから偽構造の出やすい領域を除外する作業は、必ずしも必要ではない。
続いてステップS306において、更新部301dは、学習が完了したか否かを判定する。学習が未完である場合、ステップS301へ戻り、新たな一組以上のソース画像と撮像条件を取得する。一方、学習が完了した場合、ウエイトの情報を記憶部301aに記憶する。
次に、図14を参照して、画像推定装置303で実行される入力画像の収差、回折によるぼけの補正(加重平均画像の生成、推定フェーズ)に関して説明する。図14は、加重平均画像の生成に関するフローチャートである。図14の各ステップは、主に、画像推定装置303の取得部303bと生成部303cにより実行される。
まずステップS401において、取得部303bは、撮像画像から入力画像と、入力画像に対応する閾値とを取得する。第1の閾値は撮像素子302bの輝度飽和値であり、第2の閾値は撮像素子302bの黒レベルに定数を加算した値である。定数は、撮像画像を撮像した際のISO感度から、撮像素子302bのノイズ特性を用いて決定される。
続いてステップS402において、生成部303cは、入力画像の信号値と第1及び第2の閾値との比較から、ダイナミックレンジ外マップを生成する。このダイナミックレンジ外マップは、学習フェーズのステップS303と同様の方法で生成される。
続いてステップS403において、生成部303cは、入力画像から中間ぼけ補正画像を生成する。光学系302aの収差、回折によるぼけを補正するWienerフィルタの情報を記憶部303aから呼び出し、入力画像に作用させることで、中間ぼけ補正画像を生成する。入力画像は像高ごとにぼけが異なるため、シフトバリアントな補正を行う。なお、ステップS402とステップS403はいずれを先に行ってもよい。
続いてステップS404において、生成部303cは、入力画像と中間ぼけ補正画像とダイナミックレンジ外マップをニューラルネットワークへ入力し、推定画像を生成する。ニューラルネットワークは、図13に示される構成を使用し、学習時と同じ順番でチャンネル方向に入力画像(第1の訓練画像に相当)、中間ぼけ補正画像(第2の訓練画像に相当)、ダイナミックレンジ外マップを連結した入力データを入力する。また、記憶部303aから光学系302aに対応したウエイトの情報を読み出し、推定画像を生成する。ニューラルネットワークへの入力時に正規化や黒レベルの減算を行っている場合は、推定画像に対して信号値のスケールを戻す処理と黒レベルの加算を行う。
続いてステップS405において、生成部303cは、入力画像の信号値と第1及び第2の閾値の比較に基づいて、重みマップを算出する。すなわち生成部303cは、入力画像の信号値と信号値の閾値とに基づく重みマップを取得する。本実施例では、学習フェーズで算出したロス重みマップと同様に、ダイナミックレンジ外マップを用いて重みマップを算出する。例えば、輝度飽和または黒潰れしたある色成分の対象画素に対して、最近傍の他の全色の画素が同様に輝度飽和または黒潰れしている場合は重みを0とし、それ以外は1とする。
このように本実施形態において、入力画像は複数の色成分を有する。入力画像の対象画素と、対象画素と異なる色成分で且つ所定の領域内(例えば最近傍)の画素とが全て輝度飽和または黒潰れしている場合、対象画素の位置における入力画像の重みがニューラルネットワークの出力よりも大きくなるように重みマップを生成する。一方、入力画像の対象画素と対象画素と異なる色成分で且つ所定の領域内の画素とのいずれかが輝度飽和または黒潰れしていない場合、対象画素の位置における入力画像の重みがニューラルネットワークの出力よりも小さくなるように重みマップを生成する。
また、算出された重みマップの不連続性を緩和するためにぼかし処理を行ったり、他の方法で重みマップを生成したりしてもよい。なお、重みマップは、ステップS401とステップS406との間であれば、いつ生成してもよい。
続いてステップS406において、生成部303cは、入力画像と推定画像を、重みマップに基づいて重み付け平均し、加重平均画像を生成する。すなわち生成部303cは、ニューラルネットワークの出力(推定画像または残差画像)と入力画像と重みマップとに基づいて、加重平均画像を生成する。重みマップと推定画像の要素ごとの積と、全要素1のマップから重みマップを減算したマップと入力画像の要素ごとの積との和を取ることで、加重平均画像を生成する。なお、ステップS406の代わりに、ステップS404のスキップコネクション521による入力画像と残差画像の和を取る際、重みマップを用いることで、偽構造の出やすい領域を入力画像に置き換えた推定画像を生成してもよい。この場合、重みマップが示した偽構造の出やすい画素を入力画像とし、それ以外の画素を入力画像と残差画像の和とする。学習フェーズでも同様の処理を行うことで、ステップS305のロス関数から、偽構造の出やすい領域を除外することもできる。
本実施例によれば、輝度飽和や黒潰れが発生している場合でも、高精度なぼけ補正を行うことが可能な画像処理システムを実現することができる。
このように実施例1および実施例2において、取得手段(取得部123a;取得部303b、生成部303c)は、入力画像の信号値と信号値の閾値とに基づく入力画像のダイナミックレンジ外マップを取得する。処理手段(検出部123b;生成部303c)は、入力画像とダイナミックレンジ外マップとを含む入力データをニューラルネットワークへ入力し、認識または回帰のタスクを実行する。
次に、本発明の実施例3における画像処理システムに関して説明する。本実施例の画像処理システムは、画像推定装置に対して画像処理の対象である撮像画像(入力画像)を送信し処理済みの出力画像を画像推定装置から受信する処理装置(コンピュータ)を有する点で、実施例1および実施例2と異なる。
図15は、本実施例における画像処理システム600のブロック図である。画像処理システム600は、学習装置601、撮像装置602、画像推定装置603、処理装置(コンピュータ)604を有する。学習装置601および画像推定装置603は、例えばサーバである。コンピュータ604は、例えばユーザ端末(パーソナルコンピュータまたはスマートフォン)である。コンピュータ604は、ネットワーク605を介して画像推定装置603に接続されている。画像推定装置603はネットワーク606を介して学習装置601に接続されている。すなわち、コンピュータ604と画像推定装置603は通信可能に構成され、画像推定装置603と学習装置601は通信可能に構成されている。コンピュータ604は第1の装置に相当し、画像推定装置603は第2の装置に相当する。なお学習装置601の構成は、実施例2の学習装置301と同様のため説明を省略する。撮像装置602の構成は、実施例2の撮像装置302と同様のため説明を省略する。
画像推定装置603は、記憶部603a、取得部(取得手段)603b、生成部(処理手段)603c、通信部(受信手段、送信手段)603dを有する。記憶部603a、取得部603b、生成部603cのそれぞれは、実施例2の画像推定装置303の記憶部103a、取得部103b、生成部103cと同様である。通信部603dはコンピュータ604から送信される要求を受信する機能と、画像推定装置603によって生成された出力画像をコンピュータ604に送信する機能を有する。
コンピュータ604は、通信部(送信手段)604a、表示部604b、画像処理部604c、記録部604dを有する。通信部604aは撮像画像に対する処理を画像推定装置603に実行させるための要求を画像推定装置603に送信する機能と、画像推定装置603によって処理された出力画像を受信する機能を有する。表示部604bは種々の情報を表示する機能を有する。表示部604bによって表示される情報は、例えば画像推定装置603に送信する撮像画像と、画像推定装置603から受信した出力画像を含む。画像処理部604cは画像推定装置603から受信した出力画像に対してさらに画像処理を施す機能を有する。記録部604dは、撮像装置602から取得した撮像画像、画像推定装置603から受信した出力画像等を記録する。
次に、図16を参照して、本実施例における画像処理について説明する。本実施例における画像処理は、実施例2にて説明したぼけ補正(デブラー)処理(図14)と同等である。図16は、出力画像の生成に関するフローチャートである。図16に示した画像処理は、コンピュータ604を介してユーザにより画像処理開始の指示が成されたことを契機として開始される。まず、コンピュータ604における動作について説明する。
ステップS701において、コンピュータ604は撮像画像に対する処理の要求を画像推定装置603へ送信する。なお、処理対象である撮像画像を画像推定装置603に送信する方法は問わない。例えば、撮像画像はステップS701と同時にコンピュータ604から画像推定装置603にアップロードされても良いし、ステップS701以前に画像推定装置603にアップロードされていても良い。なお、コンピュータ604に記録された画像でなく、撮像画像は画像推定装置603とは異なるサーバ上に記憶された画像でも良い。なお、ステップS701において、コンピュータ604は撮像画像に対する処理の要求と共に、ユーザを認証するID情報等を送信しても良い。ステップS702において、コンピュータ604は画像推定装置603内で生成された出力画像を受信する。出力画像は実施例2と同様に撮像画像に対してぼけ補正が成された推定画像である。
次に、画像推定装置603の動作について説明する。ステップS801において、画像推定装置603はコンピュータ604から送信された撮像画像に対する処理の要求を受信する。画像推定装置603は、撮像画像に対する処理(ぼけ補正処理)が指示されたと判断し、ステップS802以降の処理を実行する。ステップS802~S807は、実施例2のステップS401~S406と同様である。ステップS808において、画像推定装置603は回帰タスクの結果である推定画像(加重平均画像)を出力画像としてコンピュータ604へ送信する。
本実施例は、実施例2のぼけ補正処理を行うものとして説明したが、実施例1の人領域検出(図7)においても同様に適用することができる。なお、本実施例では、実施例2のステップS401~S406に相当する処理を全て画像推定装置603で行うことを説明したが、本発明はこれに限定されない。例えば、コンピュータ604内で実施例2のステップS401~S406(本実施例のステップS802~ステップS807)のうちの1つ以上を行い、その結果をコンピュータ604から画像推定装置603へ送信するようにしても良い。
以上のように、本実施例のように、画像推定装置603を、画像推定装置603と通信可能に接続されたコンピュータ604を用いて制御するように構成しても良い。
その他、各実施例における回帰タスクの例として、撮像画像のデフォーカスぼけの整形が挙げられる。デフォーカスぼけの整形とは、二線ぼけ、ヴィネッティング、非球面レンズの金型に起因する輪帯模様、ミラーレンズのリング状のデフォーカスぼけなどを、任意の分布のぼけに変換するタスクである。この際も、輝度飽和または黒潰れによって情報が失われた領域で弊害が出やすい。しかし、ダイナミックレンジ外マップをニューラルネットワークへ入力することで、弊害を抑制してデフォーカスぼけの整形を実行できる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、輝度飽和や黒潰れが発生している場合でも、ニューラルネットワークの推定精度の低下を抑制することが可能な画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法を提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
123 画像処理部(画像処理装置)
123a 取得部(取得手段)
123b 検出部(処理手段)
303 画像推定装置(画像処理装置)
303b 取得部(取得手段)
303c 生成部(取得手段、処理手段)

Claims (18)

  1. 入力画像の信号値と該信号値の閾値とに基づくマップを取得する工程と、
    前記入力画像と前記マップとを含む入力データをニューラルネットワークに入力することで、認識または回帰のタスクを実行する工程とを有し、
    前記マップは、前記入力画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップであることを特徴とする画像処理方法。
  2. 前記閾値は、前記入力画像の輝度飽和値または黒レベルの少なくとも一方に基づいて設定されることを特徴とする請求項1に記載の画像処理方法。
  3. 前記入力データは、前記入力画像と前記マップとをチャンネル方向に連結することによって得られることを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記タスクを実行する工程において、
    前記入力画像または前記マップの一方のみを前記ニューラルネットワークの第1層に入力することで特徴マップに変換し、前記特徴マップと、前記入力画像または前記マップのうち前記第1層に入力されていない他方とをチャンネル方向に連結した後に、前記ニューラルネットワークの後続の層に入力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
  5. 前記タスクを実行する工程において、
    前記ニューラルネットワークの互いに異なる層に前記入力画像および前記マップを入力することで、該入力画像および該マップをそれぞれ異なる層で特徴マップに変換し、
    前記特徴マップをチャンネル方向に連結した後に、前記ニューラルネットワークの後続の層に入力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
  6. 前記入力画像および前記マップのチャンネルごとの画素数は、互いに等しいことを特徴とする請求項1乃至5のいずれか一項に記載の画像処理方法。
  7. 前記タスクは、前記入力画像のぼけ補正を含むことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理方法。
  8. 前記信号値と該信号値の閾値とに基づく重みマップを取得する工程と、
    前記ニューラルネットワークの出力と前記入力画像と前記重みマップとに基づいて加重平均画像を生成する工程と、を更に有することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理方法。
  9. 前記入力画像は、複数の色成分を有し、
    前記入力画像の対象画素と、該対象画素と異なる色成分で且つ所定の領域内の画素とが全て輝度飽和または黒潰れしている場合、前記対象画素の位置における前記入力画像の重みが前記出力の重みよりも大きくなるように前記重みマップを生成することを特徴とする請求項8に記載の画像処理方法。
  10. 前記入力画像は、複数の色成分を有し、
    前記入力画像の対象画素と、該対象画素と異なる色成分で且つ所定の領域内の画素とのいずれかが輝度飽和または黒潰れしていない場合、前記対象画素の位置における前記入力画像の重みが前記出力の重みよりも小さくなるように前記重みマップを生成することを特徴とする請求項8または9に記載の画像処理方法。
  11. 入力画像の信号値と該信号値の閾値とに基づくマップを取得する取得手段と、
    前記入力画像と前記マップとを含む入力データをニューラルネットワークに入力することで、認識または回帰のタスクを実行する処理手段とを有し、
    前記マップは、前記入力画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップであることを特徴とする画像処理装置。
  12. 前記ニューラルネットワークに関する情報を記憶する手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  13. 被写体を撮像することで前記入力画像を取得する撮像手段と、
    請求項11または12に記載の画像処理装置とを有することを特徴とする撮像装置。
  14. 請求項1乃至10のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  15. 請求項11または12に記載の画像処理装置と、該画像処理装置と通信可能な制御装置とを含む画像処理システムであって、
    前記制御装置は、画像に対する処理を前記画像処理装置に実行させるための要求を送信する送信手段を有し、
    前記画像処理装置は、前記要求に応じて前記画像に対する処理を実行する処理手段とを有することを特徴とする画像処理システム。
  16. 訓練画像と、該訓練画像の信号値と該信号値の閾値とに基づくマップと、正解データとを取得する工程と、
    前記訓練画像と前記マップとを含む入力データと、前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワークの学習を行う工程とを有し、
    前記マップは、前記訓練画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップであることを特徴とする学習済みモデルの製造方法。
  17. 請求項16に記載の学習済みモデルの製造方法をコンピュータに実行させることを特徴とするプログラム。
  18. 訓練画像と、該訓練画像の信号値と該信号値の閾値とに基づくマップと、正解データとを取得する取得手段と、
    前記訓練画像と前記マップとを含む入力データと、前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワークの学習を行う学習手段とを有し、
    前記マップは、前記訓練画像の輝度飽和領域または黒潰れ領域の少なくとも一方を示すマップであることを特徴とする画像処理装置。
JP2019067279A 2019-03-29 2019-03-29 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 Active JP7362284B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019067279A JP7362284B2 (ja) 2019-03-29 2019-03-29 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
US16/826,370 US11600025B2 (en) 2019-03-29 2020-03-23 Image processing method, image processing apparatus, image processing system, and learnt model manufacturing method
CN202010210572.8A CN111753869A (zh) 2019-03-29 2020-03-24 图像处理方法、图像处理装置、存储介质、图像处理***及已学习模型制造方法
EP20165811.9A EP3716146A1 (en) 2019-03-29 2020-03-26 Image processing method, image processing apparatus, program, image processing system, and learnt model manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067279A JP7362284B2 (ja) 2019-03-29 2019-03-29 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法

Publications (2)

Publication Number Publication Date
JP2020166628A JP2020166628A (ja) 2020-10-08
JP7362284B2 true JP7362284B2 (ja) 2023-10-17

Family

ID=70008448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067279A Active JP7362284B2 (ja) 2019-03-29 2019-03-29 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法

Country Status (4)

Country Link
US (1) US11600025B2 (ja)
EP (1) EP3716146A1 (ja)
JP (1) JP7362284B2 (ja)
CN (1) CN111753869A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10996426B2 (en) * 2019-08-21 2021-05-04 Omnivision Technologies, Inc. 3D imaging using phase detection autofocus (PDAF) image sensor
WO2021214712A1 (en) * 2020-04-24 2021-10-28 Spectrum Optix Inc. Neural network supported camera image or video processing pipelines
KR20220028962A (ko) * 2020-08-31 2022-03-08 삼성전자주식회사 이미지 개선 방법, 이미지 개선 장치, 그 장치의 학습 방법 및 학습 장치
JP7451443B2 (ja) * 2021-02-09 2024-03-18 キヤノン株式会社 画像処理方法および装置、機械学習モデルの訓練方法および装置、並びにプログラム
JP2022161503A (ja) * 2021-04-09 2022-10-21 キヤノン株式会社 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム
JP7225316B2 (ja) * 2021-06-17 2023-02-20 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP7225315B2 (ja) * 2021-06-17 2023-02-20 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2024021485A (ja) * 2022-08-03 2024-02-16 キヤノン株式会社 画像処理方法、画像処理装置、プログラムおよび画像処理システム
CN116386661B (zh) * 2023-06-05 2023-08-08 成都启英泰伦科技有限公司 一种基于双注意力和数据增强的哭声检测模型训练方法
CN116723412B (zh) * 2023-08-10 2023-11-10 四川玉米星球科技有限公司 一种照片中背景光影均化方法及文本拍摄扫描***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129236A (ja) 2004-10-29 2006-05-18 Sanyo Electric Co Ltd リンギング除去装置およびリンギング除去プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2017199235A (ja) 2016-04-28 2017-11-02 株式会社朋栄 学習型アルゴリズムによるフォーカス補正処理方法
JP2018133110A (ja) 2012-07-12 2018-08-23 株式会社ニコン 画像処理装置及び画像処理プログラム
JP2018180635A (ja) 2017-04-04 2018-11-15 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5399739B2 (ja) * 2009-02-25 2014-01-29 ルネサスエレクトロニクス株式会社 画像処理装置
JP2013016275A (ja) 2011-06-30 2013-01-24 Mitsubishi Heavy Ind Ltd 電池
JP5991749B2 (ja) * 2011-09-26 2016-09-14 キヤノン株式会社 画像処理装置及び方法
JP6440303B2 (ja) 2014-12-02 2018-12-19 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
CN104601965B (zh) * 2015-02-06 2018-01-16 大连嘉运电子科技有限公司 摄像头遮挡检测方法
KR102582643B1 (ko) * 2016-09-19 2023-10-05 삼성전자주식회사 디스플레이 장치 및 이의 영상 처리 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129236A (ja) 2004-10-29 2006-05-18 Sanyo Electric Co Ltd リンギング除去装置およびリンギング除去プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2018133110A (ja) 2012-07-12 2018-08-23 株式会社ニコン 画像処理装置及び画像処理プログラム
JP2017199235A (ja) 2016-04-28 2017-11-02 株式会社朋栄 学習型アルゴリズムによるフォーカス補正処理方法
JP2018180635A (ja) 2017-04-04 2018-11-15 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Kai Zhang, 外2名,"FFDNet: Toward a Fast and Flexible Solution for CNN-Based Image Denoising",IEEE Transactions on Image Processing,第27巻, 第9号,2018年05月25日,p.4608-4622
Oliver Whyte, 外2名,"Deblurring shaken and partially saturated images",2011 IEEE International Conference on Computer Vision Workshops (ICCV Workshops),2011年11月13日,p.745-752
大西友貴, 外3名,"深層畳み込みニューラルネットワークによる単一距離画像とその法線マップを用いた物体識別",電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年02月12日,第117巻, 第443号,p.31-36
飯塚修平,"TensorFlow.jsのメリットを活かした開発",SoftwareDesign,日本,(株)技術評論社,2018年09月18日,第335号,p.76-83

Also Published As

Publication number Publication date
EP3716146A1 (en) 2020-09-30
JP2020166628A (ja) 2020-10-08
US11600025B2 (en) 2023-03-07
US20200311981A1 (en) 2020-10-01
CN111753869A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
JP7362284B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP7297470B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
CN110858871B (zh) 图像处理方法、图像处理装置、成像装置、镜头装置、存储介质、以及图像处理***
JP5102374B2 (ja) 撮像システムにおける移動ぶれ及びゴースト防止のための方法及び装置
US11188777B2 (en) Image processing method, image processing apparatus, learnt model manufacturing method, and image processing system
US11948279B2 (en) Method and device for joint denoising and demosaicing using neural network
CN110557584B (zh) 图像处理方法及装置、计算机可读存储介质
US11508038B2 (en) Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US20210390658A1 (en) Image processing apparatus and method
CN110555805B (zh) 图像处理的方法、装置、设备及存储介质
EP3979185A1 (en) Image processing method, program, image processing apparatus, trained model producing method, learning method, learning apparatus, and image processing system
US20220076071A1 (en) Image processing method, image processing apparatus, learning method, learning apparatus, and storage medium
JP7443030B2 (ja) 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法
EP3629284A1 (en) Image processing method, image processing apparatus, imaging apparatus, program, and storage medium
JP2021189929A (ja) 画像処理方法、プログラム、画像処理装置、および、画像処理システム
US20240087086A1 (en) Image processing method, image processing apparatus, program, trained machine learning model production method, processing apparatus, and image processing system
US20220292640A1 (en) Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium
JP6632339B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
JP6501732B2 (ja) データ処理装置、撮像装置、およびデータ処理装置の制御方法
JP2023116364A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2019106215A (ja) データ処理装置、撮像装置、およびデータ処理方法
JP2024056357A (ja) 画像処理装置、画像処理装置の制御方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R151 Written notification of patent or utility model registration

Ref document number: 7362284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151