JP2023003763A - 学習装置、画像処理装置、学習処理方法、及びプログラム - Google Patents
学習装置、画像処理装置、学習処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2023003763A JP2023003763A JP2021105035A JP2021105035A JP2023003763A JP 2023003763 A JP2023003763 A JP 2023003763A JP 2021105035 A JP2021105035 A JP 2021105035A JP 2021105035 A JP2021105035 A JP 2021105035A JP 2023003763 A JP2023003763 A JP 2023003763A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- image
- hue
- neural network
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 88
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000013528 artificial neural network Methods 0.000 claims abstract description 62
- 238000001514 detection method Methods 0.000 claims description 73
- 238000000034 method Methods 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 description 20
- 238000013527 convolutional neural network Methods 0.000 description 18
- 239000003086 colorant Substances 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 230000007547 defect Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】ニューラルネットワークを用いたデモザイク処理において、偽パターンの発生を抑制する。【解決手段】モザイク画像を取得する。モザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する。デモザイク画像における低画質部を検出領域として検出する。検出領域の色相と同様の色相の領域を含む学習用画像を取得する。学習用画像を用いてニューラルネットワークの追加学習を行う。【選択図】図2
Description
本発明は、学習装置、画像処理装置、学習処理方法、及びプログラムに関し、特に画像のデモザイク処理に関する。
デジタルカメラなどのデジタル撮像装置に利用される撮像素子の各画素には、カラーフィルタを介して特定の波長の光が入射する。例えば、Bayer配列を持つカラーフィルタを用いる場合、撮像素子からは、各画素がRGBいずれかの色に対応する画素値を有するモザイク画像データが得られる。そして、モザイク画像データの各画素について残り2色に対応する画素値を得るデモザイク処理などの様々な信号処理を施すことにより、各画素が複数の色のそれぞれに対応する画素値を有するカラー画像データが得られる。
デモザイク処理の手法としては、周囲の同一色の画素値に基づいて線形補間又は非線形補間を行う手法がある。さらなるデモザイク処理の手法として、非特許文献1は、深層学習技術を用いた補間手法を提案している。非特許文献1は、具体的には、学習データの中からデモザイクした際にアーティファクト等が発生する一部の困難データのみを抽出し、困難データに基づいてCNNベースのデモザイクネットワークの学習を行う手法を開示している。
Michael Gharbi et al. "Deep joint demosaicking and denoising", ACM Transactions on Graphics, Vol. 35, Issue 6, Article No.: 191 (2016).
本件発明者は、非特許文献1に記載された深層学習のような、ニューラルネットワークを用いるデモザイク処理では、偽色及びモアレは発生しにくくなるものの、本来存在しない偽パターンが発生しやすいことを見出した。
本発明は、ニューラルネットワークを用いたデモザイク処理において、偽パターンの発生を抑制することを目的とする。
本発明の目的を達成するために、本発明の一実施形態に係る学習装置は以下の構成を備える。すなわち、
モザイク画像を取得する第1の取得手段と、
前記モザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する処理手段と、
前記デモザイク画像における低画質部を検出領域として検出する検出手段と、
前記検出領域の色相と同様の色相の領域を含む学習用画像を取得する第2の取得手段と、
前記学習用画像を用いて前記ニューラルネットワークの追加学習を行う学習手段と、
を備えることを特徴とする。
モザイク画像を取得する第1の取得手段と、
前記モザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する処理手段と、
前記デモザイク画像における低画質部を検出領域として検出する検出手段と、
前記検出領域の色相と同様の色相の領域を含む学習用画像を取得する第2の取得手段と、
前記学習用画像を用いて前記ニューラルネットワークの追加学習を行う学習手段と、
を備えることを特徴とする。
ニューラルネットワークを用いたデモザイク処理において、偽パターンの発生を抑制することができる。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
(CNNについて)
一実施形態に係る学習装置は、ニューラルネットワークを用いたデモザイク処理を行う。まず、一実施形態で使用可能なニューラルネットワークの一例として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)について説明する。CNNは、非特許文献1、及び深層学習技術を応用した画像処理技術において用いられている。CNNとは、フィルタと画像データとの畳み込み処理(convolution)の後で、非線形演算を行うことを繰り返す、学習に基づく画像処理技術である。フィルタは、局所受容野(Local Receptive Field:LPF)とも呼ばれる。フィルタと画像データとの畳み込み処理の後で、非線形演算を行うことにより得られる画像データは、特徴マップ(feature map)と呼ばれる。また、フィルタは学習(training又はlearning)により生成される。学習は、入力画像データと出力画像データとのペアからなる学習データ(training images又はdata sets)を用いて行われる。簡単にいうと、学習とは、入力画像データから対応する出力画像データへと高精度に変換可能なフィルタの値を、学習データから生成することである。詳細については後述する。
(CNNについて)
一実施形態に係る学習装置は、ニューラルネットワークを用いたデモザイク処理を行う。まず、一実施形態で使用可能なニューラルネットワークの一例として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)について説明する。CNNは、非特許文献1、及び深層学習技術を応用した画像処理技術において用いられている。CNNとは、フィルタと画像データとの畳み込み処理(convolution)の後で、非線形演算を行うことを繰り返す、学習に基づく画像処理技術である。フィルタは、局所受容野(Local Receptive Field:LPF)とも呼ばれる。フィルタと画像データとの畳み込み処理の後で、非線形演算を行うことにより得られる画像データは、特徴マップ(feature map)と呼ばれる。また、フィルタは学習(training又はlearning)により生成される。学習は、入力画像データと出力画像データとのペアからなる学習データ(training images又はdata sets)を用いて行われる。簡単にいうと、学習とは、入力画像データから対応する出力画像データへと高精度に変換可能なフィルタの値を、学習データから生成することである。詳細については後述する。
画像データが複数のカラーチャンネル(例えばRGB)を有する場合、又は特徴マップが複数枚の画像データから構成されている場合、畳み込みに用いるフィルタも、対応する数の複数のチャンネルを有することができる。すなわち、フィルタは、縦横サイズ及び枚数に加えて、チャンネル数の次元を持つ、4次元配列で表現される。フィルタと画像データ(又は特徴マップ)との畳み込み処理の後で、非線形演算する処理は、層(layer)という単位で表現される。例えば、特定の特徴マップ及びフィルタは、n層目の特徴マップ及びn層目のフィルタと呼ばれる。また、例えばフィルタと画像データとの畳み込み処理と非線形演算とのセットを3回繰り返すCNNは、3層のネットワーク構造を有するという。
このような畳み込みと非線形演算との組み合わせは、以下の式(1)で表すことができる。
式(1)において、Wnはn層目のフィルタ、bnはn層目のバイアス、fは非線形演算子、Xnはn層目の特徴マップ、*は畳み込み演算子を表す。なお、(l)はl番目のフィルタ又は特徴マップであることを表している。フィルタ及びバイアスは、後述する学習により生成され、まとめてネットワークパラメータとも呼ばれる。
非線形演算の種類は特に限定されないが、例えばシグモイド関数(sigmoid function)又はReLU(Rectified Linear Unit)を用いることができる。ReLUに従う非線形演算は以下の式(2)で表すことができる。
すなわち、ReLU処理は、入力したベクトルXの要素のうち負の要素値をゼロに変換し、正の要素値をそのままにする非線形な処理である。
次に、CNNの学習について説明する。CNNの学習は、入力画像(生徒画像)と対応する出力画像(教師画像)との組からなる学習データに対して得られる目的関数を最小化することにより行うことができる。目的関数は、例えば以下の式(3)で表すことができる。
ここで、目的関数であるLは、正解(出力画像)と、推定(入力画像に対するCNN処理結果)との誤差を測る損失関数(loss function)である。また、Yiはi番目の出力画像、Xiはi番目の入力画像である。Fは、CNNの各層で行う演算(式1)をまとめて表す関数である。θは、ネットワークパラメータ(フィルタ及びバイアス)である。また、||Z||2はベクトルZのL2ノルムを表し、簡単にいえばベクトルZの要素の2乗和の平方根である。式(3)における目的関数では、L2ノルムの2乗が用いられている。また、nは学習に用いる学習データ(入力画像と出力画像とのセット)の数である。一般に、学習データの総数は多いため、確率的勾配降下法(Stochastic Gradient Descent:SGD)を用いた学習においては、学習データの一部をランダムに選び、目的関数の最小化のために用いることができる。このような方法によれば、多くの学習データを用いた学習における計算負荷を低減できる。
目的関数の最小化(=最適化)法としては、モーメンタム(momentum)法、AdaGrad法、AdaDelta法、及びAdam法等の様々な方法を用いることができる。例えば、以下の式(4)に従うAdam法を採用することができる。
式(4)において、θi
tは、t回目の反復におけるi番目のネットワークパラメータであり、gはθi
tに関する損失関数Lの勾配である。また、m及びvはモーメントベクトルであり、αは基本学習率(base learning rate)であり、β1及びβ2はハイパーパラメータであり、εは適宜定めることができる小さな定数である。使用する最適化法は特に限定されないが、最適化法ごとに収束性の違いがあり、学習時間の違いも生じることが知られているため、用途等に応じて選択することができる
CNNの具体的な構成は特に限定されない。CNNを用いたネットワークの具体的な構成としては、画像認識分野で用いられるResNet、及び超解像分野におけるRED-Net等が挙げられる。いずれも、多層のCNNを用いて、フィルタの畳み込みを何度も行うことにより、処理の高精度化が図られている。例えば、ResNetは畳み込み層をショートカットする経路を有するネットワーク構造を有しており、152層の多層ネットワークにより人間の認識率に迫る高精度な認識を実現する。なお、多層のCNNにより処理が高精度化する理由は、簡単にいえば、非線形演算を何度も繰り返すことによりCNNが入出力間の非線形な関係を表現できるためである。
(学習装置の構成)
本実施形態に係る学習装置は、ニューラルネットワーク又は深層学習を用いてデモザイク処理を行う際に生じることがある画質弊害を検出し、この画質弊害を抑制するように学習データを作成してニューラルネットワークの追加学習を行う。上記のように、本願発明者は、ニューラルネットワーク又は深層学習を用いてデモザイク処理を行うと、偽色又はモアレのような画質弊害は良好に抑制されるが、偽パターンのような新たな画質弊害が発生しやすいことを見出した。偽パターンの一例を図12に示す。図12(A)は円を表すRAW画像データに対してニューラルネットワークを用いてデモザイク処理を行った結果を、図12(B)はニューラルネットワークを用いずに一般的なデモザイク処理を行った結果を、それぞれ表している。図12(A)に見られるように、ニューラルネットワークを用いて得られたデモザイク画像には、Bayer配列に沿って市松模様状の偽パターンが生じている。この原因は、ニューラルネットワーク又は深層学習のようなデータ駆動型の処理を行っていることにあり、具体的には学習データの不足若しくは偏り、又は学習の順番などによって画質弊害が生じるのではないかと考えられる。本実施形態においては、検出した画質弊害をニューラルネットワークにフィードバックし、追加学習を行うことで、ニューラルネットワークを用いたデモザイク処理において、偽パターンの発生を抑制することができる。
本実施形態に係る学習装置は、ニューラルネットワーク又は深層学習を用いてデモザイク処理を行う際に生じることがある画質弊害を検出し、この画質弊害を抑制するように学習データを作成してニューラルネットワークの追加学習を行う。上記のように、本願発明者は、ニューラルネットワーク又は深層学習を用いてデモザイク処理を行うと、偽色又はモアレのような画質弊害は良好に抑制されるが、偽パターンのような新たな画質弊害が発生しやすいことを見出した。偽パターンの一例を図12に示す。図12(A)は円を表すRAW画像データに対してニューラルネットワークを用いてデモザイク処理を行った結果を、図12(B)はニューラルネットワークを用いずに一般的なデモザイク処理を行った結果を、それぞれ表している。図12(A)に見られるように、ニューラルネットワークを用いて得られたデモザイク画像には、Bayer配列に沿って市松模様状の偽パターンが生じている。この原因は、ニューラルネットワーク又は深層学習のようなデータ駆動型の処理を行っていることにあり、具体的には学習データの不足若しくは偏り、又は学習の順番などによって画質弊害が生じるのではないかと考えられる。本実施形態においては、検出した画質弊害をニューラルネットワークにフィードバックし、追加学習を行うことで、ニューラルネットワークを用いたデモザイク処理において、偽パターンの発生を抑制することができる。
実施形態1に係る学習装置は、プロセッサとメモリとを備えるコンピュータにより実現することができる。図1は、実施形態1に係る学習装置のハードウェア構成の一例を示す。学習装置100は、例えばPC等のコンピュータであり、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。また、学習装置100のメインバス109には、汎用I/F104を介して、カメラ等の撮像装置105、マウス又はキーボード等の入力装置106、及びメモリカード等の外部メモリ107が接続されている。
CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)に従って動作することにより、以下のような各種処理を実現する。まず、CPU101は、HDD103に格納されている画像処理アプリケーションのプログラムをRAM102に展開して実行することにより、モニタ108にユーザインターフェース(UI)を表示させる。続いて、HDD103又は外部メモリ107に格納されている各種データ、撮像装置105により取得された画像データ、入力装置106からのユーザ指示等が、RAM102に転送される。さらに、画像処理アプリケーションの処理に従って、RAM102に格納されているデータを用いた演算処理がCPU101からの指令に基づいて行われる。演算処理の結果は、モニタ108に表示することができ、また、HDD103又は外部メモリ107に格納することができる。なお、HDD103又は外部メモリ107に格納されている画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信された画像データがRAM102に転送されてもよい。
以下では、上記のような構成を備える学習装置100において、CPU101からの指令に基づき、ニューラルネットワークの学習を行う態様について説明する。例えば図2に示されている、以下で説明される各部の機能は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
本実施形態においては、ニューラルネットワークとして、デモザイクネットワークモデルが用いられる。デモザイクネットワークモデルとは、ニューラルネットワークのアーキテクチャ及びパラメータ(係数)を意味する。本実施形態においては、デモザイクネットワークモデルとして、上記のような多層CNNをベースとしたニューラルネットワークが用いられるが、ニューラルネットワークのアーキテクチャはCNNをベースとするものには限られない。
また、本実施形態においては、RAW画像データに対するデモザイク処理を行うためのモデルの学習を行う場合について説明する。すなわち、モザイク画像データとしては各画素がRGBいずれかの色に対応する画素値を有するRAW画像データが用いられる。一方で、モザイク画像データは、1以上のプレーンそれぞれについての、画素値が設定された画素と画素値が設定されていない画素とが周期的に繰り返される画像の各画素値のデータ(例えばBayer配列に従うRGB各プレーンのデータ)であってもよい。以下では、RAW画像データは各画素が一色分の情報を有するBayer配列のカラーフィルタを用いて撮像されていることを前提として説明を行うが、本発明はその他の配列のカラーフィルタを用いて撮像されたRAW画像にも適用可能である。
図2は、本実施形態に係る学習装置100の機能構成例を示すブロック図である。図2に示すように、学習装置100は、画像取得部201、デモザイク部202、検出部203、データ生成部204、及び学習部300を有している。また、学習装置100は、学習用画像を格納する格納部205を有していてもよい。なお、図2~4,10に示した構成は、適宜変形又は変更することが可能である。例えば、1つの機能部を複数の機能部に分割してもよいし、2つ以上の機能部を1つの機能部に統合してもよい。また、図2~4,10に示す構成は、2以上の装置によって実現されてもよい。この場合、各装置は、回路又有線若しくは無線のネットワークを介して接続され、互いにデータ通信を行って協調動作を行うことで、後述する各処理を実現することができる。
まず、学習部300の機能構成例について、図3を参照して説明する。学習部300は、教師画像格納部301、学習データ生成部302、学習データ格納部303、誤差算出部304、及びモデル更新部305を備える。学習部300は、教師画像データから生成された学習データセットを用いて、デモザイク処理を行うニューラルネットワークの学習を行う。
教師画像格納部301は、複数の教師画像データを格納する。教師画像データとしては任意の画像のデータを用いることができる。例えば、教師画像格納部301は、風景又は動物を含む自然写真、ポートレート又はスポーツ写真のような人物写真、及び建築又は商品を含む人工物写真など、様々な種類の画像データを格納することができる。本実施形態では、教師画像データはRGBカラーチャンネルを有している。教師画像としては、例えばRAW画像データに対してデモザイク処理を行わずに縮小処理を行うことにより得られた、デモザイク処理に伴う画質弊害が少ない画像を用いることができる。
学習データ生成部302は、複数の教師画像データに基づいて、モザイク画像データ(生徒画像データ)と教師画像データとのペアを複数含む学習データセットを生成する。学習データ生成部302は、教師画像格納部301に格納された各教師画像データを、カラーフィルタ配列に従ってサンプリングすることにより、モザイク画像データを生成することができる。こうして、ニューラルネットワークに入力されるモザイク画像データと同じデータ形式のモザイク画像データを生成することができる。生成された学習データセットは、学習データ格納部303に格納される。図5(A)は、教師画像510(RGB画像)をBayer配列に従ってサブサンプリングすることにより、Bayer配列の生徒画像520(モザイク画像)を生成する例を示す。また、図5(B)は、学習データ格納部303に格納された教師画像510と生徒画像520とのペア530を示す。一方で、学習データ格納部303は教師画像データ群のみを格納していてもよい。この場合、誤差算出部304が教師画像データから生徒画像データ群を生成することができる。
誤差算出部304は、ニューラルネットワークの出力の誤差を算出する。具体的には、誤差算出部304は、学習データ格納部303から教師画像データと生徒画像データとのセットを取り出し、生徒画像データをデモザイクネットワークに入力して、デモザイク処理の結果を取得する。次に、誤差算出部304は、デモザイクネットワークからの出力結果(デモザイク画像)と教師画像データとを比較し、これらの間の誤差を算出する。誤差の算出には、式(3)に示す損失関数を用いることができる。
モデル更新部305は、誤差算出部304によって算出された誤差をフィードバックするように、ニューラルネットワークのパラメータを更新する。例えば、モデル更新部305は、誤差逆伝播法によりデモザイクネットワークのモデルパラメータの更新を行うことができる。
誤差算出部304及びモデル更新部305は、学習データ格納部303に格納された生徒画像データと教師画像データとのセットのそれぞれを用いて、繰り返しニューラルネットワークのパラメータの更新を行うことができる。選択した最適化手法に基づいて、既定の条件を満たすまでパラメータの更新が繰り返され、得られた学習済モデルが出力される。
一方で、図2に示す画像取得部201は、テスト用のモザイク画像を取得する。テスト用のモザイク画像は、上記の学習画像と同様に生成することができる一方で、学習画像とは別の画像であってもよい。例えば、テスト用のモザイク画像は、様々な色相の組み合わせからなる、記号又は図形が描画された、RGBチャンネルを有するテスト画像に対して、サンプリング処理を行うことにより生成することができる。テスト画像は、1つの色の記号又は図形部分と、別の色の背景部分と、で構成される画像であってもよい。
デモザイク部202は、テスト用のモザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、テスト用のデモザイク画像を生成する。ニューラルネットワークとしては、学習部300によって得られた学習済モデルが用いられる。
検出部203は、テスト用のデモザイク画像における低画質部の領域(弊害領域)を検出する。とりわけ、ニューラルネットワークを用いたデモザイク処理においては、市松模様状のパターンのような偽パターンが生じやすい。このため、検出部203は、テスト用のデモザイク画像から、市松模様状のパターンのような所定のパターンを有する領域を低画質部として検出することができる。具体的な検出方法については後述する。以下では、検出部203が検出した領域のことを検出領域と呼ぶ。
データ生成部204は、検出部203による検出領域と同様の色相の領域を含む学習用画像を取得する。データ生成部204の機能構成例を図4に示す。図4に示すデータ生成部204は、解析部401、オブジェクト選択部402、オブジェクト格納部403、及びCGデータ生成部404を備える。本実施形態において、データ生成部204は、検出部203による検出領域と同様の色相を持つCGデータを、学習用画像として生成し、格納部205に格納する。本明細書において、検出領域と同様の色相とは、検出領域の色相の角度から所定の角度閾値内にある色相のことを指す。
本願発明者は、ニューラルネットワーク又は深層学習を用いたデモザイク処理においては、特定の色相の領域において偽パターンのような画質弊害が生じやすいことを見出した。そこで、本実施形態では、学習済モデルを用いたデモザイク処理において弊害が発生しやすい色相の領域を含む学習用画像が生成され、この学習用画像を用いた学習済モデルの追加学習が行われる。このような追加学習により、上記特定の色相を持つモザイク画像に対するデモザイク処理において、偽パターンのような画質弊害が抑制されることが期待される。
解析部401は、検出部203による検出領域の色相を解析する。本実施形態において、解析部401は、検出領域の色相分布を解析する。
オブジェクト選択部402は、オブジェクト格納部403からオブジェクトデータを取得する。オブジェクトデータは、オブジェクト(図形、記号、文字、又は繰り返しパターン等)の形状を示すオブジェクト情報である。オブジェクト格納部403は、複数のオブジェクトについてのオブジェクトデータを格納している。オブジェクト選択部402は、オブジェクト格納部403に格納されている複数のオブジェクトデータの中からランダムに1つを選択することができる。オブジェクトの種類は特に限定されない。しかしながら、ニューラルネットワークの精度を効果的に向上させるために、連結画素領域を少なくとも1つ以上含み、各連結領域のサイズがデモザイク処理に用いるニューラルネットワークのフィルタサイズよりも大きいオブジェクトを用いることができる。また、オブジェクトの境界(エッジ形状)が異なる様々なオブジェクトを用いることによっても、ニューラルネットワークの精度を効果的に向上させることができる。このエッジ形状は、後述するCGデータ生成部404が生成するCGデータにおける、2種類の色相の境界形状に対応する。
CGデータ生成部404は、解析部401による色相分布の解析結果と、オブジェクト選択部402が選択したオブジェクトデータとに基づいてCGデータを生成し、生成したCGデータを格納部205に格納する。このCGデータはオブジェクトを含んでおり、オブジェクトの色相は検出領域の色相と同様である。
学習部300は、データ生成部204によって得られた学習用画像を用いて、ニューラルネットワークの追加学習を行うことができる。例えば、学習部300は、格納部205に格納されているCGデータを、教師画像格納部301に格納することができる。そして、学習部300は、教師画像格納部301に格納されたCGデータを教師画像データとして用いることにより、学習済モデルの追加学習を行うことができる。
(画像処理の流れ)
本実施形態に係る学習装置100が行う処理について、図6(A)及び(B)のフローチャートを参照して説明する。図6(A)及び(B)に示されるフローチャートの処理は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
本実施形態に係る学習装置100が行う処理について、図6(A)及び(B)のフローチャートを参照して説明する。図6(A)及び(B)に示されるフローチャートの処理は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
まず、図6(A)を参照して学習処理の一例について説明する。S601で、学習部300は、デモザイク学習に必要な各種パラメータを取得する。パラメータは、ニューラルネットワークのパラメータの初期値、及びニューラルネットワークの構造及び最適化方法を示すハイパーパラメータを含むことができる。なお、後述するようにニューラルネットワークの追加学習を行う場合、学習部300は、追加学習の対象となる学習済モデルのパラメータを取得することができる。
S602で、学習データ生成部302は、上述のように教師画像格納部301から教師画像データ群を取得する。S603で、学習データ生成部302は、上述のように、S602で取得した教師画像データ群を用いて、教師画像データ群と生徒画像データ群とを含む学習データセットを生成する。
S604で、誤差算出部304は、上述のように、S603で生成された学習データセットに含まれる生徒画像データに対するデモザイク処理を行う。S605で、誤差算出部304は、上述のように、S604で得られたデモザイク画像データと教師画像データとに基づいて、式(3)に示す損失関数に従って誤差を算出する。
S606で、モデル更新部305は、上述のように、S605で得られた誤差に従って学習モデルのパラメータを更新する。S607で、学習部300は、学習を終了するか否かを判定する。例えば、学習部300は、パラメータの更新回数が所定回数に達した場合に、学習を終了すると判定することができる。学習を終了しない場合、処理はS604へ戻り、別の生徒画像データ及び教師画像データを用いた学習が行われる。
続いて、図6(B)を参照して追加学習処理の一例について説明する。なお、図6(B)の処理は、画像取得部201が取得する複数のテスト用のモザイク画像のそれぞれに対して行うことができる。
S609で、画像取得部201は、上述のようにテスト用のモザイク画像を取得する。画像取得部201は、HDD103、又は外部メモリ107等からテスト用のRGB画像データを取得し、RGB画像データに対してサンプリング処理を行うことによりモザイク画像を生成してもよい。画像取得部201は、テストモザイク画像データに対してホワイトバランス処理又はオフセット加算処理等の前処理を行ってもよい。
S610で、デモザイク部202は、上述のように、学習部300が出力した学習済モデルを用いた第1のデモザイク処理により、色情報が補間されたテスト用のデモザイク画像データを出力する。例えば、図7(A)に示すように、モザイク画像データ700に対するデモザイク処理によりデモザイク画像データが得られる。そして、デモザイク画像データをRGBの3チャンネルに分割することにより、RGBそれぞれのデモザイク画像データ710R,710G,710Bが得られる。
S611で、検出部203は、テスト用のデモザイク画像から画質弊害が存在する弊害領域を検出する。検出部203は、空間フィルタを用いて、特定のパターンが存在する領域を、弊害領域として検出することができる。以下では、画質弊害を検出する空間フィルタを検出フィルタと表記する。
本願発明者は、ニューラルネットワークを用いて、所定の色配列に従うモザイク画像をデモザイク処理すると、この所定の色配列に相関のある偽パターンが生じやすいことを見出した。例えば、上記のように、Bayer配列に従うモザイク画像をデモザイク処理すると、Bayer配列に相関を持つ市松模様状の偽パターンが生じやすい。そこで、この例において、検出部203は、所定の色配列に相関のあるパターン、例えば市松模様状のパターンを、特定のパターンとして検出する。このようなパターンを検出するためには、Bayer配列に相関を持つフィルタ係数が設定された検出フィルタを用いることができる。このような検出フィルタの一例である、5×5のサイズを有するフィルタを図7(B)に示す。もっとも、検出フィルタのサイズ及び係数は特に限定されず、例えば3×3以上のサイズを有するフィルタを用いることができる。また、図7(B)に示す、係数として4又は-4が設定された検出フィルタの代わりに、縦横それぞれの方向について1画素ずつ正負の値が繰り返される検出フィルタを用いてもよい。さらには、弊害検出フィルタの係数は、中央部に近いほど値が大きく、端部に近いほど値が小さく設定されていてもよい。
検出部203は、デモザイク画像データ710R,710G,710Bのそれぞれに対して、検出フィルタを適用することができる。こうして、検出部203は、各チャンネルについての特定のパターンの強度を示すマップを生成することができる。そして、検出部203は、R、G、及びBの各チャネルについて検出された特定のパターンの強度に基づいて、弊害領域を検出することができる。ここで、マップには孤立点のようなノイズが発生することがあり、これらのノイズが弊害領域として検出されることを防ぐために、検出部203は各チャンネルのマップに対してノイズ除去フィルタを適用することができる。ノイズ除去フィルタとしては、メディアンフィルタを用いることができる。
そして、検出部203は、各画素について、画素ごとに各チャンネルの特定のパターンの強度の最小値を抽出し、予め設定した閾値th(例えばth=100)と比較することができる。画素について抽出された最小値が閾値th以上の場合、この画素は弊害領域に属すると判定することができる。
S612で、検出部203は、テスト用のデモザイク画像から弊害領域を検出したか否かを判定する。弊害領域を検出した場合、処理はS613へ進み、そうでない場合、処理は終了する。
ステップS613で、データ生成部204は、S611で検出された検出領域の色相分布を解析し、解析結果に基づいてCGデータを生成する。具体的には、まず解析部401は、テスト用のデモザイク画像データからS611で検出された検出領域の色値をRGB色空間からHSV色空間へと変換し、色相の角度(H:0~180度、0度=180度)を抽出して色相情報ファイルに記録する。なお、検出領域が複数の色を含む場合、解析部401は、検出領域の各画素の色相の角度のヒストグラムを作成し、最も出現頻度が高い色相の角度を記録することができる。
図8は、色相情報ファイルの一例を示す。色相情報ファイルには、検出領域の色相の角度(色相1)と、それ以外の色相の角度(色相2)と、を記録することができる。また、色相情報ファイルに記録される、色相1と色相2との組み合わせの数は、予め設定された数Num(例えば、Num=35)と、検出領域の数と、の積であってもよい。このような構成においては、色相2は、色相1とは異なる任意の角度であってもよい。図8においては、検出領域の数は3である。左列には昇順にデータ番号が記録され、中央列には色相1が、右列には色相2が記録されている。図8の例においては、色相2は、0~180度の範囲で等間隔となるように選択されており、具体的には色相1±i×5°(iは0以外の整数)の角度である。ここで、また色相1が重複しないように、検出領域の色相の角度が、色相情報ファイルに記録されている色相の角度である場合は、記録をスキップすることができる。
次に、オブジェクト選択部402は、上述のように、オブジェクト格納部403からランダムにオブジェクトデータを選択する。
そして、CGデータ生成部404は、解析部401が生成した色相情報ファイルと、オブジェクト選択部402が選択したオブジェクトデータに基づいて、CGデータを生成する。CGデータ生成部404は、色相1の色を持つ前景のオブジェクト(記号等)と、色相2の色を持つ背景とを有するように、CGデータを生成することができる。反対に、CGデータは、色相2の色を持つオブジェクトと、色相1の背景とを持っていてもよい。このように、CGデータ生成部404は、色相情報ファイルに示される色相1と色相2との組み合わせを有するCGデータを生成することができる。なお、具体的な色相1の色及び色相2の色は適宜選択することができる。CGデータ生成部404は、複数の色相1と色相2との組み合わせのそれぞれに対応するCGデータを生成することができ、それぞれのCGデータは異なるオブジェクトデータに基づいて生成されてもよい。CGデータ生成部404は、生成したCGデータを、格納部205に格納する。
上記の構成によれば、データ生成部204は、1つの検出領域についての記録された色相1に基づいて、複数のCGデータを生成することができる。ここで、それぞれのCGデータはオブジェクト及び背景を含んでいる。そして、これらの複数のCGデータについて、オブジェクトの色相は検出領域の色相(色相1)と同様である一方で、背景の色相(色相2)は互いに異なっている。
図9(A)~(C)は、CGデータ生成部404が生成するCGデータの一例を示す。図9(A)は記号、(B)は図形、(C)は繰り返しパターンのオブジェクトデータを用いて生成されたCGデータを表す。もちろん、オブジェクトは図9に示す形状に限定されず、他の記号、図形、文字、又は繰り返しパターンであってもよい。
ステップS614で、学習部300は、S613で生成された学習用画像であるCGデータを、教師画像データとして用いて、ニューラルネットワークの追加学習を行う。追加学習は、図6(A)に従って行うことができる。すなわち、学習部300は、学習用画像に対するサンプリング処理(S603)により得られたモザイク画像をニューラルネットワークに入力する(S604)。そして、学習部300は、ニューラルネットワークからの出力と学習用画像との誤差を算出し(S605)、この誤差に基づいて前記ニューラルネットワークの追加学習を行う(S606)。この追加学習は、学習済モデルをベースにして、学習済モデル生成時と同一のネットワーク構造を用いて行うことができる。追加学習においては、S602で、学習データ生成部302は格納部205に格納されたCGデータを教師画像データとして使用する。一方で、追加学習においては、教師画像格納部301に格納されている教師画像データ群に、格納部205に格納されたCGデータを追加し、双方のデータを教師画像データとして使用してもよい。
図6(B)に示す追加学習処理は、所定の条件が満たされるまで繰り返すことができる。例えば、弊害領域が検出されなくなるまで、又は所定の回数だけ、追加学習処理を行うことができる。
なお、S611では、検出フィルタを用いて弊害領域が検出された。しかしながら、S609で取得したテスト用のモザイク画像と、S610で取得したテスト用のデモザイク画像との間の画素ごとの差分が所定の閾値よりも大きくなる領域を、弊害領域として検出してもよい。このような方法により特定された低画質部である検出領域にも偽パターンが発生している可能性が高いため、検出結果に従って追加学習を行うことにより、学習済モデルを用いたデモザイク処理における偽パターンの発生を抑制することができる。
また、上述の実施形態では、色相1と色相2との組み合わせの数、すなわち生成されるCGデータの数は、数Numと検出領域の数との積であった。このように、データ生成部204は、検出部203が検出した検出領域の数に応じて、取得する学習用画像の数を決定することができる。しかしながら、学習用画像の数の決定方法はこの方法に限定されない。例えば、データ生成部204は、ニューラルネットワークの学習に用いた教師画像の数に応じて、取得する学習用画像の数を決定してもよい。具体的には、データ生成部204は、学習済モデルの作成のために用いた教師画像データの数に応じてCGデータの数を決定することができる。例えば、色相1と色相2との組み合わせの数が、教師画像データの数に所定の係数(例えば1%)を乗じて得られる数であってもよい。
さらに、S613においては、検出領域の色相の角度(色相1)を持つ色と、それ以外の色相の角度を持つ色と、を有する画像データを生成したが、具体的な生成方法は上述の方法には限られない。例えば、データ生成部204は、ニューラルネットワークの学習に用いた教師画像に対する画像処理により、検出領域の色相と同様の色相の領域を含む画像を生成してもよい。具体例として、データ生成部204は、教師画像格納部301に格納されている教師画像データ群から抽出された教師画像データを加工し、加工された教師画像データを追加学習に用いることができる。例えば、データ生成部204は、教師画像データ群から抽出した一定数の教師画像データに対して2値化処理を行い、第1の画素値を有する領域に色相1の色を、第2の画素値を有する領域に色相2の色を、それぞれ割り当てることができる。このような手法によっても、検出領域の色相の角度(色相1)を持つ色と、それ以外の色相の角度を持つ色と、を有する追加学習用の画像データを生成することができる。
また、追加学習用の画像データが2色のみで構成されている必要はない。例えば、データ生成部204が生成するCGデータにおいて、前景のオブジェクトの色が検出領域の色相の角度(色相1)を持つ一方で、背景が、色相1を持たない複数の色を含んでいてもよい。別の方法として、データ生成部204は、ニューラルネットワークの学習に用いた教師画像から、検出領域の色相と同様の色相の領域を含む画像を、追加学習用の画像として選択してもよい。例えば、データ生成部204は、教師画像格納部301から、色相1と同様の色相の色を含む教師画像データを収集して、収集した教師画像データを用いて追加学習を行ってもよい。また、データ生成部204は、色相1と色相2との組み合わせを含む教師画像データを収集してもよい。さらには、オブジェクトの形状情報、又は追加学習用の画像データには、ノイズが付与されていてもよい。一方で、データ生成部204は、効率的に追加学習を行うために、色相ヒストグラムの形状が双峰性を示す画像データを生成することができる。
さらに、本願発明者は、画像の一部の領域が特定の色相を有し、画像の別の領域が別の特定の色相を有する場合に、特に偽パターンのような画質弊害が生じやすいことを見出した。このため、解析部401は、テスト用のデモザイク画像データから、検出領域の色相と、検出領域以外の領域の色相と、の組み合わせを検出及び記録してもよい。この場合、解析部401は、検出領域以外の各画素の色相の角度のヒストグラムを作成し、最も出現頻度が高い色相の角度を、上記の色相2として記録してもよい。このような手法によれば、データ生成部204は、オブジェクト及び背景を含む追加学習用のCGデータを生成することができる。ここで、オブジェクトの色相は検出領域の色相(色相1)と同様であり、背景の色相は、デモザイク画像の検出領域以外の領域の色(色相2)に基づいて設定される。このような手法によれば、ニューラルネットワークの追加学習をより効率的に行えることが期待される。
以上の本実施形態によれば、偽パターンが発生する領域と同様の色を持つ画像を用いてニューラルネットワークの追加学習を行うことにより、学習済モデルを用いたデモザイク処理における偽パターンの発生を抑制することができる。
[実施形態2]
実施形態2に係る画像処理装置は、実施形態1に係る学習装置が出力した学習済モデルを用いてモザイク画像に対するデモザイク処理(推論処理)を行う。以下では、Bayer配列に従うRAW画像データ(モザイク画像データ)に対するデモザイク処理を行う例について説明する。
実施形態2に係る画像処理装置は、実施形態1に係る学習装置が出力した学習済モデルを用いてモザイク画像に対するデモザイク処理(推論処理)を行う。以下では、Bayer配列に従うRAW画像データ(モザイク画像データ)に対するデモザイク処理を行う例について説明する。
図10は、本実施形態に係る画像処理装置1000の機能構成例を示したブロック図である。本実施形態に係る画像処理装置1000も、図1に示すような、プロセッサとメモリとを備えるコンピュータにより実現することができる。画像処理装置1000は、取得部1001、デモザイク部1002、及び現像部1003を備える。
取得部1001は、モザイク画像データを取得する。デモザイク部1002は、実施形態1に係る学習装置100が出力した追加学習済のニューラルネットワークを用いて、取得部1001が取得したモザイク画像データに対するデモザイク処理を行い、色情報が補間されたデモザイク画像データを出力する。現像部1003は、デモザイク画像データに対する現像処理を行い、現像処理結果を出力する。
次に、本実施形態に係る画像処理装置1000が行う処理について、図11のフローチャートを参照して説明する。S1101で、取得部1001は、撮像装置105、HDD103、又は外部メモリ107等からRAW画像データを取得する。そして、取得部1001は、RAW画像データに対して、ホワイトバランス処理又はオフセット加算処理等の前処理を実施する。
S1102で、デモザイク部1002は、学習装置100により学習が行われた学習済モデルを用いて、S1101における前処理後のRAW画像データに対するデモザイク処理を行い、色情報が補間されたデモザイク画像を出力する。
S1103で、現像部1003は、ステップS1102で出力されたデモザイク画像データに対して現像処理を行うことで現像処理結果を出力する。現像処理の種類は特に限定されないが、例えば、ノイズ低減処理、ダイナミックレンジ調整処理、ガンマ補正処理、シャープネス処理、及び色調整処理のうちの1つ以上であってもよい。結果の出力先は特に限定されず、例えば、HDD103、外部メモリ107、又は汎用I/F104に接続される他の機器(例えばネットワークを介して画像処理装置1000と接続される外部機器)であってもよい。
このように本実施形態によれば、実施形態1に係る学習装置によって出力された追加学習済みのニューラルネットワークを用いて、モザイク画像に対するデモザイク処理が行われる。このため、偽パターンのような画質弊害の発生を抑制することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:学習装置、201:画像取得部、202:デモザイク部、203:検出部、204:データ生成部、300:学習部
Claims (15)
- モザイク画像を取得する第1の取得手段と、
前記モザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する処理手段と、
前記デモザイク画像における低画質部を検出領域として検出する検出手段と、
前記検出領域の色相と同様の色相の領域を含む学習用画像を取得する第2の取得手段と、
前記学習用画像を用いて前記ニューラルネットワークの追加学習を行う学習手段と、
を備えることを特徴とする学習装置。 - 前記検出手段は、所定のパターンを有する領域を前記検出領域として検出することを特徴とする、請求項1に記載の学習装置。
- 前記所定のパターンは市松模様状のパターンであることを特徴とする、請求項2に記載の学習装置。
- 前記モザイク画像は、所定の色配列に従うRAW画像であり、
前記所定のパターンは、前記所定の色配列に相関のあるパターンであることを特徴とする、請求項2又は3に記載の学習装置。 - 前記第2の取得手段は、オブジェクトを含む前記学習用画像を生成し、前記オブジェクトの色相は前記検出領域の色相と同様であることを特徴とする、請求項1から4のいずれか1項に記載の学習装置。
- 前記第2の取得手段は、オブジェクト及び背景を含む複数の前記学習用画像を生成し、
前記複数の学習用画像について、前記オブジェクトの色相は前記検出領域の色相と同様であり、
前記複数の学習用画像の間で、前記背景の色相は互いに異なる
ことを特徴とする、請求項1から4のいずれか1項に記載の学習装置。 - 前記第2の取得手段は、オブジェクト及び背景を含む前記学習用画像を生成し、
前記オブジェクトの色相は前記検出領域の色相と同様であり、
前記背景の色相は、前記デモザイク画像の前記検出領域以外の領域の色に基づいて設定されることを特徴とする、請求項1から4のいずれか1項に記載の学習装置。 - 前記第2の取得手段は、前記オブジェクトの形状を示すオブジェクト情報を、複数のオブジェクト情報を格納する格納手段から取得することを特徴とする、請求項5に記載の学習装置。
- 前記第2の取得手段は、前記ニューラルネットワークの学習に用いた教師画像から、前記検出領域の色相と同様の色相の領域を含む画像を、前記学習用画像として選択することを特徴とする、請求項1から4のいずれか1項に記載の学習装置。
- 前記第2の取得手段は、前記ニューラルネットワークの学習に用いた教師画像に対する画像処理により、前記検出領域の色相と同様の色相の領域を含む画像を生成することを特徴とする、請求項1から4のいずれか1項に記載の学習装置。
- 前記第2の取得手段は、前記検出手段が検出した前記検出領域の数に応じて、又は前記ニューラルネットワークの学習に用いた教師画像の数に応じて、取得する前記学習用画像の数を決定することを特徴とする、請求項1から10のいずれか1項に記載の学習装置。
- 前記学習手段は、前記学習用画像に対するサンプリング処理により得られたモザイク画像を前記ニューラルネットワークに入力することにより得られた出力と、前記学習用画像と、の誤差に基づいて前記ニューラルネットワークの追加学習を行うことを特徴とする、請求項1から11のいずれか1項に記載の学習装置。
- モザイク画像を取得する手段と、
前記モザイク画像に対して、請求項1から12のいずれか1項に記載の学習装置による追加学習によって得られたニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する手段と、
を備えることを特徴とする画像処理装置。 - 学習装置が行う学習処理方法であって、
モザイク画像を取得する工程と、
前記モザイク画像に対して、ニューラルネットワークを用いたデモザイク処理を行うことにより、デモザイク画像を生成する工程と、
前記デモザイク画像における低画質部を検出領域として検出する工程と、
前記検出領域の色相と同様の色相の領域を含む学習用画像を取得する工程と、
前記学習用画像を用いて前記ニューラルネットワークの追加学習を行う工程と、
を有することを特徴とする学習処理方法。 - コンピュータを、請求項1から12のいずれか1項に記載の学習装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021105035A JP2023003763A (ja) | 2021-06-24 | 2021-06-24 | 学習装置、画像処理装置、学習処理方法、及びプログラム |
US17/847,232 US20220414827A1 (en) | 2021-06-24 | 2022-06-23 | Training apparatus, training method, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021105035A JP2023003763A (ja) | 2021-06-24 | 2021-06-24 | 学習装置、画像処理装置、学習処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023003763A true JP2023003763A (ja) | 2023-01-17 |
Family
ID=84542367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021105035A Pending JP2023003763A (ja) | 2021-06-24 | 2021-06-24 | 学習装置、画像処理装置、学習処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220414827A1 (ja) |
JP (1) | JP2023003763A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117939309A (zh) * | 2024-03-25 | 2024-04-26 | 荣耀终端有限公司 | 图像去马赛克方法、电子设备及存储介质 |
-
2021
- 2021-06-24 JP JP2021105035A patent/JP2023003763A/ja active Pending
-
2022
- 2022-06-23 US US17/847,232 patent/US20220414827A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220414827A1 (en) | 2022-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610082B2 (en) | Method and apparatus for training neural network model used for image processing, and storage medium | |
KR20210139450A (ko) | 이미지 디스플레이 방법 및 디바이스 | |
JP5645842B2 (ja) | スケールスペースを使用した画像処理装置及び方法 | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN111192226B (zh) | 一种图像融合去噪方法及装置、*** | |
US20220343525A1 (en) | Joint depth prediction from dual-cameras and dual-pixels | |
JP7463186B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6645442B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2021087201A (ja) | 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム | |
JP2023003763A (ja) | 学習装置、画像処理装置、学習処理方法、及びプログラム | |
Wang et al. | New insights into multi-focus image fusion: A fusion method based on multi-dictionary linear sparse representation and region fusion model | |
US20220309612A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7160211B2 (ja) | 機械学習モデル、生成装置、コンピュータプログラム | |
JP7185608B2 (ja) | オブジェクト検出装置、方法及びプログラム | |
JP2023003764A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Chaczko et al. | A preliminary investigation on computer vision for telemedicine systems using OpenCV | |
JP7512150B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2021009804A1 (ja) | 閾値の学習方法 | |
JP7508265B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020115866A1 (ja) | 深度処理システム、深度処理プログラムおよび深度処理方法 | |
US20220092357A1 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2023228717A1 (ja) | コンピュータプログラム、処理方法、および、処理装置 | |
JP2021179833A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20220292640A1 (en) | Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium | |
JP2022133130A (ja) | 画像処理装置、画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240606 |