JP6635799B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6635799B2
JP6635799B2 JP2016009136A JP2016009136A JP6635799B2 JP 6635799 B2 JP6635799 B2 JP 6635799B2 JP 2016009136 A JP2016009136 A JP 2016009136A JP 2016009136 A JP2016009136 A JP 2016009136A JP 6635799 B2 JP6635799 B2 JP 6635799B2
Authority
JP
Japan
Prior art keywords
image
component
pixel
rgb
scattered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016009136A
Other languages
English (en)
Other versions
JP2017130060A5 (ja
JP2017130060A (ja
Inventor
靖浩 伊藤
靖浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016009136A priority Critical patent/JP6635799B2/ja
Priority to US15/404,441 priority patent/US10210643B2/en
Publication of JP2017130060A publication Critical patent/JP2017130060A/ja
Publication of JP2017130060A5 publication Critical patent/JP2017130060A5/ja
Application granted granted Critical
Publication of JP6635799B2 publication Critical patent/JP6635799B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、大気中の微粒子による影響を低減して撮像画像の視認性を改善する画像処理に関する。
監視カメラなどの分野において、カメラから被写体までの間に存在する微小粒子(例えば、霧)によって視認性が低下し、撮像画像の画質が劣化することが問題となっている。この原因として、光が大気中を通過する際に散乱することが挙げられる。そして、この大気中の微粒子による光の散乱には2種類あることが知られている。1つは、ミー散乱であり、塵、埃、水蒸気の粒など光の波長と比較して粒子径が大きい場合に発生する。ミー散乱の場合、光の波長に依存せず白く散乱し、その結果、遠い被写体ほど白くなってコントラストが低下する。もう1つは、レイリー散乱であり、空気分子のような光の波長と比較して粒子径が小さい場合に発生する。レイリー散乱の場合、波長が短い光ほどよく散乱する。その結果、遠い被写体ほど青色成分が散乱することで画像は青みがかった色調になる。上記2種類の光の散乱が発生して視認性が低下した画像から散乱成分を取り除く技術(ヘイズ除去技術)が提案されている。特許文献1では、着目画素毎に周囲の所定範囲におけるRGBチャンネル内での最小画素値を算出し、最小画素値の画素で構成される画像(最小値画像)を用いて、コントラストを補正することで視認性の改善を行う技術が開示されている。さらに特許文献2には、上記特許文献1の技術ではレイリー散乱によって散乱された青い光が補正不足になることがあるという問題を踏まえ、2つの散乱の特性の違いを考慮して撮像画像内の散乱成分を除去する技術が開示されている。
US8340461 特開2015−103167号公報
K. He, J. Sun, and X. Tang. Guided image filtering. In ECCV ’10: European Conference on Computer Vision, pages 1-14, 2010.
上記特許文献1や特許文献2に記載の技術では、散乱成分除去のための画像処理を行う際に、撮像画像の最小画素値を参照した演算がなされる。ここで、監視カメラやデジタルカメラの撮像画像は、イメージセンサによって得られる。イメージセンサで得られる画像は、低画素値であるほどセンサノイズの影響を多く受け、画素値のばらつきが大きくなってしまうという傾向がある。このため、前述の最小値画像に基づいた画像処理を行う手法では、該最小値画像に含まれる低い画素値の影響により、ノイズがかえって目立ってしまう可能性があった。
本発明に係る画像処理装置は、撮像画像から大気中の微粒子の影響を低減した画像を生成する画像処理装置であって、前記撮像画像から導き出される微粒子による散乱光の成分が強調された画素の画素値に基づいて、前記微粒子の影響を低減する補正処理を前記撮像画像に対して行なう補正処理手段と、前記補正処理によって散乱光の成分が除去された画像を用いて、前記散乱光による輝度変化成分および色変化成分をそれぞれ抽出する抽出手段と、抽出された前記輝度変化成分および前記色変化成分を、前記散乱光の成分が除去された画像に任意の割合で合成する合成手段と、前記撮像画像から大気光成分を抽出する大気光成分抽出手段と、前記大気光成分を用いて、前記撮像画像と比べて前記微粒子による散乱光の成分が強調された画素により構成される散乱成分強調画像を生成する生成手段と、を備え、前記微粒子による散乱光の成分が強調された画素の画素値は、前記画素を含む所定ブロック内の最小画素値を除く下位の画素値に基づいて決定される、ことを特徴とする。
本発明によれば、大気中の微粒子による影響を低減して撮像画像の視認性を改善する画像処理において、イメージセンサによるノイズの影響を抑えた、より高画質な画像を得ることができる。
画像処理装置の構成の一例を示すブロック図である。 画像処理装置の機能ブロック図である。 ヘイズ除去処理部の内部構成を示した図である。 ヘイズ除去処理部における処理の流れを示すフローチャートである。 大気光成分の抽出処理の詳細を示すフローチャートである。 霧が発生しているシーンを撮影した入力画像の一例を示す図である。 散乱成分強調画像の生成過程を説明する図である。 RGB全体の散乱成分強調画像に基づき、入力画像からすべての散乱成分を除去する補正処理の詳細を示すフローチャートである。 プレーン毎の散乱成分強調画像に基づく、入力画像からすべて散乱成分を除去する補正処理の詳細を示すフローチャートである。 入力画像から抽出されたミー散乱に相当する成分を示した画像の一例である。 入力画像から抽出されたレイリー散乱に相当する成分を示した画像の一例である。 ヘイズ除去処理後の画像(出力画像)の一例を示す図である。
以下、添付図面を参照して、本発明を好適な実施例に従って詳細に説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
[概要]
本実施例では、まず、霧などが発生しているシーンを撮影した入力画像中のミー散乱成分とレイリー散乱成分を求める。そして、求めたミー散乱成分とレイリー散乱成分を個別に抑制し再合成することで、微粒子の影響を低減した画像を得る。より具体的には以下のとおりである。
まず、入力画像であるRGB色空間の撮像画像から、大気による光の散乱成分(大気光成分)を推定する。次に、入力画像における散乱光の成分が強調された画像(散乱成分強調画像)を、RGBのプレーン毎及び全体について求める。次に、求めたプレーン毎の散乱成分強調画像とRGB全プレーンでの散乱成分強調画像をそれぞれ用いて、入力画像に対し散乱成分を除去する補正処理を行う。そして、補正結果を用いて、上述した2種類の散乱成分を抽出する。最後に、抽出したミー散乱成分とレイリー散乱成分をそれぞれ任意の割合で再合成して、視認性を改善した画像を得る。
なお、本明細書中の上記抽出や再合成の処理において演算によって求められるミー散乱成分及びレイリー散乱成分は、物理的な意味でのミー散乱とレイリー散乱を厳密・正確に表すものではないことに留意が必要である。本明細書中では、ミー散乱とは主に散乱による輝度変化成分に対応し、レイリー散乱とは主に散乱による色変化成分に対応する。
図1は、本発明に係る画像処理装置の構成の一例を示すブロック図である。画像処理装置100は、CPU101、RAM102、ROM103、HDDI/F104、HDD105、入力I/F106、出力I/F107、システムバス108から構成され、外部メモリ109、表示装置110、撮像装置111が接続されている。
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス108を介して後述する各部を統括的に制御する。これにより、後述する様々な処理が実行される。
HDDI/F104は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD105と接続されている。このHDDI/F104を介して、HDD105からのデータの読み出しやHDD105へのデータの書き込みがなされる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。
入力I/F106は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。この入力I/F106を介して、撮像装置111や外部メモリ109(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得する。
出力I/F107は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。この出力I/F107を介して、表示装置110(液晶ディスプレイなどの各種出力デバイス)に、撮像装置111で撮像された画像などを表示する。
撮像装置111は、被写体の光情報をセンサで受光し、A/D変換を施すことによって撮像画像のデジタルデータを取得する。
なお、画像処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
図2は、本実施例に係る画像処理装置100の機能ブロック図であり、入力画像データ取得部201、ヘイズ除去処理部202、ヘイズ除去画像データ出力部203、データ記憶部204から構成される。画像処理装置100は、ROM103内に格納された制御プログラムをCPU101にロードし実行することで、上記各部の機能を実現する。各部の概要は以下のとおりである。
入力画像取得部201は、撮像装置111で撮像されたRGB色空間の画像を入力画像として取得する。ヘイズ除去処理部202は、入力画像から大気中の微粒子による光の散乱成分を除去して視認性を改善した画像(以下、「ヘイズ除去画像」と呼ぶ。)を生成する。ヘイズ除去画像データ出力部203は、生成されたヘイズ除去画像のデータを、表示装置110など外部に出力する処理を行う。データ記憶部204は、上述の各種画像データを格納する他、ヘイズ除去画像の生成過程で生じる処理結果等の各種データを格納する。
続いて、本発明の特徴である、ヘイズ除去処理部202について詳しく説明する。図3は、ヘイズ除去処理部202の内部構成を示した図である。ヘイズ除去処理部202は、大気光成分抽出部301、散乱成分強調画像生成部302、第1補正処理部303、第2補正処理部304、ミー散乱成分抽出部305、レイリー散乱成分抽出部306、及び合成処理部307を備える。
ヘイズ除去処理部202を構成する上記各部は、ROM103やHDD105に保持されたプログラムがRAM102に展開されてCPU101で実行されることにより実現される。図4は、ヘイズ除去処理部202における処理の流れを示すフローチャートである。以下、図4のフローチャートに沿って、ヘイズ除去処理部202の動作について説明する。
ステップ401において、大気光成分抽出部301は、入力画像から大気光成分を抽出する。大気光成分は、撮像シーンにおける物体からの反射光以外の成分を意味し、上述のミー散乱成分とレイリー散乱成分が含まれる。大気光成分抽出処理の詳細は後述する。抽出した大気光成分のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ402において、散乱成分強調画像生成部302は、入力画像から上述の散乱成分強調画像を生成する。散乱成分強調画像を構成する画素の値は、所定ブロック内の最小画素値を除く複数の下位の画素値に基づいて、例えば加重平均を取るなどして決定される。そして、散乱成分強調画像は、各プレーン単位とRGB全プレーンについての2種類が生成される。生成の際に所定ブロック内の最小画素値を用いないことで、センサノイズの影響を大きく受けた画素が生じないようにしている。散乱成分強調画像生成処理の詳細は後述する。生成した2種類の散乱成分強調画像のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ403において、第1補正処理部303は、RGB全体の散乱成分強調画像を用いて、入力画像からすべての散乱光成分に相当する大気光成分を除去する補正処理(第1補正処理)を行う。第1補正処理の詳細については後述する。第1補正処理によって生成された補正画像(第1補正画像)のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ404において、第2補正処理部304は、プレーン毎の散乱成分強調画像を用いて、入力画像からすべての散乱光成分に相当する大気光成分を除去する補正処理(第2補正処理)を行う。第2補正処理の詳細については後述する。第2補正処理によって生成された補正画像(第2補正画像)のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ405において、ミー散乱成分抽出部305は、入力画像及びRGB全体の散乱成分強調画像を用いて、ミー散乱成分を抽出する。ミー散乱成分抽出処理の詳細は後述する。抽出したミー散乱成分のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ406において、レイリー散乱成分抽出部306は、入力画像及びプレーン毎の散乱成分強調画像を用いて、レイリー散乱成分を抽出する。レイリー散乱成分抽出処理の詳細は後述する。抽出したレイリー散乱成分のデータは、後続のステップでの処理に備え、データ記憶部204にて保存される。
ステップ407において、合成処理部307は、抽出されたミー散乱成分及びレイリー散乱成分を任意の割合で、上述の第2補正画像に合成する合成処理を行う。合成処理はプレーン単位でなされる(その詳細は後述する)。合成処理によって生成されたプレーン毎の合成画像は1つのプレーンにまとめられてデータ記憶部204にて保存された後、必要に応じてヘイズ除去画像として外部に出力される。
以上が、ヘイズ除去処理部202における処理の流れである。続いて、ヘイズ除去処理部202を構成する各部における処理の詳細について説明する。
[大気光成分の抽出]
大気光成分抽出部301における大気光成分の抽出処理(ステップ401)について、図5のフローチャートを参照して説明する。
ステップ501では、データ記憶部204から入力画像であるRGB色空間の画像データが読み込まれる。続くステップ502では、読み込んだRGB色空間の画像を輝度値を表す画像(Y画像)に変換する処理がなされる。この変換には、一般的なRGB−Y色変換式を適用すればよい。
ステップ503では、ステップ502で得られたY画像を用いて、大気光成分の推定時に参照する画素位置の候補(以下、参照画素位置候補)が決定される。具体的には、Y画像の全画素値のうち所定の閾値以上の値を持つ画素の位置を、参照画素位置候補として決定する。なお、所定の閾値には、例えば全画素値のうち値の大きい上位1%が参照画素位置候補となるような値を設定すればよい。
ステップ504では、大気光成分の推定時に参照する画素位置が、参照画素位置候補に基づいて決定される。具体的には、ステップ503で決定した参照画素位置候補を対象に、RANSAC法などのロバスト推定を用いて実際の参照画素位置を決定する。大気光成分として選択されるべき画素は空の部分を表している画素が望ましい。本ステップの意義は、ステップ503で決定した参照画素位置候補の中に含まれる、空以外の部分の高輝度の画素を除外することにある。この点、空以外の高輝度部分が入力画像上に占める割合は少なく、かつ、空の色とは輝度が異なる傾向にある。そのため、参照画素位置候補の画素のうち輝度が異なる画素を参照画素に含まないように外れ値として扱い、参照画素を適切に絞り込むことが可能なロバスト推定を行う。この時、参照画素として決定する画素の数を制限してもよい。これは、入力画像上で例えば空の色がグラデーションになっている場合など同じ空でも色(画素値)が異なることがあり、あまり多くの画素を参照するとこのような色の変化を含む空が推定対象となってしまうので、これを避けるためである。
ステップ505では、ステップ504で決定された参照画素位置に従って、大気光成分推定の処理対象とする画素(注目参照画素)を1つ決定し、当該注目参照画素の画素値を、RGBそれぞれの色毎に加算する処理がなされる。注目参照画素は、例えば参照画素として決定された画素のうち入力画像内の画素位置が最も左上の画素を最初の注目参照画素とし、以降は順次右隣の画素に移行(右隣の画素がなければ1行下に移行)するなどして決定すればよい。RGBそれぞれの色毎に加算された画素値は、RAM102等で保持される。
ステップ506では、ステップ504で決定された全ての参照画素位置について加算処理が完了した否かが判定される。加算処理が済んでいない参照画素位置があればステップ505に戻り、次の参照画素位置にある画素を注目参照画素として加算処理を続行する。一方、全ての参照画素位置について加算処理が完了していれば、ステップ507に進む。
ステップ507では、RAM102などに保持された累積加算画素値を平均化し、入力画像内の大気光成分を抽出する処理がなされる。具体的には、以下の式(1)及び式(2)を用いて、RGB画像の大気光成分ARGBとY画像の大気光成分AYとをそれぞれ求める。
ARGB=(ΣAR/n,ΣAG/n,ΣAB/n) ・・・式(1)
AY=(3×ΣAR/n+6×ΣAG/n+ΣAB/n)/10 ・・・式(2)
上記式(1)及び式(2)において、AR、AG、ABはそれぞれRプレーン、Gプレーン、Bプレーンの大気光成分を表す値、AYはY画像の大気光成分を表す値、nは参照画素の総数を表す。なお、大気光成分を求める式は上記式(1)や式(2)に限定されるわけではない。例えば、Y画像の大気光成分を、ΣAR/n,ΣAG/n,ΣAB/nの中で最も小さい値を求めることによって得てもよい。
以上のようにして、大気光成分抽出部301において入力画像内の2種類の大気光成分ARGBとAYが抽出される。図6は、霧が発生しているシーンを撮影した入力画像の一例であり、このような入力画像(RGB画像)から求められる大気光成分 ARGBは(176,177,179)といった値となる。
[散乱成分強調画像の生成]
散乱成分強調画像生成部302における2種類の散乱成分強調画像の生成処理(ステップ402)について、図7を参照して説明する。前述の通り散乱成分強調画像には、RGBの各プレーンについて生成される散乱成分強調画像と、RGB全体での散乱成分強調画像の2種類がある。
まず、プレーン毎の散乱成分強調画像の生成について説明する。図7(a)は、プレーン毎の散乱成分強調画像の生成過程を説明する図である。図7(a)は、RGB画像の任意のプレーンの一部であり、太枠の矩形700は前述の所定ブロックに対応する参照領域を示している。この例では、その中心画素701を注目画素とし、その周囲8画素を含む計9画素の領域(3×3画素の領域)を参照領域として、当該注目画素701に対応する下位画素値Tplaneが導出される。ここで、注目画素701における下位画素値Tplaneは、例えば、参照領域700内の最小画素値を除いた下位3つの画素値の加重平均を取ることで求めることができる。この場合において、下から2番目の画素値をV_2、下から3番目の画素値をV_3、下から4番目の画素値をV_4とし、それぞれに対応する重み係数を2:4:2とすると、下位画素値Tplaneは、以下の式(3)で表される。
Tplane=(2×V_2+4×V_3+2×V_4)/8 ・・・式(3)
図7(a)の例では、参照領域700内の最小画素値“103”を除いた下位3つの画素値(注目画素701の右隣:104、同直上:105、同左上:105)の加重平均を求めると、下位画素値Tplane=104.75となる。このような処理を対象プレーンの全画素について行うことで、プレーン毎の散乱成分強調画像が得られる。このように、最小画素値を除く下位の複数の画素値の加重平均を取ることで、プレーン毎の散乱成分強調画像がセンサノイズの影響を強く受けたものにならないようにしている。そして、当該散乱成分強調画像の画素値の導出に使用する画素は、各色のプレーンからのみ採用されているため、光の散乱の波長による影響を考慮したものとなる。 なお、上記式(3)は注目画素に対応する下位画素値Tplaneを求める際の計算式の一例であり、これに限定されない。例えば、最小値を除く下位4つまたはそれ以上の画素値の加重平均を求めてもよい。他にも、RGB値を輝度値に変換した上で、変換後の輝度値における下位画素値を求めてもよい。また、所定ブロックに対応する参照領域を例えば注目画素を中心とした5×5画素の領域とするなど、さらに広い領域を参照して下位画素値を求めてもよい。参照領域のサイズを決定する際には、例えばRGB値を輝度値に変換し、輝度値が大きいほど参照範囲が広くなるようにすることが考えられる。ただし、被写体までの距離が近い部分と遠い部分とは区別する必要があり、参照範囲が広いと近くにある白い壁を空と誤判定してしまう可能性があるため、このような点も加味しつつ参照範囲は決定する必要がある。
次に、RGB全体の散乱成分強調画像の生成処理について説明する。図7(b)は、RGB全体の散乱成分強調画像の生成過程を説明する図である。図7(b)には、RGB各プレーンの一部(同一座標)が示されており、各太枠の矩形710、720、730は所定ブロックに対応する参照領域を示している。RGB全体の散乱成分強調画像の生成では、3つの参照領域における同一座標の中心画素711、721、731を注目画素とし、各注目画素の周囲8画素を含む計27画素からなる領域のすべてを参照領域とする。すなわち、RGB全体の散乱成分強調画像は、プレーン毎の散乱成分強調画像とは異なり、3つの同一座標の注目画素の周辺にある全プレーンにおける画素を参照領域として処理が行われる。このため、採用される画素は、RGBいずれのプレーンの画素からも選択される可能性がある。こうして、同一座標の注目画素711、721、731に対応する下位画素値TRGBを導出する。このときの下位画素値TRGBも、上述の下位画素値Tplaneと同様、上記式(3)によって求めることができる。図7(b)の例では、最小画素値“89”を除いた下位3つの画素値(注目画素711の直上:93、注目画素721の右上:96、注目画素711の左隣:97)の加重平均を求めると、下位画素値TRGB=95.5となる。このようにして、RGB全体の散乱成分強調画像を得ることができる。なお、このRGB全体の散乱成分強調画像は、特許文献2におけるダークチャンネル画像(特許文献2の段落[0022]を参照)に相当するものである。
[RGB全体の散乱成分強調画像に基づく補正画像の生成]
第1補正処理部303における、RGB全体の散乱成分強調画像に基づく、入力画像からすべての散乱成分を除去する補正処理(第1補正処理:ステップ403)について、図8のフローチャートを参照して説明する。
ステップ801では、RGB全体の散乱成分強調画像、Y画像の大気光成分、及び入力画像の各データが、データ記憶部204から読み込まれる。
ステップ802では、Y画像の大気光成分AYを用いて、RGB全体の散乱成分強調画像が修正される。具体的には、以下の式(4)を用いて、修正されたRGB全体の散乱成分強調画像RGB_AYが求められる。
RGB_AY(x,y)=Tin_RGB(x,y)/AY ・・・式(4)
上記式(4)においてTin_RGBは修正前のRGB全体の散乱成分強調画像を示し、(x,y)は画素位置を示す座標である。
ステップ803では、大気光成分AYによる修正後のRGB全体の散乱成分強調画像RGB_AYを基に、透過率分布tRGB(x,y)が導出されるを生成。具体的には、RGB_AYに対して以下の式(5)を適用して、tRGB(x,y)が求められる。
RGB(x,y)=1.0−ω(RGB_AY(x,y)) ・・・式(5)
上記式(5)において、ωは対象画素の透過光が霧などの微粒子による散乱光のみで構成されていた場合は透過率が“0”となり、散乱成分除去後の画素値が“0”になるのを避けるために設ける調整のための係数であって、例えば0.9といった値である。
ステップ804では、導出した透過率分布tRGB(x,y)が、入力画像に合わせて整形される。これは、ステップ803で導出された透過率分布tRGB(x,y)を、入力画像のシーンに含まれる構造物等の被写体形状に合わせるための処理である。具体的には、例えば非特許文献1に記載のエッジキープ型フィルタを用いるなどして、被写体形状を分離する。
ステップ805では、Y画像の大気光成分AYと整形後の透過率分布tRGB(x,y)とを用いてから、入力画像Iに対し、すべての散乱成分を除去する処理を行なう。具体的には、以下の式(6)を用いて、散乱成分が除去された画像(以下、第1補正画像)JRGBが求められる。
上記式(6)において、JRGB(x,y)は第1補正画像の画素位置(x,y)における画素値、I(x,y)は入力画像Iの画素位置(x,y)における画素値を示している。また、t0は整形後の透過率分布tRGB(x,y)が限りなく小さい値であった場合、JRGB(x,y)の値が、I(x,y)のわずかな差(撮像時のショットノイズ等)によって大きく変動してしまうのを防ぐために設けられた調整のための係数である。具体的t0としては、例えば0.1といった値である。
このようにして、RGB全体の散乱成分強調画像に基づき、入力画像から散乱成分が除去された補正画像が生成される。
[プレーン毎の散乱成分除去画像に基づく補正画像の生成]
第2補正処理部305における、プレーン毎の散乱成分強調画像に基づく、入力画像からすべて散乱成分を除去する補正処理(第2補正処理:ステップ405)について、図9のフローチャートを参照して説明する。
ステップ901では、プレーン毎の散乱成分強調画像、RGB画像の大気光成分、及び入力画像の各データが、データ記憶部204から読み込まれる。
ステップ902では、RGB画像の大気光成分ARGBを用いて、プレーン毎の散乱成分強調画像が修正される。具体的には、以下の式(7)を用いて、修正されたプレーン毎の散乱成分強調画像Plane_ARGBが求められる。
Plane _A(x,y,c)=Tin_plane(x,y,c)/ARGB ・・・式(7)
上記式(7)において、Tin_planeは修正前のプレーン毎の散乱成分強調画像を示し、(x,y,c)はカラープレーンcにおける画素位置を示す座標である。この場合において、c=1のときはR画像、c=2のときはG画像、c=3のときはB画像といった具合に、cの値と各プレーンとが対応付けられている。
ステップ903では、大気光成分ARGBによる修正後のプレーン毎の散乱成分強調画像Plane_ARGBを基に、透過率分布tplane(x,y,c)が導出される。具体的には、Plane_ARGBに対して以下の式(8)を適用して、tplane(x,y,c)が求められる。
plane(x,y,c)=1.0−ω(Plane_ARGB(x,y,c)) ・・・式(8)
上記式(8)におけるωは、前述の式(5)と同様、散乱成分除去後の画素値が“0”になるのを避けるために設ける調整のための係数であって、例えば0.9といった値である。
ステップ904では、導出した透過率分布tplane(x,y,c)を、入力画像に合わせて整形する。具体的な手順は前述のステップ804と同じである。プレーン毎の散乱成分強調画像の場合は各プレーンに対して、すなわち、透過率分布tplane(x,y,c)におけるcを変えて、被写体形状を分離する整形が行なわれる。
ステップ905では、RGB画像の大気光成分ARGBと整形後の透過率分布tplane(x,y,c)とを用いて、入力画像Iに対し、すべての散乱成分を除去する処理を行なう。具体的には、以下の式(9)を用いて、散乱成分が除去された画像(以下、第2補正画像)Jplaneが求められる。
上記式(9)において、Jplane(x,y,c)は第2補正画像の画素位置(x,y,c)における画素値、I(x,y,c)は入力画像Iの画素位置(x,y,c)における画素値を示している。また、t0は上記式(6)と同様の調整係数であって、例えば0.1といった値である。
このようにして、プレーン毎の散乱成分強調画像に基づき、入力画像から散乱成分が除去された補正画像がプレーン毎に生成される。
[ミー散乱成分の抽出]
ミー散乱成分抽出部305における、ミー散乱成分の抽出処理(ステップ405)について説明する。ミー散乱成分は、散乱光による輝度変化成分であり、入力画像Iから上述の第1補正画像JRGBを取り除いたものに相当する。具体的には、入力画像Iの画素毎に、まず式(10)を用いてRGB各プレーン単位で画素値の減算を行い、その後に式(11)を用いて各プレーンでの最大値を求めて1プレーンに集約することにより、ミー散乱成分Mを求めることができる。
I(x,y,c)−JRGB(x,y)>=0のとき:M(x,y,c)=I(x,y,c)−JRGB(x,y)
I(x,y,c)−JRGB(x,y)<0のとき :M(x,y,c)=0
・・・式(10)
M(x,y)=max(M,(x,y,c))
・・・式(11)
上記式(10)及び式(11)における(x,y,c)及び(x,y)の意味は、前述の式(6)及び式(7)におけるそれと同じである。図10は、図6の入力画像から得られたミー散乱に相当する成分Mを示した画像である。このようにして、入力画像からミー散乱成分が抽出される。
なお、上述の式(10)に代えて、以下の式(10)’を用いてもよい。
I(x,y,c)−Jplane(x,y,c)>=0のとき:M(x,y,c)=I(x,y,c)−Jplane(x,y,c)
I(x,y,c)−Jplane(x,y,c)<0のとき :M(x,y,c)=0
・・・式(10)’
[レイリー散乱成分の抽出]
レイリー散乱成分抽出部306における、レイリー散乱成分の抽出処理(ステップ406)について説明する。レイリー散乱成分は、散乱光による色変化成分であり、入力画像Iから上述の第2補正画像Jplaneとミー散乱成分Mを取り除いたものに相当する。従って、入力画像Iの画素毎に、以下の式(12)を用いて画素値の減算を行うことにより、レイリー散乱成分Rを求めることができる。
I(x,y,c)−Jplane(x,y,c)−M(x,y)>=0のとき:R(x,y,c)=I(x,y,c)−Jplane(x,y,c)−M(x,y)
I(x,y,c)−Jplane(x,y,c)−M(x,y)<0のとき:R(x,y,c)=0
・・・式(12)
上記式(12)における(x,y,c)及び(x,y)の意味は、前述の式(6)及び式(7)におけるそれと同じである。図11は、図6の入力画像から得られたレイリー散乱に相当する成分を示した画像である。このようにして、入力画像からレイリー散乱成分が抽出される。
[合成処理]
最後に、合成処理部307における、プレーン毎に生成された第2補正画像に、抽出されたミー散乱成分とレイリー散乱成分を任意の割合で再合成する処理について説明する。具体的には、第2補正画像Jplaneの画素毎に、以下の式(13)を用いて画素値の加算を行うことにより合成画像Jcombをプレーン毎に求める。
Jcomb(x,y,c)=Jplane(x,y,c)+m・M(x,y)+r・R(x,y,c)
・・・式(13)
上記式(12)において、mはミー散乱成分に乗算する強度係数、rはレイリー散乱成分に乗算する強度係数であり、例えば、r=0.5、m=0.1といった具合に、それぞれ0〜1の間の値を取ることが望ましい。また、m=0、r=0とすることで、コントラストの向上のみに特化し、色付きを考慮しない画像を得ることが可能である。さらに、rを1に近づけると処理後の色付きが弱まる傾向にあり、mを1に近づけると霧の除去強さが弱まり、コントラストが低下する傾向にある。このように、mとrの値を任意に変えて画像合成を行なうことにより、光の散乱による影響の割合を制御することができる。
そして、求めたプレーン毎の合成画像Jcombを1つにまとめて、最終的な出力画像(ヘイズ除去画像)が得られる。図12は、図6の入力画像に対して上記合成処理を行なって得られた出力画像を示している。図12から把握することはやや困難ではあるが、大気中の微粒子による散乱成分が除去されたより自然な画像となっている。
以上説明したように、本発明によれば、より自然な形で大気中の微粒子の影響で低下したコントラストを向上させ、視認性を改善させた高画質な画像を得ることが可能となる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 大気光成分抽出部
302 下位画素画像生成部
303 第1補正処理部
304 第2補正処理部
305 ミー散乱成分抽出部
306 レイリー散乱成分抽出部
307 合成処理部

Claims (10)

  1. 撮像画像から大気中の微粒子の影響を低減した画像を生成する画像処理装置であって、
    前記撮像画像から導き出される微粒子による散乱光の成分が強調された画素の画素値に基づいて、前記微粒子の影響を低減する補正処理を前記撮像画像に対して行なう補正処理手段と、
    前記補正処理によって散乱光の成分が除去された画像を用いて、前記散乱光による輝度変化成分および色変化成分をそれぞれ抽出する抽出手段と、
    抽出された前記輝度変化成分および前記色変化成分を、前記散乱光の成分が除去された画像に任意の割合で合成する合成手段と、
    前記撮像画像から大気光成分を抽出する大気光成分抽出手段と、
    前記大気光成分を用いて、前記撮像画像と比べて前記微粒子による散乱光の成分が強調された画素により構成される散乱成分強調画像を生成する生成手段と、
    を備え、
    前記微粒子による散乱光の成分が強調された画素の画素値は、前記画素を含む所定ブロック内の最小画素値を除く下位の画素値に基づいて決定される、
    ことを特徴とする画像処理装置。
  2. 前記散乱成分強調画像を構成する各画素の画素値は、前記所定ブロック内の最小画素値を除く複数の下位の画素値の加重平均を取ることで決定することを特徴とする請求項に記載の画像処理装置。
  3. 前記加重平均は、前記所定ブロック内の最小画素値を除いた下位の3つ以上の画素値を用いて行なうことを特徴とする請求項に記載の画像処理装置。
  4. 前記撮像画像はRGB色空間の各画素値を有し、
    前記散乱成分強調画像を構成する各画素の画素値は、前記所定ブロック内のRGB値から変換された輝度値に基づいて決定する
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  5. 前記撮像画像はRGB色空間の各画素値を有し、
    RGB値から変換された輝度値に応じて、その値が大きいほど前記所定ブロックのサイズを広く設定する手段をさらに備えた
    ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
  6. 前記生成手段は、前記散乱成分強調画像をRGBのプレーン毎及びRGB全体について生成し、
    前記補正処理手段は、生成されたプレーン毎及びRGB全体についての散乱成分強調画像をそれぞれ用いて前記補正処理を行って、微粒子の影響を低減した2種類の画像を生成し、
    前記抽出手段は、微粒子の影響を低減した前記2種類の画像と前記撮像画像を用いて、前記輝度変化成分及び前記色変化成分をそれぞれ抽出する、
    ことを特徴とする請求項に記載の画像処理装置。
  7. 前記合成では、散乱成分が除去された前記画像の画素毎に、抽出された前記輝度変化成分及び前記色変化成分にそれぞれ所定の係数を乗算して得られた値を加算する処理を行うことを特徴とする請求項に記載の画像処理装置。
  8. 前記合成手段は、前記合成をプレーン単位で実行し、得られたプレーン毎の合成画像を1つにまとめて出力することを特徴とする請求項に記載の画像処理装置。
  9. 撮像画像から大気中の微粒子の影響を低減した画像を生成する画像処理方法であって、
    前記撮像画像から導き出される微粒子による散乱光の成分が強調された画素の画素値に基づいて、前記微粒子の影響を低減する補正処理を前記撮像画像に対して行なうステップと、
    前記補正処理によって散乱光の成分が除去された画像を用いて、前記散乱光による輝度変化成分および色変化成分をそれぞれ抽出するステップと、
    抽出された前記輝度変化成分および前記色変化成分を、前記散乱光の成分が除去された画像に任意の割合で合成するステップと、
    前記撮像画像から大気光成分を抽出するステップと、
    前記大気光成分を用いて、前記撮像画像と比べて前記微粒子による散乱光の成分が強調された画素により構成される散乱成分強調画像を生成するステップと、
    を含み、
    前記微粒子による散乱光の成分が強調された画素の画素値は、前記画素を含む所定ブロック内の最小画素値を除く下位の画素値に基づいて決定される
    ことを特徴とする画像処理方法。
  10. コンピュータを請求項1乃至のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2016009136A 2016-01-20 2016-01-20 画像処理装置、画像処理方法及びプログラム Active JP6635799B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016009136A JP6635799B2 (ja) 2016-01-20 2016-01-20 画像処理装置、画像処理方法及びプログラム
US15/404,441 US10210643B2 (en) 2016-01-20 2017-01-12 Image processing apparatus, image processing method, and storage medium storing a program that generates an image from a captured image in which an influence of fine particles in an atmosphere has been reduced

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016009136A JP6635799B2 (ja) 2016-01-20 2016-01-20 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017130060A JP2017130060A (ja) 2017-07-27
JP2017130060A5 JP2017130060A5 (ja) 2018-07-12
JP6635799B2 true JP6635799B2 (ja) 2020-01-29

Family

ID=59314616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009136A Active JP6635799B2 (ja) 2016-01-20 2016-01-20 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10210643B2 (ja)
JP (1) JP6635799B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10313605B2 (en) 2016-06-15 2019-06-04 Canon Kabushiki Kaisha Image processing apparatus and control method thereof for generating high dynamic range image data
CN107680101A (zh) * 2017-08-28 2018-02-09 浙江工业大学 基于暗通道的天空区域分割方法
CN108335275B (zh) * 2018-02-13 2019-12-13 腾讯科技(深圳)有限公司 图像增强方法、装置、计算设备及存储介质
CN108665436B (zh) * 2018-05-10 2021-05-04 湖北工业大学 一种基于灰度均值参照的多聚焦图像融合方法和***
CN108986049A (zh) * 2018-07-20 2018-12-11 百度在线网络技术(北京)有限公司 用于处理图像的方法和装置
CN110246195B (zh) * 2018-10-19 2022-05-17 浙江大华技术股份有限公司 一种大气光值的确定方法、装置、电子设备和存储介质
JP7227785B2 (ja) * 2019-02-18 2023-02-22 キヤノン株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
CN109919872B (zh) * 2019-03-06 2021-02-26 山东大学 一种图像复原方法、***、可读存储介质及计算机设备
JP7421273B2 (ja) * 2019-04-25 2024-01-24 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
WO2020232710A1 (zh) * 2019-05-23 2020-11-26 深圳大学 雾霾图像质量评价方法、***、存储介质及电子设备
JP7263149B2 (ja) * 2019-06-26 2023-04-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
KR20210137799A (ko) * 2020-05-11 2021-11-18 삼성전자주식회사 이미지 처리 방법 및 그 전자 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680241A (en) * 1992-12-30 1997-10-21 Canon Kabushiki Kaisha Optical space communication
US5534999A (en) * 1993-03-05 1996-07-09 Shinmikuni Kikai Ltd. Monitoring sub-micron particles
US5719567A (en) * 1995-05-30 1998-02-17 Victor J. Norris, Jr. System for enhancing navigation and surveillance in low visibility conditions
US7710418B2 (en) * 2005-02-04 2010-05-04 Linden Acquisition Corporation Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon
US8194233B2 (en) * 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
US8290294B2 (en) * 2008-09-16 2012-10-16 Microsoft Corporation Dehazing an image using a three-dimensional reference model
US8340461B2 (en) 2010-02-01 2012-12-25 Microsoft Corporation Single image haze removal using dark channel priors
US20120213436A1 (en) * 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
CN102968760B (zh) * 2011-08-30 2016-08-17 富士通株式会社 图像去雾方法和***
KR101582478B1 (ko) * 2012-05-03 2016-01-19 에스케이 텔레콤주식회사 정지영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법
KR101582479B1 (ko) * 2012-05-15 2016-01-19 에스케이 텔레콤주식회사 동영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법
KR101445577B1 (ko) * 2013-03-11 2014-11-04 주식회사 브이아이티시스템 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
JP6249638B2 (ja) * 2013-05-28 2017-12-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6282095B2 (ja) 2013-11-27 2018-02-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム。
JP2016071733A (ja) 2014-09-30 2016-05-09 キヤノン株式会社 画像処理装置および画像処理方法
JP6579868B2 (ja) * 2015-09-01 2019-09-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
KR102461144B1 (ko) * 2015-10-16 2022-10-31 삼성전자주식회사 영상 연무 제거 장치

Also Published As

Publication number Publication date
JP2017130060A (ja) 2017-07-27
US20170206690A1 (en) 2017-07-20
US10210643B2 (en) 2019-02-19

Similar Documents

Publication Publication Date Title
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6818463B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10719730B2 (en) Image processing apparatus, image processing method, and non-transitory storage medium
WO2013168618A1 (ja) 画像処理装置及び画像処理方法
JP6579868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US8923652B2 (en) Methods and apparatus for registering and warping image stacks
US8929683B2 (en) Techniques for registering and warping image stacks
JP6249638B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5423697B2 (ja) 画像処理装置、撮像装置、画像処理プログラム、及び画像処理方法
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5653104B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4386959B1 (ja) 画像処理装置
JP6904842B2 (ja) 画像処理装置、画像処理方法
CN113808054B (zh) 用于对眼底图像的视盘区域进行修复的方法和相关产品
JP5286215B2 (ja) 輪郭抽出装置、輪郭抽出方法、および輪郭抽出プログラム
JP6938282B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7421273B2 (ja) 画像処理装置及びその制御方法及びプログラム
JP7227785B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP6494817B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP2022069197A (ja) 画像処理装置及びその制御方法及びプログラム
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
JP2010068464A (ja) 画像処理装置、画像処理方法及び撮像装置
JP2024504107A (ja) 画像および映像におけるバンディング・アーティファクト検出

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191217

R151 Written notification of patent or utility model registration

Ref document number: 6635799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151