JP2018084982A - 画像処理装置、情報処理方法及びプログラム - Google Patents

画像処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2018084982A
JP2018084982A JP2016228042A JP2016228042A JP2018084982A JP 2018084982 A JP2018084982 A JP 2018084982A JP 2016228042 A JP2016228042 A JP 2016228042A JP 2016228042 A JP2016228042 A JP 2016228042A JP 2018084982 A JP2018084982 A JP 2018084982A
Authority
JP
Japan
Prior art keywords
image
images
processing apparatus
quality
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016228042A
Other languages
English (en)
Other versions
JP6929047B2 (ja
Inventor
俊太 舘
Shunta Tachi
俊太 舘
優和 真継
Masakazu Matsugi
優和 真継
小森 康弘
Yasuhiro Komori
康弘 小森
裕輔 御手洗
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016228042A priority Critical patent/JP6929047B2/ja
Priority to US15/816,678 priority patent/US10762606B2/en
Publication of JP2018084982A publication Critical patent/JP2018084982A/ja
Application granted granted Critical
Publication of JP6929047B2 publication Critical patent/JP6929047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

【課題】複数の画像からより高画質な画像を得る画像処理装置、情報処理方法及びプログラムを提供する。
【解決手段】画像処理装置は、複数の画像を取得する取得手段101a〜101cと、ニューラルネットワークを用いて複数の画像を特徴量に変換する変換手段102a〜102cと、特徴量を統合する統合手段103と、統合した特徴量から複数の画像より高画質の画像を生成する生成手段104と、を有する。取得手段は、少なくとも一つの画像の属性が他の画像の属性とは異なる複数の画像を取得し、さらに、取得手段は他の画像の属性とは異なる画像として、赤外画像、輝度画像、奥行き画像の何れかを取得する。
【選択図】図2

Description

本発明は、画像処理装置、情報処理方法及びプログラムに関する。
複数の画像から高画質な画像を生成する特許文献1のような手法が存在する。従来手法では仮想視点の画像に一致するように多視点の画像一枚一枚を射影変換し、重なった画像を平均して高画質な画像を得る。
特許第4942221号公報
Chao Dong, Chen Change Loy, Kaiming He, Xiaoou Tang. Learning a Deep Convolutional Network for Image Super−Resolution, in Proceedings of European Conference on Computer Vision (ECCV), 2014 Qiong Yan, Xiaoyong Shen, Li Xu, Shaojie Zhuo, Xiaopeng Zhang, Liang Shen, Jiaya Jia, Cross−Field Joint Image Restoration vis Scale Map, IEEE International Conference on Computer Vision (ICCV), 2013 Alexey Dosovitskiy, Jost Tobias Springenberg, Thomas Brox, Learning to Generate Chairs with Convolutional Neural Networks, Proceedings of 28th IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015 Levin, A., Fergus, R., Durand, F., and Freeman, W. T. Image and depth from a conventional camera with a coded aperture. ACM Trans. Graph. 26, 3 (2007), 70. Dengyu Liu, Jinwei Gu, Yasunobu Hitomi, Mohit Gupta, Tomoo Mitsunaga, Shree K. Nayar: Efficient Space−Time Sampling with Pixel−Wise Coded Exposure for High−Speed Imaging. IEEE Trans. Pattern Anal. Mach. Intell. 36(2): 248−260 (2014) J. Zbontar and Y. LeCun, Computing the Stereo Matching Cost with a Convolutional Neural Network. Proceedings of 28th IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015
従来方法では画像同士が略画素のレベルで重なるように適切な射影変換のパラメーターで画像を変形する必要がある。また被写体に奥行きがある場合は視差を考慮して領域別に変形する必要がある。また従来方法の高画質化は画像の平均化処理に基づくため、色収差や球面収差といった画像間に共通する系統的な劣化要因は改善しにくい。
本発明は、複数の画像を取得する取得手段と、ニューラルネットワークを用いて前記複数の画像を特徴量に変換する変換手段と、前記特徴量を統合する統合手段と、前記統合した特徴量から前記複数の画像より高画質の画像を生成する生成手段と、を有する。
本発明によれば、複数の画像からより高画質な画像を得ることができる。
画像処理装置のハードウェア構成の一例を示す図である。 実施形態1の画像処理装置の機能構成の一例を示す図(その1)である。 畳み込みニューラルネットワークの一例を示す図である。 実施形態1の処理を示す模式図である。 実施形態1の画像処理装置の情報処理の一例を示すフローチャートである。 逆畳み込み演算の一例を示す図である。 実施形態1の画像処理装置の機能構成の一例を示す図(その2)である。 実施形態1の学習処理の一例を示すフローチャートである。 高画質化の機序について説明するための図である。 実施形態1の変形例を説明するための図である。 撮像部の一例を示す図である。 実施形態2の学習処理の一例を示すフローチャートである。 実施形態3の画像処理装置の機能構成の一例を示す図である。 実施形態3の情報処理を説明するための図である。 実施形態3の画像処理装置の情報処理の一例を示すフローチャートである。 実施形態3の変形例の一例を示す図である。 エピ極線拘束を説明するための図である。 実施形態4のニューラルネットワークの模式図である。 実施形態5のニューラルネットワークの模式図である。 アレイ状の多眼カメラに適用した一例を示す図である。 段階的な学習の一例を示す図である。 段階的な学習処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、画像処理装置10のハードウェア構成の一例を示す図である。画像処理装置10は、ハードウェア構成として、CPU11と、メモリ12と、ネットワークI/F13と、出力I/F14と、を有している。CPU11は、画像処理装置10の全体を制御する。メモリ12は、画像やプログラム、CPU11が処理を実行する際に使用するデータ等を記憶する。ネットワークI/F13は、画像処理装置10を有線、又は無線を介してネットワークに接続するインタフェースである。出力I/F14は、例えば、ディスプレイ等と接続され、CPU11による処理結果等をディスプレイ等に出力する。図1に示したハードウェア構成は一例である。画像処理装置10は、複数のCPUを有していてもよいし、ディスプレイ等の出力部自体を有していてもよいし、撮像部、操作部等とのインタフェースを有していてもよいし、撮像部、操作部自体を有していてもよい。
CPU11がメモリ12に記憶されているプログラムに基づき処理を実行することにより、画像処理装置10の後述する図2、図7、図13に示される機能構成、図5、図8、図12、図15、図22のフローチャートの処理が実現される。
<実施形態1>
実施形態1の画像処理装置10の目的は、簡易な構成の撮像装置(以下、低画質画像の撮像装置ともいう)による複数の低画質な画像から、高精度な構成の撮像装置で得られるような高画質な画像を生成することである。高画質化は解像度の向上、ノイズ削減、色調補正、鮮鋭化、被写界深度の変更等、様々考えられるが、本実施形態における高画質化は高解像化のこととする。
本実施形態においては各低画質の画像はカラー画像、赤外画像、フラッシュ撮像した画像のように画像の属性が相異なるものであるとする。各低画質の画像及び生成される高画質な画像の視点位置は同一であるとする。ここで視点の一致した複数の異種属性の画像を得るためには以下のような方法がある。(1)低画質画像の撮像装置の内部でハーフミラーを使って光線を分割する(2)属性の異なる受光素子を撮像デバイスに混合して配列させる。画像処理装置10が取得する低画質画像は上記のような工夫を備えた低画質画像の撮像装置により撮像されたものであるとする。
本実施形態に係る画像処理装置10を、図面を参照しながら説明する。なお、図面間で符号の同じものは同じ動作をするものとして重ねての説明を省く。
まず図2の機能構成の図を参照して本実施形態の画像処理装置10の概要を説明する。画像処理装置10は、機能構成として、画像処理を行う対象の複数の低画質画像を取得するための画像取得部101a〜101c、取得された低画質画像をニューラルネットワーク(以下、NNと略す)によって特徴量に変換する特徴変換部102a〜102cを含む。また、画像処理装置10は、機能構成として、NNの特徴量を統合する特徴量統合部103、前記統合された特徴量に基づいて高解像な画像を生成する高画質化変換部104、生成された高画質画像を出力する画像出力部105を含む。更に、画像処理装置10は、機能構成として、特徴変換のための各種パラメーターの保持及び供給を行う変換パラメーター保持部106を含む。
次に本実施形態を適用して得られる手法と従来手法との差異を明確にするため従来手法である非特許文献1を概説する。非特許文献1は1枚の画像より高解像化した画像を生成する手法である。同手法は図3に示すように畳み込みニューラルネットワーク(Convolutional neural network、以下、CNNと略す)を用いる。同手法は大まかには(1)拡大した低画質画像202をNNの特徴量203に変換する特徴変換処理210及び(2)NNの特徴量203から高画質な画像205を生成する高画質化変換処理213の二つの構成から成ると見ることができる。
以上の従来法に対比して本実施形態を説明する。図4に模式図を示すように、複数の低画質画像301a〜301cを入力としている。ここでは低画質画像はRGBカラー画像、赤外画像、フラッシュ撮像画像のようにそれぞれ属性の異なる画像とする。なお図4には3枚の低画質画像が示されているが、低画質画像の構成枚数は2枚以上の任意の数が可能である。
これら複数の属性の画像を用いて補完的に高画質画像を生成する点が、従来法である非特許文献1と本実施形態の処理との違いである。また統合の際に画像の画素ではなく、特徴量を用いて統合する点が、特許文献1のような画像平均化をベースとする従来方法と本実施形態の処理とが異なる点である。また各複数の属性画像は統合に至るまでに、各個それぞれのNNで特徴変換され、統合に適切な抽象度の特徴量に変換される点が更に他の従来法と本実施形態の処理との差異である。本実施形態の処理では画像の統合の一つの実現形態として特徴量の連結を示しているが、後の実施形態に示すように、統合の方法は特徴量の連結には限らない。
本実施形態の画像処理装置10は、各低画質画像301a〜301cをCNNの特徴量303a〜303cへ変換する特徴変換308a〜308cを行う。特徴変換308a〜308cはここではそれぞれ二段階の畳み込み処理から成るとしている。
次に画像処理装置10が従来手法と異なるのは、特徴量統合309の処理を備える点である。特徴量統合309の処理は低画質画像のCNNの特徴量303a〜303cを連結して一つのCNNの特徴量304を得る。特徴量が一つに統合された後は、画像処理装置10は、特徴量304に高画質化変換315の処理を行って高画質画像の結果を得て最終出力とする。
次に図5のフローチャートを用いて画像処理装置10の動作を詳細に述べる。動作が開始されると、S101において、画像取得部101a〜101cは、低画質画像301a〜301cを取得する。取得された画像は特徴変換部102a〜102cにそれぞれ送られる。次にS102において、特徴変換部102a〜102c、及び高画質化変換部104は、変換処理を行うための変換パラメーターを変換パラメーター保持部106から読み出す。
S103からS107までは低画質画像301a〜301cごとに以下の処理を行うループの処理である。まずS104において、特徴変換部102は、低画質画像の撮像装置の光学構成等に由来する画像の歪みを補正する。更にS105において、特徴変換部102は、各画像のサイズ及び縦横比が一致するようにサイズやアスペクトを調整する。特徴変換部102は、これらの補正処理を、光学系や低画質画像の撮像装置の設計値を用いて行ってよい。又は予め撮像した校正用のパターン等からカメラの内部パラメーターを推定して補正してもよい。
次にS106において、特徴変換部102は、低画質画像301a〜301cをCNNの特徴量303a〜303cに変換する。これは本実施形態では下式の畳み込みの演算と活性化関数の演算からなる。
i+1=θ(f'i+1),
θ(x)= Max(0,x),
f'i+1(x,y,di+1)=ΣdiΣΔxΣΔyi(x,y,di)wi(x+Δx,y+Δy,di,di+1)+bi(di
但し、fi,fi+1は変換前と変換後の特徴量である。f(x,y,d)は画素(x,y)に関する多次元特徴量fのd番目の値である。θは半波整流の活性化関数である。ΔxとΔyとはサイズS×Sの画像パッチの各画素の座標であり、Δx,Δy∈{−S/2,…,0,…,S/2}である。またwは4次のテンソルの変換パラメーターである。bはバイアス項である。なお、ここで画像外の領域は0の値で充填されており、畳み込み演算の変換前後で画像のサイズは変えないとする。
この畳み込み演算のパラメーターw及びbは後で示す事例学習の方法で事前に獲得される。本畳み込み演算は定性的には、低画質な画像を、変換後の目標である高画質画像に対応づけるための局所パッチの符合化処理と見なすことができる。
より具体的に説明する。画像を小さな局所パッチの集合として考える。画像は空間的な連続性を持ち、空や壁等同一の被写体には繰り返しのパターンや類似パターンがある。そのた各パッチは、有限個のパターンのコードブックの組み合わせによって効率よく近似することが可能である。これがコードブックベースの画像圧縮である。画像の各パッチはコードブックとその係数とに圧縮され(符合化)、係数とコードブックとの積和から画像を生成することができる(復号化)。
本実施形態の画像処理装置10も部分的に上記と同様の処理を行う。異なるのは、複合化の目標となる画像が入力画像そのものではなく、高画質画像であることである。またそのため中間段階のコードブックの情報表現は、高精細な情報を十分表現し、かつ、ノイズ等にロバストであることが求められる。
非特許文献1は、NNの特徴表現がこれに適うことを実証したものである。畳み込み演算を複数回繰り返すCNNの各層には、色の組み合わせや物体形状等、様々な情報が異なる階層で表現される。また学習したタスクに応じて必要なタイプの表現が発見的に獲得される。以上がNNの畳み込み演算が高画質化のための特徴表現(符合化)を実現する背景の説明である。
図4では特徴変換308a〜308cの各処理として上記の畳み込み演算を二段階行う形態を示している。但し、ここで何段階の畳み込み演算を行うか、そのときの畳み込みのカーネルのサイズ、変換後の特徴量の次元数等は特定の形態に限定されない。また特徴変換308a〜308cの変換パラメーターはそれぞれ異なっていてよい。
次にS108において、特徴量統合部103は、前段までに得られたCNNの特徴量303a〜303cを統合して統合後の特徴量304を生成する。本実施形態における統合処理とは下式のような特徴量の連結処理である。
3(x,y)=[f2a(x,y)T,f2b(x,y)T,f2c(x,y)TT
ここでf2a(x,y),f2b(x,y),f2c(x,y)はそれぞれCNNの特徴量303a〜303cの画素(x,y)に関する特徴ベクトルである。Tは転置である。
S109において、高画質化変換部104は、統合後の特徴量304に対して逆畳み込み310の処理を行う。この結果、各画素の1×1×D3次元の特徴量がS×S×D4次元の特徴量に変換される。この演算は下式のようになる。
i+1=θ(f'i+1),
f'i+1(Sx+Δx,Sy+Δy,di+1)=Σdi w' i(Δx,Δy,di,di+1)fi(x,y,di)+b'i(Δx,Δy,di+1))
但しw'は変換パラメーターである。b'はバイアス項である。Δx,Δyは各画素を変換して得られる画像パッチの座標の要素である。上式の変換により低画質の画像の特徴量304はS倍の解像度を持つ特徴量305に変換される。なお図6(A)は変換後の画像パッチサイズがSに等しい場合を示す模式図である。一方で図6(B)は変換後の各画像パッチがSより大きいケースを示す。後者のケースでは、変換後の画像パッチ間で重なる領域が存在する。重なった領域では変換後の各画素の値を総和して特徴量とする。
なお従来法の非特許文献1では逆畳み込み演算は行わず、入力画像をバイキュービック法で機械的に拡大している。それに対して本実施形態の画像処理装置10は、後述するように事例学習に基づき解像度の向上を行い、その重みはNNの層全体を通じて最適化される。
次にS110において、高画質化変換部104は、図4の高画質な特徴量305に対して畳み込み311の処理及び畳み込み312の処理を行って3チャンネルのカラー画像307を得る。S111において、画像出力部105は、結果の高画質画像を出力する。そして、画像出力部105は、図5に示すフローチャートの処理を終了する。
本実施形態の一連の変換に関するパラメーターは予め画像及び特徴量の変換前後の適切な関係を多数の事例画像から学習することで獲得される。学習時の動作については後述する。なおNNの各段階にはここで述べた畳み込みや活性化関数の演算に加えて、特徴量の値を正規化する処理を組み合わせてもよい。このような細かな処理のバリエーションの内容は、本実施形態にとって本質的な要素ではないのでここでは詳述しない。
(学習処理)
次に本実施形態のNNの重み、即ち適切な変換パラメーターを学習で獲得するための詳細な処理の流れを説明する。学習に係る画像処理装置10の機能構成図は図7のようになる。これは図2に新たに高画質画像取得部107、画像比較部108及び学習事例画像保持部109が加わったものである。学習処理のフローチャートを、図8を用いて説明する。
まず学習に用いる事例画像のセットは事前に様々な被写体を撮像し、学習事例画像保持部109に保存されているとする。ここで事例画像とは画像取得部101a〜101cで撮像した低画質の画像群と、それらから最終的に生成したい目標となる高画質画像と、である。高画質画像は、低画質画像の撮像装置群とは別の撮像装置を用意して撮像が行われる。ここで高画質画像は低画質画像群と視点と焦点面が同一になるように撮像装置の位置が調整され、撮像が行われているものとする。
画像処理装置10の学習処理が開始すると、まずS201において、変換パラメーター保持部106は、全パラメーター{wi,bi,w'i,b'i}を乱数で初期化する。次にS202及びS203において、画像取得部101a〜cは、学習事例画像保持部109から各撮像系の低画質画像を読み出し、各画像の歪みやサイズ、アスペクトの補正を行って各低画質画像上の被写体が概ね一致するように変換を行う。ここで決定した画像補正の変換のパラメーターは変換パラメーター保持部106に保存され、認識時にも同じ値が利用される。画像取得部101a〜cは、補正後の画像を、学習事例画像保持部109に戻して保存する。
なお低画質画像を平均して最終結果とする特許文献1と異なり、この画像補正は必ずしも画素レベルまで厳密に一致させる必要はない。例えば画像間に位置ずれがある場合でも、サイズとアスペクトとが同じならばずれ方は系統的になる。即ち、低画質画像間の同一のエッジは常に同じ変位量だけずれる。この場合、図4における低画質画像の特徴変換308a〜308cには、受容野の中心がずれたフィルタがそれぞれ学習される。各画像のエッジやテクスチャ等は上記の変換でそれぞれ位置ずれが吸収され、その後、特徴量統合309で統合され、高画質画像に対応づけるために更に高層のニューロンへ送られる。
またもし特定の低画質画像が歪んでいたり、アスペクトやサイズが少しずつ異なっていたりするような場合は、位置ずれは非系統的に生じる。このような場合、特徴変換308a〜308cには受容野の中心のぼけたフィルタが学習される。このぼけの大きさは、低画質画像間の非系統的な位置ずれ量の標準偏差に比例する。このように低画質画像間の位置ずれはNNのフィルタによってロバストに吸収されることになる。
次のS204からS210までの処理は変換結果が目標の画像に近づくように誤差を減らすパラメーターの更新のループである。ループは所定の回数繰り返される。まずS205において、画像取得部101a〜cは、低画質画像のセットをn個選択する。次にS206において、高画質画像取得部107は、低画質画像の各セットに対応する同一視点・同一焦点面の高画質画像をn枚取得する。
次にS207において、その時点までに得られている変換用のパラメーターの値を用いて特徴変換部102a〜102c、特徴量統合部103、高画質化変換部104がそれぞれ所定の順番で変換処理を行う。これによりn個の低画質画像のセットよりn枚の高画質画像が生成される。次にS208において、画像比較部108は、生成されたn枚の高画質画像と目標のn枚の高画質画像とを比較して誤差の量を算出する。画像間の総誤差量は下記の二乗誤差で定義される。
L = 1/nΣj 1/mj ΣcΣxΣy ||I* jc(x,y)−I^ jc(x,y)||2
但しI* jはn個のデータセットのうちのj番目の高画質画像の真値である。I^ jはj番目の低画質画像セットから生成された高画質画像である。mjはj番目の画像の全画素数である。cはRGBの3チャンネルを表す要素である。
S209において、画像比較部108は、特徴変換部102a〜102c、高画質化変換部104に誤差の値を送り、それぞれ誤差の値が最小化するように、各パラメーター{wi,bi,w'i,b' i}を下式で変更する。
W(t+1)=W(t)−η∂L/∂W(t)
但しWは何れかのパラメーターを表す。ηは学習係数である。誤差の勾配の項∂L/∂Wは誤差逆伝搬の手法を用いて最終層から順に算出される。ある層のニューロンiとその上位の層のニューロンjの間に結合があるとき、結合の重みのパラメーターWijの誤差の勾配は以下の式で求められる。
∂L/∂Wij=(∂L/∂Zj)(∂Zj/∂Wij
但しZjはニューロンjの出力値である。
以上の更新処理を所定回数繰り返したら、S211において、特徴変換部102a〜102c、特徴量統合部103、高画質化変換部104は、変換パラメーター保持部106にネットワークの全パラメーターを保存して処理を終了する。なお上記の学習更新式には慣性項や重みの減衰項と呼ばれる項を加えたタイプ等派生の形態も様々に存在する。以上で学習時の処理についての説明を終える。
次に、本実施形態の高画質化の機序について定性的な説明を行う。図9(A)の模式図では赤外画像、輝度画像、奥行き画像という属性の相異なる低画質な画像501a〜501cが撮像され入力されている。個々の画像は輝度画像501bのように解像度が低かったり、ノイズを伴っていたり、赤外画像501aに二重線として表現されるように、色収差による境界の滲みを伴っていたり、奥行き画像501cのように全体がぼやけた画像であるとする。
画像処理装置10は、NNで各画像を特徴量に変換する。各画像の領域は輪郭の形状や表面のテクスチャといった、被写体の見えに関する抽象的で高次元の特徴量に分解される。次に画像処理装置10は、複数の画像の特徴量502a〜502cを連結してまとめる。すると、異なる属性の画像が特徴量のレベルで集約される。次に事例ベースの学習により、上記の高次元特徴ベクトルと、変換先の目標である高画質画像503の局所領域のパターン504とが対応付けて記憶される。更にNNの各層の変換パラメーターは学習を通じて全体が最適化される。このような機序により、本実施形態の画像処理装置10は、属性の異なる低画質の画像群を利用して高画質画像503を生成することができる。
本実施形態の機序を更に明確にするためにここで従来の高画質化の方法と比較する。異種属性画像を補完的に利用する従来の方法には非特許文献2のような方法がある。同方法では赤外フラッシュで撮像した赤外画像からエッジを抽出し、同エッジを利用して可視光画像のエッジ保存平滑化を行う。このような方法ではエッジの位置を合わせたり、赤外画像のエッジの欠けや疑似エッジといったノイズに対する個別的な工夫としたりする必要がある。
対して本実施形態において、低画質画像間にエッジの食い違いや収差による色の滲みのような食い違いがある場合を考える。低画質画像の局所パッチには様々な被写体の部分領域が含まれる。空や壁等同一被写体からは同じような輪郭やテクスチャのパッチが多く抽出される。ここである二つの異種画像間の食い違いが系統的で、常に同じ方向に同じ量だけ輪郭がずれると仮定する。すると輪郭のずれ方の類似したパッチが数多く存在することになる。NNが局所パッチを特徴量化(符号化)する際は、これらの位置ずれもパターンの一部として畳み込み演算の重みを学習する。そのため画像の食い違いはNNの特徴量変換によって吸収されることになる。
更にここで異種画像間のずれ方の方向や量が一定ではなく、画像中の位置や被写体の距離等によって異なる方向に異なる量ずれると仮定する。この場合、一つの畳み込み演算で食い違いを吸収することは難しい。但し、複数の階層のNNの特徴変換を経ることにより、上記のようなずれ方の複数のバリエーションを個別に学習し、正しく輪郭として符号化できる可能性がある。
以上説明したように、本実施形態では学習によって異種画像の食い違いを吸収して各画像を補完的に用いることができる。非特許文献2のように、ユーザーが異種画像間の食い違いに対して個別的な工夫を施す必要がない。
また更に特許文献1のような従来の方法と比較する。特許文献1では合成したい画像の仮想的な焦点面の値をユーザーが与え、これに応じて画像群の位置をずらして重ねたのちに画像を平均化していた。対して本実施形態では、前述のような処理を行わない。本実施形態の画像処理装置10は、同じ被写体であっても焦点面が異なる画像は別の学習事例として扱う。学習では焦点面が異なる事例ごとに低画質画像の特徴量と高画質画像の局所領域との対応関係を記憶する。そのため、ある焦点面で撮像した低画質画像群を入力として与えると、画像処理装置10は、これに対応する焦点面で撮像した高画質画像を再現するように画像の変換を行う。
このように画像処理装置10は、事例ベースで高画質化処理を行っている。そのため高画質化処理の種類は高解像化に限らず様々な形態が実現可能である。暗電流ノイズの抑制、色調補正、鮮鋭化、被写界深度の変更、ボケの除去、霧や霞みの除去、等様々な種類の高画質化処理の実現が可能である。
但しこれらを精度よく行うためには、信号とノイズとを見分けるだけの必要な情報が低画質画像に乗っていることと、事例を学習するための豊富な事例を用意することとが必要である。例えば霧や霞みを除去するには、霧に隠れた被写体をある程度捉えられる赤外のようなマルチバンドの画像があることが望ましい。また暗電流ノイズを抑制するためには、暗電流と通常の模様との違いが学習できるだけの豊富な事例セットが必要となる。
(変形例)
ここで実施形態1の変形例として画像処理装置10を図10(A)のような構成としてもよい。本変形例の画像処理装置10は、先に説明した実施形態1とは異なり、低画質画像の特徴量903a〜903bに対して先に逆畳み込みによる高画質化の処理を行い、高画質の特徴量904a〜904bを生成する。画像処理装置10は、その後に特徴量連結の処理を行う。このように各処理の順番が前後したり、複数段階に分けて実行されたりする形態が有り得る。また逆畳み込みの高解像変換を複数回に分けて少しずつ高解像な特徴量に変換するようにしてもよい。
また実施形態1では高画質な特徴量を得るために学習に基づく逆畳み込み演算を用いた。しかし、図10(B)に示すように、画像処理装置10は、低画質画像911a〜911bをまずバイキュービック補完等の一般的な画像処理手法でアップサンプリングし、ついでNNの特徴量へと変換するようにしてもよい。また更に別の変形例として、画像処理装置10は、逆畳み込み演算の代わりに、非特許文献3で示されているような逆プーリング(unpooling)と呼ばれる特徴量の拡大コピー、及び畳み込み演算からなる二段階の変換を用いてもよい。
また別の変形例として、図10(C)に示すように、画像処理装置10は、一段階目に逆畳み込み演算による高解像化を兼ねた特徴変換を行い、その後に特徴量統合と高画質化を行うような形態でもよい。
また別の変形例として、画像処理装置10は、画像そのものを特徴量と見なして一段階目で異種属性画像のチャンネルを全て連結し、次いで畳み込みによる高画質化変換を行うような形態でもよい。
また別の変形例として、画像処理装置10は、プーリング処理を組み合わせてもよい。プーリングは複数の画素の特徴量を集約して一つの画素の特徴量とする処理であり、パターンの変形や位置ずれに対してニューロンの反応がロバストになる効果がある。但し特徴の空間解像度は低下する。これを補うため、画像処理装置10は、プーリング後に特徴を線形補完等で再拡大したり、逆畳み込み演算によって解像度を復元したりしてもよい。本変形例の部分的な一例を図10(D)に示す。ここでは畳み込み演算の後にプーリングを行い、次いで異属性間の特徴量を連結し、逆畳み込み演算で再び解像度を拡大する、といった構成を示している。
また本実施形態では、畳み込み及び逆畳み込みの変換のパラメーターは画像上の位置に寄らず一定であったが、これを画像上の位置によって異なるパラメーターを用いるようにしてもよい。この変形例では画像の端に出やすい特定の収差や周辺光量落ち等の劣化要因を効果的に学習して除去することが期待できる。
また別の変形例として、画像処理装置10は、低画質画像として符号化撮像や圧縮センシング等と呼ばれる特殊な撮像技法による画像データを用いてもよい。例えば非特許文献4では符号化絞りと呼ばれる特殊なマスクパターンの絞りを使って撮像した画像を用いると被写体の奥行きの推定が容易になる例が示されている。画像取得部101が取得する低画質画像の実現例として、非特許文献4のような画像データを用いてもよい。このような画像データを通常の輝度画像と組み合わせると、性質の異なる画像を補完的に用いることができるため精度の向上が期待できる。
また同様に例えば非特許文献5には撮像装置ごとに個別に撮像タイミングを制御してn回の撮像を行い、バリエーションの異なるnフレームの動画像を得る技術が示されている。このような画像をnチャンネルの画像データとして本実施形態の低画質画像の一つとして入力するような形態でもよい。
また本実施形態では低画質画像の焦点面を調整して撮像することを想定していた。ここで変形例として、何れか一つの低画質画像を基準画像として焦点面を操作して撮像し、残りの低画質画像は常に焦点面を固定するようにしてもよい。基準画像以外は深い被写界深度で撮像した画像(いわゆるパンフォーカス)としておく。この変形例では基準となる画像からは焦点面の情報を手掛かりにし、残りの画像については見えの情報のみを用いる。これによりこれまでの形態と同様、入力画像の焦点面に対応した焦点面で撮像したような高画質画像が生成される。
<実施形態2>
実施形態1では、画像処理装置10の画像取得部が得る各低画質画像と、低画質画像を変換して得られる高画質画像との視点位置が同一である構成について述べた。実施形態2では、各低画質画像と高画質画像との各々の視点位置が異なる構成について述べる。本実施形態は実施形態1と異なり光線の分割等が不要のためより簡素な構成となる。その一方で、実施形態1では存在しなかった視差が画像間に生じるため、より複雑な画像変換のパラメーターの学習を行う必要がある。
本実施形態の画像処理装置10は、ハードウェア構成として、撮像部1000を有するものとする。撮像部1000の外観の例を図11(A)に示す。ここでは撮像部1000の筺体に二つの低画質画像の撮像装置1011aと低画質画像の撮像装置1011bとが備わる例を示している。二つの低画質画像の撮像装置で撮像した低画質画像から、仮想の視点位置1012で高画質なカメラで撮像したような画像を生成することが本実施形態の処理の目的である。なおここで図11(B)に示すように低画質画像のi番目の撮像装置の視点位置と仮想的な高画質画像の視点位置との変位量をρiとする。本実施形態の機能構成は実施形態1の図2と同様である。
次に本実施形態の学習時の情報処理を、図12を用いて説明する。学習時の機能構成図は実施形態1の図7と同様である。まず学習処理の準備として高画質な学習画像データを撮像するための高画質撮像装置を別に用意する。高画質撮像装置と低画質画像の撮像装置1011a、1001bとはそれぞれ自由に視点を移動させながら撮像できる機構が備わっているとする。
まず学習処理が開始されると、S301において、学習事例画像保持部109が高画質撮像装置を用いて学習用の被写体を撮像し、画像を保存する。ついでS302において、学習事例画像保持部109が二つの低画質画像の撮像装置1011a、1001bを用いて同一の被写体を撮像して保存する。このとき、学習事例画像保持部109は、低画質画像の撮像装置1011a、1001bの視点の位置を水平方向に所定の変位量だけずらしながら複数回の撮像を行う。これにより学習事例画像保持部109に様々な被写体について高画質の画像、及び同一の被写体を異なる視差で撮像した複数の低画質画像が保存されることになる。
次にS303〜S307は、各変換パラメーターの学習更新を行うループである。ループ中では変数αが0から1まで0.1ずつ増加する。S304において、高画質画像取得部107は、学習事例画像保持部109よりn枚の高画質画像を選択して取得する。次にS305において、画像取得部101aと画像取得部101bとが、高画質画像に対応するn枚の画像を学習事例画像保持部109よりそれぞれ選択して取得する。このとき、画像取得部101aと画像取得部101bとは、図11(C)に示すように、αの値に応じて変位量αρiの位置で撮像した画像をそれぞれ選択する。
これにより、学習の初期では同一の視点位置の画像が学習画像として与えられ、学習が進むと漸次、真の視点位置で撮像した画像が与えられることになる。このようにすることで学習を平易にし、局所解等に陥るのを防ぐ。S306において、特徴変換部102a、102b及び高画質化変換部104は、変換パラメーターの更新を行う。本ステップは、S306a〜S306cで構成され、この処理は実施形態1で述べた学習時の処理動作(図7のS207〜S209)と同一であるため、詳細な説明は省略する。
これにより、学習の初期では同一の視点一の画像が学習画像として与えられ、学習が進むと漸次、画像処理装置10の撮像部1000の真の視点位置で撮像した画像が与えられることになる。このようにすることで学習を平易にし、局所解等に陥るのを防ぐことができる。α=1.0での学習が終わったらS309において、特徴変換部102a、102b及び高画質化変換部104は、変換パラメーター保持部106にNNの変換パラメーターを保存する。そして、例えば、特徴変換部102a、102b及び高画質化変換部104は、図8に示すフローチャートの処理を終了する。
次に、本実施形態の高画質化の機序について定性的な説明を行う。視点位置の異なる複数の低画質画像の撮像装置で撮像すると図9(B)及び図9(C)に示すように、被写体までの距離に応じて画像群511及び画像群521には視差が生じる。但し画像間のずれは不規則に生じる訳ではなく、被写体までの距離の変化に応じてそれぞれエピ極線上を移動する(エピ極線については実施形態4で詳述する)。
画像群511の各画像を特徴変換して得られる特徴表現のパターンをPL,Q,RRとする。被写体に近づいて撮像すると図9(C)に示すように更にずれたパターンPLL,Q,RRRが得られる。ここでパターンP(図9(A)に記号を付して示す)、PL及びPLLは形状がほぼ同一ながら位置の異なるパターンである。CNNの上層のニューロンは多様な形状に選択的に反応するのみならず、パターンの位置ずれに対しても選択性を持つことが知られている。P,PL,PLLを表現するニューロンの反応のベクトルの集合は類似しつつ互いに少しずつ異なっている。即ち、画像パターンの位置ずれに関しての1次元の多様体を構成している。
学習の際に、特徴量表現のベクトル(PL,Q,RR)は高画質画像513の局所領域の見え504に対応付けて記憶される。特徴量表現のベクトル(PLL,Q,RRR)は同一の局所領域を近くで撮像したときの見え505に対応づけされる。このように各パターンを高画質画像に対応付けて記憶して行く。
ニューロンの特徴表現のベクトル(P,Q,R),(PL,Q,RR),(PLL,Q,RRR),…,がそれぞれ異なる反応のパターンを示す場合、有限個のニューロンであらゆる低画質画像と高画質画像とを対応付けて記憶してゆくのは困難である。
しかしパターンの集合{P,PL,PLL}及び{R,RR,RRR}に対するニューロンの反応のベクトルは1次元の多様体である。これらのベクトルの組の集合{(P,Q,R),(PL,Q,RR),(PLL,Q,RRR)}も1次元の多様体である。ニューロンの反応パターンは位置ずれ以外に、形状についてのバリエーションも持つ高次元の多様体だがここでは簡単のために位置ずれにのみ話を限定する。
NNは多様体のパターンを効率よく学習できる手法として公知であり、特に多様体のパターンを次元圧縮するオートエンコーダーが広く知られている。本実施形態の画像処理装置10は、高次元の入力画像パターンをNNの特徴量へと次元削減し、出力画像パターンへと紐付け、再び画像へと復号化する。これは入出力データが低画質と高画質とで非対称なオートエンコーダーの一種と見なすことができる。
以上の結果、各画像上の被写体が図9(B)及び(C)のように視差によってずれている場合も、これらを効率的に高画質画像の領域と対応付けて記憶することができる。その結果、様々な低画質画像から高画質画像を生成することが可能となる。以上が本実施形態の機序の説明である。
<実施形態3>
実施形態2では各低画質画像及び高画質画像の視点位置が同一でない形態について述べた。上記実施形態では視点位置が離れていてニューロンの受容野の大きさを超えるほどの視差が生じる場合、画像間を対応づけることができないため精度が下がる問題がある。CNNをより多数の層で構成すれば高層のニューロンの受容野を大きくすることができるが、多数層のNNは学習が困難である。そこで本実施形態ではこのような問題を解決する処理等について開示する。またその際、本実施形態における特徴量の統合部が特徴量の連結操作に限らず様々な形態を取り得ることを示す。
本実施形態の画像処理装置10は実施形態2と同様に視点位置の異なる低画質画像を取得する複数の画像取得部を備える。画像処理装置10の処理の目的は取得した複数の低画質画像から大口径のレンズで撮像したような被写界深度の浅い鑑賞性の高い画像を作成することとする。本実施形態では物理的なサイズが小さい又は構成が簡易な光学系からでもこのような高画質な画像を得ることができる。
画像処理装置10の機能構成は図13(A)のようになる。図13(A)がこれまでの実施形態と異なるのは、一つは被写体距離取得部1007を備える点である。また更に異なる一つはパターンの視差に対応したM個の特徴変換部1002x〜zを備える点である。
画像処理装置10の情報処理を図14(A)、15(A)及び図15(B)を用いて説明する。画像処理装置10が動作を開始すると、S401〜S406で上述の実施形態と同様の処理が行われる。即ち、低画質の画像取得部1001a〜cがN枚の画像を取得してそれぞれに歪みやサイズの画像補正を施す。なお、S404の歪み補正の際に、低画質画像の撮像装置と高画質画像の仮想視点位置との光軸が並行でない場合、画像処理装置10は、低画質画像と高画質画像との像面が並行になるように併せて射影変換による補正を行う。
続いてS407〜S410は前段で得られた低画質画像のセットにM個の異なる特徴変換を施す処理のループである。ここでM個の特徴変換はそれぞれM段階の異なる視差のケースに対応している。S408において、特徴変換部1002x〜1002zは、それぞれ距離djの焦点面に被写体があると想定して、全画像の位置が焦点面で一致するように各画像を所定の方向及び所定量ずらして重ねる。この重ねられたN枚の画像を図14(A)に記号I(j)で表す。なお画像処理時には被写体がどの距離にあるかに関わらず、特徴変換部1002x〜1002zは、一律に上記処理を行う。
図14(A)ではd1=無限遠、d2=10m、dM=0.5mの3つの視差のパターンについて図示している。ここでN枚の低画質画像のうち簡単のため2枚のみ破線で示している。なお画像を台形で示しているのは射影変換後の画像であることを示している。
次にS409において、特徴変換部1002が備える畳み込み演算部によって画像I(j)に畳み込み演算を行ってNNの特徴量f1 (j)を得る。次にS411において、特徴量統合部1003は、被写体距離取得部1007から距離マップD*を得る。この距離マップはアクティブパターン照射法等の何らかの手段で撮影と同時に各画素の距離の値を別途得るものとする。被写体距離取得部1007の実現手段はここでは問わない。
次にS412において、特徴量統合部1003は、距離マップの値d*(x,y)∈D*に基づいて、各画素についてM種類の特徴量f1 (j)(x,y)を何れか一つ選択して特徴量f2(x,y)とする。より具体的に説明すると、d*(x,y)に最も近い距離djに対応する特徴量f1 (j)(x,y)をf2(x,y)の特徴量とする。数式で表すと下式のようになる。
2(x,y)=f1 (j^)(x,y),
j^ = argminj|d*(x,y)−dj
次にS413において、高画質化変換部1004は、特徴量f2に畳み込み演算を行って高画質画像を生成する。最後にS414において、画像出力部1005は、生成された画像を出力する。そして、画像出力部1005は、図15(A)及び(B)のフローチャートの処理を終える。以上が本実施形態の画像処理装置10の情報処理である。
なお本実施形態は実施形態1及び2と異なり逆畳み込み演算を用いない。これは本実施形態の目的が画像解像度向上でなく、大口径のレンズで撮像したような鑑賞性の高い高画質画像を得ることであるからである。
なお、本実施形態では被写体までの距離が画素ベースで得られているとしたが、一般に被写体までの距離を正確に測定するのは困難である。そのため次に変形例として被写体の距離推定を必要としない形態について開示する。図13(B)に本実施形態の変形例の機能構成図を示す。図14(B)に模式図を示す。また、本変形例の情報処理を図15(C)に示す。本変形例の画像処理装置10は、被写体距離取得部1007に代えて対応点判定部1008を備えている。本変形例の画像処理装置10が動作を開始すると、M段階の異なる視差についてそれぞれ特徴量変換を行う。ここまでは先ほどと同様である。同時に、S421において、パターンの対応点判定部1008は、N枚の画像セットI(j)の各画素が所定の距離上の対応点であるか否かを判定して出力する。対応点の判定の方法は後述する。ここで対応点判定部1008は、上述の判定を、想定する各M段階の距離djごとに行う。判定結果の尤度が得られたら、S422において、特徴量統合部1003が下式に基づいて各画素のMパターンの特徴量f1を重み付和して1つの特徴量f2に統合する。
2(x,y)=(1/Z)ΣjCOR (j)(x,y)f1 (j)(x,y),
Z=ΣjCOR (j)(x,y)
但し、ここでlCOR (j)は画像セットI(j)が距離djにある被写体の同一の点を写しているか否かの尤度である。
S423及びS424の処理は、S413及びS414の処理と同様である。
次にlCOR (j)を求める対応点判定部1008の動作について詳細に述べる。これは非特許文献6の方法を多眼ステレオ形式に拡張したものである。図14(C)の模式図にあるように、対応点判定部1008は、畳み込み演算と全結合とのネットワークで構成されたNNである。NNは入力画像パッチ群に変換処理を行い、最終出力として1変数の対応点の尤度1009を出力する。対応点の尤度1009は画像パッチ群の中心に被写体の同じ位置が写っているか否かを判定したスコアである。適切に尤度スコアが出力できるよう、予め学習用の事例画像を用いてNNの各層の重みは学習されている。
またここで対応点尤度の判定が常に成功するとは限らないことを考慮し、尤度そのものではなく、一つ前段の層(図14(C)にL5という記号で示す)の出力を特徴量として利用してもよい。これを対応点特徴1010と呼ぶ。この変形例の場合、特徴量統合部1003は、Mパターンの対応点特徴1010とMパターンのNNの特徴量f1 (j)とを受け取り、これを連結して高次元の特徴量f2とする。この高次の特徴量f2を入力として後段のNNの学習を行えば、対応点判定が失敗するようなケースでも破綻することなく高画質化を行える。
ここで更にいくつかのその他の変形例について述べる。ここでは実施形態3の形態が様々な目的に適応可能であることを示す。
その他の変形例として図16(A)のような構成の撮像部を用いる画像処理装置10を開示する。本変形例の目的は非特許文献2と同様である。即ち赤外画像を補助的に用いてノイズを低減した高画質なカラー画像を得ることである。模式図を図16(B)に示す。
本実施形態の撮像部はRGB画像を撮像する撮像装置1030a、赤外画像を撮像する撮像装置1030b、赤外フラッシュ1020からなる。変換後の高画質画像の仮想視点位置1030は撮像装置1030aの視点位置と同一である。本実施形態は撮像時に赤外フラッシュを投射し、撮像装置1030aでRGBカラー画像を、撮像装置1030bで赤外画像を同時に撮像するものとする。これらを低画質画像とする。更に学習用の高画質画像は同じ被写体を撮像装置1030aで長時間露光してノイズの少ない画像を得たものとする。この後の高画質化処理の動作及び学習動作については実施形態3と共通であるので詳細を省く。以上、実施形態3の形態が他の目的の高画質化処理に応用できることを示した。この他にも様々な形態としてもよい。
例えば更に他の変形例として、図16(C)に模式図を示すように、逆光で撮像した人物のRGBカラー画像と赤外フラッシュを使用して撮像した赤外画像とから順光で撮像したようなRGBカラー画像が得られるように変換するようにしてもよい。
低画質画像は高画質化の目的と合致していれば以下のように様々な属性の画像が利用できる。
例えば更に他の変形例として、図16(D)に模式図を示すように露光時間の異なる複数の視点の低画質画像の撮像装置で撮像した低画質画像群から輝度のダイナミックレンジの広い画像(HDR画像)を生成するようにしてもよい。
更に他の変形例として、図16(E)に模式図を示すように磁力線強度が低出力のMRI装置で撮像した画像と、同じ被写体を撮像した超音波画像又はX線画像等の異なる属性の画像とを組み合わせる。このことで、高出力なMRI装置で撮像した画像のように高精細な画像又はボクセルデータを得るようにしてもよい。画像の組み合わせを適切に選ぶことにより低侵襲、かつ、高画質な医用画像を得ることができる。また更に例えば複数の超音波画像を入力とし、X線画像を目標画像とする等、画像の属性を変換するようにしてもよい。
更に他の変形例として、複数の結果を同時に出力するようにしてもよい。例えば図16(F)に模式図を示すように複数偏光方向の異なるフィルタを備えた複数の低画質画像の撮像装置から、被写体の表面の法線方向のマップ、及び奥行き画像(2.5次元画像)を同時に生成するようにしてもよい。目的の異なる複数の変換を行う場合、関連するタスクであればNNの層を途中まで共通して用い、画像生成の高層のNNの層のみタスクごとに別途用意して学習するようにしてもよい。異なる画像処理装置10のNNを二つ用意するよりも規模の面で有利である。
以上のように本実施形態では視点位置の異なる低画質画像を統合して高画質画像を生成する形態について述べた。更に特徴量統合部103の形態として実施形態1で示した特徴量の連結以外に、画素ごとの選択、画素ごとの重み付和(重み付平均)が有り得ることを示した。このように特徴量統合部103の形態は様々に考えられ、特定の形態に限定されない。
<実施形態4>
本実施形態では低画質画像の撮像装置の幾何的な位置関係に基づいてNNの結合関係を決定する形態について述べる。機能構成図は実施形態3で用いた図13(B)と同一である。但し実施形態3と異なり対応点判定部1008は本実施形態では必要ない。
複数視点の画像の間には図17(A)に示すエピ極線拘束と呼ばれる幾何的な関係性が存在する。これを前提として本実施形態の情報処理等について説明する。本実施形態の画像処理装置10の撮像部は図17(B)に示すように光軸の並行な4つの低画質画像の撮像装置(カメラ1〜4)を備える。図17(B)には破線の丸で高画質画像の仮想の視点位置を示す。
ここで撮像部の正面に被写体である物体a〜cが並んでいると仮定する。このとき、図7(B)に示すようにエピ極線拘束により低画質画像中の物体a〜cは直線上に並ぶ。この幾何的な関係性により、各低画質画像間で同一の点が写る可能性のある領域はエピ極線上に限られることが判る。より具体的には図17(C)に示すように、カメラ1の画像のエピ極線1−1上の領域に対応関係が有り得るのはカメラ2の画像ではエピ極線2−1上の何れかの領域に限られる。図17(C)では対応関係の一部のみに破線を引いて示している。
本実施形態の画像処理装置10では、上記の画像領域間の対応関係を用いてNNの各層の結合関係を以下のように設計する。図18(A)に示すように、N=4枚の低画質画像があるとする。説明の簡単のために低画質画像及び高画質画像は1チャンネルの輝度画像とする。第1層のニューロンの層1800は目標となる高画質画像I*(x,y)の画素x,yごとにニューロンが一つ存在する。各ニューロンはN個の特徴チャンネルを持っている。これを記号f1(x,y)∈RNで表す。更にこのようなニューロン層をM段階の視差(奥行き)に対応させてM個用意する。jを視差の番号としてニューロンの特徴量を記号f1 (j)(x,y)∈RNと表す。
各低画質画像の画素(x',y')と、ニューロン(x,y)との間の結合関係を設定する。より具体的な例を図18(A)に示す。小さな視差(j=1)については、特徴量f1 (1)(x,y)の中心の画素1805に、カメラ1の画像の画素1801、カメラ2の画像の画素1802が対応している。j=Mの大きな視差については、特徴量f1 (M)(x,y)の中心の画素1806に、カメラ1の画像の画素1803、カメラ2の画像の画素1804が対応している。i番目の画像の画素の値は、各ニューロンのi番目のチャンネルに入力されるようにする。入力の結合重みは1、即ち恒等写像とする。
以上のようにエピ極線拘束と視差とによって各ニューロンと画像との入力関係を一意に決定することができるが、実際に対応関係を正確に求めるには下記のようにホモグラフィ行列を求めることになる。ホモグラフィ行列は図17(A)に示すように点Xπと、点Xπを通る平面πを想定するときに、片方の画像から平面π上の点Xπを見たときの位置xを他方の画像上の位置x'に写す3×3行列の変換行列である。ホモグラフィ行列Hは下式で表される。
x = H1Xπ,
x' = H2Xπ,
x' = H2Xπ =H21 -1x = Hx
2枚の画像間で対応する点を4組以上求めるとホモグラフィ行列Hが求まることが知られている。そこで校正用ボード等を視差1〜Mのそれぞれの位置に光軸に垂直に提示し、各画像間で対応点を4点以上抽出して画像間の行列Hを求める。この結果、複数視点の低画質画像の各画素を、M段階の視差の特徴量f1 (1)〜f1 (M)の各画素へと対応づけるNNの結合関係が決定される。
本実施形態の画像処理装置10が動作を開始するとN枚の低画質画像を取得し、特徴変換部1〜MがN枚の低画質画像をそれぞれNNの特徴量f1 (1)〜f1 (M)へと変換する。更に特徴変換部1〜Mは、特徴量f1 (1)〜f1 (M)それぞれについて畳み込みの演算を施してNNの特徴量f2 (1)〜f2 (M)を得る。f2 (1)〜f2 (M)は空間を遠近でM段階に分けたときにそれぞれの位置にどのようなエッジやテクスチャ等の見えのパターンが存在するかを表現する特徴である。
更に図13(B)の特徴量統合部1003が特徴量f2 (1)〜f2 (M)を連結して特徴量f3を得る。特徴量f3に高画質化変換部1004が畳み込みを行って高画質な画像I*を生成する。高画質化の変換では、遠近の位置で分かれていた高次元の特徴を統合し、高画質画像の局所領域と対応付けして変換する処理が行われる。なお各層の変換パラメーターの学習の方法はこれまでと同様である。
上記のように画像間の幾何的な拘束条件に基づいて低画質画像と第1層のNNの層との間の結合関係を決定した。一方でこのような結合関係を自動的に獲得するようにしてもよい。一つの例を以下にあげる。(1)まず画像処理装置10は、入力画像の全画素と第1層のNNのニューロンとが全結合した重みを用意し、乱数で初期化する。(2)画像処理装置10は、図18(B)に例を示すような校正用パターンを様々な位置に提示し、第1層のNNの層で同じパターンが生成できるように誤差逆伝搬の方法で重みの学習を行う。校正用パターンは図18(B)に示すように中心付近にのみ輝点、特定方向の格子、及びランダムドットといったパターンを備えるものが結合関係の学習を容易にするため好適である。(3)画像処理装置10は、学習を進め、0に近づいた重みは対応点と無関係として除去して残った結合を採用する。なお学習の際は第1のNNの層1800は視差ごとに個別に学習する。その際、学習画像としては対応する視差で撮像した校正用パターンを与える。以上が各画素と第1層のNNの結合関係を自動的に獲得する仕組みである。この方法の場合、歪み補正の前処理をすることなく撮像画像をそのまま入力にできる利点がある。
また更に変形例として、画像処理装置10は、上記のNNの結合関係の獲得後、学習画像に基づいて最終出力層から入力層までの全層の重みを、誤差逆伝搬法で更に調整してもよい。このように本実施形態の画像処理装置10の情報処理は、撮像装置の幾何的な位置関係によってNNの結合関係を決定すること、また各結合の重みを事例画像で学習すること、を示すものである。
<実施形態5>
実施形態5では、多数の低画質画像の撮像装置から取得した画像を段階的に統合する形態について述べる。画像処理装置10の目的は実施形態3と同様の高画質化であるとする。ここでの高画質化の対象は実施形態3と同様多岐に渡って適用が可能である。本実施形態の画像処理装置は図19(A)のような多眼カメラの撮像部の外観を有する。これに対応する高画質化の処理の模式図は図19(B)になる。画像処理装置10は、図19でA〜Hの記号を付した低画質画像の撮像装置のうち、視点位置が互いに近い低画質画像の撮像装置で撮像された低画質画像から順に特徴量の統合を行う。画像処理装置10は、図19(B)に示すようにこのような統合を3段階に分けて繰り返し、最終的な高画質画像の変換結果を得る。本実施形態のように近接した撮像系から順次統合を行う利点として、各統合の段階では視差による画像間の位置ずれが少ない点が挙げられる。そのため畳み込み演算他による特徴量の変換で視差に由来する見えのずれを容易に吸収して統合することができる。
本実施形態での学習は、これまでの学習と同様に仮想の視点位置で撮像した高画質画像を目標画像として与え、低画質画像から目標の画像が生成されるように全段階の変換パラメーターを学習する。これは誤差逆伝搬の方法で全3段階の最終層から最初の層まで誤差を伝搬させながら学習を行えばよい。
本実施形態の変形例として図20(A)のようなアレイ状の撮像装置の画像について段階的な統合を行う形態について述べる。本実施形態では、画像処理装置10は、まず1段階目の統合として図20(B)に示すように、近傍の2×2個の撮像装置の取得画像を統合する。画像処理装置10は、1段階目の統合処理の結果4個の統合された特徴量が得られるので、2段階目の統合処理の段階でこれを更に連結して1つの特徴量とし、高画質画像の生成を行う。
更にアレイ状の撮像装置の画像について段階的な統合を行う2つ目の派生形態を説明する。ここでは学習を一段階ずつ行って積み上げて行く形態を示す。以下では図21(A)及び(B)の模式図を用いて説明する。
画像を統合する1段階分のNNの構成はこれまでの実施の例と同様である。図21(B)に示すように1段階分のNNは特徴変換(畳み込み演算2101)、統合(連結処理2102)、画像生成(畳み込み演算3000)の3層から成る。画像の統合は2×2の近傍の範囲の低画質画像の撮像装置の画像に対して行う。統合する範囲の例を図21(A)に統合範囲1と統合範囲2としてそれぞれ黒枠及び灰色の枠で囲んで示す。図21(A)のように統合の範囲は互いにオーバーラップしている。NNの変換パラメーターの学習は統合範囲ごとに独立に行われる。
なお図21(B)には統合を行う柱状の3層のNNのうち各段階で一個しか示していないが、実際にはこのような柱状の3層のNNが1段階目に3×3個、2段階目に2×2個、3段階目に1×1個存在する。画像処理装置10は、1段階目の統合の結果、3×3個の統合された特徴量が得られる。画像処理装置10は、この3×3個の特徴量に対して逐次2段階目と3段階目との統合を行ってそれぞれ2×2個、1×1個の特徴量を得る。画像処理装置10は、1×1個に統合された特徴量から最終的に高画質画像を生成して動作を終了する。
またここで更に別の変形例を述べる。ここで述べるのは高画質画像の仮想の視点位置を、図20(C)に示すように複数箇所設定することができる変形例である。この変形例では事前に設定された各視点位置で高画質画像を撮像し、視点ごとにNNの変換パラメーターを学習してそれぞれ保存しておく。画像処理時には別途設けた仮想視点位置入力部によってユーザーに仮想視点位置を入力させ、対応する変換パラメーターを読み出して高画質化変換処理を行う。なお高画質画像の仮想視点位置は低画質画像のセットの中心に近い方が変換結果の精度が高いが、図20(C)に仮想視点位置1として示すように撮像部の外側に仮想視点位置を設定することもできる。また同様に仮想視点位置が各撮像装置の同一平面にない形態としてもよい。
またここで更に別の変形例として、撮像時の遮蔽について対策を加えた構成について開示する。ここでは図20(D)に示すように、アレイ状の撮像装置のうち、撮像者の指でいくつかのカメラが遮蔽されたような状況でも高画質画像をロバストに得るための工夫について述べる。
例えばその形態の一つとしては、遮蔽された画像であるかどうかの判定を行う遮蔽画像判定部を画像処理装置10に別途備える。そして特徴量統合部103による統合の際には、遮蔽ありと判定された画像の特徴量を除去して統合する。このときの特徴量の統合の演算は、次元ごとに値を平均化する操作とする。またもし遮蔽画像判定部が遮蔽についての尤度値を出力するなら、特徴量統合部103は、平均化ではなく下式のように重み付和で特徴量を統合してもよい。
i+1 (k)(x,y,d)=(1/Σj∈Nk OCC i (j))Σj∈NkOCCi (j)i (j)(x,y,d),
OCC i+1 (k)=Σj∈NkOCC i (j)
但しfi (j)はi段階目のj番目の特徴量である。Nkは各段階でk番目の特徴量に統合される特徴量の集合である。lOCC 1 (j)は画像特徴jが遮蔽された画像か否かの尤度値である。
ここで遮蔽画像判定部の実現形態としては、例えば各画像のNNの特徴量を用いてサポートベクトルマシン等の判別器で学習判別させればよい。又は、全撮像画像を平均した平均画像と各画像とを正規化相関で比較し、平均画像と類似性の低い画像を遮蔽ありと判定してもよい。
また更に別の変形例として遮蔽状態の判定部を設けない構成としてもよい。例えば、画像処理装置10は、撮影者の指によって遮蔽された低画質画像を多数撮像させる。そして、画像処理装置10は、このような事例データを十分に与えて学習する。この結果、遮蔽画像から得られるような特徴量には反応せず、遮蔽されてない画像から得られる特徴量に反応して各段階の変換を行うような変換のパラメーターが得られる。
以上、多数の低画質画像の撮像装置を備える本実施形態の画像処理装置10において、段階的に各撮像装置の取得画像を統合する実施形態について述べた。本実施形態で示される要諦は以下である。(1)NNの結合関係を低画質画像の撮像装置の光学的な配置関係に基づき決定する。(2)決定した結合の変換パラメーターを事例学習によって学習して調整する。以上の構成は従来の画像高画質化の画像処理装置10にはない新規な構成である。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した画像処理装置10の機能構成のすべて、又は一部は、画像処理装置10にハードウェア構成として実装してもよい。また、上述した各実施形態、実施形態の変形例を適宜組み合わせて実施するようにしてもよい。
以上、上述した各実施形態の処理によれば、画像から形状やテクスチャといった抽象的な表現の特徴量が抽出される。また従来の方法と異なり、特徴量のレベルで複数の視点又は複数の属性の画像情報が統合される。更に事例学習の方法に基づき、統合された特徴量から高画質化された結果の画像が推定及び合成される。その結果、従来の方法と比べて以下の効果がある。(1)画像中の被写体を略画素レベルで一致させる変形や位置合わせを必要としない。(2)赤外画像や奥行き画像等、特性の異なる画像を補完的に用いることができる。(3)画像の平均化では除去しにくかった系統的なノイズも除去できる。(4)目的に応じた学習画像を用意して事例学習することで、高解像化に留まらず様々なタイプの高画質化処理を実現することができる。
よって、複数の画像からより高画質な画像を得ることができる。
10 画像処理装置
11 CPU
12 メモリ

Claims (14)

  1. 複数の画像を取得する取得手段と、
    ニューラルネットワークを用いて前記複数の画像を特徴量に変換する変換手段と、
    前記特徴量を統合する統合手段と、
    前記統合した特徴量から前記複数の画像より高画質の画像を生成する生成手段と、
    を有する画像処理装置。
  2. 前記取得手段は、少なくとも一つの画像の属性が他の画像の属性とは異なる、前記複数の画像を取得する請求項1記載の画像処理装置。
  3. 前記取得手段は、前記他の画像の属性とは異なる画像として、赤外画像、輝度画像、奥行き画像の何れかを取得する請求項2記載の画像処理装置。
  4. 前記変換手段は、前記画像の属性ごとに個別のニューラルネットワークを有し、
    前記統合手段は、前記個別のニューラルネットワークを用いて変換した特徴量を統合する請求項2又は3記載の画像処理装置。
  5. 前記取得手段は、少なくとも一つの画像に関する視点位置が他の画像に関する視点位置とは異なる、前記複数の画像を取得する請求項1記載の画像処理装置。
  6. 前記変換手段は、前記画像の視点位置、又は視差ごとに個別のニューラルネットワークを有し、
    前記統合手段は、前記個別のニューラルネットワークを用いて変換した特徴量を統合する請求項5記載の画像処理装置。
  7. 前記統合手段は、前記複数の画像の視点位置と前記高画質の画像の仮想視点位置との幾何的な位置関係に基づいて前記個別のニューラルネットワークの結合関係を決定し、前記特徴量を統合する請求項6記載の画像処理装置。
  8. 前記統合手段は、学習用の事例画像に基づいて前記個別のニューラルネットワークの結合関係を決定し、前記特徴量を統合する請求項6記載の画像処理装置。
  9. 前記統合手段は、複数の段階で前記特徴量を統合し、前記統合の順番を前記特徴量に対応する前記画像の視点位置の近さに基づき決定する請求項6乃至8何れか1項記載の画像処理装置。
  10. 前記ニューラルネットワークは前記高画質の画像の仮想視点位置を段階的に変えながらパラメーターを学習する請求項1乃至9何れか1項記載の画像処理装置。
  11. 前記取得手段により取得された画像が遮蔽画像であるか否かを判定する第1の判定手段を更に有し、
    前記統合手段は、前記第1の判定手段による判定の結果に基づき前記ニューラルネットワークを用いて変換した特徴量を統合する請求項1乃至10何れか1項記載の画像処理装置。
  12. 前記取得手段により取得された画像の各画素が所定の距離上の対応点であるか否かを判定する第2の判定手段を更に有し、
    前記統合手段は、前記第2の判定手段による判定の結果に基づき前記ニューラルネットワークを用いて変換した特徴量を統合する請求項1乃至10何れか1項記載の画像処理装置。
  13. 画像処理装置が実行する情報処理方法であって、
    複数の画像を取得する取得工程と、
    ニューラルネットワークを用いて前記複数の画像を特徴量に変換する変換工程と、
    前記特徴量を統合する統合工程と、
    前記統合した特徴量から前記複数の画像より高画質の画像を生成する生成工程と、
    を含む情報処理方法。
  14. コンピュータを、請求項1乃至12何れか1項記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016228042A 2016-11-24 2016-11-24 画像処理装置、情報処理方法及びプログラム Active JP6929047B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016228042A JP6929047B2 (ja) 2016-11-24 2016-11-24 画像処理装置、情報処理方法及びプログラム
US15/816,678 US10762606B2 (en) 2016-11-24 2017-11-17 Image processing apparatus and method for generating high quality image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016228042A JP6929047B2 (ja) 2016-11-24 2016-11-24 画像処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018084982A true JP2018084982A (ja) 2018-05-31
JP6929047B2 JP6929047B2 (ja) 2021-09-01

Family

ID=62147715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016228042A Active JP6929047B2 (ja) 2016-11-24 2016-11-24 画像処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10762606B2 (ja)
JP (1) JP6929047B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235258A1 (ja) * 2018-06-07 2019-12-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
JP2019212132A (ja) * 2018-06-06 2019-12-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
WO2019240257A1 (ja) * 2018-06-15 2019-12-19 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2019216848A (ja) * 2018-06-15 2019-12-26 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2020030569A (ja) * 2018-08-22 2020-02-27 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP2020036310A (ja) * 2018-08-24 2020-03-05 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
JP2020042796A (ja) * 2018-09-10 2020-03-19 富士通株式会社 ニューラルネットワークアーキテクチャ探索装置と方法及びコンピュータ可読記憶媒体
JP2020047271A (ja) * 2018-09-17 2020-03-26 株式会社ストラドビジョン イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置
CN111476262A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用1xH卷积的基于CNN的对象检测方法及装置
CN111476247A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
JP2020144700A (ja) * 2019-03-07 2020-09-10 株式会社日立製作所 画像診断装置、画像処理方法及びプログラム
WO2020202680A1 (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 情報処理装置及び情報処理方法
JPWO2021157062A1 (ja) * 2020-02-07 2021-08-12
JP2021133142A (ja) * 2020-02-28 2021-09-13 株式会社日立製作所 医用撮像装置、医用画像処理装置、及び、画像処理プログラム
JP2021530056A (ja) * 2019-01-22 2021-11-04 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 画像処理方法及び装置、電子機器並びに記憶媒体
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2022168517A1 (ja) * 2021-02-03 2022-08-11 ソニーグループ株式会社 画像処理装置及び画像処理方法
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
US12039704B2 (en) 2018-09-06 2024-07-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable medium

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201604345D0 (en) * 2016-03-14 2016-04-27 Magic Pony Technology Ltd Super resolution using fidelity transfer
US10963676B2 (en) * 2016-12-23 2021-03-30 Samsung Electronics Co., Ltd. Image processing method and apparatus
US20190282208A1 (en) * 2018-03-14 2019-09-19 Butterfly Network, Inc. Methods and apparatuses for generating and displaying ultrasound images using an explaining model
CN108986058B (zh) * 2018-06-22 2021-11-19 华东师范大学 明度一致性学习的图像融合方法
US10650498B2 (en) * 2018-08-02 2020-05-12 Nec Corporation System, method, and non-transitory, computer-readable medium containing instructions for image processing
US10311337B1 (en) * 2018-09-04 2019-06-04 StradVision, Inc. Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US11055866B2 (en) * 2018-10-29 2021-07-06 Samsung Electronics Co., Ltd System and method for disparity estimation using cameras with different fields of view
KR20200063289A (ko) * 2018-11-16 2020-06-05 삼성전자주식회사 영상 처리 장치 및 그 동작방법
CN110136066B (zh) * 2019-05-23 2023-02-24 北京百度网讯科技有限公司 面向视频的超分辨率方法、装置、设备和存储介质
JP7245740B2 (ja) * 2019-07-25 2023-03-24 富士フイルムヘルスケア株式会社 画像処理装置、画像処理方法及びx線ct装置
US20210096243A1 (en) * 2019-09-27 2021-04-01 Butterfly Network, Inc. Methods and apparatus for configuring an ultrasound system with imaging parameter values
KR20210069404A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
CN113052924A (zh) * 2019-12-27 2021-06-29 无锡祥生医疗科技股份有限公司 用于超声图像编解码间的画质补偿方法及其卷积神经网络
US11252417B2 (en) * 2020-01-05 2022-02-15 Size Limited Image data processing
JP7427468B2 (ja) * 2020-02-18 2024-02-05 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US11393158B2 (en) * 2020-04-02 2022-07-19 Adobe Inc. Utilizing voxel feature transformations for deep novel view synthesis
US10839268B1 (en) * 2020-06-22 2020-11-17 Calypso Ai Corp Artificial intelligence adversarial vulnerability audit tool
EP4181765A1 (en) * 2020-07-15 2023-05-24 Alcon Inc. Digital image optimization for ophthalmic surgery
EP4181067A4 (en) * 2020-11-30 2023-12-27 Samsung Electronics Co., Ltd. DEVICE AND METHOD FOR ENCODING AND DECODING IMAGES BY AI
US20230343119A1 (en) * 2021-02-26 2023-10-26 Hewlett-Packard Development Company, L.P. Captured document image enhancement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127009A (ja) * 1989-09-04 1992-04-28 Ricoh Co Ltd 3次元物体撮像方式
JPH10271323A (ja) * 1997-03-21 1998-10-09 Sharp Corp 画像処理方法
JP2012142676A (ja) * 2010-12-28 2012-07-26 Olympus Corp 撮像装置及び画像生成方法
JP2013532878A (ja) * 2010-08-06 2013-08-19 ヴァレリーヴィチ シムニコ,ドミトリー 超解像度画像を生成する方法及びこれを実施するための非線形デジタルフィルター

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
US20060018566A1 (en) * 2004-07-26 2006-01-26 Coleman Christopher R System and method for adding spatial frequency into an image
WO2008050904A1 (fr) 2006-10-25 2008-05-02 Tokyo Institute Of Technology Procédé de génération d'image dans un plan de focalisation virtuel haute résolution

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127009A (ja) * 1989-09-04 1992-04-28 Ricoh Co Ltd 3次元物体撮像方式
JPH10271323A (ja) * 1997-03-21 1998-10-09 Sharp Corp 画像処理方法
JP2013532878A (ja) * 2010-08-06 2013-08-19 ヴァレリーヴィチ シムニコ,ドミトリー 超解像度画像を生成する方法及びこれを実施するための非線形デジタルフィルター
JP2012142676A (ja) * 2010-12-28 2012-07-26 Olympus Corp 撮像装置及び画像生成方法

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212132A (ja) * 2018-06-06 2019-12-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP7146461B2 (ja) 2018-06-06 2022-10-04 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP7129229B2 (ja) 2018-06-07 2022-09-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2019212139A (ja) * 2018-06-07 2019-12-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2019211391A (ja) * 2018-06-07 2019-12-12 株式会社東芝 距離計測装置、音声処理装置、振動計測装置、産業用コンピュータ断層撮影装置、および距離計測方法
US11315220B2 (en) 2018-06-07 2022-04-26 Kabushiki Kaisha Toshiba Distance measuring apparatus, vibration measuring apparatus, and industrial computed tomography apparatus
JP7068054B2 (ja) 2018-06-07 2022-05-16 株式会社東芝 距離計測装置、および距離計測方法
WO2019235258A1 (ja) * 2018-06-07 2019-12-12 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2019216848A (ja) * 2018-06-15 2019-12-26 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2022145732A (ja) * 2018-06-15 2022-10-04 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP7114358B2 (ja) 2018-06-15 2022-08-08 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
US12040079B2 (en) 2018-06-15 2024-07-16 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
JP7434447B2 (ja) 2018-06-15 2024-02-20 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
KR102507711B1 (ko) * 2018-06-15 2023-03-10 캐논 가부시끼가이샤 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 컴퓨터 판독가능 매체
CN112367915A (zh) * 2018-06-15 2021-02-12 佳能株式会社 医学图像处理装置、医学图像处理方法和程序
KR20210018461A (ko) * 2018-06-15 2021-02-17 캐논 가부시끼가이샤 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 컴퓨터 판독가능 매체
GB2589250A (en) * 2018-06-15 2021-05-26 Canon Kk Medical image processing device, medical image processing method and program
GB2589250B (en) * 2018-06-15 2023-03-08 Canon Kk Medical image processing apparatus, medical image processing method and program
WO2019240257A1 (ja) * 2018-06-15 2019-12-19 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
JP2020030569A (ja) * 2018-08-22 2020-02-27 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP7191588B2 (ja) 2018-08-22 2022-12-19 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP2020036310A (ja) * 2018-08-24 2020-03-05 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
JP7234057B2 (ja) 2018-08-24 2023-03-07 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
US12039704B2 (en) 2018-09-06 2024-07-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable medium
JP2020042796A (ja) * 2018-09-10 2020-03-19 富士通株式会社 ニューラルネットワークアーキテクチャ探索装置と方法及びコンピュータ可読記憶媒体
JP2020047271A (ja) * 2018-09-17 2020-03-26 株式会社ストラドビジョン イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置
US11922601B2 (en) 2018-10-10 2024-03-05 Canon Kabushiki Kaisha Medical image processing apparatus, medical image processing method and computer-readable medium
JP2021530056A (ja) * 2019-01-22 2021-11-04 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 画像処理方法及び装置、電子機器並びに記憶媒体
CN111476262A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用1xH卷积的基于CNN的对象检测方法及装置
JP2020119535A (ja) * 2019-01-23 2020-08-06 株式会社ストラドビジョン Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
CN111476247A (zh) * 2019-01-23 2020-07-31 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
JP2020119539A (ja) * 2019-01-23 2020-08-06 株式会社ストラドビジョン ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
CN111476262B (zh) * 2019-01-23 2023-08-15 斯特拉德视觉公司 利用1xH卷积的基于CNN的对象检测方法及装置
CN111476247B (zh) * 2019-01-23 2023-09-26 斯特拉德视觉公司 利用了1xK或Kx1卷积运算的CNN方法及装置
JP7218215B2 (ja) 2019-03-07 2023-02-06 株式会社日立製作所 画像診断装置、画像処理方法及びプログラム
JP2020144700A (ja) * 2019-03-07 2020-09-10 株式会社日立製作所 画像診断装置、画像処理方法及びプログラム
US20210398259A1 (en) 2019-03-11 2021-12-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US11887288B2 (en) 2019-03-11 2024-01-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2020202680A1 (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 情報処理装置及び情報処理方法
JPWO2021157062A1 (ja) * 2020-02-07 2021-08-12
JP2021133142A (ja) * 2020-02-28 2021-09-13 株式会社日立製作所 医用撮像装置、医用画像処理装置、及び、画像処理プログラム
JP7256765B2 (ja) 2020-02-28 2023-04-12 株式会社日立製作所 医用撮像装置、医用画像処理装置、及び、画像処理プログラム
WO2022168517A1 (ja) * 2021-02-03 2022-08-11 ソニーグループ株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP6929047B2 (ja) 2021-09-01
US10762606B2 (en) 2020-09-01
US20180144447A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6929047B2 (ja) 画像処理装置、情報処理方法及びプログラム
US11882357B2 (en) Image display method and device
US11663691B2 (en) Method and apparatus for restoring image
CN113168670A (zh) 使用神经网络的亮点去除
CN107925751A (zh) 用于多视点降噪和高动态范围的***和方法
JP2014007730A (ja) 情報処理方法および装置、プログラム。
Pu et al. Robust high dynamic range (hdr) imaging with complex motion and parallax
JP7234057B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
US20220398698A1 (en) Image processing model generation method, processing method, storage medium, and terminal
JP7489253B2 (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
CN113379609B (zh) 一种图像处理方法、存储介质及终端设备
Hahne et al. PlenoptiCam v1. 0: A light-field imaging framework
CN113628134B (zh) 图像降噪方法及装置、电子设备及存储介质
CN115298693A (zh) 数据生成方法、学习方法和估计方法
JP7191588B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP2017208642A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
JP2019212132A (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US20220028039A1 (en) Image restoration method and device
JP2018133064A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2018081378A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
CN115699073A (zh) 神经网络支持的相机图像或视频处理流水线
Grundhöfer et al. Camera-specific image quality enhancement using a convolutional neural network
CN113379608A (zh) 一种图像处理方法、存储介质及终端设备
CN114049250B (zh) 一种证件照人脸姿态矫正方法、装置及介质
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210810

R151 Written notification of patent or utility model registration

Ref document number: 6929047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151