JP7312026B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7312026B2
JP7312026B2 JP2019109623A JP2019109623A JP7312026B2 JP 7312026 B2 JP7312026 B2 JP 7312026B2 JP 2019109623 A JP2019109623 A JP 2019109623A JP 2019109623 A JP2019109623 A JP 2019109623A JP 7312026 B2 JP7312026 B2 JP 7312026B2
Authority
JP
Japan
Prior art keywords
resolution
image
subject
teacher
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019109623A
Other languages
English (en)
Other versions
JP2020201823A (ja
Inventor
暢 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019109623A priority Critical patent/JP7312026B2/ja
Priority to US16/893,634 priority patent/US11647152B2/en
Publication of JP2020201823A publication Critical patent/JP2020201823A/ja
Application granted granted Critical
Publication of JP7312026B2 publication Critical patent/JP7312026B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
低解像度な画像を高解像度化する技術として、機械学習に基づく手法が存在する。この処理は例えば、以下の2つの手順で行われる。第1に、高解像度な教師画像と、それを低解像度化した劣化画像の組を複数用意し、両者を写像する関数を学習する。第2に、得られた関数に対して、学習に用いたものとは別の低解像度な入力画像を入力し、入力画像に対応する高解像度な画像を推定する(特許文献1)。
特開2011-211437号公報
近年、機械学習に基づいて入力画像を高解像度化する処理の精度をさらに向上させることが求められている。例えば、従来の技術では、学習に用いられる教師画像における被写体の解像度や、高解像度化の対象となる入力画像における被写体の解像度が多様である場合に、高解像度化の精度が低下する虞がある。
本発明は、機械学習に基づいて入力画像を高解像度化する処理の精度を向上させるための技術を提供する。
本発明の一態様による画像処理装置は、以下の構成を備える。すなわち、
被写体の撮影画像を教師画像として取得する第1の取得手段と、
画像における被写体の解像度を算出する解像度算出手段と、
前記教師画像を低解像度化して劣化画像を生成し、前記解像度算出手段により算出された前記教師画像における被写体の解像度に基づいて、前記劣化画像における被写体の解像度を表す第1の解像度情報を生成する生成手段と、
前記教師画像と前記劣化画像と前記第1の解像度情報とを含むデータセットを用いて、入力画像を高解像度化するための推定手段の学習を行う学習手段と、を備える。
本発明によれば、機械学習に基づいて入力画像を高解像度化する処理の精度を向上させることができる。
第1実施形態による撮像システムの構成を示す模式図。 第1実施形態による画像処理装置のハードウエア構成例を示すブロック図。 第1実施形態による画像処理装置の機能構成例を示すブロック図。 第1実施形態の画像処理装置による学習処理を示すフローチャート。 第1実施形態の画像処理装置による推定処理を示すフローチャート。 高解像度化処理の一般的な手順を表す図。 第1実施形態による、高解像度化処理を説明する図。 第1実施形態による画像の切り出しを説明する図。 不均質な画像の切り出しの例を示す図。 学習に用いるデータの例を示す図。 第2実施形態による学習部の機能構成例を示すブロック図。 第3実施形態による画像処理装置の機能構成例を示すブロック図。 第3実施形態の画像処理装置による学習処理を示すフローチャート。 第3実施形態の画像処理装置による推定処理を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1実施形態]
<撮像システムの全体構成>
第1実施形態では、画像の解像度の情報を用いて機械学習(以下、学習という)と推定を行う構成について説明する。機械学習には、教師あり学習、教師なし学習、及び強化学習などの種々の手法の学習が含まれる。以下の実施形態では、ニューラルネットワークを用いた深層学習(ディープラーニング)を行う場合例に説明する。なお、第1実施形態では、人物(例えば、スポーツ選手)の顔を被写体とし、被写体を高解像度で撮影できる撮像装置を用いて学習のための教師画像を獲得する構成を例として用いて説明する。
図1は、第1実施形態による撮像システムの構成例を示した模式図である。スタジアムには、撮像装置101および撮像装置105が配置されている。撮像装置101からは、例えば、選手(被写体104)を撮影した画像108が得られる。撮像装置105は、撮像装置101の撮影により得られた画像を高解像度化するための推定処理に用いられるパラメータを学習するための教師画像を撮影する。教師画像は、被写体の撮影画像を含む。撮像装置105は、撮像装置101に比べて長い焦点距離のレンズを有しており、画像108に比べて画角は狭いものの、画像上での被写体104の解像度が画像108よりも高解像度になる画像109を撮影することができる。
画像処理装置102は、撮像装置101で得られた画像を、高解像度な教師画像と同等に高解像度化し、表示装置103に表示する。なお、撮像装置101と同じく低解像度で被写体を撮像する撮像装置106、撮像装置105と同じく高解像度で被写体を撮像する撮像装置107が他に複数存在しても良い。また、図1ではスポーツシーンを例にとって説明したが、異なる解像度で物体を撮影する一般的なシーンにも適用可能である。また、第1実施形態の撮像システムは、被写体が顔画像以外である場合にも適用可能である。
また、上記では高解像度な教師画像を獲得するための撮像装置105として、焦点距離の長い撮像装置を利用したが、高画素数の撮像装置を利用するようにしてもよい。また、画面の手前に映った被写体は、ピントが合っている場合には、奥で映った場合に比べて高解像度で撮影されるため、撮像装置101の画面手前に映った被写体の画像を教師画像として用いるようにしてもよい。
図2は、第1実施形態による画像処理装置102のハードウエア構成例を示すブロック図である。画像処理装置102は、CPU201と、RAM202と、ROM203と、記憶部204と、入出力インターフェース205と、ビデオインターフェース206と、システムバス207とを備える。外部メモリ208は入出力インターフェース205とビデオインターフェース206に接続されている。表示装置103はビデオインターフェース206に接続されている。
CPU201は、画像処理装置102の各構成を統括的に制御するプロセッサである。RAM202は、CPU201の主メモリ、ワークエリアとして機能するメモリである。ROM203は画像処理装置102内の処理に用いられるプログラム等を格納するメモリである。CPU201は、RAM202をワークエリアとして用いて、ROM203に格納されたプログラムを実行することで、後述する様々な処理を実行する。記憶部204は、画像処理装置102での処理に用いる画像データや、処理のためのパラメータなどを記憶する。記憶部204としては、例えば、HDDや光ディスクドライブ、フラッシュメモリなどを用いることができる。
入出力インターフェース205は、例えばUSBやIEEE1394などのシリアルバスインターフェースである。画像処理装置102は、この入出力インターフェース205を介して、外部メモリ208(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。また、画像処理装置102は、入出力インターフェース205を介して処理した画像を外部メモリ208に記憶させることができる。ビデオインターフェース206は、例えばDVIやHDMI(登録商標)などの映像出力端子である。画像処理装置102は、このビデオインターフェース206を介して、表示装置103(液晶ディスプレイなどの画像表示デバイス)に、画像処理装置102で処理した画像データを出力することができる。また、なお、画像処理装置102の構成要素は上記のもの以外にも存在するが、本発明の主眼ではないため、説明を省略する。
一般に、学習型の高解像度化手法では、高解像度な教師画像とそれを低解像度化した劣化画像との組を複数用意し、教師画像と劣化画像を写像する関数を学習する。学習に用いたものとは別の低解像度な入力画像を、学習により得られた関数へ入力することで、入力画像を高解像度化した出力画像が得られる。
特許文献1に記載された手法では、任意の入力画像に対応できるよう、教師画像として多様な自然画像が用いられる。このため、多種多様なカテゴリの画像が教師画像として用いられることになる。また、学習に使用される教師画像における画像上での被写体の解像度は多種多様となり、さらに、高解像度化の対象となる入力画像についても、画像上の被写体の解像度が多種多様になる。
多種多様なカテゴリの画像が教師画像として用いられた場合、スポーツ選手の顔画像を入力に取った際に、例えば学習した政治家の顔といった別カテゴリの画像の特徴が推定されるなどの誤りが発生し、高解像度化の精度が低下する可能性がある。特に、教師データの枚数が不十分である場合や、教師データのカテゴリの偏りがある場合、入力画像と同カテゴリの教師画像の数が不足していると、そのカテゴリの特徴が推定されづらくなる。本実施形態では、入力画像と同一の被写体または同一カテゴリの被写体を撮像装置105で撮影し、教師画像とする。これにより、学習部309は、入力画像と同じカテゴリの画像のみを用いて十分に学習することができる。結果、上述したような別カテゴリの特徴が推定される誤りが低減または解消される。
次に、高解像度化の対象となる入力画像において被写体の解像度が多種多様となることにより生じる課題について説明する。図5は、獲得した画像(入力画像と同じカテゴリの画像)を用いて学習および高解像度化を行う手順を示す図である。まず、撮影した教師画像を低解像度化し、劣化画像を得る。次に、低解像度な劣化画像と高解像度な教師画像とを写像する関数を、ニューラルネットワークの学習部309に学習させる。この学習の結果として得られるニューラルネットワークのパラメータを、重みパラメータと呼ぶ。図5では、劣化画像と教師画像の対として、劣化画像501と教師画像502、劣化画像503と教師画像504の対が示されている。学習により得られた重みパラメータに基づいて、高解像度化部310は低解像度な入力画像505を高解像度化して出力画像506を出力し、低解像度な入力画像507を高解像度化して出力画像508を出力する。
被写体(選手)が画面の手前に映るか奥に映るかによって、撮像された画像上での被写体の解像度が変化する。したがって、高解像度化部310には、入力画像505と入力画像507のように、異なる解像度の画像が高解像度化部310に入力される。この多様な解像度に対処できるよう、学習時には、入力されうる各解像度の劣化画像を用意して学習を行う。しかし、複数の解像度の劣化画像を学習したことにより、推定が不安定となり、出力画像にボケやリンギングが含まれるという精度低下が生じる。
また、この場合、高解像度化部310の内部の挙動は次のようになっていると考えられる。まず、高解像度化部310は、入力画像507の解像度が学習した中のどの解像度であるかを推定する。次に、その解像度に応じた高周波成分を追加し、高解像度化を行う。しかし、解像度の推定に誤差が生じると、不適切な高周波成分が追加され、推定の精度が低下する。
以上のような、多様な解像度の画像に関する課題を解決するための本実施形態による学習および高解像度化の概要を図6に示す。学習部309には劣化画像501,503と教師画像502,504に加えて、それぞれの劣化画像上での被写体の解像度を表す情報601、情報602が与えられ、学習部309はこれらを用いて重みパラメータを学習する。すなわち、学習部309は、教師画像と劣化画像と、劣化画像上の被写体の解像度を示す解像度情報とを用いて、入力画像を高解像度化するための推定部(例えばニューラルネットワーク)の学習を行う。また、高解像度化部310は、入力画像と当該入力画像の解像度情報を、学習部309により学習された推定部に入力して、入力画像を高解像度化した画像を得る。図示の例では、高解像度化部310には入力画像505,507だけでなく、それぞれの入力画像上での被写体の解像度を表す情報611、情報612が与えられ、高解像度化部310は、これらを用いて入力画像の高解像度化を行う。このように、入力画像上での被写体の解像度を用いることにより、高解像度化部310において、入力画像の解像度の推定の誤りが抑制される。結果、入力画像に多様な解像度の画像が含まれる場合でも、高解像度化部310は高い精度で高解像度化を実現することができる。なお、画像と共に入力される情報601、602、611、及び612は、画像上での被写体の解像度を直接示すパラメータであってもよいし、解像度に関わるその他の情報であってもよい。例えば、被写体の位置を示すパラメータや、被写体の位置と撮像装置の位置との距離を示すパラメータや、撮像装置の画角を示すパラメータや、撮像レンズの焦点距離を示すパラメータや、撮像センサの画素数を示すパラメータなどが入力されてもよい。
以下、第1実施形態の画像処理装置102の機能構成と処理について、図3および図4A、4Bを参照して説明する。図3は、画像処理装置102の機能構成例を示すブロック図である。図4Aは、第1実施形態の画像処理装置102による学習処理を示すフローチャートである。図4Bは、第1実施形態の画像処理装置102による推定処理(高解像度化)を説明するフローチャートである。画像処理装置102において、CPU201は、ROM203に格納されたプログラムを、RAM202をワークメモリとして用いて実行することにより、図3に示す各構成部として機能し、図4A,4Bのフローチャートに示す一連の処理を実行する。なお、以下に示す処理の全てがCPU201によって実行される必要はなく、処理の一部または全部が、CPU201以外の一つ又は複数の処理回路によって行われるように画像処理装置102が構成されてもよい。以下、各構成部により行われる処理の流れを説明する。
ステップS401において、教師原画像取得部301は、高解像度で被写体を撮影する撮像装置105から、または記憶部204から、教師原画像を取得する。教師原画像取得部301は、取得した教師原画像を切り出し部305に供給する。ステップS402において、位置取得部303は、教師原画像中の被写体の実空間での位置を取得する。被写体の実空間での位置は、図1のように複数の位置から被写体を撮影することで、三角測量の原理や三次元形状推定の手法に基づいて求めることができる。なお、デプスカメラやGPSや光波測距儀やジャイロセンサといった、追加のセンサを用いて被写体の実空間での位置を求めるようにしてもよい。また、被写体が床面上に存在すると仮定し、被写体を床面に投影することにより被写体の三次元位置を求めてもよい。位置取得部303は、取得した被写体の実空間での位置を解像度算出部306に出力する。
ステップS403において、パラメータ取得部304は、撮像装置105について、焦点距離やカメラ位置(実空間におけるカメラの位置)といったカメラパラメータを取得する。パラメータ取得部304は、得られたカメラパラメータを、解像度算出部306に出力する。ステップS404において、解像度算出部306は、被写体の実空間での位置とカメラパラメータに基づいて、教師原画像上での被写体の解像度を算出する。本実施形態では、画像上で顔が占める領域(画像上での被写体の領域)の縦横いずれかの画素数nを、画像上での被写体の解像度とする。画像上の被写体の解像度(画像上で、被写体の画像が占める領域の大きさ)を示す解像度情報(画素数n)は、例えば、以下の[数1]に従って算出される。
Figure 0007312026000001
[数1]において、fは焦点距離、dは撮像装置から被写体までの距離(カメラパラメータのカメラ位置と位置取得部303が取得した被写体の位置から得られる)、aは予め決めておいた実空間での顔の縦方向のサイズ、sはセンサの縦方向のサイズ、mはセンサの縦方向の画素数である。ただし、aを実空間での顔の横方向のサイズ、sをセンサの横方向のサイズ、mをセンサの横方向の画素数としてもよい。距離dは、被写体の実空間での位置とカメラ位置から算出される。本実施形態では、画像上での被写体の領域を正方形と仮定しているがこれに限られるものではなく、例えば、長方形、円、楕円などが用いられてもよい。なお、解像度として、被写体の画像の鮮鋭度や、被写体の画像に含まれる高周波成分の強度といった値を用いてもよい。また、画像の領域分割や高精度な顔検出手法などに基づき、解像度を被写体の位置の情報以外から算出してもよい。得られた被写体の解像度は、対応付け部307に出力される。
ステップS405において、切り出し部305は、ステップS401で取得した教師原画像から、被写体の映っている領域を切り出し、教師画像を得る。切り出し部305は、例えば、教師原画像に顔検出手法を適用することによって自動的に領域(教師画像)の切り出しを行う。得られた教師画像は対応付け部307に出力される。なお、位置取得部303により複数の被写体の位置が検出されている場合、対応付け部307は、後述のステップS406で、解像度算出部306が算出した複数の被写体の解像度のうちのいずれかを切り出し部305が切り出した被写体に対応付けることになる。そのため、切り出し部305は、切り出した被写体の教師原画像における位置を対応付け部307に通知する。対応付け部307は、切り出し部305から通知された位置と位置取得部303が取得した複数の被写体の実空間の位置に基づいて、切り出された教師画像に写る被写体に対応する被写体を判定する。そして、対応付け部307は、切り出された教師画像に写る被写体と、対応すると判定した被写体について解像度算出部306が算出した解像度を対応付ける。
なお、切り出し部305は、ステップS402乃至S404で算出された実空間中での被写***置と画像上での被写体の解像度とに基づいて切り出しを行うようにしても良い。この切り出し方法について、図7を用いて説明する。なお、この場合、切り出し部305は、位置取得部303から被写体の位置を受け取り、解像度算出部306から解像度を受け取る。また、この場合、対応付け部307は、切り出し部305が採用した被写体について解像度算出部306が算出した解像度を、教師画像に写る被写体の解像度として対応付けることができる。
図7は、第1実施形態の切り出し部305による、実空間における被写***置とその解像度(大きさ)を用いた画像の切り出し処理を説明する図である。被写体の切り出し枠701を算出するためには、画像上での被写体サイズ703と、画像上での被写体中心位置702を求めればよい。画像上での被写体サイズ703は、実空間での被写体の解像度から[数1]に従って算出される。また、画像上での被写体中心位置zは、教師原画像の中心を原点とする画像座標上で、例えば以下の[数2]、[数3]により計算される。
Figure 0007312026000002
Figure 0007312026000003
sは被写体の実空間上での位置、cはカメラの実空間上での位置、nはカメラの光軸方向を表す単位ベクトル、eyは画像のy軸方向を表す単位ベクトルであり、全て要素数3のベクトルである。また、fは焦点距離、pは撮像素子上での単位距離当たりの画素数、Rは世界座標系からカメラ座標系への変換を行う2行3列の変換行列である。カメラの光軸は、入軸原画像の中心を通過するものとする。
切り出し枠を正確に算出することにより、不均質な切り出しの発生を抑制できる。図8は、画像からの被写体の不均質な切り出しを説明する図である。画像801は、被写体を適切な大きさで中央にとらえた好適な切り出しの例である。画像802は、画像中心からずれた位置に被写体が存在するように切り出された例であり、画像803は、切り出しの枠に対して被写体が大きすぎる例である。上述の切り出し処理によれば、これら不均質な切り出しが発生することが抑制され、画像801のような適切な切り出しを一律で行うことができる。これにより、学習コストの低減や精度の向上が実現できる。
なお、撮像装置で被写体のみを撮像する場合や、記憶部204から被写体の映っている領域のみの画像を取り出す場合は、切り出しを行わなくて良い。その場合、教師原画像は教師画像として、入力原画像は入力画像として用いられる。
ステップS406において、対応付け部307は、ステップS405で切り出された教師画像とその解像度(解像度はステップS414で算出される)を対にしたデータ対を作成し、データセット生成部308に出力する。ステップS407において、データセット生成部308は、対応付け部307から受け取った教師画像を低解像度化して劣化画像を生成し、生成した劣化画像における被写体の解像度を取得し、データセットを生成する。劣化画像における被写体の解像度は、対応付け部307から受け取った、教師画像における被写体の解像度と、低解像度化における解像度の変更量とに基づいて、データセット生成部308により生成される。データセットには複数の学習データが含まれる。
図9は、データセットを構成する学習データの例を示す図である。データセット生成部308は、切り出し部305から提供された教師画像903を入力画像相当に低解像度化する処理を行った劣化画像902を得る。低解像度化には、教師画像の複数の画素値の平均を劣化画像の画素値として画像を縮小する面積平均法を用いることができる。縮小した結果の被写体の解像度(画素数)を、劣化画像上での被写体の解像度の情報901(図示の例では解像度=20)とする。なお、bicubic法などの補間手法や、短い焦点距離で教師画像を撮影する過程を再現する手法に基づいた低解像度化を行っても構わない。また、劣化画像上での被写体の解像度は、例えば、教師画像の解像度を1/nに低下させて劣化画像を生成した場合に、[教師画像上での被写体の解像度]/nにより求めてもよい。
得られた劣化画像の解像度、劣化画像、教師画像の3つのデータを組にしたものを学習データと呼び、入力された各教師画像について生成した学習データの集合をデータセットとする。本例での解像度のように、画像の性質を説明する情報を付帯情報と呼ぶ。また、教師画像903を別の解像度へ低解像度化することで、劣化画像902とは別の劣化画像905が得られ、別の学習データが得られる。例えば、劣化画像902は教師画像903を解像度=20へ劣化させた画像であり、劣化画像905は教師画像903を解像度50へ劣化させた画像である。これにより、教師画像903、劣化画像902、解像度の情報901(=20)の学習データと、教師画像903、劣化画像905、解像度の情報904(=50)の学習データを有するデータセットが得られる。
データセット生成時には、入力画像として存在しうる各々の解像度の劣化画像が生成されるようにする。例えば、入力画像の解像度の候補の集合をΛとすると、データセット生成部308は、学習データを生成する際、ある解像度r∈Λをランダムに選び、その解像度rへ低解像度化した劣化画像を生成する。なお、上記では1つの教師画像をもとに解像度の異なる複数の劣化画像を生成し、複数の学習データを生成するデータ拡張を行うようにしたが、これに限られるものではなく、解像度ごとに異なる教師画像が用いられるようにしても構わない。また、Λの全ての要素(解像度)について劣化画像を生成し、1つの教師画像をもとにΛの要素数個の学習データを生成しても構わない。生成されたデータセットは、学習部309に出力される。
ステップS407において、学習部309は、データセット内の各学習データを畳み込みニューラルネットワークに学習させる。学習部309は、学習データのうちの劣化画像と付帯情報の2つの入力を取り、学習データのうちの教師画像を出力に取るような畳み込みニュ-ラルネットワークを内部に有する。この畳み込みニューラルネットワークに劣化画像が入力されると、複数の畳み込み層によって画像特徴が抽出され、その特徴に応じて高解像度画像が推定される。もう1つの入力である付帯情報は、抽出された画像特徴に付加され、推定の手掛かりとして用いられる。
なお、入力する画像のサイズに制約のあるニューラルネットワークを用いる場合、劣化画像と教師画像を、例えばbicubic法により拡大・縮小してから上記学習処理に適用する。なお、拡大・縮小アルゴリズムはbicubic法に限られるものではなく、例えば、bilinear法、cosine法などが用いられてもよい。学習されたニューラルネットワークの重みパラメータは、高解像度化部310に入力される。
次に、学習部309によって学習されたニューラルネットワークを用いた推定処理による入力画像の高解像度化の処理を図4Bのフローチャートを参照して説明する。なお、ステップS411~S415の処理は、ステップS401~S405の処理と同様であり、撮像装置105を撮像装置101に、教師原画像を入力原画像に、教師画像を入力画像に読み替えた処理である。
ステップS411において、入力原画像取得部302は、低解像度で被写体を撮影する撮像装置101から、または記憶部204から、入力原画像を取得する。取得された教師原画像と入力原画像は、切り出し部305に供給される。ステップS412において、位置取得部303は、ステップS402と同様の処理により、入力原画像中の被写体の実空間での位置を取得する。ステップS413において、パラメータ取得部304は、入力原画像を撮影した撮像装置101について、焦点距離やカメラ位置といったカメラパラメータを取得する。パラメータ取得部304は、得られたカメラパラメータを、解像度算出部306に出力する。
ステップS414において、解像度算出部306は、被写体の実空間での位置とカメラパラメータに基づいて、撮像装置101で撮影された入力原画像上での被写体の解像度を算出する。処理の詳細は、ステップS404と同様である。算出された解像度は、対応付け部307へ出力される。ステップS415において、切り出し部305は、ステップS405と同様の処理により、ステップS411で取得した入力原画像から、被写体の映っている領域を切り出し、入力画像を得る。切り出し部305は、入力原画像に顔検出手法を適用することによって自動的に領域(入力画像)の切り出しを行う。得られた入力画像は対応付け部307に出力される。
ステップS416において、対応付け部307は、ステップS415で切り出された入力画像とその解像度(解像度はステップS414で算出される)を対にした入力データ対を作成する。対応付け部307は、作成した入力データ対を、高解像度化部310に出力する。ステップS417において、高解像度化部310は図4Aの学習処理で学習された重みパラメータを用いたニューラルネットワークにより、入力画像の高解像度化を行う。ニューラルネットワークの構造は、学習部309で用いたものと同じとする。すなわち、高解像度化部310は、対応付け部307で得られた入力データ対(入力画像と被写体の解像度の対)を、学習された重みパラメータが設定されたニューラルネットワークに入力し、対応する高解像度画像を生成、出力する。なお、入力する画像のサイズに制約のあるニューラルネットワークを用いる場合、学習部309と同様、入力画像を拡大・縮小する。
以上、第1実施形態によれば、ある撮像装置により取得した被写体の入力画像を、別の撮像装置により取得した高解像度の教師画像を用いた学習に基づく推定処理によって、高い精度で高解像度化することができる。また、入力画像に多様な解像度の画像が含まれる場合にも、その解像度の情報をニューラルネットワークに与えることで、正しく高解像度画像を推定することができる。
[第2実施形態]
第1実施形態では、学習時には劣化画像と付帯情報の対と教師画像とを写像する関数を求め、推定時には入力画像と付帯情報の対を入力に取って高解像度化を行う例を示した。但し、ニューラルネットワークの構造上、テンソルで表される画像データとスカラーで表される付帯情報を同列の入力として用いることが困難である場合もある。そこで第2実施形態では、画像のみを入力に取るニューラルネットワークを、付帯情報で表される種別に応じて複数並立させる構成を説明する。
以下、第2実施形態の学習部309の構成について、図10を参照して説明する。図10は、第2実施形態による学習部309の機能構成例を示すブロック図である。学習部309は、複数のニューラルネットワーク(ニューラルネットワーク群1003)を内部に保持する。ニューラルネットワーク群1003のそれぞれのニューラルネットワークは、特定の解像度の学習データを専門に学習する。この解像度を担当解像度と呼ぶ。例えば、第2実施形態では、ニューラルネットワーク[1]の担当解像度が20、ニューラルネットワーク[2]の担当解像度が30、ニューラルネットワーク[3]の担当解像度が40である。
データセット取得部1001はデータセット生成部308で生成されたデータセットを取得する。重み算出部1002は、そのデータセット内の各学習データについて、付帯情報とニューラルネットワークの担当解像度を比較し、その類似度が高いほど値が大きくなるような重み値を付与する。例えば、解像度が20の学習データについては、ニューラルネットワーク[1]に対しては重み値=1.0、ニューラルネットワーク[2]に対しては重み値=0.5、ニューラルネットワーク[3]に対しては重み値=0.3といったように計算される。得られた重み値は、学習データとともにニューラルネットワーク群1003に出力される。
ニューラルネットワーク群1003の各ニューラルネットワークは、学習データ内の劣化画像と教師画像とを写像する関数の重みパラメータを学習する。このとき、重み値の大きい学習データほどそのニューラルネットワークに学習される回数を増やす。なお、重み値がある閾値以下である場合は学習を行わないようにしても良い。また、重み値が小さいほどニューラルネットワークの学習率を小さくするようにしてもよい。こうして、学習部309では、ニューラルネットワークの担当解像度が劣化画像上の被写体の解像度に近いほど、そのニューラルネットワークにおける当該劣化画像とその教師画像とによる学習の影響が大きくなるようにしている。
高解像度化部310は、少なくとも学習部309のニューラルネットワーク群1003と同数のニューラルネットワークを有するニューラルネットワーク群を有する。推定時において、高解像度化部310は、入力データ対に含まれている解像度と等しい担当解像度のニューラルネットワークに、入力データ対に含まれている入力画像を入力し、高解像度化を行う。
なお、1つのニューラルネットワークが複数の担当解像度を有しても良い。例えば、ニューラルネットワーク[1]が解像度20~29の学習データを学習し、ニューラルネットワーク[2]が解像度30~39の学習データを学習するなどとしても良い。また、解像度算出部で得られた入力画像の解像度の情報に基づき、各ニューラルネットワークの担当解像度を決定しても良い。例えば、解像度の最小値と最大値の間の区間を等分するようにニューラルネットワークの担当解像度を決めても良い。
以上のように、第2実施形態によれば、テンソルとスカラーといった2種類の量を同時に1つのニューラルネットワークに入力する必要がなくなる。結果として、ニューラルネットワークがこれら2つの情報をより正しく利用でき、高解像度化の精度の向上を実現できる。
[実施形態3]
第1実施形態では、教師画像および入力画像の特性を説明する付帯情報として、被写体の解像度を、学習部309および高解像度化部310への入力として用いることで、高解像度化の精度を向上させる手法を示した。第3実施形態では、付帯情報として解像度以外の追加の情報を用いる構成を説明する。
図11は、第3実施形態による画像処理装置102の機能構成例を示すブロック図である。また、図12Aは、第3実施形態の画像処理装置102による学習処理を示すフローチャートである。図12Bは、第3実施形態の画像処理装置102による推定処理(高解像度化)を示すフローチャートである。以下、図11、図12A、図12Bを参照して第3実施形態による画像処理装置102の学習処理、高解像度化処理を説明する。付帯情報が多いほど、入力画像に対しどのような高解像度化を行うべきかをより仔細に高解像度化部310に教示することができるので、精度向上を実現できる。なお、第1実施形態と共通するハードウエア構成、機能構成および処理に関する説明は割愛する。
ステップS1201において、同定部1101は、複数の被写体を複数の時刻に渡って撮影している場合に、各被写体を同定して被写体IDを付与する。第1実施形態では、観測した被写体の位置を算出しても、別時刻の被写体と同一人物かどうかは分からない。第3実施形態では、トラッキングにより人物を同定し、被写体ごとに一意なIDを付与し、属性取得部1102と対応付け部1103に出力する。なお、人物の同定には、例えば、顔識別、GPSなどの人物を識別できるセンサの利用など、周知の技術を用いることができる。同定の結果(被写体ID)は、属性取得部1102と対応付け部1103へ出力される。
ステップS1202において、属性取得部1102は、被写体IDと被写体属性を対応付ける。被写体属性とは、例えばスポーツ選手を被写体としている場合においては、所属チーム・人種・年代・ポジションなどの情報である。例えば、属性取得部1102は、背番号をキーとして被写体属性が登録されたデータベースを事前に作成しておく。属性取得部1102は、画像認識により背番号を認識し、データベースを参照して、認識した背番号に対応して登録された被写体属性を被写体IDに対応付ける。なお、データベースのキーは背番号に限られるものではなく、例えば人物の顔が用いられてもよい。属性取得部1102は、被写体IDに対応する被写体属性を対応付け部1103に出力する。
ステップS1203において、対応付け部1103は、ステップS405で切り出された教師画像と、その付帯情報である被写体IDおよび被写体属性を組にし、データセット生成部308に出力する。なお、複数の被写体の被写体ID、被写体属性のうちいずれを教師画像の被写体に対応付けるかを判定する方法は、第1実施形態における教師画像の被写体と解像度との対応付けと同様の方法で実現できる。ステップS1204において、データセット生成部308は、教師画像から劣化画像を生成し、教師画像上の被写体の解像度に基づいて劣化画像上の被写体の解像度し、学習データを生成する。すなわち、学習データは、教師画像、それを劣化させた劣化画像、劣化画像の付帯情報を含む。ここで、付帯情報は、第1実施形態と同様の解像度の情報に加えて、被写体IDと被写体属性を含む。なお、被写体IDと被写体属性は、ステップS1201~S1202において教師画像について取得された付帯情報と同じ値である。ステップS407で、学習部309は、データセット生成部308が生成したデータセットを用いて、ニューラルネットワークの学習を行う。
次に、第3実施形態の高解像度化部310による推定処理を図12Bのフローチャートを参照して説明する。なお、ステップS1211~S1213の処理は、ステップS1201~S1203の処理と同様であり、撮像装置105を撮像装置101に、教師原画像を入力原画像に、教師画像を入力画像に読み替えた処理である。
ステップS1211において、同定部1101は、複数の被写体を複数の時刻に渡って撮影している場合に、各被写体を同定して被写体IDを付与し、属性取得部1102と対応付け部1103に出力する。ステップS1212において、属性取得部1102は、被写体IDと被写体属性を対応付ける。ステップS1213において、対応付け部1103は、ステップS415で切り出された入力画像と、その付帯情報である被写体IDおよび被写体属性を組にし、高解像度化部310へ出力する。ステップS417において、高解像度化部310は、図12Aの学習処理で学習された重みパラメータを用いたニューラルネットワークにより、入力画像の高解像度化を行う。ニューラルネットワークの構造は、学習部309で用いたものと同じとする。すなわち、高解像度化部310は、対応付け部1103で得られた入力データ対(入力画像と付帯情報(解像度、被写体ID、被写体属性)の対)を、学習された重みパラメータが設定されたニューラルネットワークに入力し、高解像度画像を生成、出力する。
以上の被写体IDと被写体属性は、入力画像に映っている物体を説明する重要な情報であり、高解像度化の精度の向上に寄与する。なお、入力画像を説明するための付帯情報は上記の例に限定されない。例えば、被写体の移動方向、被写体の地面からの高度、撮影時の照明条件を付帯情報として利用しても構わない。被写体の移動方向は、被写体のトラッキング結果に基づき、隣接フレーム間での位置の差分を取ることで算出できる。撮影時の照明条件としては、日照の有無、光源方向、光源強度などの情報を利用することができる。
なお、付帯情報は、必ずしも上記全てを含む必要はなく、一部のみを用いても構わない。また、第3実施形態の付帯情報を第2実施形態の付帯情報として用いても構わない。付帯情報が複数種類の情報で構成される場合、付帯情報をベクトルとして扱えばよい。例えば、学習時には、各ニューラルネットワークが担当する付帯情報(担当付帯情報)のベクトルと教師画像の付帯情報のベクトルの類似度により学習の重み値を設定する。そして、推定時には、入力画像の付帯情報のベクトルとの類似度が最も高い担当付帯情報が設定されているニューラルネットワークを用いて当該入力画像の高解像度化を行う。
以上のように、第3実施形態によれば、ニューラルネットワークの学習とそれを用いた画像の高解像度化において、画像上の被写体の解像度に加えて、被写体を特定する情報および被写体の属性情報が用いられる。このため、より高精度な推定(高解像度化)が可能になる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、様々な変更及び変形が可能である。
301:教師原画像取得部、302:入力原画像取得部、303位置取得部、304:パラメータ取得部、305:切り出し部、306解像度算出部、307:対応付け部、308:データセット生成部、309:学習部、310:高解像度化部

Claims (17)

  1. 被写体の撮影画像を教師画像として取得する第1の取得手段と、
    画像における被写体の解像度を算出する解像度算出手段と、
    前記教師画像を低解像度化して劣化画像を生成し、前記教師画像における被写体について前記解像度算出手段が算出した解像度に基づいて、前記劣化画像における被写体の解像度を表す第1の解像度情報を生成する生成手段と、
    前記教師画像と前記劣化画像と前記第1の解像度情報とを含むデータセットを用いて、入力画像を高解像度化するための推定手段の機械学習を行う学習手段と、を備えることを特徴とする画像処理装置。
  2. 被写体の撮影画像を入力画像として取得する第2の取得手段と、
    前記入力画像と、前記入力画像における被写体について前記解像度算出手段が算出した解像度を示す第2の解像度情報と、を前記推定手段に入力することにより、前記入力画像を高解像度化した画像を得る高解像度化手段と、をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3. 被写体の実空間における位置を取得する位置取得手段をさらに備え、
    前記解像度算出手段は、前記位置取得手段により取得された被写体の位置と撮像装置のカメラパラメータに基づいて、その撮像装置により撮像された画像における被写体の解像度を算出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の取得手段は、撮像装置の撮影により得られた教師原画像において被写体の領域を検出し、検出した前記領域に基づいて、前記教師原画像から前記教師画像を切り出すことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の取得手段は、前記位置取得手段により取得された被写体の位置と、前記位置が取得された被写体について前記解像度算出手段が算出した解像度と、に基づいて、撮像装置の撮影により得られた教師原画像から前記位置が取得された被写体を含む前記教師画像を切り出すことを特徴とする請求項3に記載の画像処理装置。
  6. 前記第2の取得手段は、撮像装置の撮影により得られた入力原画像において被写体を検出し、検出した被写体が存在する領域を前記入力画像として切り出すことを特徴とする請求項2または3に記載の画像処理装置。
  7. 前記第2の取得手段は、前記位置取得手段により取得された被写体の位置と、前記位置が取得された被写体について前記解像度算出手段が算出した解像度を示す前記第2の解像度情報とに基づいて、撮像装置の撮影により得られた入力原画像から前記入力画像を切り出すことを特徴とする請求項3に記載の画像処理装置。
  8. 前記学習手段は、前記劣化画像と前記第1の解像度情報を入力とし、前記教師画像を出力とするニューラルネットワークのパラメータを機械学習し、
    前記高解像度化手段は、前記ニューラルネットワークに対して前記入力画像と前記第2の解像度情報を入力することにより、前記入力画像の高解像度化を行うことを特徴とする請求項2または3に記載の画像処理装置。
  9. 前記推定手段は異なる担当解像度が設定された複数のニューラルネットワークを有し、
    前記学習手段は、前記複数のニューラルネットワークのうち、前記第1の解像度情報が示す解像度に対応する担当解像度が設定されているニューラルネットワークを用いて機械学習を行い、
    前記高解像度化手段は、前記第2の解像度情報が示す解像度に対応する担当解像度が設定されているニューラルネットワークを用いて前記入力画像を高解像度化することを特徴とする請求項2または3に記載の画像処理装置。
  10. 前記学習手段は、担当解像度が前記第1の解像度情報が示す解像度に近いほど、ニューラルネットワークにおける機械学習による影響を大きくすることを特徴とする請求項9に記載の画像処理装置。
  11. 前記学習手段は、異なる担当解像度の範囲が設定された複数のニューラルネットワークのうち、前記第1の解像度情報が示す解像度を含む範囲が設定されているニューラルネットワークを用いて前記機械学習を行い、
    前記高解像度化手段は、前記第2の解像度情報が示す解像度を含む担当解像度の範囲が設定されているニューラルネットワークを用いて前記入力画像を高解像度化することを特徴とする請求項2または3に記載の画像処理装置。
  12. 前記教師画像と前記入力画像の被写体を同定して被写体IDを付与する同定手段をさらに備え、
    前記学習手段は、前記教師画像の被写体に付与された被写体IDと前記第1の解像度情報を含む第1の付帯情報と、前記教師画像と、前記劣化画像と用いて前記機械学習を行い、
    前記高解像度化手段は、前記入力画像と、前記入力画像の被写体に付与された被写体IDと前記第2の解像度情報を含む第2の付帯情報とを前記推定手段に入力して、前記入力画像の高解像度化を行うことを特徴とする請求項2または3に記載の画像処理装置。
  13. 前記教師画像に存在する被写体と前記入力画像に存在する被写体について被写体属性を取得する属性取得手段をさらに備え、
    前記第1の付帯情報と前記第2の付帯情報は前記被写体属性を含むことを特徴とする請求項12に記載の画像処理装置。
  14. 前記第1の付帯情報と前記第2の付帯情報は、
    前記教師画像と前記入力画像の被写体の地面からの高度、
    前記教師画像と前記入力画像の被写体の移動方向、または
    前記教師画像と前記入力画像の撮影時の照明条件、
    の少なくとも何れかを含むことを特徴とする請求項12または13に記載の画像処理装置。
  15. 被写体の撮影画像を教師画像として取得する第1の取得工程と、
    画像における被写体の解像度を算出する解像度算出工程と、
    前記教師画像を低解像度化して劣化画像を生成し、前記教師画像における被写体について前記解像度算出工程が算出した解像度に基づいて、前記劣化画像における被写体の解像度を表す第1の解像度情報を生成する生成工程と、
    前記教師画像と前記劣化画像と前記第1の解像度情報とを含むデータセットを用いて、入力画像を高解像度化するための推定手段の機械学習を行う学習工程と、を備えることを特徴とする画像処理方法。
  16. 被写体の撮影画像を入力画像として取得する第2の取得工程と、
    前記入力画像と、前記入力画像における被写体について前記解像度算出工程が算出した解像度を示す第2の解像度情報と、を前記推定手段に入力することにより、前記入力画像を高解像度化した画像を得る高解像度化工程と、をさらに備えることを特徴とする請求項15に記載の画像処理方法。
  17. コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019109623A 2019-06-12 2019-06-12 画像処理装置、画像処理方法およびプログラム Active JP7312026B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019109623A JP7312026B2 (ja) 2019-06-12 2019-06-12 画像処理装置、画像処理方法およびプログラム
US16/893,634 US11647152B2 (en) 2019-06-12 2020-06-05 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019109623A JP7312026B2 (ja) 2019-06-12 2019-06-12 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020201823A JP2020201823A (ja) 2020-12-17
JP7312026B2 true JP7312026B2 (ja) 2023-07-20

Family

ID=73743422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019109623A Active JP7312026B2 (ja) 2019-06-12 2019-06-12 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11647152B2 (ja)
JP (1) JP7312026B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022181572A (ja) * 2021-05-26 2022-12-08 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、訓練済み機械学習モデルの製造方法、処理装置、画像処理システム
JP2023044462A (ja) 2021-09-17 2023-03-30 キヤノンメディカルシステムズ株式会社 医用画像処理装置、磁気共鳴イメージング装置、医用画像処理方法、および医用画像処理プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4701187B2 (ja) * 2004-11-30 2011-06-15 パナソニック株式会社 画像処理方法、画像処理装置、および画像処理プログラム
JP4561657B2 (ja) * 2006-03-06 2010-10-13 ソニー株式会社 映像監視システムおよび映像監視プログラム
JP2011180798A (ja) * 2010-03-01 2011-09-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2011211437A (ja) 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
KR101887099B1 (ko) * 2010-12-29 2018-08-09 삼성전자주식회사 이미지 처리 시스템 및 이미지 처리 방법
JP2012244395A (ja) * 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
US9171380B2 (en) * 2011-12-06 2015-10-27 Microsoft Technology Licensing, Llc Controlling power consumption in object tracking pipeline
US10574974B2 (en) * 2014-06-27 2020-02-25 A9.Com, Inc. 3-D model generation using multiple cameras
KR102172992B1 (ko) * 2014-07-31 2020-11-02 삼성전자주식회사 이미지 촬영 장치 및 이미지 촬영 방법
US9743015B2 (en) * 2015-05-22 2017-08-22 Samsung Electronics Co., Ltd. Image capturing apparatus and method of controlling the same
JP6729428B2 (ja) * 2017-02-01 2020-07-22 オムロン株式会社 画像処理システム、光学センサ、及び学習装置
US10789472B1 (en) * 2017-06-14 2020-09-29 Amazon Technologies, Inc. Multiple image processing and sensor targeting for object detection
US10467729B1 (en) * 2017-10-12 2019-11-05 Amazon Technologies, Inc. Neural network-based image processing
CN107767343B (zh) * 2017-11-09 2021-08-31 京东方科技集团股份有限公司 图像处理方法、处理装置和处理设备
CN108259997B (zh) * 2018-04-02 2019-08-23 腾讯科技(深圳)有限公司 图像相关处理方法及装置、智能终端、服务器、存储介质
DE102019124809A1 (de) * 2018-09-21 2020-03-26 Fanuc Corporation Bildgebungsvorrichtung und Bildgebungssystem
JP7415251B2 (ja) * 2018-09-30 2024-01-17 京東方科技集團股▲ふん▼有限公司 画像処理用の装置及び方法、並びにニューラルネットワークトをトレーニングするシステム
WO2020102812A1 (en) * 2018-11-16 2020-05-22 Google Llc Generating super-resolution images using neural networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195069A (ja) 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20200396415A1 (en) 2020-12-17
US11647152B2 (en) 2023-05-09
JP2020201823A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
US10380421B2 (en) Iris recognition via plenoptic imaging
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
EP3093822B1 (en) Displaying a target object imaged in a moving picture
US20220148143A1 (en) Image fusion method based on gradient domain mapping
WO2021218568A1 (zh) 图像深度确定方法及活体识别方法、电路、设备和介质
JP2020067748A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP2016219879A (ja) 画像処理装置、画像処理方法及びプログラム
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
CN115841602A (zh) 基于多视角的三维姿态估计数据集的构建方法及装置
JP2016156702A (ja) 撮像装置および撮像方法
Liu et al. Geometrized transformer for self-supervised homography estimation
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
JP5887974B2 (ja) 類似画像領域探索装置、類似画像領域探索方法、及び類似画像領域探索プログラム
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム
JP2018081378A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
CN111630569A (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
CN111080689B (zh) 确定面部深度图的方法和装置
WO2021075314A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R151 Written notification of patent or utility model registration

Ref document number: 7312026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151