JP2020102012A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2020102012A
JP2020102012A JP2018239861A JP2018239861A JP2020102012A JP 2020102012 A JP2020102012 A JP 2020102012A JP 2018239861 A JP2018239861 A JP 2018239861A JP 2018239861 A JP2018239861 A JP 2018239861A JP 2020102012 A JP2020102012 A JP 2020102012A
Authority
JP
Japan
Prior art keywords
image
level
resolution
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018239861A
Other languages
English (en)
Other versions
JP7278766B2 (ja
Inventor
暢 小倉
Toru Kokura
暢 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018239861A priority Critical patent/JP7278766B2/ja
Priority to US16/710,753 priority patent/US11200643B2/en
Publication of JP2020102012A publication Critical patent/JP2020102012A/ja
Application granted granted Critical
Publication of JP7278766B2 publication Critical patent/JP7278766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像の高解像度化処理を行う場合に、特定のオブジェクトの解像度をより向上させる。【解決手段】入力画像取得部406は、オブジェクトを撮像することで得られる撮像画像を取得する。学習部405は、前記オブジェクトに関する教師画像データのデータセットであって、前記オブジェクトの重要度を示すオブジェクト情報に基づいて決まるデータセットを用いた学習により、前記オブジェクトの画像の解像度を変換する処理に係るパラメータを決定するする。推論部407は、学習部405により決定した前記パラメータに基づいて、前記撮像画像の解像度を変換する。【選択図】図4

Description

本発明は、学習を利用して画像を高解像度化する技術に関する。
第1の画像を、解像度がより高い第2の画像に変換する高解像度化技術として、機械学習を利用した手法がある。この手法では、第1の画像を第2の画像に変換する変換パラメータを学習によって予め求めておく必要がある。
変換パラメータを精度良く求める手法として、画像の撮像条件やオブジェクトといった、画像のクラスに応じたデータセットで学習を行わせる手法がある。特許文献1には、教師画像をクラスタリングして得られたクラス毎に学習を行わせることにより、演算コストを削減し、認識精度を向上させる技術が開示されている。
特開2018−45302号公報
しかしながら、従来技術を用いた学習により画像の高解像度化を行う場合に、重要なオブジェクトの画像を十分な解像度で得られない場合があった。画像を高解像度化する処理に要する時間は、目標とする解像度が高くなるほど長くなる傾向がある。そのため、例えば画像の高解像度化を短い時間で行うことが要求される場合には、目標とする解像度が低く設定され、十分な解像度の画像が得られなくなることが考えられる。
本発明は、上述した課題に鑑みてなされたものであって、画像の高解像度化処理を行う場合に、特定のオブジェクトの画像の解像度をより向上することを目的とする。
本発明の一態様に係る画像処理装置は、オブジェクトを撮像することで得られる撮像画像を取得する第1取得手段と、前記オブジェクトに関する教師画像データのデータセットであって、前記オブジェクトの重要度を示すオブジェクト情報に基づいて決まるデータセットを用いた学習により、前記オブジェクトの画像の解像度を変換する処理に係るパラメータを決定する決定手段と、前記決定手段により決定した前記パラメータに基づいて、前記撮像画像の解像度を変換する変換手段とを有することを特徴とする。
本発明によれば、画像の高解像度化処理を行う場合に、特定のオブジェクトの画像の解像度をより向上することができる。
実施形態1に係る画像処理装置を備える撮像システム例の模式図。 撮像装置で取得した画像例を示す図。 画像処理装置のハードウェア構成例を示す図。 画像処理装置の機能構成例を示すブロック図。 画像変換処理の手順例を示すフローチャート。 データセット作成部による処理例を説明する図。 高解像度化レベル設定用のUI画面例を示す図。 実施形態3に係る画像処理装置を備える撮像システム例の模式図。 撮像装置で取得した画像例を示す図。 画像処理装置の機能構成例を示すブロック図。 仮想視点画像の再構成処理の手順例を示すフローチャート。
以下、本発明の実施形態について図面を参照して説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、種々の変形及び変更が可能である。
[実施形態1]
<撮像システムの全体構成>
本実施形態では、スタジアムにおいて、オブジェクトとしてスポーツ選手を撮像し、撮像したスポーツ選手の画像の高解像度化を行う場合を例に挙げて説明する。
図1は、本実施形態に係る画像処理装置を備える撮像システム例を示す模式図である。図2(a)は入力画像例を示す図である。図2(b)は教師画像例を示す図である。
撮像システム100は、撮像装置101、画像処理装置102、表示装置103、操作装置104を有する。これら装置101、102、103、104は、データを互いに送受信可能に接続している。
撮像装置101は、焦点距離を調整可能でオブジェクトを撮像するカメラであって、スタジアムのフィールド106にいる3人のスポーツ選手105a、105b、105cを撮像する。撮像装置101は、オブジェクトを撮像して得た撮像画像データ(以下、撮像画像という)201から高解像度化の対象である入力画像データ(以下、入力画像という)201a〜201cを取得する。入力画像(部分画像)201a、201b、201cは、スポーツ選手105a、105b、105cそれぞれに対応したオブジェクト領域を画像201から切り出した画像である。また、撮像装置101は、焦点距離を変え(調整し)オブジェクトを撮像して得た、撮像画像201と比べて解像度が高い高解像度画像データ(以下、高解像度画像という)202から教師画像データ(以下、教師画像という)202a〜202cを取得する。教師画像202a〜202cは、スポーツ選手105a、105b、105cそれぞれに対応したオブジェクト領域を画像202から切り出した画像である。教師画像と入力画像とは、同日のほぼ同時刻に撮像した画像から取得された画像であると、両者の照明条件がほぼ同じとなるため、詳細につき後述する画像の高解像度化の精度が向上する。そこで、撮像システム100が焦点距離の異なる複数の撮像装置101を有し、一方の撮像装置101により得られる撮像画像を高解像度化するための教師画像データとして、他方の撮像装置101により得られる撮像画像が用いられてもよい。ただしこれに限らず、ある撮像装置101により得られる撮像画像を高解像度化するための教師画像データとして、同じ撮像装置101により別の時刻に得られた撮像画像が用いられてもよい。
なお、教師画像の取得手法は、撮像装置の焦点距離の変更に限定されない。例えば、撮像距離を変更して撮像する、画面手前にオブジェクトが映った画像を利用する、より高画素数の撮像装置を使用して撮像する、データベースやウェブから取得する、などにより得られた高解像度画像から教師画像を取得しても良い。
画像処理装置102は、レベルに応じた、教師画像によるデータセットを用いた学習で変換パラメータを導出し、導出した変換パラメータに基づき、入力画像201a〜201cを高解像度化した高解像度化画像を生成する。そして、画像処理装置102は、撮像画像201の入力画像201a〜201cを高解像度化画像に置き換えた画像を出力する。
なお、本実施形態では、機械学習のタスクとして画像の高解像度化を行う例を示しているが、画像の解像度調整などのその他の画像変換を行う例にも適用可能である。また、教師画像をオブジェクトごとにクラスタリングする例を示しているが、オブジェクトの行動ごと、オブジェクトに対する他のオブジェクトの行動ごと、環境ごと等の、別の基準でクラスタリングを行う例にも適用可能である。オブジェクトの行動として、例えば、連続する複数の画像にて人物追跡などで抽出した画像に基づき特定したオブジェクトの所定の動きなどが挙げられる。所定の動きとして、例えばサッカーであればシュートやドリブルなどが挙げられる。オブジェクトに対する他のオブジェクトの行動として、例えば、連続する複数の画像にて人物認識や人物照合や人物追跡などで抽出した画像に基づき特定した、オブジェクトに対する他のオブジェクトの所定の動きなどが挙げられる。オブジェクトに対する他のオブジェクトの所定の動きとして、例えば、撮像装置からオブジェクトを見えづらくする位置に他のオブジェクトが居る、例えばサッカーであればインターセプト、ラグビーであればタックルなどが挙げられる。環境とは、例えば、雨などの天候や夜間などの撮像時間帯などの撮影環境などが挙げられる。また、スタジアムにおけるスポーツシーン例を説明したが、一般的なシーンにも適用可能である。
表示装置103は、ユーザに情報を提示する画像の表示を行う、液晶ディスプレイなどの各種画像表示デバイスである。操作装置104は、例えばマウスやキーボード等であり、ユーザによる操作を受け付けて各種の指示を画像処理装置102に入力するために用いられる。
図3は、画像処理装置102のハードウェア構成例を示す図である。画像処理装置102は、CPU301、RAM(Random Access Memory)302、ROM303、二次記憶装置304、入力インターフェース(以下、「インターフェース」を「I/F」とする)305、出力I/F306を有する。画像処理装置102を構成する各部は、システムバス307によって相互に接続されている。また、画像処理装置102は、入力I/F305を介して、撮像装置101、操作装置104及び外部記憶装置308に接続されている。また、画像処理装置102は、出力I/F306を介して、外部記憶装置308及び表示装置103に接続されている。
CPU301は、RAM302をワークエリアとして、ROM(Read Only Memory)303に格納されたプログラムを実行し、システムバス307を介して画像処理装置102の各部を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置304は、画像処理装置102で取り扱う種々の画像データや、処理のためのパラメータなどを記憶する記憶デバイスである。二次記憶装置304として、例えばHDDや光ディスクドライブ、フラッシュメモリなどを用いることができる。CPU(Central Processing Unit)301は、システムバス307を介して二次記憶装置304へのデータの書き込み及び二次記憶装置304に記憶されたデータの読み出しを行うことができる。
入力I/F305は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。外部装置から画像処理装置102へのデータや命令等の入力は、入力I/F305を介して行われる。画像処理装置102は、入力I/F305を介して、撮像装置101から各種データ(例えば、撮像装置101が撮像した画像データや撮像装置101の撮像条件パラメータなどのデータ)を取得する。また、画像処理装置102は、入力I/F305を介して、外部記憶装置308(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また、画像処理装置102は、入力I/F305を介して、操作装置104を用いて入力されたユーザによる命令を取得する。
出力I/F306は、入力I/F305と同様にUSBやIEEE1394等のシリアルバスインターフェースを備える。その他に、出力I/F306として、例えばDVIやHDMI(登録商標)等の映像出力端子を用いることも可能である。画像処理装置102から外部装置へのデータ等の出力は、この出力I/F306を介して行われる。画像処理装置102は、出力I/F306を介して、外部記憶装置308へのデータの書き込みを行う。画像処理装置102は、出力I/F306を介して表示装置103に、画像処理装置102で処理された画像データを出力することで、画像の表示を行う。なお、画像処理装置102の構成要素は上記以外にも存在するが、本発明の主眼ではないため、説明を省略する。
<高精度な高解像度化処理の概要>
一般に、高精度な高解像度化処理を行うためには、演算時間や演算機資源を増やすなど、高い演算コストを費やす必要がある。また、高解像度化処理を行う重要度は、クラス毎に一律ではないと考えられる。例えば、スタジアムでスポーツ選手をオブジェクトとして撮像する場合、選手ごとに重要度が異なると考えられる。活躍が著しい選手や人気選手は、ユーザからの注目を受けやすいため、画像上で高解像度であることが望ましい。そこで、注目度の高い重要な選手に対しては、演算コストを割いて高精度な学習を行う。逆に、ユーザからの注目を受けにくいそうな注目度の低い選手に対しては、学習の精度を低下させて演算コストを低減する。
学習の演算コストと精度を調節するため、本実施形態では、高解像度化処理の倍率の変更を行う。ここで、倍率とは、高解像度化処理前後での画素数の比を表す。なお、高解像度化処理による高周波成分の増加度合いを倍率と定義しても良い。一般に、高い倍率の高解像度化処理では、演算コストは増加するものの、高解像度化処理の精度は向上する。本実施形態に基づく画像処理では、どの程度高解像度化されるべきかという目標値を、オブジェクトごとに付与して学習を行う。この目標値を高解像度化レベルと呼び、高解像度化レベルに基づいて倍率をオブジェクトごとに付与する。具体的には、高解像度化レベルが高いとオブジェクトには高倍率が、高解像度化レベルが中程度であるとオブジェクトには中倍率が、高解像度化レベルが低いとオブジェクトには低倍率がそれぞれ付与される。
高解像度化レベルを高く設定すべきオブジェクトは、活躍の著しい選手や、有名な選手など、ユーザからの注目度の高いオブジェクトである。一方、重要なイベントが発生する箇所から遠く離れた箇所に居る選手や、撮像方向にて他の選手の陰になり撮像装置から見えづらい選手は、高解像度化の重要度が低いと考えられる。また、教師画像の数量が少ない選手に関しては、演算コストを割いても学習の精度は向上しづらいため、高解像度化レベルを低く設定することが望ましい。
<画像処理装置の構成と処理の流れ>
画像処理装置102で行われる処理について、図4および図5を参照して説明する。図4は、画像処理装置102の機能構成例を示すブロック図である。図5は、画像変換処理の手順例を示すフローチャートである。画像処理装置102は、ROM303に格納されたプログラムをCPU301がRAM302をワークメモリとして実行することで、図4に示す各部として機能し、図5のフローチャートに示す一連の処理を実行する。なお、以下に示す処理の全てがCPU301によって実行される必要はなく、処理の一部または全部が、CPU301以外の一つ又は複数の処理回路によって行われるように画像処理装置102が構成されてもよい。各処理の説明における記号「S」は、フローチャートにおけるステップであることを意味する。以下、各部により行われる処理の流れを説明する。
まず、学習段階での処理を説明する。
S501では、教師画像取得部401は、撮像装置101、二次記憶装置304または外部記憶装置308から、高解像度でオブジェクトを撮像した画像(以下、高解像度画像ともいう)を取得する。そして、教師画像取得部401は、取得した高解像度画像から、人物認識や領域分割などの公知の技術により、オブジェクト(例えば、スポーツ選手など)に対応したオブジェクト領域を切り出した教師画像を取得する。次に、教師画像取得部401は、人物照合や人物追跡などの公知の技術により、教師画像をオブジェクト(例えば、スポーツ選手)ごとに分類する。オブジェクトごとに分類された教師画像は、高解像度化レベル取得部402、高解像度化レベル付与部403、データセット作成部(データセット構築部)404のそれぞれに出力される。なお、取得した高解像度画像および教師画像の数量は限定されず、1つでも2つ以上の複数でも構わない。
S502では、高解像度化レベル取得部402は、教師画像取得部401から入力された教師画像と、外部から入力された、オブジェクトの重要度を示すオブジェクト情報に基づき高解像度化レベルを導出して取得する。すなわち、高解像度化レベル取得部402は、取得した教師画像およびオブジェクト情報に基づき高解像度化レベルを導出して取得する。
オブジェクト情報は、二次記憶装置304または外部記憶装置308に予め格納された情報でもよいし、ユーザにより操作装置104を介して画像処理装置102に直接入力された情報でもよい。オブジェクトとしてスタジアムでスポーツ選手を撮像する場合、オブジェクト情報は、次の情報のうち少なくとも1つを含む。情報として、例えば、試合中のスポーツ選手ごとのイベント(オブジェクトの行動、オブジェクトに対する他のオブジェクトの行動)、スポーツ選手のプロフィール(オブジェクトの属性)が挙げられる。試合中のスポーツ選手ごとのイベントに関し、例えば、得点数、支配率、放送用カメラに映った回数などの数や歓声の大きさが大きいとスポーツ選手の重要度を高く設定し、その数や大きさが小さいとスポーツ選手の重要度を低く設定してもよい。スポーツ選手のプロフィールに関し、例えば、性別、国籍、過去勝率、人気度などにて注目度が高いとスポーツ選手の重要度を高く設定し、注目度が低いとスポーツ選手の重要度を低く設定してもよい。
また、オブジェクト情報に、対象となるオブジェクトの教師画像の枚数や、教師画像のバリエーションの度合い(分散)を導出した結果を含めてもよい。教師画像のバリエーションの度合いは、照明条件の種類数や撮像装置の撮像方向の数量に基づき導出される。例えば、様々な照明条件や撮像方向の教師画像の数が多いと分散は大きくなり、様々な照明条件や撮像方向の教師画像の数が少ないと分散は小さくなる。
オブジェクト情報は、複数の変数を要素に持つベクトルxとして表現できる。要素として、例えば、試合中のスポーツ選手ごとのイベント、スポーツ選手のプロフィール、対象となるオブジェクトの教師画像の枚数や、教師画像のバリエーションの度合いなどが挙げられる。このようにオブジェクト情報をベクトルxで表現できることから、変換関数をf、高解像度化レベルをyとすると、高解像度化レベルyは、演算式y=f(x)の導出結果で表せる。変換関数fは線形回帰式であり、その回帰係数は、ベクトルxの各要素の重要度に応じて、事前に決定される。なお、変換関数fは、線形回帰式に限定されず、一般の回帰式、または一般の関数でも構わない。
高解像度化レベル取得部402は、以上説明した高解像度化レベルを、オブジェクトごとに導出する。導出して得られた高解像度化レベルは、高解像度化レベル付与部403に出力される。
S503では、高解像度化レベル付与部403は、高解像度化レベル取得部402から入力された高解像度化レベルを、教師画像取得部401から入力された教師画像の各々のオブジェクトに対して付与する。高解像度化レベルをオブジェクトに対して付与するとき、ユーザは、後述の学習に充てることのできる制限時間を設定し、設定した制限時間を、操作装置104を介して画像処理装置102に入力しても良い。その場合、学習が制限時間以内(所定時間以内)に終了するよう、スケーリング処理などにより高解像度化レベルを再び導出し、再導出した高解像度化レベルを各々のオブジェクトに付与する。スケーリング処理例として、学習に要する時間が高解像度化レベルの2乗に比例する場合を考える。見積もられる学習に要する時間が制限時間のα倍である場合、高解像度化レベルを各々1/√α倍に補正する。各オブジェクトに付与された高解像度化レベルは、データセット作成部404に出力される。
S504では、データセット作成部404は、教師画像取得部401から入力された教師画像と高解像度化レベル付与部403から入力された高解像度化レベルに基づき、オブジェクトごとのデータセットを作成する(構築する)。具体的には、データセット作成部404は、教師画像を、入力画像相当の解像度に低解像度化した学習用の低解像度画像をオブジェクトごとに作成する。なお、入力画像相当の解像度がS504の処理を行う前に既知であり、データセット作成部404は、S504の処理を行う前に、入力画像相当の解像度に関する情報を予め取得する。次に、データセット作成部404は、作成した学習用の低解像度画像の基となる教師画像を、高解像度化レベルおよびルックアップテーブルに応じた、低解像度画像のr倍の解像度になるように低解像度化した学習用の高解像度画像をオブジェクトごとに作成する。なお、ルックアップテーブルは、高解像度化レベルと倍率rの関係を示すテーブルであって事前に定められる。続いて、データセット作成部404は、同じ教師画像を基に作成した学習用の低解像度画像と学習用の高解像度画像との組の集合としてデータセットをオブジェクトごとに作成する。
データセットDは、学習用の高解像度画像qと、学習用の低解像度画像pとの組の集合として、D={(p1,q1),(p2,q2),・・・,(pn,qn)}(nは自然数)という形式で表される。すなわち、データセット作成部404は、n個の教師画像から、学習用の高解像度画像qと学習用の低解像度画像pとをn組の集合としてデータセットを作成する。ただし、学習用の低解像度画像piおよび学習用の高解像度画像qiの「i」は、データセットの組み番号を示す。ここでは、例えば、高解像度化レベルが低レベル、中レベル、高レベルの3つあり、高解像度化レベルが低レベルであればr=2に、高解像度化レベルが中レベルであればr=4に、高解像度化レベルが高レベルであればr=8に設定される。なお、学習用の高解像度画像の解像度が教師画像の解像度と同じである場合には、教師画像の低解像度化を行わない。すなわち、学習用の高解像度画像の解像度としては、教師画像と同じ、または教師画像よりも低い解像度となる。得られたオブジェクトごとのデータセットは、学習部405に出力される。
S505では、学習部405は、受け取ったデータセットごとに、高解像度化レベルに応じて、低解像度画像を高解像度画像に変換する変換パラメータの学習を行い、オブジェクトの画像の解像度を変換する処理に係るパラメータを決定する。すなわち、高解像度化レベルが高ければ、学習部405は、受け取ったデータセットに含まれる全ての組のデータを用いて学習を行う。高解像度化レベルが中程度であければ、学習部405は、受け取ったデータセットに含まれる全ての組のデータから所定組数のデータを間引いた組数のデータを用いて学習を行う。高解像度化レベルが低ければ、学習部405は、受け取ったデータセットに含まれる全ての組のデータから、高解像度化レベルが中程度である場合と比べてさらに多くの組数のデータを間引いた組数のデータを用いて学習を行う。ここでは、公知の画像変換ニューラルネットワークを学習器として用いる。得られたオブジェクトごとの変換パラメータは、推論部(変換部)407に出力される。
S506では、入力画像取得部406は、撮像装置101、二次記憶装置304または外部記憶装置308から、オブジェクト領域を切り出した入力画像を取得する。次に、入力画像取得部406は、顔認識や位置推定に基づき、入力画像のオブジェクトに対応する選手を同定する。取得された入力画像は、推論部407に出力される。
S507では、推論部407は、学習部405から変換パラメータを、入力画像取得部406から入力画像をそれぞれ取得する。そして、推論部407は、取得した入力画像のオブジェクトと同じオブジェクトの変換パラメータに基づき、入力画像を変換して、変換結果の画像を得る推論を行う。推論には、学習部405で用いたものと同じニューラルネットワークを用いる。なお、S505とS507においては、SVM(Support Vector Machine)やランダムフォレストといった、別の学習器を用いても構わない。
推論部407は、得られた変換結果の画像であるオブジェクト高解像度化画像を例えば、表示装置103に出力する。なお、撮像画像201のオブジェクト領域に対応する入力画像(部分画像)201a〜201cをオブジェクト高解像度化画像に置き換えた画像を表示装置103に出力しても構わない。
<データセット作成部の処理詳細>
本実施形態では、高解像度化レベルに基づいてオブジェクトごとに倍率rを決定し、決定した倍率に基づいてデータセットを作成する例を示した。データセットの性質を決定づけるパラメータは、倍率以外にも存在する。それらのパラメータを、高解像度化レベルに基づいて決定し、決定したパラメータに基づいてデータセットを作成してもよい。その例を以下に3つ示す。
<部位特化型>
第1に、部位に特化した学習をどの程度行うかという度合いを、高解像度化レベルに基づいて決定してもよい。その処理の具体例を、図6に示す。図6は、データセット作成部による処理例を説明する図である。ただし、閾値θ2は、閾値θ1より大きいとする。
まず、高解像度化レベルyと閾値θ1、θ2との比較により、教師画像(オブジェクト画像)の分割度合いを3段階に分ける。高解像度化レベルyが小さい場合、すなわち、高解像度化レベルyが閾値θ1より小さい(y<θ1)場合には、オブジェクトの顔(頭部)および体全体を含むオブジェクトの全身画像601を学習部405に学習させる。高解像度化レベルyが中程度である場合、すなわち、高解像度化レベルyが閾値θ1より大きく閾値θ2より小さい(θ1<y<θ2)場合には、部位認識によりオブジェクト画像を次の部位に分割し、分割した部位それぞれ別個のデータセットを作成する。オブジェクト画像を部位に分割する対象としては、例えば、顔(頭部)に対応した顔画像602aと、顔以外の体全体に対応した体画像602bとが挙げられる。なお、顔画像602aと体画像602bとの重複領域は、顔画像602a及び体画像602bを重ね、上の画像をグラデーションで徐々に透明にして下の画像を見える様に合成してもよい。また、顔画像602aと体画像602bとの重複領域は、係数(α値)により合成してもよい。高解像度化レベルyが大きい場合、すなわち、高解像度化レベルyが閾値θ2より大きい(y>θ2)場合には、次の部位ごとのデータセットを作成する。部位ごとのデータセットとしては、例えば、右目に対応した右目画像603a、左目に対応した左目画像603b、口に対応した口画像603cを顔画像から切り出した、部位ごとのデータセットが挙げられる。
学習部405は、切り出された部位1か所ごとに、個別のニューラルネットワークを作成して学習を行う。推論部407は、対応する部位のニューラルネットワークを用いて、対応する部位画像の高解像度化を行った後、高解像度化した部位画像を統合して全身画像(全体画像)を再構築し、表示装置103に出力する。この処理により、分割度合いを大きくした場合、部位に特化した高精度な高解像度化が可能となる。一方で、分割度合いの大きさに応じて、演算コストも増大する。高解像度化レベルの高いオブジェクトは、高演算コストかつ高精度な高解像度化を行う。
なお、全身画像の部位画像への分割方法は図6に示した分割例に限定されるものではなく、例えば腕や脚といった部位で画像を分割しても構わない。また、上記の例では分割度合いを3段階に設定したが、段階数は任意の値でも良い。
<オブジェクト特化型>
第2に、特定のオブジェクトに特化した学習をどの程度行うかというオブジェクト特化度合いを、高解像度化レベルに基づいて決定してもよい。
まず、上記の部位特化型と同様の閾値処理により、高解像度化レベルに基づいて、各オブジェクトへの特化度合いを導出する。オブジェクト特化度合いは、特定のオブジェクト以外の数量、または特定のオブジェクトとの非類似性の大きさに比例して小さくなる値である。オブジェクト特化度合いが低いと、複数のオブジェクトをまとめて同一のニューラルネットワークに学習させることになる。オブジェクト特化度合いが高いと、特定のオブジェクトを1つのニューラルネットワークに学習させることになる。オブジェクト特化度合いが中程度であると、オブジェクト特化度合いが低い場合と比べて少なく、オブジェクト特化度合いが高い場合と比べて多い複数のオブジェクトをまとめて同一のニューラルネットワークに学習させることになる。
オブジェクト特化度合いが低い場合、スタジアムでスポーツ選手をオブジェクトとして撮像する例では、同一国籍の選手や同一チームの選手を1つのニューラルネットワークで学習させることで、精度は低下するものの合計の演算コストを低減できる。
具体的な処理例として、選手k1、k2、k3の高解像度化レベルが低く、かつ同じ国籍である場合を考える。3選手k1、k2、k3の教師画像を区別せずに混合し、データセットD{1,2,3}を作成する。例えば、データセットに含まれる選手k1の画像に関し、学習用の低解像度画像pk11、pk12、学習用の高解像度画像qK11、qK12があるとする。データセットに含まれる選手k2の画像に関し、学習用の低解像度画像pk21、pk22、学習用の高解像度画像qK21、qK22があるとする。データセットに含まれる選手k3の画像に関し、学習用の低解像度画像pk31、pk32、学習用の高解像度画像qK31、qK32があるとする。この場合、例えば、D{1,2,3}={(pk11,qk11),(pk21,qk21),(pk31,qk31),(pk12,qk12),(pk22,qk22),(pk32,qk32)}という形式で表される。このデータセット上で学習した変換パラメータに基づき、推論部407は3選手の入力画像を高解像度化する。
<環境特化型>
第3に、特定環境に特化した学習をどの程度行うかという度合いを、高解像度化レベルに基づいて決定してもよい。環境特化度合いは、前記特定の環境の種類数に比例して小さくなる値である。その具体的な処理を、試合中にスポーツ選手を撮像する場合を例に説明する。高解像度化レベルの高いスポーツ選手は、高解像度化を行いたい試合中に撮像して得た教師画像で学習を行う。これにより、入力画像と同じ照明条件の教師画像で学習を行えるため、画像の高精度な高解像度化が可能となる。一方、高解像度化レベルの低いスポーツ選手は、別の試合で撮像した画像やウェブから収集した画像を用いて、試合開始前に学習を行っておく。その後、試合中に撮像して得た教師画像を用い、少数回の追加学習を行う。これにより、画像の高解像度化の精度は低下するものの、試合開始後の学習時間を短縮できる。
なお、上記以外のデータセットを作成するためのパラメータを、高解像度化レベルに基づいて設定してもよい。
以上説明したように、本実施形態によれば、画像の高解像度化処理を行う場合に、特定のオブジェクトの画像の解像度をより向上することができる。また、重要度に応じて、オブジェクトについて高解像度化した画像を効率よく生成できる。すなわち、重要度に応じて、解像度を調整した画像を効率よく生成できる。
[実施形態2]
本実施形態では、表示装置に表示される高解像度化レベル設定用のUI画面例について説明する。
図7は、表示装置に表示される高解像度化レベル設定用のユーザインターフェース(UI)画面例を示す図である。UI画面701は、CPU301により表示装置103に表示される。ユーザが操作装置104を介して後述するスライダーやアローボタンを操作することにより、オブジェクトの高解像度化レベルは調節される。
UI画面701は、3つの窓部702a、702b、702c、各窓部702a、702b、702cに対応したスライドバー703a、703b、703c、キャンセルボタン706、OKボタン707を有する。3つの窓部702a、702b、702cは、レベルに対応して生成した解像度調整画像例、すなわち、高解像度化レベルの各クラスの代表的な画像例を表示する領域である。スライドバー703a、703b、703cは、高解像度化レベルを表示するものであって、窓部702a、702b、702cの右横にそれぞれ配置される。UI画面701は、高解像度化した画像の時刻を設定する時刻設定部708をさらに有する。ユーザが操作装置104を介してポインタ709を操作して時刻設定部708のアローボタンをクリックすることで、所望の時刻に設定される。図7では、時刻設定部708が12:00に設定された状態を示している。
続いて、画像処理装置102で行われる処理について、図4、図5および図7を参照して説明する。なお、S501、S502、S504〜S507は、実施形態1と同じであり、その説明を省略する。
S503では、高解像度化レベル付与部403は、取得および演算した各クラスの高解像度化レベルを、UI画面701に表示する。高解像度化レベルはスライダー704a〜704cの位置として可視化され、スライドバー703a、703b、703cにおいて、右側に移動するほど高解像度化レベルが高く、左側に移動するほど高解像度化レベルが低いことを示している。すなわち、UI画面701は、ユーザがレベルを調整するためのレベル調整画像を有する。加えて、窓部702a、702b、702cにも、高解像度化レベルを画像として可視化する。この画像は、その高解像度化レベルで学習と高解像度化を行った場合に、どの程度の解像度の結果が得られるかを予測したプレビュー画像である。プレビュー画像は、教師画像を低解像度化して作成される。なお、高解像度化レベルは、スライドバー703a〜703cでのスライダー704a〜704cの位置や窓部702a〜702cの画像としてではなく、数値として表示しても良い。
ユーザは、操作装置104を介してポインタ709を操作して、スライダー704を移動し、各クラスの高解像度化レベルを変更してもよい。このとき、画像処理装置102は、オブジェクト情報から導出された高解像度化レベルの上限値の情報を表示する。スライドバーが破線で示される部分705a、705cが、上限値を超える領域である。すなわち、UI画面701は、高解像度化レベル設定用の画面であって、高解像度化レベルに対応した範囲にて前記高解像度化レベルを調節可能に表示する。なお、上限値を境界線として表示する、上限値以上の領域を消去する、などの表示を行っても良い。ユーザが高解像度化レベルを上限以上の値に設定しようとした場合、画像処理装置は警告を行う。なお、上限を超える値への設定を禁止してもよい。スライダー704a、704b、704cの位置が変更されると、画像処理装置102は、変更後のスライダー704a、704b、704cの位置に応じて窓部702a、702b、702cのプレビュー画像を更新する。
高解像度化レベルの調節を終えた後、ユーザは操作装置104を介してポインタ709を操作してOKボタン(決定ボタン)707をクリックすることにより、調節結果である設定された高解像度化レベルが二次記憶装置または外部記憶装置などに保存される。または、ユーザは操作装置104を介してポインタ709を操作してCANCELボタン(取り消しボタン)706をクリックすることにより調節結果が破棄(キャンセル)される。調節結果を保存する際、学習に必要であると見積もられる時間が制限時間を超過している場合、画像処理装置102はスケーリング処理により高解像度化レベルを引き下げる。なお、どのクラスの高解像度化レベルを引き下げるかという選択肢をユーザに複数提示し、その選択をユーザに求めても良い。得られた高解像度化レベルは、各々のクラスに対して付与される。
また、ユーザの操作により高解像度化レベル設定用のUI画面701で調節された高解像度化レベルを記憶し、記憶した高解像度化レベルに基づいて変換関数fのパラメータを学習してもよい。
二次記憶装置304または外部記憶装置308は、ユーザが入力した高解像度化レベルy´と、高解像度化レベルが付与されるオブジェクトのオブジェクト情報のベクトルx´の組を複数記憶する。そして、高解像度化レベル取得部402は、二次記憶装置304または外部記憶装置308から、高解像度化レベルy´とオブジェクト情報のベクトルx´の組を複数取得し、演算式y´=f(x´)が成立するように、回帰式fの回帰係数を学習する。学習には、SVMやニューラルネットワークといった公知の学習器を用いる。学習の結果として得られた回帰式fを用いて、高解像度化レベルの導出を行う。
以上説明したように、本実施形態によれば、高解像度化レベルの導出にユーザの嗜好と意向を反映させることができ、より適切な高解像度化レベルの設定が可能となる。
[実施形態3]
本実施形態では、オブジェクトを複数の撮像装置で撮像して得られた画像(多視点画像)から、任意の仮想視点からオブジェクトを見たときに得られる画像(仮想視点画像)を再構成する、仮想視点画像再構成処理を行う例について説明する。
図8は、本実施形態に係る画像処理装置を備える撮像システム例を示す模式図である。図9(a)は入力画像例を示す図である。図9(b)は教師画像例を示す図である。なお、本実施形態では、実施形態1と同一の装置については同一符号を付記しその説明を省略する。撮像システム800は、入力画像901を取得するための複数台(図示例では6台)の撮像装置801と、教師画像902を取得するための複数台(図示例では3台)の撮像装置802とを有する。撮像システム800の各装置102、103、104、801、802は、データを互いに送受信可能に接続している。なお、ここでは、簡単のため、各撮像装置802の視野の共通領域の中心を表す注視点807がフィールド806の中心に設定されているとする。注視点807は、フィールド806の中心に限定されず、例えば、サッカー場であれば、ゴールエリア付近や、ペナルティエリア、コーナーエリア付近などの注目度の高いエリアに設定してもよい。
座標系808はカメラの位置などを特定するときに用いる座標系を示している。xy平面上の矩形領域である被撮影領域としてのフィールド806が、本実施形態において画像処理の対象である範囲となる。撮像装置801による撮像画像データ、撮像装置802による撮像画像データはそれぞれ、画像処理装置102に送られ、所定の画像処理が施される。
複数台の撮像装置801は、焦点距離を調整可能でオブジェクトを撮像するカメラであって、スタジアムのフィールド806にいる3人のスポーツ選手805a、805b、805cを撮像する。複数台の撮像装置801は、オブジェクトを撮像して得た画像901から高解像度化の対象である入力画像(部分画像)901a〜901cを取得する。入力画像901a〜901cは、スポーツ選手805a〜805cそれぞれに対応したオブジェクト領域を画像から切り出した画像である。また、複数台の撮像装置802も、焦点距離を調整可能でオブジェクトを撮像するカメラであって、スタジアムのフィールド806にいる3人のスポーツ選手(オブジェクト)805a、805b、805cを撮像する。複数台の撮像装置802は、スポーツ選手805a〜805cを撮像して得た、画像901と比べて高解像度の画像902から教師画像902a〜902cを取得する。教師画像902a〜902cは、スポーツ選手805a、805b、805cそれぞれに対応したオブジェクト領域を画像902から切り出した画像である。
画像処理装置102は、入力画像を高解像度化し、複数視点の撮像画像と高解像度化結果画像に基づいて仮想視点画像の再構成を行う。本実施形態では、仮想視点の情報や、複数の撮像装置それぞれの位置情報を用い、より適切に高解像度化レベルの設定を行う。
<画像処理装置の構成と処理の流れ>
以下、本実施形態の画像処理装置102で行われる仮想視点画像の再構成処理について、図10および図11を参照して説明する。図10は、本実施形態の画像処理装置102の機能構成例を示すブロック図である。図11は、本実施形態の画像処理装置102による仮想視点画像の再構成処理の手順例を示すフローチャートである。本実施形態の画像処理装置102は、ROM303に格納されたプログラムをCPU301がRAM302をワークメモリとして実行することで、図10に示す各部として機能し、図11のフローチャートに示す一連の処理を実行する。なお、以下に示す処理の全てがCPU301によって実行される必要はなく、処理の一部または全部が、CPU301以外の一つ又は複数の処理回路によって行われるように画像処理装置102が構成されてもよい。以下、各部により行われる処理の流れを説明する。
図11のS1101の処理は、実施形態1におけるS501の処理と同様である。
S1102では、高解像度化レベル取得部402は、各撮像装置802のカメラ情報を取得する。カメラ情報には、カメラの設置位置、注視点位置、焦点距離といった情報が含まれる。このカメラ情報は、予め二次記憶装置304または外部記憶装置308に記憶しておいたものを読み出して取得してもよいし、各撮像装置802にアクセスして取得してもよい。そして、高解像度化レベル取得部402は、取得した各撮像装置802のカメラ情報に基づき、オブジェクトと注視点との距離を公知の演算式で導出し、導出した距離をベクトルxの要素としてオブジェクト情報に含ませる。
注視点付近のイベントやオブジェクトは、ユーザからの関心を集めやすいと考えられる。従って、注視点からの距離の近いオブジェクトの高解像度化レベルが高くなるように、変換関数fを設定する。
なお、高解像度化レベル取得部402は、仮想カメラのパラメータ(仮想視点のパラメータ)を取得してもよい。仮想カメラのパラメータには、仮想カメラの位置、仮想カメラの撮像方向、焦点距離といったパラメータが含まれる。仮想カメラのパラメータは、予め二次記憶装置304または外部記憶装置308に記憶されたものでもよいし、ユーザにより撮像システム800の画像処理装置102の操作装置104を介して設定されたものでもよい。なお、仮想視点は、時間に応じて異なる位置に存在したり、空間に複数存在したりしてもよい。
仮想視点とオブジェクトとの距離、仮想視点の画像上でのオブジェクト位置、仮想視点の画像上でのオブジェクトと画像中央との距離、仮想視点からオブジェクトが観測される頻度、仮想視点からオブジェクトの前面が観測される頻度、などを導出する。これらの情報のうち少なくとも1つをオブジェクト情報のベクトルxに要素として追加し、得られたオブジェクト情報のベクトルxに基づいて高解像度化レベルを導出する。
仮想視点からの距離が近いオブジェクトや、仮想視点から見えている頻度の高いオブジェクトは、高解像度化の重要度が高いと考えられる。逆に、仮想視点画像上で端部に映っているオブジェクトや、背面しか見えていないオブジェクトは、高解像度化の重要度が低いと考えられる。その重要度を高解像度化レベルに反映させるため、仮想視点の情報に基づいてオブジェクト情報のベクトルxを演算する。
S1103〜S1107の各処理は、実施形態1におけるS503〜S507の各処理と同様である。
S1108では、仮想視点画像再構成部1008は、S1107で得られたオブジェクト高解像度化画像と、仮想カメラのパラメータ(仮想視点のパラメータ)に基づいて仮想視点画像を再構成する。なお、仮想カメラのパラメータは、予め二次記憶装置304または外部記憶装置308に記憶しておいたものを読み出して取得してもよいし、ユーザにより撮像システム800の画像処理装置102の操作装置104を介して設定されたものを取得してもよい。そして、仮想視点画像再構成部1008は、再構成した仮想視点画像を例えば、表示装置103に出力する。
以上説明したように、本実施形態によれば、オブジェクトの重要度をより適切に反映した高解像度化レベルの設定が可能となる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
402 高解像度化レベル取得部
403 高解像度化レベル付与部
405 学習部
406 入力画像取得部
407 推論部

Claims (21)

  1. オブジェクトを撮像することで得られる撮像画像を取得する第1取得手段と、
    前記オブジェクトに関する教師画像データのデータセットであって、前記オブジェクトの重要度を示すオブジェクト情報に基づいて決まるデータセットを用いた学習により、前記オブジェクトの画像の解像度を変換する処理に係るパラメータを決定する決定手段と、
    前記決定手段により決定した前記パラメータに基づいて、前記撮像画像の解像度を変換する変換手段と
    を有することを特徴とする画像処理装置。
  2. 前記オブジェクト情報に基づいて、前記オブジェクトの画像についての解像度の変換に関するレベルを取得する第2取得手段を有し、
    前記決定手段は、前記レベルに応じた学習により前記パラメータを決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2取得手段は、前記教師画像データおよび前記オブジェクト情報に基づいて導出された前記レベルを取得する
    ことを特徴とする、請求項2に記載の画像処理装置。
  4. 前記第2取得手段は、ユーザにより入力された前記レベルを取得する
    ことを特徴とする、請求項2に記載の画像処理装置。
  5. 前記第2取得手段は、前記決定手段による前記パラメータの決定のための学習が所定時間以内に終了するように前記レベルを再導出し、再導出した前記レベルを前記教師画像データの前記オブジェクトに付与する
    ことを特徴とする、請求項2から4の何れか一項に記載の画像処理装置。
  6. 前記教師画像データを取得する第3取得手段をさらに有する
    ことを特徴とする、請求項1から5の何れか一項に記載の画像処理装置。
  7. 前記オブジェクト情報は、前記オブジェクトの属性、前記オブジェクトの行動、前記オブジェクトに対する他のオブジェクトの行動、前記データセットの性質のうち少なくとも1つを含む
    ことを特徴とする、請求項1から6の何れか一項に記載の画像処理装置。
  8. 前記レベルおよび前記教師画像データに基づいて、データセットを作成する作成手段を有し、
    前記決定手段は、前記レベルに応じた前記データセットに基づいて、前記パラメータを決定するための学習を行う
    ことを特徴とする、請求項1から6の何れか一項に記載の画像処理装置。
  9. 前記作成手段は、前記レベルに基づいて、前記撮像画像のデータと前記教師画像データとの解像度の倍率を決定する
    ことを特徴とする、請求項8に記載の画像処理装置。
  10. 前記作成手段は、前記レベルに基づいて、画像データの分割度合いを決定し、決定した分割度合いに応じて前記教師画像データと前記撮像画像のデータを部位ごとに分割した前記データセットを作成する
    ことを特徴とする、請求項8または9に記載の画像処理装置。
  11. 前記作成手段は、前記レベルに基づいて、特定のオブジェクトに特化したオブジェクト特化度合いを決定し、決定したオブジェクト特化度合いに応じて、前記特定のオブジェクトに対応する前記教師画像データに基づいた前記データセットを作成する
    ことを特徴とする、請求項8から10の何れか一項に記載の画像処理装置。
  12. 前記オブジェクト特化度合いは、前記特定のオブジェクト以外の数量、または前記特定のオブジェクトとの非類似性の大きさに比例して小さくなる値である
    ことを特徴とする、請求項11に記載の画像処理装置。
  13. 前記作成手段は、前記レベルに基づいて、特定の環境に特化した環境特化度合いを決定し、決定した環境特化度合いに応じて、前記特定の環境に対応する前記教師画像データに基づいた前記データセットを作成する
    ことを特徴とする、請求項8から12の何れか一項に記載の画像処理装置。
  14. 前記環境特化度合いは、前記特定の環境の種類数に比例して小さくなる値である
    ことを特徴とする、請求項13に記載の画像処理装置。
  15. ユーザに情報を提示する表示手段を有し、
    前記表示手段は、前記レベルに対応して生成した解像度調整画像が表示される領域を有するUI画面を表示する
    ことを特徴とする、請求項1から14の何れか一項に記載の画像処理装置。
  16. 前記表示手段は、ユーザにより前記レベルを調整するためのレベル調整画像を有する前記UI画面を表示する
    ことを特徴とする、請求項15に記載の画像処理装置。
  17. 前記レベル調整画像は、前記レベルに対応しない範囲が前記UI画面に表示されず、前記レベルに対応する範囲にて、前記レベルを調整可能である
    ことを特徴とする、請求項16に記載の画像処理装置。
  18. 前記解像度調整画像は、前記レベル調整画像で調整した前記レベルに対応して生成される
    ことを特徴とする、請求項16または17に記載の画像処理装置。
  19. 前記変換手段によって変換された前記撮像画像と前記オブジェクト情報に基づいて、仮想視点から見た画像を再構成する再構成手段をさらに有し、
    前記オブジェクト情報は、前記仮想視点と前記オブジェクトとの距離、前記仮想視点の画像上での前記オブジェクトの位置、前記仮想視点から前記オブジェクトが観測される頻度、前記仮想視点から前記オブジェクトの前面が観測される頻度のうち少なくとも1つを含む
    ことを特徴とする、請求項1から18の何れか一項に記載の画像処理装置。
  20. オブジェクトを撮像した撮像画像のデータを取得する第1取得工程と、
    前記オブジェクトに関する教師画像データのデータセットであって、前記オブジェクトの重要度を示すオブジェクト情報に基づいて決まるデータセットを用いた学習により、前記オブジェクトの画像の解像度を変換する処理に係るパラメータを決定する決定工程と、
    前記決定工程で決定した前記パラメータに基づいて、前記撮像画像の解像度を変換する変換工程と
    を有することを特徴する画像処理方法。
  21. コンピュータを、請求項1から19の何れか一項に記載の画像処理装置として機能させるためのプログラム。
JP2018239861A 2018-12-21 2018-12-21 画像処理装置、画像処理方法およびプログラム Active JP7278766B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018239861A JP7278766B2 (ja) 2018-12-21 2018-12-21 画像処理装置、画像処理方法およびプログラム
US16/710,753 US11200643B2 (en) 2018-12-21 2019-12-11 Image processing apparatus, image processing method and storage medium for enhancing resolution of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018239861A JP7278766B2 (ja) 2018-12-21 2018-12-21 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020102012A true JP2020102012A (ja) 2020-07-02
JP7278766B2 JP7278766B2 (ja) 2023-05-22

Family

ID=71098878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018239861A Active JP7278766B2 (ja) 2018-12-21 2018-12-21 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11200643B2 (ja)
JP (1) JP7278766B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240651A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2023166852A1 (ja) * 2022-03-01 2023-09-07 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7508265B2 (ja) 2020-05-14 2024-07-01 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2022002376A (ja) 2020-06-22 2022-01-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2022025694A (ja) * 2020-07-29 2022-02-10 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および画像送受信システム
US11477426B2 (en) * 2020-10-26 2022-10-18 Avaya Management L.P. Selective image broadcasting in a video conference
US11308359B1 (en) * 2021-10-27 2022-04-19 Deeping Source Inc. Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same
CN114900731B (zh) * 2022-03-31 2024-04-09 咪咕文化科技有限公司 视频清晰度切换方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273328A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
WO2013089265A1 (ja) * 2011-12-12 2013-06-20 日本電気株式会社 辞書作成装置、画像処理装置、画像処理システム、辞書作成方法、画像処理方法及びプログラム
JP2018504813A (ja) * 2014-12-13 2018-02-15 フォックス スポーツ プロダクションズ,インコーポレイティッド 放送においてサーモグラフィー特性を表示するためのシステム及び方法
WO2018101080A1 (ja) * 2016-11-30 2018-06-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法及び三次元モデル配信装置
JP2018097731A (ja) * 2016-12-15 2018-06-21 株式会社Fuji 画像処理システム及び画像処理方法
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018195069A (ja) * 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
JP5178662B2 (ja) * 2009-07-31 2013-04-10 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
JP6155785B2 (ja) * 2013-04-15 2017-07-05 オムロン株式会社 画像処理装置、画像処理装置の制御方法、画像処理プログラムおよびその記録媒体
JP6794197B2 (ja) 2016-09-12 2020-12-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11250329B2 (en) * 2017-10-26 2022-02-15 Nvidia Corporation Progressive modification of generative adversarial neural networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273328A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
WO2013089265A1 (ja) * 2011-12-12 2013-06-20 日本電気株式会社 辞書作成装置、画像処理装置、画像処理システム、辞書作成方法、画像処理方法及びプログラム
JP2018504813A (ja) * 2014-12-13 2018-02-15 フォックス スポーツ プロダクションズ,インコーポレイティッド 放送においてサーモグラフィー特性を表示するためのシステム及び方法
WO2018101080A1 (ja) * 2016-11-30 2018-06-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法及び三次元モデル配信装置
JP2018097731A (ja) * 2016-12-15 2018-06-21 株式会社Fuji 画像処理システム及び画像処理方法
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018195069A (ja) * 2017-05-17 2018-12-06 キヤノン株式会社 画像処理装置および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
スハイル ハムダン、外3名: "顔部品の位置を考慮した学習型顔画像超解像", 電気学会研究会資料 知覚情報・次世代産業システム合同研究会, JPN6022049462, 1 September 2017 (2017-09-01), pages 21 - 26, ISSN: 0004925215 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240651A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2023166852A1 (ja) * 2022-03-01 2023-09-07 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Also Published As

Publication number Publication date
US20200202496A1 (en) 2020-06-25
US11200643B2 (en) 2021-12-14
JP7278766B2 (ja) 2023-05-22

Similar Documents

Publication Publication Date Title
JP7278766B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11747898B2 (en) Method and apparatus with gaze estimation
US11106920B2 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
CN109891189B (zh) 策划的摄影测量
EP3105921B1 (en) Photo composition and position guidance in an imaging device
CN112492388B (zh) 视频处理方法、装置、设备以及存储介质
US9330334B2 (en) Iterative saliency map estimation
US9491366B2 (en) Electronic device and image composition method thereof
US10019823B2 (en) Combined composition and change-based models for image cropping
WO2013145654A1 (en) Information processing method to calculate a similarity between a posture model and posture data
DE112018007721T5 (de) Aufnehmen und modifizieren von 3D-Gesichtern unter Verwendung neuronaler Bild-und Zeitverfolgungsnetze
US10101891B1 (en) Computer-assisted image cropping
JP7032913B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
US9432583B2 (en) Method of providing an adjusted digital image representation of a view, and an apparatus
DE102020007191A1 (de) Maschinelles Lernen zur Digitalbildauswahl unter Objektvarianten
DE102016109891A1 (de) Datenbrowsevorrichtung, Datenbrowseverfahren, Programm und Speichermedium
US10162997B2 (en) Electronic device, computer readable storage medium and face image display method
US20160283793A1 (en) Presenting varying profile detail levels for individuals recognized in video streams
EP3151243B1 (en) Accessing a video segment
JPWO2020194378A1 (ja) 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
JP7385416B2 (ja) 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
US11915480B2 (en) Image processing apparatus and image processing method
Laco et al. Depth in the visual attention modelling from the egocentric perspective of view
US20190378262A1 (en) Image evaluation apparatus, image evaluation method, and image evaluation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R151 Written notification of patent or utility model registration

Ref document number: 7278766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151