JP4469018B2 - 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法 - Google Patents

画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法 Download PDF

Info

Publication number
JP4469018B2
JP4469018B2 JP2009523521A JP2009523521A JP4469018B2 JP 4469018 B2 JP4469018 B2 JP 4469018B2 JP 2009523521 A JP2009523521 A JP 2009523521A JP 2009523521 A JP2009523521 A JP 2009523521A JP 4469018 B2 JP4469018 B2 JP 4469018B2
Authority
JP
Japan
Prior art keywords
image
moving image
moving
resolution
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009523521A
Other languages
English (en)
Other versions
JPWO2009011082A1 (ja
Inventor
一生 登
健夫 吾妻
秀人 本村
太郎 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4469018B2 publication Critical patent/JP4469018B2/ja
Publication of JPWO2009011082A1 publication Critical patent/JPWO2009011082A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本発明は、動画像の画像処理に関する。より具体的には、撮影された動画像の解像度およびフレームレートの少なくとも一方を画像処理によって高くしたカラーの動画像を生成する技術に関する。
近年、画像撮像機器の分野では、デジタルビデオカメラやデジタルスチルカメラの高画質化や多機能化が急速に進んでいる。これら画像撮像機器で得られる動画像の画質に関わる主な指標として、1フレームあたりの画素数(解像度)、1秒あたりのフレーム数(フレームレート)、および、雑音に対する画像信号の比率(SN比)がある。
解像度は、画像撮像機器に必要とされる画質に応じて多岐にわたって使い分けられている。たとえばTV電話の解像度はQCIF(Quarter Common Intermediate Format)程度の画素数であり、デジタル一眼レフカメラの解像度は1000万画素を超えている。フレームレートもまた多岐にわたっており、デジタルスチルカメラの連写機能では毎秒数フレーム、ビデオカメラでは毎秒30フレーム、特殊な高速撮影カメラでは毎秒1000フレームを越える場合がある。
しかしながら、画像撮像機器で広く用いられている撮像素子(例えばCCDやCMOSイメージセンサ)は、画素データの読み出し速度を向上することが困難であり、一定の上限値があるという特徴を持つ。画素データの読み出し速度の上限値は、動画像の解像度とフレームレートの積の上限値を規定する。そのため、高解像度と高フレームレートとを同時に満たす動画像の撮像は困難であった。
そこで、動画像の信号処理によって高解像度かつ高フレームレートの動画像を生成する方式が提案されている。たとえば特許文献1は、2つの撮像手段を用いて、解像度とフレームレートの組み合わせが異なる2つの動画像を撮影し、信号処理によって高解像度かつ高フレームレートの動画像を生成することを可能としている。
図20は、特許文献1に記載された従来の撮像装置の構成を示す。撮像装置のレンズ1001を透過した光は、その一部がハーフミラー1004を透過し、シャッター1006を経てフィルム1002に入射する。その結果、フィルム1002には、解像度は高いがフレームレート(撮影間隔)が低い動画像が記録(撮影)される。一方、レンズ1001を透過した光の一部はハーフミラー1004で反射されてレンズ1005に入り、CCD1005によって受光される。その結果、解像度は低いがフレームレートは高い動画像が撮影され、記録媒体(図示せず)に記録される。
撮像装置は、フィルム1002で撮影された画像とCCD1005で撮影された画像のエッジの対応関係を求め、この対応関係に基づいてCCD1005で撮影されているが、フィルム1002では撮影されていないタイミングの画像を生成する。これにより、撮像装置は高解像度かつ高フレームレートの画像を生成している。
このような2つの撮像手段を用いた従来の撮像装置は、一方の撮像手段(フィルム1002)を利用して高解像度低フレームレートの動画像を記録し、もう一方の撮像手段(CCD1003)を利用して低解像度高フレームレートの動画像を撮影し記録する。そのため、仮に読み出し速度に上限値がある2つの撮像素子を用いる場合でも、2つの撮像素子の上限値の和を超える高解像度かつ高フレームレートの動画像を生成することができる。
なお、一般的に画像の解像度が高いとは、撮影範囲が同じ画像において、画像に含まれる空間周波数成分がより高い成分を含むことをいう。また、ある画像を高解像度化する(解像度を高める)とは、より高い空間周波数成分を含むように当該画像を処理することである。画像の解像度が高いこと、すなわち、高い空間周波数成分を含むことと、画像の画素数が多いこととは厳密には一致しない。つまり、画素数が多い画像はより高い空間周波数成分を含むことはできるが、必ずしも高い空間周波数成分を含んでいるとは限らない。よって画像の画素数が多いことと解像度が高いことは同義ではない。ただし、本明細書においては説明を簡潔にするため、特に説明しない限り、画素数がより多い画像は解像度がより高いものとして説明する。
特許第3531035号公報
しかしながら、2つの撮像手段を用いる上述の撮像装置では、入射した光はハーフミラー1004で2つに分割されるため、フィルム1002とCCD1003とにそれぞれ入射する光はもとの入射光に対して半減する、という課題を有していた。これは言い換えると、画像の輝度が低下して画像が暗くなり、雑音に対する画像信号の比率(SN比)が低下することを意味する。
本発明は上述の課題を解決するものであって、その目的は、ハーフミラーによる光量の半減に起因するSN比の低下をなくし、高解像度、高フレームレートかつSN比が高い動画像を生成可能な画像処理装置および方法を提供することである。
本発明による画像処理装置は、第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成する画像処理装置であって、前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、前記第1動画像のデータおよび前記第2動画像のデータに基づいて、前記第1動画像を構成する画像を変化させた合成画像を生成し、前記第1動画像および前記合成画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力する第1の画像合成部と、前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成する第2の画像合成部とを備えている。
前記第1の画像合成部は、前記第2動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成する動き推定部と、前記動き情報および前記第1動画像のデータに基づいて前記合成画像を生成する動き補償部とを有していてもよい。
前記動き補償部は、前記第1動画像を構成する画像を前記動き情報に基づいて変化させて前記合成画像を生成してもよい。
前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、さらに前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、前記動き推定部は、前記第2動画像の中間フレーム画像およびベースフレーム画像の画像間の変化に基づいて動き情報を生成し、前記動き補償部は、前記第1動画像のベースフレーム画像を前記動き情報に基づいて変化させることによって、前記第2動画像の中間フレームに対応する合成画像を生成してもよい。
前記動き推定部は、前記第2動画像の中間フレーム画像、および、前記中間フレーム画像よりも時間的に前に撮影されたベースフレーム画像の画像間の変化に基づいて動き情報を生成してもよい。
前記動き推定部は、前記第2動画像の中間フレーム画像、および、前記中間フレーム画像よりも時間的に後に撮影されたベースフレーム画像の画像間の変化に基づいて動き情報を生成してもよい。
前記動き推定部は、前記第2動画像の中間フレーム画像U、および、前記中間フレーム画像よりも時間的に前に撮影されたベースフレーム画像Sの画像間の変化に基づいて動き情報Sを生成し、かつ、前記第2動画像の中間フレーム画像U、および、前記中間フレーム画像よりも時間的に後に撮影されたベースフレーム画像Tの画像間の変化に基づいて動き情報Tを生成し、前記動き補償部は、前記第2動画像のベースフレーム画像Sに対応する前記第1動画像のベースフレーム画像Sを、前記動き情報Sに基づいて変化させ、かつ、前記第2動画像のベースフレーム画像Tに対応する前記第1動画像のベースフレーム画像Tを、前記動き情報Tに基づいて変化させて、前記第2動画像の中間フレームUに対応する合成画像を生成してもよい。
前記動き推定部は、前記少なくとも2枚の画像の各々に対して複数の領域を設定して、各領域内の画像の変化に基づいて前記各領域に対する動き情報を生成し、前記動き補償部は、前記第1動画像を構成する画像に対して複数の領域を設定し、各領域を前記動き情報に基づいて変化させて1枚の合成画像を生成してもよい。
前記動き補償部は、前記第1動画像および前記第2動画像の時間相関を評価値として用いることにより、前記第1動画像のデータ、前記第2動画像のデータおよび前記動き情報に基づいて、任意のタイミングの前記第1動画像に対応する合成画像を生成してもよい。
前記動き補償部は、前記合成動画像および前記第2動画像の時間相関を評価値として用いることにより、前記合成動画像に含まれる前記合成画像の画素値を修正してもよい。
前記第1動画像に対応する合成動画像のデータおよび前記第2動画像のデータを受け取り、前記合成動画像を構成する画像の情報に基づいて、第2動画像を高解像度化して、第2動画像に対応する合成動画像を生成する高解像度化部をさらに備え、前記合成部は、前記第2動画像に代えて前記第2動画像に対応する合成動画像を受け取り、前記第1動画像に対応する合成動画像と合成して、前記多色動画像を生成してもよい。
前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像および前記第2動画像の空間相関を評価値として用いてもよい。
前記動き推定部は、前記第1動画像のデータおよび第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像と、前記第1動画像のベースフレーム画像を用いて第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像とを生成し、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて前記動き情報を生成し、前記第2動画像の動き情報として出力してもよい。
前記動き推定部は、前記第1動画像の画像および前記第2動画像の画像間の空間相関に基づいて、第2動画像の解像度を変換した変換動画像を生成してもよい。
前記画像処理装置は、さらに第3動画像のデータに基づいて多色動画像のデータを生成することが可能であり、前記第3動画像は、前記第1フレームレートよりも高い第3フレームレートで、前記第1色成分および前記第2色成分と異なる第3色成分の複数の画像を有しており、かつ、前記第3動画像の解像度は、前記第1動画像の解像度以下であり、前記動き推定部は、さらに第3動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成し、前記動き補償部は、前記第2動画像に関する動き情報、前記第3動画像に関する動き情報および前記第1動画像のデータに基づいて、前記第1動画像に対応する合成動画像を生成し、前記合成部は、前記合成動画像、前記第2動画像および前記第3動画像を受け取って合成し、前記第1色成分、前記第2色成分および前記第3色成分を含む多色動画像を生成してもよい。
前記第2の動画像および前記第3の動画像は、画素の空間配置が異なっていてもよい。
前記第1色成分は緑であってもよい。
前記画像処理装置は、受けた光を少なくとも第1色成分および第2色成分に分離する色分離部と、分離された前記第1色成分の光および前記第2色成分の光に基づいて、前記第1動画像および前記第2動画像を撮影する撮像部とをさらに備え、前記撮像部は、前記第2動画像の解像度以上の解像度で前記第1動画像を撮影するとともに、前記第2動画像のフレームレート未満のフレームレートで前記第1動画像を撮影してもよい。
前記撮像部は、撮影された動画像に応じて複数の色成分の動画像の解像度とフレームレートを制御してもよい。
本発明による画像処理方法は、第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成する画像処理方法であって、前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、前記第1動画像のデータおよび前記第2動画像のデータに基づいて、前記第1動画像を構成する画像を変化させた合成画像を生成し、前記第1動画像および前記合成画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップと、前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成するステップとを包含する。
本発明によるコンピュータプログラムは、画像処理装置に設けられたプロセッサに、第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成させるコンピュータプログラムであって、前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、前記コンピュータプログラムは、前記プロセッサに、前記第1動画像のデータおよび前記第2動画像のデータに基づいて、前記第1動画像を構成する画像を変化させた合成画像を生成し、前記第1動画像および前記合成画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップと、前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成するステップとを実行させる。
前記コンピュータプログラムは記録媒体に記録されてもよい。
前記動き推定部は、前記第2動画像を構成する画像と前記第3動画像を構成する画像とを、画素の空間配置を加味して重み付き加算することにより混合動画像を生成し、生成した前記混合動画像を構成する少なくとも2枚の画像間の変化に基づいて前記動き情報を生成してもよい。
前記動き推定部は、前記第2動画像を構成する画像と前記第3動画像を構成する画像とを、画素の空間配置を加味して重み付き加算することにより混合動画像を生成し、さらに、前記第1動画像のベースフレーム画像を用いて前記混合動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像と、前記第1動画像のベースフレーム画像を用いて前記混合動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像とを生成し、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の変化に基づいて前記動き情報を生成してもよい。
前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像に含まれる高域成分を前記第2動画像に加えてもよい。
前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、前記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像と第2動画像に対応する合成画像との間の相関を強くしてもよい。
前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像を構成する画像および前記第2動画像を構成する画像との相関の度合いに応じて、前記第1動画像に対応する合成動画像の画像と前記第2動画像に対応する合成動画像の画像との相関の度合いを変えてもよい。
前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、前記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像を構成する画像および前記第2動画像を構成する画像との相関が弱い領域は、前記第2動画像の画像を補間拡大することで第2動画像に対応する合成動画像の画像を生成してもよい。
本発明による動き算出方法は、第1動画像のデータおよび第2動画像のデータに基づいて前記第1動画像および前記第2動画像を構成するフレーム間の動きを算出する。前記第1動画像は、第1フレームレートで複数の画像を有しており、前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで複数の画像を有しており、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、前記動き算出方法は、前記第1動画像のデータおよび前記第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像を生成するステップと、前記第1動画像のベースフレーム画像を用いて前記第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像を生成するステップと、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて動き情報を生成するステップとを包含する。
前記第1動画像は、第1色成分の複数の画像を有しており、前記第2動画像は、前記第1色成分と異なる第2色成分の複数の画像を有していてもよい。
本発明による画像処理方法は、第1動画像のデータおよび第2動画像のデータに基づいて合成動画像のデータを生成する画像処理方法であって、前記第1動画像は、第1フレームレートで複数の画像を有しており、前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで複数の画像を有しており、前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、前記画像処理方法は、前記第1動画像のデータおよび第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像を生成するステップと、前記第1動画像のベースフレーム画像を用いて第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像を生成するステップと、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて動き情報を生成するステップと、前記第1動画像のデータおよび前記第2動画像のデータと前記動き情報とに基づいて、前記第1動画像を構成する画像を変化させた合成画像を生成し、前記第1動画像および前記合成画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップとを包含する。
本発明の多色画像処理装置によれば、解像度とフレームレートが異なる複数の色成分の動画像から、解像度とフレームレートがともに高い多色動画像を生成することが可能になる。
実施形態1による多色画像処理装置1の構成を示す図である。 撮像部101から出力される3つの色成分の動画像の例を示す図である。 中間フレーム画像中の矩形小領域に対応する、ベースフレーム画像中の領域を探索する処理の概念を示す図である。 動き補償部109が緑の合成動画像GHHを生成する処理の概念を示す図である。 動き推定部108が緑の合成動画像を生成する処理の手順を示すフローチャートである。 画像処理部106の各部の動作によって生成された合成動画像と多色動画像の例を示す図である。 実施形態2による多色画像処理装置2の構成を示す図である。 (a)は、赤および青の動画像RLH、BLHと緑の合成動画像GHH、および、赤と青の合成動画像RHH、BHHの同じフレーム(タイミング)の画像における、画素の配置を示す図であり、(b)は、各動画像をなす画素の拡大図であり、(c)は、図8(b)に示す赤および青の各動画像の画素に対応する、高解像度化された画素群を示す図である。 画像処理部106の各部の動作によって生成される合成動画像と多色動画像の例を示す図である。 実施形態3による多色画像処理装置3の構成を示す図である。 動き補償部109が赤の合成動画像RHHを生成する処理の概念を示す図である。 実施形態4による多色画像処理装置4の構成を示す図である。 画素位置がずれた第2および第3の色成分の画像の例を示す図である。 コンピュータによって構成された多色画像処理装置のハードウェア構成を示す図である。 画素位置がずれた第2および第3の色成分の画像から生成される混合画像の例を示す図である。 実施形態5の動き推定部108が動き情報を算出する処理の概念を示す図である。 実施形態2による多色画像処理装置2の効果を示す実験結果の例を示す図である。 実施形態3による多色画像処理装置3で生成した多色動画像のPSNRに関する実験結果の例を示す図である。 実施形態3による多色画像処理装置3で生成した動き情報Vに関する実験結果の例を示す図である。 従来の撮像装置の構成を示す図である。
以下、添付の図面を参照して、本発明による多色画像処理装置の実施形態を説明する。以下の実施形態においては、多色画像処理装置は、例えば8000画素×4000画素程度の高解像度、30フレーム/秒程度の高フレームレートかつSN比の高い動画像を生成することを目的とする。
(実施形態1)
図1は、本実施形態による多色画像処理装置1の構成を示す。
多色画像処理装置1は、撮像部101と、画像処理部106とを有している。撮像部101は、2つ以上の色成分からなる動画像を撮影して出力する。一方、画像処理部106は、撮像部101で撮影された複数の色成分からなる動画像のデータを受け取り、高解像度かつ高フレームレートの多色動画像を生成する。
以下、撮像部101および画像処理部106の各々を詳細に説明する。
撮像部101は、レンズ系102と、色成分分離部103と、3つの撮像素子104a〜104cと、撮像制御部105とを備えている。以下の説明では、3つの撮像素子104a〜104cを総称する場合には、「撮像素子104」と記述する。
レンズ系102は、光学的な被写体の像を撮像素子104上に結像させる。
色成分分離部103は、レンズ102を通った光を、赤(R)、緑(G)、青(B)の3つの色成分に分離する。分離された各色成分の光は、図1上で赤は上、緑は右、青は下へそれぞれ透過する。本実施形態においては、色成分分離部103は、たとえばダイクロイックプリズムである。
撮像素子104a〜104cは、色成分分離部103によって分離された3つの色成分の画像をそれぞれ撮影する。具体的には、撮像素子104aは赤の色成分の画像を、撮像素子104bは緑の色成分の画像を、撮像素子104cは青の色成分の画像をそれぞれ撮影する。撮像素子104a〜104cは、たとえばCCDである。
撮像制御部105は、あらかじめ定められたタイミングに従って撮像素子104a〜104cに対して露光時間および読み出しを制御する信号を与え、撮像素子104a〜104cからそれぞれの色成分の画像を読み出す。画像は、アナログ信号として読み出される。撮像制御部105は、そのアナログ信号の画像をデジタル化して、3つの色成分の動画像データとして出力する。各色成分の動画像データは、後述する記憶部107に記憶される。なお、撮像素子104a〜104cの各々にA/D変換器を設け、撮像素子104a〜104cからデジタル信号が出力されるとしてもよい。このとき撮像制御部105は、そのデジタル信号を受け取ってそのまま出力し、または、必要な信号処理を行って出力する。
撮像部101から出力される各色成分の動画像データは、その全てが同じ解像度および同じフレームレートではない。ある2つの色成分の動画像を第1の動画像および第2の動画像とすると、第1の動画像の解像度は第2の動画像の解像度以上であり、かつ、第1の動画像のフレームレートは第2の動画像のフレームレートよりも低い。なお、残り1つの色成分の動画像(第3の動画像)の解像度およびフレームレートは、第2の動画像と同じである。
本実施形態では、第1の色成分を緑、第2および第3の色成分はそれぞれ赤、青であるとする。以下の説明では、解像度が高く(H)フレームレートが低い(L)、緑(G)の色成分の動画像をGHL、解像度が低く(L)フレームレートが高い(H)、赤(R)および青(B)の色成分の動画像をそれぞれRLH、BLHのように表記する。1文字目が色成分を表し、2文字目(第1の添え字)が解像度を表し、3文字目(第2の添え字)がフレームレートを表す。
また、本明細書においては、記載を簡略化するため、緑の色成分の動画像を「緑の動画像」などと記述する。
画像処理部106は、記憶部107と、単色画像合成部100と、多色画像合成部111とを有する。
記憶部107は、撮像部101から出力された3つの色成分の動画像を一時的に記憶する。記憶部107は、撮像部からの動画像を入力して記憶するとともに、後述する画像処理部106を構成する他の構成要素からの要求に応じて、一時記憶された動画像を出力する。記憶部107は、たとえばバッファメモリであってもよいし、ハードディスク、光ディスクであってもよい。
単色画像合成部100および多色画像合成部111は、それぞれ、異なる画像合成処理を行う機能ブロックである。まずはじめに、単色画像合成部100が緑の色成分に関する画像処理を行い、その後、多色画像合成部111が全色成分の動画像を合成する画像処理を行う。
単色画像合成部100は、緑の動画像のデータおよび青および/または赤の動画像のデータに基づいて、緑の動画像を構成する画像を変化させた合成画像を生成する。そしてその合成画像および緑の動画像を利用して、緑の動画像のフレームレートより高いフレームレートを有する、緑の合成動画像を出力する。
単色画像合成部100は、動き推定部108および動き補償部109を有している。
動き推定部108は、記憶部107に記憶された第2および第3の色成分である赤および青の動画像RLH、BLHを入力としてこれを読み出し、各フレーム画像間の動き量(画像座標の変化量)を算出し、これを動き情報Vとして出力する。
動き補償部109は、動き推定部108によって算出された動き情報Vと、記憶部107に記憶された第1の色成分(緑の動画像GHL)を受け取って、動き補償によって任意のタイミングの緑の合成画像を生成し、フレームレートの高い緑の合成動画像GHHを生成して出力する。動き補償部109の処理の詳細は後述する。
多色画像合成部111は、動き補償部で生成された緑の合成動画像GHH、および、記憶部107に記憶された赤および青の動画像RLH、BLHを受け取って画像の補間拡大を行い、3つの色成分の動画像の解像度を一致させる。そして、その3つの色成分の動画像で構成される多色動画像RGBMHを生成して出力する。
動き推定部108、動き補償部109および多色画像合成部111は、たとえば画像処理回路によって実現される。または、動き推定部108、動き補償部109および多色画像合成部111の各処理が記述されたコンピュータプログラムを実行したプロセッサによって実現される。
次に、以上のように構成された多色画像処理装置1の動作を説明する。
撮像部101において、被写体の像は、レンズ系102、色成分分離部103を通して、3つの色成分ごとに撮像素子104上に結像される。
撮像制御部105は、赤と青の撮像素子104aと104cから、あらかじめ定められたフレームレートで各色成分の画像を読み出し、緑の撮像素子104bからも赤と青のフレームレートより低いフレームレートで緑の色成分をもつ画像を読み出す。そして撮像制御部105は、各画像をデジタル化して、それぞれ緑の動画像GHL、赤の動画像RLH、青の動画像BLHの画像データを記憶部107に記憶する。
図2は、撮像部101から出力される3つの色成分の動画像の例を示す。横軸は時間を表す。図2において、画像および画素(格子状の図形の1つの矩形)の大きさは、撮像素子104上での実寸と比例して表現されている。つまり、各画像の大きさが同じであることは画像の撮影範囲が同じであることを表す。このとき、1画素の大きさが小さい画像、すなわち画素数が多い画像は解像度が高いことを意味する。
本実施形態では、緑の画像を撮影する撮像素子104bの画素数、すなわち、撮像部101から出力される緑の動画像GHLの解像度は、水平8000画素、垂直4000画素であるとする。また、そのフレームレートは7.5フレーム/秒(fps)であるとする。
同様に、赤および青の動画像を撮影する撮像素子104aと104cの画素数、すなわち、撮像部101から出力される赤および青の動画像RLH、BLHの解像度はともに水平4000画素、垂直2000画素であり、そのフレームレートは30fpsであるとする。
上述の数値から理解されるように、第1の動画像である緑の動画像は、第2および第3の動画像である赤および青の動画像に対し、解像度は縦横各2倍でフレームレートは1/4の関係となっている。本実施形態においては、このような緑の動画像を、同じ解像度で高フレームレート化した合成動画像を生成する。すなわち、緑の合成動画像の主観画質が最も良くなるように処理する。
このように処理する理由は、人の視覚感度は赤、青よりも緑に対して高いという特性を有しており、一般的には緑の合成動画像の主観画質が最も良くなるようにすることが望ましいためである。
緑の合成動画像の主観画質を良くするためには、緑の動画像を高解像度低フレームレートで撮影することが好適な場合が多いと考えられる。例えば、画像中の被写体が静止もしくは動きが小さい場合、緑の動画像を高解像度低フレームレートで撮影すると、赤や青の合成動画像に対して、緑の合成動画像の解像度が高く、その結果主観画質が高くなる。そして、赤や青に比べてさらに緑の動画像のフレームレートを高くすることで、主観画質が良くなることが期待できる。
なお、上述した各色成分の動画像の解像度(画素数)および、フレームレートはこの値に限定するものではない。例えば、海やプール等、水中のシーンを撮影する場合の様に、シーン中に緑以外の色成分(この場合は青)が強く現れることが事前に分っている場合には、青を高解像度、かつ低フレームレートで撮影し、赤と緑を低解像度かつ高フレームレートで撮影することにより、観察者の主観画質の良い多色動画像を提示することができる。
後述の実施形態の説明も含め、本明細書では主として緑の動画像を高解像度低フレームレートで撮影し、赤および青の動画像を低解像度高フレームレートで撮影するとして説明する。
本実施形態では、緑の動画像の各フレーム画像が撮影(露光)されるタイミングは、赤および青の動画像の4枚おきの画像が撮影されるタイミングと一致しているとする。撮影のタイミングが一致しているとは、各色成分の画像の露光開始時間と露光終了時間が、ともに一致していることを意味する。
動画像の複数の色成分を、異なる撮像素子104a〜104cで撮影する場合、被写体やカメラの動きによって、各色成分での画像の位置や動きぶれによる違いが起こらないようにするためには、撮影のタイミングが一致していることが望ましい。ただし、撮影のタイミングは厳密に一致していなくてもよい。厳密にタイミングが一致していなくても、各色成分での画像の違いは目立たないことが多いためである。例えば、複数の色画像の露光開始時間と露光終了時間が、時間的に重複している範囲であれば、その違いはほとんど目立たない。このような場合は、撮影のタイミングがほぼ一致しているとみなしてもよい。
以下では、説明を容易にするため、緑、赤および青の画像の撮影タイミングが一致しているフレーム画像をベースフレーム画像、赤および青の画像のみが撮影されているフレーム画像を中間フレーム画像と呼ぶ。図2には、ベースフレーム画像および中間フレーム画像の例が記載されている。
緑の動画像の各画素と、赤および青の動画像の各画素との空間的な位置関係は、決められた位置関係に調整しておくことにより、または、あらかじめ位置関係を計測しておくなどの方法により、既知であるとする。本実施形態においては、緑の4画素で構成される小矩形領域と、赤および青の1画素の小矩形領域とが、被写体画像上で一致するように、3つの撮像素子104a〜104c間の位置があらかじめ調整されているとする。
画像処理部106は、撮像部101から出力された3つの色成分の動画像データを受け取って記憶部107に記憶する。たとえば、画像処理部106は、赤および青の動画像RLH、BLHの連続した3枚の中間フレーム画像および、その直前および直後の2枚のベースフレーム画像の各データが記憶部107に入力されるごとに、以下の処理を繰り返し行う。
動き推定部108は、赤の動画像RLHの連続した3枚の中間フレーム画像、および、その直前と直後のベースフレーム画像の各データを記憶部107より受け取る。そして動き推定部108は、各中間フレーム画像について、2枚のベースフレーム画像に対する、中間フレーム画像の動き量を算出して動き情報Vとして出力する。
以下、図3を参照しながら、動き推定部108が動き情報を算出する処理を詳しく説明する。以下に説明する処理においては、赤の動画像RLHの各中間フレーム画像に対し、あらかじめ、一定の間隔で矩形小領域を設定しておくとする。例として、矩形小領域は4画素×4画素であるとし、1つの赤画像について1000×500個の矩形小領域をあらかじめ設定しているとする。
図3は、中間フレーム画像中の矩形小領域に対応する、ベースフレーム画像中の領域を探索する処理の概念を示す。
動き推定部108は、1枚の中間フレーム画像上のある1つ矩形小領域を基準として、前後2枚のベースフレーム画像上の矩形小領域との類似度を算出し、算出した類似度をもとに動き情報を算出する。
本実施形態では、中間フレーム画像の矩形小領域とベースフレーム画像の矩形小領域との、画素値の差の絶対値和(Sum of Absolute Differences;SAD)を類似度とする。そして、中間フレーム画像のある座標位置の矩形小領域に対して、前後2枚のベースフレーム画像のあらかじめ定められた相対位置の範囲内の複数の矩形小領域との類似度を算出し、最も類似度の高い(SADが小さい)矩形小領域の座標位置を動き情報として算出する。
例えば、図3において、中間フレーム画像上の1000×500個の各矩形小領域のうち、ある1つの矩形小領域に着目する。図3では、中間フレーム画像上の太線の矩形が着目する矩形小領域である。このとき動き推定部108は、着目した中間フレーム画像上の矩形小領域の座標に対応するベースフレーム画像上の矩形小領域の座標を中心として、上下左右±16画素の範囲を探索範囲とする。ここで「矩形小領域の座標」とは、矩形小領域の中心の画像座標であるとする。図3では、ベースフレーム画像上の太い点線の矩形が、着目した矩形小領域に対応するベースフレーム画像上の矩形小領域を表している。同様に、ベースフレーム画像上の細い点線の矩形が、探索範囲を表している。
そして、動き推定部108は、着目した矩形小領域と2枚のベースフレーム画像上の探索範囲内の各矩形小領域とのSADを算出する。さらに動き推定部108は、探索範囲内の複数の矩形小領域のうち、SADが最小となる矩形小領域(例えばベースフレーム画像上の太線の矩形)を特定し、特定した矩形小領域の画像座標と着目した矩形小領域との画像座標で構成される動き量を算出し、これを動き情報として出力する。上述したある着目矩形小領域に対し、他の複数の矩形小領域間とのSADが最小となる矩形小領域を選択する処理は、最も類似度が高い矩形小領域を選択する処理であるといえる。このようなSADを評価値として最も類似度の高い領域を求めるマッチング手法は、一般的に知られた手法であり、例えば、「デジタル画像処理/奥富正敏編、202-204ページ、財団法人画像情報教育振興協会発行」などで開示されている。したがって、ここでは詳細な説明を省略する。もちろんSADの代わりに、差の二乗和(Sum of Square Differences;SSD)などを類似度として用いても良い。
動き推定部108は、上述した中間フレーム画像の1つの矩形小領域に対するベースフレーム画像間の動き情報を算出する処理を、3枚の中間フレーム画像の各々に対し、1000×500個の矩形小領域に対して繰り返し行い、ベースフレーム画像に対する中間フレーム画像の動き情報として出力する。
動き補償部109は、動き推定部108によって算出された動き情報と、記憶部107に記憶された第1の色成分(緑の動画像GHL)を受け取る。そして動き補償部109は、動き補償によって任意のタイミングの緑の合成画像を生成し、フレームレートの高い緑の合成動画像GHHとして出力する。
図4は、動き補償部109が緑の合成動画像GHHを生成する処理の概念を示す。
本実施形態においては、赤の動画像と同じタイミングで表示されるフレーム画像ごとの緑の合成画像を生成し、それらのフレーム画像から構成される緑の合成動画像として出力する。
動き補償部109は、ベースフレーム画像Sに対応する緑の合成画像として、既存の緑の動画像を複製する(図4(1)の矢印)。
次に、動き補償部109における、中間フレーム画像Uの緑の合成画像を生成する処理を詳しく説明する。以下では、赤および緑の動画像の中間フレーム画像Uを利用する例を説明するが、青の動画像の中間フレーム画像を利用してもよい。
まずはじめに、赤の動画像の中間フレーム画像Uとその中間フレーム画像Uよりも時間的に前(過去)に取得されたベースフレーム画像Sとを利用して、表示タイミングが当該中間フレーム画像Uに対応している緑の合成動画像のフレーム画像を生成する(合成する)処理を説明する。
動き推定部108で算出された動き情報には、中間フレーム画像Uの画像の各矩形小領域と最も類似度が高いベースフレーム画像の画像座標が含まれる。そこで動き補償部109は、赤の動画像の中間フレーム画像U内の画像の、ある矩形小領域(図4中のPRa)に対応する緑の合成画像の矩形小領域(図4中のPGa)の画素値を次の手順により得る。最初に、赤の矩形小領域(図4中のPRa)に対応するベースフレーム画像Sの座標位置(図4中のIRa)を、動き情報から特定する(図4(2)の矢印)。次に、その座標位置(図4中のIRa)に対応する緑の動画像の矩形小領域(IGa)を特定する(図4(3)の矢印)。最後に、当該緑の動画像の矩形小領域(IGa)の画素値を、緑の合成画像の矩形小領域(図4中のPGa)へ複製する(図4(4)の矢印)。
次に、赤の動画像の中間フレーム画像Uとその中間フレーム画像Uよりも時間的に後(未来)に取得されたベースフレーム画像Tとを利用して、表示タイミングが当該中間フレーム画像Uに対応している緑の動画像のフレーム画像を生成する(合成する)処理を説明する。
動き補償部109は、赤の動画像の中間フレーム画像Uの画像のある矩形小領域(図4中のPRb)に対応する緑の合成画像の矩形小領域(図4中のPGb)の画素値を次の手順により得る。最初に、赤の矩形小領域(図4中のPRb)に対応するベースフレーム画像Tの座標位置(図4中のIRb)を、動き情報から特定する(図4(5)の矢印)。次に、その座標位置(図4中のIRb)に対応する緑の動画像の矩形小領域(IGb)を特定する(図4(6)の矢印)。最後に、当該緑の動画像の矩形小領域(IGb)の画素値を、緑の合成画像の矩形小領域(図4中のPGb)へ複製する(図4(7)の矢印)。
動き補償部109は、上述した緑の合成画像の矩形小領域に対する処理を、全ての矩形小領域に繰り返して行うことで、中間フレーム画像Uの緑の合成画像を生成することができる。なお、図4に示す例では、中間フレーム画像よりも時間的に前に取得されたフレーム画像群と、後に取得されたフレーム画像群とを同時に利用して緑の中間フレーム画像を生成しているが、これは例である。時間的に前または後に取得されたフレーム画像群のみを利用して緑の中間フレーム画像を生成してもよい。
以上の動き補償部109の動作によって生成される緑の合成動画像GHHは、緑の動画像と同じ水平8000画素、垂直4000画素の解像度で、かつ、赤や青の動画像と同じ30fpsのフレームレートの動画像となる。
多色画像合成部111は、動き補償部で生成された緑の合成動画像GHH、および、記憶部107に記憶された赤および青の動画像RLH、BLHを受け取る。そして、動画像RLH、BLHの画素数を、合成動画像GHHの画素数と一致するようにバイキュービック補間拡大によって拡大する。その後、補間拡大した動画像RLH、BLHと合成動画像GHHを組み合わせて、赤と緑と青の3つの色成分で構成される多色動画像RGBHHを生成して出力する。
多色画像合成部111で生成される多色動画像RGBHHは、各色成分に共通の水平8000画素、垂直4000画素の解像度と30fpsのフレームレートの多色動画像となる。
画像処理部106は、上述した各処理部の動作を、撮像部101から最初は5フレーム、2回目以降は新たな4フレームの動画像が入力されるごとに繰り返すことで、多色動画像RGBHHを連続して出力する。
上述した画像処理部106における各処理部の動作の説明では、動き推定部108および動き補償部109は、2つの処理部が5フレームごとに順次動作するものとして説明した。しかし、動作を上述した手順に限定するものではなく別の手順であってもよい。
図5は、動き推定部108が動き情報を算出する処理と、動き補償部109が緑の合成動画像を生成する処理について、2つの処理部が1矩形小領域ごとに順次動作する他の手順を示すフローチャートである。ステップS1において、動き補償部109は、緑のベースフレーム画像SおよびTのデータを読み出して、緑の合成動画像のベースフレーム画像SおよびTのデータとして複製する。ステップS2において、動き推定部108は、赤のベースフレーム画像SおよびTの各データと、たとえば赤の中間フレーム画像Uのデータとを読み出す。
ステップS3において、赤の中間フレーム画像U内の矩形小領域PRaと、赤のベースフレーム画像S内の各矩形小領域との類似度に基づいて、動き推定部108は、赤の中間フレーム画像U内の矩形小領域PRaの動き情報を求める。
ステップS4において、動き補償部109は、動き情報に基づいて、ベースフレーム画像Sの、矩形小領域PRaに対応する矩形小領域IRaの座標位置を特定する。
ステップS5において、動き補償部109は、赤の矩形小領域IRaに対応する緑のベースフレーム画像S内の矩形小領域IGaを特定する。本実施形態においては、上述のように、撮像時において、緑の4画素で構成される小矩形領域と赤および青の1画素の小矩形領域とを対応付けている。ステップS5の処理はその対応付けに基づいて実行される。
ステップS6において、動き補償部109は、特定した矩形小領域IGaのデータを、緑の合成動画像の中間フレーム画像Uのデータとして複製する。
次のステップS7において、動き補償部109は、緑の合成動画像の全矩形小領域のデータを生成したか否かを判定する。緑の合成動画像を構成する各画像の全矩形小領域が生成されている場合には、処理は終了し、生成されていない場合には、処理はステップS8に進む。
ステップS8では、赤の中間フレーム画像U内の矩形小領域を、他の矩形小領域に変更し、ステップS3からの処理を繰り返す。
図6は、画像処理部106の各部の動作によって生成された合成動画像と多色動画像の例を示す。撮像部101によって得られた各色成分の動画像は、緑の動画像が高解像度低フレームレート(水平8000画素、垂直4000画素、7.5fps)、赤および青の動画像がそれぞれ低解像度高フレームレート(水平4000画素、垂直2000画素、30fps)であった(図2)。
これに対し、多色動画像RGBHHは、緑の色成分が高解像度高フレームレート(水平8000画素、垂直4000画素、30fps)である。
以上のように、本実施形態の多色画像処理装置1によれば、撮像部101は、第1の色成分である緑の動画像を高解像度低フレームレートで撮影し、第2および第3の色成分である赤および青の動画像は低解像高フレームレートで撮影する。そして、画像処理部106は、緑の動画像と赤または青の動画像とに基づいて、緑の動画像を高フレームレート化し、また赤および青の動画像の画素数をそれぞれ緑の動画像の画素数に一致させる。これにより、高解像化および高フレームレート化された多色動画像を生成することができる。
これにより、撮像素子104の読み出し速度に上限がある場合であっても、多色画像処理装置1は、その上限値に相当する解像度とフレームレートを超える動画像を生成できる。例えば、撮像素子104の読み出し速度の上限が2億4千万画素/秒(=8000画素×4000画素×7.5fps相当)であるとする。このとき、多色画像処理装置1は、8000画素×4000画素×7.5fpsの緑の動画像と、4000画素×2000画素×30fpsの赤および青の動画像を撮影し、これらの動画像から8000画素×4000画素×30fpsの動画像を生成することができる。
さらに、本実施形態の多色画像処理装置1は、色成分分離部103を用いて分離した3つの異なる波長域の色成分の動画像から、多色動画像を生成している。そのため、従来の技術がハーフミラーを用いて同じ色成分の光を半分に分割して撮影していたのに対して、本実施形態による多色画像処理装置1は、光量の低下を起こすことなくSN比が高い動画像を撮影することができる。その結果、SN比が高い各色成分の動画像から生成した多色動画像もSN比が高くなるという効果がある。
また、人の視覚感度は赤、青よりも緑に対して高いという特性を持つため、赤や青に比べて緑の解像度とフレームレートを高くすることで、主観画質が良くなることが期待できる。
本実施形態で生成される多色動画像RGBHHは、第1の色成分は動き補償部109によって高解像度化および高フレームレート化した合成動画像が生成されるのに対して、第2の色成分は低解像度高フレームレートの画像を補間拡大しただけである。そのため生成される多色動画像の色成分のうち、最も高解像度高フレームレートとなる第1の色成分を緑とすることで、主観画質が高くなるという効果が期待できる。
なお、本実施形態では、多色画像合成部111は、赤および青の動画像RLH、BLHをバイキュービック補間拡大して、多色動画像RGBHHを生成するものとしたが、補間拡大法をバイキュービックに限定するものではなく、バイリニアなどの他の補間拡大法を用いてもよい。
(実施形態2)
実施形態1による多色画像処理装置1は、高解像度低フレームレートの緑の動画像GHLと、低解像度高フレームレートの赤および青の動画像RLH、BLHを入力して、高解像高フレームレートの多色動画像RGBHHを生成する。生成された多色動画像RGBHHに含まれる緑の動画像は、動き補償部109によって緑の動画像GHLのフレームレートを向上したことに相当する。
実施形態1においては、赤と青の色成分は、動画像RLH、BLHを単純に画素数だけが多くなるように補間拡大したにすぎず、空間周波数までより高くされていない。つまり、実施形態1においては、第2の色成分である赤および青の動画像RLH、BLHは、厳密には空間解像度が高められたとは言えない。
そこで、本実施形態では、第2および第3の色成分の動画像についても解像度を向上するように構成した多色画像処理装置を説明する。
図7は、本実施形態による多色画像処理装置2の構成を示す。
多色画像処理装置2の構成が、実施形態1による多色画像処理装置1(図1)の構成と異なる点は、新たに高解像度化部110を設けた点、および、多色画像合成部111の処理である。
具体的には、本実施形態による高解像度化部110は、記憶部107に記憶された赤および青の動画像RLH、BLHの各データと、動き補償部109で生成された緑の合成動画像GHHのデータとを受け取り、RLHおよびBLHの各フレーム画像を高解像度化して、赤および青の色成分の合成動画像RHHおよびBHHを生成して出力する。
また本実施形態による多色画像合成部111は、動き補償部109で生成された緑の色成分の合成動画像GHH、および、高解像度化部111で生成された赤および青の色成分の合成動画像RHH、BHHの各データを受け取り、赤と緑と青の3つの色成分で構成される多色動画像RGBHHを生成して出力する。
次に、本実施形態による多色画像処理装置2の動作を説明する。
撮像部101、記憶部107、動き推定部108、動き補償部109の動作は、実施形態1による多色画像処理装置1と同じである。すなわち、撮影部101は、緑の動画像GHL、赤の動画像RLH、青の動画像BLHを順次撮影して、各動画像のデータを記憶部107に記憶する。また、本実施形態においては、緑の動画像GHL、赤の動画像RLHおよび青の動画像BLHの解像度とフレームレートについても、実施形態1と同じであるとする。
動き推定部108は、記憶部107に3枚の中間フレーム画像とその前後の2枚のベースフレーム画像の各データが入力されるたびに、赤の動画像RLH、青の動画像BLHから各中間フレーム画像の動き情報Vを算出し、動き補償部109は、緑の動画像GHLと動き情報Vを入力して、緑の合成動画像GHHを生成して出力する。
高解像度化部110は、記憶部107に記憶された赤および青の動画像RLH、BLHの各データと、動き補償部109で生成された緑の合成動画像GHHのデータを受け取り、緑の合成動画像GHHの情報を用いて赤および青の動画像RLH、BLHの各フレーム画像の解像度を高くする。そして高解像度化部110は、高解像度化した各動画像を、赤および青の合成動画像RHH、BHHとして出力する。
高解像度化部110で生成される赤と青の合成動画像RHH、BHHの解像度は、水平8000画素、垂直4000画素、フレームレートは30fpsである。
以下、高解像度化部110において、緑の合成動画像GHHの情報を用いて赤および青の動画像RLH、BLHの解像度を高くする処理を詳しく説明する。
図8(a)は、赤および青の動画像RLH、BLHと緑の合成動画像GHH、および、赤と青の合成動画像RHH、BHHの同じフレーム(タイミング)の画像における、画素の配置を示す。図8(b)は、各動画像をなす画素の拡大図である。緑の合成動画像GHH、および赤と青の合成動画像RHH、BHHの解像度は、赤および青の動画像RLH、BLHに対して縦横それぞれ2倍となっている。そのため、赤および青の動画像RLH、BLHのある1画素は、緑の合成動画像GHHの4画素、および、赤と青の合成動画像RHH、BHHの4画素とそれぞれ対応する位置にある。
ここで赤および青の動画像RLH、BLHの画素座標(xl,yl)の画素値を、それぞれIRLH(xl,yl)、IBLH(xl,yl)とし、対応する緑の合成動画像GHHの4つの画素の画素座標(xh,yh)の画素値をIGHH(xh,yh)とする。このとき、赤と青の合成動画像RHH、BHHのそれぞれ4つの画素の画素座標(xh,yh)の画素値IRHH(xh,yh)、IBHH(xh,yh)を、(数1)で算出する。
Figure 0004469018
(数1)の3番目の式において、右辺の分母は緑の合成画像の4近傍画素の平均値、分子は1画素ごとの画素値を表す。左辺のw(xh、yh)は、緑の合成画像のある4近傍画素における各画素値の高域成分の分布を表す。そして(数1)の1、2番目の式は、緑の合成画像の高域成分の分布を、赤と青の画像のある画素値と掛け合わせることで、赤と青の合成画像の画素値を計算している。すなわち、対応する4画素においては、緑の合成画像と赤と青の合成画像は、高域成分の分布が同じになる画素値IRHH(xh,yh)、IBHH(xh,yh)が算出されることとなる。
したがって、典型的には被写体が白黒(グレー)である場合などのように、被写体の色成分の緑の高域成分の分布と、赤および青の高域成分の分布が似ている場合、(数1)によって算出される赤および青の合成動画像RHH、BHHは、赤および青の動画像RLH、BLHには含まれていない高域の成分を含んだ画像となる。これは言い換えると、赤および青の合成動画像RHH、BHHは、赤および青の動画像RLH、BLHの解像度を高めた画像となっている。図8(c)は、図8(b)に示す赤および青の各動画像の画素に対応する、高解像度化された画素群を示す。
多色画像合成部111は、動き補償部で生成された緑の合成動画像GHH、および、高解像度化部110で生成された赤と青の合成動画像RHH、BHHを入力して、赤と緑と青の3つの色成分で構成される多色動画像RGBHHを生成して出力する。多色画像合成部111で生成される多色動画像は、緑と赤、青の各色成分ともに水平8000画素、垂直4000画素の解像度と30fpsのフレームレートの多色動画像となる。
画像処理部106は、上述した各処理部の動作を、撮像部101から最初は5フレーム、2回目以降は新たな4フレームの動画像が入力されるごとに繰り返すことで、多色動画像RGBHHを連続して出力する。
図9は、画像処理部106の各部の動作によって生成される合成動画像と多色動画像の例を示す。撮像部101によって得られた各色成分の動画像は、緑の動画像が高解像度低フレームレート(8000画素、垂直4000画素、7.5fps)、赤および青の動画像が低解像度高フレームレート(4000画素、垂直2000画素、30fps)であった(図2)。
これに対し、各合成動画像はいずれも高解像度高フレームレート(8000画素、垂直4000画素、30fps)である。多色画像合成部111は、これらを組み合わせて、高解像度高フレームレートのカラー動画像RGBHHを生成している。
本実施形態の多色画像処理装置2によれば、第2の色成分である赤と青の色成分を高解像度化した多色動画像を生成することができる。そのため、実施形態1と同様の制限、たとえば撮像素子104の読み出し速度に上限がある場合であっても、その上限値に相当する解像度とフレームレートを超える動画像を生成できるという効果がある。さらに、実施形態1と同様に、本実施形態の多色画像処理装置は光量の低下を起こすことなくSN比が高い動画像を撮影することができる。その結果、多色動画像もSN比が高くなるという効果がある。
なお、本実施形態においては、高解像度化部110は、(数1)によって第2の色成分である赤と青の合成動画像を生成するものとした。しかし、(数1)による処理は例である。第1の色成分である緑の合成動画像に含まれる情報を用いて、赤および青の動画像の解像度を向上する処理であれば、他の数式による処理を行ってもよい。
例えば、緑の合成画像と赤と青の画像のある近傍領域での相関を算出し、この相関に応じて高解像度化処理の度合いを変化させてもよい。具体的には、下記(数2)の式によって赤と青の合成画像を算出してもよい。
Figure 0004469018
(数2)では、緑の合成画像の4画素を平均して得た低解像度画像の画素値IGLHと赤の画像の画素値IGLHとの正規化相互相関wlrが算出され、これを(数1)の重みづけにしている。青画像についても同様である。
言い換えると(数2)は、緑の合成画像と赤の画像の相関が強いほど、緑の高域成分の分布を赤に加える度合いを強め、逆に相関が弱い場合は、緑の高域成分の分布を赤に加える度合いが弱くなる。
(数1)を用いた場合、例えば、被写体が緑色や赤色である場合などのように緑と赤や緑と青の相関が弱い場合でも、赤や青の合成動画像に本来無いはずの高域成分が加えられる、もしくは高解像度化されない、などの課題が発生する。
これに対して(数2)を用いた場合、緑と赤、緑と青の相関の強弱に応じて、高域成分の分布を加える度合いが調整されるため、上述した課題が発生しにくくなるという効果がある。その結果、多様な画像を入力した場合に、生成される多色動画像の主観的な解像度を上げることができるという効果がある。
同様に、(数2)の代わりに下記(数3)を用いて赤と青の合成画像を算出してもよい。
Figure 0004469018
(数2)では、緑の合成画像の低域成分と赤の動画像の低域成分の相関を表す重みwlrとして、正規化相互相関を用いたが、(数3)では正規化相互相関の代わりに相関係数を用いる。(数2)の正規化相互相関は、その値が1に近いほど相関が強く、0に近づくほど相関が弱いことを表す。(数3)の相関係数は、その値が−1または1に近いほど相関が強く、0に近づくほど相関が弱いことを表す。また、(数3)の相関係数が正のときに正の相関、相関係数が負のときに負の相関があると呼ぶ。(数3)を用いることで、緑の合成画像の低域成分と赤の動画像の低域成分に負の強い相関がある場合に、高域成分にも負の強い相関を持つ合成動画像IRHH、IBHHが生成されることとなる。その結果、緑と赤、緑と青に負の強い相関がある場合、(数2)を用いると重みwlrが0に近くなって高解像度化されないのに対して、(数3)を用いると、相関値に応じて高域成分にも負の強い相関を持った高域成分が加えられるため、より解像度の高い合成動画像が得られるという効果がある。
(数2)および(数3)では、緑の合成画像の低解像度の画素値IGLHと低解像度の赤または青の画像の画素値IRLH、IBLHの近傍画素領域内での分布の相関(空間相関)を表すwlr、wlbの強さおよび正負に応じて、緑の合成画像に含まれる高域成分whを赤と青の合成画像に加える度合いを調整している。一方、相関が弱くなると、すなわちwlr、wlbが0に近づくと、赤と青の合成画像の画素値IRHH、IBHHは、それぞれ赤と青の画像の画素値IRLH、IBLHに近づく。その結果、IRHH、IBHHはIRLH、IBLHの最近傍画素選択による画像拡大に近くなる。
この最近傍画素選択による拡大よりも、バイキュービック補間拡大の方が、主観画質が高いことが期待できる。そこで、(数3)に対して、相関が弱い場合はバイキュービック補間拡大に近づく処理を加えた、(数4)を用いても良い。 (数4)は、相関が弱いほど、すなわちwlr、wlbが0に近づくほど、IRLH、IBLHをバイキュービック補間拡大したIRB、IBBに近づく。その結果、(数3)と比べて、主観的な画質が向上するという効果がある。
Figure 0004469018
上述した(数1)〜(数4)の処理により、解像度を高めたRHH、BHHを生成することができる理由は、単にGHHの高域成分を重畳したためだけではない。赤と青の動画像RLH、BLHに折り返し成分が含まれる場合にも、(数1)〜(数4)の処理により折り返しを低減できるという効果があるためである。
例えば、各色成分の動画像が共通の光学系を持つカメラで撮影され、かつ、低解像度の赤と青の動画像RLH、BLHが撮像素子上でハードウェアビニング処理(ビニング処理の詳細について実施形態4において説明する。)により生成される場合、赤と青の動画像RLH、BLHには折り返し成分が含まれることになる。このような折り返し成分を含む赤と青の動画像RLH、BLHを入力として、単にGHHを重畳したとしても、折り返しの影響を低減する効果は期待できない。一方、(数1)〜(数4)の処理において、“IGHH”の上にバーが付加された記号はIGHHの平均値であり、RやBに対するビニング処理と等価となっている。したがって、IGHHの平均値にも折り返しが含まれる。このIGHHの平均値とIGHHとの比がwhであり、whをIRLH、IBLHにかけることで、IRHH、IBHHを得ている。
ここで、例えば白黒の濃淡画像のように、各色間の相関が非常に強い場合、RLH、BLHと、IGHHの平均値には同じ周波数成分の折り返し成分が含まれることになる。したがって、折り返し成分を含むIGHHの平均値と高解像度のIGHHとの比であるwhを、IRLH、IBLHにかけて得たIRHH、IBHHは、折り返しが含まれない、もしくはその影響が低減されることとなる。
上述した(数2)および(数3)の重みwlrは、第2の色成分である赤の画像の空間的な分布と第1の色成分である緑の画像の空間的な分布との相関(空間相関)に応じて、高解像度化処理の度合いを調整する係数を意味する。この重みwlrの代わりに、2つの色成分の動画像の時間的な分布の相関(時間相関)を重みとして用いても、同様の効果を得ることができる。
本願発明者らは、本実施形態による多色画像処理装置2によって生成された高解像度高フレームレートの動画像を評価するため、効果確認実験を行った。図17は、本実施形態による多色画像処理装置2を用いた実験結果を示している。
実験では、高解像度高フレームレートの正解画像RGBTRUEを用意し、この正解画像RGBTRUEから高解像度低フレームレートの緑の画像GHL、低解像度高フレームレートの赤の動画像RLHと青の動画像BLHを生成して、これらを入力画像とした。そして、これらの入力画像から、本実施形態による多色画像処理装置2によって、多色動画像RGBHHを生成した。
ここで生成した多色動画像RGBHHが、高解像度高フレームレートの正解画像RGBTRUEに近いほど、高解像度高フレームレートの動画像を生成する効果が高いといえる。そこで、評価指標として、正解画像RGBTRUEを正解として、生成した多色動画像RGBHHのPSNR(Peak Signal to Noise Ratio)を用いた。比較対象として、3つの色成分がともに低解像度高フレームレートであるRLH,LH, BLHを入力として、バイキュービック補間により拡大した画像のPSNRも求めた。
実験条件として、正解画像RGBTRUEおよび多色動画像RGBHHは、水平720画素×垂直480画素×60fps、入力画像の緑の画像GHLは、720画素×垂直480画素×3.75fps、赤の動画像RLHと青の動画像BLHは、180画素×垂直120画素×60fpsとした。動き推定部108において、中間フレームとベースフレーム間の動きを推定する際に用いる矩形領域の大きさは、3画素×3画素とした。高解像度化部110において、(数3)を用いた。
図17中の「本願の実施形態2」に対応する棒グラフが、本実施形態による多色画像処理装置2で生成した多色動画像のPSNRを示している。対比のため、図17にはバイキュービック補間により拡大した画像のPSNR(「Bicubic」に対応する棒グラフ)も示されている。
図17によれば、本実施形態による多色画像処理装置2で生成した多色動画像のPSNRは、多くの評価用動画像において、バイキュービック補間のPSNRより高いことが示されている。すなわち、本実施形態による多色画像処理装置2を用いると、より正解画像に近い、高解像度高フレームレートの動画像を生成できるという効果が確認される。
(実施形態3)
実施形態1においては、多色画像処理装置1は、第2の色成分の動画像におけるフレーム画像間の動きを推定し、その動きを用いて第1の色成分の動画像のフレームレートを高めた多色動画像を生成した。そして、実施形態2においては、多色画像処理装置2は、第1の色成分の画像と第2の色成分の画像間で高域成分に相関があると仮定し、第1の色成分の合成動画像と第2の色成分の合成動画像の高域相関が高くなるように、第2の色成分の動画像の解像度を高めた多色動画像を生成した。
本実施形態においては、多色画像処理装置は、実施形態2と同様、第1の色成分の画像と第2の色成分の画像との間で高域成分に相関があるとの仮定のもと、以下の処理を行う。すなわち、本実施形態による多色画像処理装置は、第2の色成分の動画像のフレーム画像間の動きを推定する際に、フレーム画像間の動きによって対応付けられる第1の色成分の動画像と第2の色成分の合成動画像との高域相関が高くなるように、第2の色成分の動画像におけるフレーム画像間の動きと第2の色成分の合成動画像を同時に求める。これにより、第2の色成分の動画像の解像度を高め、かつ、フレーム画像間の動き推定精度を高めることが可能となる。
図10は、本実施形態による多色画像処理装置3の構成を示す。
多色画像処理装置3の構成が、実施形態1による多色画像処理装置1(図1)の構成と異なる点は、動き推定部108および多色画像合成部111にある。
具体的には、本実施形態による動き推定部108は、記憶部107に記憶された赤および青の動画像RLH、BLHの各データと緑の動画像GHLのデータとを受け取り、動き情報Vを算出すると同時に、赤および青の動画像RLH、BLHの各フレーム画像を高解像度化した赤と青の合成動画像RHH、BHHを生成して出力する。
また、本実施形態による多色画像合成部111は、動き推定部108で生成された赤と青の合成動画像RHH、BHHの各データと、動き補償部109で生成された緑の合成動画像GHHのデータとを受け取り、赤、緑および青の3つの色成分で構成される多色動画像RGBHHを生成して出力する。
次に、本実施形態による多色画像処理装置3の動作を説明する。
撮像部101、記憶部107、動き補償部109の動作は、実施形態1または実施形態2と同じである。すなわち、撮影部101は、緑の動画像GHL、赤の動画像RLH、青の動画像BLHを順次撮影して、記憶部107に記憶する。また、本実施形態においては、緑の動画像GHL、赤の動画像RLH、青の動画像BLHの解像度とフレームレートもまた、実施形態1または実施形態2と同じである。
動き推定部108は、記憶部107に記憶された、赤および青の動画像RLH、BLHの連続した3枚の中間フレーム画像とその前後2つのベースフレーム画像、および対応する緑の動画像GHLの2枚のベースフレーム画像の各データを受け取り、中間フレーム画像ごとに2つのベースフレーム画像に対する動きを算出して動き情報Vとして出力する。この処理と同時に、動き推定部108は、高解像度化した赤と青の合成動画像RHH、BHHを生成して出力する。
動き推定部108は、1つの中間フレーム画像のある1つの矩形小領域を基準として、前後2つのベースフレーム画像上のある探索範囲内の複数の矩形小領域との類似度を算出し、最も類似度の高い矩形小領域との相対位置を動き情報として算出する。
実施形態1では、矩形小領域間の類似度として、解像度の低い赤の動画像RLHの輝度値のSADを用いた。これに対して本実施形態では、赤の動画像RLHの矩形小領域の画像を緑の動画像GHLを用いて解像度を高め、この解像度を高めた矩形小領域間の輝度値のSADを評価値として用いる。
以下、図11を参照しながら、動き推定部108による、動き情報Vと赤と青の合成動画像RHH、BHHの算出処理を詳しく説明する。
図11は、動き補償部109が赤の合成動画像RHHを生成する処理の概念を示す。
動き推定部108は、記憶部107に記憶された赤と動画像RLHの連続した3枚の中間フレーム画像とその前後2枚のベースフレーム画像、および対応する緑の動画像GHLの2枚のベースフレーム画像の各データを受け取る。そして、図11(1)に示すように、赤の動画像RLHのベースフレーム画像と緑の動画像GHLのベースフレーム画像とを用いて、解像度を高めた赤の合成動画像RHHのベースフレーム画像を生成する。赤の動画像の解像度を高める方法は、実施形態2の高解像度化部110と同様、(数1)〜(数4)を利用する方法を用いればよい。
次に、動き推定部108は、生成した赤の合成動画像RHHのベースフレーム画像と、緑の動画像GHLのベースフレーム画像と、赤の動画像RLHの中間フレーム画像とを用いて、中間フレーム画像の複数の矩形小領域の各々についてベースフレーム画像に対する動きを算出する。同時に、動き推定部108は、解像度を高めた赤の合成動画像RHHの中間フレーム画像を生成する。
ここで、赤の動画像RLHの中間フレーム画像のある1つの矩形小領域(太線の矩形)に着目し、前後2枚のベースフレーム画像の探索範囲内から、動き情報を算出する動作を説明する。
動き推定部108は、赤の動画像RLHの中間フレーム画像の着目領域(太線の矩形)に対し、前後2つのベースフレーム画像の探索範囲における複数の候補領域を定める。そして、その複数の候補領域に対して以下の処理を繰り返す。
まず、図11(2)に示すように、動き推定部108は、ある1つの候補領域の緑の画像を用いて赤の矩形小領域の解像度を高めた中間フレーム解像度変換画像を生成する。赤の矩形小領域の解像度を高める方法は、実施形態2の高解像度化部110と同様である。
次に、動き推定部108は、図11(3)に示すように、得られた矩形小領域の解像度変換画像と、赤の合成動画像RHHのベースフレーム画像(ベースフレーム解像度変換画像)の候補領域との輝度値のSADを算出し、これを着目領域と候補領域の類似度とする。
動き推定部108は、上述した探索先の矩形小領域に対応するベースフレーム解像度変換画像を生成する処理と候補領域に対する類似度を算出する処理を、探索範囲内の複数の候補領域に対して繰り返し行う。そして、最も類似度の高い(SADの小さい)候補領域との相対位置を、着目した矩形小領域の動き情報Vとして算出する。
さらに、図11(4)に示すように、動き推定部108は、最も類似度が高い候補領域の算出に用いた中間フレーム解像度変換画像を、合成動画像RHHの中間フレーム画像の矩形小領域として採用する。
動き推定部108は、上述した動作を赤の動画像RLHの3枚の中間フレーム画像に対して行い、複数の矩形小領域の動き情報Vと赤の合成動画像RHHの中間フレーム画像を生成する。
動き推定部108は、上述した動作によって、動き情報Vと赤の合成動画像RHHを生成する。
上述の処理と同様の処理を青の動画像BLHに対しても行うことにより、青の合成動画像BHHを生成することができる。
なお、青の合成動画像BHHを生成する方法として、以下の処理を実行してもよい。すなわち、動き推定部108は、緑の動画像GHLと算出した動き情報V、および、青の動画像BLHを用いて、動き情報Vに対応する緑の動画像GHLと青の合成動画像BHHの高域相関が高くなるように、(数1)〜(数4)などの方法を用いるとしてもよい。
動き補償部109は、動き推定部108で算出された動き情報Vと、記憶部107に記憶された第1の色成分である緑の動画像GHLとを受け取り、動き補償によって任意のタイミングの緑の合成画像を生成し、フレームレートの高い緑の合成動画像GHHとして出力する。
多色画像合成部110は、動き補償部で生成された緑の合成動画像GHHのデータ、および、動き推定部108で生成された赤と青の合成動画像RHH、BHHの各データを受け取り、赤と緑と青の3つの色成分で構成される多色動画像RGBHHを生成して出力する。
多色画像処理装置3は、上述した各構成要素の動作を繰り返すことで、連続して多色動画像RGBHHを生成して出力する。
本実施形態による多色画像処理装置3によれば、実施形態1による多色画像処理装置と同様の効果に加えて、生成される多色動画像RGBHHにおいて、第2の色成分である赤と青の色成分の解像度が高いという効果がある。
また、動き推定部108によって生成された動き情報Vに着目する。実施形態1では、赤の動画像RLHのベースフレーム画像と中間フレーム画像との間で、矩形小領域間の類似度が最も高くなる動き情報Vを算出している。これに対して本実施形態の動き推定部108は、赤の合成動画像RHHのベースフレーム画像(ベースフレーム解像度変換画像)と赤の動画像RLHの中間フレーム画像の解像度変換画像(中間フレーム解像度変換画像)との間で、矩形小領域間の類似度が、最も高くなる動き情報Vを算出している。赤の動画像RLHのベースフレーム画像と中間フレーム画像に対して、赤の合成動画像RHHのベースフレーム画像と赤の動画像RLHの中間フレーム画像の解像度変換画像は、ともに解像度が高いことが期待できる。そのため、本実施形態において、より解像度の高い画像を用いて生成される動き情報Vは、実施形態1の動き情報Vより精度が高いことが期待できる。動き補償部109によって生成される緑の合成動画像GHHは、動き情報Vの精度が高いほど、輝度値や位置の誤りの少ない合成動画像を生成することができる。その結果、本実施形態の多色画像合成装置は、実施形態1の多色画像合成装置に比べて、より解像度の高い多色動画像を得ることができるという効果がある。
本願発明者らは、本実施形態による多色画像処理装置3についても、生成された高解像度高フレームレートの動画像を評価するため、効果確認実験を行った。図18は本実施形態による多色画像処理装置3を用いた実験結果を示している。実験方法および実験条件は、前述の図17に関連して説明した実験と同じである。
図18によれば、本実施形態の多色画像処理装置3によって生成される多色動画像RGBHHのPSNR(「本願の実施形態3」に対応する棒グラフ)は、バイキュービック補間による画像のPSNR(「Bicubic」に対応する棒グラフ)、および、実施形態2による多色画像処理装置2で生成した多色動画像のPSNR(「本願の実施形態2」に対応する棒グラフ)よりも高いことが理解される。すなわち、本実施形態による多色画像処理装置3を用いると、より正解画像に近い、高解像度高フレームレートの動画像を生成できるという効果が確認される。
本実施形態の動き推定部108で算出される動き情報Vが、実施形態1,2で算出される動き情報Vより精度が高くなる理由は、単に赤と青の動画像RLH、BLHの解像度が低いためだけではない。赤と青の動画像RLH、BLHには折り返し成分が含まれるためである。例えば、各色成分の動画像が共通の光学系を持つカメラで撮影され、かつ、低解像度の赤と青の動画像RLH、BLHが撮像素子上でハードウェアビニング処理(ビニング処理の詳細について実施形態4において説明する。)により生成される場合、赤と青の動画像RLH、BLHには折り返し成分が含まれることになる。その理由は、高解像度の緑の動画像を得るためには、より高域成分を含むようにレンズ等の光学系が調整されるのに対して、赤と青の動画像は、高解像度の画素値を平均化する処理が行われるためである。このような折り返し成分を含む赤と青の動画像RLH、BLHを入力として、実施形態1,2における動き推定部108で算出される動き情報Vは、折り返しの成分が含まれない場合に比べてその精度が低くなる。
一方、本実施形態の動き推定部108は、赤または青の動画像と緑の動画像GHLとを用いて解像度を高めたベースフレーム解像度変換画像と中間フレーム解像度変換画像を一旦生成し、これら2つの解像度変換画像間の類似度が最も高くなるように動き情報を算出している。赤または青の動画像に折り返し成分が含まれていた場合であっても、生成された解像度変換画像では折り返し成分が低減され、もしくは折り返し成分が存在しない。そのため、本実施形態で算出される動き情報Vの精度は高いことが期待できる。このような理由から、本実施形態の多色画像合成装置は、実施形態1の多色画像合成装置に比べて、より解像度の高い多色動画像を得ることができるという効果がある、といえる。
本願発明者らは、本実施形態による多色画像処理装置3の動き推定部108で生成された動き情報Vの精度がどの程度高くなるかを評価するため、効果確認実験を行った。図19は、本実施形態による多色画像処理装置3を用いた動き情報Vに関する実験結果を示している。
実験では、フレーム間の動きが既知の高解像度フレームレートの動画像を用意し、この動画像から高解像度低フレームレートの緑の画像GHL、低解像度高フレームレートの赤の動画像RLHと青の動画像BLHを生成して、これらを入力画像とした。そして、これらの入力画像を用いて、本実施形態による多色画像処理装置3の動き推定部108で動き情報Vを算出し、この動き情報Vと正解のフレーム間の動きとのRMSE(Root Mean Square Error)を、動きの推定精度の評価値として算出した(図19の縦軸)。比較対象として、本実施形態の多色画像処理装置1の動き推定部108で算出した動き情報VのRMSEも求めた。解像度などの実験条件は、前述の図17および図18の実験と同じである。
図19によれば、本実施形態の多色画像処理装置3の動き推定部で算出した動き情報VのRMSE(「本願の実施形態3」に対応する棒グラフ)は、実施形態1および2の多色画像処理装置の動き推定部で算出した動き情報のRMSE(「本願の実施形態1、2」に対応する棒グラフ)よりも小さい。これは、本実施形態による多色画像処理装置3の方が、動き推定の精度がより高いことを意味している。
なお、本実施形態の動き推定部108で得られる、フレーム間の動き情報の精度が高いという効果は、入力となる2つの動画像が必ずしも異なる色成分でなくても得ることが出来る。例えば、低解像度高フレームレートの動画像と高解像度低フレームレートの動画像の2組の動画像が、ともにモノクロの動画像であったとしても、解像度を高めたベースフレーム解像度変換画像と中間フレーム解像度変換画像を一旦生成し、これら2つの解像度変換画像間の類似度が最も高くなるように動き情報を算出することで、フレーム間の動き情報の精度が高いという効果を得ることができる。
なお、本実施形態の画像処理部106における各処理部の動作の説明では、動き推定部108と動き補償部109は、5フレームごとに順次動作するものとして説明した。しかし、動作を上述した手順に限定するものではなく、各処理部が1矩形小領域ごとに順次動作するとしても良いし、別の手順でも良い。
例えば、本実施形態の動き推定部108および動き補償部109で行われる処理を、(数5)〜(数7)に示す。画像処理部106は、これらの数式を解く手順であればどのような手順であっても良い。
Figure 0004469018
Figure 0004469018
Figure 0004469018
(数5)において、V(x,y,f)は、フレームf、位置(x,y)における動き情報であり、前後いずれかのベースフレームfbへの位置(x+u,y+v)の情報で構成される。この動き情報Vは、3番目の式の右辺のベースフレーム解像度変換画像IRHH(x+u,y+v,fb)と中間フレーム解像度変換画像IRHH(x,y,fb)との類似度(SAD)を最小にする動き情報(u,v,fb)として求める。(数6)は、(数5)に含まれる解像度変換画像IRHHを求める式であり、ここでは(数3)と同じである。さらに(数7)は、(数6)に含まれるIGHHを求める式である。したがって、(数5)〜(数7)をまとめると、算出すべき動き情報Vは、動きベクトル(u,v)のみが未知パラメタとなる。そのため、あらかじめ定められた探索範囲内で(u,v)を変化させ、類似度が最大、すなわち(数5)のSADが最小になる(u,v)を選択して動き情報Vとする。
動き推定部108の処理が(数5)〜(数7)に、動き補償部109での処理が(数7)に対応している。
(実施形態4)
実施形態1および2においては、第1、第2、第3の色成分が固定であったのに対し、本実施形態においては、第1、第2、第3の色成分に対応する色を撮影状況に応じて変化させる。言い換えると、本実施形態による多色画像処理装置は、赤、緑、青の色成分の動画像の解像度とフレームレートが、撮影状況によって変化し、それに応じて、画像処理部内の各処理部で処理される色成分が変更可能に構成されている。
図12は、本実施形態による多色画像処理装置4の構成を示す。
多色画像処理装置4の構成が、実施形態1による多色画像処理装置1(図1)および実施形態2による多色画像処理装置2(図7)の各構成と異なる点は、以下のとおりである。
第1に、3つの撮像素子104で撮影される各色成分の画像の解像度は制御可能である。第2に、撮影制御部105は、解像度制御部112および撮像時間制御部113を含んでいる。
他の処理部の構成、および、各処理部の動作は、実施形態1または実施形態2の多色画像処理装置と同様である。
ただし、本実施形態では、画像の解像度を変更可能な撮像素子104として、3つの色成分の撮像素子は、全て水平8000画素、垂直4000画素の画素数を持ち、近傍2×2画素の画素値を加算読み出しするビニングモードでの読み出しも可能な撮像素子を用いるとする。ビニングモードには、隣接する複数の画素の電荷を加算して読み出すハードウェアビニング以外に、デジタル化した後に加算するソフトウェアビニングなどがあるが、ここでは、ハードウェアビニングが可能な撮像素子を用いる。このようなハードウェアビニングが可能な撮像素子は、加算する画素数に反比例して1画像分の読み出し時間を短くすることができる。これにより、撮影する画像の解像度を選択的に制御することが可能である。たとえば、このような撮像素子を用いると、水平8000画素×垂直4000画素と水平4000画素×垂直2000画素とを選択的に制御することが可能である。また、このような撮像素子を用いると、同時にフレームレートも制御することも可能である。
実施形態1〜3では、緑の色成分の動画像を高解像度低フレームレートで撮影し、赤と青の色成分の動画像を低解像度高フレームレートで撮影するとした。人の視覚感度が赤、青よりも緑に対して高いという特性を考慮すると、一般的には緑の合成動画像の主観画質が最も良くなるようにすることが望ましいためである。
本実施形態においては、解像度制御部112は、撮像素子104から入力された各色成分の動画像から色成分の強さを算出し、その色成分の強さに応じて解像度を変える。
具体的には、解像度制御部112は、撮像部104で撮影された各色成分の動画像に応じて、撮像部104で撮影される画像の解像度を算出する。撮像時間制御部113は、解像度制御部112で算出した各色成分の解像度に応じてあらかじめ定められた時間間隔と解像度で、撮像部104から各色成分の動画像を読み出して出力する。
例えば、赤、緑、青の各同画像の平均輝度値を算出し、もっとも平均輝度値の高い色成分を高解像度低フレーム画像とし、他の色成分を低解像度高フレームレートで読み出すものとする。
これにより、たとえば、海やプール等、水中のシーンを撮影する場合のように、緑以外の色成分(本例では青成分)が強く現れるシーンの撮影時には、青を高解像度低フレームレートで撮影し、赤と緑を低解像度高フレームレートで撮影することにより、観察者の主観画質の良い多色動画像を提示することができる。
以上のように、解像度制御部112によって被写体の色成分の強さに応じて撮像素子104で撮影する各色成分の解像度を制御することで、被写体の最も強い色成分が最も高解像度化されることとなり、その結果合成動画像の主観画質が高くなるという効果がある。
(実施形態5)
実施形態1〜4では、たとえば図2に示すように、第2および第3の色成分動画像の画素の空間配置は同じであるとした。そして、各色成分動画像内の画素は、同じ座標を持つように対応付けられるとした。
これに対し本実施形態では、第2および第3の色成分の画像は、画素位置が相対的にずれており、この画像を用いて多色動画像が生成される。
本実施形態による多色画像処理装置の構成は、実施形態4の多色画像処理装置4(図12)と同じである。本実施形態による多色画像処理装置が実施形態4の多色画像処理装置4と異なる点は、以下のとおりである。
第1に、本実施形態5においては、撮像部101は、画素位置が相対的にずれた第2および第3の色成分の画像を取得する。第2に、画像処理部106は、第2および第3の色成分の画像の画素位置が相対的にずれていることを加味して処理を行う。これらの相違点は、より具体的には、撮像部101の撮像素子104、および、画像処理部106の動き推定部108の動作の相違として現れる。撮像素子104および動き推定部108以外の各処理部の動作は、実施形態4の多色画像処理装置4と同様である。
画素位置がずれた第2および第3の色成分の画像の例を図13に示す。図13では、第2の色成分である赤の動画像に対し、第3の色成分である青の動画像は、画素の位置が垂直方向および水平方向ともに約半画素の長さほど並行移動している。
撮像部101は、撮像素子104におけるビニング処理時に加算を行う画素位置の組み合わせを変えることで、図13のような画像を取得する。なお、このような画素位置のずれた画像は、青の撮像素子104cの設置位置をずらすことによっても取得可能である。
画像処理部106は、実施形態1〜4と同様の処理を行ったとしても、画素位置がずれている青の動画像を用いて多色動画像を合成することができ、実施形態1〜4と同等の効果を得ることができる。
しかしながら本実施形態では、動き推定部108において、赤と青の2つの動画像間で画素位置がずれていることを利用することで、より精度の高い動き情報Vを算出し、結果として画質の高い多色動画像を生成する。
以下、動き推定部108が動き情報Vを算出する2つの異なる手順を説明する。
(手順1)
実施形態1の動き推定部108は、赤の動画像RLHを用いて、中間フレームとその前後のベースフレーム画像の間の動きを算出した(図3)。
これに対し、本実施形態における動き推定部108は、画素位置のずれた赤と青の動画像RLH、BLHをそれぞれバイキュービック法により補間拡大した後に加算平均し、解像度を向上した赤と青の混合動画像RBHHを生成する。そして、動き低解像度の赤の動画像RLHの変わりに、混合動画像RBHHを用いて、中間フレームとその前後のベースフレーム画像の間の動きを算出し、これを動き情報Vとして出力する。
混合動画像RBHHは、赤の動画像RLH(または青の動画像BLH)に対して、水平垂直とも2倍の周波数成分までの含むこととなる。そのため、赤の動画像RLHを用いて動きを算出する場合に比べて、動き情報Vの精度が高くなることが期待できる。
(手順2)
上述した手順1では、画素位置がずれた2つの動画像を加算して得た混合動画像は、もとの動画像より高い周波数成分を含む、という性質を利用している。また、実施形態3の動き推定部108においては、赤の動画像に緑の動画像に含まれる高域成分を加えて得た解像度変換画像は、もとの動画像より高い周波数成分を含む、という性質を利用している。これら2つの方法は、それぞれ、異なる情報を利用しているため、組み合わせて用いることが可能である。
そこで、本実施形態における動き推定部108は、画素位置のずれた赤と青の動画像RLH、BLHをそれぞれ補間拡大した後に加算平均することで、解像度を向上した赤と青の混合動画像RBHHを生成し、その後、得られた混合動画像RBHHに対して緑の動画像に含まれる高域成分を加えて、更なる解像度変換画像を得る。
図15は、上述した手順によって生成された混合動画像RBHHの例を示す。動き推定部108は、画素位置のずれた赤と青の動画像RLH、BLH(各々4000×2000画素×30fps)の解像度を、緑の動画像と同じ解像度にそれぞれ補間拡大した後、加算平均を行う。これにより、動き推定部108は高解像度(8000×4000画素×30fps)の混合動画像RBHHを生成する。
さらに、動き推定部108は、混合動画像RBHHに対して緑の動画像GHLを用いて解像度を高めた解像度変換動画像RBHH’を生成する。そして動き推定部108は、解像度変換動画像RBHH’を用いて中間フレームとその前後のベースフレーム画像の間の動きを算出し、動き情報Vとして出力する。
図16は、本実施形態による動き推定部108による、動き情報Vの算出手順の概念を示す。動きの情報の算出の手順(1)〜(4)は、実施形態3の動き推定部108(図11)と同じである。図16の手順が図11の手順と異なる点は、実施形態3の赤の動画像の代わりに、混合動画像RBHHを用いる点である。
この解像度変換画像RBHH’は、混合動画像RBHHと緑の動画像GHLの両方の高域成分を含むこととなる。そのため、解像度変換画像RBHH’を用いて算出される動き情報は、手順1や実施形態3に比べて、動き情報Vの精度が高くなることが期待できる。
動き補償部109以降の各処理手段の動作は、実施形態4と同じである。
以上のように本実施形態5では、撮像部101は、赤と青の2つの動画像間で画素位置がずれた画像を取得する。そして、画像処理部106では、動き推定部108において、赤と青の2つの動画像間で画素位置がずれていることを利用することで、より精度の高い動き情報Vを算出することができる。精度の高い動き情報を用いて、結果として画質の高い多色動画像を生成できる。
以上のように画素の位置を各色成分の動画像間でずらして処理することにより、合成動画像の画質が向上するという効果が得られる。その理由は、画素位置がずれた2つの画像を用いて動き推定部108が動き情報を求めると、位置がずれていない画像を用いる場合に対して、動き推定の精度が向上するためである。その結果、動き補償部109によって生成される第1の色成分の合成動画像の画質が向上し、多色動画像の画質が向上するという効果を得ることができる。加えて、緑の動画像に含まれる高域成分を加味すると、さらに動き推定の精度が高まる。その結果、多色動画像の画質が向上するという効果を得ることができる。
なお、本発明の各実施形態の説明においては、撮像部101と画像処理部106は、ともに常に動作するものとしたが、これに限定するものではなく、例えばユーザーのボタン操作に応じて各処理部の動作と停止を制御する、などとしてもよい。また、撮像部101と画像処理部106は、それぞれ別に動作するとしてもよく、例えば、画像の撮影時には撮影部101から出力される複数の色成分の動画像を記憶部107に記憶しておき、撮影が完了後、撮影した画像を再生する際に、画像処理部106で多色画像を生成するとしてもよい。このように動作させる際には、記憶部107は、大容量のメディア、たとえばハードディスクや光ディスク、不揮発性半導体メモリが好適である。
また、本発明の各実施形態の説明においては、動き補償部109は、中間フレーム画像の緑の合成画像の任意の矩形小領域の画素値として、動き推定部108で算出された動き情報をもとに、対応する位置のベースフレーム画像の緑の動画像の小矩形領域の画素値を用いることで、フレームレートの高い緑の合成動画像GHHを生成するものとした。
しかし、ベースフレーム画像の小矩形領域の画素値をそのまま用いる代わりに、第1の色成分である緑の合成動画像と第2(または第3)の色成分である赤(または青)の動画像の時間相関が高くなるように、時間相関を評価値として用いて、中間フレーム画像内の小矩形領域の画素値を演算により求めてもよい。
例えば、実施形態1の動き補償部109の動作によって生成された緑の合成動画像GHH、および赤の動画像RLHのうち、連続する5枚の画像GHH(f),・・・,GHH(f+4)とRLH(f),・・・,RLH(f+4)について、その全画素の平均値の時間変化が一致するように、動き補償部109においてGHH(f),・・・,GHH(f+4)を生成する際に、緑の動画像GHLの2つのベースフレームにゲインを乗じるとしてもよい。もしくは、動き補償部109で一旦求めたGHH(f),・・・,GHH(f+4)の画素値を、ゲインを乗じて修正するとしても良い。後者の処理は、動き補償部109が行ってもよいし、高解像度化部110が行ってもよい。
このように動き補償部109において、緑の合成動画像を生成する際に、赤の動画像と平均輝度の時間相関が高くなるようにすることで、例えば、動画像を撮影中にストロボ発光などの照明変動が発生した場合であっても、多色動画像における緑と赤の平均輝度の時間変化がずれないという効果がある。
なお、上述の各実施形態の多色画像処理装置は、多色画像の最も一般的な例として、赤、緑、青の3つの色成分の動画像を扱うものとしたが、色成分の数を3に限定するものではなく、2つ以上の色成分で構成される動画像であれば、同様の効果を得ることができる。
また、第1の色成分は緑、第2の色成分は赤(第3の色成分は青)としたが、これに限定するものではなく、光を波長領域で2つ以上の成分に分離したものであればどのような組み合わせであってもよい。例えば、第1の色成分は可視光であり、第2の色成分は近赤外であるとしてもよく、この場合、画像処理部106によってフレームレートを高めた第1の色成分である可視光の動画像を含む、多色動画像を得ることができる。
なお、各実施形態による多色画像処理装置は、撮像部101および画像処理部106を有し、さらにそれらが複数の処理部を含むとして説明した。しかし、撮像部101および画像処理部106は一体化されていてもよい。また、撮像部101および/または画像処理部106内の処理部が、1つのICなどに収まっているものであってもよい。
上述の実施形態では、多色画像処理装置は、図1、7、10および12にそれぞれ示す構成を有するとして説明した。たとえば、各構成に含まれる動き推定部などは、機能的に見たブロックとして記載されていた。これらの機能ブロックは、ハードウェア的には、デジタル信号プロセッサ(DSP)のような1つの半導体チップまたはICによって実現することも可能であるし、たとえばコンピュータとソフトウェア(コンピュータプログラム)とを用いて実現することもできる。
たとえば、図14は、コンピュータによって構成された多色画像処理装置のハードウェア構成を示す。
各実施形態の多色画像処理装置の各機能ブロックと、図14に示すハードウェアとの対応関係は以下のとおりである。たとえば図1に示す多色画像処理装置1を例に説明する。
多色画像処理装置1の撮像部101は、図14に示すカメラ901に対応する。また、記憶部107は、図14に示すRAM906またはハードディスクドライブ(HDD)910に対応する。そして動き推定部108、動き補償部109および多色画像合成部111は、コンピュータプログラムを実行した図14のCPU904によって実現される。また、図7の高解像度化部110についてもコンピュータプログラムを実行した図14のCPU904によって実現される。
図13のコンピュータを動作させるコンピュータプログラムは、たとえばROM905に保持されている。コンピュータプログラムは、プロセッサであるCPU904によってRAM906に読み出されて展開される。CPU904はコンピュータプログラムの実態であるコード化された各命令を実行する。
なお、たとえば動き推定部108を実現するコンピュータプログラムは、たとえば図5に示すフローチャートのような手順で記述されている。コンピュータプログラムは、半導体であるROM905に限られず、たとえば光ディスク、磁気ディスクに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM906に取り込まれてもよい。
上述した実施形態によれば、複数の色成分の動画像の各々は、ハーフミラーなどを用いることなく、入射光を色成分ごとに分離して撮影される。そのため、ハーフミラーを用いる従来の技術と比較すると、各色成分の動画像では光量の低下は発生しないので、画像が明るく、SN比が高い色成分の動画像が得られる。それらの色成分画像に基づいて生成された解像度とフレームレートがともに高い多色動画像もまた明るく、かつ、高いSN比を有する。
また実施形態2によれば、合成動画像と第2動画像の時間相関を用いて、この相関値が高くなるように合成画像を求めるため、第1の色成分の画像と第2の色成分の画像との時間変化のずれの少ない合成動画像を生成することができる。
また実施形態3によれば、解像度を高めた第2の合成動画像を生成するため、より高解像度な多色動画像を得ることができる。また、第2動画像の解像度を変換した変換動画像を用いて動きを推定することにより、動き推定の精度が向上することが期待できる。その結果、より解像度の高い多色動画像を得ることができるという効果がある。
本発明にかかる多色画像処理装置および多色画像撮像装置は、動画像を撮影して送信または記憶するカメラ、ならびに、受信もしくはあらかじめ記憶された動画像の画質を向上するテレビやビデオなどの映像受信表示装置、システムとして有用である。その利用形態は、独立した画像処理装置であってもよいし、カメラやテレビなどに内蔵されるものであってもよい。また、コンピュータ上で動作するプログラムとしても実現され、利用することが可能である。
101 撮像部
102 レンズ系
103 色成分分離部
104 撮像素子
105 撮像制御部
106 画像処理部
107 記憶部
108 動き推定部
109 動き補償部
110 高解像度化部
111 多色画像合成部

Claims (29)

  1. 第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成する画像処理装置であって、
    前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、
    前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、
    前記第1動画像のデータおよび前記第2動画像のデータに基づいて、前記第1フレームレートより高いフレームレートの前記第1動画像に対応する合成動画像を生成する第1の画像合成部と、
    前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成する第2の画像合成部とを備え、
    前記第1の画像合成部は、
    前記第2動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成する動き推定部と、
    前記動き情報に基づいて前記第1動画像を構成する画像を変化させた前記合成画像を生成し、前記合成画像および前記第1動画像を利用して前記第1動画像に対応する前記合成動画像を出力する動き補償部と
    を有する、画像処理装置。
  2. 前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、さらに前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、
    前記動き推定部は、前記第2動画像の中間フレーム画像およびベースフレーム画像の画像間の変化に基づいて動き情報を生成し、
    前記動き補償部は、前記第1動画像のベースフレーム画像を前記動き情報に基づいて変化させることによって、前記第2動画像の中間フレームに対応する合成画像を生成する、請求項1に記載の画像処理装置。
  3. 前記動き推定部は、前記第2動画像の中間フレーム画像、および、前記中間フレーム画像よりも時間的に前に撮影されたベースフレーム画像の画像間の変化に基づいて動き情報を生成する、請求項に記載の画像処理装置。
  4. 前記動き推定部は、前記第2動画像の中間フレーム画像、および、前記中間フレーム画像よりも時間的に後に撮影されたベースフレーム画像の画像間の変化に基づいて動き情報を生成する、請求項に記載の画像処理装置。
  5. 前記動き推定部は、
    前記第2動画像の中間フレーム画像U、および、前記中間フレーム画像よりも時間的に前に撮影されたベースフレーム画像Sの画像間の変化に基づいて動き情報Sを生成し、かつ、
    前記第2動画像の中間フレーム画像U、および、前記中間フレーム画像よりも時間的に後に撮影されたベースフレーム画像Tの画像間の変化に基づいて動き情報Tを生成し、
    前記動き補償部は、
    前記第2動画像のベースフレーム画像Sに対応する前記第1動画像のベースフレーム画像Sを、前記動き情報Sに基づいて変化させ、かつ、
    前記第2動画像のベースフレーム画像Tに対応する前記第1動画像のベースフレーム画像Tを、前記動き情報Tに基づいて変化させて、前記第2動画像の中間フレームUに対応する合成画像を生成する、請求項に記載の画像処理装置。
  6. 前記動き推定部は、前記少なくとも2枚の画像の各々に対して複数の領域を設定して、各領域内の画像の変化に基づいて前記各領域に対する動き情報を生成し、
    前記動き補償部は、前記第1動画像を構成する画像に対して複数の領域を設定し、各領域を前記動き情報に基づいて変化させて1枚の合成画像を生成する、請求項1に記載の画像処理装置。
  7. 前記動き補償部は、前記第1動画像および前記第2動画像の時間相関を評価値として用いることにより、前記第1動画像のデータ、前記第2動画像のデータおよび前記動き情報に基づいて、任意のタイミングの前記第1動画像に対応する合成画像を生成する、請求項1に記載の画像処理装置。
  8. 前記動き補償部は、前記合成動画像および前記第2動画像の時間相関を評価値として用いることにより、前記合成動画像に含まれる前記合成画像の画素値を修正する、請求項に記載の画像処理装置。
  9. 前記第1動画像に対応する合成動画像のデータおよび前記第2動画像のデータを受け取り、前記合成動画像を構成する画像の情報に基づいて、第2動画像を高解像度化して、第2動画像に対応する合成動画像を生成する高解像度化部をさらに備え、
    前記合成部は、前記第2動画像に代えて前記第2動画像に対応する合成動画像を受け取り、前記第1動画像に対応する合成動画像と合成して、前記多色動画像を生成する、請求項1に記載の画像処理装置。
  10. 前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像および前記第2動画像の空間相関を評価値として用いる、請求項に記載の画像処理装置。
  11. 前記動き推定部は、前記第1動画像のデータおよび第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像と、前記第1動画像のベースフレーム画像を用いて第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像とを生成し、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて前記動き情報を生成し、前記第2動画像の動き情報として出力する、請求項に記載の画像処理装置。
  12. 前記動き推定部は、前記第1動画像の画像および前記第2動画像の画像間の空間相関に基づいて、第2動画像の解像度を変換した変換動画像を生成する、請求項11に記載の画像処理装置。
  13. 前記画像処理装置は、さらに第3動画像のデータに基づいて多色動画像のデータを生成することが可能であり、
    前記第3動画像は、前記第1フレームレートよりも高い第3フレームレートで、前記第1色成分および前記第2色成分と異なる第3色成分の複数の画像を有しており、かつ、前記第3動画像の解像度は、前記第1動画像の解像度以下であり、
    前記動き推定部は、さらに第3動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成し、
    前記動き補償部は、前記第2動画像に関する動き情報、前記第3動画像に関する動き情報および前記第1動画像のデータに基づいて、前記第1動画像に対応する合成動画像を生成し、
    前記合成部は、前記合成動画像、前記第2動画像および前記第3動画像を受け取って合成し、前記第1色成分、前記第2色成分および前記第3色成分を含む多色動画像を生成する、請求項1に記載の画像処理装置。
  14. 前記第2の動画像および前記第3の動画像は、画素の空間配置が異なっている、請求項13に記載の画像処理装置。
  15. 前記第1色成分は緑である、請求項1に記載の画像処理装置。
  16. 受けた光を少なくとも第1色成分および第2色成分に分離する色分離部と、
    分離された前記第1色成分の光および前記第2色成分の光に基づいて、前記第1動画像および前記第2動画像を撮影する撮像部と
    をさらに備え、
    前記撮像部は、前記第2動画像の解像度以上の解像度で前記第1動画像を撮影するとともに、前記第2動画像のフレームレート未満のフレームレートで前記第1動画像を撮影する、請求項1に記載の画像処理装置。
  17. 前記撮像部は、撮影された動画像に応じて複数の色成分の動画像の解像度とフレームレートを制御する、請求項16に記載の画像処理装置。
  18. 第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成する画像処理方法であって、
    前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、
    前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、
    前記第2動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成するステップと、
    前記動き情報に基づいて前記第1動画像を構成する画像を変化させた前記合成画像を生成し、前記合成画像および前記第1動画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップと、
    前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成するステップと
    を包含する、画像処理方法。
  19. 画像処理装置に設けられたプロセッサに、第1動画像のデータおよび第2動画像のデータに基づいて多色動画像のデータを生成させるコンピュータプログラムであって、
    前記第1動画像は、第1フレームレートで、第1色成分の複数の画像を有しており、
    前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで、前記第1色成分と異なる第2色成分の複数の画像を有しており、かつ、前記第2動画像の解像度は、前記第1動画像の解像度以下であり、
    前記コンピュータプログラムは、前記プロセッサに、
    前記第2動画像のデータを受け取り、前記第2動画像を構成する少なくとも2枚の画像間の変化に基づいて動き情報を生成するステップと、
    前記動き情報に基づいて前記第1動画像を構成する画像を変化させた前記合成画像を生成し、前記合成画像および前記第1動画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップと、
    前記合成動画像および前記第2動画像を受け取って合成し、前記第1色成分および前記第2色成分を含む多色動画像を生成するステップと
    を実行させる、コンピュータプログラム。
  20. 請求項19に記載のコンピュータプログラムを記録した記録媒体。
  21. 前記動き推定部は、前記第2動画像を構成する画像と前記第3動画像を構成する画像とを、画素の空間配置を加味して重み付き加算することにより混合動画像を生成し、生成した前記混合動画像を構成する少なくとも2枚の画像間の変化に基づいて前記動き情報を生成する、請求項14に記載の画像処理装置。
  22. 前記動き推定部は、前記第2動画像を構成する画像と前記第3動画像を構成する画像とを、画素の空間配置を加味して重み付き加算することにより混合動画像を生成し、さらに、前記第1動画像のベースフレーム画像を用いて前記混合動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像と、前記第1動画像のベースフレーム画像を用いて前記混合動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像とを生成し、前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の変化に基づいて前記動き情報を生成する、請求項21に記載の画像処理装置。
  23. 前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像に含まれる高域成分を前記第2動画像に加える、請求項に記載の画像処理装置。
  24. 前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、前記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像に対応する合成動画像と第2動画像に対応する合成画像との間の相関を強くする、請求項に記載の画像処理装置。
  25. 前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像を構成する画像および前記第2動画像を構成する画像との相関の度合いに応じて、前記第1動画像に対応する合成動画像の画像と前記第2動画像に対応する合成動画像の画像との相関の度合いを変える、請求項10に記載の画像処理装置。
  26. 前記高解像度化部は、前記第1動画像に対応する合成動画像を構成する画像の情報に基づいて、前記第2動画像を高解像度化し、第2動画像に対応する合成動画像を生成する際に、前記第1動画像を構成する画像および前記第2動画像を構成する画像との相関が弱い領域は、前記第2動画像の画像を補間拡大することで第2動画像に対応する合成動画像の画像を生成する、請求項10に記載の画像処理装置。
  27. 第1動画像のデータおよび第2動画像のデータに基づいて前記第1動画像および前記第2動画像を構成するフレーム間の動きを算出する動き算出方法であって、
    前記第1動画像は、第1フレームレートで複数の画像を有しており、
    前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで複数の画像を有しており、
    前記第2動画像の解像度は、前記第1動画像の解像度以下であり、
    前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、
    前記第1動画像のデータおよび前記第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像を生成するステップと、
    前記第1動画像のベースフレーム画像を用いて前記第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像を生成するステップと、
    前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて動き情報を生成するステップと
    を包含する、フレーム間動き算出方法。
  28. 前記第1動画像は、第1色成分の複数の画像を有しており、
    前記第2動画像は、前記第1色成分と異なる第2色成分の複数の画像を有している、請求項27に記載のフレーム間動き算出方法。
  29. 第1動画像のデータおよび第2動画像のデータに基づいて合成動画像のデータを生成する画像処理方法であって、
    前記第1動画像は、第1フレームレートで複数の画像を有しており、
    前記第2動画像は、前記第1フレームレートよりも高い第2フレームレートで複数の画像を有しており、
    前記第1動画像および前記第2動画像は、互いに同じタイミングで撮影されたベースフレーム画像をそれぞれ有しており、前記第2動画像は、隣接する2つのベースフレーム画像が撮影される間にさらに撮影された中間フレーム画像を有しており、
    前記第1動画像のデータおよび第2動画像のデータを受け取り、前記第1動画像のベースフレーム画像を用いて前記第2動画像のベースフレーム画像の解像度を変換したベースフレーム解像度変換画像を生成するステップと、
    前記第1動画像のベースフレーム画像を用いて第2動画像の中間フレーム画像の解像度を変換した中間フレーム解像度変換画像を生成するステップと、
    前記ベースフレーム解像度変換画像と前記中間フレーム解像度変換画像間の類似度に基づいて動き情報を生成するステップと、
    前記第1動画像のデータおよび前記第2動画像のデータと前記動き情報とに基づいて、前記第1動画像を構成する画像を変化させた合成画像を生成し、前記第1動画像および前記合成画像を利用して前記第1フレームレートより高いフレームレートで、前記第1動画像に対応する合成動画像を出力するステップと、
    を包含する、画像処理方法。
JP2009523521A 2007-07-17 2008-05-13 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法 Active JP4469018B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2007186049 2007-07-17
JP2007186049 2007-07-17
JP2008037961 2008-02-19
JP2008037961 2008-02-19
PCT/JP2008/001196 WO2009011082A1 (ja) 2007-07-17 2008-05-13 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法

Publications (2)

Publication Number Publication Date
JP4469018B2 true JP4469018B2 (ja) 2010-05-26
JPWO2009011082A1 JPWO2009011082A1 (ja) 2010-09-16

Family

ID=40259430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009523521A Active JP4469018B2 (ja) 2007-07-17 2008-05-13 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法

Country Status (5)

Country Link
US (1) US7903156B2 (ja)
EP (1) EP2175657A4 (ja)
JP (1) JP4469018B2 (ja)
CN (1) CN101743755B (ja)
WO (1) WO2009011082A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
EP2088787B1 (en) * 2007-08-07 2015-01-21 Panasonic Corporation Image picking-up processing device, image picking-up device, image processing method and computer program
EP2308947B1 (en) * 2008-07-11 2016-06-08 National Institute for Materials Science Luminescent nanosheet, fluorescent device, solar cell and color display using the same, and nanosheet coating
US8289444B2 (en) * 2009-05-06 2012-10-16 Samsung Electronics Co., Ltd. System and method for reducing visible halo in digital video with covering and uncovering detection
JP4806476B2 (ja) * 2010-01-07 2011-11-02 パナソニック株式会社 画像処理装置、画像生成システム、方法、およびプログラム
WO2012004928A1 (ja) 2010-07-08 2012-01-12 パナソニック株式会社 撮像装置
CN102783155A (zh) * 2010-07-12 2012-11-14 松下电器产业株式会社 图像生成装置
US8730318B2 (en) * 2010-07-29 2014-05-20 Hitachi-Ge Nuclear Energy, Ltd. Inspection apparatus and method for producing image for inspection
WO2013003330A1 (en) * 2011-06-27 2013-01-03 Massachusetts Institute Of Technology Modulated aperture imaging for automatic moving target detection
US9124778B1 (en) * 2012-08-29 2015-09-01 Nomi Corporation Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
US9704266B2 (en) 2014-12-11 2017-07-11 Rdi, Llc Non-contacting monitor for bridges and civil structures
US10062411B2 (en) 2014-12-11 2018-08-28 Jeffrey R. Hay Apparatus and method for visualizing periodic motions in mechanical components
US20170061586A1 (en) * 2015-08-28 2017-03-02 Nokia Technologies Oy Method, apparatus and computer program product for motion deblurring of image frames
CN107465853A (zh) * 2017-08-24 2017-12-12 东南大学 基于运动补偿的场序显示器摄像***
US11032470B2 (en) * 2018-08-30 2021-06-08 Intel Corporation Sensors arrangement and shifting for multisensory super-resolution cameras in imaging environments
US11423551B1 (en) 2018-10-17 2022-08-23 Rdi Technologies, Inc. Enhanced presentation methods for visualizing motion of physical structures and machinery
US11373317B1 (en) 2020-01-24 2022-06-28 Rdi Technologies, Inc. Measuring the speed of rotation or reciprocation of a mechanical component using one or more cameras
US11683568B2 (en) * 2020-02-21 2023-06-20 Hitachi Kokusai Electric Inc. Image capturing system, image processing program, and image processing method
US11282213B1 (en) 2020-06-24 2022-03-22 Rdi Technologies, Inc. Enhanced analysis techniques using composite frequency spectrum data
US11322182B1 (en) 2020-09-28 2022-05-03 Rdi Technologies, Inc. Enhanced visualization techniques using reconstructed time waveforms
US20220327718A1 (en) * 2021-04-13 2022-10-13 Qualcomm Incorporated Techniques for enhancing slow motion recording

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203318A (ja) * 1993-12-28 1995-08-04 Nippon Telegr & Teleph Corp <Ntt> 撮像装置
JP2004040422A (ja) * 2002-07-02 2004-02-05 Monolith Co Ltd 画像処理方法と装置
JP2005318548A (ja) * 2004-03-30 2005-11-10 Masahiko Yanaida 撮像システム、画像データ列作成装置、画像生成装置、画像データ列生成装置、画像データ列生成システム、及び画像伝送システム
JP3934151B2 (ja) * 2005-06-22 2007-06-20 松下電器産業株式会社 画像生成装置および画像生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05219513A (ja) * 1992-01-27 1993-08-27 Ikegami Tsushinki Co Ltd 固体撮像装置
US5640206A (en) * 1994-05-31 1997-06-17 Victor Company Of Japan, Ltd. Imaging apparatus including offset pixels for generating vertical high frequency component
US6611289B1 (en) * 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3531035B2 (ja) 2001-06-18 2004-05-24 コニカミノルタホールディングス株式会社 画像撮影記録装置
JP4039858B2 (ja) 2002-01-09 2008-01-30 株式会社モノリス 画像マッチング方法と装置、および画像符号化方法と装置
JP3673845B2 (ja) * 2002-11-19 2005-07-20 コニカミノルタホールディングス株式会社 撮像装置
US20050219642A1 (en) * 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
US7777790B2 (en) * 2005-01-27 2010-08-17 Technion Research & Development Foundation Ltd. Acquisition of image sequences with enhanced resolution

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07203318A (ja) * 1993-12-28 1995-08-04 Nippon Telegr & Teleph Corp <Ntt> 撮像装置
JP2004040422A (ja) * 2002-07-02 2004-02-05 Monolith Co Ltd 画像処理方法と装置
JP2005318548A (ja) * 2004-03-30 2005-11-10 Masahiko Yanaida 撮像システム、画像データ列作成装置、画像生成装置、画像データ列生成装置、画像データ列生成システム、及び画像伝送システム
JP3934151B2 (ja) * 2005-06-22 2007-06-20 松下電器産業株式会社 画像生成装置および画像生成方法

Also Published As

Publication number Publication date
CN101743755B (zh) 2012-09-05
EP2175657A1 (en) 2010-04-14
US7903156B2 (en) 2011-03-08
CN101743755A (zh) 2010-06-16
JPWO2009011082A1 (ja) 2010-09-16
EP2175657A4 (en) 2011-04-20
US20100157149A1 (en) 2010-06-24
WO2009011082A1 (ja) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4469018B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法
JP4317586B2 (ja) 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
JP4720859B2 (ja) 画像処理装置、画像処理方法およびプログラム
US8368771B2 (en) Generating a synthesized image from a plurality of images
JP4129287B2 (ja) 撮像素子
JP4317587B2 (ja) 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
JP5421647B2 (ja) 撮像装置及びその制御方法
JP5341010B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5002738B2 (ja) 画像生成装置
WO2009145201A1 (ja) 画像処理装置、画像処理方法及び撮像装置
JP5096645B1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
US8982248B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20100073546A1 (en) Image Processing Device And Electric Apparatus
JP2009147730A (ja) 動画生成装置、動画撮影装置、動画生成方法及びプログラム
US20100141823A1 (en) Image Processing Apparatus And Electronic Appliance
JP2011097568A (ja) 撮像装置
JP2004015772A (ja) 撮像装置
JP2002084449A (ja) 固体撮像素子を用いた撮像装置
JP2013162347A (ja) 画像処理装置、画像処理方法、プログラム、および装置
US7970227B2 (en) Image processing apparatus, image processing method, and computer program
JP2011171842A (ja) 画像処理装置及び画像処理プログラム
JP4246244B2 (ja) 撮像装置
JP5548023B2 (ja) 撮像装置および撮像方法
JP2005051393A (ja) 撮像装置
JP5233611B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100225

R150 Certificate of patent or registration of utility model

Ref document number: 4469018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4