JP2010245686A - 撮像装置、画像処理方法、および、画像処理プログラム - Google Patents

撮像装置、画像処理方法、および、画像処理プログラム Download PDF

Info

Publication number
JP2010245686A
JP2010245686A JP2009090141A JP2009090141A JP2010245686A JP 2010245686 A JP2010245686 A JP 2010245686A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2009090141 A JP2009090141 A JP 2009090141A JP 2010245686 A JP2010245686 A JP 2010245686A
Authority
JP
Japan
Prior art keywords
image data
processing
image
unit
raw
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009090141A
Other languages
English (en)
Inventor
Manabu Ichikawa
学 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009090141A priority Critical patent/JP2010245686A/ja
Publication of JP2010245686A publication Critical patent/JP2010245686A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】2枚の画像データを合成して、合成画像を得る際に、処理時間がかかる。
【解決手段】撮影61bにより得られたRAWデータに対して、同時化された画像データを得るためのYC処理62bを行い、YC処理62bにより得られた画像データと、1つ前の撮影61a後にローパスフィルタ処理65aが行われた画像データとを合成する処理63bを行い、LCDに表示する(表示処理64b)。この後、YC処理62b後の画像データに対して、ローパスフィルタ処理65bが施される。ローパスフィルタ処理65bが施された画像データは、次の撮影61cにより得られたRAWデータに対してYC処理62cが施された画像データと合成する処理63cが行われる。
【選択図】図6

Description

本発明は、複数の画像を合成する技術に関する。
銀塩カメラによる撮影の際に、撮影レンズの前に光学フィルタを配置することで、輪郭はある程度はっきりしているが、全体的にフレアっぽいソフトフォーカス効果を有する画像を撮影することができる。一方、デジタルカメラでは、そのような光学フィルタを配置することなく、撮影した画像データを画像処理することにより、銀塩カメラのソフトフォーカスと同様な効果を再現する方法が提案されている。特許文献1では、撮影した画像データに対してフィルタ処理を施した画像データと、元の画像データとを合成することにより、ソフトフォーカスを実現する手法が提案されている。
特開平09−251532号公報
ライブビュー表示や動画撮影時において、画像を撮影してから画像処理を行って表示または記録するまでの時間は、フレームレートにより制限を受ける。そのため、フレームレートを高くするほど、画像処理を行う時間も制限される傾向にある。
一方、ソフトフォーカスのように、画像データに対してフィルタ処理を行って元の画像と合成する場合には、画像サイズが大きくなると処理時間が長くなる。そのため、上述したライブビュー表示や動画撮影においては、これらの処理時間を確保するために、画像サイズを小さくしたり、フレームレートを下げたりする必要があった。
本発明は、ライブビュー表示や動画記録時に、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮する技術を提供することを目的とする。
本発明のある態様に係る撮像装置は、被写体を撮像してRAW画像データを得る撮像部と、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、前記合成画像データを表示する表示部と、を備えることを特徴とする。
本発明の別の態様に係る画像処理方法は、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、を備えることを特徴とする。
本発明のさらに別の態様に係る画像処理プログラムは、被写体を撮像することにより得られるRAW画像データを入力するステップと、前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、をコンピュータに実行させるためのプログラムである。
本発明によれば、複数の画像を合成する処理を行う場合に、撮影から合成処理までに要する時間を短縮することができる。
図1は、一実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。 一実施形態に係る撮像装置としてのデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。 静止画の撮影・記録動作の詳しい処理内容を示すフローチャートである。 動画の撮影・記録動作の詳しい処理内容を示すフローチャートである。 ライブビュー表示の詳しい処理内容を示すフローチャートである。 図6(a)は、一実施の形態における撮像装置によって行われるライブビュー表示および動画撮影時のタイムチャートを示す図であり、図6(b)は、従来技術によるライブビュー表示および動画撮影時のタイムチャートを示す図である。
図1は、一実施形態における撮像装置であるデジタルスチルカメラの構成を示すブロック図である。図1に示すデジタルスチルカメラは、カメラ本体1と交換式レンズ2から構成される。
交換式レンズ2は、レンズ1010と、Flashメモリ1011と、マイクロコンピュータ1012と、ドライバ1013と、絞り1014と、を有している。交換式レンズ2は、I/F999を介して、カメラ本体1と通信可能に接続されている。
カメラ本体1は、メカシャッター101と、撮像素子102と、アナログ処理部103と、アナログ/デジタル変換部104(以下、A/D変換部104)と、バス105と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリインターフェース111(以下、メモリI/F111)と、記録媒体112と、LCDドライバ113と、LCD114と、マイクロコンピュータ115と、操作部116と、Flashメモリ117と、ローパスフィルタ部118と、画像合成部119と、を有している。
レンズ1010は、被写体の光学像を撮像素子102に集光させる。レンズ1010は、単焦点レンズであってもよいし、ズームレンズであってもよい。
マイクロコンピュータ1012は、I/F999、Flashメモリ1011、および、ドライバ1013と接続されていて、Flashメモリ1011に記憶されている情報の読み込み・書き込みを行うとともに、ドライバ1013を制御する。マイクロコンピュータ1012は、さらに、I/F999を介して、マイクロコンピュータ115と通信することができ、様々な情報をマイクロコンピュータ115へ送信し、また、マイクロコンピュータ115から絞り値等の情報を受信する。
ドライバ1013は、マイクロコンピュータ1012の指示を受けて、レンズ1010を駆動させて、焦点距離やフォーカス位置の変更を行うとともに、絞り1014を駆動する。絞り1014は、レンズ1010の近傍に設けられ、被写体の光量を調節する。
メカシャッター101は、マイクロコンピュータ115の指示を受けて駆動し、撮像素子102に被写体を露光する時間を制御する。
撮像素子102は、各画素を構成するフォトダイオードの前面に、ベイヤー配列のカラーフィルタが配置された撮像素子である。ベイヤー配列は、水平方向にR画素とG(Gr)画素が交互に配置されたラインと、G(Gb)画素とB画素が交互に配置されたラインとを有し、さらにその2つのラインを垂直方向にも交互に配置することで構成されている。この撮像素子102は、レンズ1010により集光された光を、画素を構成するフォトダイオードで受光して光電変換することで、光の量を電荷量としてアナログ処理部103へ出力する。なお、撮像素子102は、CMOS方式のものでもCCD方式のものでも良い。
アナログ処理部103は、撮像素子102から読み出された電気信号(アナログ画像信号)に対し、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるように、ゲインアップを行う。A/D変換部104は、アナログ処理部103から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。
バス105は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。バス105は、A/D変換部104と、SDRAM106と、画像処理部107と、AE処理部108と、AF処理部109と、JPEG処理部110と、メモリI/F111と、LCDドライバ113と、マイクロコンピュータ115と、ローパスフィルタ部118と、画像合成部119に接続されている。
A/D変換部104から出力される画像データは、バス105を介して一旦SDRAM106に記憶される。SDRAM106は、A/D変換部104において得られた画像データや、画像処理部107、JPEG処理部110、ローパスフィルタ部118、画像合成部119において処理された画像データ等の各種データが一時的に記憶される記憶部である。
画像処理部107は、オプティカルブラック減算部1071(以下、OB減算部)、ホワイトバランス補正部1072(以下、WB補正部1072)、同時化処理部1073、ガンマ・色再現処理部1074、カラーマトリクス演算部1075、エッジ強調処理部1076、および、ノイズ低減処理部1077(以下、NR処理部1077)を含み、SDRAM106から読み出した画像データに対して様々な画像処理を施す。
OB減算部1071は、画像データに対して、オプティカルブラック減算処理(以下、OB減算処理)を行う。OB減算処理は、画像データを構成する各画素の画素値から、撮像素子102の暗電流等に起因するオプティカルブラック値(以下、OB値)を減算する処理である。
WB補正部1072は、画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。ホワイトバランスモードは、晴天、曇天、電球、蛍光灯などの光源に応じて、ユーザが設定可能である。
同時化処理部1073は、ベイヤー配列による画像データから、1画素あたりR、G、Bの情報からなる画像データへ同時化する処理を行う。ガンマ・色再現処理部1074は、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。
カラーマトリクス演算部1075は、画像データに対して、カラーマトリクスを乗じる線形変換を行って、画像データの色を補正する。エッジ強調処理部1076は、画像データから、エッジを抽出し、抽出したエッジのデータに所定のゲインを乗じてから、画像データに加算することにより、画像データのエッジを強調する処理を行う。NR処理部1077は、高周波を低減するフィルタを用いた処理や、コアリング処理等により、ノイズを低減する処理を行う。
画像処理部107は、必要に応じて、内部に備えた各部1071〜1077を選択して、各処理を行う。画像処理部107によって各処理が行われた後の画像データは、SDRAM106に記憶される。
AE処理部108は、画像データから被写体輝度を算出する。被写体輝度を算出するためのデータは、専用の測光センサの出力であってもよい。AF処理部109は、画像データから高周波成分の信号を取り出し、AF(Auto Focus)積算処理により、合焦評価値を取得する。
ローパスフィルタ部118は、SDRAM106に記憶されている画像データの高周波成分を低減するローパスフィルタ処理を行うことにより、全体にボケた画像を生成する。ローパスフィルタ処理を施した画像では、輪郭も失われてしまっている。
画像合成部119は、ローパスフィルタ部118でローパスフィルタ処理が行われた画像と、ローパスフィルタ処理が行われていない画像とを所定の割合で合成することにより、全体的にボケているが、輪郭ははっきりとしている画像を生成する。ここでは、合成割合をα(0≦α≦1)、ローパスフィルタ処理が行われた画像の画素値をa、ローパスフィルタ処理が行われていない画像の対応画素の画素値をbとした場合に、合成画像の対応画素の画素値をα×a+(1−α)×bとする。
JPEG処理部110は、画像データの記録時には、SDRAM106から画像データを読み出し、読み出した画像データをJPEG圧縮方式に従って圧縮して、圧縮したJPEG画像データを、SDRAM106に一旦記憶する。マイクロコンピュータ115は、SDRAM106に記憶されたJPEG画像データに対して、JPEGファイルを構成するために必要なJPEGヘッダを付加してJPEGファイルを作成し、作成したJPEGファイルを、メモリI/F111を介して記録媒体112に記録する。記録媒体112は、例えばカメラ本体1に着脱可能なメモリカードからなる記録媒体であるが、これに限定されるものではない。
LCDドライバ113は、LCD114に画像を表示させる。画像の表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体112に記録されたJPEGファイルの再生表示、および、ライブビュー表示等の動画の表示が含まれる。記録媒体112に記録されたJPEGファイルを再生する場合、JPEG処理部110は、記録媒体112に記録されているJPEGファイルを読み出して伸張処理を施した上で、伸張した画像データを一旦SDRAM106に記憶させる。LCDドライバ113は、伸張された画像データをSDRAM106から読み出し、読み出した画像データを映像信号へ変換した後でLCD114へ出力して、画像の表示を行う。
制御部としての機能を有するマイクロコンピュータ115は、デジタルカメラ本体1の各種シーケンスを統括的に制御する。マイクロコンピュータ115には、操作部116およびFlashメモリ117が接続されている。
操作部116は、電源ボタン、レリーズボタン、各種入力キー等の操作部材である。ユーザによって、操作部116の何れかの操作部材が操作されることにより、マイクロコンピュータ115は、ユーザの操作に応じた各種シーケンスを実行する。電源ボタンは、当該デジタルカメラの電源のオン/オフ指示を行うための操作部材である。電源ボタンが押されたときに、マイクロコンピュータ115は、当該デジタルカメラの電源をオン又はオフする。レリーズボタンは、ファーストレリーズスイッチとセカンドレリーズスイッチの2段スイッチを有して構成されている。レリーズボタンが半押しされて、ファーストレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、AE処理やAF処理等の撮影準備シーケンスを行う。また、レリーズボタンが全押しされて、セカンドレリーズスイッチがオンされた場合に、マイクロコンピュータ115は、撮影シーケンスを実行して撮影を行う。
Flashメモリ117は、ホワイトバランスモードに応じたホワイトバランスゲインやローパスフィルタ係数等のデジタルカメラの動作に必要な各種パラメータ、および、デジタルスチルカメラを特定するための製造番号などを記憶している。また、Flashメモリ117は、マイクロコンピュータ115にて実行する各種プログラムも記憶している。マイクロコンピュータ115は、Flashメモリ117に記憶されているプログラムに従い、またFlashメモリ117から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。
図2は、一実施形態に係る撮像装置であるデジタルスチルカメラで行われるメインの処理フローを示すフローチャートである。ユーザにより電源ボタンが押されて、デジタルスチルカメラの電源がオンになると、マイクロコンピュータ115は、ステップS201の処理を開始する。
ステップS201では、撮影を行うか否か、すなわち、レリーズボタンが押されたか否かを判定する。レリーズボタンが押されたと判定すると、ステップS202に進む。
ステップS202では、撮影モードが静止画撮影モードに設定されているか否かを判定する。撮影モードには、静止画撮影モードと動画撮影モードとがあり、ユーザが操作部116の操作部材を操作することにより設定することができる。撮影モードが静止画撮影モードに設定されていると判定するとステップS203に進み、動画撮影モードに設定されていると判定すると、ステップS204に進む。
ステップS203では、静止画の撮影・記録動作を行う。静止画の撮影・記録動作については、図3に示すフローチャートを用いて後述する。
ステップS204では、動画の撮影・記録動作を行う。動画の撮影・記録動作については、図4に示すフローチャートを用いて後述する。
一方、ステップS201において、レリーズボタンが押されていないと判定すると、ステップS205に進む。ステップS205では、ライブビュー表示を行う。ライブビュー表示の詳細な処理については、図5に示すフローチャートを用いて後述する。
図3は、図2に示すフローチャートのステップS203で行う静止画の撮影・記録動作の詳しい処理内容を示すフローチャートである。ステップS301からステップS303までの処理は、ファーストレリーズにて行われる処理であり、ステップS304以後の処理は、セカンドレリーズにて行われる処理である。
ステップS301では、AF処理部109において、合焦評価値を算出する。マイクロコンピュータ115は、合焦評価値に基づいて、レンズ1010を駆動させる指令をドライバ1013に出す。
ステップS302では、AE処理部108において、被写体輝度を算出する。ステップS303では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。
ステップS304では、ユーザによってレリーズボタンが全押しされて、セカンドレリーズスイッチがオンされたか否かを判定する。セカンドレリーズスイッチがオンされていないと判定すると、ステップS305に進む。ステップS305では、レリーズボタンが戻されたか否かを判定する。レリーズボタンが半押しされている状態から戻されたと判定すると、撮影・記録動作を終了し、レリーズボタンが戻されていないと判定すると、ステップS304に戻る。
一方、ステップS304でセカンドレリーズスイッチがオンされたと判定すると、ステップS306に進む。ステップS306では、撮影を行う。撮影に関しては、従来から用いられている手法と同様である。ドライバ1013は、マイクロコンピュータ1012の指示に基づいて、設定された絞り値になるように絞り1014を駆動させる。そして、算出したシャッター速に基づいて、メカシャッター101を制御して撮影を行い、画像データを得る。
ステップS307では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。
ステップS308では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。なお、ホワイトバランスモードは、ユーザが操作部116に含まれる入力キーを操作することによって、1回の撮影ごとに設定することができる。マイクロコンピュータ115は、ユーザによる操作部116の操作に基づいて、ホワイトバランスモードを設定する。また、デジタルスチルカメラがホワイトバランスを自動的に調整するオートホワイトバランス機能を備えている場合、マイクロコンピュータ115は、撮影時の光源に応じたホワイトバランスモードを自動的に設定する。
ステップS309では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS310では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。
ステップS311では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。
ステップS312では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。
ステップS313では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。
ステップS314では、ローパスフィルタ部118により、ステップS313でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。
ステップS315では、画像合成部119により、ステップS313でノイズ低減処理が行われた画像データ、すなわち、ローパスフィルタ処理が行われていない画像データと、ステップS314でローパスフィルタ処理が行われた画像データとを合成割合αで合成し、合成画像を生成する。
ステップS316では、JPEG処理部110において、ステップS315で生成された合成画像データに対して、JPEG圧縮を行う。ステップS317では、画像の記録モードや露出条件などの撮影情報をフィルヘッダ情報として作成し、作成したファイルヘッダ情報を、JPEG圧縮された画像データに付加して、メモリI/F111を介して、記録媒体112に記録する。
図4は、図2に示すフローチャートのステップS204で行う動画の撮影・記録動作の詳しい処理内容を示すフローチャートである。
ステップS401では、AE処理部108において、被写体輝度を算出する。ステップS402では、被写体輝度に基づいて、Flashメモリ117に記憶された絞り値およびシャッター速決定テーブルを参照することにより、絞りとシャッター速を算出する。
ステップS403では、撮影を行う。ここでは、動画撮影のため、いわゆる電子シャッターによる撮影を行う。電子シャッターによる撮影については、従来から用いられている手法と同様であるため、ここでは詳しい説明を省略する。
ステップS404では、OB減算部1071により、撮影により得られた画像データから、撮像時に得られたOB値を減算するOB減算処理を施す。ステップS405では、WB補正部1072により、OB減算処理が施された画像データに対して、ホワイトバランスモードに応じたホワイトバランスゲインを乗じて、ホワイトバランスを補正する処理を行う。
ステップS406では、同時化処理部1073により、ホワイトバランス補正処理が施された画像データに対して、同時化処理を施す。ステップS407では、カラーマトリクス演算部1075により、同時化処理が施された画像データに対して、ホワイトバランスモードに応じたカラーマトリクスを乗じるカラーマトリクス演算を行う。
ステップS408では、ガンマ・色再現処理部1074により、カラーマトリクス演算が行われた画像データに対して、ガンマ補正処理、および、画像の色味を変化させる色再現処理を行う。ステップS409では、エッジ強調処理部1076により、ガンマ補正処理および色再現処理が行われた画像データに対して、エッジ強調処理を行う。
ステップS410では、NR処理部1077により、エッジ強調処理が行われた画像データに対して、ノイズを低減する処理を行う。ノイズ低減処理は、コアリングパラメータに基づいたコアリング処理、または、ノイズ低減パラメータ(以下、NRパラメータ)に基づいて、高周波を低減するフィルタを用いた処理を行う。
ステップS411では、直前に撮影された画像がSDRAM106に格納されているか否かを判定する。動画撮影の間、ステップS401からステップS417までの処理は繰り返し行われる。直前に撮影された画像とは、前回の撮影時に後述するステップS416で格納された画像である。従って、動画撮影を開始した直後の1回目の撮影処理時には、直前に撮影された画像がSDRAM106に格納されていないことになる。直前に撮影された画像がSDRAM106に格納されていないと判定するとステップS415に進み、格納されていると判定すると、ステップS412に進む。
ステップS412では、画像合成部119により、ステップS410でノイズ低減処理が行われた画像データと、ステップS416でSDRAM106に格納された画像データとを合成割合αで合成し、合成画像を生成する。ステップS416でSDRAM106に格納された画像データは、後述するようにローパスフィルタ処理が施された画像データである。
ステップS413では、LCDドライバ113により、ステップS412で生成された合成画像をLCD114に表示させる。
ステップS414では、ステップS412で生成された合成画像を、記録媒体112に記録する。
ステップS415では、ローパスフィルタ部118により、ステップS410でノイズ低減処理が行われた画像データに対して、ローパスフィルタ処理を行うことにより、全体的にボケた画像を生成する。
ステップS416では、ステップS415でローパスフィルタ処理が施された画像データをSDRAM106に格納する。
ステップS417では、処理を終了するか否かを判定する。ユーザによってレリーズボタンが再び押されたか、または、電源ボタンが押されると、動画撮影・記録の処理を終了する。一方、処理を終了しないと判定すると、ステップS401に戻る。
なお、上述した処理では、最初の1フレームはLCD114に表示されず、2フレーム目以降が表示されることになるが、撮影間隔が極短時間(例えば、1/30秒)であるため、表示上、問題となることはない。
図5は、図2に示すフローチャートのステップS205で行うライブビュー表示の詳しい処理内容を示すフローチャートである。図5に示すフローチャートの処理のうち、図4に示すフローチャートの処理と同一の処理を行うステップについては、同一の符号を付している。図5に示すフローチャートの処理は、図4に示すフローチャートの処理に対して、ステップS414およびステップS417の処理が省略されている。すなわち、ステップS413で合成画像をLCD114に表示すると、合成画像データを記録媒体112に記録する処理は行わずに、ステップS415に進む。また、ステップS416の処理を終了すると、図5に示すフローチャートの処理を終了する。ステップS414およびステップS417の処理が省略されている以外は、図4に示すフローチャートの処理と同じであるため、図5に示すフローチャートの処理の詳しい説明は省略する。
図6(a)は、一実施形態における撮像装置によって行われるライブビュー表示および動画撮影時のタイムチャートを示す図であり、図6(b)は、従来技術によるライブビュー表示および動画撮影時のタイムチャートを示す図である。
まず始めに、従来技術によるタイムチャートについて説明する。図6(b)に示すように、従来の技術では、撮影により得られたRAW画像データに基づいて、同時化された画像データを生成するとともに、同時化された画像データに対してローパスフィルタ処理を施す。そして、ローパスフィルタ処理を施す前の画像データと、ローパスフィルタ処理を施した画像データとを合成する画像処理を行い、合成画像をLCDに表示し、動画撮影時には動画記録される。この従来技術による方法では、これ以上撮影間隔Δt2を短くすることはできず、フレームレートを上げることはできない。
続いて、一実施形態における撮像装置によるタイムチャートについて説明する。図6(a)において、撮影61bにより得られたRAW画像データに対して、図4または図5のステップS404からステップS410までの処理(図6(a)のYC処理62b)を行うと、YC処理62bにより得られた画像データと、1つ前の撮影61a後にローパスフィルタ処理65aが行われた画像データとを合成する処理63bを行う。合成後の画像データは、LCD114に表示され、動画撮影時には動画記録される(表示・記録処理64b)。
この後、YC処理62b後の画像データに対して、ローパスフィルタ処理65bが施され、SDRAM106に格納される。そして、ローパスフィルタ処理65bが施された画像データを用いて、次の撮影61cにより得られたRAW画像データに対してYC処理62cが施された画像データと合成する処理63cが行われる。ローパスフィルタ処理65bが施された画像データは、次の撮影61c後の画像データと合成するため、今回の撮影61b後の表示処理64bおよび次の撮影処理61cと並行して行うことができる。
なお、一般的に、フレーム間の相関は非常に高いため、1つ前の撮影により得られた画像データを用いて合成処理を行っても、それほど合成画像が不自然なものになることはない。
すなわち、一実施形態における撮像装置では、YC処理後の画像データに対して、直前の撮影後にローパスフィルタ処理が施された画像データと合成する処理を行うとともに、表示処理および撮影処理と並行して、YC処理後の画像データに対してローパスフィルタ処理を施す。これにより、撮影から合成、表示までの処理時間を短縮することができる。図6(a)および(b)に示すように、一実施形態における撮像装置の撮影間隔Δt1は、従来技術の撮影間隔Δt2より短い。なお、図6(b)に示す「画像処理」のブロックの長さ(処理時間)は、図6(a)に示す「YC」、「合成」、「LP」の各ブロックを足し合わせた長さ(処理時間)と同じである。
以上、一実施形態における撮像装置によれば、RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成する。合成に用いる第2の画像データを、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに基づいて生成することにより、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。
また、第2の画像処理は、第1の画像処理後に第3の画像処理を行うものであり、第3の画像処理の少なくとも一部を、表示処理、および、第1の時刻より後の時刻において行われる撮像処理のうちの少なくとも一方の処理と並行して行うので、撮影から合成画像データの生成、表示または記録までの時間を短縮することができる。
さらに、第2の画像データは、連続して入力されるRAW画像データのうち、第1のRAW画像データの直前に得られたRAW画像データとすることにより、相関がより高いRAW画像データを用いて、より自然な合成画像データを得ることができる。
なお、上述した一実施の形態の説明では、撮像装置が行う処理としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、別途ソフトウェアにて処理する構成も可能である。この場合、撮像装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記憶されたコンピュータ読み取り可能な記憶媒体を備えている。ここでは、このプログラムを画像処理プログラムと呼ぶ。そして、CPUが上記記憶媒体に記憶されている画像処理プログラムを読み出して、情報の加工・演算処理を実行することにより、上述の撮像装置と同様の処理を実現させる。
ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、この画像処理プログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該画像処理プログラムを実行するようにしても良い。
本発明は、上述した一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。例えば、合成画像データを生成するために、ローパスフィルタ処理を施した画像データを用いたが、ローパスフィルタ処理以外の画像処理を施した画像データを用いるものにも、本発明を適用することができる。
合成画像データは、第1の時刻に得られた第1のRAW画像データに基づいて生成された第1の画像データと、第1のRAW画像データの直前に得られた第2のRAW画像データに基づいて生成された第2の画像データとを合成することにより生成した。しかし、第2のRAW画像データは、第1のRAW画像データの直前に得られたものに限定されることはなく、第1の時刻より前の時刻に得られたものであればよい。
また、ライブビュー表示の最終フレームから、静止画撮影までの間隔が短い場合に、ライブビュー表示の最終フレーム画像にローパスフィルタ処理を施して得られた画像データと、静止画撮影により得られた画像データとを合成することにより、合成画像データを生成することもできる。これにより、静止画撮影時においても、撮影から合成画像データの生成までの時間を短縮することができる。
ここで、ライブビュー画像データに対して複数の特殊効果処理を施して、それぞれの特殊効果処理に対応した複数の特殊効果画像データを生成し、生成した複数の特殊効果画像データを時系列的に自動切り替えして、LCD114に表示させる際に、切り替え対象の特殊効果画像データの合成画像データを生成して表示させることにより、複数の特殊効果画像データが徐々に切り替わるように表示する技術が考えられる。このような表示技術においても、第1の時刻に得られた第1のRAW画像データに対して第1の特殊効果処理を施すことにより第1の画像データを得るとともに、第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の特殊効果処理を施すことにより第2の画像データを得て、第1の画像データおよび第2の画像データを合成して合成画像データを生成し、表示することができる。これにより、表示・撮影と画像処理の並列処理ができる場合に、処理時間を短くすることができる。
1…カメラ本体
2…交換式レンズ
101…メカシャッター
102…撮像素子
103…アナログ処理部
104…アナログ/デジタル変換部
106…SDRAM
107…画像処理部
108…AE処理部
109…AF処理部
110…JPEG処理部
112…記録媒体
114…LCD
115…マイクロコンピュータ
116…操作部
117…Flashメモリ
118…ローパスフィルタ部
119…画像合成部
1010…レンズ
1012…マイクロコンピュータ
1071…OB減算部
1072…ホワイトバランス補正部
1073…同時化処理部
1074…ガンマ・色再現処理部
1075…カラーマトリクス演算部
1076…エッジ強調処理部
1077…ノイズ低減処理部

Claims (7)

  1. 被写体を撮像してRAW画像データを得る撮像部と、
    前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得る画像処理部と、
    前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成する画像合成部と、
    前記合成画像データを表示する表示部と、
    を備えることを特徴とする撮像装置。
  2. 前記合成画像データを記録する記録部、
    をさらに備えることを特徴とする請求項1に記載の撮像装置。
  3. 前記第2の画像処理は、前記第1の画像処理後に第3の画像処理を行うものであり、前記第2の画像データは、前記第1の画像データに前記第3の画像処理を行ったものであることを特徴とする請求項1または請求項2に記載の撮像装置。
  4. 前記画像処理部は、前記第3の画像処理の少なくとも一部を、前記表示部による表示処理、および、前記第1の時刻より後の時刻における前記撮像部による撮像処理のうちの少なくとも一方の処理と並行して行うことを特徴とする請求項3に記載の撮像装置。
  5. 前記第2の画像データは、連続して入力されるRAW画像データのうち、前記第1のRAW画像データの直前に得られたRAW画像データであることを特徴とする請求項1から請求項4のいずれか一項に記載の撮像装置。
  6. 被写体を撮像することにより得られるRAW画像データを入力するステップと、
    前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
    前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
    を備えることを特徴とする画像処理方法。
  7. 被写体を撮像することにより得られるRAW画像データを入力するステップと、
    前記RAW画像データを連続して入力し、少なくとも第1の時刻に得られた第1のRAW画像データに対して第1の画像処理を施すことにより第1の画像データを得るとともに、前記第1の時刻より前の第2の時刻に得られた第2のRAW画像データに対して第2の画像処理を施すことにより第2の画像データを得るステップと、
    前記第1の画像データおよび前記第2の画像データを合成して合成画像データを生成するステップと、
    をコンピュータに実行させるための画像処理プログラム。
JP2009090141A 2009-04-02 2009-04-02 撮像装置、画像処理方法、および、画像処理プログラム Pending JP2010245686A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009090141A JP2010245686A (ja) 2009-04-02 2009-04-02 撮像装置、画像処理方法、および、画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009090141A JP2010245686A (ja) 2009-04-02 2009-04-02 撮像装置、画像処理方法、および、画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2010245686A true JP2010245686A (ja) 2010-10-28

Family

ID=43098251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009090141A Pending JP2010245686A (ja) 2009-04-02 2009-04-02 撮像装置、画像処理方法、および、画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2010245686A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026939A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2013150069A (ja) * 2012-01-17 2013-08-01 Olympus Imaging Corp 撮像装置、画像処理方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026939A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2013150069A (ja) * 2012-01-17 2013-08-01 Olympus Imaging Corp 撮像装置、画像処理方法およびプログラム

Similar Documents

Publication Publication Date Title
JP5439197B2 (ja) 撮像装置、撮像方法、および、撮像プログラム
JP5371501B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP4727457B2 (ja) 撮影装置
US8872936B2 (en) Image processing device, white balance correction method, and imaging device
JP5126344B2 (ja) 撮像装置、撮像方法及びプログラム
JP5642344B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP5002931B2 (ja) 撮像装置及びそのプログラム
JP2009159056A (ja) 撮像装置
KR20110052507A (ko) 촬상장치 및 촬상방법
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN102547057A (zh) 图像处理装置和图像处理方法
JP5185085B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP2010283504A (ja) 撮像装置、撮像方法、および、撮像プログラム
JP5530304B2 (ja) 撮像装置および撮影画像表示方法
JP2010245686A (ja) 撮像装置、画像処理方法、および、画像処理プログラム
JP2018074523A (ja) 撮像装置、その制御方法、プログラムならびに記録媒体
JP2011160183A (ja) 撮像装置および撮像方法
JP5191941B2 (ja) 撮像装置、画像処理装置、画像処理方法、および、画像処理プログラム
JP5094686B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US9554108B2 (en) Image processing device and storage medium storing image processing program
JP5653665B2 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
JP2003087647A (ja) デジタルスチルカメラ
JP2009219028A (ja) 画像記録方法及び撮像装置
JP4133878B2 (ja) デジタルカメラ及び画像信号生成方法
JP2010239267A (ja) 撮像装置、周辺減光補正制御方法およびプログラム