JP2009284136A - 電子カメラ - Google Patents
電子カメラ Download PDFInfo
- Publication number
- JP2009284136A JP2009284136A JP2008132921A JP2008132921A JP2009284136A JP 2009284136 A JP2009284136 A JP 2009284136A JP 2008132921 A JP2008132921 A JP 2008132921A JP 2008132921 A JP2008132921 A JP 2008132921A JP 2009284136 A JP2009284136 A JP 2009284136A
- Authority
- JP
- Japan
- Prior art keywords
- image
- exposure amount
- electronic camera
- unit
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
【課題】
従来、ダイナミックレンジを拡大するために、同じ被写体を2回撮影する必要があり、通常の撮影の倍の時間が必要であった。
【解決手段】
被写体像を撮像して画像データを生成する撮像部と、撮像指示を行うレリーズボタンと、前記撮像部により撮像されるライブビュー画像に前記撮像部のダイナミックレンジを超える第1領域がある場合は、前記第1領域の位置を検出する位置検出部と、前記第1領域を撮像するのに適した第1露光量と、前記第1領域以外の第2領域を撮像するのに適した第2露光量とを求める露光量設定部と、前記レリーズボタン押下時に、前記第1露光量で第1画像を、前記第2露光量で第2画像をそれぞれ撮像し、少なくとも前記第2画像を前記撮像部から部分読み出しで読み出す制御部と、前記制御部が前記撮像部から読み出した前記第1画像と前記第2画像とを合成する画像処理部とを設けた。
【選択図】 図1
従来、ダイナミックレンジを拡大するために、同じ被写体を2回撮影する必要があり、通常の撮影の倍の時間が必要であった。
【解決手段】
被写体像を撮像して画像データを生成する撮像部と、撮像指示を行うレリーズボタンと、前記撮像部により撮像されるライブビュー画像に前記撮像部のダイナミックレンジを超える第1領域がある場合は、前記第1領域の位置を検出する位置検出部と、前記第1領域を撮像するのに適した第1露光量と、前記第1領域以外の第2領域を撮像するのに適した第2露光量とを求める露光量設定部と、前記レリーズボタン押下時に、前記第1露光量で第1画像を、前記第2露光量で第2画像をそれぞれ撮像し、少なくとも前記第2画像を前記撮像部から部分読み出しで読み出す制御部と、前記制御部が前記撮像部から読み出した前記第1画像と前記第2画像とを合成する画像処理部とを設けた。
【選択図】 図1
Description
本発明は、電子カメラに関する。
従来、撮影時の構図決定や被写体の様子を見るために、撮影しようとする画像をモニタに動画表示する電子カメラが広く用いられている。一方、撮影画像のダイナミックレンジを拡大するために、同じ被写体に対して露光量の異なる2枚の画像を撮影し、撮影した2枚の画像を画像処理によって合成する方法が考えられている(例えば、特許文献1参照)。
特開平08−256303号公報
ところが、従来の方法は、同じ被写体の撮影を2回行う必要があり、2倍の撮影時間が必要であった。特に、2枚の画像を合成する際に切り捨てられる画像領域に対しても色処理などの画像処理が行われるため、処理時間に無駄な部分が多かった。
本発明の目的は、撮影時間を短縮すると共に、撮影画像のダイナミックレンジの拡大を行うことができる電子カメラを提供することである。
本発明に係る電子カメラは、被写体像を撮影して画像データを生成する撮像部と、撮影指示を行うレリーズボタンと、前記撮像部により撮影されるライブビュー画像に前記撮像部のダイナミックレンジを超える第1領域がある場合は、前記第1領域の位置を検出する位置検出部と、前記第1領域を撮影するのに適した第1露光量と、前記第1領域以外の第2領域を撮影するのに適した第2露光量とを求める露光量設定部と、前記レリーズボタン押下時に、前記第1露光量で第1画像を、前記第2露光量で第2画像をそれぞれ撮影し、少なくとも前記第2画像を前記撮像部から部分読み出しで読み出す制御部と、前記制御部が前記撮像部から読み出した前記第1画像と前記第2画像とを合成する画像処理部とを有することを特徴とする。
特に、前記露光量設定部は、前記第1領域が前記ダイナミックレンジより高輝度である場合は、前記第1露光量を前記第2露光量より短時間露光とすることを特徴とする。
或いは、前記露光量設定部は、前記第1領域が前記ダイナミックレンジより低輝度である場合は、前記第1露光量を前記第2露光量より長時間露光とすることを特徴とする。
また、前記画像処理部は、前記第1画像に前記第2画像を合成する際に、前記第2画像の輝度レベルが基準値以下の領域を切り捨ててから前記第1画像に合成することを特徴とする。
特に、前記基準値は、前記第1露光量と前記第2露光量との差に応じて可変することを特徴とする。
本発明に係る電子カメラは、異なる露光条件で撮影した複数の画像を合成するので、撮影画像のダイナミックレンジを拡大することができる。特に、合成する画像のうち、少なくとも一方の画像を撮像部から部分的に読み出すので、撮影時間を短縮することができる。
(第1の実施形態)
第1の実施形態では、一眼レフ型の電子カメラ101の例について説明する。尚、電子カメラ101は、電子画像によって被写体の撮影構図を確認するライブビューモード(動画表示モード)を有している。
第1の実施形態では、一眼レフ型の電子カメラ101の例について説明する。尚、電子カメラ101は、電子画像によって被写体の撮影構図を確認するライブビューモード(動画表示モード)を有している。
図1は、第1の実施形態に係る電子カメラ101の構成を示すブロック図である。電子カメラ101は、カメラ本体102と、レンズユニット103とを有している。レンズユニット103には、撮影光学系104や絞り(不図示)が収容されている。このレンズユニット103は、マウント(不図示)を介してカメラ本体102に交換可能に装着される。また、レンズユニット103は、CPU115からの指令によって、絞りを可変したり、レンズユニット103のフォーカスレンズ(不図示)を合焦位置に移動する。
カメラ本体102は、ミラーボックスユニット105と、AFセンサ106と、AEセンサ107と、撮像素子108と、アナログ信号処理部109と、タイミングジェネレータ(TG)110と、デジタル信号処理部111と、画像処理部112と、メモリ113と、記録I/F114と、CPU115と、モニタ駆動部116およびモニタ117と、操作部118と、バス119と、フラッシュ120と、シャッター121とを有している。また、カメラ本体102から取り外し可能なメモリカードなどの記憶媒体122は、記録I/F114に接続される。
ここで、デジタル信号処理部111、画像処理部112、メモリ113、記録I/F114、CPU115およびモニタ駆動部116は、バス119を介してそれぞれ接続されている。また、レンズユニット103、ミラーボックスユニット105、AFセンサ106、AEセンサ107、TG110、操作部118、フラッシュ120およびシャッター121は、それぞれCPU115に接続されている。
ミラーボックスユニット105の内部には、軸を中心に回転動作ができるように配置されたメインミラー105aが設けられている。ミラーボックスユニット105は、CPU115の指示により、メインミラー105aを駆動装置(不図示)で駆動させて観察状態と退避状態との切り替えを行う。観察状態におけるメインミラー105aは、撮像素子108の前方に傾斜配置される。この観察状態では、撮影光学系104を通過した光束はメインミラー105aによって反射され、上方に設置されたファインダ光学系(不図示)に導かれる。また、メインミラー105aの中央部はハーフミラーとなっている。そして、観察状態のメインミラー105aを透過した一部の光束は、サブミラーによってAFセンサ106に導かれる(図1ではサブミラーの図示は省略する)。
一方、退避状態でのメインミラー105aは、上方に跳ね上げられて撮影光路から外れた位置にある。メインミラー105aが退避状態にあるときは、撮影光学系104を通過した光束は撮像素子108に導かれる。尚、記録用画像(本画像)の撮影時や上記のライブビューモードでの動作時には、メインミラー105aは退避状態の位置にある。また、ライブビューモードでは、常にシャッター121が開いた状態になる。
撮像素子108は、撮影光学系104を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。ここで、撮像素子108は操作部118に含まれるレリーズボタン押下時(全押し時)に本画像を撮影する。また、ライブビューモードにおいて、撮像素子108は、撮影待機時(レリーズボタン非押下時)にも所定間隔毎に間引き読み出しでライブビュー画像を出力する。このとき、メインミラー105aは、CPU115の制御により退避状態にあり、シャッター121も開いた状態になっている。尚、上記のライブビュー画像のデータは、モニタ駆動部116を介してモニタ117に表示される。
アナログ信号処理部109は、撮像素子108の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。実行されるアナログ処理は、例えば、ノイズ除去のための相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。アナログ信号処理部109の出力はデジタル信号処理部111に接続されている。
TG110は、CPU115の指示に基づいて、撮像素子108およびアナログ信号処理部109に対してタイミングパルスを供給する。撮像素子108およびアナログ信号処理部109の駆動タイミングは、TG110のタイミングパルスによって制御される。
デジタル信号処理部111は、アナログ信号処理部109から順次入力されるデジタル画像信号に対して、欠陥画素補正や黒レベルのオフセット補正などの信号処理を施す。デジタル信号処理部111の出力は画像処理部112に接続されている。
画像処理部112は、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部112は、CPU115の指示によりライブビュー画像のデータからモニタ117の表示用画像を生成する。さらに、画像処理部112は、本撮影画像のデータをJPEG形式で圧縮する処理や、圧縮された撮影画像データを伸長復元する処理も実行する。
また、画像処理部112は、CPU115の指示により、メモリ113に一時的に保持されている画像データや新たに撮影された画像データとの合成処理を行う。合成された画像データは、撮影画像として記録I/F114を介して記憶媒体122に記録される。
メモリ113は、各種画像処理を行う過程でライブビュー画像や本撮影画像のデータなどを一時的に記録するバッファメモリとして機能する。
記録I/F114には、記憶媒体122を接続するためのコネクタが形成されている。そして、記録I/F114は、コネクタに接続された記憶媒体122に対してデータの書き込み/読み込みを実行する。尚、上記の記憶媒体122は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。
フラッシュ120は、CPU115の指示に基づいて発光する補助光源である。
CPU115は、電子カメラ101の統括的な制御を行うプロセッサである。CPU115は予めCPU115の内部に記憶されたプログラムに従って電子カメラ101の各部動作を制御するとともに、撮影時に必要となる各種演算(AF時のデフォーカス量の演算、AE演算など)を実行する。また、CPU115は、フラッシュ120の発光時間や発光タイミングを制御する。
モニタ駆動部116は、CPU115の指示に基づいて駆動信号を出力することでモニタ117の表示を制御する。また、モニタ117は、例えば液晶モニタで構成されている。ここで、ライブビューモードでのモニタ117には、ライブビュー画像が動画表示される。また、モニタ117には、GUI(Graphical User Interface)形式で各種の設定項目の入力が可能なメニュー画面を表示できる。ユーザーは、メニュー画面を見ながら操作部118に含まれる各種操作ボタンを用いて、電子カメラ101の動作設定を行う。
操作部118は、操作ボタンとレリーズボタンとを有している。操作部118の操作ボタンは、例えばコマンドダイヤル、十字状のカーソルキー、決定ボタンなどで構成される。上記の操作ボタンは、電子カメラのモード切替操作や、メニュー画面上での入力操作などをユーザーから受け付ける。また、操作部118のレリーズボタンは、半押し操作によるAFなどの指示入力と、全押し操作によるレリーズ指示(撮影指示)の入力とをユーザーから受け付ける。
AFセンサ106は、撮影画面内のAFエリアでの合焦状態を位相差検出方式で検出する。尚、ライブビューモードでの動作時には、上記に説明したようにメインミラー105aは退避状態の位置にあり、AFセンサ106によるフォーカス制御を行うことができない。この場合は、撮像素子108から得られる画像データを基に、コントラスト方式で合焦状態を検出する。
AEセンサ107は、例えばファインダ光学系に含まれるペンタプリズム(不図示)の近傍に配置されている。このAEセンサ107はファインダ光学系の光束に基づいて、被写体像の分割測光を実行する。そして、AEセンサ107は、各々の分割領域ごとの平均輝度値をCPU115に出力する。尚、ライブビューモードでの動作時には、上記に説明したようにメインミラー105aは退避状態の位置にあり、ファインダ光学系には光が導かれないのでAEセンサ107による測光を行うことができない。この場合は、撮像素子108から得られる画像データを基に、被写体像の分割測光を実行する。
ここで、AEセンサ107や撮像素子108で分割測光を行う場合の分割領域について説明する。例えば、図2(a)の撮影する画像201に対して、図2(b)に示すように測光画面203を分割領域(X1,Y1)から分割領域(X10,Y8)までの80個の分割領域に分ける。そして、これらの横方向(X方向)10ブロック、縦方向(Y方向)8ブロックの分割領域のそれぞれにおいて平均輝度値を求める。例えば、AEセンサ107を用いる場合は、各々の分割領域毎の平均輝度値をCPU115に出力する。或いは、撮像素子108で分割測光を行う場合は、CPU115が撮像素子108で撮影した画像データから分割領域ごとの平均輝度値を求める。尚、図2(b)の詳しい説明については後で行う。
本実施形態に係る電子カメラ101は、撮像素子108が撮影可能なダイナミックレンジ範囲に収まらない広いダイナミックレンジの被写体を撮影する場合に有効である。このような被写体の一例を図3に示す。図3(a)は屋内501において太陽光が差し込む窓502が含まれる構図で被写体を撮影する様子を示している。図3(b)は、図3(a)の被写体を電子カメラ101で撮影した画像503の様子を示している。ここで、電子カメラ101の露出が、窓502以外の被写体部分で適正になるように設定されて、画像503が撮影されたとする。この場合、窓502の部分は高輝度なので、仮に撮像素子108のダイナミックレンジを超えてしまうと、撮影された画像503の窓504の部分は白飛びを起こすことになる。逆に、電子カメラ101の露出が、図3(a)の窓502の部分で適正になるように設定されて撮影された画像は、図4(b)に示すように、撮影された画像505の窓506の部分で適正露光となり、窓506以外の被写体画像は黒潰れしたり暗く撮影されてしまう。尚、図4(a)は、図4(b)の画像505と対比し易いように、図3(b)と同じ画像503を描いてある。
本実施形態に係る電子カメラ101は、このような広いダイナミックレンジの被写体を撮影する場合に、低輝度部分に対応した露出設定で第1露光を行って第1画像(図4(a)の画像503に相当)を撮影し、続けて高輝度部分に対応した露出設定で第2露光を行って第2画像(図4(b)の画像505に相当)を撮影する。そして、第1画像と第2画像とを合成することにより、撮像素子108が撮影可能なダイナミックレンジ範囲に収まらない広いダイナミックレンジの被写体を撮影することができる。特に、本実施形態では、高輝度部分に対応した第2画像は、撮像素子108から窓506の高輝度部分の画像だけを含む一部の画像を部分読み出しで読み出すので、同じ被写体を2回撮影する場合に比べて撮影時間を短縮することができる。尚、部分読み出しについては、後で詳しく説明する。
以下、本実施形態に係る電子カメラ101の撮影処理について、図5のフローチャートを用いて詳しく説明する。
(ステップS101)ユーザーは、電子カメラ101を撮影モードにして撮影を開始する。CPU115はメインミラー105aを退避状態にし、シャッター121を開いた状態にする。撮像素子108は所定間隔毎にライブビュー画像の画像信号を取得する。画像処理部112はライブビュー画像のデータに基づいて表示画像を逐次生成する。そして、モニタ117にはライブビュー画像が動画表示される。このように、ユーザーは、電子カメラ101のモニタ117に表示されるライブビュー画像を見ながら、撮影構図を決定するためのフレーミングを行うことができる。
(ステップS102)CPU115は操作部118のレリーズボタンが半押しされたか否かを判定する。レリーズボタンが半押しされた場合(YES側)には、CPU115はステップS103に移行する。一方、レリーズボタンが半押しされていない場合(NO側)には、CPU115はステップS102の判定を繰り返す。尚、ユーザーが操作ボタン118を操作して撮影モードから抜けると、CPU115は他の処理を開始するので本処理は解除される。
(ステップS103)CPU115は、撮像素子108から得られる画像データを基に、コントラスト方式で合焦位置を検出する。そして、CPU115はレンズユニット103に指令して、フォーカスレンズを合焦位置に移動する。また、CPU115は、図2(b)に示すように、撮像素子108から得られる画像データを基に、分割領域毎に被写体像の分割測光を実行し、分割領域ごとの平均輝度値を算出する。
同時に、CPU115は、測光値に基づいて公知のAE演算を実行し、後で撮影する第1画像と第2画像の両方の露出条件(露光時間、絞り値、撮影感度など)を決定し、メモリ113などに一時的に記憶しておく。
(ステップS104)CPU115は、分割測光した分割領域ごとの平均輝度値から高輝度部の位置と幅を検出する。高輝度部の位置や幅の検出は、図2(b)に示したような分割領域の分解能で行われ、各分割領域の平均輝度値が予め設定しておいた所定値以上か否かで判定する。例えば、平均輝度値が所定値以上の場合は高輝度領域、所定値未満の場合は低輝度領域であると判定する。図2(b)に示した「明」,「暗」の表示は、この判定結果の一例を示しており、「明」は所定値以上で「暗」は所定値未満である。例えば、図2(a)に示す屋内の撮影画像201の窓202の領域は、太陽光など外部光線により高輝度になっている。この結果、図2(b)に示すように、窓202に対応する位置にある分割領域(X2,Y1)〜(X2,Y4),分割領域(X3,Y1)〜(X3,Y4),分割領域(X4,Y1)〜(X4,Y4),分割領域(X5,Y1)〜(X5,Y4)の16個の分割領域を含む領域204の部分を高輝度部であると判定する。尚、高輝度部の位置や幅は、分割領域の分解能単位で求める。例えば、図2(b)の場合は、高輝度部の位置はY1〜Y4の行でX2〜X5の列の分割領域であることがわかる。この場合、撮像素子108から行単位で部分読み出しする幅はY1〜Y4となる。
(ステップS105)CPU115は、撮像素子108から部分読み出しする際の読み出し行を設定する。この時、例えば、640行×480列の画素数の撮像素子108の場合、図2(b)の1つの分割領域が80行分に相当するので、ステップS104で検出したY1〜Y4の分割領域に対応する1行目〜320行目までを部分読み出しするよう設定する。尚、ここでは、部分読み出しする行を設定するだけで、実際の部分読み出し動作は後の処理ステップで実行する。
(ステップS106)CPU115は、ステップS103で求めておいた第1画像の露出条件をメモリ113から読み出して露出設定を行う。尚、本実施形態では、先に説明したように、第1画像は低輝度部分の被写体に対応する画像と定義しているので、低輝度部分の被写体に適正な露出に設定される。
(ステップS107)CPU115は、レリーズボタンが全押しされたか否かを判定する。レリーズボタンが全押しされた場合(YES側)は、ステップS109に移行する。一方、レリーズボタンが全押しされていない場合(NO側)は、ステップS108に移行する。
(ステップS108)CPU115は、レリーズボタンの半押しが解除されたか否かを判定する。レリーズボタンの半押しが解除された場合(YES側)は、ステップS102に戻る。一方、レリーズボタンの半押しが解除されていない場合(NO側)は、ステップS107に戻る。
(ステップS109)CPU115は、シャッター121を閉じ、メインミラー105aをミラーダウンして退避状態から観察状態にする。
(ステップS110)CPU115は、撮像素子108の全画素の光電変換部に蓄積されている電荷をリセットする。
(ステップS111)CPU115は、メインミラー105aをミラーアップして観察状態から退避状態にし、シャッター121を開く。
(ステップS112)この状態で、被写体光は撮像素子108に入射し、第1露光が行われる(第1画像の撮影開始)。尚、第1露光は、先に説明したように、低輝度部用の露光である。
(ステップS113)CPU115は、シャッター121を閉じ、メインミラー105aをミラーダウンして退避状態から観察状態にする。この時点で第1露光は終了する(第1画像の撮影終了)。
(ステップS114)CPU115は、第1露光で撮影された第1画像を撮像素子108から読み出す。撮像素子108から読み出された画像データは、先に説明したように、アナログ信号処理部109,デジタル信号処理部111,画像処理部112で処理されて、メモリ113に一時的に記憶される。
(ステップS115)CPU115は、ステップS103で求めておいた第2画像の露出条件をメモリ113から読み出して露出設定を行う。尚、本実施形態では、先に説明したように、第2画像は高輝度部分の被写体に対応する画像で、高輝度部分の被写体に適正な露出に設定される。
(ステップS116)CPU115は、撮像素子108の全画素の光電変換部に蓄積されている電荷をリセットする。
(ステップS117)CPU115は、メインミラー105aをミラーアップして観察状態から退避状態にし、シャッター121を開く。
(ステップS118)この状態で、被写体からの光は撮像素子108に入射し、第2露光が行われる(第2画像の撮影開始)。尚、第2露光は、先に説明したように、高輝度部用の露光である。
(ステップS119)CPU115は、シャッター121を閉じ、メインミラー105aを退避状態から観察状態にする。この時点で第2露光は終了する(第2画像の撮影終了)。
(ステップS120)CPU115は、第2露光で撮影された第2画像を撮像素子108から部分読み出しする。この時、部分読み出しする行は、ステップS105で設定された行である。例えば、図2(b)の場合は、Y1〜Y4の分割領域に対応する行の画像データだけが撮像素子108から読み出される。この時の様子を図6に示す。図6(a)は、図4(b)と同じように、高輝度部分の窓506に露光条件を合わせて撮像素子108で撮影した第2画像505を示している。また、図6(b)は、ステップS104で設定した部分読み出し幅(Y1〜Y4)で、撮像素子108から読み出した部分読み出し画像507を示している。このように部分読み出しすることで、高輝度部分を含まないY5〜Y8の画像領域を撮像素子108から読み出す必要がなく、その部分の画像処理も行わないので、読み出し時間や処理時間を短縮できる。
撮像素子108から部分読み出された画像データは、先に説明したように、アナログ信号処理部109,デジタル信号処理部111,画像処理部112で処理されて、メモリ113に一時的に記憶される。
(ステップS121)CPU115は、メモリ113に一時的に記憶された第1画像の画像データと第2画像の画像データとをそれぞれ読み出して合成する。合成した画像は、本撮影画像として記録I/F114を介して記憶媒体122に記憶される。
以上で1枚の静止画の本撮影が終了し、ステップS102に戻って次の画像の撮影を行う。
ここで、第1画像と第2画像の画像データの合成方法について図7および図8を用いて説明する。合成方法は、例えば、部分読み出しした第2画像から高輝度部分を切り出して、切り出した領域に対応する第1画像の同じ領域の画像データを切り出した領域の画像データで置き換えることにより実現できる。図7は、ステップS114で読み出した低輝度部分に対応した画像503(第1画像)と、ステップS120で部分読み出した高輝度部分に対応した画像507(第2画像)とを合成して、最終的な本撮影画像401を得る処理の流れを描いた説明図である。尚、図7では、行単位で部分読み出しした画像507には高輝度部分である窓506以外の被写体も含まれているので、部分読み出しした第2画像507から高輝度部分を切り出してから合成するのが好ましい。
図8は、部分読み出しした第2画像507から高輝度部分を切り出す方法の一例を説明するための図で、図8(a)は部分読み出しした第2画像を示している。図8(b)は図8(a)の第2画像を線分ABで示した行の輝度レベルの変化を示している。尚、図8(b)では、輝度レベルを8ビット階調で示し、最大輝度レベルは255である。また、分かり易いように、図8(b)の高輝度部分以外の領域の輝度レベルは16前後であったとする。この場合に、高輝度部分を切り出す際の基準値を32に設定すると、高輝度部分以外の領域の画像が除去されて、高輝度部分のみ窓506の画像を切り出すことができる。図8(c)は、このようにして部分読み出しした第2画像507から高輝度部分のみの画像を切り出した様子を示している。
尚、撮像素子108が行方向だけでなく、列方向にも部分読み出しできる機能を有する固体撮像素子である場合は、図5のステップS120において、窓506の画像だけを部分読み出しするようにしても構わない。この場合は、図8で説明したような行単位で読み出してから高輝度部分を抽出する処理を行う必要がないので、さらに撮影時間を短縮することができる。この時、行方向および列方向の部分読み出しする位置や幅は、ステップS104において行われる。
また、図8(b)で説明した高輝度部分を切り出す際の基準値32の決定方法は、例えば、第1画像の第1露光量と第2画像の第2露光量との差に応じて決めるようにする。つまり、第1画像の第1露光量と第2画像の第2露光量との差が大きい場合は基準値を小さく設定し、第1画像の第1露光量と第2画像の第2露光量との差が小さい場合は基準値を大きく設定する。このように、高輝度部分を切り出す際の基準値を第1画像の第1露光量と第2画像の第2露光量との差に応じて可変することにより、高輝度部分と低輝度部分との輝度差が少ない場合や多い場合にそれぞれ適した基準値を設定することができ、高輝度部分をより精度良く切り出すことができる。尚、簡易的な方法として、予め設定した固定の基準値を用いるようにしても構わない。
以上、説明してきたように、第1の実施形態に係る電子カメラ101は、撮像素子108が撮影可能なダイナミックレンジ範囲に収まらない広いダイナミックレンジの被写体を撮影する場合に有効である。特に、本実施形態に係る電子カメラ101は、撮影処理の連続したシーケンスの中で、低輝度部分に対応した露出設定で第1露光を行って第1画像を撮影し、続けて高輝度部分に対応した露出設定で第2露光を行って第2画像を撮影し、第1画像と第2画像とを合成して本撮影画像とする。この結果、撮像素子108で撮影可能なダイナミックレンジ範囲に収まらない広いダイナミックレンジの被写体であっても、白飛びや黒つぶれなどが発生せず、鮮明な画像を得ることができる。
また、動画表示モード時(図5のステップS102〜S107)に撮影画像の高輝度部分を検出しておくので、ステップS107でレリーズボタンが全押しされた後で高輝度部分を検出する処理を行う必要がなく、撮影時間を短縮することができる。
特に、高輝度部分を撮影する第2画像は撮像素子108から部分読み出しするので、読み出し時間や読み出した画像に対する色補正などの画像処理時間が短くなり、全体の撮影時間を短縮することができる。
(第1の実施形態の変形例)
第1の実施形態の変形例として、光学ファインダを用いて撮影する場合について説明する。上記の説明では、図5のフローチャートにおいて、ステップS107でレリーズボタンが全押しされるまで、メインミラー105aは退避状態にあり、シャッター121は開かれたままで連続してライブビュー画像を撮影していた。このため、ステップS103で行うAF処理とAE処理は、撮像素子108から得られる画像データを基に行っていた。
第1の実施形態の変形例として、光学ファインダを用いて撮影する場合について説明する。上記の説明では、図5のフローチャートにおいて、ステップS107でレリーズボタンが全押しされるまで、メインミラー105aは退避状態にあり、シャッター121は開かれたままで連続してライブビュー画像を撮影していた。このため、ステップS103で行うAF処理とAE処理は、撮像素子108から得られる画像データを基に行っていた。
これに対して、光学ファインダを用いた撮影の場合は、ステップS107でレリーズボタンが全押しされるまで、メインミラー105aはミラーダウンされた観察状態にあり、シャッター121は閉じたままである。この状態では、図1のブロック図で説明したように、AF処理専用のAFセンサ106と、AE処理専用のAEセンサ107とを用いることができる。従って、光学ファインダを用いた撮影の場合のフローチャートは、図5のフローチャートのステップS103を以下に示したステップS103’に置き換える必要がある。
(ステップS103’)CPU115は、AFセンサ106から得られるデータを基に位相差検出方式によって合焦位置を検出する。そして、CPU115はレンズユニット103に指令して、フォーカスレンズを合焦位置に移動する。また、CPU115は、図2(b)に示すように、AEセンサ107から分割領域毎の平均輝度値を入力する。さらに、CPU115は、測光値に基づいて公知のAE演算を実行し、後で撮影する第1画像と第2画像の両方の露出条件(露光時間、絞り値、撮影感度など)を決定し、メモリ113などに一時的に記憶しておく。
尚、ステップS103以外の処理は、ステップS109を除いて図5のフローチャートと同じである。
このように、光学ファインダを用いた撮影においても、電子カメラ101は、低輝度部分に対応した露出設定で第1露光を行って第1画像を撮影し、続けて高輝度部分に対応した露出設定で第2露光を行って第2画像を撮影し、第1画像と第2画像とを合成して本撮影画像とする。この結果、撮像素子108のダイナミックレンジに収まらないような広いダイナミックレンジの被写体であっても、白飛びや黒つぶれなどが発生せず、鮮明な画像を得ることができる。この場合、光学ファインダで撮影構図を決める際に、AEセンサ107を用いて撮影画像の高輝度部分を検出しておくので、本撮影時に高輝度部分を検出する処理を行う必要がなく、撮影時間を短縮することができる。
特に、高輝度部分を撮影する第2画像を撮像素子108から部分読み出しするので、読み出し時間や読み出した画像に対する色補正などの画像処理時間が短くなり、全体の撮影時間を短縮することができる。
尚、本実施形態では、第1画像を低輝度部用とし、第2画像を高輝度部用としたが、第1画像を高輝度部用で、第2画像が低輝度部用であっても構わない。また、高輝度部用の第2画像を部分読み出しするようにしたが、低輝度部用の第1画像を部分読み出しするようにしても構わない。この場合は、例えば図2(b)の場合、Y5〜Y8の分割領域に対応する行の画像データだけを撮像素子108から読み出す。或いは、高輝度部用として第2露光で撮影された第2画像から高輝度部分の被写体が写っている領域だけを部分読み出しするだけでなく、低輝度部用として第1露光で撮影された第1画像においても低輝度部分の被写体が写っている領域の両方を部分読み出しするようにしても構わない。
また、図1のフラッシュ120の発光量を変えて、発光量の異なる複数の画像を合成するようにしても構わない。例えば、3種類の発光量A,発光量B,発光量Cでそれぞれ撮影した3枚の画像A,画像B,画像Cを用いて合成する。この場合は、画像Aからは発光量Aで適正露光となる領域を部分読み出しして切り出した画像を部分画像Aとし、画像Bからは発光量Bで適正露光となる領域を部分読み出しして切り出した画像を部分画像Bとし、画像Cからは発光量Cで適正露光となる領域を部分読み出しして切り出した画像を部分画像Cとする。このようにして切り出した3つの部分画像A,部分画像B,部分画像Cを合成して本撮影画像とする。尚、3種類の発光量である必要はなく、2種類であっても構わないし、自然光との組み合わせでも構わない。
さらに、本実施形態では、理解し易いように、1画面に高輝度領域が1つだけ存在する場合について説明したが、1画面に複数の高輝度領域が存在する場合であっても、それぞれの高輝度領域を含む行のみを部分読み出しして抽出した複数の画像を合成することによって同様に実現することができる。
また、図5のフローチャートでは、撮影画像に必ず高輝度領域が存在する場合について説明したが、撮像素子108のダイナミックレンジ範囲外の領域が存在しない場合は、合成処理を行う必要がなく、一般的な電子カメラと同様に1回の露光で本画像を撮影する。この場合は、図5のフローチャートにおいて、ステップS104の処理で所定値以上の高輝度領域が見つからない場合は、ステップS105をスキップし、さらにステップS115〜ステップS121の処理もスキップするようにすればよい。
以上、説明してきたように、本発明に係る電子カメラ101は、異なる露光条件で撮影した複数の画像を合成するので、撮影画像のダイナミックレンジを拡大することができる。特に、合成する画像のうち、少なくとも一方の画像を撮像素子108から部分的に読み出すので、撮影時間の短縮が可能になる。
101・・・電子カメラ 102・・・カメラ本体
103・・・レンズユニット 104・・・撮影光学系
105・・・ミラーボックスユニット
106・・・AFセンサ 107・・・AEセンサ
108・・・撮像素子 109・・・アナログ信号処理部
110・・・タイミングジェネレータ(TG)
111・・・デジタル信号処理部 112・・・画像処理部
113・・・メモリ 114・・・記録I/F
115・・・CPU 116・・・モニタ駆動部
117・・・モニタ 118・・・操作部
119・・・バス 120・・・フラッシュ
121・・・シャッター 122・・・記憶媒体
103・・・レンズユニット 104・・・撮影光学系
105・・・ミラーボックスユニット
106・・・AFセンサ 107・・・AEセンサ
108・・・撮像素子 109・・・アナログ信号処理部
110・・・タイミングジェネレータ(TG)
111・・・デジタル信号処理部 112・・・画像処理部
113・・・メモリ 114・・・記録I/F
115・・・CPU 116・・・モニタ駆動部
117・・・モニタ 118・・・操作部
119・・・バス 120・・・フラッシュ
121・・・シャッター 122・・・記憶媒体
Claims (5)
- 被写体像を撮像して画像データを生成する撮像部と、
撮像指示を行うレリーズボタンと、
前記撮像部により撮像されるライブビュー画像に前記撮像部のダイナミックレンジを超える第1領域がある場合は、前記第1領域の位置を検出する位置検出部と、
前記第1領域を撮像するのに適した第1露光量と、前記第1領域以外の第2領域を撮像するのに適した第2露光量とを求める露光量設定部と、
前記レリーズボタン押下時に、前記第1露光量で第1画像を、前記第2露光量で第2画像をそれぞれ撮像し、少なくとも前記第2画像を前記撮像部から部分読み出しで読み出す制御部と、
前記制御部が前記撮像部から読み出した前記第1画像と前記第2画像とを合成する画像処理部と
を有することを特徴とする電子カメラ。 - 請求項1に記載の電子カメラにおいて、
前記露光量設定部は、前記第1領域が前記ダイナミックレンジより高輝度である場合は、前記第1露光量を前記第2露光量より短時間露光とする
ことを特徴とする電子カメラ。 - 請求項1に記載の電子カメラにおいて、
前記露光量設定部は、前記第1領域が前記ダイナミックレンジより低輝度である場合は、前記第1露光量を前記第2露光量より長時間露光とする
ことを特徴とする電子カメラ。 - 請求項1から3のいずれか一項に記載の電子カメラにおいて、
前記画像処理部は、前記第1画像に前記第2画像を合成する際に、前記第2画像の輝度レベルが基準値以下の領域を切り捨ててから前記第1画像に合成する
ことを特徴とする電子カメラ。 - 請求項4に記載の電子カメラにおいて、
前記基準値は、前記第1露光量と前記第2露光量との差に応じて可変する
ことを特徴とする電子カメラ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008132921A JP2009284136A (ja) | 2008-05-21 | 2008-05-21 | 電子カメラ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008132921A JP2009284136A (ja) | 2008-05-21 | 2008-05-21 | 電子カメラ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009284136A true JP2009284136A (ja) | 2009-12-03 |
Family
ID=41454139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008132921A Withdrawn JP2009284136A (ja) | 2008-05-21 | 2008-05-21 | 電子カメラ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009284136A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011155619A (ja) * | 2010-01-28 | 2011-08-11 | Nikon Corp | 撮像装置及び撮像方法 |
JP2011160133A (ja) * | 2010-01-29 | 2011-08-18 | Nidec Copal Corp | 広ダイナミックレンジ撮像装置 |
JP2011182013A (ja) * | 2010-02-26 | 2011-09-15 | Nikon Corp | 撮像装置及び画像生成プログラム |
JP2011199860A (ja) * | 2010-02-26 | 2011-10-06 | Nikon Corp | 撮像装置及び画像生成プログラム |
JP2013126135A (ja) * | 2011-12-15 | 2013-06-24 | Fujitsu Ltd | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム |
US8723974B2 (en) | 2011-04-07 | 2014-05-13 | Olympus Corporation | Image pickup apparatus, image pickup method and recording device recording image processing program |
JP2014519218A (ja) * | 2011-04-18 | 2014-08-07 | クゥアルコム・インコーポレイテッド | ハイダイナミックレンジ画像についてのホワイトバランス最適化 |
-
2008
- 2008-05-21 JP JP2008132921A patent/JP2009284136A/ja not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011155619A (ja) * | 2010-01-28 | 2011-08-11 | Nikon Corp | 撮像装置及び撮像方法 |
JP2011160133A (ja) * | 2010-01-29 | 2011-08-18 | Nidec Copal Corp | 広ダイナミックレンジ撮像装置 |
JP2011182013A (ja) * | 2010-02-26 | 2011-09-15 | Nikon Corp | 撮像装置及び画像生成プログラム |
JP2011199860A (ja) * | 2010-02-26 | 2011-10-06 | Nikon Corp | 撮像装置及び画像生成プログラム |
US8723974B2 (en) | 2011-04-07 | 2014-05-13 | Olympus Corporation | Image pickup apparatus, image pickup method and recording device recording image processing program |
JP2014519218A (ja) * | 2011-04-18 | 2014-08-07 | クゥアルコム・インコーポレイテッド | ハイダイナミックレンジ画像についてのホワイトバランス最適化 |
JP2013126135A (ja) * | 2011-12-15 | 2013-06-24 | Fujitsu Ltd | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9241109B2 (en) | Image capturing apparatus, control method, and recording medium for moving image generation | |
JP2011175119A (ja) | 撮像装置及び自動焦点調節方法 | |
JP2006033241A (ja) | 撮像装置、及び画像取得方法 | |
JP2007027967A (ja) | 撮影装置 | |
JP6325841B2 (ja) | 撮像装置、撮像方法、およびプログラム | |
JP5262247B2 (ja) | 撮像装置、撮像方法及びプログラム | |
JP5051812B2 (ja) | 撮像装置、その合焦方法および記録媒体 | |
JP5759190B2 (ja) | 撮像装置及びその制御方法 | |
JP2009284136A (ja) | 電子カメラ | |
JP4885902B2 (ja) | 撮影装置及びその制御方法 | |
US7800686B2 (en) | Electronic camera having a light reduction device | |
JP5952975B2 (ja) | 撮像装置および撮像方法 | |
JP4818130B2 (ja) | 撮像装置及びその制御方法 | |
JP2009017427A (ja) | 撮像装置 | |
JP2009182832A (ja) | 撮影装置およびスルー画表示方法 | |
JP4705146B2 (ja) | 撮像装置及び撮像方法 | |
JP4597887B2 (ja) | 撮影装置 | |
JP2006217249A (ja) | 電子カメラ、電子カメラシステムおよびプログラム | |
JP2010016469A (ja) | 電子カメラ | |
JP2010200097A (ja) | 撮像装置 | |
JP2008283477A (ja) | 画像処理装置及び画像処理方法 | |
JP2007267330A (ja) | デジタル一眼レフカメラ | |
JP2008028924A (ja) | 撮像装置及び撮像装置の制御方法 | |
JP2008205958A (ja) | デジタルカメラ | |
JP2005333491A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110802 |