JP2004350204A - Imaging apparatus and image pickup method - Google Patents

Imaging apparatus and image pickup method Download PDF

Info

Publication number
JP2004350204A
JP2004350204A JP2003147649A JP2003147649A JP2004350204A JP 2004350204 A JP2004350204 A JP 2004350204A JP 2003147649 A JP2003147649 A JP 2003147649A JP 2003147649 A JP2003147649 A JP 2003147649A JP 2004350204 A JP2004350204 A JP 2004350204A
Authority
JP
Japan
Prior art keywords
exposure
video signal
control
signal processing
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003147649A
Other languages
Japanese (ja)
Inventor
Hiroto Hirakoso
洋人 平社
Keizo Iino
恵三 飯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003147649A priority Critical patent/JP2004350204A/en
Publication of JP2004350204A publication Critical patent/JP2004350204A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the generation of a shock in a video image when switching a signal processing function. <P>SOLUTION: As boundary exposure control, processing which changes a synthetic ratio in a second signal processing means, a compression rate and a mixing ratio of brightness information for exposure control is performed in a form which connects the exposure control at the time of a function of a first signal processing means and the exposure control at the time of a function of the second signal processing means. As a result, the boundary exposure control is performed in a transition period wherein the operation of the first signal processing means and the operation of the second signal processing means are switched. Hence, a difference of output video images (difference of luminance and color) which is caused by a difference of a processing algorithm and the exposure control in the first and the second signal processing means is absorbed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は撮像装置及び撮像方法に関するものである。
【0002】
【従来の技術】
【特許文献1】特開平8−280188
例えばCCD等の撮像素子を用いて被写体映像を撮像するビデオカメラなどの撮像装置では、被写体の輝度に関わらず安定した映像が撮像できるように自動露出調整が行われるものが知られている。公知の通り、露出を調整するには主に3つの手法があり、絞り調整、シャッタースピード調整、ゲイン調整である。
【0003】
上記の絞り調整によっては、被写体の輝度に応じて入射光量を調整することができ、適切な露出状態を得ることができる。
例えば上記特許文献1には、撮像素子に至る撮像光の入射経路にメカニカルな絞り機構(アイリス機構)を備え、複数の羽根により口径を大小させることで入射光量を調整する構成及びその駆動制御のための技術が開示されている。
【0004】
また、シャッタースピード(CCDの場合は露出情報の転送タイミングによる電子シャッタで制御される露光時間)を調整することも露出調整となる。
さらに、CCD等の撮像素子によって得られた撮像映像信号のゲインを可変することでも、信号上で輝度調整ができ、即ち露出調整が可能である。
ビデオカメラにおいては、このような3つの手法が組み合わされて、適切な自動露出調整が行われている。
【0005】
【発明が解決しようとする課題】
ところで、撮像装置で撮像を行う被写体は、画面上で全体的に輝度が低い或いは高いということばかりでなく、画面内で輝度が高い部分と低い部分が混在することも多々ある。特に非常に輝度の高い部分と輝度の低い部分が混在すると、最適な露出調整が難しく、撮像された映像を高品位とすることができない。
このため、撮像された映像信号に対する処理を工夫し、広い輝度ダイナミックレンジに対応して高品位な映像を得るための手法が開発されている。
【0006】
例えば通常の信号処理アルゴリズムと特殊な信号処理アルゴリズムを用意する。そして被写体輝度がかなり高くなり、被写体の輝度ダイナミックレンジが広いとされる場合には、通常の信号処理アルゴリズムから特殊な信号処理アルゴリズムに切り換え、広いダイナミックレンジに対応した処理とすることが考えられている。
しかしながら、このように複数の信号処理機能を輝度変化に応じて切り換えるようにする場合、その切換の際に、出力される映像信号が急激に変化してしまう。つまり複数の信号処理アルゴリズムでの処理において輝度や色などの差異が生ずるため、連続した映像上で、信号処理の変化があった時点で、映像上にショック(輝度や色あい等の急激な変化)があらわれてしまうという問題があった。
【0007】
【課題を解決するための手段】
本発明はこのような事情に鑑みて、複数の信号処理アルゴリズムでの処理が切り換えられる際に、ショックがあらわれない円滑な映像信号出力を行うことができるようにすることを目的とする。
【0008】
本発明の撮像装置は、被写体から得られた光を電気信号である撮像映像信号に変換する撮像手段と、被写体輝度が第1の所定値より低い低輝度領域にあるときに、上記撮像映像信号に対して通常信号処理を行って映像信号を出力する第1の信号処理手段と、被写体輝度が上記第1の所定値より大きな第2の所定値より高い高輝度領域にあるときに、第1の露出状態において得られた撮像映像信号と第2の露出状態において得られた撮像映像信号との合成処理を行って映像信号を出力する第2の信号処理手段と、撮像映像信号の輝度情報に応じて、上記第1の信号処理手段の機能時には適正露出に調整する露出制御を行い、上記第2の信号処理手段の機能時には上記第1の露出状態を得る露出調整と上記第2の露出状態を得る露出調整を行うとともに、被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、上記第2の信号処理手段による上記合成処理における合成比率を変化させる境界露出制御を行う制御手段とを備える。
また、上記制御手段は、上記境界露出制御において、上記第1の露出状態において得られた撮像映像信号と上記第2の露出状態において得られた撮像映像信号を合成した映像信号に対するダイナミックレンジ圧縮処理の圧縮率を変化させる。
また、上記第1の信号処理手段と上記第2の信号処理手段は、それぞれ上記被写体輝度を検出する輝度情報検出部を含み、上記制御手段は、上記境界露出制御において、上記第1の信号処理手段における輝度情報検出部からの輝度情報と、上記第2の信号処理手段における輝度情報検出部からの輝度情報の混合比を変化させる。
【0009】
本発明の撮像方法は、被写体から得られた光を電気信号である撮像映像信号に変換し、被写体輝度が第1の所定値より低い低輝度領域にあるときには、上記撮像映像信号に対して通常信号処理を行って映像信号を生成し、被写体輝度が上記第1の所定値より大きな第2の所定値より高い高輝度領域にあるときには、第1の露出状態において得られた撮像映像信号と第2の露出状態において得られた撮像映像信号とを合成して映像信号を生成し、被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、上記合成における合成比率を変化させつつ映像信号を生成する。
また、上記被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、さらに、上記第1の露出状態において得られた撮像映像信号と上記第2の露出状態において得られた撮像映像信号を合成した映像信号に対するダイナミックレンジ圧縮処理の圧縮率を変化させる。
また上記被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、上記通常信号処理を実行する回路により検出された輝度情報と、上記合成を実行する回路により検出された輝度情報とを、所定の混合比で混合して輝度情報及び露出制御の収束目標値を算出し、上記輝度情報と上記収束目標値との比較結果に基づいて、上記合成比率及び上記圧縮率を変化させる。
【0010】
以上の本発明において、被写体輝度条件によって上記第1の信号処理手段の動作と上記第2の信号処理手段の動作が切り換えられる遷移期間に、上記第2の信号処理手段における合成処理の合成比率の変化、さらにはダイナミックレンジ圧縮率の変化や起動情報の混合比の変化を行う境界露出制御は、第1の信号処理手段の機能時の露出制御と、第2の信号処理手段の機能時の露出制御をつなぐかたちで行われる。そして、第1の信号処理手段と第2の信号処理手段では、その処理アルゴリズムと露出制御に差異があって、出力映像の差(輝度や色の差)が大きいが、境界露出制御によってその差異を吸収する。具体的には処理パラメータを段階的に変化させていくことで、信号処理の差によって出力映像上にショックが生ずることを防止し、また取得する輝度情報の混合比を段階的に変化させていくことで、露出制御の差によって出力映像上にショックが生ずることを防止する。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態を図1〜図6を用いて説明する。
図1は実施の形態の撮像装置の要部のブロック図である。この撮像装置は、例えば動画としての撮像映像信号を得るビデオカメラとされる。
【0012】
被写体からの撮像光は撮像レンズ1を介して入射される。この撮像光1はメカアイリス部2を介してCCD3に結像される。メカアイリス部2は、例えば複数の羽根により口径を大小させることで入射光量を調整するようにされた絞り機構である。このメカアイリス部2においては、口径を形成する複数の羽根と、その羽根を駆動し口径を可変させるための駆動機構を有する。駆動機構は、駆動用モータ及びモータコイルに駆動信号を与える回路系から成る。そしてこのメカアイリス部2に対しては、駆動制御電圧VCNTが与えられることで、複数の羽根がオープン方向又はクローズ方向に駆動される。
【0013】
CCD3に結像された撮像光は電気信号に変換される。即ち各画素の電荷として蓄積され、転送クロックによって画素電荷が転送されていくことで電気信号としての撮像映像信号に変換され、CDS/AGC回路4に供給される。CCD3においては、タイミングジェネレータ13からの転送タイミング信号TMが供給されるが、この転送タイミング信号TMの周波数は、電子シャッタとしてのシャッタースピードを規定するものとなる。
【0014】
CDS/AGC回路4においては、CDS(相関2重サンプリング)処理により撮像映像信号としてのデータをサンプルホールドし、さらにAGC(オートゲインコントロール)処理によるゲイン調整を行なう。AGC処理については、ゲイン制御信号Cgにより、その調整ゲインが制御される。
【0015】
CDS/AGC回路4から出力される撮像映像信号は、A/D変換器5においてデジタルデータに変換され、DSP(Digital Signal Processor)10に入力される。
DSP10は本発明でいう第2の信号処理手段に相当し、撮像映像信号に対して、ワイドダイナミックレンジ処理(以下、WD処理)としての信号処理を行う部位とされる。WD処理とは、特に被写体輝度が高い場合において、DSP10で行われる処理である。
図2を用いてWD処理を説明する。
【0016】
WD処理は、広ダイナミックレンジ信号処理を実現するために、長時間露光と短時間露光の2つの撮像を行い得られた2つの画像の適切な露出箇所を合成し1枚のワイドダイナミックレンジ撮像画像を作り出すアルゴリズムである。
今、図2(a)のような被写体を想定する。例えば樹木に対して太陽光が直接あたり、樹木の部分が非常に高輝度な被写体となっている。一方、人物は塀によって太陽光から遮られた位置にいることで、低輝度の被写体となっている。このように被写体において輝度のレンジが広い場合、通常の露出制御では最適な映像を得ることができない。即ち露出を上げれば人物にはよいが、樹木には適切な状態とならない。露出を下げるとその逆となる。
そこでこのような場合のWD処理では、例えば長時間露光画像(第1の露出状態)として図2(b)のように人物にとって適切な露出の映像を得、さらに短時間露光画像(第2の露出状態)として図2(c)のように樹木にとって適切な露出の映像を得る。そしてこの2つの画像において露出が適切となっている箇所をそれぞれ抽出し、合成する。すると図2(d)のように人物と樹木の両方に適切な露出の画像が得られる。
DSP10は、WD処理としてこのように長時間露光画像と短時間露光画像を合成して1つの画像を得る処理を行うものである。
【0017】
DSP10とともに、DSP20が設けられる。DSP20は、本発明でいう第1の信号処理手段に相当し、被写体輝度が或るレベルより低い場合において撮像映像信号に対して通常の映像信号処理を行う。
通常の映像信号処理とは、上記WD処理のような特別な信号処理を行わないで、1回の撮像で1枚の画像を作り出す従来型の信号処理である。
そして例えばDSP20では、撮像映像信号に対する輝度(Y)信号処理や色(C)信号処理を行う。
【0018】
このようにDSP10,DSP20が設けられる本例では、通常は、撮像映像信号に対する信号処理はDSP10をパスしてDSP20において実行されるが、特に被写体輝度がかなり高輝度の場合、DSP10においてWD処理が施されるものとなる。
【0019】
DSP10又はDSP20で処理された信号は、図示しない次段の回路系に供給される。例えばモニタ出力映像としての処理回路系に供給される。また例えば当該撮像装置が、ディスクやテープメディアに映像信号を記録する記録装置部を備えているのであれば、DSP5で処理された撮像映像信号は、所定の記録用エンコード処理や圧縮処理などを経て、メディアに記録される。
【0020】
DSP10及びDSP20には、それぞれオプティカルディテクタ11、21が設けられる。オプティカルディテクタ11は積分器であり、例えば映像信号のフィールド単位で輝度信号、色信号の積分処理を行う。そしてフィールド単位の積分値(以下、OPD値)をコントローラ6に供給する。特に本実施の形態では、コントローラ6による自動露出制御に関して述べていくが、この自動露出制御に関して輝度信号のOPD値を用いることになる。
【0021】
コントローラ6は、例えばマイクロコンピュータにより構成される。ROM6a、RAM6bは、コントローラ6の処理プログラム、制御変数、処理係数等の格納や、各種演算のためのワーク領域として用いられる。
コントローラ6は、撮像映像信号に対する信号処理の実行について、DSP10、DSP20を選択的に切り換える処理を行う。
また、DSP10、DSP20での信号処理実行制御や、処理に用いるパラメータの設定などの処理を行う。
【0022】
さらにコントローラ6は、自動露出調整(AE)のための制御機能を有する。コントローラ6は、オプティカルディテクタ11からの輝度積分値OPD(D)又はオプティカルディテクタ21からの輝度積分値OPD(N)に基づいて、AE制御を行う。即ち供給されたOPD値を、基準のOPD値と比較する演算によって得られるエラー値に基づいて露出調整処理を実行する。上述したように露出調整のためには、絞り調整、シャッタスピード調整、ゲイン調整の3つの手法が用いられる。
【0023】
コントローラ6は、露出調整のためにシャッタースピード調整を実行させる際にはシャッタースピード制御信号Csをタイミングジェネレータ13に対して出力する。シャッタースピード制御信号Csは、タイミングジェネレータ13からCCD3に供給する露光時間を規定する信号であり、これによってコントローラ6がシャッタースピードを可変指示できる。例えばシャッタースピードとして1/60秒〜1/1000秒などの間で可変指示される。
またコントローラ6は、露出調整のためにゲイン調整を実行させる際にはゲイン制御信号CgをCDS/AGC回路4に対して出力する。ゲイン制御信号Cgは、AGC処理でのゲイン値を指定する信号であり、CDS/AGC回路4では、ゲイン制御信号Cgで指定されたゲインを基準としてゲイン調整処理が行われる。これによってコントローラ6が撮像映像信号に与えるゲインを可変指示できる。
さらにコントローラ6は、絞り調整を実行させるためには、アイリス制御信号Ciを出力する。アイリス制御信号CiはEVR(電子ボリューム)14により所要の電圧調整が行われ、駆動制御電圧VCNTとしてメカアイリス部2に供給される。アイリス制御信号Ciは、メカアイリス部2をオープン方向又はクローズ方向に駆動させるように指示する信号である。従って、コントローラ6がアイリス制御信号Ciとしてオープン方向の値を出力することで、メカアイリス部2においては口径が開くオープン方向に駆動され、またコントローラ6がアイリス制御信号Ciとしてクローズ方向の値を出力することで、メカアイリス部2においては口径が閉じるクローズ方向に駆動される。さらにコントローラ6がアイリス制御信号Ciとして駆動停止の値を出力することで、メカアイリス部2においてはその時点の口径状態を維持する。
【0024】
ここで、コントローラ6による露出制御方式及びDSP10,20の振り分けを図3で説明する。
自動露出調整とは、被写体輝度に関わらず、安定した輝度レベルの撮像映像信号が得られるようにすることである。そしてそのために、上記のように絞り、シャッタースピード、ゲインを調整する。
図3には横軸に被写体輝度をとって、被写体輝度に応じて露出調整動作の一例を示している。
【0025】
例えばこの図3のように、被写体輝度レベルとしての所定値C、Dにおいて、DSP20、DSP10の処理が切り分けられる。
被写体輝度レベルが第1の所定値Cより低輝度の範囲にあるときは、映像信号処理としてはDSP20による通常処理が行われる。そしてコントローラ6は、DSP20による通常処理が行われる被写体輝度レベルの範囲は、通常AE制御領域としてAE処理(露出調整)を行う。
この通常AE制御領域においては、コントローラ6はオプティカルディテクタ21からの輝度積分値OPD(N)に基づく制御を行う。例えば被写体輝度レベルがB〜Cの範囲にあるときは、絞り調整或いはシャッタースピード調整による露出制御を行う。また被写体輝度レベルがA〜Bの範囲にあるときは、ゲイン調整による露出制御を行う。さらに被写体輝度レベルがA以下の範囲にあるときは、シャッタースピード制御(スローシャッタ)による露出制御を行う。これらの露出制御を、輝度積分値OPD(N)がその収束目標値に達するように実行する。
【0026】
被写体輝度レベルが第2の所定値Dより高輝度の範囲にあるときは、映像信号処理としてはDSP10によるWD処理が行われる。そしてコントローラ6は、DSP10による通常処理が行われる被写体輝度レベルの範囲は、WD−AE制御領域としてAE処理(露出調整)を行う。
このWD−AE制御領域においては、コントローラ6はオプティカルディテクタ11からの輝度積分値OPD(D)に基づく制御を行う。例えば絞り調整或いはシャッタースピード調整による露出制御を行う。これらの露出制御を、輝度積分値OPD(D)がその収束目標値に達するように実行する。
【0027】
そして本例では、特に輝度レベルが第1の所定値Cと第2の所定値Dの間にある場合、即ち通常AE制御領域とWD−AE制御領域の境界領域において、境界AE制御が行われる。
この境界AE制御は、映像信号処理がDSP10とDSP20の間で切り換えられる際に、出力される映像信号にショックが生じないようにするために実行される。
以下、境界AE制御について述べていく。
【0028】
上述したように本例では、2つの異なる信号処理を行う機能を有する。そしてDSP10によるワイドダイナミックレンジ撮像機能(WD処理)と、DSP20による通常撮像機能(通常処理:通常輝度〜低照度での撮像機能)を、被写体条件(ダイナミックレンジ、輝度)によって切り替えるものである。
このDSP10、DSP20のそれぞれによる機能では、その映像信号処理およびそれぞれの自動露出制御(AE)のアルゴリズムがまったく異なる。
このため信号処理による出力映像の差と、AE処理による出力映像の差が生ずる。
【0029】
まず映像信号処理においては、DSP10のWD処理では、上記図2で説明したように、ワイドダイナミックレンジ信号処理を実現するために、第1,第2の露出状態、即ち長時間露光と短時間露光の2つの撮像を行い、得られた2つの画像の適切な露出箇所を合成し1枚のワイドダイナミック撮像画像を作り出すアルゴリズムである。
一方、DSP20の通常処理は上記のような特別な信号処理を行わない1回の撮像で1枚の画像を作り出す従来型の信号処理である。
【0030】
このような信号処理の差異によっては、WD処理を行うDSP10はダイナミックレンジを圧縮した映像信号を出力し、一方通常処理を行うDSP20は特にダイナミックレンジを圧縮することのない映像信号を出すことになる。WD処理の場合、ダイナミックレンジの広い合成撮像映像を生成するが、その場合、映像モニタ装置などの出力デバイスのダイナミックレンジに合わせる必要が生じ、そのため上記図2の合成処理を行った後、或る程度ダイナミックレンジ圧縮処理が行われるためである。
そしてこのようにWD処理がダイナミックレンジ圧縮処理を行い、通常処理ではダイナミックレンジ圧縮処理を行わないことから、同じ被写体を撮像したとしてもDSP10の出力映像とDSP20の出力映像には差が生じる。
【0031】
またAE処理において、DSP20で通常処理が行われる際には、主に画面全体を測光して適正露出に制御するが、DSP10でWD処理が行われる際は、長時間露光撮像において低輝度被写体をターゲットにした適正露出より明るい露出条件をもつ処理(WD−AE処理(i)とする)と、短時間露光において高輝度被写体をターゲットにした適正露出より暗い露出条件をもつ処理(WD−AE処理(ii)とする)との2つが行われる。このような露出制御の差異においてもDSP10の出力映像とDSP20の出力映像には差が生じる。
【0032】
本例の境界AE制御は、このような信号処理の差異及びAE制御の差異によって生ずる出力映像の差を吸収するものである。
そしてこの境界AE制御は、自動露出制御の一部として機能し、図3に示した通常AE制御領域とWD−AE制御領域をつなぐ形で存在する。
【0033】
まず信号処理の差異による出力映像の差異を解消するためには、境界AE制御において、DSP10のWD処理におけるパラメータとして、ミックススタート(MIX START)、及びアジャストゲイン(ADJUST GAIN)が変化されるようにする。
即ち本例では、AE制御においてミックススタート、及びアジャストゲインが設定されるようにするとともに、そのパラメータが境界AE制御において変化される。
【0034】
ミックススタートのパラメータとは、DSP10において長時間露光画像と短時間露光画像の2つの画像を合成する際に、どの信号レベルを境に合成をするかを決めるパラメータである。
例えば図4において、横軸は入力映像信号の画素の輝度レベルを示し、その画素輝度としての或る値として設定されたミックススタートパラメータを示している。図4の縦軸は長時間露光画像と短時間露光画像に与えるゲインであり、実線は短時間露光画像のゲイン、破線は長時間露光画像のゲインを示す。
【0035】
例えば図4(a)のようにミックススタート=Y1と設定されている場合、輝度が輝度レベルY1より低い画素については長時間露光画像のゲインが1、短時間露光画像のゲインが0とされ、その画素については、合成処理において長時間露光画像側の画素が用いられる。一方、輝度が輝度レベルY2より高い画素については長時間露光画像のゲインが0、短時間露光画像のゲインが1とされ、その画素については、合成処理において短時間露光画像側の画素が用いられる。輝度レベルY1〜Y2の範囲の画素については、長時間露光画像と短時間露光画像が、図に示されるゲインの比率で合成されることになる。
【0036】
WD処理時の露出調整が行われるWD−AE制御領域においては、上述したWD処理のために、ミックススタートパラメータの値はある適性値に設定されている。
ここで、ミックススタートパラメータは、長時間露光画像側と短時間露光画像側の2つの画像を合成する処理における、合成の基準となる画素輝度レベルを指定するパラメータであるため、ミックススタートパラメータを変化させることによれば、合成画像において長時間露光画像と短時間露光画像のしめる割合、即ち合成比率を変化させるものとなる。
例えばミックススタートパラメータの値を大きくしていくと図4(b)のようになる。図4(b)はミックススタート=Y3とした場合であり、この場合、輝度がY3〜Y4の範囲の画素において長時間露光画像側の画素と短時間露光画像側の画素が混合される。
そしてこの場合、長時間露光画像側の画素のみを用いる画素輝度の範囲がY3にまで拡大することになり、つまり、合成映像に長時間露光画像成分の占める割合が大きくなっていく。
このミックススタートパラメータを最大値にすると、DSP10で形成される合成画像は長時間露光画像が100%用いられたものとなることが理解される。
【0037】
またDSP10のWD処理においては、上述したように出力デバイス(TVモニタ等)のダイナミックレンジに合わせるため、合成映像信号のダイナミックレンジ圧縮を行う機能を有する。
このダイナミックレンジ圧縮処理のパラメータがアジャストゲインである。
【0038】
WD−AE制御領域では、DSP10のWD処理として広ダイナミックレンジ画像処理を行うため、アジャストゲインとしてのパラメータを或る適性値に設定している。
このアジャストゲインを大きくしていくと合成映像信号に対するダイナミックレンジの圧縮率が小さくなっていき、最大値にすると圧縮率は1(=圧縮しない)ものとなる。
【0039】
ここで本例の境界AE制御領域を図5に示す。
これはAE制御として、WD−AE制御領域と通常AE制御領域の間で境界AE制御が行われることを模式的に示しているものである。つまり、AE制御において、WD−AE制御と通常AE制御の間で移行する際(DSP10の処理とDSP20の処理が切り換えられる際)に、境界AE制御が実行される。
なお、境界AE制御領域の範囲をScale値で表しているが、このScale値とは、撮像装置のシステムゲインに相当する値である。説明上、システムゲインとは撮像装置において映像信号の輝度を決定するゲインの総称とする。システムゲインを変化させる要因としては、アイリス(絞り)、電子シャッタ、AGCゲインなどがあり、また上記ミックススタート及びアジャストゲインは、出力映像信号の輝度をコントロールできることから、システムゲインを変化できる制御対象の一部となる。
【0040】
図5に示すように、境界AE制御領域としては、WDパラメータ制御領域と、OPDMIX領域が設定されている。
WDパラメータ制御領域は、上述したDSP10とDSP20の信号処理の際によって生ずる出力映像の差を解消するための制御領域であり、このWDパラメータ制御領域では、図示するように上記のミックススタート及びアジャストゲインを変化させるものとなる。
【0041】
この処理を、WD−AE制御領域から通常AE制御領域に向かって遷移する場合で述べる。
ミックススタート、アジャストゲインとしての各パラメータは、WD−AE制御領域においては、上記したようにそれぞれ適正値に設定されている。
WDパラメータ制御領域の制御としては、WD−AE制御領域においてある適性値に設定されているミックススタートおよびアジャストゲインを徐々に最大値に近づけて、長時間露光画像100%かつ圧縮率=1の出力画像を得るように制御する。その後、通常AE制御領域に移行する。
このようにすれば、通常AE制御領域に移行した直後のDSP20による信号処理画像と、通常AE制御領域に移行する直前のDSP10の信号処理画像は、露出条件さえあっていれば差異が生じなくなる。
【0042】
ここまでは、DSP10,20の信号処理の差異によって出力映像信号に急激に差が生ずることを防止する手法である。
本例ではさらに、上記したAE制御処理の差によって出力映像信号に差が生ずることを、以下のようにして防止する。
【0043】
WD−AE制御の際には、コントローラ6はオプティカルディテクタ11で測光された輝度積分値OPD(D)を用いてAE制御を行う。
一方、通常AE制御の際には、コントローラ6はオプティカルディテクタ21で測光された輝度積分値OPD(N)を用いてAE制御を行う。
【0044】
さらにWD−AE制御で用いられるオプティカルディテクタ11は、上述した、長時間露光撮像において低輝度被写体をターゲットにした適正露出より明るい露出条件をもつ処理であるWD−AE処理(i)のための測光機能と、短時間露光において高輝度被写体をターゲットにした適正露出より暗い露出条件をもつ処理であるWD−AE処理(ii)のための測光機能を有している。
【0045】
ここで、WD−AE制御領域から通常AE制御領域に遷移する際を考えると、その測光処理はオプティカルディテクタ11からオプティカルディテクタ21に遷移されることになる。
このとき、それぞれの露出制御対象を、WD−AE処理(i)が低輝度被写体とし、通常AE制御が主に画面全体としているため、AE制御の収束条件(収束とは最適露出への収束)が異なるものとなり、その結果出力映像に差異が生ずる。
そこで本例では、上記図5の境界AE制御領域において、OPD MIX領域と呼ぶ領域を設け、このOPDMIX領域における測光は、オプティカルディテクタ11,21の2つのOPD値(OPD(D)、OPD(N))の合成値を用いるようにしている。
【0046】
この場合の合成値は、
OPD合成値=(OPD(D)×k) + (OPD(N)×(1−k)) ・・・(式1)
但し、0≦k≦1
とする。
係数kの値は、図5のようにOPDMIX領域内で変化される。
これによってWD−AE制御領域から境界AE制御領域に遷移した直後はk=1であるため、オプティカルディテクタ11からのOPD(D)値を100%使用してAE制御がなされる。
またOPDMIX領域内で、通常AE制御領域側に移行するほど、係数kの値が小さくなり、オプティカルディテクタ21からのOPD(N)値の混合比が大きくなる。そして通常AE制御領域へ遷移する直前ではOPD(N)値を100%使用してAE制御が行われる。
【0047】
またWD−AE制御と通常AE制御の収束ターゲットの差が、AE制御が収束する位置、つまり適正露出値(収束目標値)の差として説明できる場合、境界AE制御領域の収束目標値は次のように求めればよい。
WD−AE処理(i)の収束目標値をTi、通常AE処理の収束目標値をTNとすると、

Figure 2004350204
但し、0≦k≦1
である。
これによって、WD−AE制御領域から境界AE制御領域に遷移した直後は、WD−AE処理(i)の収束目標値Tiを100%使用してAE処理が行われ、また境界AE制御領域から通常AE制御領域に遷移する直前では、収束目標値TNを100%使用してAE処理が行われることとなる。
【0048】
このようにAE制御に用いるOPD値と収束目標値を、境界AE制御領域において徐々に変化させることで、WD−AE制御と通常AE制御が切り換えられる際に、AE制御の違いによって生ずる出力映像の急激な変化を解消する。
【0049】
本例では、境界AE制御領域において、以上のようなWDパラメータ制御領域におけるパラメータ(ミックススタート、アジャストゲイン)の制御を行い、またOPDMIX領域においてOPD値及び収束目標値の制御を行うことで、出力映像に生ずるショックを防止するものである。
以下、境界AE制御領域での具体的な処理例を説明する。
【0050】
図5に示したように、境界AE制御領域の全体をScaleと呼ぶ値であらわすとする。
説明上、仮に、当該境界AE制御領域として、WD−AE制御領域との境界をScale=0とし、通常AE制御領域との境界をScale=200とする。また、境界AE制御領域内で、WDパラメータ制御領域とOPDMIX領域の境界をScale=100とする。
【0051】
ここで現在の制御点をnowとする(now = 0 〜 200)。現在の制御点とは、現在の撮像装置のシステムゲインに相当する。即ち出力映像における輝度レベルということもできる。
【0052】
この場合、上記の式1、式2におけるkの値はk= (100−now)/100 と表現できる。(ただし (0≦k≦1) )
ここで式1と式2の演算結果を比較する。
式1で算出された輝度積分値(OPD合成値)が、式2で算出された収束目標値より大きければ、被写体が明るいと判断できるため、nowの値を減らして(つまりScale値を減らして)システムゲインを下げる。
また逆に、式1で算出された輝度積分値(OPD合成値)が、式2で算出された収束目標値より小さければ、被写体が暗いと判断できるため、nowの値を増加させて(つまりScale値を増加させて)システムゲインを上げる。これらによってAE制御とする。
【0053】
ここまでは、収束位置の算出になるが、このように増減されScale値を用いてミックススタート、アジャストゲインのパラメータ制御を行う。
ミックススタート、アジャストゲインを以下のように算出する。
MIX START=MS最大値×L+MS適正値×(1 − L) ・・・(式3)
ADJUST GAIN=AG最大値×L+AG適正値×(1 − L) ・・・(式4)
【0054】
なお、MS最大値とは、ミックススタートパラメータのとりうる最大値、MS適正値とは、WD−AE制御領域において適正値(最大値未満)に設定されているミックススタート値である。
また、AG最大値とは、アジャストゲインパラメータのとりうる最大値、AG適正値とは、WD−AE制御領域において適正値(最大値未満)に設定されているアジャストゲイン値である。
Lは、図5にも示したが、L=(Scale − 100 ) / 100 で表される値である(但し、0≦L≦1)
【0055】
以上のように、現在の制御点nowから規定される係数kに応じて、式1,式2で輝度積分値と収束目標値が算出されることで、現在の制御点に応じてOPDMIX領域でのAE制御の変化、つまりWD−AE制御と通常AE制御をスムーズに連続させるための動作が行われる。
またScale値によって、ミックススタートパラメータとアジャストゲインは、図5に示すように変化される。つまりWDパラメータ制御領域において、通常AE制御領域に近いScale値となるほど、大きい値に変化される。
【0056】
なお、アジャストゲインを上げて圧縮率を低くすると、オプティカルディテクタ21で検波されるDSP1からの出力映像は、全体的に輝度が増すものとなる。このためシステムゲインが上がったことと同等の動きをすることになりWDパラメータ制御領域はAE処理としてのフィードバックが成立する。
これに対しOPDMIX領域は、内部的なAE評価値となるOPD合成値が変化するだけで、システムゲインが変化しないため、不感帯に相当する働きを示す。これによって境界AE制御領域ではヒステリシス特性を持つこととなり、発振しにくくなる。
【0057】
以上の境界AE制御領域の処理をフローチャートで示したものが図6である。
図6の処理は、コントローラ6において輝度積分値が入力される毎に行われる。
ステップF101では、上記式1によりOPD合成値を算出する。
ステップF102では、上記式2により収束目標値を算出する。
ここで、式1>式2、つまりOPD合成値>収束目標値であれば、ステップF103からF104に進んで、Scale値を1減ずる。
一方、式1<式2、つまりOPD合成値<収束目標値であれば、ステップF105からF106に進んで、Scale値を1増加させる。
【0058】
ステップF107は、上記のように増減されたScale値が200を越えたか否かを確認する。Scale値=200とは通常AE制御領域との境界である。もしScale値が200を越えていれば、ステップF107からF108に進んで、通常AE制御に移行するものとなる。
ステップF109は、上記のように増減されたScale値が0より小さくなったか否かを確認する。Scale値=0とはWD−AE制御領域との境界である。もしScale値が0より小さくなっていれば、ステップF109からF110に進んで、WD−AE制御に移行する。
【0059】
Scale値が0以上200以下の範囲、つまり境界AE制御領域内であるならステップF111に進む。そして、その時点のScale値から係数k、Lを求める。Scale値に対して係数k、Lは図5に示したように設定されている。つまりScale値から一意に求められる値となる。
ステップF112では、係数k、Lの値を用い、上記式3,式4によってミックススタート、及びアジャストゲインとしての値を求める。そして求めたミックススタート、アジャストゲインをDSP10に設定する。
【0060】
境界AE制御領域において、この図6のような処理が行われていくことで、上述したようにWD−AE制御領域と通常AE制御領域の遷移期間において、出力映像にショックが生じないようにされることになる。これによって2つの異なる信号処理方式をスムーズに連続させることができる。
【0061】
【発明の効果】
以上の説明から理解されるように本発明では、境界露出制御として、第2の信号処理手段における合成処理の合成比率を変化させる処理、合成画像のダイナミックレンジ圧縮率を変化させる処理、さらには輝度情報の混合比を変化させる処理が、第1の信号処理手段の機能時の露出制御と、第2の信号処理手段の機能時の露出制御をつなぐかたちで行われる。つまり第1の信号処理手段の動作と第2の信号処理手段の動作が切り換えられる遷移期間に境界露出制御が行われる。そして、第1の信号処理手段と第2の信号処理手段では、その処理アルゴリズムと露出制御に差異があって、出力映像の差(輝度や色の差)が大きいが、境界露出制御によってその差異が吸収されながら、第1の信号処理手段と第2の信号処理手段の切換が行われる。これによって、処理切換時に出力映像上にショックが生ずることが防止されるという効果がある。
そして処理切換時の映像上のショックが避けられることで、2つの信号処理手段の機能を有効に利用して高品位な撮像映像を得ることができる。
【0062】
また第2の信号処理手段の合成比率の変化として、例えば合成処理において高い露出状態の撮像映像信号と低い露出状態の撮像映像信号の割合を指定するパラメータ(ミックススタート)を変化させたり、また高い露出状態の撮像映像信号と低い露出状態の撮像映像信号を合成した映像信号に対するダイナミックレンジ圧縮処理の圧縮率を、例えばパラメータ(アジャストゲイン)で変化させる。さらに、輝度情報の取得処理として、第1の信号処理手段における輝度情報検出部からの輝度情報OPD(N)と第2の信号処理手段における輝度情報検出部からの輝度情報OPD(D)の混合比を変化させる。これらの処理によって、上記のショックの解消は有効に行われ、第1,第2の信号処理手段の切換はスムーズに行われる。
【図面の簡単な説明】
【図1】本発明の実施の形態の撮像装置の要部のブロック図である。
【図2】実施の形態の広ダイナミックレンジ処理の説明図である。
【図3】実施の形態の露出制御領域の説明図である。
【図4】実施の形態の広ダイナミックレンジ処理でのミックススタートの説明図である。
【図5】実施の形態の境界AE制御の説明図である。
【図6】実施の形態の境界AE制御のフローチャートである。
【符号の説明】
1 撮像レンズ、2 メカアイリス部、3 CCD、4 CDS/AGC回路、5 A/D変換器、6 コントローラ、10 WD処理DSP、11,21 オプティカルディテクタ、20 通常処理DSP[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device and an imaging method.
[0002]
[Prior art]
[Patent Document 1] JP-A-8-280188
For example, an image capturing apparatus such as a video camera that captures an image of a subject using an image sensor such as a CCD or the like is known to perform automatic exposure adjustment so that a stable image can be captured regardless of the luminance of the subject. As is well known, there are mainly three methods for adjusting the exposure: aperture adjustment, shutter speed adjustment, and gain adjustment.
[0003]
By adjusting the aperture, the amount of incident light can be adjusted according to the brightness of the subject, and an appropriate exposure state can be obtained.
For example, Patent Document 1 discloses a configuration in which a mechanical aperture mechanism (iris mechanism) is provided on an incident path of imaging light reaching an imaging element, and a plurality of blades is used to adjust the amount of incident light by increasing or decreasing the aperture and controlling the driving of the same. For this purpose, a technique has been disclosed.
[0004]
Adjusting the shutter speed (exposure time controlled by the electronic shutter based on the transfer timing of exposure information in the case of a CCD) is also exposure adjustment.
Further, by varying the gain of the image signal obtained by an image sensor such as a CCD, the luminance can be adjusted on the signal, that is, the exposure can be adjusted.
In a video camera, these three methods are combined to perform appropriate automatic exposure adjustment.
[0005]
[Problems to be solved by the invention]
By the way, the subject to be imaged by the imaging device is not only low or high in luminance overall on the screen, but also often includes a high luminance part and a low luminance part in the screen. In particular, when a part with very high luminance and a part with low luminance are mixed, optimal exposure adjustment is difficult, and a captured image cannot be made high quality.
For this reason, a technique for obtaining high-quality video corresponding to a wide luminance dynamic range by devising processing for a captured video signal has been developed.
[0006]
For example, a normal signal processing algorithm and a special signal processing algorithm are prepared. If the brightness of the subject is considerably high and the brightness dynamic range of the subject is wide, it is conceivable to switch from a normal signal processing algorithm to a special signal processing algorithm to perform processing corresponding to a wide dynamic range. I have.
However, in the case where a plurality of signal processing functions are switched in accordance with a change in luminance, an output video signal changes abruptly when the switching is performed. In other words, since differences in luminance, color, and the like occur in processing by a plurality of signal processing algorithms, a shock (rapid change in luminance, tint, etc.) appears on the video when there is a change in signal processing on a continuous video. There was a problem that appeared.
[0007]
[Means for Solving the Problems]
In view of such circumstances, an object of the present invention is to make it possible to output a smooth video signal free from shock when processing by a plurality of signal processing algorithms is switched.
[0008]
An imaging device according to the present invention includes: an imaging unit configured to convert light obtained from a subject into an imaging video signal that is an electric signal; and an imaging unit configured to output the imaging video signal when the subject brightness is in a low luminance region lower than a first predetermined value. A first signal processing means for performing a normal signal processing on the image signal to output a video signal; and a first signal processing means for outputting a video signal when the subject luminance is in a high luminance area higher than a second predetermined value larger than the first predetermined value. A second signal processing means for performing a synthesizing process of the captured video signal obtained in the second exposure state and the captured video signal obtained in the second exposure state to output a video signal; Accordingly, when the first signal processing means functions, exposure control is performed to adjust the exposure to an appropriate value. When the second signal processing means functions, exposure control for obtaining the first exposure state and the second exposure state are performed. And adjust the exposure In particular, when the subject brightness is between the first predetermined value and the second predetermined value, the control for performing the boundary exposure control for changing the synthesis ratio in the synthesis processing by the second signal processing means is performed. Means.
In the boundary exposure control, the control unit may perform a dynamic range compression process on a video signal obtained by combining the captured video signal obtained in the first exposure state and the captured video signal obtained in the second exposure state. To change the compression ratio.
The first signal processing means and the second signal processing means each include a luminance information detecting unit for detecting the subject luminance, and the control means performs the first signal processing in the boundary exposure control. The mixing ratio of the luminance information from the luminance information detecting section in the means and the luminance information from the luminance information detecting section in the second signal processing means is changed.
[0009]
The imaging method of the present invention converts light obtained from a subject into an imaged video signal that is an electric signal, and when the subject brightness is in a low luminance region lower than a first predetermined value, the imaging video signal is A signal processing is performed to generate a video signal, and when the subject luminance is in a high luminance area higher than the second predetermined value, which is higher than the first predetermined value, the captured video signal obtained in the first exposure state is A video signal is generated by combining the captured video signal obtained in the second exposure state, and when the subject luminance is between the first predetermined value and the second predetermined value, the combining in the combining is performed. A video signal is generated while changing the ratio.
Further, when the subject luminance is between the first predetermined value and the second predetermined value, the imaged video signal obtained in the first exposure state and the image signal obtained in the second exposure state are further changed. The compression ratio of the dynamic range compression processing on the video signal obtained by combining the obtained captured video signals is changed.
When the subject luminance is between the first predetermined value and the second predetermined value, the luminance information detected by the circuit for executing the normal signal processing is detected by the circuit for executing the synthesis. The luminance information thus obtained is mixed at a predetermined mixing ratio to calculate a luminance information and a convergence target value of the exposure control. Based on a comparison result between the luminance information and the convergence target value, the synthesis ratio and the compression are calculated. Change the rate.
[0010]
In the present invention described above, during the transition period in which the operation of the first signal processing means and the operation of the second signal processing means are switched according to the subject luminance condition, the synthesis ratio of the synthesis processing in the second signal processing means is changed. Boundary exposure control for changing the dynamic range compression ratio and changing the mixture ratio of the start-up information includes exposure control when the first signal processing unit functions and exposure when the second signal processing unit functions. This is done in a way that connects control. The first signal processing means and the second signal processing means have a difference in the processing algorithm and the exposure control, and the difference in the output video (the difference in luminance and color) is large. Absorb. Specifically, by gradually changing the processing parameters, it is possible to prevent a shock from occurring on the output video due to a difference in signal processing, and to gradually change the mixing ratio of the luminance information to be obtained. Thus, it is possible to prevent the occurrence of a shock on an output image due to a difference in exposure control.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram of a main part of the imaging apparatus according to the embodiment. This imaging device is, for example, a video camera that obtains a captured video signal as a moving image.
[0012]
Imaging light from a subject enters through an imaging lens 1. The imaging light 1 is imaged on the CCD 3 via the mechanical iris unit 2. The mechanical iris unit 2 is a diaphragm mechanism that adjusts the amount of incident light by, for example, increasing or decreasing the aperture with a plurality of blades. The mechanical iris unit 2 has a plurality of blades forming an aperture, and a driving mechanism for driving the blades to change the aperture. The drive mechanism includes a drive motor and a circuit system that provides a drive signal to the motor coil. When the drive control voltage VCNT is applied to the mechanical iris unit 2, the plurality of blades are driven in the open direction or the close direction.
[0013]
The imaging light focused on the CCD 3 is converted into an electric signal. That is, the charge is accumulated as the charge of each pixel, is converted into an image signal as an electric signal by being transferred by the transfer clock, and is supplied to the CDS / AGC circuit 4. The transfer timing signal TM from the timing generator 13 is supplied to the CCD 3, and the frequency of the transfer timing signal TM defines the shutter speed as an electronic shutter.
[0014]
The CDS / AGC circuit 4 samples and holds data as an image pickup video signal by CDS (correlated double sampling) processing, and further performs gain adjustment by AGC (auto gain control) processing. In the AGC process, the adjustment gain is controlled by the gain control signal Cg.
[0015]
The captured video signal output from the CDS / AGC circuit 4 is converted into digital data by an A / D converter 5 and input to a DSP (Digital Signal Processor) 10.
The DSP 10 corresponds to a second signal processing unit according to the present invention, and is a portion that performs signal processing as wide dynamic range processing (hereinafter, WD processing) on a captured video signal. The WD process is a process performed by the DSP 10 particularly when the subject brightness is high.
The WD process will be described with reference to FIG.
[0016]
In the WD processing, in order to realize wide dynamic range signal processing, two exposures of a long exposure and a short exposure are taken, and appropriate exposure portions of two images obtained are synthesized, and one wide dynamic range captured image is obtained. Is an algorithm that produces
Now, assume a subject as shown in FIG. For example, sunlight directly hits a tree, and the tree is a very bright subject. On the other hand, the person is a low-brightness subject because it is located in a position shielded from sunlight by the fence. In the case where the luminance range of the subject is wide, an optimal image cannot be obtained by ordinary exposure control. That is, increasing the exposure is good for a person, but not suitable for a tree. Lowering the exposure will do the opposite.
Therefore, in the WD processing in such a case, for example, as shown in FIG. 2B, a video having an appropriate exposure for a person is obtained as a long-time exposure image (first exposure state), and then a short-time exposure image (second exposure state) is obtained. As an exposure state, an image with an exposure appropriate for a tree is obtained as shown in FIG. Then, in each of the two images, portions where exposure is appropriate are extracted and combined. Then, as shown in FIG. 2D, images with appropriate exposure for both the person and the tree are obtained.
The DSP 10 performs a process of combining the long-time exposure image and the short-time exposure image to obtain one image as the WD process.
[0017]
A DSP 20 is provided together with the DSP 10. The DSP 20 corresponds to a first signal processing unit according to the present invention, and performs normal video signal processing on a captured video signal when the subject luminance is lower than a certain level.
The normal video signal processing is a conventional signal processing in which a single image is created by one imaging without performing special signal processing such as the WD processing.
Then, for example, the DSP 20 performs luminance (Y) signal processing and color (C) signal processing on the captured video signal.
[0018]
In this example in which the DSP 10 and the DSP 20 are provided as described above, the signal processing for the captured video signal is normally performed in the DSP 20 by passing through the DSP 10, but especially when the subject luminance is considerably high, the WD processing is performed in the DSP 10. Will be applied.
[0019]
The signal processed by the DSP 10 or the DSP 20 is supplied to a next-stage circuit system (not shown). For example, it is supplied to a processing circuit system as a monitor output video. Further, for example, if the imaging device includes a recording device that records a video signal on a disk or a tape medium, the captured video signal processed by the DSP 5 is subjected to a predetermined recording encoding process, a compression process, and the like. Recorded on the media.
[0020]
The DSP 10 and the DSP 20 are provided with optical detectors 11 and 21, respectively. The optical detector 11 is an integrator, and performs, for example, integration processing of a luminance signal and a chrominance signal in units of fields of a video signal. Then, an integrated value (hereinafter, OPD value) in a field unit is supplied to the controller 6. In particular, in the present embodiment, the automatic exposure control by the controller 6 will be described, but the OPD value of the luminance signal is used for the automatic exposure control.
[0021]
The controller 6 is constituted by, for example, a microcomputer. The ROM 6a and the RAM 6b are used as storage areas for processing programs of the controller 6, control variables, processing coefficients, and the like, and as work areas for various calculations.
The controller 6 performs a process of selectively switching the DSP 10 and the DSP 20 with respect to the execution of the signal processing on the captured video signal.
In addition, the DSP 10 and the DSP 20 perform signal processing execution control and processing such as setting parameters used in the processing.
[0022]
Further, the controller 6 has a control function for automatic exposure adjustment (AE). The controller 6 performs AE control based on the integrated luminance value OPD (D) from the optical detector 11 or the integrated luminance value OPD (N) from the optical detector 21. That is, the exposure adjustment processing is executed based on an error value obtained by an operation of comparing the supplied OPD value with a reference OPD value. As described above, three methods of aperture adjustment, shutter speed adjustment, and gain adjustment are used for exposure adjustment.
[0023]
The controller 6 outputs a shutter speed control signal Cs to the timing generator 13 when performing shutter speed adjustment for exposure adjustment. The shutter speed control signal Cs is a signal that specifies the exposure time supplied from the timing generator 13 to the CCD 3, and the controller 6 can variably instruct the shutter speed. For example, the shutter speed is variably instructed from 1/60 second to 1/1000 second.
The controller 6 outputs a gain control signal Cg to the CDS / AGC circuit 4 when performing gain adjustment for exposure adjustment. The gain control signal Cg is a signal for specifying a gain value in the AGC process, and the CDS / AGC circuit 4 performs a gain adjustment process on the basis of the gain specified by the gain control signal Cg. This allows the controller 6 to variably instruct the gain given to the captured video signal.
Further, the controller 6 outputs an iris control signal Ci to execute the aperture adjustment. The iris control signal Ci is subjected to required voltage adjustment by an EVR (electronic volume) 14 and supplied to the mechanical iris unit 2 as a drive control voltage VCNT. The iris control signal Ci is a signal for instructing the mechanical iris unit 2 to be driven in an open direction or a closed direction. Therefore, when the controller 6 outputs the value in the open direction as the iris control signal Ci, the mechanical iris unit 2 is driven in the open direction in which the aperture is opened, and the controller 6 outputs the value in the close direction as the iris control signal Ci. Accordingly, the mechanical iris unit 2 is driven in the closing direction in which the aperture is closed. Further, the controller 6 outputs the drive stop value as the iris control signal Ci, so that the mechanical iris unit 2 maintains the aperture state at that time.
[0024]
Here, the exposure control method by the controller 6 and the distribution of the DSPs 10 and 20 will be described with reference to FIG.
The automatic exposure adjustment is to obtain an imaged video signal having a stable luminance level regardless of the luminance of the subject. For that purpose, the aperture, shutter speed, and gain are adjusted as described above.
FIG. 3 shows an example of the exposure adjustment operation in which the horizontal axis represents the subject brightness and the subject brightness is taken.
[0025]
For example, as shown in FIG. 3, the processes of the DSP 20 and the DSP 10 are separated at predetermined values C and D as the subject luminance level.
When the subject brightness level is in a range of brightness lower than the first predetermined value C, normal processing by the DSP 20 is performed as video signal processing. Then, the controller 6 performs AE processing (exposure adjustment) as a normal AE control area in the range of the subject brightness level in which the normal processing by the DSP 20 is performed.
In the normal AE control area, the controller 6 performs control based on the luminance integrated value OPD (N) from the optical detector 21. For example, when the subject luminance level is in the range of B to C, exposure control by aperture adjustment or shutter speed adjustment is performed. When the subject luminance level is in the range from A to B, exposure control by gain adjustment is performed. Further, when the subject luminance level is in the range of A or less, exposure control by shutter speed control (slow shutter) is performed. These exposure controls are executed so that the integrated luminance value OPD (N) reaches the convergence target value.
[0026]
When the subject brightness level is in a range higher than the second predetermined value D, WD processing by the DSP 10 is performed as video signal processing. Then, the controller 6 performs AE processing (exposure adjustment) as a WD-AE control area in the range of the subject luminance level in which the normal processing by the DSP 10 is performed.
In the WD-AE control region, the controller 6 performs control based on the luminance integrated value OPD (D) from the optical detector 11. For example, exposure control is performed by adjusting the aperture or the shutter speed. These exposure controls are executed so that the luminance integrated value OPD (D) reaches the convergence target value.
[0027]
In this example, the boundary AE control is performed particularly when the luminance level is between the first predetermined value C and the second predetermined value D, that is, in the boundary region between the normal AE control region and the WD-AE control region. .
The boundary AE control is executed to prevent the output video signal from being shocked when the video signal processing is switched between the DSP 10 and the DSP 20.
Hereinafter, the boundary AE control will be described.
[0028]
As described above, this embodiment has a function of performing two different signal processes. A wide dynamic range imaging function (WD processing) by the DSP 10 and a normal imaging function (normal processing: imaging function at normal luminance to low illuminance) by the DSP 20 are switched according to subject conditions (dynamic range, luminance).
The functions of the DSP 10 and the DSP 20 have completely different algorithms for video signal processing and automatic exposure control (AE).
For this reason, there is a difference between the output video due to the signal processing and the output video due to the AE processing.
[0029]
First, in the video signal processing, in the WD processing of the DSP 10, as described with reference to FIG. 2, in order to realize wide dynamic range signal processing, the first and second exposure states, that is, long exposure and short exposure This is an algorithm that performs the two imagings described above, synthesizes appropriate exposure locations of the obtained two images, and creates one wide dynamic imaging image.
On the other hand, the normal processing of the DSP 20 is a conventional signal processing in which one image is formed by one imaging without performing the special signal processing as described above.
[0030]
Depending on such a difference in signal processing, the DSP 10 performing the WD processing outputs a video signal with a compressed dynamic range, while the DSP 20 performing the normal processing outputs a video signal without particularly compressing the dynamic range. . In the case of the WD process, a synthesized captured image having a wide dynamic range is generated. In this case, it is necessary to match the dynamic range of an output device such as a video monitor device. Therefore, after performing the synthesizing process of FIG. This is because a dynamic range compression process is performed.
Since the WD process performs the dynamic range compression process and the normal process does not perform the dynamic range compression process, a difference occurs between the output video of the DSP 10 and the output video of the DSP 20 even if the same subject is imaged.
[0031]
In the AE processing, when the normal processing is performed by the DSP 20, mainly the entire screen is metered and the exposure is controlled to be appropriate. A process having an exposure condition brighter than the proper exposure targeted (WD-AE process (i)) and a process having a darker exposure condition than the proper exposure targeting a high-brightness subject in short-time exposure (WD-AE process) (Ii)). Even in such a difference in exposure control, a difference occurs between the output image of the DSP 10 and the output image of the DSP 20.
[0032]
The boundary AE control of this example absorbs such a difference in signal processing and a difference in output video caused by the difference in AE control.
The boundary AE control functions as a part of the automatic exposure control, and exists in a form connecting the normal AE control area and the WD-AE control area shown in FIG.
[0033]
First, in order to eliminate a difference in output video due to a difference in signal processing, in the boundary AE control, a mix start (MIX START) and an adjustment gain (ADJUST GAIN) are changed as parameters in the WD processing of the DSP 10. I do.
That is, in this example, the mix start and the adjustment gain are set in the AE control, and the parameters are changed in the boundary AE control.
[0034]
The mix start parameter is a parameter that determines which signal level should be used when combining two images, a long exposure image and a short exposure image, in the DSP 10.
For example, in FIG. 4, the horizontal axis indicates the luminance level of the pixel of the input video signal, and indicates the mix start parameter set as a certain value as the pixel luminance. The vertical axis in FIG. 4 is the gain given to the long-time exposure image and the short-time exposure image, the solid line shows the gain of the short-time exposure image, and the broken line shows the gain of the long-time exposure image.
[0035]
For example, when mix start = Y1 is set as shown in FIG. 4A, the gain of the long-time exposure image is set to 1 and the gain of the short-time exposure image is set to 0 for a pixel whose luminance is lower than the luminance level Y1, As for the pixel, the pixel on the long-time exposure image side is used in the synthesis processing. On the other hand, for a pixel whose luminance is higher than the luminance level Y2, the gain of the long-time exposure image is set to 0, and the gain of the short-time exposure image is set to 1. For that pixel, the pixel on the short-time exposure image side is used in the synthesis processing. . For the pixels in the range of the luminance levels Y1 to Y2, the long-time exposure image and the short-time exposure image are synthesized at the gain ratio shown in the drawing.
[0036]
In the WD-AE control area where the exposure adjustment at the time of the WD process is performed, the value of the mix start parameter is set to a certain appropriate value for the above-described WD process.
Here, since the mix start parameter is a parameter for specifying a pixel luminance level that is a reference for synthesis in a process of synthesizing two images on the long exposure image side and the short exposure image side, the mix start parameter is changed. According to this, the ratio of combining the long-time exposure image and the short-time exposure image in the composite image, that is, the composite ratio is changed.
For example, when the value of the mix start parameter is increased, the result becomes as shown in FIG. FIG. 4B shows a case where mix start = Y3. In this case, the pixels on the long-time exposure image side and the pixels on the short-time exposure image side are mixed in the pixels whose luminance ranges from Y3 to Y4.
In this case, the range of the pixel luminance using only the pixels on the long-exposure image side is expanded to Y3, that is, the proportion of the long-exposure image component in the composite video increases.
It can be understood that when the mix start parameter is set to the maximum value, the composite image formed by the DSP 10 uses the long-time exposure image at 100%.
[0037]
In the WD processing of the DSP 10, the DSP 10 has a function of compressing the dynamic range of the composite video signal to match the dynamic range of the output device (TV monitor or the like) as described above.
The parameter of the dynamic range compression processing is an adjustment gain.
[0038]
In the WD-AE control region, a parameter as an adjustment gain is set to a certain appropriate value in order to perform wide dynamic range image processing as WD processing of the DSP 10.
As the adjustment gain is increased, the compression ratio of the dynamic range for the synthesized video signal is reduced, and when the adjustment gain is set to the maximum value, the compression ratio is 1 (= not compressed).
[0039]
Here, the boundary AE control area of the present example is shown in FIG.
This schematically illustrates that the boundary AE control is performed between the WD-AE control area and the normal AE control area as the AE control. In other words, in the AE control, the boundary AE control is executed when transitioning between the WD-AE control and the normal AE control (when the processing of the DSP 10 and the processing of the DSP 20 are switched).
Note that the range of the boundary AE control area is represented by a Scale value, and the Scale value is a value corresponding to a system gain of the imaging device. For the sake of explanation, the system gain is a general term for a gain that determines the luminance of a video signal in an imaging device. Factors that change the system gain include an iris (aperture), an electronic shutter, an AGC gain, and the like. The mix start and the adjust gain can control the brightness of the output video signal, and thus are the control targets that can change the system gain. Become a part.
[0040]
As shown in FIG. 5, a WD parameter control area and an OPDMIX area are set as the boundary AE control area.
The WD parameter control area is a control area for eliminating a difference between output images caused by the above-described signal processing of the DSP 10 and the DSP 20. In the WD parameter control area, the mix start and the adjustment gain are performed as shown in the drawing. Is changed.
[0041]
This processing will be described in the case of transition from the WD-AE control area to the normal AE control area.
Each parameter as the mix start and the adjustment gain is set to an appropriate value in the WD-AE control region as described above.
In the control of the WD parameter control area, the mix start and the adjustment gain set to a certain appropriate value in the WD-AE control area are gradually brought close to the maximum value, and the output of the long exposure image 100% and the compression ratio = 1 is output. Control to obtain an image. After that, the processing shifts to the normal AE control area.
In this way, there is no difference between the signal-processed image by the DSP 20 immediately after the transition to the normal AE control area and the signal-processed image of the DSP 10 immediately before the transition to the normal AE control area, as long as the exposure condition exists.
[0042]
Up to this point, the technique is to prevent a sudden difference in the output video signal due to a difference in signal processing between the DSPs 10 and 20.
In this example, further, the occurrence of a difference in the output video signal due to the difference in the AE control processing described above is prevented as follows.
[0043]
At the time of WD-AE control, the controller 6 performs AE control using the integrated luminance value OPD (D) measured by the optical detector 11.
On the other hand, during normal AE control, the controller 6 performs AE control using the luminance integrated value OPD (N) measured by the optical detector 21.
[0044]
Further, the optical detector 11 used in the WD-AE control is a photometry for the WD-AE process (i), which is a process having an exposure condition brighter than an appropriate exposure for a low-luminance subject in long-time exposure imaging as described above. It has a function and a photometric function for a WD-AE process (ii), which is a process having an exposure condition darker than an appropriate exposure targeting a high-brightness subject in a short-time exposure.
[0045]
Here, when the transition from the WD-AE control area to the normal AE control area is considered, the photometric processing is changed from the optical detector 11 to the optical detector 21.
At this time, since each exposure control target is a low-luminance subject in the WD-AE process (i) and the normal AE control is mainly the entire screen, the convergence condition of the AE control (convergence is convergence to the optimal exposure) Are different, resulting in a difference in the output video.
Therefore, in this example, an area called an OPD MIX area is provided in the boundary AE control area in FIG. 5 described above, and photometry in this OPDMIX area is performed using two OPD values (OPD (D) and OPD (N) of the optical detectors 11 and 21. )) Is used.
[0046]
The composite value in this case is
OPD combined value = (OPD (D) × k) + (OPD (N) × (1-k)) (Equation 1)
Where 0 ≦ k ≦ 1
And
The value of the coefficient k is changed in the OPDMIX region as shown in FIG.
As a result, since k = 1 immediately after the transition from the WD-AE control area to the boundary AE control area, AE control is performed using 100% of the OPD (D) value from the optical detector 11.
In the OPDMIX area, the value of the coefficient k becomes smaller and the mixing ratio of the OPD (N) values from the optical detector 21 becomes larger as the position shifts to the normal AE control area. Immediately before the transition to the normal AE control area, the AE control is performed using the OPD (N) value of 100%.
[0047]
When the difference between the convergence targets of the WD-AE control and the normal AE control can be described as the position where the AE control converges, that is, the difference between the appropriate exposure values (convergence target values), the convergence target value of the boundary AE control region is as follows. You can ask for it.
Assuming that the convergence target value of the WD-AE process (i) is Ti and the convergence target value of the normal AE process is TN,
Figure 2004350204
Where 0 ≦ k ≦ 1
It is.
As a result, immediately after the transition from the WD-AE control area to the boundary AE control area, the AE processing is performed using the convergence target value Ti of the WD-AE processing (i) at 100%. Immediately before the transition to the AE control region, the AE processing is performed using the convergence target value TN of 100%.
[0048]
By gradually changing the OPD value and the convergence target value used for the AE control in the boundary AE control region, when the WD-AE control is switched to the normal AE control, the output image generated due to the difference between the AE control and the AE control is changed. Eliminate sudden changes.
[0049]
In this example, the parameters (mix start, adjust gain) in the WD parameter control area as described above are controlled in the boundary AE control area, and the OPD value and the convergence target value are controlled in the OPDMIX area. This is to prevent a shock occurring in the image.
Hereinafter, a specific processing example in the boundary AE control area will be described.
[0050]
As shown in FIG. 5, the entire boundary AE control area is represented by a value called Scale.
For the sake of explanation, suppose that the boundary with the WD-AE control area is Scale = 0 and the boundary with the normal AE control area is Scale = 200 as the boundary AE control area. In the boundary AE control area, the boundary between the WD parameter control area and the OPDMIX area is set to Scale = 100.
[0051]
Here, the current control point is set to now (now = 0 to 200). The current control point corresponds to the current system gain of the imaging device. That is, it can also be referred to as the luminance level in the output video.
[0052]
In this case, the value of k in Equations 1 and 2 can be expressed as k = (100−now) / 100. (However, (0 ≦ k ≦ 1))
Here, the calculation results of Expressions 1 and 2 are compared.
If the luminance integration value (OPD composite value) calculated by Expression 1 is larger than the convergence target value calculated by Expression 2, it can be determined that the subject is bright. ) Lower system gain.
Conversely, if the luminance integration value (OPD composite value) calculated by Expression 1 is smaller than the convergence target value calculated by Expression 2, it can be determined that the subject is dark, and thus the value of now is increased (ie, Increase the system gain (by increasing the Scale value). AE control is performed by these.
[0053]
Up to this point, the calculation of the convergence position is performed, but the parameters of the mix start and the adjustment gain are controlled using the Scale value that has been increased or decreased in this way.
The mix start and the adjustment gain are calculated as follows.
MIX START = MS maximum value × L + MS proper value × (1−L) (formula 3)
ADJUST GAIN = AG maximum value × L + AG proper value × (1−L) (Equation 4)
[0054]
Note that the MS maximum value is a maximum value that the mix start parameter can take, and the MS appropriate value is a mix start value set to an appropriate value (less than the maximum value) in the WD-AE control region.
The AG maximum value is the maximum value that the adjustment gain parameter can take, and the AG appropriate value is the adjustment gain value set to an appropriate value (less than the maximum value) in the WD-AE control region.
L is a value represented by L = (Scale-100) / 100 as shown in FIG. 5 (where 0 ≦ L ≦ 1).
[0055]
As described above, the luminance integrated value and the convergence target value are calculated by the equations (1) and (2) according to the coefficient k defined from the current control point now, so that in the OPDMIX region according to the current control point. Of the AE control, that is, an operation for smoothly continuing the WD-AE control and the normal AE control.
Further, the mix start parameter and the adjustment gain are changed as shown in FIG. 5 according to the Scale value. That is, in the WD parameter control area, the value is changed to a larger value as the Scale value becomes closer to the normal AE control area.
[0056]
If the compression ratio is lowered by increasing the adjustment gain, the luminance of the output video from the DSP 1 detected by the optical detector 21 is increased as a whole. For this reason, a motion equivalent to an increase in the system gain is performed, and feedback in the WD parameter control area is established as AE processing.
On the other hand, the OPDMIX region has a function equivalent to a dead zone because the system gain does not change only when the OPD composite value serving as the internal AE evaluation value changes. As a result, the boundary AE control region has a hysteresis characteristic, and oscillation is difficult.
[0057]
FIG. 6 is a flowchart showing the above-described processing of the boundary AE control area.
The process of FIG. 6 is performed each time the integrated luminance value is input to the controller 6.
In step F101, the OPD composite value is calculated by the above equation (1).
In step F102, a convergence target value is calculated by the above equation (2).
Here, if Expression 1> Expression 2, that is, OPD composite value> Convergence target value, the process proceeds from Step F103 to F104, and the Scale value is decremented by one.
On the other hand, if Expression 1 <Expression 2, that is, if the OPD combined value <the convergence target value, the process proceeds from Step F105 to F106 to increase the Scale value by one.
[0058]
A step F107 checks whether or not the Scale value increased or decreased as described above exceeds 200. The Scale value = 200 is a boundary with the normal AE control area. If the Scale value exceeds 200, the process proceeds from step F107 to F108 to shift to the normal AE control.
A step F109 checks whether or not the Scale value thus increased or decreased has become smaller than 0. The Scale value = 0 is a boundary with the WD-AE control area. If the Scale value is smaller than 0, the process proceeds from step F109 to F110 and shifts to WD-AE control.
[0059]
If the Scale value is in the range of 0 to 200, that is, within the boundary AE control area, the process proceeds to step F111. Then, coefficients k and L are obtained from the Scale value at that time. The coefficients k and L are set for the Scale value as shown in FIG. That is, it is a value uniquely obtained from the Scale value.
In step F112, using the values of the coefficients k and L, the values as the mix start and the adjustment gain are obtained by the above equations 3 and 4. Then, the determined mix start and adjustment gain are set in the DSP 10.
[0060]
By performing the processing as shown in FIG. 6 in the boundary AE control area, no shock is generated in the output image in the transition period between the WD-AE control area and the normal AE control area as described above. Will be. Thus, two different signal processing methods can be smoothly continued.
[0061]
【The invention's effect】
As can be understood from the above description, in the present invention, as the boundary exposure control, a process of changing the synthesis ratio of the synthesis process in the second signal processing unit, a process of changing the dynamic range compression ratio of the synthesized image, and a process of changing the luminance The process of changing the mixture ratio of information is performed in a manner that the exposure control when the first signal processing unit functions and the exposure control when the second signal processing unit functions are connected. That is, the boundary exposure control is performed during a transition period in which the operation of the first signal processing unit and the operation of the second signal processing unit are switched. The first signal processing means and the second signal processing means have a difference in the processing algorithm and the exposure control, and the difference in the output video (the difference in luminance and color) is large. Is switched, the first signal processing means and the second signal processing means are switched. This has the effect of preventing the occurrence of a shock on the output video at the time of switching the processing.
By avoiding a shock on the image at the time of switching the processing, a high-quality captured image can be obtained by effectively utilizing the functions of the two signal processing means.
[0062]
Further, as the change of the combining ratio of the second signal processing means, for example, a parameter (mix start) for specifying the ratio of the captured video signal in the high exposure state and the captured video signal in the low exposure state in the combining processing is changed, or The compression ratio of the dynamic range compression process on the video signal obtained by combining the captured video signal in the exposed state and the captured video signal in the low exposure state is changed by, for example, a parameter (adjust gain). Further, as a process of acquiring the luminance information, the luminance information OPD (N) from the luminance information detection unit in the first signal processing unit and the luminance information OPD (D) from the luminance information detection unit in the second signal processing unit are mixed. Change the ratio. By these processes, the above-described shock is effectively eliminated, and the switching between the first and second signal processing units is performed smoothly.
[Brief description of the drawings]
FIG. 1 is a block diagram of a main part of an imaging device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram of a wide dynamic range process according to the embodiment;
FIG. 3 is an explanatory diagram of an exposure control area according to the embodiment.
FIG. 4 is an explanatory diagram of a mix start in wide dynamic range processing according to the embodiment;
FIG. 5 is an explanatory diagram of boundary AE control according to the embodiment;
FIG. 6 is a flowchart of boundary AE control according to the embodiment.
[Explanation of symbols]
Reference Signs List 1 imaging lens, 2 mechanical iris unit, 3 CCD, 4 CDS / AGC circuit, 5 A / D converter, 6 controller, 10 WD processing DSP, 11, 21 optical detector, 20 normal processing DSP

Claims (6)

被写体から得られた光を電気信号である撮像映像信号に変換する撮像手段と、
被写体輝度が第1の所定値より低い低輝度領域にあるときに、上記撮像映像信号に対して通常信号処理を行って映像信号を出力する第1の信号処理手段と、
被写体輝度が上記第1の所定値より大きな第2の所定値より高い高輝度領域にあるときに、第1の露出状態において得られた撮像映像信号と第2の露出状態において得られた撮像映像信号との合成処理を行って映像信号を出力する第2の信号処理手段と、
撮像映像信号の輝度情報に応じて、上記第1の信号処理手段の機能時には適正露出に調整する露出制御を行い、上記第2の信号処理手段の機能時には上記第1の露出状態を得る露出調整と上記第2の露出状態を得る露出調整を行うとともに、被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、上記第2の信号処理手段による上記合成処理における合成比率を変化させる境界露出制御を行う制御手段と、
を備えたことを特徴とする撮像装置。
Imaging means for converting light obtained from a subject into an image signal, which is an electrical signal;
First signal processing means for performing normal signal processing on the captured video signal and outputting a video signal when the subject luminance is in a low luminance area lower than a first predetermined value;
When the subject brightness is higher than the second predetermined value and higher than the second predetermined value, the captured video signal obtained in the first exposure state and the captured video signal obtained in the second exposure state Second signal processing means for performing a synthesizing process with the signal and outputting a video signal;
Exposure control is performed according to the luminance information of the imaged video signal to adjust the exposure to a proper level when the first signal processing means is functioning, and to obtain the first exposure state when the second signal processing means is functioning. And an exposure adjustment for obtaining the second exposure state, and when the subject luminance is between the first predetermined value and the second predetermined value, the synthesizing process by the second signal processing means is performed. Control means for performing boundary exposure control to change the synthesis ratio in
An imaging device comprising:
上記制御手段は、上記境界露出制御において、上記第1の露出状態において得られた撮像映像信号と上記第2の露出状態において得られた撮像映像信号を合成した映像信号に対するダイナミックレンジ圧縮処理の圧縮率を変化させることを特徴とする請求項1に記載の撮像装置。In the boundary exposure control, the control unit may perform a dynamic range compression process on a video signal obtained by combining the captured video signal obtained in the first exposure state and the captured video signal obtained in the second exposure state. The imaging apparatus according to claim 1, wherein the rate is changed. 上記第1の信号処理手段と上記第2の信号処理手段は、それぞれ上記被写体輝度を検出する輝度情報検出部を含み、
上記制御手段は、上記境界露出制御において、上記第1の信号処理手段における輝度情報検出部からの輝度情報と、上記第2の信号処理手段における輝度情報検出部からの輝度情報の混合比を変化させることを特徴とする請求項1に記載の撮像装置。
The first signal processing unit and the second signal processing unit each include a luminance information detecting unit that detects the subject luminance,
The controller changes a mixing ratio of the luminance information from the luminance information detector in the first signal processor and the luminance information from the luminance information detector in the second signal processor in the boundary exposure control. The imaging device according to claim 1, wherein:
被写体から得られた光を電気信号である撮像映像信号に変換し、
被写体輝度が第1の所定値より低い低輝度領域にあるときには、上記撮像映像信号に対して通常信号処理を行って映像信号を生成し、
被写体輝度が上記第1の所定値より大きな第2の所定値より高い高輝度領域にあるときには、第1の露出状態において得られた撮像映像信号と第2の露出状態において得られた撮像映像信号とを合成して映像信号を生成し、
被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、上記合成における合成比率を変化させつつ映像信号を生成する、
ことを特徴とする撮像方法。
The light obtained from the subject is converted into an image signal, which is an electric signal,
When the subject brightness is in a low brightness area lower than the first predetermined value, a normal signal process is performed on the captured video signal to generate a video signal,
When the subject brightness is in a high brightness area higher than the second predetermined value, which is higher than the first predetermined value, the imaging video signal obtained in the first exposure state and the imaging video signal obtained in the second exposure state And generate a video signal by combining
When the subject brightness is between the first predetermined value and the second predetermined value, a video signal is generated while changing a synthesis ratio in the synthesis.
An imaging method characterized in that:
上記被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、さらに、上記第1の露出状態において得られた撮像映像信号と上記第2の露出状態において得られた撮像映像信号を合成した映像信号に対するダイナミックレンジ圧縮処理の圧縮率を変化させることを特徴とする請求項4に記載の撮像方法。When the subject luminance is between the first predetermined value and the second predetermined value, the imaged video signal obtained in the first exposure state and the image signal obtained in the second exposure state are further obtained. The imaging method according to claim 4, wherein a compression ratio of a dynamic range compression process for a video signal obtained by combining the captured video signals is changed. 上記被写体輝度が上記第1の所定値と上記第2の所定値の間にある場合には、
上記通常信号処理を実行する回路により検出された輝度情報と、上記合成を実行する回路により検出された輝度情報とを、所定の混合比で混合して輝度情報及び露出制御の収束目標値を算出し、
上記輝度情報と上記収束目標値との比較結果に基づいて、上記合成比率及び上記圧縮率を変化させることを特徴とする請求項5に記載の撮像方法。
When the subject brightness is between the first predetermined value and the second predetermined value,
The luminance information detected by the circuit for executing the normal signal processing and the luminance information detected by the circuit for executing the synthesis are mixed at a predetermined mixture ratio to calculate the luminance information and the convergence target value of the exposure control. And
The imaging method according to claim 5, wherein the combination ratio and the compression ratio are changed based on a comparison result between the luminance information and the convergence target value.
JP2003147649A 2003-05-26 2003-05-26 Imaging apparatus and image pickup method Withdrawn JP2004350204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003147649A JP2004350204A (en) 2003-05-26 2003-05-26 Imaging apparatus and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003147649A JP2004350204A (en) 2003-05-26 2003-05-26 Imaging apparatus and image pickup method

Publications (1)

Publication Number Publication Date
JP2004350204A true JP2004350204A (en) 2004-12-09

Family

ID=33534123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003147649A Withdrawn JP2004350204A (en) 2003-05-26 2003-05-26 Imaging apparatus and image pickup method

Country Status (1)

Country Link
JP (1) JP2004350204A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088928A (en) * 2007-09-28 2009-04-23 Sony Corp Imaging apparatus, imaging control method, and imaging control program
JP2009218895A (en) * 2008-03-11 2009-09-24 Ricoh Co Ltd Imaging apparatus and imaging method
US8040415B2 (en) 2006-09-29 2011-10-18 Canon Kabushiki Kaisha Image sensing apparatus and control method
JP2014027460A (en) * 2012-07-26 2014-02-06 Canon Inc Imaging apparatus, camera system, control method of imaging apparatus, program and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8040415B2 (en) 2006-09-29 2011-10-18 Canon Kabushiki Kaisha Image sensing apparatus and control method
JP2009088928A (en) * 2007-09-28 2009-04-23 Sony Corp Imaging apparatus, imaging control method, and imaging control program
JP2009218895A (en) * 2008-03-11 2009-09-24 Ricoh Co Ltd Imaging apparatus and imaging method
JP2014027460A (en) * 2012-07-26 2014-02-06 Canon Inc Imaging apparatus, camera system, control method of imaging apparatus, program and storage medium

Similar Documents

Publication Publication Date Title
US8786764B2 (en) Imaging apparatus, imaging method, and non-transitory storage medium which perform backlight correction
JP3113259B2 (en) Exposure control method and apparatus for video camera
KR20080095786A (en) Image capturing apparatus, image capturing method, exposure control method, and program
JP2008236142A (en) Imaging apparatus, photometry method, luminance calculation method, and program
JP2009088927A (en) Imaging apparatus, imaging control method, and imaging control program
JP2009186843A (en) Focus control device and method
JP4958635B2 (en) Imaging apparatus and control method thereof
JP4304542B2 (en) Camera system and automatic exposure control method
JP2006287586A (en) Image pickup device and its control method
JP2004350204A (en) Imaging apparatus and image pickup method
JP2004120202A (en) Imaging apparatus, and imaging mode switching method
JP2765642B2 (en) Exposure control device for video camera
US20100254691A1 (en) Electronic camera
WO2006054763A1 (en) Electronic camera
JP3699830B2 (en) Flame detector
JP2817820B2 (en) Exposure control device for video camera
JP5772064B2 (en) Imaging apparatus and image generation program
JP4366915B2 (en) White balance adjustment device
JP2001249374A (en) Camera signal processor and method for the same
JP3100815B2 (en) Camera white balance control method
JPH05219431A (en) Exposure controller for video camera
JP3701172B2 (en) Camera exposure control method
JP5372123B2 (en) Focus control apparatus and method
JPH08237544A (en) Exposure control method for video camera
JP2007243769A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060425

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080226