JP2004297701A - Video processing apparatus and image pickup system - Google Patents

Video processing apparatus and image pickup system Download PDF

Info

Publication number
JP2004297701A
JP2004297701A JP2003090633A JP2003090633A JP2004297701A JP 2004297701 A JP2004297701 A JP 2004297701A JP 2003090633 A JP2003090633 A JP 2003090633A JP 2003090633 A JP2003090633 A JP 2003090633A JP 2004297701 A JP2004297701 A JP 2004297701A
Authority
JP
Japan
Prior art keywords
proper exposure
level
signal
area
short
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003090633A
Other languages
Japanese (ja)
Other versions
JP4119290B2 (en
Inventor
Koichi Hoshino
功一 星野
Toshiyuki Sano
俊幸 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003090633A priority Critical patent/JP4119290B2/en
Publication of JP2004297701A publication Critical patent/JP2004297701A/en
Application granted granted Critical
Publication of JP4119290B2 publication Critical patent/JP4119290B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize effective dynamic magnification regardless of how a high-luminance part and a low-luminance part of an object are distributed when an image of the object with a luminance range larger than the dynamic range of an imaging device is picked up. <P>SOLUTION: A LONG proper exposure detecting part 36 and a SHORT proper exposure detecting part 37 respectively detect proper exposure areas of a LONG signal and a SHORT signal, and a level composing part 35 composes levels of the SHORT signal and the LONG signal. A LONG area gradation correcting part 42 and a SHORT area gradation correcting part 43 respectively correct a gradation of a level-composed video signal by using gradation correction data based on the LONG proper exposure area and the SHORT proper exposure area. An area composing part 45 area-composes the gradation-corrected and level-composed video signals on the basis of the LONG proper exposure area and the SHORT proper exposure area. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、映像信号を処理する技術に関し、特に、異なる露光時間での撮像により得られた複数の映像信号を用いて、被写体の輝度分布を再現する映像信号を生成する映像処理装置に関する。
【0002】
【従来の技術】
従来より、階調補正装置を備えた撮像システムが知られている。この階調補正装置は、被写体の輝度分布範囲が撮像素子のダイナミックレンジよりも広い場合に、そのような被写体を撮像することにより得られた映像信号を用いて、被写体の輝度分布に対応する輝度分布をもつ映像信号を生成する(以下、この処理をダイナミックレンジ拡大処理という)。撮像システムがこのような階調補正装置を備えることによって、ダイナミックレンジの狭い撮像素子を活用して輝度分布範囲の広い被写体を適切に表す画像を生成できる。
【0003】
従来のダイナミックレンジ拡大処理では、互いに異なる露光時間での撮像により得られた2つの映像信号を用いて、被写体の輝度分布に対応する輝度分布をもつ映像信号が生成される。具体的には、撮像システムは、まず、同一の被写体を長い露光時間および短い露光時間で連続して撮像することにより、2つの映像信号を生成する。以下、長い露光時間での撮影により得られた映像信号をLONG信号といい、短い露光時間での撮像により得られた映像信号をSHORT信号という。
【0004】
撮像システムに備えられた階調補正装置は、LONG信号に対しては高輝度成分を圧縮して、SHORT信号に対してはオフセット成分を追加した後に、両信号を所定の合成レベル(合成点)でレベル合成してレベル合成映像信号を生成する。そして、階調補正装置は、レベル合成映像信号により表される画像をそのレベル合成映像信号の輝度分布に応じて縦方向および横方向に複数の領域に分割して、分割された領域ごとの複数の階調補正データを算出する。さらに、階調補正装置は、これらの複数の階調補正データの各々を用いてレベル合成映像信号を階調補正することにより、各階調補正データにて階調補正された複数のレベル合成映像信号を生成する。そして、階調補正装置は、階調補正データを求めた際の分割領域に対応する領域ごとにこれらの複数のレベル合成映像信号を領域合成する。このようなダイナミック拡大処理によって、被写体の輝度分布が撮像システムのダイナミックレンジ内に納められた映像信号が生成される。
【0005】
上記のようなダイナミック拡大処理を実行する撮像システムは、例えば特許文献1に記載されている。また、特許文献2には、本発明に関連する技術が記載されている。
【0006】
【特許文献1】
特開平10−261007号公報(第3−5頁、第1図)
【特許文献2】
特開2000−228747号公報(第4−9頁、第2図)
【0007】
【発明が解決しようとする課題】
上記の従来の階調補正装置では、レベル合成画像の輝度レベルに応じて縦方向および横方向に領域を分割するので、例えば、被写体の高輝度部分と低輝度部分が縦横の領域分割によって分けられない場合や被写体の高輝度部分と低輝度部分のパターン数が領域分割数よりも多い場合などには、分割された一領域内に被写体の高輝度部分と低輝度部分が混在することがある。このような場合には、従来の階調補正装置では効果的なダイナミック拡大処理ができず、メリハリのない画像が生成されてしまうという問題がある。
【0008】
本発明は、このような問題を解決するためになされたもので、被写体の高輝度部分および低輝度部分がどのように分布しているかにかかわらず、効果的なダイナミック拡大処理を実現するための技術を提供するものである。
【0009】
【課題を解決するための手段】
本発明の映像処理装置は、互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成手段と、前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出手段と、前記第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正手段と、前記第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正手段と、前記第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正手段によりそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成手段とを備える。
【0010】
この構成により、第1および第2の映像信号の適正露光領域を表す第1および第2の適正露光信号の各々に基づいてレベル合成映像信号に階調補正を施し、こうして階調補正された2つのレベル合成映像信号を上記の第1および第2の適正露光信号に基づいて領域合成する。これにより、分割された一領域内に被写体の高輝度部分と低輝度部分が混在することを回避できるので、被写体の高輝度部分および低輝度部分に対して適切な階調補正を施して、被写体の輝度分布を適当なレンジ内の輝度分布で表現する適切な映像信号が得られる。
【0011】
また、本発明の映像処理装置は、さらに、前記第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して、前記レベル合成手段のレベル合成の基準となる合成レベルを変更する合成レベル変更手段を備える。
【0012】
この構成により、適正露光領域に基づいてレベル合成処理の合成レベルを変更するので、適切なレベル合成信号が得られ、階調補正および領域合成の結果も良好に得られる。
【0013】
本発明の他の態様の映像処理装置は、互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成手段と、前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出手段と、前記適正露光検出手段により得られた第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正手段と、前記適正露光検出手段により得られた第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正手段と、前記第1および第2の適正露光信号の一方の適正露光領域の中に所定の閾値以下の面積の小適正露光領域が存在する場合、前記小適正露光領域が他方の適正露光信号の適正露光領域となるように前記第1および第2の適正露光信号を変更する適正露光信号変更手段と、前記適正露光信号変更手段により変更された第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正手段によりそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成手段とを備える。
【0014】
この構成により、上記と同様に、被写体の輝度分布を適当なレンジ内で表現する適切な映像信号が得られる。さらに、一方の適正露光信号の適正露光領域の中に所定の閾値以下の面積の小適正露光領域があるときに、その小適正露光領域が他方の適正露光信号の適正露光領域として扱われる。これにより、上記の小適正露光領域に階調補正と領域合成を施すことによる上記小適正露光領域のぼけを防止できる。
【0015】
なお、本発明の範囲内で、もちろん、第1の適正露光信号の適正露光領域のうちの小適正露光領域に対して本発明が適用されてもよく、第2の適正露光信号の適正露光領域のうちの小適正露光領域に対して本発明が適用されてもよく、両者に本発明が適用されてもよい。
【0016】
また、本発明の映像処理装置は、さらに、前記適正露光信号変更手段により変更された第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して前記レベル合成の基準となる合成レベルを変更する合成レベル変更手段を備える。
【0017】
この構成により、適正露光領域に基づいてレベル合成処理の合成レベルを変更するので、適切なレベル合成映像信号が得られ、階調補正および領域合成の結果も良好に得られる。
【0018】
また、本発明の映像処理装置では、前記合成レベル変更手段は、前記第1および第2の映像信号のうちの短い露光時間での撮像により得られた方の映像信号の低輝度部分に相当する被写体部分が、前記第1および第2の映像信号のうちの長い露光時間での撮像により得られた方の映像信号を用いてレベル合成されるように、前記合成レベルを変更する。
【0019】
この構成により、短い露光時間での撮像により得られた映像信号の低輝度部分の信号に起因するレベル合成映像信号の画質劣化を防ぐとともに、その映像信号のうちのダイナミックレンジの拡大に貢献する部分の信号を有効に用いて、被写体の輝度分布を表現する適切な映像信号を生成できる。
【0020】
また、本発明の撮像システムは、上記のいずれかに記載の映像処理装置と、前記第1および第2の映像信号を生成する撮像手段とを備える。
【0021】
この構成により、撮像手段のダイナミックレンジを越える輝度分布範囲をもつ被写体を撮像して、その被写体の輝度分布に対応した輝度分布をもつ映像信号を生成できる。
【0022】
なお、上記の本発明の映像処理装置は、2つの映像信号のみを処理する構成に限定されないことは勿論である。すなわち、例えば、第1および第2のいずれの映像信号とも露光時間が異なる第3、第4、・・・の映像信号を第1および第2の映像信号と同様に扱って、被写体の輝度分布に対応した輝度分布をもつ映像信号を生成する装置も本発明に含まれる。
【0023】
本発明は、上述したような装置の態様に限定されない。本発明の別の態様は、映像処理方法、映像処理方法をコンピュータに実行させるプログラム、およびそのプログラムを格納した記録媒体である。
【0024】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を用いて説明する。
【0025】
(第1の実施の形態)
図1は、第1の実施の形態の映像処理装置を備えた撮像システム10の構成を示すブロック図である。撮像システム10は、撮像部31、前処理部32、A/D変換部33、時間軸変換部34およびレベル合成部35を備えている。
【0026】
撮像部31は、平面状に配置された複数の画素からなるCCDを含んでいる。撮像部31は、図示しない制御部からの指示に従って、露光時間が長時間の映像信号(LONG信号)と露光時間が短時間の映像信号(SHORT信号)とを生成する。このとき、撮像部31は、CCDの水平転送速度を通常の2倍の速度にして水平ラインごとにLONG信号およびSHORT信号を交互に出力することにより、通常の撮像にて1フィールド分の映像信号を出力する期間内に、LONG信号およびSHORT信号をそれぞれ1フィールド分出力する。
【0027】
前処理部32は、ノイズ除去処理を行なうCDS回路とゲイン制御処理を行なうAGC回路を含み、撮像部31から出力された信号に対してノイズ除去およびゲイン制御などの前処理を施す。A/D変換部33は、前処理部32にて前処理された映像信号をアナログ信号からデジタル信号に変換する。
【0028】
時間軸変換部34は、撮像部31にて連続的に生成されたLONG信号とSHORT信号の時間軸を変換することにより、両信号をそれぞれ標準の速度でかつ同一のタイミングにする。この時間軸変換部34によって撮像部31にて生成された映像信号は、LONG信号とSHORT信号とに分離され、それぞれ独立して取り扱うことができる。LONG信号およびSHORT信号は、それぞれレベル合成部35に入力される。レベル合成部35は、LONG信号とSHORT信号とをレベル合成する。
【0029】
図2は、レベル合成部35のレベル合成処理を説明する図である。図2(a)〜(e)はいずれも、横軸が被写体の明るさであり、縦軸が画像の輝度レベルである座標を示している。LONG信号は、図2(a)に示すように、被写体の明るさが増すに連れて画像の輝度レベルも増すが、露光時間を長く取っているために、被写体の明るさが所定のレベル以上になると、画像の輝度レベルが飽和して、被写体の明るさに係わらず画像の輝度レベルは一定となる。レベル合成部35は、図2(c)に示すように、画像の輝度レベルが飽和点に達しているLONG信号を圧縮する。
【0030】
一方、SHORT信号は、図2(b)に示すように、被写体の明るさに対する画像の輝度レベルの増加率がLONG信号よりも緩やかである。レベル合成部35は、このようなSHORT信号に対して、図2(d)に示すように、オフセット成分を足し込む。このとき、SHORT信号は、LONG信号の輝度レベルが飽和点に達するときの被写体の明るさでSHORT信号もその飽和点の輝度レベルになるように、オフセットされる。
【0031】
レベル合成部35は、さらに、LONG信号の飽和点を合成点(本発明の合成レベル)として、図2(e)に示すように、圧縮されたLONG信号とオフセットされたSHORT信号を合成する。このとき、レベル合成部35は、合成点以下の輝度レベルではLONG信号を用いて、合成点以上の輝度レベルではSHORT信号を用いて、両信号を合成し、レベル合成映像信号を生成する。なお、このレベル合成部35が、本発明のレベル合成手段を構成する。
【0032】
撮像システム10は、さらに、LONG適正露光検出部36、SHORT適正露光検出部37、LONGヒストグラムデータ検波部38、SHORTヒストグラム検波部39、LONG階調補正データ算出部40、SHORT階調補正データ算出部41、LONG領域階調補正部42およびSHORT領域階調補正部43を備えている。以下、順に各部を説明していく。
【0033】
LONG適正露光検出部36およびSHORT適正露光検出部37は、それぞれ時間軸変換部34にて分離されて出力されたLONG信号およびSHORT信号を取り込んで、それぞれの信号中の適正露光部分を検出する。
【0034】
図3は、LONG適正露光検出部36およびSHORT適正露光検出部37の適正露光検出処理を説明する図である。ここでは、撮像部31にて図3(a)に示される被写体を撮像した場合について説明する。この被写体は、暗い領域DAの中に比較的大きな楕円状の明るい領域LAを有するものである。この被写体を長時間露光および短時間露光でそれぞれ撮像すると、時間軸変換部34では、この被写体を示すLONG信号およびSHORT信号が得られる。図3(b)および図3(c)は、図3(a)に示される被写体のAB線上の映像に対応するLONG信号およびSHORT信号の輝度レベルを示す図である。
【0035】
LONG適正露光検出部36およびSHORT適正露光検出部37には、それぞれ所定の輝度レベル閾値が記憶されている。LONG適正露光検出部36は、LONG信号を取り込むと、そのLONG信号中で輝度レベルが閾値以下である領域をLONG信号の適正露光領域(以下、LONG適正露光領域という)として検出し、その領域を示すLONG適正露光信号を生成する。本例では、被写体中の暗い領域DAがLONG適正露光領域として検出される。したがって、LONG適正露光信号のAB線上に対応する部分は、図3(d)に示すように、閾値以下の輝度レベルを有する暗い領域が1であり、閾値以上の輝度レベルを有する明るい領域が0である。
【0036】
SHORT適正露光検出部37は、図3(a)に示させる被写体のSHORT信号を取り込むと、そのSHORT信号中で輝度レベルが閾値以上である領域をSHORT信号の適正露光領域(以下、SHORT適正露光領域)として検出し、その領域を示すSHORT適正露光信号を生成する。本例では、被写体中の明るい領域LAがSHORT適正露光領域として検出される。したがって、SHORT適正露光信号のAB線上に対応する部分は、図3(e)に示すように、閾値以上の輝度レベルを有する明るい領域が1であり、閾値以下の輝度レベルを有する暗い領域が0である。
【0037】
LONG適正露光検出部36およびSHORT適正露光検出部37は、それぞれ上述のようにして生成したLONG適正露光信号およびSHORT適正露光信号を出力する。なお、LONG適正露光検出部36およびSHORT適正露光検出部37が、本発明の適正露光検出手段を構成する。
【0038】
LONGヒストグラムデータ検波部38は、まず、時間軸変換部34より出力されたLONG信号とLONG適正露光検出部36より出力されたLONG適正露光信号を取り込み、それらの信号を用いて適正露光領域のLONG信号のヒストグラムを生成する。
【0039】
図4は、LONGヒストグラムデータ検波部38にてLONG適正信号のヒストグラムを生成する処理を説明する図である。図4(a)は、LONG信号のAB線上の輝度レベルを示す図である。このLONG信号が時間軸変換部34からLONGヒストグラムデータ検波部38に入力される。図4(b)は、LONG適正露光信号のAB線上に対応する部分を示す図である。このLONG適正露光信号がLONG適正露光検出部36からLONGヒストグラム検波部38に入力される。LONGヒストグラムデータ検波部38は、LONG信号とLONG適正露光信号とを掛け合わせることにより、LONG適正露光領域のLONG信号を示すLONG適正信号を生成する。本例では、被写体のAB線上では、図4(a)に示されるLONG信号と図4(b)に示されるLONG適正露光信号とが掛け合わされることにより、図4(c)に示されるLONG適正信号が生成される。
【0040】
LONGヒストグラムデータ検波部38は、こうして得られたLONG適正信号の輝度ヒストグラムを示すLONGヒストグラムデータを生成する。図4(d)は、LONG適正信号の輝度分布を示すヒストグラムデータである。LONG適正信号は、LONG信号の適正露光領域を表す信号、すなわち被写体中の暗い領域の映像を表す信号なので、図4(d)に示すようにその輝度分布は低輝度側に偏っている。
【0041】
図5は、SHORTヒストグラムデータ検波部39にてSHORT適正信号のヒストグラムを生成する処理を説明する図である。SHORTヒストグラムデータ検波部39も、LONGヒストグラムデータ検波部38と同様にして、まず、SHORT信号とSHORT適正露光信号とを掛け合わせることにより、SHORT適正信号を生成する。図5に示すように、AB線上では、図5(a)に示されるSHORT信号と図5(b)に示されるSHORT適正露光信号とが掛け合わされて、図5(c)に示されるSHORT適正信号が生成される。
【0042】
SHORTヒストグラムデータ検波部39は、こうして得られたSHORT適正信号の輝度ヒストグラムを示すSHORTヒストグラムデータを生成する。図5(d)は、SHORT適正信号の輝度分布を示すヒストグラムデータである。SHORT適正信号は、SHORT信号の適正露光領域を表す信号、すなわち被写体中の明るい領域の映像を表す信号なので、図5(d)に示すようにその輝度分布は高輝度側に偏っている。
【0043】
LONG階調補正データ算出部40およびSHORT階調補正データ算出部41は、それぞれLONGヒストグラムデータ検波部38およびSHORTヒストグラムデータ検波部39で生成されたヒストグラムデータを取り込んで、このヒストグラムデータに基づいて、それぞれLONG階調補正データおよびSHORT階調補正データを算出する。
【0044】
図6は、LONG階調補正データ算出部40における処理を説明する図である。LONG階調補正データは、LONGヒストグラムデータ検波部38にて生成された図6(a)に示されるLONGヒストグラムデータを取得して、図6(b)に示されるLONG階調補正データを算出する。上述のように、LONG適正信号のヒストグラムは低輝度側に偏っているので、LONG階調補正データ算出部40は、図6(b)に示すように、LONG適正信号の低輝度部分を持ち上げる補正データを算出する。
【0045】
図7は、SHORT階調補正データ算出部41の処理を説明する図である。SHORT階調補正データ算出部41は、LONG階調補正データ算出部40と同様に、図7(a)に示されるSHORTヒストグラムデータに基づいて、図7(b)に示されるSHORT階調補正データを算出する。ここで、SHORT適正信号のヒストグラムは、LONG適正信号のヒストグラムとは逆に、高輝度側に偏っているので、SHORT階調補正データ算出部41は、図7(b)に示すように、SHORT適正信号の高輝度部分を持ち上げる補正データを算出する。
【0046】
図1に戻って、LONG領域階調補正部42およびSHORT領域階調補正部43は、それぞれLONG階調補正データおよびSHORT階調補正データを用いてレベル合成部35で生成されたレベル合成映像信号を階調補正する。LONG領域階調補正部42およびSHORT領域階調補正部43が、本発明の第1および第2の階調補正手段を構成する。
【0047】
図8は、LONG領域階調補正部42およびSHORT領域階調補正部43の処理を説明する図である。レベル合成映像信号に対してLONG階調補正データを適用することによりレベル合成映像信号中の低輝度部分が強調される。また、レベル信号に対してSHORT階調補正データを適用することによりレベル合成映像信号中の高輝度部分が強調される。図8は、LONG階調補正データおよびSHORT階調補正データを用いてレベル合成映像信号を階調補正した場合のレベル合成映像信号中のAB線上の部分の変化を示している。
【0048】
図8(a)に示すレベル合成映像信号のAB線上の部分は、図8(b)に示すLONG階調補正データを用いて階調補正されることにより、図8(c)に示す信号となる。この階調補正によって、レベル合成映像信号は、低輝度部分すなわち信号レベルの低い部分のレベルが持ち上げられ、高輝度部分すなわち信号レベルの高い部分のレベルは抑えられる。また、図8(d)に示すSHORT階調補正データを用いて図8(a)のレベル合成映像信号を階調補正すると、図8(e)に示すように、レベル合成映像信号の低輝度部分のレベルは抑えられ、高輝度部分のレベルが持ち上げられる。以下、LONG領域階調補正部42およびSHORT領域階調補正部43にて階調補正されたレベル合成映像信号をそれぞれLONG階調補正信号およびSHORT階調補正信号という。
【0049】
撮像システム10は、さらに、合成波形生成部44、領域合成部45およびメイン信号処理部46を備えている。
【0050】
LONG適正露光検出部36から得られたLONG適正露光信号は、上述のように、LONGヒストグラムデータ検波部38にてLONG適正露光領域のヒストグラムを作成するために用いられるほか、合成波形生成部44での処理にも用いられる。SHORT適正露光信号もLONG適正露光信号と同様に、合成波形生成部44での処理に用いられる。合成波形生成部44は、LONG適正露光信号およびSHORT適正露光信号を取得して、LONG信号およびSHORT信号の適正露光領域の境界を検出する。
【0051】
そして、合成波形生成部44は、LONG階調補正信号に対しては、LONG適正露光信号が示す適正露光領域において1でありその他の領域において0であるLONG重み付け処理関数を生成する。また、合成波形生成部44は、SHORT階調補正信号に対して、SHORT適正露光信号が示す適正露光領域にて1でありその他の領域にて0であるSHORT重み付け処理関数を生成する。
【0052】
ここで、後述する領域合成の際にLONG適正領域とSHORT適正領域とを滑らかにつなぐために、LONG重み付け処理関数およびSHORT重み付け処理関数は、0から1または1から0へなだらかに変化する関数とされる。また、本実施の形態では、LONG重み付け関数とSHORT重み付け関数は、両者の和が常に1になる相補関係にある。
【0053】
図9および図10は、合成波形生成部44の処理を説明する図である。図9は、AB線上のLONG階調補正信号とLONG重み付け処理関数(1−K)を示している。また、図10は、AB線上のSHORT階調補正信号とSHORT重み付け処理関数(K)を示している。上述のように、LONG重み付け処理関数およびSHORT重み付け処理関数は、1と0との境界周辺で重み付け係数が徐々に増加または減少して0から1または1から0に変化する関数である。なお、図9および図10では、AB線上すなわち水平方向の重み付け関数の変化を示しているが、垂直方向にも0から1または1から0の境界では重み付け係数が徐々に増加または減少する。以上のようにして生成されたLONG重み付け関数およびSHORT重み付け関数は、領域合成部45に出力される。
【0054】
領域合成部45は、LONG重み付け処理関数を用いてLONG階調補正信号の適正露光部分を抽出し、SHORT重み付け処理関数を用いてSHORT階調補正信号の適正露光部分を抽出し、両者を合成して領域合成信号を生成する。
【0055】
図11は、領域合成部45の構成を示すブロック図である。領域合成部45は、LONG乗算器451、SHORT乗算器452および加算器453を備えている。LONG乗算器451は、LONG階調補正信号とLONG重み付け処理関数を乗算する。これによってLONG適正露光領域のみが有効な値を持つ映像信号が生成される。また、SHORT乗算器452は、SHORT階調補正信号とSHORT重み付け処理関数を乗算する。これによって、SHORT適正露光領域のみが有効な値を持つ映像信号が生成される。加算器453は、LONG乗算器451の出力とSHORT乗算器452の出力とを加算する。これによって、LONG適正露光領域ではLONG階調補正信号が採用され、SHORT適正露光領域ではSHORT階調補正信号が採用された領域合成信号が生成される。なお、この領域合成部45が、本発明の領域合成手段を構成する。
【0056】
図12は、領域合成部45にて生成された領域合成信号によって表される画像を示す図である。上記で説明した階調補正処理により、被写体の明るい領域から暗い領域までのコントラストが撮像システム10のダイナミックレンジの範囲内で表現されており、白くとんだ部分や黒くつぶれた部分を生じることなく被写体輝度分布が適切に表現されている。
【0057】
なお、図9および図10を用いて説明したように、LONG重み付け処理関数とSHORT重み付け処理関数を滑らかに変化するように設定したので、明るい領域と周囲の暗い領域の境界部MAでは、LONG階調補正信号とSHORT階調補正信号が自然に合成されている。
【0058】
図1に戻って、メイン信号処理部46は、領域合成信号に対して、圧縮符号化処理を含むメイン部分の信号処理を行ない、外部の装置に信号を出力する。
【0059】
以上説明したように、本実施の形態の撮像システム10は、露光時間が互いに異なるLONG信号およびSHORT信号から各々の適正露光領域を表すLONG適正露光領域およびSHORT適正露光領域を検出する。そして、そのようにして検出されたLONG適正露光領域およびSHORT適正露光領域に基づいてレベル合成映像信号に階調補正を施し、こうして階調補正された2つのレベル合成信号をLONG適正露光領域およびSHORT適正露光領域に基づいて領域合成する。これにより、被写体の高輝度部分および低輝度部分に対して適切な階調補正を施して、被写体の輝度分布を撮像システム10のダイナミックレンジ内の輝度分布で表現する適切な映像信号が得られる。
【0060】
また、本実施の形態の撮像システム10は、撮像部31から1フィールド期間内に交互に出力された2つの映像信号を時間軸変換部34にて時間軸を揃えて出力するので、露光時間の異なる2つの信号を一時的に記憶するためのフィールドメモリが不要となる。これによって、撮像システム10の回路規模を縮小できる。
【0061】
(第2の実施の形態)
図13は、第2の実施の形態の映像処理装置を備えた撮像システム20の構成を示すブロック図である。撮像システム20の構成は、適正露光領域変換部47を備えていることを除いて、第1の実施の形態の撮像システム10の構成と同様である。図13および以下の説明では、撮像システム20の構成要素のうち撮像システム10と同じ構成要素については撮像システム10と同一の符号を付して、その説明を省略する。
【0062】
既に本発明の第1の実施の形態として説明した通り、図1に示す撮像システム10によって、被写体の輝度分布を撮像システム10のダイナミックレンジ内の輝度分布で表現する適切な映像信号が得られる。そして、明るい領域と周囲の暗い領域の境界部MAでは、LONG階調補正信号とSHORT階調補正信号が自然に合成されて、領域合成による違和感がない画像が得られる。ただし、LONG適正露光領域またはSHORT適正露光領域の面積が極端に小さいときには、境界部分で画像がぼけてしまい、領域合成によってその小さな適正露光領域に相当する部分がしみのように表れることがある。
【0063】
そこで、領域合成画像に上記のようなしみ状の部分が表れることを防止するために、本実施の形態の撮像システム20では、図13に示すように、合成波形生成部44の前に適正露光領域変換部47を設ける。
【0064】
図14は、適正露光信号変換部47の構成を示すブロック図である。適正露光信号変換部47は、SHORT適正露光信号を取得して数ライン分一時記憶する画像データバッファ471を備えている。画像データバッファ471は数ラインごとにSHORT適正露光信号を出力する。SHORT領域変換部472は、所定の画素数の閾値を記憶している。SHORT領域変換部472は、数ライン分のSHORT適正信号を取得して、そのSHORT適正露光信号中に面積が上記の閾値に満たないSHORT適正露光領域(以下、小適正露光領域という)をキャンセルするフィルタ処理を行なう。すなわち、SHORT領域変換部472は、SHORT適正露光領域中の小適正露光領域がSHORT適正露光領域ではなくなるように、SHORT適正露光信号を変換する。上記の閾値は、好ましくは、極端に面積の小さいSHORT適正露光領域をキャンセルできるように設定される。
【0065】
LONG領域変換部473は、上記のように変換されたSHORT適正露光信号を用いて、LONG適正露光信号がそのSHORT適正露光信号と相補的な関係になるように、LONG適正露光信号を変換する。このようにして、適正露光信号変換部47では、SHORT適正露光信号およびLONG適正露光信号のいずれもが変換され、出力される。
【0066】
図15は、適正露光信号変換部47の処理を説明する図である。ここでは、撮像部31にて図15(a)に示される被写体を撮像した場合について説明する。この被写体は、暗い領域DAの中に比較的面積の大きな明るい領域L1と面積の小さな明るい領域L2およびL3を有する。この被写体のLONG適正露光信号およびSHORT適正露光信号は、例えばAB線上では、それぞれ図15(b)および図15(c)に示す信号となる。
【0067】
図15(b)に示すように、SHORT適正露光検出部37の処理では、被写体中の明るい領域L1〜L3の3つの領域がSHORT適正露光領域となる。しかし、明るい領域L2および明るい領域L3は、閾値よりも面積の小さい領域であるので、SHORT領域変換部472によって、図15(d)に示すように、明るい領域L2および明るい領域L3は0に変換される。また、LONG適正露光信号も、図15(d)のSHORT適正露光信号と相補的な関係になるように、LONG領域変換部473にて図15(e)に示すように変換される。なお、この適正露光信号変換部47が、本発明の適正露光信号変更手段に相当する。
【0068】
図13に戻って、本実施の形態の撮像システム20では、LONG適正露光検出部36およびSHORT適正露光検出部37にてそれぞれ生成されたLONG適正露光信号およびSHORT適正露光信号が、上記のように適正露光信号変換部47にて変換された上で合成波形生成部46に入力される。
【0069】
なお、上記の例では、SHORT適正露光領域中の小適正露光領域を検出してその領域をキャンセルする処理を行なったが、LONG適正露光領域中の小適正露光領域を検出してその領域をキャンセルする処理を行なってもよいし、SHORT適正露光領域およびLONG適正露光領域の両方からそれぞれ小さい領域を検出してもよい。さらに、上記の例では、SHORT適正露光信号から小適正露光領域を検出したが、小適正露光領域を検出するために、LONG適正露光信号を調べてもよい。
【0070】
以上説明したように、第2の実施の形態の撮像システム20は、SHORT適正露光領域またはLONG適正露光領域に小適正露光領域が存在する場合に、それらの領域が他方の適正露光領域になるようにSHORT適正露光信号またはLONG適正露光信号を変換する。これによって、第1の実施の形態の撮像システム10の効果に加えて、小適正露光領域に相当する部分が領域合成処理によってぼけて違和感のある画像が生成されるという不都合を解消できる。
【0071】
(第3の実施の形態)
図16は、第3の実施の形態の映像処理装置を備えた撮像システム30の構成を示すブロック図である。撮像システム30の構成は、第2の実施の形態の撮像システム20の構成に、さらに合成レベル信号生成部48を追加したものである。図16および以下の説明では、撮像システム30の構成要素のうち撮像システム20と同じ構成要素については撮像システム20と同一の符号を付して、その説明を省略する。
【0072】
図17は、合成レベル信号生成部48の処理を説明する図である。ここでは、撮像部31にて図17(a)に示される被写体を撮像した場合について説明する。この被写体は、暗い領域DAの中に領域Xと明るい領域LAを有する。領域Xは、明るい領域L1よりは輝度が低く、暗い領域DAよりは輝度が高い領域である。
【0073】
ここで、明るい領域LAは、LONG信号では白く飛んでしまっている領域であるので、レベル合成部35でのレベル合成処理ではSHORT信号を採用するべき領域である。また、暗い領域DAは、SHORT信号では黒くつぶれている領域であるので、レベル合成処理ではLONG信号を用いるべき領域である。これに対して、領域Xは、SHORT信号では低輝度の領域となり、LONG信号では高輝度の領域となる。
【0074】
この領域Xについては、レベル合成処理にて、輝度の低いSHORT信号を用いるよりも、輝度の高いLONG信号を用いる方がダイナミックレンジ拡大処理の効果がより顕著になる。また、この領域XでSHORT信号を用いてレベル合成映像信号を生成すると、その領域に対応する部分でノイズが発生して画質劣化の要因となる。したがって、図17に明るい領域LAのようにダイナミックレンジ拡大処理による効果が顕著な領域のSHORT信号のみをレベル合成に使用して、領域XのようなSHORT信号中の輝度レベルの低い領域はレベル合成に使用しないようにすれば、ダイナミックレンジ拡大処理による効果が大きく、かつノイズによる画質劣化の少ないレベル合成映像信号が得られる。
【0075】
ここで、上述したように、領域Xは、SHORT信号では低輝度の領域であり、LONG信号では高輝度の領域である。したがって、領域Xは、SHORT信号中では適正露光領域とはならず、LONG信号中の適正露光領域として検出される。そこで、合成レベル信号生成部48は、SHORT適正信号またはLONG適正信号を用いることにより、LONG適正露光領域およびSHORT適正露光領域に応じて、合成レベルを領域ごとに可変にする。
【0076】
具体的には、合成レベル信号生成部48は、LONG適正露光信号およびSHORT適正露光信号に従って、LONG適正露光領域では、レベル合成にてSHORT信号の低輝度部分が使用されるように高い合成レベル(合成レベル2)を示し、SHORT適正露光領域では、レベル合成にてSHORT信号の高輝度部分が使用されるように低い合成レベル(合成レベル1)を示す合成レベル信号を生成する。図17(d)は、このようにして生成された合成レベル信号である。図17(d)において、縦方向は合成レベルの値を示している。ただし、図17(d)では、合成レベルの高低を逆に示している。
【0077】
図16に戻って、合成レベル信号生成部48は、合成レベル信号をレベル合成部35に出力し、レベル合成部35は、レベル合成信号に従って、少なくとも一部の領域の合成レベルを可変に設定する。
【0078】
図18は、合成レベル1および合成レベル2のそれぞれの合成レベルでのレベル合成波形を示す図である。図18(a)は、SHORT適正露光領域に適用されるレベル合成波形であり合成レベル1を合成点とするものである。図18(b)は、LONG適正露光領域に適用されるレベル合成波形であり、合成レベル2を合成点とするものである。図18(a)に示されるように、被写体中の領域Xは、仮に合成レベル1でレベル合成を行なったとすると、SHORT信号が採用されることになる。しかし、本実施の形態では、領域Xでは、図18(b)に示されるレベル合成波形でレベル合成されるので、同図に示されるように、LONG信号が採用される。本実施の形態において、合成レベル信号を生成する合成レベル信号生成部48および合成レベル信号に基づいて合成レベルを可変に設定するレベル合成部35によって、本発明の合成レベル変更手段が実現される。
【0079】
なお、図16の例では、合成レベル信号生成部48は、適正露光領域変換部47にて変換されたLONG適正露光信号およびSHORT適正露光信号を用いて合成レベル信号を生成したが、LONG適正露光検出部36およびSHORT適正露光検出部37から出力されたLONG適正露光信号およびSHORT適正露光信号を用いて合成レベル信号が生成されてもよい。
【0080】
以上説明したように、本実施の形態の撮像システム30によれば、SHORT信号中の高輝度領域およびLONG信号中の低輝度領域を用いてレベル合成映像信号を生成するので、第1および第2の実施の形態の撮像システムと同様の処理の効果が得られる。撮像システム30では、さらに、SHORT信号の低輝度領域に相当する部分についてはLONG信号を用いてレベル合成されるように、合成レベルが領域に応じて変更される。これによって、ダイナミックレンジ拡大処理の効果が顕著な領域のSHORT信号のみがレベル合成に使用されるので、ダイナミックレンジ拡大処理による効果が大きく、かつノイズによる画質劣化の少ないレベル合成映像信号が得られる。
【0081】
なお、上記の第1ないし第3の実施の形態では、撮像部31が2種類の異なる露光時間にて被写体を撮像することにより、露光時間の異なる2つの映像信号を生成し、それらを用いて階調補正された映像信号を生成したが、3種類以上の映像信号を生成して、上記と同様にして階調補正された映像信号を生成してもよい。
【0082】
上記第1ないし第3の実施の形態の撮像システムでは、LONG階調補正データ算出部40およびSHORT階調補正データ算出部41はソフトウェアによって構成されるが、他の部分についても可能な部分はソフトウェアによって構成されてよい。これらの場合には、各部分の機能は所定のプログラムに従ってコンピュータがデータを処理することにより実現される。
【0083】
【発明の効果】
以上説明したように、本発明は、互いに露光時間の異なる2つの映像信号の各々の適正露光領域に基づいてレベル合成映像信号に階調補正を施し、こうして階調補正された2つのレベル合成映像信号を上記の適正露光領域に基づいて領域合成するので、効果的なダイナミック拡大処理を実行できるというすぐれた効果を有する映像信号処理装置を提供することができる。
【図面の簡単な説明】
【図1】第1の実施の形態の撮像システムの構成を示すブロック図
【図2】第1の実施の形態のレベル合成部のレベル合成処理を説明する図
【図3】第1の実施の形態の適正露光検出処理を説明する図
【図4】第1の実施の形態のLONG適正信号のヒストグラムを生成する処理を説明する図
【図5】第1の実施の形態のSHORT適正信号のヒストグラムを生成する処理を説明する図
【図6】第1の実施の形態のLONG階調補正データ算出部における処理を説明する図
【図7】第1の実施の形態のSHORT階調補正データ算出部における処理を説明する図
【図8】第1の実施の形態のLONG領域階調補正部およびSHORT領域階調補正部の処理を説明する図
【図9】第1の実施の形態の合成波形生成部の処理を説明する図
【図10】第1の実施の形態の合成波形生成部の処理を説明する図
【図11】第1の実施の形態の領域合成部の構成を示すブロック図
【図12】第1の実施の形態の領域合成部にて生成された領域合成信号によって表される画像を示す図
【図13】第2の実施の形態の撮像システムの構成を示すブロック図
【図14】第2の実施の形態の適正露光信号変換部の構成を示すブロック図
【図15】第2の実施の形態の適正露光信号変換部の処理を説明する図
【図16】第3の実施の形態の撮像システムの構成を示すブロック図
【図17】第3の実施の形態の合成レベル信号生成部の処理を説明する図
【図18】第3の実施の形態のそれぞれの合成レベルでのレベル合成波形を示す図
【符号の説明】
10、20、30 撮像システム
34 時間軸変換部
35 レベル合成部
36 LONG適正露光検出部
37 SHORT適正露光検出部
40 LONG階調補正データ算出部
41 SHORT階調補正データ算出部
42 LONG領域階調補正部
43 SHORT領域階調補正部
44 合成波形生成部
45 領域合成部
47 適正露光領域変換部
48 合成レベル信号生成部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for processing a video signal, and more particularly, to a video processing apparatus that generates a video signal that reproduces a luminance distribution of a subject by using a plurality of video signals obtained by imaging at different exposure times.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an imaging system including a tone correction device has been known. This gradation correction device uses a video signal obtained by imaging such a subject when the brightness distribution range of the subject is wider than the dynamic range of the image sensor, and uses the video signal corresponding to the brightness distribution of the subject. A video signal having a distribution is generated (hereinafter, this process is referred to as a dynamic range expansion process). When the imaging system includes such a gradation correction device, an image that appropriately represents a subject having a wide luminance distribution range can be generated by utilizing an imaging device with a narrow dynamic range.
[0003]
In the conventional dynamic range expansion processing, a video signal having a luminance distribution corresponding to the luminance distribution of a subject is generated using two video signals obtained by imaging at mutually different exposure times. Specifically, the imaging system first generates two video signals by continuously imaging the same subject with a long exposure time and a short exposure time. Hereinafter, a video signal obtained by imaging with a long exposure time is called a LONG signal, and a video signal obtained by imaging with a short exposure time is called a SHORT signal.
[0004]
The gradation correction device provided in the imaging system compresses the high luminance component for the LONG signal and adds the offset component to the SHORT signal, and then combines the two signals at a predetermined combination level (composition point). To generate a level composite video signal. Then, the gradation correction device divides the image represented by the level composite video signal into a plurality of regions in the vertical direction and the horizontal direction according to the luminance distribution of the level composite video signal, and Is calculated. Further, the tone correction device performs tone correction on the level composite video signal using each of the plurality of tone correction data, so that a plurality of level-combined video signals Generate Then, the tone correction device area-synthesizes the plurality of level-synthesized video signals for each area corresponding to the divided area when the tone correction data is obtained. By such a dynamic enlargement process, a video signal in which the luminance distribution of the subject falls within the dynamic range of the imaging system is generated.
[0005]
An imaging system that performs the above-described dynamic enlargement processing is described in, for example, Patent Document 1. Patent Literature 2 describes a technique related to the present invention.
[0006]
[Patent Document 1]
JP-A-10-261007 (pages 3-5, FIG. 1)
[Patent Document 2]
JP-A-2000-228747 (page 4-9, FIG. 2)
[0007]
[Problems to be solved by the invention]
In the above-described conventional tone correction device, the region is divided in the vertical direction and the horizontal direction according to the luminance level of the level composite image. For example, the high luminance portion and the low luminance portion of the subject are divided by vertical and horizontal region division. When there is no pattern, or when the number of patterns of the high luminance part and the low luminance part of the subject is larger than the number of divided areas, the high luminance part and the low luminance part of the subject may be mixed in one divided area. In such a case, there is a problem that an effective dynamic enlargement process cannot be performed by the conventional tone correction device, and an image without sharpness is generated.
[0008]
The present invention has been made to solve such a problem, and is intended to realize an effective dynamic enlargement process regardless of how the high-luminance portion and the low-luminance portion of the subject are distributed. Offering technology.
[0009]
[Means for Solving the Problems]
The video processing apparatus according to the present invention includes a level synthesizing unit that generates a level synthesized video signal by level synthesizing the first and second video signals obtained by capturing images at different exposure times; A first and a second proper exposure signal representing a proper exposure area of each of the two video signals; and a first gradation correction data based on the first proper exposure signal. A first gradation correcting unit for correcting a gradation of the level composite video signal, and a second gradation correcting unit for performing a gradation correction of the level composite video signal using second gradation correction data based on the second proper exposure signal. Tone correcting means, and area synthesizing means for area synthesizing level-combined video signals, each of which has been tone-corrected by the first and second tone correcting means, based on the first and second proper exposure signals. Is provided.
[0010]
With this configuration, tone correction is performed on the level composite video signal based on each of the first and second proper exposure signals representing the proper exposure area of the first and second video signals, and thus the tone corrected 2 The two level synthesized video signals are area-synthesized based on the first and second proper exposure signals. As a result, it is possible to prevent the high-luminance portion and the low-luminance portion of the subject from being mixed in one of the divided areas. An appropriate video signal is obtained which represents the luminance distribution of the above as a luminance distribution within an appropriate range.
[0011]
Further, the image processing apparatus of the present invention further includes a level synthesizing unit configured to perform level synthesizing by the level synthesizing unit on at least a part of the region based on at least one of the first and second appropriate exposure signals. The image processing apparatus further includes a synthesis level changing unit that changes a reference synthesis level.
[0012]
According to this configuration, since the synthesis level of the level synthesis processing is changed based on the appropriate exposure area, an appropriate level synthesis signal is obtained, and the results of gradation correction and area synthesis are also satisfactorily obtained.
[0013]
A video processing apparatus according to another aspect of the present invention includes: a level synthesizing unit configured to generate a level composite video signal by performing level composition of first and second video signals obtained by capturing images at different exposure times; A proper exposure detecting means for generating first and second proper exposure signals representing respective proper exposure regions of the first and second video signals; and a first proper exposure signal obtained by the proper exposure detecting means. First gradation correction means for performing gradation correction of the level composite video signal using first gradation correction data based on the first gradation correction data, and a second gradation correction means based on a second proper exposure signal obtained by the proper exposure detection means. A second tone correction means for tone-correcting the level-combined video signal using tone correction data; and one of the first and second proper exposure signals in a proper exposure region having a predetermined threshold or less. Small area exposure A proper exposure signal changing means for changing the first and second proper exposure signals so that the small proper exposure region becomes a proper exposure region of the other proper exposure signal, Area synthesizing means for area-synthesizing the level-combined video signals, each of which has been gradation-corrected by the first and second gradation correction means, based on the first and second proper exposure signals changed by the means. .
[0014]
With this configuration, an appropriate video signal that expresses the luminance distribution of the subject within an appropriate range can be obtained as described above. Further, when there is a small proper exposure region having an area equal to or smaller than a predetermined threshold value in the proper exposure region of one proper exposure signal, the small proper exposure region is treated as a proper exposure region of the other proper exposure signal. Thereby, blurring of the small appropriate exposure area due to performing tone correction and area synthesis on the small appropriate exposure area can be prevented.
[0015]
Note that, within the scope of the present invention, the present invention may, of course, be applied to a small proper exposure area of the proper exposure area of the first proper exposure signal. The present invention may be applied to the small appropriate exposure area of the above, or the present invention may be applied to both.
[0016]
Further, the image processing apparatus according to the present invention further includes a method for at least a part of the region based on at least one of the first and second proper exposure signals changed by the proper exposure signal changing unit. The image processing apparatus further includes a synthesis level changing unit that changes a synthesis level serving as a reference of the level synthesis.
[0017]
With this configuration, since the synthesis level of the level synthesis processing is changed based on the appropriate exposure area, an appropriate level synthesized video signal can be obtained, and the results of gradation correction and area synthesis can be obtained well.
[0018]
Further, in the video processing device according to the present invention, the synthesis level changing unit corresponds to a low-luminance portion of a video signal obtained by imaging with a shorter exposure time among the first and second video signals. The synthesis level is changed so that the subject portion is level-combined using the video signal of the first and second video signals obtained by imaging with a longer exposure time.
[0019]
With this configuration, it is possible to prevent the image quality of the level composite video signal from deteriorating due to the low-luminance portion signal of the video signal obtained by imaging with a short exposure time and to contribute to the expansion of the dynamic range of the video signal. By effectively using the above signal, an appropriate video signal expressing the luminance distribution of the subject can be generated.
[0020]
Further, an imaging system according to the present invention includes the video processing device according to any one of the above, and imaging means for generating the first and second video signals.
[0021]
With this configuration, a subject having a luminance distribution range exceeding the dynamic range of the imaging unit can be imaged, and a video signal having a luminance distribution corresponding to the luminance distribution of the subject can be generated.
[0022]
It is needless to say that the video processing apparatus of the present invention is not limited to the configuration that processes only two video signals. That is, for example, the third, fourth,... Video signals having different exposure times from the first and second video signals are treated in the same manner as the first and second video signals, and the luminance distribution of the object is obtained. The present invention also includes an apparatus for generating a video signal having a luminance distribution corresponding to the above.
[0023]
The invention is not limited to the device embodiments as described above. Another embodiment of the present invention is a video processing method, a program for causing a computer to execute the video processing method, and a recording medium storing the program.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0025]
(First Embodiment)
FIG. 1 is a block diagram illustrating a configuration of an imaging system 10 including the video processing device according to the first embodiment. The imaging system 10 includes an imaging unit 31, a preprocessing unit 32, an A / D conversion unit 33, a time axis conversion unit 34, and a level synthesis unit 35.
[0026]
The imaging unit 31 includes a CCD composed of a plurality of pixels arranged in a plane. The imaging unit 31 generates a video signal (LONG signal) having a long exposure time and a video signal (SHORT signal) having a short exposure time in accordance with an instruction from a control unit (not shown). At this time, the imaging unit 31 sets the horizontal transfer speed of the CCD to twice the normal speed, alternately outputs the LONG signal and the SHORT signal for each horizontal line, and thereby outputs the video signal for one field in the normal imaging. Are output for one field, respectively, during the period during which is output.
[0027]
The preprocessing unit 32 includes a CDS circuit that performs a noise removal process and an AGC circuit that performs a gain control process, and performs preprocessing such as noise removal and gain control on a signal output from the imaging unit 31. The A / D converter 33 converts the video signal preprocessed by the preprocessor 32 from an analog signal to a digital signal.
[0028]
The time axis conversion unit 34 converts the time axes of the LONG signal and the SHORT signal continuously generated by the imaging unit 31 so that both signals have a standard speed and the same timing. The video signal generated by the imaging unit 31 by the time axis conversion unit 34 is separated into a LONG signal and a SHORT signal, and can be handled independently. The LONG signal and the SHORT signal are input to the level synthesizing unit 35, respectively. The level synthesizing unit 35 performs level synthesizing of the LONG signal and the SHORT signal.
[0029]
FIG. 2 is a diagram illustrating the level combining process of the level combining unit 35. 2A to 2E, the horizontal axis indicates the brightness of the subject, and the vertical axis indicates the coordinates of the brightness level of the image. As shown in FIG. 2A, the LONG signal increases the brightness level of the image as the brightness of the subject increases, but the brightness of the subject is higher than a predetermined level because the exposure time is long. Then, the brightness level of the image is saturated, and the brightness level of the image becomes constant regardless of the brightness of the subject. The level synthesizing unit 35 compresses the LONG signal whose luminance level of the image has reached the saturation point, as shown in FIG.
[0030]
On the other hand, as shown in FIG. 2B, the increase rate of the brightness level of the image with respect to the brightness of the subject is slower in the SHORT signal than in the LONG signal. The level synthesizing unit 35 adds an offset component to such a short signal as shown in FIG. At this time, the SHORT signal is offset so that the SHORT signal has the brightness level of the saturation point at the brightness of the subject when the brightness level of the LONG signal reaches the saturation point.
[0031]
The level synthesizing unit 35 further synthesizes the compressed LONG signal and the offset SHORT signal as shown in FIG. 2 (e), using the saturation point of the LONG signal as the synthesis point (the synthesis level of the present invention). At this time, the level synthesizing unit 35 synthesizes the two signals using the LONG signal at the luminance level below the synthesis point and uses the SHORT signal at the luminance level above the synthesis point to generate a level composite video signal. Note that the level synthesizing unit 35 constitutes a level synthesizing unit of the present invention.
[0032]
The imaging system 10 further includes a LONG proper exposure detection unit 36, a SHORT proper exposure detection unit 37, a LONG histogram data detection unit 38, a SHORT histogram detection unit 39, a LONG gradation correction data calculation unit 40, and a SHORT gradation correction data calculation unit. 41, a LONG area tone correction section 42 and a SHORT area tone correction section 43. Hereinafter, each part will be described in order.
[0033]
The LONG proper exposure detection unit 36 and the SHORT proper exposure detection unit 37 take in the LONG signal and the SHORT signal separated and output by the time axis conversion unit 34, respectively, and detect a proper exposure portion in each signal.
[0034]
FIG. 3 is a diagram for explaining a proper exposure detection process of the LONG proper exposure detection unit 36 and the SHORT proper exposure detection unit 37. Here, a case will be described in which the imaging unit 31 images the subject shown in FIG. This subject has a relatively large elliptical bright area LA in a dark area DA. When the subject is imaged by long-time exposure and short-time exposure, respectively, the time axis conversion unit 34 obtains a LONG signal and a SHORT signal indicating the subject. FIGS. 3B and 3C are diagrams showing the luminance levels of the LONG signal and the SHORT signal corresponding to the image on the AB line of the subject shown in FIG. 3A.
[0035]
The LONG proper exposure detection unit 36 and the SHORT proper exposure detection unit 37 store a predetermined luminance level threshold value, respectively. Upon receiving the LONG signal, the LONG proper exposure detection unit 36 detects an area in the LONG signal whose luminance level is equal to or less than a threshold value as a proper exposure area of the LONG signal (hereinafter, referred to as a LONG proper exposure area), and determines that area. The LONG proper exposure signal shown is generated. In this example, the dark area DA in the subject is detected as the LONG proper exposure area. Therefore, as shown in FIG. 3D, in the portion corresponding to the LONG proper exposure signal on the AB line, a dark area having a luminance level equal to or lower than the threshold is 1 and a bright area having a luminance level equal to or higher than the threshold is 0. It is.
[0036]
Upon receiving the SHORT signal of the subject shown in FIG. 3A, the SHORT proper exposure detection unit 37 determines an area of the SHORT signal whose luminance level is equal to or greater than a threshold value in a SHORT signal proper exposure area (hereinafter, SHORT proper exposure). Area) and generates a short proper exposure signal indicating the area. In this example, a bright area LA in the subject is detected as a short proper exposure area. Therefore, as shown in FIG. 3 (e), in a portion corresponding to the short proper exposure signal on the AB line, a bright region having a luminance level equal to or higher than the threshold is 1 and a dark region having a luminance level equal to or lower than the threshold is 0. It is.
[0037]
The LONG proper exposure detection unit 36 and the SHORT proper exposure detection unit 37 output the LONG proper exposure signal and the SHORT proper exposure signal respectively generated as described above. Note that the LONG proper exposure detecting section 36 and the SHORT proper exposure detecting section 37 constitute a proper exposure detecting means of the present invention.
[0038]
The LONG histogram data detection unit 38 first takes in the LONG signal output from the time axis conversion unit 34 and the LONG proper exposure signal output from the LONG proper exposure detection unit 36, and uses these signals to LONG the proper exposure area. Generate a histogram of the signal.
[0039]
FIG. 4 is a diagram illustrating a process of generating a histogram of a LONG proper signal in the LONG histogram data detector 38. FIG. 4A is a diagram showing a luminance level on the AB line of the LONG signal. This LONG signal is input from the time axis conversion unit 34 to the LONG histogram data detection unit 38. FIG. 4B is a diagram showing a portion of the LONG proper exposure signal corresponding to the AB line. This LONG proper exposure signal is input from the LONG proper exposure detection unit 36 to the LONG histogram detection unit 38. The LONG histogram data detector 38 generates a LONG proper signal indicating the LONG signal of the LONG proper exposure area by multiplying the LONG signal by the LONG proper exposure signal. In this example, on the AB line of the subject, the LONG signal shown in FIG. 4A and the LONG proper exposure signal shown in FIG. 4B are multiplied to obtain the LONG signal shown in FIG. An appropriate signal is generated.
[0040]
The LONG histogram data detector 38 generates LONG histogram data indicating a luminance histogram of the LONG proper signal thus obtained. FIG. 4D is histogram data showing the luminance distribution of the LONG proper signal. Since the LONG proper signal is a signal representing a proper exposure area of the LONG signal, that is, a signal representing an image of a dark area in the subject, its luminance distribution is biased toward the low luminance side as shown in FIG.
[0041]
FIG. 5 is a diagram illustrating a process of generating a histogram of a short proper signal in the short histogram data detection unit 39. Similarly to the LONG histogram data detection unit 38, the SHORT histogram data detection unit 39 first generates a SHORT proper signal by multiplying the SHORT signal by the SHORT proper exposure signal. As shown in FIG. 5, on the AB line, the SHORT signal shown in FIG. 5A is multiplied by the SHORT proper exposure signal shown in FIG. 5B, and the SHORT proper signal shown in FIG. A signal is generated.
[0042]
The short histogram data detection unit 39 generates short histogram data indicating the luminance histogram of the short proper signal thus obtained. FIG. 5D is histogram data showing the luminance distribution of the short proper signal. Since the SHORT proper signal is a signal representing a proper exposure area of the SHORT signal, that is, a signal representing a video of a bright area in the subject, the luminance distribution is biased toward the high luminance side as shown in FIG.
[0043]
The LONG gradation correction data calculation unit 40 and the SHORT gradation correction data calculation unit 41 take in the histogram data generated by the LONG histogram data detection unit 38 and the SHORT histogram data detection unit 39, respectively, and based on the histogram data, LONG gradation correction data and SHORT gradation correction data are calculated respectively.
[0044]
FIG. 6 is a diagram for explaining the processing in the LONG gradation correction data calculation unit 40. As the LONG gradation correction data, the LONG histogram data shown in FIG. 6A generated by the LONG histogram data detector 38 is obtained, and the LONG gradation correction data shown in FIG. 6B is calculated. . As described above, since the histogram of the LONG proper signal is biased toward the low luminance side, the LONG gradation correction data calculating unit 40 corrects the low luminance part of the LONG proper signal by raising the low luminance part as shown in FIG. Calculate the data.
[0045]
FIG. 7 is a diagram illustrating the processing of the short gradation correction data calculation unit 41. The SHORT gradation correction data calculation unit 41, like the LONG gradation correction data calculation unit 40, based on the SHORT histogram data shown in FIG. Is calculated. Here, the histogram of the short proper signal is biased toward the high luminance side, contrary to the histogram of the long proper signal, so that the short gradation correction data calculation unit 41 performs the short correction as shown in FIG. The correction data for raising the high luminance portion of the appropriate signal is calculated.
[0046]
Returning to FIG. 1, the LONG region gradation correction unit 42 and the SHORT region gradation correction unit 43 use the LONG gradation correction data and the SHORT gradation correction data to generate the level composite video signal generated by the level synthesizing unit 35. Is corrected. The LONG area tone correction section 42 and the SHORT area tone correction section 43 constitute first and second tone correction means of the present invention.
[0047]
FIG. 8 is a diagram for explaining the processing of the LONG region gradation correction unit 42 and the SHORT region gradation correction unit 43. By applying the LONG gradation correction data to the level composite video signal, a low luminance portion in the level composite video signal is emphasized. In addition, by applying SHORT gradation correction data to the level signal, a high luminance portion in the level composite video signal is emphasized. FIG. 8 shows a change in a portion on the AB line in the level composite video signal when the level composite video signal is subjected to the gradation correction using the LONG gradation correction data and the SHORT gradation correction data.
[0048]
The portion on the AB line of the level composite video signal shown in FIG. 8A is subjected to gradation correction using the LONG gradation correction data shown in FIG. 8B, so that the signal shown in FIG. Become. By this gradation correction, the level of the low-luminance portion, that is, the low signal level portion, of the level composite video signal is raised, and the level of the high-luminance portion, that is, the high signal level portion is suppressed. Further, when the level composite video signal of FIG. 8A is subjected to gradation correction using the SHORT gradation correction data shown in FIG. 8D, as shown in FIG. 8E, the low luminance of the level composite video signal is obtained. The level of the part is suppressed, and the level of the high brightness part is raised. Hereinafter, the level composite video signals subjected to the gradation correction by the LONG region gradation correction unit 42 and the SHORT region gradation correction unit 43 are referred to as a LONG gradation correction signal and a SHORT gradation correction signal, respectively.
[0049]
The imaging system 10 further includes a synthesized waveform generation unit 44, a region synthesis unit 45, and a main signal processing unit 46.
[0050]
As described above, the LONG proper exposure signal obtained from the LONG proper exposure detecting unit 36 is used for creating a histogram of the LONG proper exposure area in the LONG histogram data detecting unit 38, and the combined waveform generating unit 44 It is also used for processing. The short proper exposure signal is also used for processing in the composite waveform generation unit 44, similarly to the long proper exposure signal. The synthesized waveform generation unit 44 acquires the LONG proper exposure signal and the SHORT proper exposure signal, and detects the boundary of the proper exposure area between the LONG signal and the SHORT signal.
[0051]
Then, the synthetic waveform generation unit 44 generates a LONG weighting processing function for the LONG tone correction signal, which is 1 in a proper exposure area indicated by the LONG proper exposure signal and 0 in other areas. In addition, the combined waveform generation unit 44 generates a short weighting processing function for the short gradation correction signal, which is 1 in a proper exposure region indicated by the short proper exposure signal and 0 in other regions.
[0052]
Here, in order to smoothly connect the LONG proper area and the SHORT proper area at the time of area synthesis described later, the LONG weighting processing function and the SHORT weighting processing function are functions that gradually change from 0 to 1 or 1 to 0. Is done. Further, in the present embodiment, the LONG weighting function and the SHORT weighting function have a complementary relationship in which the sum of the two always becomes 1.
[0053]
FIG. 9 and FIG. 10 are diagrams illustrating the processing of the composite waveform generation unit 44. FIG. 9 shows the LONG gradation correction signal on the AB line and the LONG weighting processing function (1-K). FIG. 10 shows the SHORT gradation correction signal on the AB line and the SHORT weighting function (K). As described above, the LONG weighting processing function and the SHORT weighting processing function are functions in which the weighting coefficient gradually increases or decreases around the boundary between 1 and 0 and changes from 0 to 1 or from 1 to 0. 9 and 10 show the change of the weighting function on the AB line, that is, in the horizontal direction. However, the weighting coefficient gradually increases or decreases at the boundary of 0 to 1 or 1 to 0 also in the vertical direction. The LONG weight function and the SHORT weight function generated as described above are output to the area combining unit 45.
[0054]
The area combining unit 45 extracts a proper exposure portion of the LONG tone correction signal using the LONG weighting processing function, extracts a proper exposure portion of the SHORT tone correction signal using the SHORT weighting function, and combines the two. To generate an area composite signal.
[0055]
FIG. 11 is a block diagram illustrating a configuration of the area combining unit 45. The area combining unit 45 includes a LONG multiplier 451, a SHORT multiplier 452, and an adder 453. The LONG multiplier 451 multiplies the LONG tone correction signal by a LONG weight processing function. As a result, a video signal having a valid value only in the LONG proper exposure area is generated. The short multiplier 452 multiplies the short gradation correction signal by the short weighting function. As a result, a video signal having a valid value only in the short proper exposure area is generated. The adder 453 adds the output of the LONG multiplier 451 and the output of the SHORT multiplier 452. As a result, in the LONG proper exposure area, a LONG gradation correction signal is adopted, and in the SHORT proper exposure area, an area composite signal adopting the SHORT gradation correction signal is generated. The area synthesizing unit 45 constitutes an area synthesizing unit of the present invention.
[0056]
FIG. 12 is a diagram illustrating an image represented by the area synthesis signal generated by the area synthesis unit 45. By the above-described gradation correction process, the contrast from the bright region to the dark region of the subject is expressed within the dynamic range of the imaging system 10, and the brightness of the subject can be reduced without producing a white portion or a black portion. The distribution is properly represented.
[0057]
As described with reference to FIGS. 9 and 10, since the LONG weighting processing function and the SHORT weighting processing function are set to change smoothly, the LONG floor is set at the boundary MA between the bright area and the surrounding dark area. The tone correction signal and the SHORT gradation correction signal are naturally combined.
[0058]
Returning to FIG. 1, the main signal processing unit 46 performs signal processing of a main part including a compression encoding process on the area combined signal, and outputs a signal to an external device.
[0059]
As described above, the imaging system 10 of the present embodiment detects the LONG proper exposure area and the SHORT proper exposure area representing each proper exposure area from the LONG signal and the SHORT signal having different exposure times. Then, tone correction is performed on the level composite video signal based on the LONG proper exposure area and the SHORT proper exposure area detected in this manner, and the two level composite signals thus corrected in tone are combined with the LONG proper exposure area and the SHORT. Area synthesis is performed based on the appropriate exposure area. As a result, appropriate gradation correction is performed on the high luminance portion and the low luminance portion of the subject, and an appropriate video signal that expresses the luminance distribution of the subject with the luminance distribution within the dynamic range of the imaging system 10 is obtained.
[0060]
In addition, the imaging system 10 of the present embodiment outputs two video signals alternately output from the imaging unit 31 within one field period with the time axis converted by the time axis conversion unit 34. A field memory for temporarily storing two different signals is not required. Thereby, the circuit scale of the imaging system 10 can be reduced.
[0061]
(Second embodiment)
FIG. 13 is a block diagram illustrating a configuration of an imaging system 20 including the video processing device according to the second embodiment. The configuration of the imaging system 20 is the same as the configuration of the imaging system 10 of the first embodiment, except that the imaging system 20 includes the appropriate exposure area conversion unit 47. In FIG. 13 and the following description, the same components as those of the imaging system 10 among the components of the imaging system 20 are denoted by the same reference numerals as those of the imaging system 10, and the description thereof will be omitted.
[0062]
As already described as the first embodiment of the present invention, the imaging system 10 shown in FIG. 1 can obtain an appropriate video signal that expresses the luminance distribution of a subject by the luminance distribution within the dynamic range of the imaging system 10. Then, at the boundary MA between the bright region and the surrounding dark region, the LONG gradation correction signal and the SHORT gradation correction signal are naturally synthesized, and an image free from discomfort due to the region synthesis is obtained. However, when the area of the LONG proper exposure area or the SHORT proper exposure area is extremely small, an image may be blurred at the boundary portion, and a portion corresponding to the small proper exposure area may appear as a spot due to area synthesis.
[0063]
Therefore, in order to prevent the above-described spot-like portion from appearing in the area composite image, the imaging system 20 according to the present embodiment employs an appropriate exposure before the composite waveform generation section 44 as shown in FIG. An area conversion unit 47 is provided.
[0064]
FIG. 14 is a block diagram showing the configuration of the proper exposure signal conversion unit 47. The proper exposure signal conversion unit 47 includes an image data buffer 471 that acquires a short proper exposure signal and temporarily stores several lines. The image data buffer 471 outputs a short proper exposure signal every several lines. The short area conversion unit 472 stores a threshold value of a predetermined number of pixels. The short area conversion unit 472 acquires a short appropriate signal for several lines, and cancels a short appropriate exposure area (hereinafter, referred to as a small appropriate exposure area) whose area is less than the threshold value in the short appropriate exposure signal. Perform filter processing. That is, the short area conversion unit 472 converts the short appropriate exposure signal so that the small appropriate exposure area in the short appropriate exposure area is not the short appropriate exposure area. The above threshold value is preferably set so that a short appropriate exposure area having an extremely small area can be canceled.
[0065]
The LONG region exposure unit 473 converts the LONG proper exposure signal using the SHORT proper exposure signal converted as described above such that the LONG proper exposure signal is complementary to the SHORT proper exposure signal. In this manner, the proper exposure signal conversion section 47 converts and outputs both the short proper exposure signal and the long proper exposure signal.
[0066]
FIG. 15 is a diagram for explaining the processing of the proper exposure signal conversion unit 47. Here, a case where the imaging unit 31 images the subject shown in FIG. This subject has a bright area L1 having a relatively large area and bright areas L2 and L3 having a small area in a dark area DA. The LONG proper exposure signal and the SHORT proper exposure signal of the subject are, for example, signals shown in FIGS. 15B and 15C, respectively, on the AB line.
[0067]
As shown in FIG. 15B, in the processing of the short proper exposure detection unit 37, three bright areas L1 to L3 in the subject are short proper exposure areas. However, since the bright region L2 and the bright region L3 are smaller in area than the threshold, the bright region L2 and the bright region L3 are converted to 0 by the short region conversion unit 472 as shown in FIG. Is done. The LONG proper exposure signal is also converted by the LONG area conversion unit 473 as shown in FIG. 15E so as to have a complementary relationship with the SHORT proper exposure signal in FIG. Note that this proper exposure signal conversion unit 47 corresponds to a proper exposure signal changing unit of the present invention.
[0068]
Returning to FIG. 13, in the imaging system 20 of the present embodiment, the LONG proper exposure signal and the SHORT proper exposure signal generated by the LONG proper exposure detection unit 36 and the SHORT proper exposure detection unit 37 are as described above. After being converted by the appropriate exposure signal converter 47, it is input to the composite waveform generator 46.
[0069]
In the above example, the processing for detecting the small proper exposure area in the short proper exposure area and canceling the area is performed. However, the processing for detecting the small proper exposure area in the long proper exposure area and canceling the area is performed. May be performed, or a small area may be detected from both the SHORT proper exposure area and the LONG proper exposure area. Further, in the above example, the small proper exposure area is detected from the short proper exposure signal. However, the LONG proper exposure signal may be checked to detect the small proper exposure area.
[0070]
As described above, when the small proper exposure area exists in the SHORT proper exposure area or the LONG proper exposure area, the imaging system 20 according to the second embodiment makes the other proper exposure area. To the short proper exposure signal or the long proper exposure signal. Thus, in addition to the effect of the imaging system 10 of the first embodiment, the inconvenience that a portion corresponding to the small appropriate exposure area is blurred by the area combination processing and an unnatural image is generated can be solved.
[0071]
(Third embodiment)
FIG. 16 is a block diagram illustrating a configuration of an imaging system 30 including the video processing device according to the third embodiment. The configuration of the imaging system 30 is obtained by adding a combined level signal generation unit 48 to the configuration of the imaging system 20 of the second embodiment. In FIG. 16 and the following description, the same components as those of the imaging system 20 among the components of the imaging system 30 are denoted by the same reference numerals as those of the imaging system 20, and the description thereof will be omitted.
[0072]
FIG. 17 is a diagram illustrating the process of the synthesis level signal generation unit 48. Here, a case will be described in which the imaging unit 31 images the subject illustrated in FIG. This subject has an area X and a bright area LA in a dark area DA. The region X is a region having a lower luminance than the bright region L1 and a higher luminance than the dark region DA.
[0073]
Here, since the bright area LA is an area that has been skipped white in the LONG signal, it is an area in which the SHORT signal should be adopted in the level synthesis processing in the level synthesis unit 35. Further, the dark area DA is an area that is darkened in the SHORT signal, and is an area where the LONG signal should be used in the level synthesis processing. On the other hand, the area X is a low-luminance area for the SHORT signal and a high-luminance area for the LONG signal.
[0074]
In the area X, the effect of the dynamic range expansion processing is more remarkable when using the LONG signal having high luminance than using the SHORT signal having low luminance in the level synthesis processing. Further, when a level composite video signal is generated using the SHORT signal in this region X, noise is generated in a portion corresponding to that region, which causes image quality deterioration. Therefore, only the SHORT signal in a region where the effect of the dynamic range expansion processing is remarkable, such as a bright region LA in FIG. If it is not used, a level composite video signal is obtained in which the effect of the dynamic range expansion processing is great and the image quality is less deteriorated due to noise.
[0075]
Here, as described above, the area X is a low-luminance area for the SHORT signal and a high-luminance area for the LONG signal. Therefore, the region X is not a proper exposure region in the SHORT signal, but is detected as a proper exposure region in the LONG signal. Therefore, the combined level signal generation unit 48 varies the combined level for each area according to the LONG proper exposure area and the SHORT proper exposure area by using the SHORT proper signal or the LONG proper signal.
[0076]
Specifically, the combined level signal generation unit 48, in accordance with the LONG proper exposure signal and the SHORT proper exposure signal, in the LONG proper exposure area, uses a high combined level (such as a low luminance portion of the SHORT signal in level combining). In the short appropriate exposure area, a composite level signal indicating a low composite level (composite level 1) is generated such that a high luminance portion of the short signal is used in the level composite. FIG. 17D shows the composite level signal generated in this manner. In FIG. 17D, the vertical direction indicates the value of the synthesis level. However, in FIG. 17D, the level of the synthesis level is shown in reverse.
[0077]
Returning to FIG. 16, the combined level signal generating section 48 outputs the combined level signal to the level combining section 35, and the level combining section 35 variably sets the combined level of at least a part of the area according to the level combined signal. .
[0078]
FIG. 18 is a diagram showing level composite waveforms at the respective composite levels of the composite level 1 and the composite level 2. FIG. 18A shows a level composite waveform applied to the SHORT proper exposure area, with the composite level 1 being the composite point. FIG. 18B is a level composite waveform applied to the LONG proper exposure area, with the composite level 2 being the composite point. As shown in FIG. 18A, if the area X in the subject is subjected to level synthesis at the synthesis level 1, the SHORT signal will be adopted. However, in the present embodiment, in the area X, since the level is synthesized by the level synthesized waveform shown in FIG. 18B, the LONG signal is adopted as shown in FIG. In the present embodiment, the combined level changing unit of the present invention is realized by the combined level signal generating unit 48 that generates the combined level signal and the level combining unit 35 that variably sets the combined level based on the combined level signal.
[0079]
In the example of FIG. 16, the combined level signal generation unit 48 generates the combined level signal using the LONG proper exposure signal and the SHORT proper exposure signal converted by the proper exposure area converting unit 47. A composite level signal may be generated using the LONG proper exposure signal and the SHORT proper exposure signal output from the detecting unit 36 and the SHORT proper exposure detecting unit 37.
[0080]
As described above, according to the imaging system 30 of the present embodiment, since the level composite video signal is generated using the high luminance area in the SHORT signal and the low luminance area in the LONG signal, the first and second video signals are generated. The same processing effect as in the imaging system according to the embodiment can be obtained. In the imaging system 30, the synthesis level is changed according to the area so that the level corresponding to the low luminance area of the SHORT signal is synthesized using the LONG signal. As a result, only the SHORT signal in the region where the effect of the dynamic range expansion processing is remarkable is used for level synthesis, so that a level synthesized video signal with a large effect of the dynamic range expansion processing and little image quality deterioration due to noise can be obtained.
[0081]
In the first to third embodiments, the imaging unit 31 captures an image of a subject at two different exposure times to generate two video signals having different exposure times, and use these signals. Although the gradation-corrected video signal is generated, three or more types of video signals may be generated to generate the gradation-corrected video signal in the same manner as described above.
[0082]
In the imaging systems according to the first to third embodiments, the LONG tone correction data calculation unit 40 and the SHORT tone correction data calculation unit 41 are configured by software. May be configured. In these cases, the function of each part is realized by a computer processing data according to a predetermined program.
[0083]
【The invention's effect】
As described above, according to the present invention, the level composite video signal is subjected to gradation correction based on the appropriate exposure area of each of the two video signals having different exposure times, and thus the two level-combined video signals thus gradation-corrected are provided. Since the signals are area-synthesized based on the appropriate exposure area, it is possible to provide a video signal processing apparatus having an excellent effect that an effective dynamic enlargement process can be executed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an imaging system according to a first embodiment.
FIG. 2 is a diagram illustrating a level synthesis process of a level synthesis unit according to the first embodiment.
FIG. 3 is a diagram illustrating an appropriate exposure detection process according to the first embodiment.
FIG. 4 is a view for explaining processing for generating a histogram of a LONG proper signal according to the first embodiment;
FIG. 5 is a view for explaining a process of generating a histogram of a proper SHORT signal according to the first embodiment;
FIG. 6 is a view for explaining processing in a LONG gradation correction data calculation unit according to the first embodiment;
FIG. 7 is a view for explaining processing in a SHORT gradation correction data calculation unit according to the first embodiment;
FIG. 8 is a view for explaining processing of a LONG region gradation correction unit and a SHORT region gradation correction unit according to the first embodiment;
FIG. 9 is a view for explaining processing of a synthetic waveform generation unit according to the first embodiment;
FIG. 10 is a view for explaining processing of a synthesized waveform generation unit according to the first embodiment;
FIG. 11 is a block diagram illustrating a configuration of an area combining unit according to the first embodiment.
FIG. 12 is a diagram illustrating an image represented by an area synthesis signal generated by the area synthesis unit according to the first embodiment;
FIG. 13 is a block diagram illustrating a configuration of an imaging system according to a second embodiment.
FIG. 14 is a block diagram illustrating a configuration of a proper exposure signal conversion unit according to the second embodiment;
FIG. 15 is a view for explaining processing of an appropriate exposure signal conversion unit according to the second embodiment;
FIG. 16 is a block diagram illustrating a configuration of an imaging system according to a third embodiment.
FIG. 17 is a view for explaining processing of a composite level signal generation unit according to the third embodiment;
FIG. 18 is a diagram showing level composite waveforms at respective composite levels according to the third embodiment.
[Explanation of symbols]
10, 20, 30 imaging system
34 Time axis converter
35 level synthesis unit
36 LONG proper exposure detector
37 SHORT proper exposure detector
40 LONG gradation correction data calculation unit
41 SHORT gradation correction data calculation unit
42 LONG area gradation correction unit
43 SHORT area gradation correction unit
44 Synthetic waveform generator
45 area synthesis unit
47 Appropriate exposure area conversion unit
48 Composite Level Signal Generation Unit

Claims (11)

互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成手段と、
前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出手段と、
前記第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正手段と、
前記第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正手段と、
前記第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正手段によりそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成手段と、
を備えることを特徴とする映像処理装置。
Level synthesizing means for level-synthesizing the first and second video signals obtained by imaging at mutually different exposure times to generate a level synthesized video signal;
Proper exposure detecting means for generating first and second proper exposure signals representing respective proper exposure areas of the first and second video signals;
First tone correction means for tone-correcting the level composite video signal using first tone correction data based on the first proper exposure signal;
Second tone correction means for tone-correcting the level composite video signal using second tone correction data based on the second proper exposure signal;
Area synthesizing means for area synthesizing level synthesized video signals, each of which has been gradation-corrected by the first and second gradation correction means, based on the first and second proper exposure signals;
A video processing device comprising:
前記第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して、前記レベル合成手段のレベル合成の基準となる合成レベルを変更する合成レベル変更手段を備えたことを特徴とする請求項1に記載の映像処理装置。Combination level changing means for changing a combination level serving as a reference for level combination of the level combination means for at least a part of the region based on at least one of the first and second proper exposure signals. The video processing device according to claim 1, further comprising: 互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成手段と、
前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出手段と、
前記適正露光検出手段により得られた第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正手段と、
前記適正露光検出手段により得られた第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正手段と、
前記第1および第2の適正露光信号の一方の適正露光領域の中に所定の閾値以下の面積の小適正露光領域が存在する場合、前記小適正露光領域が他方の適正露光信号の適正露光領域となるように前記第1および第2の適正露光信号を変更する適正露光信号変更手段と、
前記適正露光信号変更手段により変更された第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正手段によりそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成手段と、
を備えることを特徴とする映像処理装置。
Level synthesizing means for level-synthesizing the first and second video signals obtained by imaging at mutually different exposure times to generate a level synthesized video signal;
Proper exposure detecting means for generating first and second proper exposure signals representing respective proper exposure areas of the first and second video signals;
First gradation correction means for performing gradation correction on the level composite video signal using first gradation correction data based on a first proper exposure signal obtained by the proper exposure detection means;
Second tone correction means for tone-correcting the level composite video signal using second tone correction data based on a second proper exposure signal obtained by the proper exposure detection means;
When a small proper exposure area having an area equal to or less than a predetermined threshold value exists in one of the first and second proper exposure signals, the small proper exposure area becomes a proper exposure area of the other proper exposure signal. Proper exposure signal changing means for changing the first and second proper exposure signals so that
An area for area-synthesizing a level-combined video signal whose tone has been corrected by the first and second tone correction means based on the first and second proper exposure signals changed by the appropriate exposure signal change means; Combining means;
A video processing device comprising:
前記適正露光信号変更手段により変更された第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して前記レベル合成の基準となる合成レベルを変更する合成レベル変更手段を備えることを特徴とする請求項3に記載の映像処理装置。A synthesis level serving as a reference of the level synthesis is changed for at least a part of the region based on at least one of the first and second proper exposure signals changed by the proper exposure signal changing unit. The video processing apparatus according to claim 3, further comprising a synthesis level changing unit. 前記合成レベル変更手段は、前記第1および第2の映像信号のうちの短い露光時間での撮像により得られた方の映像信号の低輝度部分に相当する被写体部分が、前記第1および第2の映像信号のうちの長い露光時間での撮像により得られた方の映像信号を用いてレベル合成されるように、前記合成レベルを変更することを特徴とする請求項2または4に記載の映像処理装置。The combining level changing unit may be configured to determine that a subject portion corresponding to a low-brightness portion of the first and second video signals obtained by imaging with a shorter exposure time is the first and second video signals. 5. The video according to claim 2, wherein the composite level is changed so that a level is composited using a video signal obtained by imaging with a longer exposure time out of the video signals of (b). Processing equipment. 請求項1〜5のいずれかに記載の映像処理装置と、
前記第1および第2の映像信号を生成する撮像手段とを備えたことを特徴とする撮像システム。
An image processing device according to any one of claims 1 to 5,
An imaging system comprising: an imaging unit configured to generate the first and second video signals.
互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成ステップと、
前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出ステップと、
前記第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正ステップと、
前記第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正ステップと、
前記第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正ステップにてそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成ステップと、
を有することを特徴とする映像処理方法。
A level synthesizing step of level-synthesizing the first and second video signals obtained by imaging at mutually different exposure times to generate a level synthesized video signal;
A proper exposure detecting step of generating first and second proper exposure signals representing respective proper exposure regions of the first and second video signals;
A first gradation correction step of performing gradation correction on the level composite video signal using first gradation correction data based on the first proper exposure signal;
A second gradation correction step of performing gradation correction on the level composite video signal using second gradation correction data based on the second appropriate exposure signal;
An area synthesizing step of area synthesizing level-combined video signals, each of which has undergone tone correction in the first and second tone correction steps, based on the first and second proper exposure signals;
A video processing method comprising:
前記第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して、前記レベル合成ステップにおけるレベル合成の基準となる合成レベルを変更する合成レベル変更ステップをさらに有することを特徴とする請求項7に記載の映像処理方法。A synthesizing level changing step of changing a synthesizing level serving as a reference for level synthesizing in the level synthesizing step for at least a part of the region based on at least one of the first and second proper exposure signals; The video processing method according to claim 7, further comprising: 互いに異なる露光時間で撮像することにより得られた第1および第2の映像信号をレベル合成してレベル合成映像信号を生成するレベル合成ステップと、
前記第1および第2の映像信号のそれぞれの適正露光領域を表す第1および第2の適正露光信号を生成する適正露光検出ステップと、
前記適正露光検出ステップにて生成された第1の適正露光信号に基づく第1の階調補正データを用いて前記レベル合成映像信号を階調補正する第1の階調補正ステップと、
前記適正露光検出ステップにて生成された第2の適正露光信号に基づく第2の階調補正データを用いて前記レベル合成映像信号を階調補正する第2の階調補正ステップと、
前記第1および第2の適正露光信号の少なくとも一方の適正露光領域の中に所定の閾値以下の面積の小適正露光領域が存在する場合、前記小適正露光領域が他方の適正露光信号の適正露光領域となるように前記第1および第2の適正露光信号を変更する適正露光信号変更ステップと、
前記適正露光信号変更ステップにて変更された第1および第2の適正露光信号に基づいて、前記第1および第2の階調補正ステップにてそれぞれ階調補正されたレベル合成映像信号を領域合成する領域合成ステップと、
を有することを特徴とする映像処理方法。
A level synthesizing step of level-synthesizing the first and second video signals obtained by imaging at mutually different exposure times to generate a level synthesized video signal;
A proper exposure detecting step of generating first and second proper exposure signals representing respective proper exposure regions of the first and second video signals;
A first gradation correction step of performing gradation correction on the level composite video signal using first gradation correction data based on a first proper exposure signal generated in the proper exposure detection step;
A second gradation correction step of performing gradation correction on the level composite video signal using second gradation correction data based on a second proper exposure signal generated in the proper exposure detection step;
When a small proper exposure area having an area equal to or smaller than a predetermined threshold value exists in at least one proper exposure area of the first and second proper exposure signals, the small proper exposure area is appropriately exposed to the other proper exposure signal. A proper exposure signal changing step of changing the first and second proper exposure signals so as to form an area;
On the basis of the first and second proper exposure signals changed in the proper exposure signal changing step, the level-combined video signals, each of which has been gradation-corrected in the first and second gradation correction steps, are region-combined. Region synthesis step to be performed,
A video processing method comprising:
前記適正露光信号変更ステップにて変更された第1および第2の適正露光信号の少なくとも一方の適正露光信号に基づいて、少なくとも一部の領域に対して、前記レベル合成ステップにおけるレベル合成の基準となる合成レベルを変更する合成レベル変更ステップをさらに有することを特徴とする請求項9に記載の映像処理方法。Based on at least one proper exposure signal of the first and second proper exposure signals changed in the proper exposure signal changing step, a level synthesis reference in the level synthesizing step for at least a part of the area. The video processing method according to claim 9, further comprising a synthesis level changing step of changing the synthesis level. 請求項7〜10のいずれかに記載の映像処理方法をコンピュータに実行させるプログラム。A program for causing a computer to execute the video processing method according to claim 7.
JP2003090633A 2003-03-28 2003-03-28 Video processing apparatus and imaging system Expired - Fee Related JP4119290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003090633A JP4119290B2 (en) 2003-03-28 2003-03-28 Video processing apparatus and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003090633A JP4119290B2 (en) 2003-03-28 2003-03-28 Video processing apparatus and imaging system

Publications (2)

Publication Number Publication Date
JP2004297701A true JP2004297701A (en) 2004-10-21
JP4119290B2 JP4119290B2 (en) 2008-07-16

Family

ID=33404211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003090633A Expired - Fee Related JP4119290B2 (en) 2003-03-28 2003-03-28 Video processing apparatus and imaging system

Country Status (1)

Country Link
JP (1) JP4119290B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006054427A1 (en) * 2004-10-28 2006-05-26 Matsushita Electric Industrial Co., Ltd. Video processing device and video processing method
JP2006313965A (en) * 2005-05-06 2006-11-16 Casio Comput Co Ltd Photographic apparatus, and photographed image processing method, and program
JP2007036714A (en) * 2005-07-27 2007-02-08 Hitachi Ltd Imaging apparatus
JP2007135182A (en) * 2005-10-14 2007-05-31 Kyocera Corp Imaging device and imaging method
US7590285B2 (en) 2004-11-29 2009-09-15 Sony Corporation Imaging apparatus and method of processing images
JP2010028596A (en) * 2008-07-23 2010-02-04 Hitachi Ltd Image sensing device
WO2010128578A1 (en) * 2009-05-07 2010-11-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2010273392A (en) * 2010-09-08 2010-12-02 Canon Inc Image processing method and image processing device
JP2010272094A (en) * 2009-05-25 2010-12-02 Olympus Corp Image acquisition device, image composition method, and microscope system
US8406560B2 (en) 2010-01-15 2013-03-26 Samsung Electronics Co., Ltd. Apparatus and method for generating high sensitivity images in dark environment
JP2016058890A (en) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
JP2016058889A (en) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
KR101857294B1 (en) 2011-12-09 2018-05-11 엘지이노텍 주식회사 Apparatus and method for abtaing High Dynamic Range image
CN111028779A (en) * 2020-01-02 2020-04-17 昆山国显光电有限公司 Display panel compensation method and device and display panel

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03188587A (en) * 1989-12-19 1991-08-16 Toshiba Corp Binarizing system
JP2000228747A (en) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd Picture processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03188587A (en) * 1989-12-19 1991-08-16 Toshiba Corp Binarizing system
JP2000228747A (en) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd Picture processor

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006054427A1 (en) * 2004-10-28 2006-05-26 Matsushita Electric Industrial Co., Ltd. Video processing device and video processing method
US7590285B2 (en) 2004-11-29 2009-09-15 Sony Corporation Imaging apparatus and method of processing images
CN1819623B (en) * 2004-11-29 2011-01-05 索尼株式会社 Imaging apparatus and method of processing images
JP4595660B2 (en) * 2005-05-06 2010-12-08 カシオ計算機株式会社 Imaging apparatus, captured image processing method, and program
JP2006313965A (en) * 2005-05-06 2006-11-16 Casio Comput Co Ltd Photographic apparatus, and photographed image processing method, and program
JP2007036714A (en) * 2005-07-27 2007-02-08 Hitachi Ltd Imaging apparatus
JP2007135182A (en) * 2005-10-14 2007-05-31 Kyocera Corp Imaging device and imaging method
JP2010028596A (en) * 2008-07-23 2010-02-04 Hitachi Ltd Image sensing device
US8432458B2 (en) 2008-07-23 2013-04-30 Hitachi, Ltd. Imaging apparatus incorporating wide dynamic ranging
RU2508604C2 (en) * 2009-05-07 2014-02-27 Кэнон Кабусики Кайся Image processing method and image processing device
JP2010263423A (en) * 2009-05-07 2010-11-18 Canon Inc Method and device for processing image
WO2010128578A1 (en) * 2009-05-07 2010-11-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
US9185265B2 (en) 2009-05-07 2015-11-10 Canon Kabushiki Kaisha Image processing method and image processing apparatus for performing a tone correction to acquire a combined image
JP2010272094A (en) * 2009-05-25 2010-12-02 Olympus Corp Image acquisition device, image composition method, and microscope system
US8406560B2 (en) 2010-01-15 2013-03-26 Samsung Electronics Co., Ltd. Apparatus and method for generating high sensitivity images in dark environment
JP2010273392A (en) * 2010-09-08 2010-12-02 Canon Inc Image processing method and image processing device
KR101857294B1 (en) 2011-12-09 2018-05-11 엘지이노텍 주식회사 Apparatus and method for abtaing High Dynamic Range image
JP2016058890A (en) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
JP2016058889A (en) * 2014-09-09 2016-04-21 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
CN111028779A (en) * 2020-01-02 2020-04-17 昆山国显光电有限公司 Display panel compensation method and device and display panel
CN111028779B (en) * 2020-01-02 2021-07-16 昆山国显光电有限公司 Display panel compensation method and device and display panel

Also Published As

Publication number Publication date
JP4119290B2 (en) 2008-07-16

Similar Documents

Publication Publication Date Title
JP2951909B2 (en) Gradation correction device and gradation correction method for imaging device
JP5408053B2 (en) Image processing apparatus and image processing method
JP5767485B2 (en) Image processing apparatus and control method
US8170362B2 (en) Edge-enhancement device and edge-enhancement method
JP2009049547A (en) Image processing apparatus, image processing method, image processing program
JP4119290B2 (en) Video processing apparatus and imaging system
JP3134784B2 (en) Image synthesis circuit
WO2006051936A2 (en) Imaging device
JP4479527B2 (en) Image processing method, image processing apparatus, image processing program, and electronic camera
JP4810473B2 (en) Image processing apparatus and image processing program
JP4775230B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6800090B2 (en) Image processing equipment, image processing methods, programs and recording media
US10387999B2 (en) Image processing apparatus, non-transitory computer-readable medium storing computer program, and image processing method
JP2003319269A (en) Solid-state image pickup apparatus and image pickup method
JP6324235B2 (en) Image processing apparatus and image processing method
JP5188312B2 (en) Video signal processing apparatus and video signal processing method
JP2008136113A (en) Image processor, imaging apparatus and image processing method
JP5365881B2 (en) Image processing apparatus and image processing method
JP2007306083A (en) Imaging apparatus and signal processing apparatus
JP5146500B2 (en) Image composition apparatus, image composition method, and program
JP2009194728A (en) Imaging system, image processing method and image processing program
KR102050415B1 (en) Apparatus and method for image processing.
JP2004046329A (en) Image contour enhancement device
JPH11155098A (en) Device and method for processing signal
KR20160070659A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080424

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees