JP2009239398A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009239398A
JP2009239398A JP2008079767A JP2008079767A JP2009239398A JP 2009239398 A JP2009239398 A JP 2009239398A JP 2008079767 A JP2008079767 A JP 2008079767A JP 2008079767 A JP2008079767 A JP 2008079767A JP 2009239398 A JP2009239398 A JP 2009239398A
Authority
JP
Japan
Prior art keywords
signal
frame
pixel
pixels
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008079767A
Other languages
Japanese (ja)
Inventor
Takeshi Shimizu
健 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2008079767A priority Critical patent/JP2009239398A/en
Publication of JP2009239398A publication Critical patent/JP2009239398A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve linearity matched as much as possible with the characteristics of the eyes of a human and to enlarge a dynamic range without dynamically changing the storage period of a solid-state imaging element in an imaging apparatus. <P>SOLUTION: A sensor chip 11 outputs imaging signals read from a pixel part two or more times within one frame period in parallel to n channels in an exposure period shorter than the existing one frame period set to specification. A frame memory 13 stores the imaging signals for two or more frames. A frame adding circuit 14 adds the signals of the two or more frames read from the frame memory 13 and prepares the signals for one frame of the specification. Thus, the dynamic range can be the square of N at maximum. A pixel signal level determination comparator 15 determines a signal level read from the frame memory 13 by pixel, and changes the number of frame addition and weighting, etc., in the frame adding circuit 14 in a frame adding circuit 32 on the basis of the determination result. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は撮像装置に係り、特にダイナミックレンジ改善のためにCMOSセンサ等の固体撮像素子の多チャンネル読み出しを行う撮像装置に関する。   The present invention relates to an image pickup apparatus, and more particularly to an image pickup apparatus that performs multi-channel reading of a solid-state image pickup device such as a CMOS sensor in order to improve a dynamic range.

CMOSセンサは、銀塩カメラに比べてダイナミックレンジが狭い。その改善のためにデバイス及びシステムの観点から以下のような各種の提案がなされている。例えば、上記の提案としては、(1)CMOSセンサの画素部での保持容量を追加して飽和電荷量を増加させる方法(例えば、特許文献1参照)、(2)CMOSセンサのフォトダイオードをリセットするときに対数圧縮を行うことで見かけ上のダイナミックレンジを拡大する方法(例えば、特許文献2参照)、(3)短時間露光と長時間露光を行い、画素内またはチップ出力にて加算を行って、高輝度の時のダイナミックレンジを拡大する方法(例えば、特許文献3〜5参照)、(4)全画素のフレーム読み出しを数回行い、その信号を加算処理等してダイナミックレンジを拡大する方法(例えば、特許文献6参照)などがある。   A CMOS sensor has a narrow dynamic range compared to a silver salt camera. For the improvement, various proposals have been made as follows from the viewpoint of devices and systems. For example, as the above proposal, (1) a method of increasing the saturation charge amount by adding a storage capacitor in the pixel portion of the CMOS sensor (see, for example, Patent Document 1), (2) resetting the photodiode of the CMOS sensor A method of expanding the apparent dynamic range by performing logarithmic compression (for example, see Patent Document 2), (3) performing short-time exposure and long-time exposure, and performing addition within a pixel or chip output Thus, a method of expanding the dynamic range at high brightness (for example, see Patent Documents 3 to 5), (4) The frame is read several times for all pixels, and the dynamic range is expanded by adding the signals. There is a method (for example, see Patent Document 6).

これら提案を実現することで、基本的にはCMOSセンサのフォトダイオード(以下、PDとも記す)に蓄積できる電荷量以上のダイナミックレンジを持つことが可能となる。   By realizing these proposals, it is basically possible to have a dynamic range that is greater than the amount of charge that can be stored in a photodiode (hereinafter also referred to as PD) of a CMOS sensor.

また、固体撮像素子上に結像される光像に比例した電荷蓄積を複数回に分けて取り出し、合成することでダイナミックレンジの拡大された撮影画像を得ることのできる撮像装置も従来提案されている(例えば、特許文献7参照)。   There has also been proposed an imaging apparatus capable of obtaining a captured image with an expanded dynamic range by taking out and combining charge accumulation proportional to the optical image formed on the solid-state imaging device in a plurality of times. (For example, see Patent Document 7).

特開2006−217410号公報JP 2006-217410 A 特開2000−083198号公報Japanese Unexamined Patent Publication No. 2000-083198 特開2004−159274号公報JP 2004-159274 A 米国特許第6175383号明細書US Pat. No. 6,175,383 特開2003−169259号公報JP 2003-169259 A 特開2003−259234号公報JP 2003-259234 A 特開2007−081924号公報Japanese Patent Application Laid-Open No. 2007-081924

しかしながら、特許文献1〜7の提案には以下に示すような課題や短所があり、改善が求められている。   However, the proposals in Patent Documents 1 to 7 have the following problems and disadvantages, and improvements are required.

(1)特許文献1記載の撮像装置により画素部での蓄積を行う場合、通常は蓄積容量を追加する必要があり、スイッチング等のためのトランジスタも必要で、レイアウト上PD部の面積を減らすことになり、PD部の飽和電荷量を逆に減少させてしまう。   (1) When accumulation in the pixel portion is performed by the imaging device described in Patent Document 1, it is usually necessary to add a storage capacitor, and a transistor for switching or the like is also necessary, and the area of the PD portion is reduced in layout. In other words, the saturation charge amount of the PD portion is decreased.

(2)特許文献1記載の撮像装置のように画素部に容量等保持部を持ってダイナミックレンジを拡大する場合は、露光時間を変更するなどにより高輝度側の信号を圧縮することが多く、リニアなレベルでのダイナミックレンジの拡大は2〜3倍程度しかない。   (2) When the dynamic range is expanded by having a storage unit or the like in the pixel unit as in the imaging device described in Patent Document 1, the signal on the high luminance side is often compressed by changing the exposure time. The expansion of the dynamic range at a linear level is only about 2 to 3 times.

(3)特許文献2に開示された、PDのリセット時に対数圧縮する方法は、グローバルシャッタを実現することが難しく、また、リニアなレベルでのダイナミックレンジの拡大はできず、更に、構造上PDをリセットする際に生じるノイズ(KTCノイズ)を抑圧する動作は困難であるという問題がある。つまり、この方法ではS/Nが悪化する。   (3) The method of logarithmically compressing at the time of resetting the PD disclosed in Patent Document 2 makes it difficult to realize a global shutter, and cannot increase the dynamic range at a linear level. There is a problem that it is difficult to suppress the noise (KTC noise) generated when resetting. That is, this method deteriorates the S / N.

(4)特許文献3〜5に記載された、短時間露光と長時間露光とを組み合わせ、画素内又はチップの出力後に加算等の処理にてダイナミックレンジの拡大を行う方法は、画素内での加算は簡便であるが、画素別にコントロールすることは難しく、これを実現するために画素部への配線の本数が増加するとPDの面積が減少してしまうという短所がある。また、ダイナミックレンジ拡大時に露光時間の差による不具合があり、特に動画の時に長時間露光と短時間露光の時間差が画質に影響する。更に、この方法は、CMOSセンサ特有のローリングシャツタによる歪みが目に付きやすい。   (4) A method for combining a short-time exposure and a long-time exposure described in Patent Documents 3 to 5, and expanding a dynamic range by processing such as addition within a pixel or after output from a chip is performed within the pixel. Although the addition is simple, it is difficult to control pixel by pixel, and there is a disadvantage in that the area of the PD decreases when the number of wirings to the pixel portion increases in order to realize this. Also, there is a problem due to the difference in exposure time when expanding the dynamic range, and the time difference between the long exposure and the short exposure particularly affects the image quality when moving images. Furthermore, in this method, distortion due to the rolling shirter specific to the CMOS sensor is easily noticeable.

(5)特許文献6に記載された、チップ出力後の信号処理で短時間露光と長時間露光のフレーム出力を加算する方法は、CMOSセンサ等の読み出しスピードの問題から高速に読み出す動画等ではあまり使用できない。   (5) The method of adding the short-time exposure and the long-time exposure frame output in the signal processing after chip output described in Patent Document 6 is not so much for moving images that are read at high speed due to the problem of the reading speed of a CMOS sensor or the like. I can not use it.

(6)また、ダイナミックレンジの拡大を高輝度側を圧縮して実現する方法は、リニアなレベルでのダイナミックレンジは狭く、高輝度側のリニアリティが悪く、階調が充分とれず、画質が悪いことが考えられる。できる限り人間の目の特性に合ったリニアリティを実現することが望ましい。   (6) In addition, the method for realizing the expansion of the dynamic range by compressing the high luminance side has a narrow dynamic range at a linear level, poor linearity on the high luminance side, insufficient gradation, and poor image quality. It is possible. It is desirable to achieve linearity that matches the characteristics of the human eye as much as possible.

(7)特許文献7記載の撮像装置は、ダイナミックレンジ(飽和せずに信号を取り出せる光の強さの範囲)を拡大するために、蓄積飽和量又は蓄積期間を変えた画像を合成するため、リニアリティが良くない。   (7) The imaging device described in Patent Document 7 synthesizes an image in which the accumulation saturation amount or the accumulation period is changed in order to expand the dynamic range (the range of the intensity of light that can be extracted without saturation). The linearity is not good.

本発明は以上の点に鑑みなされたもので、CMOSセンサ等の固体撮像素子で多チャンネル読み出し方法を用いて、撮像素子の蓄積期間を動的に変更することなく、できる限り人間の目の特性に合ったリニアリティの実現とダイナミックレンジの拡大とをなし得る撮像装置を提供することを目的とする。   The present invention has been made in view of the above points, and by using a multi-channel readout method with a solid-state imaging device such as a CMOS sensor, the characteristics of the human eye as much as possible without dynamically changing the accumulation period of the imaging device. It is an object of the present invention to provide an imaging apparatus capable of realizing linearity suitable for the above and expanding the dynamic range.

上記の目的を達成するため、本発明は、各々光電変換手段を備えた画素が複数規則正しく配列された固体撮像素子を用いた撮像装置において、
複数の画素のうち列方向に配列された画素毎に設けられており、規格で定められた既存の1フレーム期間の1/N倍(Nは2以上の整数)の露光期間で露光させた固体撮像素子の列方向に配列された画素のうち同時に読み出された複数の画素からの撮像信号に対して、1水平期間内で複数回相関二重サンプリング動作を行い、その動作後の撮像信号を既存の1フレーム期間内でN回、複数の水平信号線に出力する多チャンネル出力手段と、多チャンネル出力手段からN回出力された撮像信号を、デジタル信号の画像データに変換後に記憶する第1の記憶手段と、第1の記憶手段から読み出した画像データのうち、各画素の信号毎に加算係数を乗算した後加算合成して、既存の1フレーム期間における画像信号として出力する加算手段と、第1の記憶手段から読み出した画像データの信号レベルを各画素毎に判定し、その信号レベルに応じて加算手段における加算係数を可変制御する加算係数制御手段と、を有することを特徴とする。
In order to achieve the above object, the present invention provides an imaging apparatus using a solid-state imaging device in which a plurality of pixels each having a photoelectric conversion means are regularly arranged.
It is provided for each pixel arranged in the column direction among a plurality of pixels, and is a solid exposed in an exposure period of 1 / N times (N is an integer of 2 or more) of an existing one frame period defined by the standard A correlated double sampling operation is performed a plurality of times within one horizontal period for image signals from a plurality of pixels that are simultaneously read out of pixels arranged in the column direction of the image sensor, and the image signals after the operation are obtained. First, the multi-channel output means for outputting to a plurality of horizontal signal lines N times within an existing frame period, and the imaging signal output N times from the multi-channel output means are stored after being converted into digital signal image data. And adding means for multiplying and adding an addition coefficient for each pixel signal in the image data read out from the first storage means and outputting as an image signal in an existing one frame period; First The signal level of the image data read from the storage means to determine for each pixel, to an addition coefficient control means for variably controlling the addition coefficient in the adding means in response to the signal level, characterized in that it has a.

この発明では、固体撮像素子内の画素の蓄積期間を動的に変更することなく、第1の記憶手段に蓄積された複数の画像データを加算することでダイナミックレンジを拡大することができる。また、この発明では、複数フレーム間で同一画素の信号が全く変化しない場合と変化する場合で、重み付けを変えることが可能である。   In this invention, the dynamic range can be expanded by adding a plurality of image data stored in the first storage means without dynamically changing the storage period of the pixels in the solid-state imaging device. Further, according to the present invention, the weighting can be changed depending on whether the signal of the same pixel does not change at all between a plurality of frames.

また、上記の目的を達成するため、本発明は、設定したタイミングで固体撮像素子への入射光を遮断した状態における固体撮像素子の全画素から出力された1フレーム分の撮像信号を遮光時画像データとして記憶する第2の記憶手段と、加算手段による加算合成動作の前に、第1の記憶手段から読み出した画像データから、第2の記憶手段から読み出した遮光時画像データを減算し、その減算後の画像データを、加算手段で利用させるために第1の記憶手段に再度記憶させる減算手段と、を更に有することを特徴とする。この発明では、加算手段により加算する第1の記憶手段に記憶した画像データを、加算前に画素毎の特性バラツキによる固定パターンノイズ(FPN)を低減したデータとすることができる。   Further, in order to achieve the above object, the present invention is configured to capture an image signal for one frame output from all pixels of the solid-state image sensor in a state in which incident light to the solid-state image sensor is blocked at a set timing. Subtracting the light-shielded image data read from the second storage means from the second storage means stored as data and the image data read from the first storage means before the adding and combining operation by the adding means, Subtracting means for storing the subtracted image data again in the first storage means for use by the adding means is further provided. In the present invention, the image data stored in the first storage means to be added by the adding means can be made data with reduced fixed pattern noise (FPN) due to characteristic variation for each pixel before addition.

本発明によれば、画素の蓄積期間を動的に変更することなく、できる限り人間の目の特性に合ったリニアリティの実現とダイナミックレンジの拡大ができる。また、本発明によれば、光信号の時間的変動に対して、より自然にダイナミックレンジを変化させることができる。   According to the present invention, linearity matching the characteristics of the human eye and expansion of the dynamic range can be achieved as much as possible without dynamically changing the pixel accumulation period. Further, according to the present invention, the dynamic range can be changed more naturally with respect to the temporal variation of the optical signal.

本発明は、前記した目的を達成するため、CMOS(Complementary Metal-Oxide Semiconductor)型撮像素子(以下、CMOSセンサ)等の固体撮像素子から画素部のフォトダイオード(PD)で保持できる飽和電荷量より多くの信号を取り出す読み出し方法により、画質の劣化を極力抑え、ダイナミックレンジを拡大するものである。この画質の劣化を極力抑え、ダイナミックレンジを拡大するために、本発明は以下のようにする。   In order to achieve the above-described object, the present invention is based on a saturation charge amount that can be held by a photodiode (PD) in a pixel portion from a solid-state image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) image sensor (hereinafter referred to as a CMOS sensor). A readout method that extracts many signals suppresses deterioration of image quality as much as possible and expands the dynamic range. In order to suppress the deterioration of the image quality as much as possible and expand the dynamic range, the present invention is as follows.

第一に、画素部では出来る限りPDの面積が大きくできるように余計な回路や配線等を入れない。PDの面積を大きくすることで、PDで蓄積できる飽和電荷量を増やすことができ、これによりダイナミックレンジとS/Nが向上する。   First, in the pixel portion, an extra circuit or wiring is not included so that the area of the PD can be increased as much as possible. By increasing the area of the PD, the amount of saturation charge that can be accumulated in the PD can be increased, thereby improving the dynamic range and S / N.

第二に、センサチップ外で露光タイミングの異なる信号を加算する場合は、加算するデータに時間的な差が発生するが、PDで飽和しない信号を用いることでダイナミックレンジを拡大する。   Second, when signals having different exposure timings are added outside the sensor chip, a time difference occurs in the data to be added, but the dynamic range is expanded by using a signal that does not saturate in the PD.

第三に、画質上問題となるS/Nの低下や色調のずれを発生せずに、直線性の良いダイナミックレンジの拡大を行うために、露光時間を短縮し、PDへ蓄積できる電荷量を増加させ、取り出した信号を加算する。   Thirdly, in order to expand the dynamic range with good linearity without causing a decrease in S / N or color tone, which is a problem in image quality, the exposure time is shortened and the amount of charge that can be accumulated in the PD is reduced. Increase and add the extracted signals.

第四に、画素部からの信号読み出しは高速に行う。本発明では、消費電力、プロセスルール(コスト)の点を考慮して、画素部に対して多チャンネル読み出しにより高速読み出しを行う。   Fourth, signal readout from the pixel unit is performed at high speed. In the present invention, in consideration of power consumption and process rules (cost), high-speed reading is performed on the pixel portion by multi-channel reading.

そこで、次に、本発明において必須である多チャンネル読み出しについて説明する。多チャンネル読み出しを説明するために、まず、一般的なCMOSセンサの1チャンネル読み出しについて説明する。図12は、一般的なCMOSセンサの1チャンネル読み出し構成を示す。   Then, next, multi-channel reading which is essential in the present invention will be described. In order to explain multi-channel reading, first, one-channel reading of a general CMOS sensor will be described. FIG. 12 shows a one-channel readout configuration of a general CMOS sensor.

同図において、CMOSセンサ60は、光電変換手段であるフォトダイオード(PD)と複数のトランジスタとからなる画素が、複数個2次元マトリクス状に配置された公知の構成の画素部61と、画素部61の任意の画素を選択する垂直駆動部62及び水平駆動部64と、選択された水平ラインの画素毎に信号が供給されるCDS回路(相関二重サンプリング回路)63と、CDS回路63から出力される信号を増幅して画素毎に出力する増幅器(AMP)65と、を有して構成される。   In the figure, a CMOS sensor 60 includes a pixel unit 61 having a known configuration in which a plurality of pixels each including a photodiode (PD), which is a photoelectric conversion means, and a plurality of transistors are arranged in a two-dimensional matrix, and a pixel unit. A vertical driving unit 62 and a horizontal driving unit 64 for selecting any one of 61 pixels, a CDS circuit (correlated double sampling circuit) 63 to which a signal is supplied for each pixel of the selected horizontal line, and an output from the CDS circuit 63 And an amplifier (AMP) 65 that amplifies the output signal and outputs it for each pixel.

CDS回路63は、垂直方向(カラム方向)に配列された画素毎に設けられて水平方向の画素数分あり、垂直駆動部62で選択された水平1ライン分の画素から出力される信号に対して、固定パターンノイズを抑圧する処理を実行し保持した後、その信号を1ライン分連続して読み出す。   The CDS circuit 63 is provided for each pixel arranged in the vertical direction (column direction), and has the number of pixels in the horizontal direction. In response to a signal output from the pixels for one horizontal line selected by the vertical driving unit 62 Then, after executing and holding the process of suppressing the fixed pattern noise, the signal is read continuously for one line.

図13(A)〜(J)は、図12の各部のタイミングチャートを示す。垂直駆動部62及び水平駆動部64をシフトレジスタを用いて構成し、それぞれのシフトレジスタに駆動用スタートパルス(図13(A)、(F))を入力する。垂直駆動部62は、入力スタートパルスをシフトすることで、水平ラインを1ラインずつ選択する(図13(B)〜(D))。水平駆動部64は、垂直駆動部62の1水平ライン選択時(つまり1水平期間)に水平駆動用スタートパルス(図13(F))を入力し、それを水平画素数分(水平カラム数分)シフトする(図13(G)〜(I))。このシフト出力パルスは各カラム毎にあるCDS回路63の出力をスイッチ等で選択する。CDS回路63から出力された信号は、AMP65を通して図13(J)に示す如き信号とされて出力される。   13A to 13J are timing charts of the respective units in FIG. The vertical drive unit 62 and the horizontal drive unit 64 are configured using shift registers, and drive start pulses (FIGS. 13A and 13F) are input to the respective shift registers. The vertical drive unit 62 selects the horizontal lines line by line by shifting the input start pulse (FIGS. 13B to 13D). The horizontal driving unit 64 inputs a horizontal driving start pulse (FIG. 13F) when one vertical line is selected by the vertical driving unit 62 (that is, one horizontal period), and the horizontal driving unit 64 outputs it for the number of horizontal pixels (for the number of horizontal columns). ) Shift (FIGS. 13G to 13I). This shift output pulse selects the output of the CDS circuit 63 for each column with a switch or the like. The signal output from the CDS circuit 63 is output as a signal as shown in FIG.

この水平駆動スタート前にCDS回路63にて画素からの信号読み出しと画素リセット後のリセット信号を読み出し、CDS動作を行っている。このCDS動作は、図13(E)に模式的に示される。この水平駆動の周期が、出力データレートfhである。1チャンネル読み出しの場合は、全画素を読み出すのに必要なスピードは以下の(1)式で表される。ただし、水平方向の画素数をh個、垂直方向の画素数をv個とし、1秒間の読み出し枚数をm枚とする。またCDS等の1水平期間あたりの読み出し以外の時間をx[s]とする。   Prior to the start of horizontal driving, the CDS circuit 63 reads out signals from the pixels and reset signals after pixel reset to perform CDS operation. This CDS operation is schematically shown in FIG. The horizontal driving cycle is the output data rate fh. In the case of 1-channel reading, the speed required to read all pixels is expressed by the following equation (1). However, the number of pixels in the horizontal direction is h, the number of pixels in the vertical direction is v, and the number of readouts per second is m. Also, let x [s] be the time other than reading per horizontal period such as CDS.

Figure 2009239398
次に、多チャンネル読み出しの例について図14〜図17と共に説明する。図14は、CMOSセンサの2チャンネル読み出しの構成例のブロック図、図16は、CMOSセンサの4チャンネル読み出しの構成例のブロック図である。基本的な動作は図12の1チャンネル読み出しと同様である。
Figure 2009239398
Next, an example of multi-channel reading will be described with reference to FIGS. FIG. 14 is a block diagram of a configuration example of 2-channel readout of the CMOS sensor, and FIG. 16 is a block diagram of a configuration example of 4-channel readout of the CMOS sensor. The basic operation is the same as the one-channel reading in FIG.

図14において、CMOSセンサ70は、PDと複数のトランジスタとからなる画素が、複数個2次元マトリクス状に配置された公知の構成の画素部71と、画素部71の任意の画素を選択する水平駆動部72、73、及び垂直駆動部74と、選択された水平ラインの画素毎に信号が供給されるCDS回路75及び76と、CDS回路75、76から出力される信号を増幅して画素毎に出力する増幅器(AMP)77及び78と、を有して構成される。   In FIG. 14, a CMOS sensor 70 includes a pixel unit 71 having a known configuration in which a plurality of pixels including a PD and a plurality of transistors are arranged in a two-dimensional matrix, and a horizontal for selecting an arbitrary pixel in the pixel unit 71. The drive units 72 and 73, the vertical drive unit 74, the CDS circuits 75 and 76 to which signals are supplied for each pixel of the selected horizontal line, and the signals output from the CDS circuits 75 and 76 are amplified for each pixel. And amplifiers (AMP) 77 and 78 for outputting to the circuit.

図14に示す2チャンネル読み出しの場合は、画素部71の上下にCDS回路75と76とを配置し、画素部71の出力信号に対してCDS動作を行う。この場合は1カラム毎に上下にCDS回路75、76を分割配置している。よって、CDS回路75、76は、それぞれ水平画素数の1/2の回路数となる。   In the case of 2-channel reading shown in FIG. 14, CDS circuits 75 and 76 are arranged above and below the pixel portion 71, and a CDS operation is performed on the output signal of the pixel portion 71. In this case, the CDS circuits 75 and 76 are divided and arranged on the upper and lower sides for each column. Therefore, the number of CDS circuits 75 and 76 is half the number of horizontal pixels.

図15(A)〜(K)は、図14の各部のタイミングチャートを示す。垂直駆動部74及び水平駆動部72、73をシフトレジスタを用いて構成し、それぞれのシフトレジスタに駆動用スタートパルス(図15(A)、(F))を入力する。垂直駆動部74は、入力スタートパルスをシフトすることで、水平ラインを1ラインずつ選択する(図15(B)〜(D))。水平駆動部72、73は、垂直駆動部74の1水平ライン選択時(つまり1水平期間)に水平駆動用スタートパルス(図15(F))を入力し、それを水平画素数分(水平カラム数分)シフトする(図15(G)〜(I))。このシフト出力パルスは各カラム毎にあるCDS回路75、76の出力をスイッチ等で同時に選択する。   FIGS. 15A to 15K are timing charts of the respective units in FIG. The vertical drive unit 74 and the horizontal drive units 72 and 73 are configured using shift registers, and drive start pulses (FIGS. 15A and 15F) are input to the respective shift registers. The vertical drive unit 74 shifts the input start pulse to select the horizontal lines line by line (FIGS. 15B to 15D). The horizontal driving units 72 and 73 input a horizontal driving start pulse (FIG. 15F) when one vertical line is selected by the vertical driving unit 74 (that is, one horizontal period), and the horizontal driving units 72 and 73 are inputted for the number of horizontal pixels (horizontal column). It shifts by several minutes (FIGS. 15G to 15I). This shift output pulse simultaneously selects the outputs of the CDS circuits 75 and 76 for each column with a switch or the like.

すなわち、CDS回路75及び76は、水平方向2画素からの信号に対して同時に図15(E)に模式的に示すようにCDS動作を行い、そのCDS動作後の信号を水平駆動部72、73で選択して信号出力する。CDS回路75、76からそれぞれ出力された信号は、AMP77、78を通して図15(J)、(K)に示す如く信号とされて並列に2チャンネル同時に出力される。   That is, the CDS circuits 75 and 76 simultaneously perform the CDS operation on the signals from the two pixels in the horizontal direction as schematically shown in FIG. 15E, and use the signals after the CDS operation as the horizontal drive units 72 and 73. Select with to output the signal. The signals output from the CDS circuits 75 and 76 are converted into signals as shown in FIGS. 15J and 15K through the AMPs 77 and 78, and two channels are simultaneously output in parallel.

この2チャンネル読み出しでは、水平2画素を同時に処理する事になるので、それぞれのチャンネルの出力データレートfhは以下の(2)式で表される。ただし、水平方向の画素数をh個、垂直方向の画素数をv個とし、1秒間の読み出し枚数をm枚とする。またCDS回路の1H(1水平期間)あたりの読み出し以外の時間をx[s]とする。   In this two-channel reading, two horizontal pixels are processed simultaneously, so the output data rate fh of each channel is expressed by the following equation (2). However, the number of pixels in the horizontal direction is h, the number of pixels in the vertical direction is v, and the number of readouts per second is m. Also, let x [s] be a time other than reading per 1H (one horizontal period) of the CDS circuit.

Figure 2009239398
(2)式と(1)式とを比較すると分かるように、(2)式の方がチャンネルが増えた分、出力データレートを下げる事ができる。
Figure 2009239398
As can be seen from the comparison between the formula (2) and the formula (1), the output data rate can be lowered in the formula (2) because the number of channels is increased.

次に、図16に示す4チャンネル読み出し方法について説明する。図16において、CMOSセンサ80は、PDと複数のトランジスタとからなる画素が、複数個2次元マトリクス状に配置された公知の構成の画素部81と、画素部81の任意の画素を選択する水平駆動部82、83、及び垂直駆動部84と、選択された水平ラインの画素毎に信号が供給されるCDS回路85〜85と、CDS回路85〜85から出力される信号を増幅して画素毎に出力する増幅器(AMP)86〜86と、を有して構成される。 Next, the 4-channel reading method shown in FIG. 16 will be described. In FIG. 16, the CMOS sensor 80 includes a pixel unit 81 having a known configuration in which a plurality of pixels including a PD and a plurality of transistors are arranged in a two-dimensional matrix, and a horizontal for selecting an arbitrary pixel in the pixel unit 81. amplifier driving unit 82, 83, and a vertical driving unit 84, a CDS circuit 85 1 to 85 4 which signal is supplied to each pixel of the selected horizontal line, a signal output from the CDS circuit 85 1 to 85 4 configured to include an amplifier (AMP) 86 1 ~86 4 to be output to each pixel, a and.

図16に示す4チャンネル読み出しの場合は、水平4画素P1、P2、P3、P4を、画素部81の上下に配置したCDS回路85〜85でCDS動作を同時に行い、水平駆動部82及び83で4チャンネル出力にする場合である。読み出しを4チャンネルに分けるため、CDS回路を4チャンネルに分けているが、CDS回路85〜85全体の回路部数は水平画素数分あればよいため、CDS回路85〜85のそれぞれの内部の回路部数cは水平方向の画素数をh個とすると
c=h/4 (3)
となる。
In the case of the 4-channel reading shown in FIG. 16, the CDS operation is simultaneously performed by the CDS circuits 85 1 to 85 4 in which the horizontal four pixels P1, P2, P3, and P4 are arranged above and below the pixel unit 81, and the horizontal drive unit 82 and This is a case of 83 for 4-channel output. In order to divide readout into 4 channels, the CDS circuit is divided into 4 channels. However, since the entire number of circuit portions of the CDS circuits 85 1 to 85 4 is equal to the number of horizontal pixels, each of the CDS circuits 85 1 to 85 4 The number of internal circuit sections c is assumed to be h in the horizontal direction.
c = h / 4 (3)
It becomes.

図17(A)〜(M)は、図16の各部のタイミングチャートを示す。垂直駆動部84及び水平駆動部82、83をシフトレジスタを用いて構成し、それぞれのシフトレジスタに駆動用スタートパルス(図17(A)、(F))を入力する。垂直駆動部84は、入力スタートパルスをシフトすることで、水平ラインを1ラインずつ選択する(図17(B)〜(D))。水平駆動部82、83は、垂直駆動部84の1水平ライン選択時(つまり1水平期間)に水平駆動用スタートパルス(図17(F))を入力し、それを水平画素数分(水平カラム数分)シフトする(図17(G)〜(I))。このシフト出力パルスは各カラム毎にあるCDS回路85〜85の出力をスイッチ等で同時に選択する。 FIGS. 17A to 17M are timing charts of the respective units in FIG. The vertical drive unit 84 and the horizontal drive units 82 and 83 are configured using shift registers, and drive start pulses (FIGS. 17A and 17F) are input to the respective shift registers. The vertical drive unit 84 selects the horizontal lines line by line by shifting the input start pulse (FIGS. 17B to 17D). The horizontal driving units 82 and 83 receive a horizontal driving start pulse (FIG. 17F) when one vertical line is selected by the vertical driving unit 84 (that is, one horizontal period), and the horizontal driving units 82 and 83 input the horizontal driving start pulse (horizontal column). It shifts (several minutes) (FIGS. 17G to 17I). This shift output pulse simultaneously selects the outputs of the CDS circuits 85 1 to 85 4 for each column using a switch or the like.

すなわち、CDS回路85〜85は、P1〜P4等の水平方向4画素の出力に対して同時に図17(E)に模式的に示すようにCDS動作を行い、そのCDS動作後の信号を水平駆動部82、83で選択して信号出力する。CDS回路85〜85からそれぞれ出力された信号は、AMP86〜86を通して図17(J)〜(M)に示す如く信号とされて並列に4チャンネル同時に出力される。 That is, the CDS circuits 85 1 to 85 4 simultaneously perform the CDS operation on the outputs of the four pixels in the horizontal direction such as P1 to P4 as schematically shown in FIG. The signals are selected by the horizontal drive units 82 and 83 and output. Signals respectively outputted from the CDS circuit 85 1 to 85 4 is outputted FIG 17 (J) ~ (M) signal as shown in the are parallel to the four channels simultaneously through AMP86 1 ~86 4.

この4チャンネル読み出しでは、水平4画素を同時に処理する事になるので、それぞれのチャンネルの出力データレートfhは以下の(4)式で表される。ただし、水平方向の画素数をh個、垂直方向の画素数をv個とし、1秒間の読み出し枚数をm枚とする。またCDS回路の1Hあたりの読み出し以外の時間をx[s]とする。   In this 4-channel reading, four horizontal pixels are processed simultaneously, so the output data rate fh of each channel is expressed by the following equation (4). However, the number of pixels in the horizontal direction is h, the number of pixels in the vertical direction is v, and the number of readouts per second is m. Also, let x [s] be the time other than the reading per 1H of the CDS circuit.

Figure 2009239398
(4)式と(1)式、(2)式とを比較すると分かるように、(4)式の方がチャンネルが増えた分、出力データレートを下げる事ができる。
Figure 2009239398
As can be seen from the comparison between the expression (4), the expression (1), and the expression (2), the output data rate can be lowered in the expression (4) because the number of channels is increased.

次に、本発明の概略構成について説明する。図1は、本発明になる撮像装置の概略構成図を示す。撮像装置10は、固体撮像素子であるCMOSセンサを構成するセンサチップ11と、センサチップ11から出力されたアナログ信号である撮像信号に対して所定の信号処理を行うアナログ・フロント・エンド(AFE)及びA/D変換器(ADC)12と、複数のフレーム信号をそれぞれ記憶する複数のフレームメモリ13と、フレームメモリ13からの信号を加算した後フレームメモリ13に書き戻すフレーム加算回路14と、ピクセル信号レベル判定コンパレータ15と、色復調等カメラシステム16と、を有して構成されている。   Next, a schematic configuration of the present invention will be described. FIG. 1 is a schematic configuration diagram of an imaging apparatus according to the present invention. The imaging device 10 includes a sensor chip 11 that constitutes a CMOS sensor that is a solid-state imaging device, and an analog front end (AFE) that performs predetermined signal processing on an imaging signal that is an analog signal output from the sensor chip 11. And an A / D converter (ADC) 12, a plurality of frame memories 13 for storing a plurality of frame signals, a frame addition circuit 14 for adding the signals from the frame memory 13 and writing them back to the frame memory 13, and a pixel A signal level determination comparator 15 and a camera system 16 such as a color demodulator are provided.

図2はセンサチップ11の一例の構成のブロック図を示す。センサチップ11は、光電変換手段であるフォトダイオードと、リセットトランジスタや出力トランジスタなど複数のトランジスタとを有する画素が、複数個2次元マトリクス状に配置された公知の構成の画素部111と、画素部111のうち上半分の領域の各画素を水平方向に駆動する水平駆動部112aと、画素部111のうち下半分の領域の各画素を水平方向に駆動する水平駆動部112bと、画素部111を垂直方向に1ラインずつ順次駆動する垂直駆動部113と、画素部111に接続された全部で2k(=n)個のCDS回路(相関二重サンプリング回路)1141〜1142kと、CDS回路1141〜1142kの各出力信号を別々に増幅する全部で2k個の増幅器(AMP)1151〜1152kと、を有して構成されている。CDS回路1141〜114kは、画素部111の列方向(カラム方向)に配置された画素毎に接続されており、画素部111で発生する固定パターンノイズを抑圧する。このセンサチップ11は、図2に示すようにn個のAMP1151〜1152kのうちのp個(2≦p<n)から信号を並列に出力するpチャンネル同時読み出しを行う。 FIG. 2 shows a block diagram of an exemplary configuration of the sensor chip 11. The sensor chip 11 includes a pixel unit 111 having a known configuration in which a plurality of pixels each including a photodiode as a photoelectric conversion unit and a plurality of transistors such as a reset transistor and an output transistor are arranged in a two-dimensional matrix, and a pixel unit A horizontal driving unit 112a that drives each pixel in the upper half region of the pixel 111 in the horizontal direction, a horizontal driving unit 112b that drives each pixel in the lower half region of the pixel unit 111 in the horizontal direction, and a pixel unit 111 a vertical driving unit 113 for sequentially driving each line in the vertical direction, in 2k (= n) pieces of the CDS circuit (correlated double sampling circuit) all connected to the pixel portion 111 and 114 1 to 114 2k, CDS circuit 114 It is configured to include the the 2k amplifier (AMP) 115 1 ~115 2k total, the amplifying each output signal of 1 to 114 2k separately The CDS circuits 114 1 to 114 k are connected to each pixel arranged in the column direction (column direction) of the pixel unit 111 and suppress fixed pattern noise generated in the pixel unit 111. As shown in FIG. 2, the sensor chip 11 performs p-channel simultaneous readout for outputting signals in parallel from p (2 ≦ p <n) of n AMPs 115 1 to 115 2k .

次に、この撮像装置の動作について図3のタイミングチャートと共に説明する。図2のセンサチップ11において、垂直駆動部113及び水平駆動部112a、112bはシフトレジスタを用いて構成されており、それぞれのシフトレジスタに駆動用スタートパルス(図3(A)、(F))を入力する。垂直駆動部113は、入力スタートパルスをシフトすることで、水平ラインを1ラインずつ選択する(図3(B)〜(D))。   Next, the operation of this imaging apparatus will be described with reference to the timing chart of FIG. In the sensor chip 11 of FIG. 2, the vertical drive unit 113 and the horizontal drive units 112a and 112b are configured using shift registers, and drive start pulses (FIGS. 3A and 3F) are supplied to the respective shift registers. Enter. The vertical drive unit 113 selects the horizontal lines line by line by shifting the input start pulse (FIGS. 3B to 3D).

水平駆動部112a、112bは、垂直駆動部113の1水平ライン選択時(つまり1水平期間)に水平駆動用スタートパルス(図3(F))を入力し、それを水平画素数分シフトする(図3(G)、(H))。このシフト出力パルスは各カラム毎にあるCDS回路114〜1142kのうちp個のCDS回路毎に出力をスイッチ等で同時に選択する。 The horizontal driving units 112a and 112b receive a horizontal driving start pulse (FIG. 3F) when one vertical line is selected by the vertical driving unit 113 (that is, one horizontal period), and shift it by the number of horizontal pixels (see FIG. 3F). FIG. 3 (G), (H)). This shift output pulse simultaneously selects an output for every p CDS circuits among the CDS circuits 114 1 to 114 2k in each column by a switch or the like.

すなわち、CDS回路114〜1142kのうち、同時に読み出しを行うpラインの同じ列方向にあるp個の画素からの信号が供給されるp個のCDS回路に対して、図3(E)に模式的に示すように、1水平期間の初めで1回当たり水平方向n/p画素単位の信号に対してCDS動作を行い、そのCDS動作後の信号を保持する。各水平期間毎に上記の動作を繰り返して、水平方向の全ての画素からの信号に対してCDS動作を行うと、次のpラインの同じ列方向にあるp個の画素からの信号が供給されるp個のCDS回路に対して、上記と同様の動作を行う。 That is, among the CDS circuits 114 1 to 114 2k , FIG. 3E illustrates the p CDS circuits to which signals from p pixels in the same column direction of the p lines that are simultaneously read are supplied. As schematically shown, a CDS operation is performed on a signal in units of n / p pixels in the horizontal direction at the beginning of one horizontal period, and the signal after the CDS operation is held. When the above operation is repeated for each horizontal period and the CDS operation is performed on signals from all the pixels in the horizontal direction, signals from p pixels in the same column direction of the next p line are supplied. The same operation as described above is performed on the p CDS circuits.

このようにして、垂直方向に対しても全ラインの画素に対してCDS動作が終わると、CDS回路114〜1142kに保持された信号は、水平駆動部112a、112bの選択により出力され、AMP115〜1152kを通して図3(I)〜(K)に示す如く信号とされて並列にnチャンネル同時に出力される。この例の場合の水平駆動画素単位jは、次式で表される。 In this way, when the CDS operation is completed for the pixels on all the lines in the vertical direction, the signals held in the CDS circuits 114 1 to 114 2k are output by the selection of the horizontal driving units 112a and 112b, Through AMPs 115 1 to 115 2k, signals are output as shown in FIGS. 3I to 3K, and n channels are simultaneously output in parallel. The horizontal drive pixel unit j in this example is represented by the following equation.

j=n/p (5)
図1に戻って説明する。センサチップ11からnチャンネル出力されたアナログ信号である撮像信号は、AFE・ADC12に供給されて所定の信号処理が施された後デジタル信号に変換されて、フレームメモリ13に供給されて蓄積される。この撮像装置では、これを一般に規定された(通常の)フレーム時間より高速に行い、通常の1フレーム時間内に複数枚のフレーム信号を読み出す。
j = n / p (5)
Returning to FIG. An imaging signal that is an analog signal output from the sensor chip 11 as an n channel is supplied to the AFE / ADC 12 and subjected to predetermined signal processing, converted into a digital signal, supplied to the frame memory 13, and stored. . In this imaging apparatus, this is performed at a speed higher than a generally defined (normal) frame time, and a plurality of frame signals are read out within a normal one frame time.

勿論、読み出すフレーム時間に合わせて、センサチップ11の画素を構成するPDへの露光時間も通常の1フレーム時間より短くする。通常の1フレームに相当する時間でセンサチップ11から読み出されたフレーム数をN枚とすると、このN枚のフレームの画像データは、N個のフレームメモリ13のそれぞれで蓄積される。   Of course, the exposure time for the PD constituting the pixels of the sensor chip 11 is also made shorter than the normal one frame time in accordance with the frame time for reading. Assuming that the number of frames read from the sensor chip 11 in a time corresponding to one normal frame is N, the image data of the N frames is stored in each of the N frame memories 13.

ここで、読み出すフレーム時間に合わせて、上記PDへの露光時間を従来の1/N倍にすると、上記PDに入射できる光の強度をN倍にしても、上記PDに蓄積できる電荷量は同じになる。また、図1の撮像装置では、露光時間を1/N倍にしてその露光時間内に全ての画素(1フレーム)の信号を出力するため、一般に規定された1フレームの時間で上記PDに蓄積できる電荷量も従来のN倍となる。よって、ダイナミックレンジはNの2乗倍となる。   Here, if the exposure time to the PD is set to 1 / N times the conventional frame time to read out, the amount of charge that can be accumulated in the PD is the same even if the intensity of light that can be incident on the PD is N times. become. Further, in the image pickup apparatus of FIG. 1, since the exposure time is multiplied by 1 / N and the signals of all the pixels (one frame) are output within the exposure time, it is generally stored in the PD in the time of one frame specified. The amount of charge that can be produced is also N times that of the prior art. Therefore, the dynamic range is N squared.

つまり、撮像装置10では、従来の露光時間T1を1/N倍にしてそれをN回(Nフレーム)読み出す。勿論、露光と読み出しを並行して行うため、トータルの露光時間T1内にNフレームのデータを読み出す事が可能である。これにより、センサチップ11の画素を構成するPDの飽和電荷量がm個とすると、このシステム動作時の飽和電荷量Mmaxは擬似的に次式で表される。   That is, in the imaging apparatus 10, the conventional exposure time T1 is multiplied by 1 / N and read out N times (N frames). Of course, since exposure and reading are performed in parallel, it is possible to read N frames of data within the total exposure time T1. As a result, assuming that the saturation charge amount of the PD constituting the pixel of the sensor chip 11 is m, the saturation charge amount Mmax during the system operation is expressed by the following equation in a pseudo manner.

Mmax=m×N (6)
ここで、図1に示した撮像装置10の出力データレートfhは、nチャンネル出力としているので、次式で表される。ただし、垂直方向の選択ライン数(1H内でCDSのタイミングがずれている場合)をp本、水平方向の画素数をh個、垂直方向の画素数をv個、1秒間の読み出し枚数をN枚とする。またCDS回路他の1Hあたりの読み出し以外の時間をx[s]とする。
Mmax = m × N (6)
Here, since the output data rate fh of the imaging apparatus 10 shown in FIG. 1 is an n-channel output, it is expressed by the following equation. However, the number of selected lines in the vertical direction (when the CDS timing is shifted within 1H) is p, the number of pixels in the horizontal direction is h, the number of pixels in the vertical direction is v, and the number of readouts per second is N. A sheet. Also, let x [s] be the time other than the reading per 1H of the CDS circuit and the like.

Figure 2009239398
これにより、チャンネル数を増やせば増やすほどデータレートを下げることができる。このfhを従来の値の10分の1にできればほぼ10倍のフレームを読み出せることになる。実際は6倍程度のフレームレートにて読み出すことで約23.3dBのダイナミックレンジの拡大が可能となるため、この程度のフレームレートアップを行うのが現実的である。
Figure 2009239398
Thus, the data rate can be lowered as the number of channels is increased. If this fh can be reduced to 1/10 of the conventional value, almost 10 times as many frames can be read. Actually, since the dynamic range of about 23.3 dB can be expanded by reading at a frame rate of about 6 times, it is practical to increase the frame rate to this extent.

再び図1に戻って説明する。フレーム加算回路14はフレームメモリ13から読み出した複数の信号を加算して、1フレーム分の信号を作成する。これにより、ダイナミックレンジは最大でNの2乗倍にすることができる。   Returning again to FIG. The frame addition circuit 14 adds a plurality of signals read from the frame memory 13 to create a signal for one frame. As a result, the dynamic range can be increased to a square of N at the maximum.

ここで、ピクセル信号レベル判定コンパレータ15は、フレームメモリ13から読み出した信号レベルを画素毎に判定し、その判定結果に基づいて、フレーム加算回路14におけるフレーム加算の枚数と重み付け等をフレーム加算回路32で変更する。これにより、最適なダイナミックレンジでの良質な画像を作成することができる。   Here, the pixel signal level determination comparator 15 determines the signal level read from the frame memory 13 for each pixel, and based on the determination result, the frame addition circuit 32 determines the number of frames added, the weighting, and the like in the frame addition circuit 14. Change with. This makes it possible to create a high-quality image with an optimal dynamic range.

すなわち、フレームメモリ13には、従来の露光時間T1を1/N倍にしてそれをN回(Nフレーム)センサチップ11から読み出した画像データが蓄積されるため、画素毎に信号レベルを判定して、加算レベル(枚数)を変えることができる。そのため、ピクセル信号レベル判定コンパレータ15は、フレームメモリ13から読み出した画像データの信号レベルが小さい場合は、フレーム加算回路14におけるフレーム加算枚数を増やす事で信号を増加してノイズを抑圧し、また信号レベルが大きい場合はフレーム加算回路14におけるフレーム加算枚数を減らして、ダイナミックレンジを拡大し、擬似的に圧縮できる。   That is, the frame memory 13 stores the image data read from the sensor chip 11 N times (N frames) by multiplying the conventional exposure time T1 by 1 / N, so that the signal level is determined for each pixel. Thus, the addition level (number of sheets) can be changed. Therefore, when the signal level of the image data read out from the frame memory 13 is small, the pixel signal level determination comparator 15 increases the signal by increasing the number of frames added in the frame addition circuit 14 and suppresses noise. When the level is large, the number of frames added in the frame addition circuit 14 can be reduced, the dynamic range can be expanded, and pseudo compression can be performed.

フレーム加算回路14におけるフレーム信号加算時の信号レベルSは、例えばN枚のフレーム信号の信号レベルをそれぞれS、S、・・・、Sとし、それらが同一の信号レベルSxとすると次式で表される。 The signal level S at the time of frame signal addition in the frame addition circuit 14 is, for example, when the signal levels of N frame signals are S 1 , S 2 ,..., S N , respectively, and they have the same signal level Sx. It is expressed by a formula.

S=S+S+・・・+S=Sx×N (8)
一方、N枚のフレーム信号を加算して得られる加算信号のノイズレベルNoは、N枚のフレーム信号に含まれるノイズをそれぞれN、N、・・・、NNとし、それらが同一のレベルNxとし、かつ、各ノイズに相関がないとすると次式で表される。
S = S 1 + S 2 +... + S N = Sx × N (8)
On the other hand, the noise level No of the added signal obtained by adding N frame signals is N 1 , N 2 ,..., N N, and the noises included in the N frame signals are the same. If the level is Nx and there is no correlation between the noises, the following expression is obtained.

No=√((N+(N+・・・+(NN)=√N×Nx (9)
従って、信号レベルSはノイズレベルNoよりも増加するのでS/N比は改善される。
No = √ ((N 1 ) 2 + (N 2 ) 2 +... + (N N ) 2 ) = √N × Nx (9)
Therefore, since the signal level S increases from the noise level No, the S / N ratio is improved.

また、リニアリティを確保したままダイナミックレンジを拡大するためには、加算した後で平均を取ることになる。その場合の信号レベルSvarは次式のようになる。   Further, in order to expand the dynamic range while ensuring linearity, an average is taken after addition. The signal level Svar in that case is given by the following equation.

Svar=(S+S+・・・+S)/N (10)
信号毎に重み付けをして加算する場合の信号レベルSwは次式のようになる。
Svar = (S 1 + S 2 +... + S N ) / N (10)
The signal level Sw when weighting and adding each signal is given by the following equation.

Sw=(S×A+S×B+・・・+SN×Z) (11)
ここで(12)式中、A,B,・・・,Zは信号に重み付けをする係数である。これらの係数としては、例えば、作成する1フレームの信号を、ダイナミックレンジを上げる前と同じ範囲に入れる場合は「1」以下の数値が入る。(10)式及び(11)式のいずれの場合もS/Nは改善される。
Sw = (S 1 × A + S 2 × B +... + S N × Z) (11)
In the equation (12), A, B,..., Z are coefficients for weighting the signal. As these coefficients, for example, a numerical value equal to or smaller than “1” is entered when a signal of one frame to be created is included in the same range as before the dynamic range is increased. S / N is improved in both cases of formulas (10) and (11).

また、加算後のダイナミックレンジの拡大は、加算後の1フレーム信号のダイナミックレンジSx×N/(√N×Nx)を、加算前の1フレーム信号のダイナミックレンジSx/Nxで除算することにより得られ、それをdBに変換すると、20×log(√N)となる。実際は、露光時間を1/N倍にしているため、それによるダイナミックレンジの拡大がN倍となるため、最終的にはダイナミックレンジの拡大量DuはdBに換算すると次式で表される。   Further, the expansion of the dynamic range after addition is obtained by dividing the dynamic range Sx × N / (√N × Nx) of one frame signal after addition by the dynamic range Sx / Nx of one frame signal before addition. When converted to dB, 20 × log (√N) is obtained. Actually, since the exposure time is set to 1 / N times, the expansion of the dynamic range thereby becomes N times. Therefore, the amount of expansion of the dynamic range Du is finally expressed by the following equation when converted to dB.

Du=20×log(N×√N) (12)
これにより、例えば20dB程度ダイナミックレンジを上げるためには、4〜5倍高速に読み出す必要がある。この場合、従来の露光時間を短くすることは通常のCMOSセンサで可能であるが、短くした時間内に全ての画素データを読み出す事は難しいため、上記の多チャンネル読み出しが必須となる。
Du = 20 × log (N × √N) (12)
Thus, for example, to increase the dynamic range by about 20 dB, it is necessary to read out 4 to 5 times faster. In this case, the conventional exposure time can be shortened with a normal CMOS sensor. However, since it is difficult to read out all pixel data within the shortened time, the above-described multi-channel readout is indispensable.

図1の撮像装置10では、フレームメモリ13において画素毎に信号レベルをNフレーム分保持しているために、画素毎の最適な信号設定が可能となる。例えば、画素の時間的信号変化が分かるため、信号レベルが増加していく場合と減少していく場合とで加算方法や重み付けの値を変えて画質的に良くすることができる。基本的には図1に示すような構成でダイナミックレンジの拡大が可能となる。なお、フレーム加算後の画像データは、色復調カメラシステム16に供給される。   In the image pickup apparatus 10 of FIG. 1, since the signal level is held for N frames for each pixel in the frame memory 13, optimal signal setting for each pixel is possible. For example, since the temporal signal change of the pixel is known, the addition method and the weighting value can be changed depending on whether the signal level increases or decreases, thereby improving the image quality. Basically, the dynamic range can be expanded with the configuration shown in FIG. The image data after the frame addition is supplied to the color demodulation camera system 16.

次に、本発明の一実施の形態について図4〜図6と共に説明する。   Next, an embodiment of the present invention will be described with reference to FIGS.

図4は、本発明になる撮像装置の一実施の形態のブロック図を示す。本実施の形態の撮像装置20は、図1のセンサチップ11に相当する被写体を撮像して撮像信号を出力するグローバルシャッタ機能を備えたCMOSセンサ21と、図1のAFE・DAC12に相当するゲイン・コントロール・アンプ(GCA)22、DCオフセット調整部23及びADC24と、図1のフレームメモリ13に相当するフレームメモリ25と、図1のフレーム加算回路14に相当する加算器28及び1フレーム加算係数生成器29と、図1のピクセル信号レベル判定コンパレータ15に相当するピクセル信号レベル判定コンパレータ30とを有する。更に、撮像装置20は、暗電流等FPN補正フレームメモリ26、減算器27、及びその他色復調前信号処理部31を有する。   FIG. 4 shows a block diagram of an embodiment of an imaging apparatus according to the present invention. The imaging apparatus 20 according to the present embodiment captures a subject corresponding to the sensor chip 11 in FIG. 1 and outputs a captured signal, and a CMOS sensor 21 having a global shutter function, and a gain corresponding to the AFE / DAC 12 in FIG. A control amplifier (GCA) 22, a DC offset adjustment unit 23 and an ADC 24, a frame memory 25 corresponding to the frame memory 13 in FIG. 1, and an adder 28 and one frame addition coefficient corresponding to the frame addition circuit 14 in FIG. A generator 29 and a pixel signal level determination comparator 30 corresponding to the pixel signal level determination comparator 15 of FIG. Furthermore, the imaging apparatus 20 includes a dark current etc. FPN correction frame memory 26, a subtractor 27, and other pre-color demodulation signal processing unit 31.

次に、本実施の形態の動作について図5及び図6のタイミングチャートを併せ参照して説明する。CMOSセンサ21は、前述した読み出し方法により、CMOSセンサ21に結像された画像を走査方向に分割し、この分割されたカラム毎の画像のそれぞれを、規格で定められた既存の1フレーム期間内で、複数回nチャンネル並列に読み出したアナログ信号である撮像信号を出力する。この時のCMOSセンサ21から出力される撮像信号と、後述するフレームメモリ25への信号書き込みは、図5に示す通常のタイミングに対してこの例では6倍にあたる図6に示す高速動作を行う。   Next, the operation of the present embodiment will be described with reference to the timing charts of FIGS. The CMOS sensor 21 divides the image formed on the CMOS sensor 21 in the scanning direction by the above-described readout method, and each of the divided images for each column is within an existing one frame period defined by the standard. Then, an imaging signal which is an analog signal read out in parallel n times is output a plurality of times. The imaging signal output from the CMOS sensor 21 at this time and the signal writing to the frame memory 25 described later perform the high-speed operation shown in FIG. 6, which is six times the normal timing shown in FIG.

1チャンネル読み出しの従来装置では、図5(A)に示す垂直同期信号VDのハイレベルのパルスから次のハイレベルのパルスまでの期間が、既存の規格で定められた(通常の)1フレーム期間である。また、この通常の1フレーム期間は、図5(B)に示すように露光時間である。また、水平1ラインは、図5(C)、(D)に示す水平同期信号(HD)のハイレベルのパルスから次のハイレベルのパルスまでの期間であり、上記の通常の1フレーム期間内に水平ラインの本数分、撮像信号がCMOSセンサから出力される。   In the conventional apparatus for one-channel reading, the period from the high-level pulse of the vertical synchronization signal VD shown in FIG. 5A to the next high-level pulse is a (normal) one frame period defined by the existing standard. It is. The normal one frame period is an exposure time as shown in FIG. One horizontal line is a period from the high level pulse of the horizontal synchronization signal (HD) shown in FIGS. 5C and 5D to the next high level pulse, and is within the normal one frame period. In addition, imaging signals are output from the CMOS sensor for the number of horizontal lines.

このHDのハイレベルのパルスと次のハイレベルまでの水平期間の1ライン毎に、まず図5(E)に模式的に示すように、CMOSセンサ内のCDS回路によりCDS動作を行い、その後、水平の画素数分読み出し動作(具体的にはカラムCDSの出力信号を選択するためのシフトレジスタ出力をシフトするなど)を行い、この読み出し動作に合わせてCMOSセンサ出力に順次カラム毎の信号が出力される。   For each line of the HD high level pulse and the horizontal period until the next high level, a CDS operation is first performed by the CDS circuit in the CMOS sensor, as schematically shown in FIG. A readout operation is performed for the number of horizontal pixels (specifically, a shift register output for selecting the output signal of the column CDS is shifted), and a signal for each column is sequentially output to the CMOS sensor output in accordance with the readout operation. Is done.

これに対し、本実施の形態ではCMOSセンサ21における、図6(A)、(C)に示す水平同期信号(HD)のハイレベルのパルスから次のハイレベルのパルスまでの1水平期間(1H)を示すHD期間が、図5に示した通常のHDの1/6倍に短縮するようにしているので、図6(D)に示す垂直同期信号VDの1フレーム期間も、通常の1フレーム期間の約1/6倍の期間となる。   In contrast, in the present embodiment, in the CMOS sensor 21, one horizontal period (1H from the high level pulse of the horizontal synchronization signal (HD) shown in FIGS. 6A and 6C to the next high level pulse is shown. ) Is shortened to 1/6 times the normal HD shown in FIG. 5, so that one frame period of the vertical synchronization signal VD shown in FIG. The period is about 1/6 times the period.

一方、読み出し時のCDS動作時間は、従来装置の1チャンネルの場合と、本実施の形態の撮像装置20の多チャンネルで高速読み出しを行う場合と基本的には同じである。また、カラム毎の信号出力を読み出す、水平読み出し動作は1チャンネルも多チャンネルトータルとして同じ時間が必要となる。よって、全画素読み出し時間を通常のそれの1/N倍にするために必要な読み出しチャンネル数は、以下のように計算できる。   On the other hand, the CDS operation time at the time of reading is basically the same as the case of one channel of the conventional device and the case of performing high-speed reading by the multi-channel of the imaging device 20 of the present embodiment. Further, the horizontal read operation for reading the signal output for each column requires the same time for one channel as a multi-channel total. Therefore, the number of readout channels necessary for making the total pixel readout time 1 / N times the normal readout time can be calculated as follows.

従来の撮像装置の通常読み出しの場合の1フレーム時間Tvは次式で表される。   One frame time Tv in the case of normal reading of a conventional imaging apparatus is expressed by the following equation.

Tv=Tcds×R+Th×R+α (13)
Tcds:読み出し時のCDS動作時間
R:CMOSセンサの水平ライン数
Th:水平読み出し時間
α:その他読み出しに必要な時間
本実施の形態の撮像装置20の多チャンネル読み出しの場合の1フレーム期間Tmvは、次式で表される。
Tv = Tcds × R + Th × R + α (13)
Tcds: CDS operation time during reading
R: Number of horizontal lines of the CMOS sensor
Th: Horizontal readout time
α: Time required for other reading One frame period Tmv in the case of multi-channel reading of the imaging apparatus 20 of the present embodiment is expressed by the following equation.

Tmv=Tcds×R+Tmh×R+α (14)
Tmh:多チャンネル時の水平読み出し時間
Tv=N×Tmv (15)
N:多チャンネル高速読み出しの場合に通常時間で読み出される枚数
よって、(13)式〜(15)式により次式が得られる。
Tmv = Tcds × R + Tmh × R + α (14)
Tmh: horizontal readout time in multi-channel Tv = N × Tmv (15)
N: In the case of multi-channel high-speed reading, the following equation is obtained from equations (13) to (15) depending on the number of images read in a normal time.

N×Tmv=Tcds×R+Th×R+α
N×Tmh×R=Th×R+(1−N)×Tcds×R+(1−N)×α
Tmh=(Th/N)+((1-N)×Tcds/N)+(1-N)×α/(N×R) (16)
(16)式で表される時間で水平の読み出しを行う必要があり、それに必要なチャンネル数を持つセンサを構成する必要がある。Tcdsとαの時間がTmhに比べて非常に短ければ、TmhはほぼTh/Nとなるため、通常の1フレーム期間でN倍のフレームを読み出すためのチャンネル数はNとなる。しかし、実際には高速読み出しを実行する場合、CDS動作時間Tcdsやその他読み出しに必要な時間αは無視できない。よって、実際の読み出し時のチャンネル数はフレームレートの倍数Nより多くなる。
N × Tmv = Tcds × R + Th × R + α
N × Tmh × R = Th × R + (1-N) × Tcds × R + (1-N) × α
Tmh = (Th / N) + ((1-N) × Tcds / N) + (1-N) × α / (N × R) (16)
It is necessary to perform horizontal readout at the time represented by the equation (16), and it is necessary to configure a sensor having the necessary number of channels. If the time of Tcds and α is very short compared to Tmh, Tmh is almost Th / N, and therefore the number of channels for reading N times frames in a normal one frame period is N. However, in actuality, when high-speed reading is performed, the CDS operation time Tcds and other time α required for reading cannot be ignored. Therefore, the actual number of channels at the time of reading is greater than a multiple N of the frame rate.

これにより、本実施の形態では、通常の1フレーム期間で6倍のフレームを読み出すものとすると、図6(B)に模式的に示すように、多チャンネルのチャンネル数nは「9」として、9つのCDS回路を各HD期間(通常のHD期間の1/6倍の期間)の最初に動作させている。なお、本実施の形態では、CMOSセンサ21の露光時間は、図6(E)に示すように、通常の1フレーム期間の約1/6倍の期間としている。   As a result, in this embodiment, when six times as many frames are read out in a normal one frame period, the number n of multi-channels is set to “9” as schematically shown in FIG. Nine CDS circuits are operated at the beginning of each HD period (1/6 times the normal HD period). In the present embodiment, as shown in FIG. 6E, the exposure time of the CMOS sensor 21 is set to a period of about 1/6 times the normal one frame period.

再び図4に戻って説明する。GCA22は、CMOSセンサ21から出力されたnチャンネル(上記の例では、n=9)の撮像信号を、後段のADC24に適した信号レベルに増幅する。DCオフセット調整部23は、GCA22から出力されたnチャンネルの撮像信号をADC24に最適なオフセットを付加してADC24に供給してAD変換させてデジタル画像データに変換する。   Returning to FIG. 4, the description will be continued. The GCA 22 amplifies the n-channel (n = 9 in the above example) imaging signal output from the CMOS sensor 21 to a signal level suitable for the ADC 24 in the subsequent stage. The DC offset adjustment unit 23 adds an optimum offset to the ADC 24 to the n-channel imaging signal output from the GCA 22, supplies the ADC 24 with the ADC 24, performs AD conversion, and converts the digital image data.

フレームメモリ25は、mフレーム分の蓄積容量を有し、ADC24から出力されたnチャンネルのデジタル画像データをmフレーム分蓄積する。一方、暗電流等FPN補正用フレームメモリ26(以下、フレームメモリ26)は、CMOSセンサ21への入射光を遮断した状態におけるCMOSセンサ21の全画素から出力されたnチャンネル撮像信号が、上記のGCA22、DCオフセット調整部23、ADC24を経由して供給され、その入力画像データの1フレーム分を記憶する。これは、撮像装置20の立ち上げ時に1回のみ行われる。   The frame memory 25 has a storage capacity for m frames, and stores n-channel digital image data output from the ADC 24 for m frames. On the other hand, the FPN correction frame memory 26 (hereinafter referred to as the frame memory 26), such as dark current, has the n-channel imaging signals output from all the pixels of the CMOS sensor 21 in a state where the incident light to the CMOS sensor 21 is blocked. Supplied via the GCA 22, the DC offset adjustment unit 23, and the ADC 24, one frame of the input image data is stored. This is performed only once when the imaging device 20 is started up.

減算器27は、通常の信号読み出し時に、ダイナミックレンジを拡大するための後述するフレーム間の加算処理を行う前に、フレームメモリ25から出力された画像データから、フレームメモリ26から出力された遮光時の画像データを減算し、その減算後の画像データをフレームメモリ25に再度蓄積する。これにより、ダイナミックレンジを拡大するために、フレームメモリ25から読み出した画像データを用いた後述するフレーム間の加算処理において、CMOSセンサ21の画素毎の特性バラツキによる固定パターンノイズ(FPN)が加算されてS/Nが劣化することを防止する。   The subtractor 27 is configured to read out the image data output from the frame memory 25 from the image data output from the frame memory 26 before performing addition processing between frames to be described later for expanding the dynamic range during normal signal reading. Are subtracted, and the image data after the subtraction is stored in the frame memory 25 again. Thereby, in order to expand the dynamic range, fixed pattern noise (FPN) due to characteristic variation for each pixel of the CMOS sensor 21 is added in an addition process between frames described later using image data read from the frame memory 25. S / N is prevented from deteriorating.

次に、加算器28は、フレームメモリ25から読み出された減算後の画像データと、1フレーム加算係数生成器29から読み出された加算係数とを短縮したフレーム単位で乗算後に加算し、加算後の画像データをフレームメモリ25に再度蓄積する。加算器28での加算は(11)式と同様の式で表される((11)式では加算数がNであるが、ここではm)。このフレームメモリ25と、加算器28と、加算係数生成器29とを用いたフレーム加算処理によりダイナミックレンジが拡大される。なお、フレームメモリ25から読み出されたフレーム加算後の画像データは、その他色復調前信号処理部31により、色復調前の所定の信号処理が施されて出力される。   Next, the adder 28 adds the image data after subtraction read from the frame memory 25 and the addition coefficient read from the one-frame addition coefficient generator 29 after multiplication in a shortened frame unit, and adds The subsequent image data is stored again in the frame memory 25. Addition by the adder 28 is expressed by an expression similar to the expression (11) (in the expression (11), the addition number is N, but here m). The dynamic range is expanded by the frame addition process using the frame memory 25, the adder 28, and the addition coefficient generator 29. The image data after the frame addition read from the frame memory 25 is subjected to predetermined signal processing before color demodulation by the other signal processing unit 31 before color demodulation and is output.

次に、このフレームメモリ25に蓄積されたm枚の画像データを用いてダイナミックレンジを拡大する方法について更に詳細に説明する。   Next, a method for expanding the dynamic range using m pieces of image data stored in the frame memory 25 will be described in more detail.

CMOSセンサにおいて、図5に示すような通常読み出しを行った場合の入射光強度に対する出力信号の特性は、図7の通常の露光時間による出力特性Iとなり、光強度Aにて通常のPD飽和信号レベルIIにて出力信号が飽和する状態となる。この入射光強度0〜AまでがCMOSセンサから信号が出力される範囲で、これがダイナミックレンジとなる。   In the CMOS sensor, the output signal characteristic with respect to the incident light intensity in the case of normal reading as shown in FIG. 5 is the output characteristic I according to the normal exposure time in FIG. At level II, the output signal is saturated. This incident light intensity from 0 to A is the range in which a signal is output from the CMOS sensor, and this is the dynamic range.

これに対して、本実施の形態では、図6に示すような多チャンネル読み出しを用いて、通常の1フレームの時間で例えば、6フレーム分のデータを読み出すと共に、露光時間は通常の時間の1/6倍に短縮する。その6フレーム分を単純加算して1フレームの画を作成するとダイナミックレンジは(12)式に従い、以下のように向上する。   On the other hand, in the present embodiment, for example, data of 6 frames is read out in a normal time of one frame using multi-channel reading as shown in FIG. 6, and the exposure time is 1 of the normal time. Reduce to / 6 times. When one frame image is created by simply adding the six frames, the dynamic range is improved as follows according to the equation (12).

Du6=20×log(6×√6)
=23.3 [dB] (17)
その場合の入射光強度に対する出力信号の特性は図7にIIIで示す如くになり、通常の露光時間による出力特性と同じで、通常のPD飽和信号レベルで飽和せず、信号出力はリニアに増加して、その6倍の出力信号を出せることになる。その時の入射光強度はBとなる。
Du6 = 20 × log (6 × √6)
= 23.3 [dB] (17)
In this case, the output signal characteristic with respect to the incident light intensity is as shown by III in FIG. 7, which is the same as the output characteristic by the normal exposure time, and does not saturate at the normal PD saturation signal level, and the signal output increases linearly. As a result, an output signal that is six times as large as that can be output. The incident light intensity at that time is B.

ところで、普通のカメラシステムでは感度の観点から信号処理回路内を伝達する信号レベルは通常のPD飽和信号レベルを最大値とすることが多い。ダイナミックレンジが例えば6倍に拡大された時に、このダイナミックレンジが拡大された信号を伝達するために、この信号レベルを最大値とするような信号処理回路にすると、通常のPD飽和信号レベル程度では逆に暗い画となり、感度が低下したような印象を受ける。それを回避するためには信号レベルによりゲインを変更する必要があるが、撮像している画の中に非常に明るい部分と暗い部分があると、結果的には感度が低下したような画に見える。   By the way, in an ordinary camera system, the signal level transmitted through the signal processing circuit is often set to the maximum value of the normal PD saturation signal level from the viewpoint of sensitivity. For example, when a signal processing circuit that maximizes the signal level in order to transmit a signal with an expanded dynamic range when the dynamic range is expanded by, for example, 6 times, a normal PD saturation signal level is required. On the contrary, the image becomes dark and gives the impression that the sensitivity is reduced. To avoid this, it is necessary to change the gain depending on the signal level, but if there are very bright and dark parts in the image being captured, the result will be an image with reduced sensitivity. appear.

そこで、本実施の形態では、図4のピクセル信号レベル判定コンパレータ30を用いて、フレームメモリ25から読み出される画像データの各画素毎に信号レベルを判定し、信号レベルが小さい場合(暗い部分)は、1フレーム加算係数生成器29におけるフレーム加算係数の値を大にすることで信号レベルを増加してノイズを抑圧し、また信号レベルが大きい場合(明るい部分)は1フレーム加算係数生成器29におけるフレーム加算係数を小にする(明るい信号ほど1より小さい値にする)ことで、ダイナミックレンジを拡大し、擬似的に圧縮することで、自然な画とする。   Therefore, in the present embodiment, the pixel signal level determination comparator 30 in FIG. 4 is used to determine the signal level for each pixel of the image data read from the frame memory 25, and when the signal level is low (dark portion) By increasing the value of the frame addition coefficient in the 1-frame addition coefficient generator 29, the signal level is increased to suppress noise. When the signal level is high (bright part), the 1-frame addition coefficient generator 29 By making the frame addition coefficient small (brighter signals are set to a value smaller than 1), the dynamic range is expanded and pseudo compression is performed to obtain a natural image.

例えば、通常の1/6倍の露光時間で得られた6フレームの画像データを、各画素の信号レベルにて上記のように加算係数を可変して重み付けを変更した場合の入射光強度対出力信号レベル特性は図7にIVで示される。これにより、ダイナミックレンジを拡大した自然な画が得られる。   For example, the incident light intensity vs. output when 6 frames of image data obtained with an exposure time that is 1/6 times the normal is weighted by changing the addition coefficient as described above at the signal level of each pixel. The signal level characteristic is indicated by IV in FIG. As a result, a natural image with an expanded dynamic range can be obtained.

このように、本実施の形態によれば、以下の特長がある。   Thus, according to the present embodiment, there are the following features.

(1)CMOSセンサ21内の画素の蓄積期間を動的に変更することなく、フレームメモリ25に蓄積されたm枚の画像データを加算することでダイナミックレンジを拡大することができると共に、その画像データの画素毎に加算量、あるいは重み付けを変えるようにしたため、できる限り人間の目の特性に合ったリニアリティを実現でき、ダイナミックレンジを変えた時の画を見易くできる。   (1) The dynamic range can be expanded by adding m pieces of image data stored in the frame memory 25 without dynamically changing the storage period of the pixels in the CMOS sensor 21, and the image Since the amount of addition or weighting is changed for each pixel of data, linearity matching the characteristics of the human eye can be realized as much as possible, and the image when the dynamic range is changed can be easily seen.

(2)複数枚のフレームで加算等も組み合わせて読み出し信号を作成するようにしているため、1フレームの短時間露光データに係数を掛けて信号を作成するよりもS/Nを向上できる。   (2) Since the readout signal is generated by combining additions and the like in a plurality of frames, the S / N can be improved as compared with the case where the signal is generated by multiplying the short-time exposure data of one frame by a coefficient.

(3)ピクセル信号レベル判定コンパレータ30により、複数フレーム間で同一画素の信号が全く変化しない場合と変化する場合で重み付けを変えることが可能であるため、光信号の時間的変動に対して、より自然にダイナミックレンジを変化させる時に有用である。   (3) Since the pixel signal level determination comparator 30 can change the weighting between the case where the signal of the same pixel does not change at all and the case where the signal changes between a plurality of frames, Useful when changing the dynamic range naturally.

図8は、本発明になる撮像装置の一実施例の要部の構成図を示す。同図において、本実施例は、16チャンネル読み出しの例を示す。本実施例の撮像装置40は、色フィルタ及び画素部41を有する。この色フィルタ及び画素部41は、CMOSセンサの画素部の受光面にベイヤ配列の色フィルタが配置された構成である。ベイヤ配列の色フィルタは、図8に模式的に示すように、輝度信号の寄与する割合の高い緑色光を透過させる1画素分の緑色フィルタ部Gを1画素ピッチおき毎に市松状に配置し、残りの領域に赤色光を透過させる1画素分の赤色フィルタ部Rと、青色光を透過させる1画素分の青色フィルタ部Bとを、1画素ピッチおき毎に市松状に配置した構成である。   FIG. 8 is a block diagram showing the main part of an embodiment of the imaging apparatus according to the present invention. In the figure, the present embodiment shows an example of 16-channel reading. The imaging device 40 of this embodiment includes a color filter and pixel unit 41. The color filter and pixel unit 41 has a configuration in which a Bayer array color filter is arranged on the light receiving surface of the pixel unit of the CMOS sensor. As schematically shown in FIG. 8, the Bayer array color filters are arranged in a checkered pattern with a green filter portion G for one pixel transmitting green light with a high contribution ratio of the luminance signal at every other pixel pitch. The red filter portion R for one pixel that transmits red light and the blue filter portion B for one pixel that transmits blue light are arranged in a checkered pattern every other pixel pitch. .

色フィルタ及び画素部41は、ベイヤ配列の色フィルタを透過した入射光をCMOSセンサの画素部に入射して光電変換する。画素部は、図示しない垂直駆動部により、水平2ラインの画素が同時に選択される。また、図8は撮像装置の一部のみしか図示していないが、シフトレジスタ等により構成された水平駆動部42及び43により、画素部の水平方向の8画素単位で水平方向の駆動が行われる。この画素部からの出力信号を用いてCDS回路44、45のスイッチ等を選択し、水平信号線46、47に信号を読み出す。   The color filter and pixel portion 41 photoelectrically converts incident light that has passed through the Bayer array color filter and enters the pixel portion of the CMOS sensor. In the pixel unit, pixels in two horizontal lines are simultaneously selected by a vertical driving unit (not shown). FIG. 8 shows only a part of the image pickup apparatus, but horizontal driving is performed in units of 8 pixels in the horizontal direction of the pixel unit by the horizontal driving units 42 and 43 configured by a shift register or the like. . The switches of the CDS circuits 44 and 45 are selected using the output signal from the pixel portion, and signals are read out to the horizontal signal lines 46 and 47.

CDS回路44、45は各カラム毎に設けられており、各カラム毎の画素からの信号が供給される構成で、例えば図9に示す回路構成とされている。同図において、画素55a、画素55b等の垂直方向(カラム方向)に配列された複数の画素に共通に接続された1本の垂直信号線が2分岐され、一方はスイッチSW1を介してオペアンプ56の非反転入力端子に接続され、他方はスイッチSW2及びコンデンサC1を直列に介してオペアンプ56の反転入力端子に接続されている。ここで、上記画素55aと画素55bとは任意の隣接する2本の水平ラインの画素である。また、オペアンプ56の非反転入力端子は、コンデンサC2を介して接地されると共に、スイッチSW5を介して基準電圧VREFが印加される構成とされている。また、オペアンプ56の反転入力端子はスイッチSW4及びコンデンサC3の直列回路とスイッチSW3とを並列に介して入力端子に帰還接続されている。   The CDS circuits 44 and 45 are provided for each column, and are supplied with signals from the pixels for each column. For example, the circuit configuration shown in FIG. In the figure, one vertical signal line commonly connected to a plurality of pixels arranged in the vertical direction (column direction) such as the pixels 55a and 55b is branched into two, one of which is an operational amplifier 56 via a switch SW1. The other is connected to the inverting input terminal of the operational amplifier 56 through the switch SW2 and the capacitor C1 in series. Here, the pixel 55a and the pixel 55b are pixels on any two adjacent horizontal lines. Further, the non-inverting input terminal of the operational amplifier 56 is grounded via the capacitor C2, and the reference voltage VREF is applied via the switch SW5. Further, the inverting input terminal of the operational amplifier 56 is feedback-connected to the input terminal via the switch SW3 and the series circuit of the switch SW4 and the capacitor C3 in parallel.

更に、オペアンプ56の出力端子は、スイッチSW6を介してバッファアンプ57の非反転入力端子に接続されている。バッファアンプ57はボルテージフォロワであり、その非反転入力端子がコンデンサC4を介して接地され、またその出力端子が反転入力端子に帰還接続される一方、スイッチSW7を介して水平信号線58(図8の46又は47)に接続されている。   Further, the output terminal of the operational amplifier 56 is connected to the non-inverting input terminal of the buffer amplifier 57 via the switch SW6. The buffer amplifier 57 is a voltage follower, and its non-inverting input terminal is grounded via a capacitor C4, and its output terminal is feedback-connected to the inverting input terminal, while the horizontal signal line 58 (FIG. 8) is connected via a switch SW7. 46 or 47).

次に、図9のCDS回路の動作について、図10のタイミングチャートを併せ参照して説明する。画素55a、55bからの信号電圧は図10(A)に示すように変化するものとする。図9のスイッチSW1、SW2、SW4、SW3、SW5、SW7、SW6は図10(B)、(C)、(D)、(E)、(F)、(G)、(H)に示すように、ハイレベルのときにオン、ローレベルのときにオフに制御される。   Next, the operation of the CDS circuit of FIG. 9 will be described with reference to the timing chart of FIG. It is assumed that the signal voltage from the pixels 55a and 55b changes as shown in FIG. The switches SW1, SW2, SW4, SW3, SW5, SW7, SW6 in FIG. 9 are as shown in FIGS. 10 (B), (C), (D), (E), (F), (G), (H). On the other hand, it is controlled to be on when it is high and off when it is low.

これにより、スイッチSW1を介して画素55a、55bからの信号電圧がコンデンサC2に保持される。一方、スイッチSW2を介して画素リセット時の画素リセット信号がコンデンサC1に保持される。また、スイッチSW3、SW4、SW5とオペアンプ56とコンデンサC3とにより、画素からの信号電圧と画素リセット信号とが減算される。また、C点の減算後の信号は、スイッチSW6のオン時にコンデンサC4に印加されて保持された後、バッファアンプ57に供給される。コンデンサC4に保持された電圧は、その後の時刻t7で、バッファアンプ57を通してカラム毎にあるスイッチSW7を図10(G)にハイレベルで模式的に示すようにオン状態にすることで水平信号線58を介して水平読み出し部へ出力される。水平読み出し部では、水平信号線58に読み出した図10(I)に示す信号を並列に処理するための信号線を複数有している。   As a result, the signal voltage from the pixels 55a and 55b is held in the capacitor C2 via the switch SW1. On the other hand, the pixel reset signal at the time of pixel reset is held in the capacitor C1 via the switch SW2. Further, the signal voltage from the pixel and the pixel reset signal are subtracted by the switches SW3, SW4, SW5, the operational amplifier 56, and the capacitor C3. The signal after the subtraction of the point C is applied to the capacitor C4 and held when the switch SW6 is turned on, and then supplied to the buffer amplifier 57. At time t7, the voltage held in the capacitor C4 is changed to the horizontal signal line by turning on the switch SW7 for each column through the buffer amplifier 57 as schematically shown at a high level in FIG. The data is output to the horizontal reading unit via 58. The horizontal readout section has a plurality of signal lines for processing in parallel the signals shown in FIG. 10 (I) read out on the horizontal signal line 58.

再び図8に戻って、本実施例の動作を図11のタイミングチャートを併せ参照して説明する。垂直駆動部(図示せず)及び水平駆動部42、43はシフトレジスタを用いて構成されており、それぞれのシフトレジスタに駆動用スタートパルス(図11(A)、(F))を入力する。垂直駆動部は、入力垂直駆動用スタートパルスをシフトすることで、水平ラインを2ラインずつ選択する(図11(B)〜(D))。   Returning to FIG. 8 again, the operation of the present embodiment will be described with reference to the timing chart of FIG. The vertical drive unit (not shown) and the horizontal drive units 42 and 43 are configured using shift registers, and drive start pulses (FIGS. 11A and 11F) are input to the respective shift registers. The vertical drive unit selects two horizontal lines by shifting the input vertical drive start pulse (FIGS. 11B to 11D).

一方、水平駆動部42、43は、入力された水平駆動用スタートパルス(図11(F))を水平画素数分シフトする(図11(G)〜(I))。この時2H同時に垂直駆動部で画素を選択するので画素部41の2ラインの画素信号を1水平期間に出力できる。水平駆動部42、43からのシフト出力パルスは各カラム毎にあるCDS回路44、45のうち8個のCDS回路毎に出力をスイッチ等で同時に選択する。   On the other hand, the horizontal drive units 42 and 43 shift the input horizontal drive start pulse (FIG. 11F) by the number of horizontal pixels (FIGS. 11G to 11). At this time, since the pixels are selected by the vertical driving unit at the same time for 2H, two lines of pixel signals of the pixel unit 41 can be output in one horizontal period. The shift output pulses from the horizontal drive units 42 and 43 simultaneously select the output for each of the eight CDS circuits among the CDS circuits 44 and 45 for each column using a switch or the like.

すなわち、同時に読み出しを行う2ラインの同じカラム方向にある2個の画素からの信号がそれぞれ供給されるCDS回路44、45は、図11(E)に模式的に示すように、1水平期間の初めで1回当たり水平方向8画素からの信号に対してCDS動作を行い、そのCDS動作後の信号を保持する。各水平期間毎に上記の動作を繰り返す。   That is, the CDS circuits 44 and 45 to which signals from two pixels in the same column direction of two lines that are simultaneously read out are respectively supplied in one horizontal period as schematically shown in FIG. First, a CDS operation is performed on signals from 8 pixels in the horizontal direction at a time, and a signal after the CDS operation is held. The above operation is repeated for each horizontal period.

CDS回路44、45に接続された水平信号線46、47は、それぞれ8本ずつあり、それに対応して増幅器(AMP)48、49も8個ずつ設けられている。8個ずつのAMP48、49は、8本ずつの水平信号線46、47からの信号が入力される。8本の水平信号線46には、CDS回路44を通して図11(J)〜(Q)に示す同じライン上にある4つの色フィルタ部Gを透過した緑色光を光電変換した4画素からの緑色信号(G信号)G1、G3、G5、G7と、上記と同じライン上にある4つの色フィルタ部Rを透過した赤色光を光電変換した4画素からの赤色信号(R信号)R1、R2、R3、R4とが入力されてAMP48に転送される。   There are eight horizontal signal lines 46 and 47 connected to the CDS circuits 44 and 45, respectively, and eight amplifiers (AMP) 48 and 49 are also provided correspondingly. Eight AMPs 48 and 49 receive signals from eight horizontal signal lines 46 and 47, respectively. Green light from four pixels obtained by photoelectrically converting green light transmitted through the four color filter portions G on the same line shown in FIGS. 11J to 11Q through the CDS circuit 44 is supplied to the eight horizontal signal lines 46. Red signals (R signals) R1, R2, from four pixels obtained by photoelectric conversion of signals (G signals) G1, G3, G5, G7 and red light transmitted through the four color filter portions R on the same line as above R3 and R4 are input and transferred to the AMP48.

一方、8本の水平信号線47には、CDS回路45を通して図11(R)〜(Y)に示す上記の水平信号線46に出力される画素信号のラインとは隣接するライン上にある4つの色フィルタ部Bを透過した青色光を光電変換した4画素からの青色信号(B信号)B1、B2、B3、B4と、色フィルタ部Bと同じライン上にある4つの色フィルタ部Gを透過した緑色光を光電変換した4画素からの緑色信号(G信号)G2、G4、G6、G8とが入力されてAMP49に転送される。   On the other hand, the eight horizontal signal lines 47 are on the line adjacent to the line of the pixel signal output to the horizontal signal line 46 shown in FIGS. 11 (R) to (Y) through the CDS circuit 45. Blue signals (B signals) B1, B2, B3, B4 from four pixels obtained by photoelectrically converting blue light transmitted through one color filter unit B, and four color filter units G on the same line as the color filter unit B Green signals (G signals) G2, G4, G6, and G8 from four pixels obtained by photoelectrically converting the transmitted green light are input and transferred to the AMP 49.

AMP48で増幅された8信号(G1、R1、G3、R2、G5、R3、G7、R4)は、サンプリングホールド(S/H)回路50に供給されて水平方向に隣接する同じ色信号同士がサンプル及びホールドされる。更に、S/H回路50の出力信号は、サンプリングホールド(S/H)回路52に供給されて同じ色信号同士がサンプル及びホールドされ、図11(Z)に示すG信号と、同図(イ)に示すR信号とが出力される。   The eight signals (G1, R1, G3, R2, G5, R3, G7, R4) amplified by the AMP 48 are supplied to the sampling hold (S / H) circuit 50 and the same color signals adjacent in the horizontal direction are sampled. And held. Further, the output signal of the S / H circuit 50 is supplied to the sampling hold (S / H) circuit 52 where the same color signals are sampled and held, and the G signal shown in FIG. R signal shown in FIG.

一方、AMP49で増幅された8信号(B1、G2、B2、G4、B3、G6、B4、G8)は、サンプリングホールド(S/H)回路51に供給されて水平方向に隣接する同じ色信号同士がサンプル及びホールドされる。更に、S/H回路51から出力された4信号は、サンプリングホールド(S/H)回路53に供給されて同じ色信号同士がサンプル及びホールドされ、図11(ロ)に示すG信号と、同図(ハ)に示すB信号とが出力される。   On the other hand, the eight signals (B1, G2, B2, G4, B3, G6, B4, G8) amplified by the AMP 49 are supplied to the sampling hold (S / H) circuit 51 and are adjacent to each other in the horizontal direction. Are sampled and held. Further, the four signals output from the S / H circuit 51 are supplied to the sampling hold (S / H) circuit 53 where the same color signals are sampled and held, and the same as the G signal shown in FIG. The B signal shown in FIG.

このようにして、CMOSセンサはS/H回路50〜53で信号の選別を行い、R、G、B信号別の信号出力4チャンネルにまとめて外部へ出力する。これは内部の水平信号線はデータレートを下げるために、16チャンネルで信号を取り出すが、外部の回路の負担を軽減するために、このように内部で信号をまとめることも可能ということである。勿論16チャンネルでの信号出力を行うこともできるので、必要に応じて構成を選択することが可能である。   In this manner, the CMOS sensor performs signal selection by the S / H circuits 50 to 53, and outputs them to the signal output channels for the R, G, and B signals together. This is because the internal horizontal signal lines take out signals in 16 channels in order to reduce the data rate, but in order to reduce the burden on the external circuit, it is possible to collect the signals in this way. Of course, it is also possible to output signals in 16 channels, so that the configuration can be selected as necessary.

前記の実施の形態及び実施例は、特にビデオ帯域での動画信号を作成する時に有用である。例えば、従来の一般的な民生用のビデオカメラのダイナミックレンジ60dBを90dB以上に上げることが可能であり、撮影環境を広げることに寄与するものである。   The above-described embodiments and examples are particularly useful when creating a moving image signal in a video band. For example, the dynamic range 60 dB of a conventional general consumer video camera can be increased to 90 dB or more, which contributes to widening the shooting environment.

本発明の撮像装置の概略構成図である。It is a schematic block diagram of the imaging device of this invention. 図1中のセンサチップ11の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the sensor chip 11 in FIG. 図1の動作説明用タイミングチャートである。2 is a timing chart for explaining the operation of FIG. 1. 本発明の撮像装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of an imaging device of the present invention. 1チャンネル読み出し時のタイミングチャートである。It is a timing chart at the time of 1 channel reading. 4倍高速読み出し時のタイミングチャートである。It is a timing chart at the time of 4 times high-speed reading. ダイナミックレンジ拡大時の特性の説明図である。It is explanatory drawing of the characteristic at the time of dynamic range expansion. 本発明の撮像装置の一実施例の要部の構成図である。It is a block diagram of the principal part of one Example of the imaging device of this invention. CDS回路の一例の回路図である。It is a circuit diagram of an example of a CDS circuit. 図9の動作説明用タイミングチャートである。10 is a timing chart for explaining the operation of FIG. 9. 図8の動作説明用タイミングチャートである。9 is a timing chart for explaining the operation of FIG. 8. 1チャンネル読み出しのCMOSセンサ構成例である。This is a configuration example of a CMOS sensor for one-channel reading. 図12の動作説明用タイミングチャートである。13 is a timing chart for explaining the operation of FIG. 12. 2チャンネル読み出しのCMOSセンサ構成例である。It is an example of a CMOS sensor configuration of 2-channel reading. 図14の動作説明用タイミングチャートである。FIG. 15 is a timing chart for explaining the operation of FIG. 14. 4チャンネル読み出しのCMOSセンサ構成例である。It is a 4-channel readout CMOS sensor configuration example. 図16の動作説明用タイミングチャートである。FIG. 17 is a timing chart for explaining the operation of FIG. 16.

符号の説明Explanation of symbols

10、20、40 撮像装置
11 センサチップ
12 AFE・ADC
13、25 フレームメモリ
14 フレーム加算回路
15、30 ピクセル信号レベル判定コンパレータ
21、60、70、80 CMOSセンサ
26 暗電流等FPN補正フレームメモリ
27 減算器
28 加算器
29 1フレーム加算係数生成器
41 色フィルタ及び画素部
42、43、64、72、73、82、83、112a、112b 水平駆動部
44、45、63、75、76、851〜854、1141〜1142k CDS回路
48、49、65、77、78、861〜864、1151〜1152k 増幅器(AMP)
50〜53 サンプリングホールド回路(S/H回路)
55a、55b カラム方向に配列された画素
56 オペアンプ
57 バッファアンプ
61、71、81、111 画素部
62、74、84、113 垂直駆動部
10, 20, 40 Imaging device 11 Sensor chip 12 AFE / ADC
13, 25 Frame memory 14 Frame addition circuit 15, 30 Pixel signal level determination comparator 21, 60, 70, 80 CMOS sensor 26 Dark current etc. FPN correction frame memory 27 Subtractor 28 Adder 29 1 Frame addition coefficient generator 41 Color filter And pixel portions 42, 43, 64, 72, 73, 82, 83, 112a, 112b horizontal drive portions 44, 45, 63, 75, 76, 85 1 to 85 4 , 114 1 to 114 2k CDS circuits 48, 49, 65, 77, 78, 86 1 to 86 4 , 115 1 to 115 2k amplifier (AMP)
50 to 53 Sampling hold circuit (S / H circuit)
55a, 55b Pixels arranged in the column direction 56 Operational amplifier 57 Buffer amplifier 61, 71, 81, 111 Pixel unit 62, 74, 84, 113 Vertical drive unit

Claims (2)

各々光電変換手段を備えた画素が複数規則正しく配列された固体撮像素子を用いた撮像装置において、
前記複数の画素のうち列方向に配列された前記画素毎に設けられており、規格で定められた既存の1フレーム期間の1/N倍(Nは2以上の整数)の露光期間で露光させた前記固体撮像素子の前記列方向に配列された前記画素のうち同時に読み出された複数の画素からの撮像信号に対して、1水平期間内で複数回相関二重サンプリング動作を行い、その動作後の撮像信号を前記既存の1フレーム期間内でN回、複数の水平信号線に出力する多チャンネル出力手段と、
前記多チャンネル出力手段から前記N回出力された撮像信号を、デジタル信号の画像データに変換後に記憶する第1の記憶手段と、
前記第1の記憶手段から読み出した前記画像データのうち、各画素の信号毎に加算係数を乗算した後加算合成して、前記既存の1フレーム期間における画像信号として出力する加算手段と、
前記第1の記憶手段から読み出した前記画像データの信号レベルを各画素毎に判定し、その信号レベルに応じて前記加算手段における前記加算係数を可変制御する加算係数制御手段と、
を有することを特徴とする撮像装置。
In an imaging device using a solid-state imaging device in which a plurality of pixels each having a photoelectric conversion means are regularly arranged,
It is provided for each of the pixels arranged in the column direction among the plurality of pixels, and is exposed in an exposure period that is 1 / N times (N is an integer of 2 or more) of an existing one frame period defined in the standard. In addition, a correlated double sampling operation is performed a plurality of times within one horizontal period with respect to imaging signals from a plurality of pixels that are simultaneously read out of the pixels arranged in the column direction of the solid-state imaging device. Multi-channel output means for outputting a subsequent imaging signal to a plurality of horizontal signal lines N times within the existing one frame period;
First storage means for storing the imaging signal output N times from the multi-channel output means after conversion into image data of a digital signal;
Addition means for multiplying and adding and adding an addition coefficient for each pixel signal in the image data read out from the first storage means and outputting as an image signal in the existing one frame period;
An addition coefficient control means for determining a signal level of the image data read from the first storage means for each pixel and variably controlling the addition coefficient in the addition means according to the signal level;
An imaging device comprising:
設定したタイミングで前記固体撮像素子への入射光を遮断した状態における前記固体撮像素子の全画素から出力された1フレーム分の撮像信号を遮光時画像データとして記憶する第2の記憶手段と、
前記加算手段による加算合成動作の前に、前記第1の記憶手段から読み出した画像データから、前記第2の記憶手段から読み出した前記遮光時画像データを減算し、その減算後の画像データを、前記加算手段で利用させるために前記第1の記憶手段に再度記憶させる減算手段と、
を更に有することを特徴とする請求項1記載の撮像装置。
Second storage means for storing an image signal for one frame output from all pixels of the solid-state image sensor in a state where incident light to the solid-state image sensor is blocked at a set timing;
Prior to the adding and synthesizing operation by the adding unit, the image data read from the second storage unit is subtracted from the image data read from the first storage unit, and the image data after the subtraction is Subtracting means for storing again in the first storage means for use in the adding means;
The imaging apparatus according to claim 1, further comprising:
JP2008079767A 2008-03-26 2008-03-26 Imaging apparatus Pending JP2009239398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008079767A JP2009239398A (en) 2008-03-26 2008-03-26 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008079767A JP2009239398A (en) 2008-03-26 2008-03-26 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009239398A true JP2009239398A (en) 2009-10-15

Family

ID=41252870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008079767A Pending JP2009239398A (en) 2008-03-26 2008-03-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009239398A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183291A (en) * 2012-03-01 2013-09-12 Nikon Corp Solid state imaging device
JP2014049815A (en) * 2012-08-29 2014-03-17 Canon Inc Imaging apparatus and driving method thereof
US9083892B2 (en) 2012-03-01 2015-07-14 Nikon Corporation A/D conversion circuit, and solid-state image pickup apparatus
JP2016224385A (en) * 2015-06-04 2016-12-28 オリンパス株式会社 Imaging device
US10380432B2 (en) 2015-05-21 2019-08-13 Denso Corporation On-board camera apparatus
CN110290335A (en) * 2019-07-31 2019-09-27 王勇 A kind of high speed imaging sensor of frame frequency up to bandwidth limit rate

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013183291A (en) * 2012-03-01 2013-09-12 Nikon Corp Solid state imaging device
US9083892B2 (en) 2012-03-01 2015-07-14 Nikon Corporation A/D conversion circuit, and solid-state image pickup apparatus
US10051220B2 (en) 2012-03-01 2018-08-14 Nikon Corporation A/D conversion circuit, and solid-state image pickup apparatus
US10805564B2 (en) 2012-03-01 2020-10-13 Nikon Corporation A/D conversion circuit, and solid-state image pickup apparatus
JP2014049815A (en) * 2012-08-29 2014-03-17 Canon Inc Imaging apparatus and driving method thereof
US10380432B2 (en) 2015-05-21 2019-08-13 Denso Corporation On-board camera apparatus
JP2016224385A (en) * 2015-06-04 2016-12-28 オリンパス株式会社 Imaging device
CN110290335A (en) * 2019-07-31 2019-09-27 王勇 A kind of high speed imaging sensor of frame frequency up to bandwidth limit rate
CN110290335B (en) * 2019-07-31 2021-09-21 王勇 High-speed image sensor with frame frequency capable of reaching bandwidth limit rate

Similar Documents

Publication Publication Date Title
JP6528974B2 (en) Image sensor, imaging method, and program
JP5085140B2 (en) Solid-state imaging device
JP4689620B2 (en) Image sensor
US20160330414A1 (en) Imaging apparatus, imaging system, and signal processing method
WO2012063634A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
EP2523452A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
WO2013008596A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
US20160080677A1 (en) Solid state imaging device, method of outputting imaging signal and electronic device
JP2006311240A (en) Imaging apparatus
WO2004110057A1 (en) Wide dynamic range image sensor
JP6702306B2 (en) Image processing apparatus, image processing method, and program
JP6346479B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP4058373B2 (en) Solid-state image sensor video camera and brightness control therefor
JP2014154982A (en) Image pickup device and control method therefor
JP2009239398A (en) Imaging apparatus
JP2008263547A (en) Imaging apparatus
JP2004282552A (en) Solid state imaging device and solid state imaging apparatus
JP4696812B2 (en) Imaging device
JP4350936B2 (en) Signal readout method for solid-state image sensor
JP2008124671A (en) Imaging apparatus and imaging method
JP5098908B2 (en) Image input device
US8823825B2 (en) Image processing device, image processing method, and solid-state imaging device
JP2009164859A (en) Imaging apparatus and imaging control method
US8368782B2 (en) Multiple exposure image pickup apparatus, multiple exposure image pickup method, program, and recording medium
JP5146500B2 (en) Image composition apparatus, image composition method, and program