WO2017077775A1 - 固体撮像素子、撮像装置、及び、電子機器 - Google Patents

固体撮像素子、撮像装置、及び、電子機器 Download PDF

Info

Publication number
WO2017077775A1
WO2017077775A1 PCT/JP2016/077665 JP2016077665W WO2017077775A1 WO 2017077775 A1 WO2017077775 A1 WO 2017077775A1 JP 2016077665 W JP2016077665 W JP 2016077665W WO 2017077775 A1 WO2017077775 A1 WO 2017077775A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
exposure
unit
image
pixel value
Prior art date
Application number
PCT/JP2016/077665
Other languages
English (en)
French (fr)
Inventor
成希 中村
盛一 大槻
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201680063615.6A priority Critical patent/CN108293098B/zh
Priority to US15/771,792 priority patent/US10541259B2/en
Priority to JP2017548667A priority patent/JPWO2017077775A1/ja
Publication of WO2017077775A1 publication Critical patent/WO2017077775A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/689Motion occurring during a rolling shutter mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/093Digital circuits for control of exposure time

Definitions

  • the present disclosure relates to a solid-state imaging device, an imaging device, and an electronic device.
  • a solid-state image sensor for example, a CCD image sensor (CCD (Charge Coupled Device) type solid-state image sensor) and a CMOS image sensor (CMOS (Complementary Metal Oxide Semiconductor) type solid-state image sensor) are known.
  • the solid-state image sensor performs photoelectric conversion that accumulates electric charges according to the amount of incident light and outputs an electrical signal corresponding to the accumulated electric charges.
  • the charge accumulation amount has an upper limit level, the accumulated charge amount reaches a saturation level when the amount of light received exceeds the upper limit level in a certain exposure time. As a result, it is not possible to express a gradation higher than the saturation level, and a so-called whiteout state is obtained.
  • the present disclosure provides a solid-state imaging device capable of imaging a scene with a wide dynamic range without reducing spatial resolution, an imaging device having the solid-state imaging device, and an electronic apparatus having the imaging device.
  • the purpose is to do.
  • a solid-state imaging device of the present disclosure is provided.
  • a pixel array unit in which unit pixels including photoelectric conversion elements are arranged in a matrix, and each unit pixel is grouped into a plurality of pixel groups;
  • An exposure start timing and an exposure end timing are independently set for each of the plurality of pixel groups so that at least one of the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period.
  • a timing control unit Is a solid-state imaging device.
  • An image pickup apparatus for achieving the above object is an image pickup apparatus having a solid-state image pickup device having the above-described configuration.
  • an electronic device for achieving the above object is an electronic device including the solid-state imaging device having the above-described configuration.
  • the solid-state imaging device, imaging apparatus, or electronic device having the above-described configuration when imaging a scene with a wide dynamic range by performing multiple exposures within one vertical synchronization period, multiple images by multiple exposures are used. The exposure time ratio between the exposed images can be set close to each other.
  • the exposure time ratio between the exposure images can be set close by performing multiple exposures within one vertical synchronization period, so that a wide dynamic range scene can be captured without reducing the spatial resolution. It becomes possible to do.
  • FIG. 1 is a system configuration diagram illustrating an outline of a configuration of a CMOS image sensor which is an example of the solid-state imaging device of the present disclosure.
  • FIG. 2 is a circuit diagram illustrating an example of a circuit configuration of a unit pixel.
  • FIG. 3A is a diagram illustrating a first example of pixel grouping, and
  • FIG. 3B is a diagram illustrating a second example of pixel grouping.
  • FIG. 4 is a view showing an example of an exposure sequence (exposure sequence 1) according to the present embodiment, which is executed under the control of the timing control unit.
  • FIG. 5 is a diagram showing a reading sequence of pixel value data of the pixel group A in the present embodiment.
  • FIG. 1 is a system configuration diagram illustrating an outline of a configuration of a CMOS image sensor which is an example of the solid-state imaging device of the present disclosure.
  • FIG. 2 is a circuit diagram illustrating an example of a circuit configuration of a unit pixel.
  • FIG. 6 is a schematic diagram of a configuration of a CMOS image sensor in which a plurality of A / D converters are arranged for one pixel column and these A / D converters are used in parallel.
  • FIG. 7 is a view showing a portion corresponding to one vertical synchronization period (one display frame) in the exposure sequence according to the present embodiment.
  • FIG. 8 is a diagram in which two pixel columns in the pixel array unit, column signal lines and A / D converters corresponding thereto are extracted and drawn.
  • FIG. 15A is a diagram showing a correspondence relationship between unit pixels and A / D converters when applied to a CMOS image sensor having a stacked structure
  • FIG. 15B shows each pixel in one pixel group and a corresponding A It is a figure which shows the electrical connection with a / D converter.
  • FIG. 15A is a diagram showing a correspondence relationship between unit pixels and A / D converters when applied to a CMOS image sensor having a stacked structure
  • FIG. 15B shows each pixel in one pixel group and a corresponding A It is a figure which shows
  • FIG. 22 is an example of a flow of processing performed by the image processing unit according to the second embodiment to determine a combination ratio of two images according to a moving subject estimation result for each pixel position and combine the two images. It is a flowchart which shows.
  • FIG. 23 is a block diagram illustrating a configuration example of an image processing unit according to the third embodiment.
  • FIG. 24 is a diagram showing an exposure sequence in the case of the fourth embodiment.
  • FIG. 25 is a system configuration diagram illustrating an outline of the configuration of the electronic device of the present disclosure.
  • Example of exposure sequence 2-6.1 Example of arranging a plurality of A / D converters for one pixel column 2-7. Modified example 2.
  • Imaging device of the present disclosure 3-1.
  • System configuration 3-2. Configuration of image processing unit 3-2-1.
  • Example 4 Example of countermeasure against blackout due to flicker phenomenon) 4).
  • the timing controller is configured to perform a final readout line of an exposure image that has been exposed first for at least two exposures of a plurality of exposures.
  • the exposure start timing is independently set for each of the plurality of pixel groups so that the exposure end timing of the unit pixel in the first read row of the exposure image whose exposure is started later is earlier than the exposure end timing of the unit pixel.
  • an exposure end timing can be set.
  • the timing control unit is configured to time division format for each row for a plurality of exposure images whose exposure ends overlap in time.
  • the control for outputting each image data can be performed.
  • it can be set as the structure provided with the image process part which produces
  • the exposure image whose exposure order is not final within one vertical synchronization period is set for each row.
  • the pixel value data can be held in the storage unit.
  • pixel value data in the same row is read from the storage unit according to the output timing of pixel value data for each row of the final exposure image whose exposure order is within one vertical synchronization period, and a plurality of exposure image rows are aligned.
  • a row sequence conversion unit that outputs the data.
  • the image processing unit includes a first image synthesis unit that synthesizes and outputs pixel value data of a plurality of exposure pixels output from the row sequence conversion unit with the rows aligned. be able to.
  • the image processing unit is a pixel for an exposure image whose exposure order is the first within one vertical synchronization period.
  • the value data can be stored in the storage unit. Further, for an exposure image whose exposure order is other than the first in one vertical synchronization period, it is synthesized by referring to the pixel value data corresponding to its own pixel position and peripheral pixel position already stored in the storage unit for each pixel.
  • the pixel value can be calculated and stored in the storage unit. Further, it may be configured to have a second image synthesis unit that outputs the final synthesis result when the synthesis of the pixel value data for the exposure image with the final exposure order within one vertical synchronization period is completed.
  • the exposure order within one vertical synchronization period is first in each pixel group for the second image synthesis unit.
  • pixel value data can be stored in the storage unit.
  • it is synthesized by referring to the pixel value data corresponding to its own pixel position and peripheral pixel position already stored in the storage unit for each pixel. The pixel value can be calculated and stored in the storage unit.
  • a combined value between the pixel groups with reference to a final combining result for each pixel group obtained by combining the exposure images whose exposure order is final within one vertical synchronization period in the second image combining unit is possible to employ a configuration having an inter-pixel group combining unit that calculates
  • the image processing unit is within one vertical synchronization period among the exposure images in all the pixel groups.
  • the pixel value data can be held in the storage unit for the exposure image with the first exposure order. Further, for an exposure image whose exposure order is other than the first in one vertical synchronization period, it is synthesized by referring to the pixel value data corresponding to its own pixel position and peripheral pixel position already stored in the storage unit for each pixel. The pixel value can be calculated and stored in the storage unit. Further, for an exposure image whose exposure order is the final within one vertical synchronization period, a third image composition unit that outputs a final composition result when composition of pixel value data is completed can be employed.
  • the image processing unit includes pixels at all pixel positions based on the pixel values read for each pixel group.
  • a configuration having a pixel value interpolation unit for interpolating values can be adopted.
  • pixel value data for the exposure image whose exposure order is the first in one vertical synchronization period among all the exposure images of all the pixel groups based on the output of the pixel value interpolation unit. Can be held in the storage unit.
  • a synthesized pixel is referred to by referring to pixel value data corresponding to its own pixel position and peripheral pixel position already held in the storage unit for each pixel. A value can be calculated and held in the storage unit.
  • the moving subject determination unit that determines whether or not the subject is moving at each pixel position in the image processing unit
  • a composition ratio determination unit that determines a composition ratio when calculating a composition pixel value based on the determination result of the moving subject determination unit.
  • the moving subject determination unit can be configured to estimate whether or not the subject is moving at each pixel position by referring to the pixel value of the exposure image and the pixel value on the storage unit.
  • the composite ratio history storage that stores the history of the composite ratio determined by the composite ratio determination unit for the image processing unit It can be set as the structure which has a part.
  • the composition ratio determination unit may be configured to determine the composition ratio with reference to the composition ratio history stored in the composition ratio history storage unit.
  • the composition ratio determining unit may be configured to determine the composition ratio with reference to the exposure time of each exposure image, and to determine the composition ratio with reference to the pixel value level of each exposure image.
  • the analog pixel signal output for each pixel column from each unit pixel of the pixel array unit is digitized. It can be set as the structure provided with an A / D converter.
  • the timing control unit when capturing a light emitting object, the timing control unit takes into account the blinking cycle of the light emitting object, and performs a plurality of exposures by a plurality of exposures.
  • the exposure start time and the exposure time length of each image can be set.
  • Solid-state imaging device of the present disclosure First, an outline of the configuration of the solid-state imaging device of the present disclosure will be described. Here, a CMOS image sensor will be described as an example of the solid-state imaging device of the present disclosure.
  • FIG. 1 is a system configuration diagram illustrating an outline of a configuration of a CMOS image sensor according to the present disclosure.
  • the CMOS image sensor 10 includes a pixel array unit 11, a peripheral driving system, and a signal processing system.
  • a row scanning unit 12, a column processing unit 13, a column scanning unit 14, a horizontal output line 15, and a timing control unit 16 are provided as peripheral drive systems and signal processing systems.
  • These drive system and signal processing system are integrated on the same semiconductor substrate (chip) 30 as the pixel array unit 11.
  • the timing control unit 16 includes, for example, the row scanning unit 12, the column processing unit 13, and the column scanning based on the vertical synchronization signal VD, the horizontal synchronization signal HD, the master clock MCK, and the like that are input from the outside.
  • a clock signal, a control signal, or the like that is a reference for the operation of the unit 14 or the like is generated.
  • Clock signals, control signals, and the like generated by the timing control unit 16 are given as drive signals to the row scanning unit 12, the column processing unit 13, the column scanning unit 14, and the like.
  • the pixel array unit 11 generates photoelectric charges according to the amount of received light, and unit pixels (hereinafter also simply referred to as “pixels”) 20 each having a photoelectric conversion element to accumulate are arranged in a row direction and a column direction.
  • pixels unit pixels
  • the configuration is two-dimensionally arranged in a matrix (matrix).
  • the row direction refers to the pixel arrangement direction in the pixel row
  • the column direction refers to the pixel arrangement direction in the pixel column.
  • row control lines 31 ( 31_1 to 31_m ) are wired in the row direction for each pixel row with respect to a pixel array of m rows and n columns, and column signal lines 32 are provided for each pixel column. ( 32_1 to 32_n ) are wired along the column direction.
  • the row control line 31 transmits a control signal for performing control when a signal is read from the unit pixel 20.
  • the row control line 31 is illustrated as one wiring, but the number is not limited to one.
  • One end of each of the row control lines 31_1 to 31_m is connected to each output end corresponding to each row of the row scanning unit 12.
  • the row scanning unit 12 includes a shift register, an address decoder, and the like, and drives each pixel 20 of the pixel array unit 11 at the same time or in units of rows.
  • the row scanning unit 12 generally has two scanning systems, a reading scanning system and a sweeping scanning system.
  • the readout scanning system In order to read out a signal from the unit pixel 20, the readout scanning system selectively scans the unit pixels 20 of the pixel array unit 11 in units of rows.
  • a signal read from the unit pixel 20 is an analog signal.
  • the sweep-out scanning system performs sweep-out scanning with respect to the readout row on which readout scanning is performed by the readout scanning system, preceding the readout scanning by a time corresponding to the shutter speed.
  • a so-called electronic shutter operation is performed by sweeping (resetting) unnecessary charges by the sweep scanning system.
  • the electronic shutter operation refers to an operation in which the photoelectric charge of the photoelectric conversion element is discarded and a new exposure is started (photocharge accumulation is started).
  • the signal read out by the readout operation by the readout scanning system corresponds to the amount of light received after the immediately preceding readout operation or electronic shutter operation.
  • a period from the signal readout timing by the immediately preceding readout operation or the sweep timing by the electronic shutter operation to the signal readout timing by the current readout operation is an exposure period of the photocharge in the unit pixel 20. In this exposure period, the signal read timing by the previous read operation or the sweep timing by the electronic shutter operation becomes the exposure start timing, and the signal read timing by the current read operation becomes the exposure end timing.
  • the column processing unit 13 is, for example, an A / D (analog / digital) provided with a one-to-one correspondence for each pixel column of the pixel array unit 11, that is, for each column signal line 32 ( 32_1 to 32_n ).
  • This is a signal processing unit having a converter 40 ( 40_1 to 40_n ).
  • the A / D converter 40 ( 40_1 to 40_n ) digitizes an analog pixel signal output from each unit pixel 20 of the pixel array unit 11 for each pixel column.
  • a / D converter 40 for example, a configuration including a comparator and a counter can be used.
  • the comparator uses a so-called slope-shaped reference signal whose voltage value changes stepwise as time passes as a reference input, and outputs an analog signal output from each unit pixel 20 of the pixel array unit 11 in units of pixel columns.
  • the pixel signal is used as a comparison input, and both are compared.
  • the counter converts an analog pixel signal into digital data by performing a count operation over a period from the start of the comparison operation in the comparator to the end of the comparison operation in synchronization with a predetermined clock.
  • the A / D converter 40 having the above-described configuration, by using an up / down counter as a counter, a process for removing noise during the reset operation of the unit pixel 20, specifically, correlated double sampling ( It is possible to perform noise removal processing by Correlated Double Sampling (CDS).
  • CDS Correlated Double Sampling
  • the reset component corresponds to a pixel signal when the unit pixel 20 is reset.
  • the signal component corresponds to a pixel signal obtained by photoelectric conversion in the unit pixel 20.
  • the random noise generated when resetting is held in the charge detection unit 26 (see FIG. 2). Therefore, the signal component read by adding the signal charge is reset. The same amount of noise as the component is retained. Therefore, in the up / down counter, for example, the CDS process for subtracting the reset component from the signal component can be performed by down-counting the reset component and up-counting the signal component.
  • the column scanning unit 14 includes a shift register, an address decoder, and the like, and controls column addresses and column scanning of the A / D converters 40 _1 to 40 _n in the column processing unit 13. Under the control of the column scanning unit 14, the A / D converted digital data in each of the A / D converters 40_1 to 40_n is sequentially read out to the horizontal output line 15 and then output from the output terminal 33. The image data is output outside the chip (semiconductor substrate) 30.
  • FIG. 2 is a circuit diagram illustrating an example of a circuit configuration of the unit pixel 20.
  • the unit pixel 20 includes, for example, a photodiode (PD) 21 as a photoelectric conversion element.
  • the unit pixel 20 includes, for example, a transfer transistor 22, a reset transistor 23, an amplification transistor 24, and a selection transistor 25.
  • N-type MOSFETs are used as the four transistors of the transfer transistor 22, the reset transistor 23, the amplification transistor 24, and the selection transistor 25.
  • the combination of the conductivity types of the four transistors 22 to 25 illustrated here is merely an example, and is not limited to these combinations.
  • a plurality of control lines 311, 312, and 313 are wired in common to the pixels in the same pixel row as the above-described row control lines 31 (31 _ 1 to 31 _m ) for the unit pixel 20.
  • the plurality of control lines 311, 312, 313 are connected to the output end corresponding to each pixel row of the row scanning unit 12 in units of pixel rows.
  • the row scanning unit 12 appropriately outputs a transfer signal TRG, a reset signal RST, and a selection signal SEL to the plurality of control lines 311, 312, and 313.
  • the photodiode 21 has an anode electrode connected to a low-potential-side power source (for example, ground), and photoelectrically converts received light into photocharge (here, photoelectrons) having a charge amount corresponding to the amount of light. Accumulate charge.
  • the cathode electrode of the photodiode 21 is electrically connected to the gate electrode of the amplification transistor 24 through the transfer transistor 22.
  • a region electrically connected to the gate electrode of the amplification transistor 24 is a charge detection unit 26 that converts a charge into a voltage.
  • the charge detection unit 26 is referred to as an FD (floating diffusion / floating diffusion region / impurity diffusion region) unit 26.
  • the transfer transistor 22 is connected between the cathode electrode of the photodiode 21 and the FD portion 26.
  • a transfer signal TRG that activates a high level (for example, V dd level) is applied from the row scanning unit 12 through the control line 311 to the gate electrode of the transfer transistor 22.
  • the transfer transistor 22 is turned on in response to the transfer signal TRG, and thus photoelectrically converted by the photodiode 21 and transfers the accumulated photocharge to the FD unit 26.
  • the reset transistor 23 has a drain electrode connected to the power supply line 34 having the voltage V dd and a source electrode connected to the FD unit 26.
  • a reset signal RST that activates a high level is applied to the gate electrode of the reset transistor 23 from the row scanning unit 12 through the control line 312.
  • the reset transistor 23 becomes conductive in response to the reset signal RST, and resets the FD unit 26 by discarding the electric charge of the FD unit 26 to the power supply line 34.
  • the amplification transistor 24 has a gate electrode connected to the FD section 26 and a drain electrode connected to the power supply line 34.
  • the amplification transistor 24 serves as an input section of a source follower that is a readout circuit that reads a signal obtained by photoelectric conversion at the photodiode 21. That is, the amplifying transistor 24 forms a source follower with a current source 35 connected to one end of the column signal line 32 by connecting the source electrode to the column signal line 32 via the selection transistor 25.
  • the selection transistor 25 has a drain electrode connected to the source electrode of the amplification transistor 24 and a source electrode connected to the column signal line 32.
  • a selection signal SEL that activates a high level is supplied from the row scanning unit 12 through the control line 313 to the gate electrode of the selection transistor 25.
  • the selection transistor 25 becomes conductive in response to the selection signal SEL, and transmits the signal output from the amplification transistor 24 to the column signal line 32 with the unit pixel 20 selected.
  • the selection transistor 25 may have a circuit configuration connected between the power supply line 34 and the drain electrode of the amplification transistor 24.
  • a 4Tr configuration including the transfer transistor 22, the reset transistor 23, the amplification transistor 24, and the selection transistor 25, that is, four transistors (Tr) is given as an example.
  • the selection transistor 25 may be omitted, and a 3Tr configuration in which the amplification transistor 24 has the function of the selection transistor 25 may be used, or a configuration in which the number of transistors is increased as necessary.
  • each pixel 20 of the pixel array unit 11 is grouped into two (two types) pixel groups A and B.
  • the pixel group setting method is arbitrary. A first example of pixel grouping is shown in FIG. 3A, and a second example of pixel grouping is shown in FIG. 3B. 3A and 3B, it is assumed that pixels having the same character (A, B) in each pixel 20 form the same pixel group.
  • pixel group A and pixel group B are grouped alternately every two rows.
  • pixel grouping of the second example shown in FIG. 3B corresponding to the R (red), G (green), and B (blue) Bayer arrangement, four pixels adjacent vertically and horizontally are used as a unit, and pixel group A and pixel group B is grouped in such a manner that RGB is isotropically distributed. That is, in the pixel grouping of the first example and the pixel grouping of the second example, the pixel group A and the pixel group B are grouped so that the number of pixels is equal.
  • row control for transmitting a control signal for performing control when reading a signal from the unit pixel 20 is performed.
  • Two lines 31 are provided corresponding to the pixel group A and the pixel group B.
  • the timing control unit 16 (see FIG. 1) is characterized by performing the following control. That is, the timing control unit 16 starts exposure independently for each of the plurality of pixel groups so that at least one pixel group of the plurality of pixel groups is subjected to multiple exposures within one vertical synchronization period. Timing and exposure end timing are set.
  • the exposure start timing is a timing at which the photoelectric charge of the photodiode 21 is discarded through the FD unit 26 (reset) and exposure is newly started.
  • the exposure end timing ends when the transfer transistor 22 becomes conductive, and the photoelectric charge photoelectrically converted by the photodiode 21 is transferred to the FD unit 26, and is transmitted to the column signal line 32 through the amplification transistor 24 as a pixel signal.
  • This is a read timing (signal read timing).
  • the pixel group A is exposed three times within one vertical synchronization period, and the pixel group B is exposed once within one vertical synchronization period.
  • the exposure of 3 times in the pixel group A, exposure from the side exposure start timing is early A _a, exposure A _b, the exposure A _c, and exposing B a single exposure in the pixel group B.
  • Exposure A_a to exposure A_c are exposures by the rolling shutter method, respectively, and exposure start (RESET) and exposure end / signal readout (READ) are sequentially performed from the smallest line number (row number). In this case, before exposure A _a is to finish reading to the last line (line), starting the first exposure end-signal reading line of exposure A _b and exposure A _c. That is, the three exposures A_a , A_b , and A_c are set so close that their exposure end timings overlap in time.
  • FIG. 5 shows a readout sequence of pixel value data of the pixel group A in the case of the exposure sequence 1.
  • a 0 , a 1 , a 2 ,..., B 0 , b 1 , b 2 ,..., C 0 , c 1 , c 2 The pixel value data of each row read from each exposure image of _b and exposure A_c is represented, and the subscript numerals correspond to the line numbers.
  • the first pixel value data of the read line b 0 of the exposure image of the exposure A _b is read by time division manner in a subsequent shape in the readout row a 3 exposure image exposure A _a.
  • the reading of the pixel value data of the exposure image of exposure A_c is also performed in a time-sharing manner in the same manner as the reading of the pixel value data of each exposure image of exposure A_a and exposure A_b .
  • the exposure sequence 1 described above realizes three exposures at close time intervals for the pixel group A, and four types of exposure can be performed together with the long-time exposure of the pixel group B.
  • CMOS image sensor 10 of the present disclosure exposure is performed a plurality of times within one vertical synchronization period for at least one pixel group among a plurality of grouped pixel groups, and spatially.
  • the exposure time ratio between the exposure images can be set close to each other.
  • the exposure time ratio between a plurality of exposure images can be set close to each other, so that a scene with a wide dynamic range (hereinafter referred to as “wide dynamic range”) can be captured without lowering the spatial resolution. It becomes possible. It is possible to shoot without saturating a wide dynamic range scene (without causing whiteout) and without causing blackout.
  • reading of a plurality of exposure images in a time-overlapping period is performed in a time-sharing manner (time-sharing reading), and the number of A / D converters 40 is larger than that in normal reading, and these
  • time-sharing reading time-sharing reading
  • a / D converters 40 in a distributed manner, a plurality of exposure images can be read out within one vertical synchronization period.
  • a plurality of A / D converters 40 are arranged for one pixel column, but the present invention is not limited to this.
  • a plurality of exposure images in a time-overlapping period are read out in a time-sharing manner, and the number of A / D converters 40 is the same as that in normal reading, and these A / D converters Even if 40 is driven at high speed, a plurality of exposure images can be read out within one vertical synchronization period.
  • CMOS that realizes a plurality of exposures in a plurality of pixel groups by arranging a plurality of A / D converters 40 for one pixel column and using these A / D converters 40 in parallel.
  • the image sensor 10 will be described.
  • An example will be described.
  • pixel grouping is the first example shown in FIG. 3A.
  • FIG. 6 is a schematic diagram of a configuration of the CMOS image sensor 10 in which a plurality of A / D converters 40 are arranged for one pixel column and these A / D converters 40 are used in parallel.
  • the column processing unit 13 including the A / D converter 40 is disposed above and below (13A, 13B) the pixel array unit 11 is illustrated.
  • Four column signal lines 32 are wired for each pixel column formed with a width of two pixels, and two A / D converters 40 are arranged above and below the pixel array unit 11, for a total of four.
  • the A / D converter 40 has a comparator (comparator) 41 and a counter 42.
  • the comparator 41 uses a reference signal having a sloped waveform as a reference input, uses an analog pixel signal output from each unit pixel 20 of the pixel array unit 11 as a comparison input, and compares the two.
  • the reference signal serving as the standard input of the comparator 41 is generated by a reference signal generation unit 50 configured by a D / A converter or the like.
  • the counter 42 performs a counting operation over a period from the start of the comparison operation in the comparator 41 to the end of the comparison operation in synchronization with a predetermined clock, thereby converting the analog pixel signal into digital data (pixel value data). Convert to
  • connection switch 60 can arbitrarily change the connection relationship between the four column signal lines 32 and the four A / D converters 40 based on the register setting value.
  • each pixel 20 of the pixel array unit 11 shares a connection to the column signal line 32 in units of 4 rows ⁇ 2 columns.
  • the unit pixel 20 is shown by being surrounded by a rectangle every four rows and two columns, and this represents a unit sharing the connection of four column signal lines 32 provided corresponding to the two pixel columns.
  • the row scanning unit 12 includes an address decoder 12A and a pixel drive timing drive circuit 12B.
  • the address decoder 12A operates based on the address signal given from the timing control unit 16.
  • the pixel drive timing drive circuit 12B operates based on the drive timing signal given from the timing control unit 16, and based on the control signal given from the address decoder 12A, a signal for giving shutter timing to each pixel 20 and a signal for giving readout timing. And send.
  • FIG. 7 is a view showing a portion corresponding to one vertical synchronization period (one display frame) in the exposure sequence 1 (see FIG. 4).
  • a / D converter 40 necessary for realizing the exposure sequence shown in FIG. 7 will be described.
  • FIG. 8 there are two pixel columns in the pixel array section 11, column signal lines 32 (VSL 0 , VSL 1 , VSL 2 , VSL 3 ) and A / D converters 40 (ADC 0 , ADC 1 ) corresponding thereto. , ADC 2 , ADC 3 ) are drawn and drawn.
  • two lines are collectively designated as a line L, and numbers (L 0 , L 1 ,...) Are assigned to the lines.
  • the non-shaded rows (L 0 , L 2 ,...) Correspond to the pixel group A
  • the shaded rows (L 1 , L 3 ,...) Correspond to the pixel group B. It shall be.
  • ADC 0 is the pixel value of the exposure A _a
  • ADC 1 has a pixel value of the exposure A _b
  • ADC 2 is a pixel value of the exposure A _c
  • ADC 3 is assumed to read the pixel value of the exposure B.
  • connection switch 60 is provided to handle the connection between the two.
  • a desired exposure sequence is realized by sequentially switching the connection switch 60 in the process of reading the pixel values of each row.
  • Table 1 shows a process of changing how to connect the connection switches 60 when the pixel values of each row are sequentially read out.
  • the row of VSL_SW_ADC 0 describes the number of the column signal line 32 connected to ADC 0 at each timing. The same applies to VSL_SW_ADC 1 , VSL_SW_ADC 2 , and VSL_SW_ADC 3 .
  • the row L1 belonging to the pixel group B is connected to the column signal line VSL 0
  • a plurality of exposure images in a time-overlapping period are simultaneously read (simultaneous split reading), and the number of A / D converters 40 is set larger than that in the normal reading so that these A / D
  • the D converters 40 By using the D converters 40 in a distributed manner, a plurality of exposure images can be read out within one vertical synchronization period.
  • the pixel unit sharing the column signal line 32 the number of the column signal lines 32, the number of parallel installations of the A / D converters 40, and the like are specifically shown and described. It is not necessary to set this.
  • the sharing unit of the column signal line 32 may be every two rows and two columns or every one pixel.
  • the connection between each pixel 20 and the column signal line 32 is not limited to that described in this configuration example, and each pixel row is connected to an appropriate A / D converter 40 in order to realize a desired exposure sequence. Any configuration that is connected may be used.
  • the pixel value data read by each A / D converter 40 corresponds to each exposure data, but this is not always necessary.
  • the connection switch 60 is connected in a fixed manner in the pixel value reading process, and after being read out from the A / D converter 40, processing such as replacement of pixel value data is performed as appropriate. It is also possible to realize reading of exposure data.
  • the CMOS image sensor 10 has the flat structure shown in FIG. 1, but may have a laminated structure.
  • the “flat structure” means a peripheral circuit section of the pixel array section 11, that is, a driving section that drives each pixel 20 of the pixel array section 11, or an A / D converter 40.
  • a signal processing unit including the like is arranged on the same semiconductor substrate 30 as the pixel array unit 11.
  • the "laminated structure”, as shown in FIG. 15A, the pixel array portion 11 and its peripheral circuit section and a separate semiconductor substrate 30 - 1, mounted on 30 _2, these semiconductor substrates 30 - 1, 30 _2 This refers to the structure of stacking.
  • the unit pixel 20 in the semiconductor substrate 30_1 on the pixel array unit 11 side is set as a pixel group 27 for each region of a predetermined size, and the A / D converter 40 is provided for each pixel group 27. Can be arranged on the semiconductor substrate 30_2 .
  • one A / D converter 40 is shared by a plurality of unit pixels 20 that are adjacent vertically and horizontally in the pixel group 27.
  • each pixel 20 in one pixel group 27 and the corresponding A / D converter 40 are connected by a signal line 34.
  • FIG. 15B illustrates a case in which the pixel group 27 is 4 vertical pixels ⁇ 4 horizontal pixels.
  • the pixel structure that captures incident light of the CMOS image sensor 10 may be a front-illuminated pixel structure that captures incident light from the front side when the side on which the wiring layer is disposed is the front side, or the back surface.
  • a backside-illuminated pixel structure that captures from the side (the side opposite to the side on which the wiring layer is disposed) may be used.
  • CMOS image sensor has been described as an example of the solid-state imaging device of the present disclosure.
  • the present invention is not limited to application to a CMOS image sensor. That is, the technique of the present disclosure in which the unit pixels 20 are grouped and at least one pixel group among the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period is similarly applied to the CCD image sensor. Applicable.
  • the CMOS image sensor 10 according to the above-described embodiment can be used as an imaging unit in an imaging apparatus such as a digital still camera, a video camera, a surveillance camera, and an in-vehicle camera. Since the CMOS image sensor 10 according to the present embodiment can shoot a scene with a wide dynamic range without saturating and without causing blackout, it is particularly used for an imaging device such as a surveillance camera or an in-vehicle camera. Is preferred.
  • FIG. 16 is a block diagram illustrating a configuration example of an imaging apparatus according to the present disclosure.
  • the imaging apparatus 100 includes an optical lens 101, an imaging unit 102, an image processing unit 103, a camera signal processing unit 104, a control unit 105, and a timing control unit 106. Yes.
  • the optical lens 101 condenses image light (incident light) from a subject (not shown) on the imaging surface of the imaging unit 102.
  • the imaging unit 102 the above-described CMOS image sensor 10 is used.
  • the unit pixels are grouped into a plurality of pixel groups.
  • each of the plurality of pixel groups is so exposed that at least one pixel group of the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period.
  • the exposure start timing and the exposure end timing are set independently.
  • the CMOS image sensor 10 for example under exposure sequence 1, 3 exposures A _a in the pixel group A, an exposure A _b, and the image data of each exposure image exposure A _c, 1 once in the pixel group B
  • the image data of the exposure image of exposure B is output.
  • the timing control unit 16 is provided on the semiconductor substrate (chip) 30 of the CMOS image sensor 10.
  • a configuration in which the timing control unit 16 is provided outside the semiconductor substrate 30 may be employed.
  • the timing control unit 16 is provided outside the semiconductor substrate 30. That is, the timing control unit 106 in FIG. 16 corresponds to the timing control unit 16 in FIG. 1, and outputs each image data in a time-division format for each row for a plurality of exposure images whose exposure end timings overlap in time. Control.
  • the image processing unit 103 is output from the CMOS image sensor 10, exposure A _a, exposure A _b, and the image data of each exposure image exposure A _c, based on the image data of the exposure image of the exposure B, wide dynamic
  • the camera signal processing unit 104 performs signal processing in a general camera such as white balance adjustment and gamma correction, and generates an output image (HDR image).
  • the control unit 105 is configured by, for example, a CPU (Central Processing Unit) or the like, and controls the image processing unit 103, the camera signal processing unit 104, and the timing control unit 106 according to a program stored in a memory (not shown). Control signals to control various processes.
  • a CPU Central Processing Unit
  • the control unit 105 controls the image processing unit 103, the camera signal processing unit 104, and the timing control unit 106 according to a program stored in a memory (not shown). Control signals to control various processes.
  • the CMOS image sensor 10 at least one pixel group among the plurality of pixel groups is independent for each of the plurality of pixel groups so that the exposure is performed a plurality of times within one vertical synchronization period.
  • the exposure start timing and the exposure end timing are set in In the image processing unit 103, for example, the image data of each exposure image of the three exposures A_a , exposure A_b , and exposure A_c in the pixel group A output from the CMOS image sensor 10 and the pixel group B
  • a wide dynamic range image is generated based on the image data of the exposure image of one exposure B.
  • each exposure image can be captured even in a wide dynamic range scene. Since the exposure time can be set close to each other, the resolution is hardly lowered. That is, according to the imaging apparatus 100, it is possible to suppress a decrease in resolution while capturing a scene with a wide dynamic range.
  • the case where the image processing unit 103 (see FIG. 16) that generates an HDR image is provided outside the CMOS image sensor 10 that is the imaging unit 102 has been described as an example.
  • the CMOS image sensor 10 is a solid-state imaging device having the function of the image processing unit 103.
  • the image processing unit 103 can be mounted on the semiconductor substrate 30_2 on which the A / D converter 40 is arranged, so that the chip size is increased. There is an advantage that the image processing unit 103 can be incorporated without any problem.
  • the configuration of the image processing unit 103 is different for each embodiment.
  • the image processing unit 103 according to the first and fourth embodiments performs image processing under the exposure sequence 1, and the image processing unit 103 according to the second and third embodiments performs image processing under the exposure sequence 2 described later. Is called.
  • FIG. 17 is a block diagram illustrating a configuration example of the image processing unit 103A according to the first embodiment.
  • the image processing unit 103A according to the first embodiment includes a row sequence conversion unit 1031, a storage unit 1032, and an HDR composition unit 1033 as a first image composition unit.
  • the row sequence conversion unit 1031 holds pixel value data in the storage unit 1032 for each row for an exposure image whose exposure order is not final within one vertical synchronization period in the same pixel group. Then, the row sequence conversion unit 1031 reads out the pixel value data of the same row from the storage unit 1032 according to the output timing of the pixel value data for each row of the exposure image whose exposure order is the last within one vertical synchronization period. By the processing by the row sequence conversion unit 1031, pixel value data of a plurality of exposure pixels are output with the rows aligned.
  • the HDR synthesizing unit 1033 as the first image synthesizing unit synthesizes the HDR image data by synthesizing the pixel value data of the plurality of exposure pixels output by aligning the rows by the row sequence conversion unit 1031 between the plurality of exposure pixels. Generate.
  • FIG. 18 is a diagram illustrating a flow of image processing executed by the image processing unit 103A according to the first embodiment.
  • the pixel group A is exposed three times within one vertical synchronization period, and the pixel group B within one vertical synchronization period. 1 exposure is performed (see exposure sequence 1 in FIG. 4). Then, from the CMOS image sensor 10, pixel value data of the three types of exposure images in the pixel group A are read out in a time division manner.
  • first, pixel value data of each row a 0 , a 1 , a 2 ,... Of the exposure image of exposure A_a is sequentially read.
  • the first pixel value data of the read line b 0 of the exposure image of the exposure A _b is read by time division manner in a subsequent shape in the readout row a 3 exposure image exposure A _a.
  • the reading of the pixel value data of the exposure image of exposure A_c is also performed in a time-sharing manner, similar to the reading of the pixel value data of each exposure image of exposure A_a and exposure A_b .
  • Pixel value data read from the CMOS image sensor 10 is supplied to the row sequence conversion unit 1031.
  • the row sequence conversion unit 1031 once stores the pixel value data of each row of the exposure image of exposure A_a and the exposure image of exposure A_b read from the CMOS image sensor 10 in the storage unit 1032. Then, the line sequence converting unit 1031, the exposure A at the timing when each row of pixel value data of the exposure image is read in _c, exposure A _a stored in the storage unit 1032 exposure image and the exposure A _b exposure image Read out the pixel value data of the corresponding row.
  • the HDR synthesizing unit 1033 generates pixel data of three types of exposure images, thereby generating wide dynamic range (HDR) image data (HDR image data).
  • Figure 18 is a CMOS image sensor 10, exposure A _a, exposure A _b, each row of the pixel value data of each of the exposure pixel of exposure A _c indicates a flow of processing after read.
  • each row of the pixel value data of each of the exposure pixel of exposure A _c indicates a flow of processing after read.
  • the pixel value data of each row is stored in the storage unit 1032 according to the read order.
  • pixel value data c 0 of the first row of the exposure image of exposure A_c is read from the CMOS image sensor 10, and pixel value data a 0 and b 0 of the corresponding row are read from the storage unit 1032 at the read timing. And their combined result A 0 is output.
  • synchronization processing by reading from storage and the storage unit 1032 of the storage unit 1032 Is absorbed by.
  • the necessary memory capacity of the storage unit 1032 is equal to the number of rows read before the pixel value data c 0 of the row read first in the exposure A_c . This is the data of exposure A _a and the exposure image exposure A _b read out in pixel value data c 0 subsequent timing, exposure A _a, data of each exposure image exposure A _b has already read storage unit This is because the memory area 1032 may be overwritten.
  • HDR image data A 0 , A 1 , A 2 From the pixel group A and output data B 0 , B 1 , B 2 ,. Can be further combined, and the combined result can be output as HDR image data C 0 , C 1 , C 2 ,.
  • pixel value data is held in the storage unit 1032 for each row for an exposure image whose exposure order is not final within one vertical synchronization period.
  • a synchronization process for reading the pixel value data of the same row from the storage unit 1032 is performed.
  • the memory capacity of the storage unit 1032 for waiting (synchronization) required when performing multiple exposures within one vertical synchronization period can be greatly reduced. The same applies to the following embodiments.
  • Example 2 In the image processing in the first embodiment, an exposure sequence 1 in which the pixel group A is exposed three times within one vertical synchronization period and the pixel group B is exposed once within one vertical synchronization period (see FIG. 4). In this case, the image processing is performed.
  • both the pixel group A and the pixel group B are exposed multiple times within one vertical synchronization period, for example, an exposure sequence (for example, three times).
  • exposure sequence 2 the image processing is described as “exposure sequence 2”.
  • FIG. 20 is a view showing another example (exposure sequence 2) of the exposure sequence according to the present embodiment.
  • the exposure sequence 2 pixel groups A, pixel group B each exposure image A _a, A _b, A _c , B _a, B _b,
  • B _c exposure time B _a, A _a, B _b, a _b, B _c, is set to be staggered shorter in the order of a _c.
  • FIG. 21 is a block diagram illustrating a configuration example of the image processing unit 103B according to the second embodiment.
  • the image processing unit 103B according to the second embodiment includes a sequential HDR synthesis unit 1034 as a second image synthesis unit instead of the row sequence conversion unit 1031 and the HDR synthesis unit 1033 of the first example. Yes.
  • the sequential HDR synthesizing unit 1034 holds pixel value data in the storage unit 1032 for an exposure image whose exposure order is the first within one vertical synchronization period in the same pixel group. Further, the sequential HDR synthesizing unit 1034, for an exposure image whose exposure order is not the first within one vertical synchronization period, corresponds to its own pixel position and peripheral pixel position that are already held in the storage unit 1032 for each pixel. The composite value is calculated with reference to the value data and stored in the storage unit 1032. Then, the sequential HDR synthesizing unit 1034 outputs the synthesis result when the synthesis of the pixel value data is completed for the exposure image whose exposure order is the last in one vertical synchronization period.
  • the sequential HDR synthesizing unit 1034 sequentially synthesizes six alternating exposure images and outputs the final result for the first row in the image.
  • the synchronization processing is performed by using the storage unit 1032 as in the first embodiment.
  • the image processing unit 103B includes an inter-pixel group HDR synthesis unit 1035, a moving subject determination unit 1036, a synthesis ratio determination unit 1037, and a synthesis ratio history storage. Part 1038.
  • the inter-pixel group HDR synthesizing unit 1035 refers to the final synthesis result for each pixel group obtained by synthesizing the exposure images whose exposure order is final within one vertical synchronization period in the sequential HDR synthesizing unit 1034. A composite value is calculated and output as HDR image data.
  • the moving subject determination unit 1036 determines (estimates) whether or not the subject is moving at each pixel position, that is, whether or not the subject is a moving subject. More specifically, the moving subject determination unit 1036 determines whether or not the subject is moving at each pixel position by referring to the pixel value of the exposure image and the pixel value on the storage unit 1032, and the determination Output the result.
  • the combination ratio determination unit 1037 determines a combination ratio when calculating a combined pixel value, that is, a combination ratio in the sequential HDR combination unit 1034 and the inter-pixel group HDR combination unit 1035. .
  • the composition ratio history storage unit 1038 stores the composition ratio of the sequential HDR composition unit 1034 up to that point, that is, the composition ratio history determined by the composition ratio determination unit 1037, and outputs the history.
  • the composition ratio determination unit 1037 determines the composition ratio with reference to the composition ratio history output from the composition ratio history storage unit 1038 when determining the composition ratio based on the estimation result of the moving subject determination unit 1036.
  • the composition ratio determination unit 1037 further determines the composition ratio with reference to the exposure time of each exposure image. Information on the exposure time of each exposure image can be acquired from the timing control unit 16 (see FIG. 1).
  • the composition ratio determining unit 1037 further determines the composition ratio with reference to the pixel value level of each exposure image.
  • the moving subject determination unit 1036 estimates whether or not the subject is moving for each pixel position, and the composition ratio determining unit 1037 determines the composition ratio of the two images according to the estimation result, and the two images are combined.
  • An example of the flow of processing will be described with reference to the flowchart of FIG. This series of processing is executed under the control of the CPU constituting the control unit 105 (see FIG. 16).
  • an image M and an image N represent two images that are sequentially combined.
  • the CPU selects target positions in the image M and the image N (step S11), generates an average value aveM of 5 ⁇ 5 pixels around the target position in the image M (step S12), and then determines the target position in the image N.
  • An average value aveN of the surrounding 5 ⁇ 5 pixels is generated (step S13).
  • the CPU calculates an absolute difference value d between the average value aveM and the average value aveN (step S14).
  • step S15 the CPU determines the composition ratio ⁇ according to the magnitude relationship between the difference absolute value d and the determination threshold (step S15). Specifically, in step S15, when the difference absolute value d between the two images M and N is larger than the determination threshold, it is determined that the pixel position is a moving object region, and an image with a shorter exposure time is used. A process for setting the composition ratio ⁇ is performed.
  • the CPU synthesizes the pixel values at the target positions of the images M and N with the synthesis ratio ⁇ set in step S15 (step S16), and then selects all pixel positions on the two images M and N. It is determined whether or not the above-described processing has been completed at all pixel positions on the two images M and N (step S17).
  • step S17 If the CPU is not finished at all pixel positions (NO in S17), the CPU returns to step S11 and repeats the series of processes described above. If completed (YES in S17), the CPU outputs the synthesis result (step S18), determines the synthesis ratio ⁇ of the two images M and N, and determines the two images M and M at the synthesis ratio ⁇ . A series of processes for synthesizing one N sequential HDR synthesis is completed.
  • the HDR synthesizing unit 1034 sequentially performs the HDR synthesizing process from the exposure image in which the row numbers are aligned in the same pixel group for each pixel group.
  • the final HDR synthesis result obtained within one vertical synchronization period is sequentially output from the HDR synthesis unit 1034.
  • the inter-pixel group HDR synthesizing unit 1035 performs a process of calculating a composite value between the pixel groups and outputting it as HDR image data.
  • FIG. 23 is a block diagram illustrating a configuration example of an image processing unit according to the third embodiment.
  • the image processing unit 103C according to the third embodiment includes a sequential HDR synthesis unit 1039 as a third image synthesis unit instead of the sequential HDR synthesis unit 1034 according to the second embodiment.
  • the image processing unit 103C according to the third embodiment further includes a pixel value interpolation unit 1040, and other configurations are the same as those of the image processing unit 103B according to the second embodiment.
  • the sequential HDR synthesizing unit 1039 holds the pixel value data at 1032 for the exposure image having the first exposure order within one vertical synchronization period among the exposure images in all the pixel groups. For exposure images other than the first exposure order within one vertical synchronization period, refer to the pixel value data corresponding to the own pixel position and the peripheral pixel position already stored in the storage unit 1032 for each pixel. The composite pixel value is calculated and stored in the storage unit 1032. Then, the sequential HDR synthesizing unit 1039 outputs the final synthesis result when the synthesis of the pixel value data for the exposure image whose exposure order is the final within one vertical synchronization period is completed.
  • pixel group A and pixel group B are sampled at different spatial phases.
  • the pixel value interpolating unit 1040 interpolates the pixel values at all pixel positions, and then the synthesizing process is performed.
  • the pixel value interpolation unit 1040 interpolates pixel values at all pixel positions based on pixel values read from the CMOS image sensor 10 for each pixel group.
  • the sequential HDR synthesizing unit 1039 receives the output from the pixel value interpolation unit 1040, and stores it when the exposure order within one vertical synchronization period is the first image among all the exposure images of all the pixel groups.
  • the pixel value data is held in the unit 1032.
  • the sequential HDR synthesizing unit 1039 corresponds to its own pixel position and peripheral pixel position already held in the storage unit 1032 for each pixel when the exposure order is not the first in one vertical synchronization period. An operation of calculating a composite value with reference to the pixel value data and holding it in the storage unit 1032 is performed.
  • the sequential HDR synthesis unit 1039 uses the storage unit 1032 to sequentially perform HDR synthesis processing between pixel groups. Further, the pixel value interpolation unit 1040 performs processing for interpolating pixel values read from the pixel group to all pixel positions.
  • Example 4 By the way, in a traffic light using an LED (light emitting diode) as a light source or an electric signboard using a fluorescent lamp as a light source, when the light source is flickering due to fluctuations in the AC power supply, depending on the relationship between the blinking cycle and the frame rate of the camera. , The shining traffic lights and signs will appear to be extinguished or flickering. This phenomenon is called a flicker phenomenon. Under this flicker phenomenon, it is perceived that the luminescent object has disappeared (so-called blackout) or flickers. Such a phenomenon is a problem particularly in an in-vehicle camera for recognition use.
  • Example 4 was made in order to solve the above-described problems caused by the flicker phenomenon, and is an exposure drive that suppresses a phenomenon in which a light emitting object disappears or flickers.
  • FIG. 24 shows an exposure sequence in the case of the fourth embodiment.
  • the pixel group A is exposed five times within one vertical synchronization period, and the pixel group B is exposed once within one vertical synchronization period. Shall be performed.
  • Five exposure in the pixel group A an exposure A _a from the side exposure start timing is early, exposure A _b, exposure A _c, exposure A _d, the exposure A _e.
  • each exposure period t i is set so that a desired dynamic range can be realized by using five exposure images of the pixel group A and one exposure image of the pixel group B. At this time, it is considered to set the exposure timing of each exposure image so as to capture the period during which the light source is turned on.
  • each exposure timing is set based on the exposure start time S i that maximizes the value range of M all , an exposure that easily captures the flicker lighting period can be realized.
  • Example 4 when capturing a light emitting object that blinks at a high frequency, such as a traffic light using an LED as a light source, exposure of each of a plurality of exposure images is started in consideration of the blinking cycle of the light emitting object. Set the time and exposure time length. As a result, the exposure sequence can be determined so as not to miss the light emission timing of the light emitting object, so that it is possible to capture the light emission timing of the light source object that has been captured with the existing imaging method flickering or extinguished more easily. It becomes possible.
  • the CMOS image sensor 10 can be used in an imaging apparatus such as a digital still camera, a video camera, a surveillance camera, and an in-vehicle camera, and in general electronic devices having an imaging function such as a mobile phone and a smartphone. It can be used as the imaging unit.
  • FIG. 25 is a system configuration diagram illustrating an outline of the configuration of the electronic device of the present disclosure.
  • an electronic apparatus 200 includes an optical system 201 including a lens group, an imaging unit 202, a DSP circuit 203 that is a camera signal processing unit, a frame memory 204, a display device 205, a recording device 206, An operation system 207, a power supply system 208, and the like are included.
  • the DSP circuit 203, the frame memory 204, the display device 205, the recording device 206, the operation system 207, and the power supply system 208 are connected to each other via a bus line 209.
  • the optical system 201 takes in incident light (image light) from a subject and forms an image on the imaging surface of the imaging unit 202.
  • the imaging unit 202 converts the amount of incident light imaged on the imaging surface by the optical system 201 into an electrical signal for each pixel and outputs the electrical signal as a pixel signal.
  • the imaging unit 202 the CMOS image sensor 10 according to each of the above-described embodiments can be used.
  • the DSP circuit 203 performs general camera signal processing, such as white balance processing, demosaic processing, gamma correction processing, and the like. I do.
  • the DSP circuit 203 performs the processing of the image processing unit 103 prior to the general camera signal processing described above.
  • the frame memory 204 is used for storing data as appropriate during the signal processing in the DSP circuit 203.
  • the display device 205 includes a panel display device such as a liquid crystal display device or an organic EL (electroluminescence) display device, and displays a moving image or a still image captured by the imaging unit 202.
  • the recording device 206 records the moving image or still image captured by the imaging unit 202 on a recording medium such as a portable semiconductor memory, an optical disk, or an HDD (Hard Disk Disk Drive).
  • the operation system 207 issues operation commands for various functions of the electronic device 200 under the operation of the user.
  • the power supply system 208 appropriately supplies various power supplies serving as operation power supplies for the DSP circuit 203, the frame memory 204, the display device 205, the recording device 206, and the operation system 207 to these supply targets.
  • CMOS image sensor 10 or the imaging device 100 as the imaging unit 202, it is possible to capture a scene with a wide dynamic range without reducing the spatial resolution. .
  • a pixel array unit in which unit pixels including photoelectric conversion elements are arranged in a matrix and each unit pixel is grouped into a plurality of pixel groups; An exposure start timing and an exposure end timing are independently set for each of the plurality of pixel groups so that at least one of the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period.
  • a timing control unit A solid-state imaging device.
  • the timing control unit for at least two exposures of the plurality of exposures, starts exposure after the exposure end timing of the unit pixel in the last read row of the exposure image that has been exposed first.
  • the solid-state imaging device Independently setting the exposure start timing and the exposure end timing for each of the plurality of pixel groups so that the exposure end timing of the unit pixel of the row read out first in the image is advanced.
  • the solid-state imaging device according to [1] above.
  • the timing control unit performs control to output each image data in a time-division format for each row for a plurality of exposure images whose exposure ends overlap in time.
  • An image processing unit that generates an image with a wide dynamic range based on image data of each exposure image of a plurality of pixel groups.
  • the solid-state imaging device according to any one of [1] to [3] above.
  • the image processing unit holds pixel value data for each row in the storage unit for an exposure image whose exposure order is not final within one vertical synchronization period, and the exposure order within one vertical synchronization period is final. In accordance with the output timing of the pixel value data for each row of the exposure image, the pixel value data of the same row is read from the storage unit, and a row sequence conversion unit that outputs a plurality of exposure image rows in a uniform manner, The solid-state imaging device according to [4] above. [6] The image processing unit includes a first image synthesizing unit that synthesizes and outputs the pixel value data of the plurality of exposure pixels output from the row sequence conversion unit with the rows aligned. The solid-state imaging device according to [5] above.
  • the image processing unit holds the pixel value data in the storage unit for an exposure image whose exposure order is the first within one vertical synchronization period, and exposure whose exposure order is other than the first within one vertical synchronization period.
  • the composite pixel value is calculated and stored in the storage unit with reference to the pixel value data corresponding to the own pixel position and the peripheral pixel position already stored in the storage unit for each pixel, and is stored in one vertical synchronization period.
  • a second image composition unit that outputs a final composition result when composition of pixel value data is completed for the final exposure image in the exposure order
  • the solid-state imaging device according to [4] above.
  • the second image composition unit holds pixel value data in the storage unit for an exposure image whose exposure order is the first in one vertical synchronization period, and stores the pixel value data in one vertical synchronization period.
  • the composite pixel value is calculated by referring to the pixel value data corresponding to the own pixel position and the peripheral pixel position already held in the storage unit for each pixel and stored in the storage unit. Hold, The solid-state imaging device according to [7] above.
  • the image processing unit refers to a final synthesis result for each pixel group obtained by synthesizing the exposure images whose exposure order is final within one vertical synchronization period in the second image synthesis unit, and performs synthesis between the pixel groups.
  • the image processing unit holds pixel value data in the storage unit for an exposure image whose exposure order is the first within one vertical synchronization period among exposure images in all pixel groups, and performs one vertical synchronization.
  • the composite pixel value is calculated by referring to the pixel value data corresponding to the own pixel position and the peripheral pixel position already held in the storage unit for each pixel.
  • a third image composition unit that outputs the final composition result when the composition of the pixel value data is completed for the exposure image whose exposure order is final within one vertical synchronization period.
  • the image processing unit includes a pixel value interpolation unit that interpolates pixel values at all pixel positions based on pixel values read for each pixel group,
  • the third image composition unit stores pixel value data for an exposure image whose exposure order is the first in one vertical synchronization period among all exposure images of all pixel groups based on the output of the pixel value interpolation unit.
  • the pixel value data corresponding to the own pixel position and the peripheral pixel position already stored in the storage unit for each pixel is referred to for an exposure image whose exposure order is not the first in one vertical synchronization period.
  • To calculate a composite pixel value and store it in the storage unit The solid-state imaging device according to [10] above.
  • the image processing unit A moving subject determination unit that determines whether or not the subject is moving at each pixel position; A composition ratio determining unit that determines a composition ratio when calculating a composition pixel value based on a determination result of the moving subject determination unit; The solid-state imaging device according to any one of [7] to [10] above. [13] The moving subject determination unit estimates whether or not the subject is moving at each pixel position by referring to the pixel value of the exposure image and the pixel value on the storage unit. The solid-state imaging device according to the above [12]. [14] The image processing unit includes a combination ratio history storage unit that stores a history of the combination ratio determined by the combination ratio determination unit.
  • the composition ratio determining unit determines the composition ratio with reference to the composition ratio history stored in the composition ratio history storage unit.
  • the solid-state imaging device according to [12] or [13].
  • the composition ratio determining unit determines the composition ratio with reference to the exposure time of each exposure image.
  • the solid-state imaging device according to any one of [12] to [14].
  • the composition ratio determination unit determines the composition ratio with reference to the pixel value level of each exposure image.
  • the solid-state imaging device according to any one of [12] to [15] above.
  • An A / D converter that digitizes an analog pixel signal output from each unit pixel of the pixel array unit for each pixel column, The solid-state imaging device according to any one of [1] to [16].
  • a pixel array unit in which unit pixels including photoelectric conversion elements are arranged in a matrix, and each unit pixel is grouped into a plurality of pixel groups; An exposure start timing and an exposure end timing are independently set for each of the plurality of pixel groups so that at least one of the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period.
  • a timing control unit An imaging apparatus having a solid-state imaging device. [19] The timing control unit sets the exposure start time and the exposure time length of each of a plurality of exposure images by a plurality of exposures in consideration of the blinking cycle of the light emitting object when capturing the light emitting object.
  • a pixel array unit in which unit pixels including photoelectric conversion elements are arranged in a matrix, and each unit pixel is grouped into a plurality of pixel groups; An exposure start timing and an exposure end timing are independently set for each of the plurality of pixel groups so that at least one of the plurality of pixel groups is exposed a plurality of times within one vertical synchronization period.
  • a timing control unit An electronic apparatus having a solid-state imaging device.
  • SYMBOLS 10 CMOS image sensor, 11 ... Pixel array part, 12 ... Row scanning part, 13 ... Column processing part, 14 ... Column scanning part, 15 ... Horizontal output line, 16 * ..Timing control unit, 20 ... unit pixel, 21 ... photodiode (PD), 22 ... transfer transistor, 23 ... reset transistor, 24 ... amplification transistor, 25 ... select transistor , 26... FD section (charge detection section), 30... Semiconductor substrate, 31 ( 31.sub._1 to 31.sub .-- m )... Row control line, 32 ( 32.sub._1 to 32.sub .-- n ).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の固体撮像素子は、光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、を備える。

Description

固体撮像素子、撮像装置、及び、電子機器
 本開示は、固体撮像素子、撮像装置、及び、電子機器に関する。
 固体撮像素子として、例えば、CCDイメージセンサ(CCD(Charge Coupled Device)型固体撮像素子)や、CMOSイメージセンサ(CMOS(Complementary Metal Oxide Semiconductor)型固体撮像素子)が知られている。固体撮像素子は、入射光量に応じた電荷を蓄積し、その蓄積した電荷に対応する電気信号を出力する光電変換を行う。しかし、電荷蓄積量には上限レベルがあるため、ある露光時間で上限レベル以上に光量を受けると、蓄積電荷量は飽和レベルに達する。その結果、飽和レベル以上の階調を表現することができず、所謂白飛びの状態となる。
 蓄積電荷量が飽和しないように短時間でシャッタを切ることによって白飛びを回避することが可能である。しかし、明るい領域と暗い領域とが混在する広いダイナミックレンジ(High Dynamic Range:HDR)のシーンを撮影した場合、暗い領域について十分に電荷が蓄積できないために、S/N(SN比)が悪く画質が劣化する、所謂黒つぶれの状態となる。
 広いダイナミックレンジのシーンを撮影するための技術として、露光時間を変えた複数枚の画像を連続的に撮影し、それらの画像を合成することによってダイナミックレンジを拡張する手法が知られている。しかし、この手法の場合、撮影タイミングの離れた複数枚の画像を合成するため、撮影タイミングの間に被写体が動くと多重像を作りやすいという問題や、撮影画像の枚数が多くなるほど合成画像を得るフレームレートが下がるという問題であった。
 これに対し、複数枚の画像を連続的に撮影するのではなく、画素毎に露光時間が異なるように制御して撮像することで、1回の撮像で複数回の露光の下での複数枚の画像を取得し、それらを合成することで広いダイナミックレンジの画像を生成する技術がある(例えば、特許文献1,2参照)。この技術によれば、ダイナミックレンジの広いシーンを飽和させず(白飛びを起こさず)、黒つぶれも起こさずに撮影することができる。
特開2002-118789号公報 国際公開第2006/049098号
 しかしながら、上記の特許文献1,2に記載の従来技術にあっては、実現できる露光枚数は空間解像度の分割数によって決まることになるため、複数回の露光によって広いダイナミックレンジのシーンを撮像する場合には、空間解像度が低下しやすいという問題があった。
 そこで、本開示は、空間解像度を低下させることなく、広いダイナミックレンジのシーンを撮像することが可能な固体撮像素子、当該固体撮像素子を有する撮像装置、及び、当該撮像装置を有する電子機器を提供することを目的とする。
 上記の目的を達成するための本開示の固体撮像素子は、
 光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
 複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
 を備える固体撮像素子である。
 上記の目的を達成するための本開示の撮像装置は、上記の構成の固体撮像素子を有する撮像装置である。また、上記の目的を達成するための本開示の電子機器は、上記の構成の固体撮像素子を有する電子機器である。上記の構成の固体撮像素子、撮像装置、あるいは、電子機器において、1垂直同期期間内に複数回の露光を行うことにより、広いダイナミックレンジのシーンを撮像する際に、複数回の露光による複数枚の露光画像間の露光時間比を近接して設定できる。
 本開示によれば、1垂直同期期間内に複数回の露光を行うことによって露光画像間の露光時間比を近接して設定できるため、空間解像度を低下させることなく、広いダイナミックレンジのシーンを撮像することが可能となる。
 尚、ここに記載された効果に必ずしも限定されるものではなく、本明細書中に記載されたいずれかの効果であってもよい。また、本明細書に記載された効果はあくまで例示であって、これに限定されるものではなく、また付加的な効果があってもよい。
図1は、本開示の固体撮像素子の一例であるCMOSイメージセンサの構成の概略を示すシステム構成図である。 図2は、単位画素の回路構成の一例を示す回路図である。 図3Aは、画素グループ分けの第1例を示す図であり、図3Bは、画素グループ分けの第2例を示す図である。 図4は、タイミング制御部による制御の下に実行される、本実施形態に係る露光シーケンスの一例(露光シーケンス1)を示す図である。 図5は、本実施形態の場合の画素グループAの画素値データの読出しシーケンスを示す図である。 図6は、1つの画素列に対して複数個のA/D変換器を配置し、これらのA/D変換器を並列使用するCMOSイメージセンサの構成の概略図である。 図7は、本実施形態に係る露光シーケンスのうち、1垂直同期期間(1表示フレーム)に対応する部分を示した図である。 図8は、画素アレイ部内のある2画素列と、それに対応する列信号線及びA/D変換器を抜き出して描画した図である。 図9は、読出しタイミングt=0における列信号線とA/D変換器との接続の様子を示す図である。 図10は、読出しタイミングt=1における列信号線とA/D変換器との接続の様子を示す図である。 図11は、読出しタイミングt=2における列信号線とA/D変換器との接続の様子を示す図である。 図12は、読出しタイミングt=0において、露光画像として読み出される行番号を示す図である。 図13は、読出しタイミングt=1において、露光画像として読み出される行番号を示す図である。 図14は、読出しタイミングt=2において、露光画像として読み出される行番号を示す図である。 図15Aは、積層構造のCMOSイメージセンサに適用した場合の単位画素とA/D変換器との対応関係を示す図であり、図15Bは、1つの画素群内の各画素と、対応するA/D変換器との電気的な接続を示す図である。 図16は、本開示の撮像装置の構成例を示すブロック図である。 図17は、実施例1に係る画像処理部の構成例を示すブロック図である。 図18は、実施例1に係る画像処理部によって実行される画像処理の流れを示す図である。 図19は、画素グループAからのHDR画像データと、画素グループBからの出力データとを合成する画像処理の流れを示す図である。 図20は、本実施形態に係る露光シーケンスの他の例(露光シーケンス2)を示す図である。 図21は、実施例2に係る画像処理部の構成例を示すブロック図である。 図22は、実施例2に係る画像処理部において実行される、画素位置毎の動被写体の推定結果に応じて2つの画像の合成比率を決定し、2つの画像を合成する処理の流れの一例を示すフローチャートである。 図23は、実施例3に係る画像処理部の構成例を示すブロック図である。 図24は、実施例4の場合の露光シーケンスを示す図である。 図25は、本開示の電子機器の構成の概略を示すシステム構成図である。
 以下、本開示の技術を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。本開示の技術は実施形態に限定されるものではなく、実施形態における種々の数値などは例示である。以下の説明において、同一要素又は同一機能を有する要素には同一符号を用いることとし、重複する説明は省略する。尚、説明は以下の順序で行う。
 1.本開示の固体撮像素子、撮像装置、及び、電子機器、全般に関する説明
 2.本開示の固体撮像素子(CMOSイメージセンサの例)
  2-1.システム構成
  2-2.単位画素の回路構成
  2-3.単位画素のグループ分け
  2-4.1垂直同期期間内での複数回露光
  2-5.露光シーケンスの例
  2-6.1つの画素列に対して複数個のA/D変換器を配置する例
  2-7.変形例
 3.本開示の撮像装置
  3-1.システム構成
  3-2.画像処理部の構成
   3-2-1.実施例1(同時化処理の例)
   3-2-2.実施例2(画素グループ毎の逐次HDR合成の例)
   3-2-3.実施例3(画素グループ間での逐次HDR合成の例)
   3-2-4.実施例4(フリッカ現象によるブラックアウト対策の例)
 4.本開示の電子機器
<本開示の固体撮像素子、撮像装置、及び、電子機器、全般に関する説明>
 本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、タイミング制御部について、複数回の露光のうちの少なくとも2つの露光について、先に露光を開始した露光画像の最終読出し行の単位画素の露光終了タイミングよりも、後から露光を開始した露光画像の最初に読み出される行の単位画素の露光終了タイミングが早くなるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定する構成とすることができる。
 上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、タイミング制御部について、露光終了が時間的に重複する複数の露光画像について、行毎に時分割形式で各々の画像データを出力する制御を行う構成とすることができる。また、複数の画素グループの各露光画像の画像データに基づいて広いダイナミックレンジの画像を生成する画像処理部を備える構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部について、1垂直同期期間内での露光順序が最終でない露光画像については行毎に画素値データを記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最終の露光画像の行毎の画素値データの出力タイミングに応じて、記憶部から同一行の画素値データを読み出し、複数の露光画像の行を揃えて出力させる行シーケンス変換部を有する構成とすることができる。また、画像処理部について、行シーケンス変換部から行を揃えて出力される複数の露光画素の画素値データを、複数の露光画素間で合成して出力する第1画像合成部を有する構成とすることができる。
 あるいは又、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部について、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最終の露光画像について画素値データの合成が終了したら、最終の合成結果を出力する第2画像合成部を有する構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、第2画像合成部について、それぞれ画素グループにおいて、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する構成とすることができる。更に、画像処理部について、第2画像合成部において1垂直同期期間内で露光順序が最終の露光画像を合成して得られる画素グループ毎の最終の合成結果を参照して画素グループ間の合成値を算出する画素グループ間合成部を有する構成とすることができる。
 あるいは又、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部は、全ての画素グループにおける露光画像の中で、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最終の露光画像については画素値データの合成が終了したら、最終の合成結果を出力する第3画像合成部を有する構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部について、各々の画素グループ毎に読み出される画素値に基づいて全画素位置に画素値を補間する画素値補間部を有する構成とすることができる。このとき、第3画像合成部について、画素値補間部の出力に基づいて、全ての画素グループの全ての露光画像の中で1垂直同期期間内での露光順序が最初の露光画像について画素値データを記憶部に保持しておく構成とすることができる。更に、1垂直同期期間内での露光順序が最初以外の露光画像について、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部について、各画素位置において被写体が動いているか否かを判定する動被写体判定部と、動被写体判定部の判定結果に基づいて、合成画素値を算出する際の合成比率を決定する合成比率決定部とを有する構成とすることができる。このとき、動被写体判定部について、露光画像の画素値と記憶部上の画素値とを参照することによって、各画素位置において被写体が動いているか否かを推定する構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画像処理部について、合成比率決定部が決定した合成比率の履歴を格納する合成比率履歴格納部を有する構成とすることができる。このとき、合成比率決定部について、合成比率履歴格納部に格納されている合成比率の履歴を参照して合成比率を決定する構成とすることができる。更に、合成比率決定部について、各露光画像の露光時間を参照して合成比率を決定する、更には、各露光画像の画素値レベルを参照して合成比率を決定する構成とすることができる。
 更に、上述した好ましい構成を含む本開示の固体撮像素子、撮像装置、及び、電子機器にあっては、画素アレイ部の各単位画素から画素列毎に出力されるアナログの画素信号をデジタル化するA/D変換器を備える構成とすることができる。
 また、上述した好ましい構成を含む本開示の撮像装置にあっては、タイミング制御部について、発光物体を捉える場合において、当該発光物体の明滅周期を勘案して、複数回の露光による複数枚の露光画像の各々の露光開始時刻や露光時間長を設定する構成とすることができる。
<本開示の固体撮像素子>
 先ず、本開示の固体撮像素子の構成の概略について説明する。ここでは、本開示の固体撮像素子としてCMOSイメージセンサを例に挙げて説明するものとする。
[システム構成]
 図1は、本開示のCMOSイメージセンサの構成の概略を示すシステム構成図である。図1に示すように、本CMOSイメージセンサ10は、画素アレイ部11と、その周辺の駆動系及び信号処理系を有する。本例では、周辺の駆動系や信号処理系として、例えば、行走査部12、カラム処理部13、列走査部14、水平出力線15、及び、タイミング制御部16が設けられている。これらの駆動系及び信号処理系は、画素アレイ部11と同一の半導体基板(チップ)30上に集積されている。
 上記のシステム構成において、タイミング制御部16は、例えば外部から入力される垂直同期信号VD、水平同期信号HD、マスタークロックMCK等に基づいて、行走査部12、カラム処理部13、及び、列走査部14などの動作の基準となるクロック信号や制御信号等を生成する。タイミング制御部16で生成されたクロック信号や制御信号等は、行走査部12、カラム処理部13、及び、列走査部14等に対してそれらの駆動信号として与えられる。
 画素アレイ部11は、受光した光量に応じた光電荷を生成し、かつ、蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)20が行方向及び列方向に、即ち、行列状(マトリクス状)に2次元配置された構成となっている。ここで、行方向とは画素行における画素の配列方向を言い、列方向とは画素列における画素の配列方向を言う。
 この画素アレイ部11において、m行n列の画素配列に対して、画素行毎に行制御線31(31_1~31_m)が行方向に沿って配線され、画素列毎に列信号線32(32_1~32_n)が列方向に沿って配線されている。行制御線31は、単位画素20から信号を読み出す際の制御を行うための制御信号を伝送する。図1では、行制御線31について1本の配線として図示しているが、1本に限られるものではない。行制御線31_1~31_mの各一端は、行走査部12の各行に対応した各出力端に接続されている。
 行走査部12は、シフトレジスタやアドレスデコーダなどによって構成されており、画素アレイ部11の各画素20を全画素同時あるいは行単位等で駆動する。この行走査部12はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系の2つの走査系を有する構成となっている。読出し走査系は、単位画素20から信号を読み出すために、画素アレイ部11の単位画素20を行単位で順に選択走査する。単位画素20から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりもシャッタスピードの時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素20の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系によって不要電荷を掃き出す(リセットする)ことにより、所謂、電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の光電荷を捨てて、新たに露光を開始する(光電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応するものである。そして、直前の読出し動作による信号読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による信号読出しタイミングまでの期間が、単位画素20における光電荷の露光期間となる。この露光期間において、直前の読出し動作による信号読出しタイミングまたは電子シャッタ動作による掃出しタイミングが露光開始タイミングとなり、今回の読出し動作による信号読出しタイミングが露光終了タイミングとなる。
 カラム処理部13は、例えば、画素アレイ部11の画素列毎、即ち、列信号線32(32_1~32_n)毎に1対1の対応関係をもって設けられたA/D(アナログ/デジタル)変換器40(40_1~40_n)を有する信号処理部である。A/D変換器40(40_1~40_n)は、画素アレイ部11の各単位画素20から画素列毎に出力されるアナログの画素信号をデジタル化する。
 A/D変換器40として、例えば、比較器及びカウンタから成る構成のものを用いることができる。比較器は、時間が経過するにつれて電圧値が階段状に変化する、所謂、スロープ状波形の参照信号を基準入力とし、画素アレイ部11の各単位画素20から画素列単位で出力されるアナログの画素信号を比較入力とし、両者を比較する。カウンタは、所定のクロックに同期して比較器での比較動作の開始から比較動作の終了までの期間に亘ってカウント動作を行うことで、アナログの画素信号をデジタルデータに変換する。
 ここで、上記の構成のA/D変換器40において、カウンタとしてアップ/ダウンカウンタを用いることで、単位画素20のリセット動作時のノイズを除去する処理、具体的には、相関二重サンプリング(Correlated Double Sampling:CDS)によるノイズ除去処理を行うことができる。単位画素20からは、例えば、リセット成分及び信号成分の順に時系列で読み出される。リセット成分は、単位画素20をリセットしたときの画素信号に相当する。信号成分は、単位画素20で光電変換して得た画素信号に相当する。
 リセット成分を先に読み出す方式においては、リセットしたときに発生するランダムノイズは電荷検出部26(図2参照)で保持されているため、信号電荷を加えて読み出された信号成分には、リセット成分と同じノイズ量が保持されている。そこで、アップ/ダウンカウンタにおいて、例えば、リセット成分に対してダウンカウントを行い、信号成分に対してアップカウントを行うことで、信号成分からリセット成分を減算するCDS処理を行うことができる。
 列走査部14は、シフトレジスタやアドレスデコーダなどによって構成されており、カラム処理部13におけるA/D変換器40_1~40_nの列アドレスや列走査の制御を行う。この列走査部14による制御の下に、A/D変換器40_1~40_nの各々でA/D変換されたデジタルデータは、順に水平出力線15に読み出された後、出力端子33からチップ(半導体基板)30外へ撮像データとして出力される。
[単位画素の回路構成]
 図2は、単位画素20の回路構成の一例を示す回路図である。図2に示すように、本例に係る単位画素20は、光電変換素子として例えばフォトダイオード(PD)21を有している。単位画素20は、フォトダイオード21に加えて、例えば、転送トランジスタ22、リセットトランジスタ23、増幅トランジスタ24、及び、選択トランジスタ25を有する構成となっている。
 尚、ここでは、転送トランジスタ22、リセットトランジスタ23、増幅トランジスタ24、及び、選択トランジスタ25の4つのトランジスタとして、例えばN型MOSFETを用いている。但し、ここで例示した4つのトランジスタ22~25の導電型の組み合わせは一例に過ぎず、これらの組み合わせに限られるものではない。
 この単位画素20に対して、先述した行制御線31(31_1~31_m)として、複数の制御線311,312,313が同一画素行の各画素に対して共通に配線されている。複数の制御線311,312,313は、行走査部12の各画素行に対応した出力端に画素行単位で接続されている。行走査部12は、複数の制御線311,312,313に対して転送信号TRG、リセット信号RST、及び、選択信号SELを適宜出力する。
 フォトダイオード21は、アノード電極が低電位側電源(例えば、グランド)に接続されており、受光した光をその光量に応じた電荷量の光電荷(ここでは、光電子)に光電変換してその光電荷を蓄積する。フォトダイオード21のカソード電極は、転送トランジスタ22を介して増幅トランジスタ24のゲート電極と電気的に接続されている。増幅トランジスタ24のゲート電極と電気的に繋がった領域は、電荷を電圧に変換する電荷検出部26である。以下、電荷検出部26をFD(フローティング・ディフュージョン/浮遊拡散領域/不純物拡散領域)部26と呼ぶ。
 転送トランジスタ22は、フォトダイオード21のカソード電極とFD部26との間に接続されている。転送トランジスタ22のゲート電極には、高レベル(例えば、Vddレベル)がアクティブ状態となる転送信号TRGが行走査部12から制御線311を通して与えられる。転送トランジスタ22は、転送信号TRGに応答して導通状態となることで、フォトダイオード21で光電変換され、蓄積された光電荷をFD部26に転送する。
 リセットトランジスタ23は、ドレイン電極が電圧Vddの電源線34に、ソース電極がFD部26にそれぞれ接続されている。リセットトランジスタ23のゲート電極には、高レベルがアクティブ状態となるリセット信号RSTが行走査部12から制御線312を通して与えられる。リセットトランジスタ23は、リセット信号RSTに応答して導通状態となり、FD部26の電荷を電源線34に捨てることによって当該FD部26をリセットする。
 増幅トランジスタ24は、ゲート電極がFD部26に、ドレイン電極が電源線34にそれぞれ接続されている。この増幅トランジスタ24は、フォトダイオード21での光電変換によって得られる信号を読み出す読出し回路であるソースフォロワの入力部となる。すなわち、増幅トランジスタ24は、ソース電極が選択トランジスタ25を介して列信号線32に接続されることで、当該列信号線32の一端に接続される電流源35とソースフォロワを構成する。
 選択トランジスタ25は、例えば、ドレイン電極が増幅トランジスタ24のソース電極に、ソース電極が列信号線32にそれぞれ接続されている。選択トランジスタ25のゲート電極には、高レベルがアクティブ状態となる選択信号SELが行走査部12から制御線313を通して与えられる。選択トランジスタ25は、選択信号SELに応答して導通状態となることで、単位画素20を選択状態として増幅トランジスタ24から出力される信号を列信号線32に伝達する。
 尚、選択トランジスタ25については、電源線34と増幅トランジスタ24のドレイン電極との間に接続した回路構成を採ることも可能である。また、本例では、単位画素20の画素回路として、転送トランジスタ22、リセットトランジスタ23、増幅トランジスタ24、及び、選択トランジスタ25から成る、即ち4つのトランジスタ(Tr)から成る4Tr構成を例に挙げたが、これに限られるものではない。例えば、選択トランジスタ25を省略し、増幅トランジスタ24に選択トランジスタ25の機能を持たせた3Tr構成とすることもできるし、必要に応じて、トランジスタの数を増やした構成とすることもできる。
[単位画素のグループ分け]
 上記の構成の単位画素20が行列状に配置されて成るCMOSイメージセンサ10において、本実施形態では、ダイナミックレンジの広いシーンを飽和させず(白飛びを起こさず)、黒つぶれも起こさずに撮影することを可能とするために、単位画素20を複数の画素グループにグループ分けする。ここでは、一例として、画素アレイ部11の各画素20を2つ(2種類)の画素グループA,Bにグループ分けする。画素グループの設定方法は任意である。画素グループ分けの第1例を図3Aに示し、画素グループ分けの第2例を図3Bに示す。図3A、図3Bにおいて、各画素20内の文字(A,B)が同じ画素同士が同一の画素グループを形成するものとする。
 図3Aに示す第1例の画素グループ分けでは、画素グループAと画素グループBとが2行毎に交互に配置されたグループ分けとなっている。図3Bに示す第2例の画素グループ分けでは、R(赤色)G(緑色)B(青色)ベイヤー配列に対応して、上下左右に隣接する4つの画素を単位とし、画素グループAと画素グループBにRGBを等方的に振り分けたグループ分けとなっている。すなわち、第1例の画素グループ分け及び第2例の画素グループ分けでは、画素グループAの画素数と画素グループBの画素数とが均等になるようにグループ分けされている。
 尚、同一画素行に画素グループAと画素グループBとが混在する第2例の画素グループ分けの場合には、単位画素20から信号を読み出す際の制御を行うための制御信号を伝送する行制御線31が、画素グループAと画素グループBに対応して2系統設けられることになる。
[1垂直同期期間内での複数回露光]
 上述したように、画素アレイ部11の各画素20が複数の画素グループ(本例では、2つの画素グループA,B)にグループ分けされたCMOSイメージセンサ10において、本実施形態では、タイミング制御部16(図1参照)が次のような制御を行うことを特徴とする。すなわち、タイミング制御部16は、複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定する。
 1垂直同期期間は1表示フレーム期間である。また、図2に示す画素回路において、露光開始タイミングは、フォトダイオード21の光電荷をFD部26を通して捨てて(リセット)、新たに露光を開始するタイミングである。露光終了タイミングは、転送トランジスタ22が導通状態となることで露光を終了し、フォトダイオード21で光電変換された光電荷をFD部26に転送し、増幅トランジスタ24を通して列信号線32に画素信号として読み出すタイミング(信号読出しタイミング)である。
[露光シーケンスの例]
 ここで、タイミング制御部16による制御の下に実行される、本実施形態に係る露光シーケンスの一例(以下、「露光シーケンス1」と記述する)について図4を用いて説明する。図4は、タイミング制御部16による制御の下に実行される、本実施形態に係る露光シーケンスの一例(露光シーケンス1)を示す図である。
 露光シーケンス1では、タイミング制御部16による制御の下に、画素グループAについて1垂直同期期間内に3回の露光を行い、画素グループBについて1垂直同期期間内に1回の露光を行う。画素グループAにおける3回の露光を、露光開始タイミングが早い方から露光A_a、露光A_b、露光A_cとし、画素グループBにおける1回の露光を露光Bとする。
 露光A_a~露光A_cはそれぞれローリングシャッタ方式による露光であり、ライン番号(行番号)の小さい方から順次、露光開始(RESET)と露光終了・信号読出し(READ)とを行う。このとき、露光A_aが最終ライン(行)まで読み終わる前に、露光A_b及び露光A_cの最初の行の露光終了・信号読出しを始める。つまり、3つの露光A_a、露光A_b、露光A_cは、それぞれの露光終了タイミングが時間的に重複する程度に近接して設定されている。
 重複した期間の複数の露光画像の読出しに際しては、各々の露光時間の露光画像の画素値データを時分割形式で出力する。図5に、露光シーケンス1の場合の画素グループAの画素値データの読出しシーケンスを示す。図5中、a0、a1、a2、・・・、b0、b1、b2、・・・、c0、c1、c2、・・・は、露光A_a、露光A_b、露光A_cの各露光画像から読み出される各行の画素値データを表しており、添字の数字はライン番号に対応している。まず、露光A_aの露光画像の各行a0、a1、a2、・・・の画素値データが順次読み出される。露光A_bの露光画像の最初の読出し行b0の画素値データは、露光A_aの露光画像の読出し行a3に後続する形で時分割方式により読み出される。露光A_cの露光画像の画素値データの読出しについても、露光A_a、露光A_bの各露光画像の画素値データの読出しと同様に時分割方式で行う。
 上述した露光シーケンス1により、画素グループAに関しては近接した時間間隔で3回の露光を実現し、画素グループBの長時間露光と合わせて4種類の露光を行うことが可能となる。
 以上説明したように、本開示のCMOSイメージセンサ10によれば、グループ分けされた複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光を行い、空間的に露光シーケンスを並列に設定することで、各露光画像間の露光時間比を近接して設定できる。これにより、複数の露光画像間の露光時間比を近接して設定できるため、空間解像度を低下させることなく、広いダイナミックレンジ(以下、「広ダイナミックレンジ」と記述する)のシーンを撮像することが可能となる。そして、広ダイナミックレンジのシーンを飽和させず(白飛びを起こさず)、黒つぶれも起こさずに撮影することが可能となる。
 また、画素グループAに属する画素数は全画素数の1/2であるため、露光シーケンス1の実現に必要となるA/D変換器40の個数について、全画素を1垂直同期期間内に1回読み出す通常の読出し方式と比べて2倍多く設ければよいことになる。すなわち、画素グループAでは、空間的に全体の1/2の画素で3回の露光を行うため1/2の画素が3倍(=1/2×3)駆動となり、画素グループBでは、空間的に全体の1/2の画素で1回の露光を行うため1/2の画素が1倍(=1/2×1)駆動となる。従って、露光シーケンス1の場合、全画素を1垂直同期期間内に1回読み出す通常の読出し方式と比べて2倍(=1/2×3+1/2×1)の数のA/D変換器40が必要となる。
 また、A/D変換器40の個数は全画素を1垂直同期期間内に1回読み出す通常の読出し方式と同数とし、A/D変換に際してはこれを通常よりも高速で駆動させることで、1垂直同期期間内で複数の露光画像を読み出すことも可能である。つまり、画素グループAで3回、画素グループBで1回の露光を行うため、通常の読出し時と比べて2倍(=1/2×3+1/2×1)の速度でA/D変換器40を駆動させることで、所望の4種類の露光を行うことが可能である。
 因みに、全画素一律で1垂直同期期間内に4回の露光を行う場合には、全画素に対してA/D変換を行うことになるため、4倍の数のA/D変換器40、もしくは4倍の速度でのA/D変換器40の駆動が必要である。このことを考えると、露光シーケンス1によれば、システムの実現コストを低く抑えつつ、4枚の露光画像の取得を実現できることが分かる。また、本開示の技術によれば、広ダイナミックレンジのシーンの撮影に当たり、A/D変換器40の個数の増加を最小限に抑えることができるため、CMOSイメージセンサ10全体でA/D変換器40に係わる消費電力を抑制できる。
 上述したように、時間的に重複した期間の複数の露光画像の読出しを時分割で行い(時分割読出し)、A/D変換器40の個数については通常読出し時よりも多く設けて、これらのA/D変換器40を分散して使用することで、1垂直同期期間内で複数の露光画像を読み出すことができる。尚、ここでは、1つの画素列に対して複数個のA/D変換器40を配置するとしたが、これに限られるものではない。すなわち、他の例として、時間的に重複した期間の複数の露光画像の読出しを時分割で行い、A/D変換器40の個数については通常読出し時と同数とし、これらのA/D変換器40を高速に駆動させるようにしても、1垂直同期期間内で複数の露光画像を読み出すことができる。
[1つの画素列に対して複数個のA/D変換器を配置する例]
 ここで、1つの画素列に対して複数個のA/D変換器40を配置し、これらのA/D変換器40を並列使用することにより、複数の画素グループにおいて複数の露光を実現するCMOSイメージセンサ10について説明する。ここでは、上述したように、画素アレイ部11の単位画素20について2種類の画素グループA,Bを設定し、一方の画素グループAについては1垂直同期期間内に3回の露光を行う場合を例に挙げて説明する。また、画素グループ分けとしては、図3Aに示す第1例とする。
 図6は、1つの画素列に対して複数個のA/D変換器40を配置し、これらのA/D変換器40を並列使用するCMOSイメージセンサ10の構成の概略図である。ここでは、A/D変換器40を含むカラム処理部13が画素アレイ部11の上下(13A,13B)に配置された構成を例示している。2画素幅で形成される画素列毎に列信号線32が4本配線され、A/D変換器40が画素アレイ部11の上下に2個ずつ、計4個配置されている。
 A/D変換器40は、比較器(コンパレータ)41とカウンタ42とを有する。比較器41は、スロープ状波形の参照信号を基準入力とし、画素アレイ部11の各単位画素20から出力されるアナログの画素信号を比較入力とし、両者を比較する。比較器41の基準入力となる参照信号は、D/A変換器等によって構成される参照信号生成部50で生成される。カウンタ42は、所定のクロックに同期して比較器41での比較動作の開始から比較動作の終了までの期間に亘ってカウント動作を行うことで、アナログの画素信号をデジタルデータ(画素値データ)に変換する。
 尚、図6では図示を省略しているが、2画素列に対応して設けられた4本の列信号線32と、画素アレイ部11の上下に2個ずつ設けられた計4個のA/D変換器40との接続は、別途設けられる接続スイッチ60(図8参照)によって実現される。この接続スイッチ60は、レジスタ設定値に基づき、4本の列信号線32と4個のA/D変換器40との接続関係を任意に変えることができるものとする。また、画素アレイ部11の各画素20は、4行×2列単位で列信号線32への接続を共有するものとする。
 図6では、単位画素20を4行2列毎に矩形で囲んで示しているが、これは2画素列に対応して設けられた4本の列信号線32の接続を共有する単位を表すものとする。行走査部12は、アドレスデコーダ12A及び画素駆動タイミング駆動回路12Bから成る。アドレスデコーダ12Aは、タイミング制御部16から与えられるアドレス信号に基づいて動作する。画素駆動タイミング駆動回路12Bは、タイミング制御部16から与えられる駆動タイミング信号に基づいて動作し、アドレスデコーダ12Aから与えられる制御信号に基づき、各画素20へシャッタタイミングを与える信号と読出しタイミングを与える信号とを送信する。
 図7は、露光シーケンス1(図4参照)のうち、1垂直同期期間(1表示フレーム)に対応する部分を示した図である。以降、図7に示す露光シーケンスの実現に際して必要となるA/D変換器40の使い方について説明する。
 図8には、画素アレイ部11内のある2画素列と、それに対応する列信号線32(VSL0,VSL1,VSL2,VSL3)及びA/D変換器40(ADC0,ADC1,ADC2,ADC3)を抜き出して描画している。図8では、2行をひとまとめとして行Lとし、これに番号(L0,L1,・・・)を付している。また、網掛けしていない行(L0,L2,・・・)は画素グループAに相当し、網掛けしている行(L1,L3,・・・)は画素グループBに相当するものとする。
 説明の都合上、図8では、4個のA/D変換器40(ADC0,ADC1,ADC2,ADC3)を全て画素アレイ部11の上側にまとめて示してある。ここで、ADC0は露光A_aの画素値を、ADC1は露光A_bの画素値を、ADC2は露光A_cの画素値を、ADC3は露光Bの画素値を読み出すものとする。図8に示すように、列信号線32(VSL0,VSL1,VSL2,VSL3)と、A/D変換器40(ADC0,ADC1,ADC2,ADC3)との間には、両者間の接続を担う接続スイッチ60が設けられている。
 本例では、各行の画素値を読み出していく過程で、この接続スイッチ60のつなぎ方を順次切り替えていくことにより、所望の露光シーケンスを実現する。便宜上、全ての露光で1L(2行)分の画素値を読み出すまでにかかる時間を1とし、読出しタイミングをt=0,1,2,・・・と呼ぶこととする。
 表1には、順次各行の画素値を読み出していく際の、接続スイッチ60のつなぎ方の変更過程を示す。VSL_SW_ADC0の行には各タイミングにおいてADC0に接続される列信号線32の番号が記載されている。VSL_SW_ADC1、VSL_SW_ADC2、VSL_SW_ADC3についても同様である。
[表1]
Figure JPOXMLDOC01-appb-I000001
 図9、図10、図11には、読出しタイミングt=0,1,2における接続スイッチ60のつなぎ方の変化に伴って変わる、列信号線32(VSL0,VSL1,VSL2,VSL3)と、A/D変換器40(ADC0,ADC1,ADC2,ADC3)との接続の様子を示している。表2には、各読出しタイミングにおいて、画素値の読出しを行う行番号を示している。各読出しタイミングにおいては、画素駆動タイミング駆動回路12B(図6参照)によって4つの行Lに対して読出し信号が生成される。
[表2]
Figure JPOXMLDOC01-appb-I000002
 ここで、一例として、読出しタイミングt=0における画素値の読出し過程を追ってみる。表2より、読出しタイミングt=0に読み出される行はL12,L6,L2,L1である。このうち、画素グループBに属する行L1は列信号線VSL0に接続されており、この列信号線VSL0は読出しタイミングt=0においてはA/D変換器ADC3に接続されているため、露光Bの画素値として読み出されることになる(図9)。
 同様に、読出しタイミングt=0において、行L12は列信号線VSL2を介してA/D変換器ADC0に、行L6は列信号線VSL3を介してA/D変換器ADC1に、行L2は列信号線VSL1を介してA/D変換器ADC2に接続されている。そして、それぞれ露光A_a、露光A_b、露光A_cとして読み出される。
 次の読出しタイミングt=1においては、行L14,L8,L4,L3が読み出されるが、このうち、画素グループBに属する行L3は、列信号線VSL1を介してA/D変換器ADC3に接続されているため、露光Bの画素値として読み出される(図10)。同様に、行L14は列信号線VSL3を介してA/D変換器ADC0に、行L8は列信号線VSL0を介してA/D変換器ADC1に、行L4は列信号線VSL2を介してA/D変換器ADC2に接続されている。そして、それぞれ露光A_a、露光A_b、露光A_cとして読み出される。
 読出しタイミングt=2以降についても、表1に示す通りに接続スイッチ60を動作させることで、A/D変換器40(ADC0,ADC1,ADC2,ADC3)からそれぞれ露光A_a、露光A_b、露光A_c、露光Bの画素値を読み出すように動作させることが可能である(図11)。
 図12、図13、図14は、読出しタイミングt=0,1,2において、それぞれ露光画像として読み出される行番号を示している。これらの図により、図7の露光シーケンス図の通りに画素値の読出し動作が行われていることがわかる。
 上述したように、時間的に重複した期間の複数の露光画像の読出しを同時に行い(同時割読出し)、A/D変換器40の個数については通常読出し時よりも多く設けて、これらのA/D変換器40を分散して使用することで、1垂直同期期間内で複数の露光画像を読み出すことができる。
 本構成例においては、列信号線32を共有する画素単位や、列信号線32の本数、A/D変換器40の並列設置数などを具体的に示して記載をしているが、必ずしもこれらの設定である必要はない。例えば、列信号線32の共有単位は画素2行2列毎や1画素毎であってもよい。また、各画素20と列信号線32の接続についても本構成例で記載するものに限られるものではなく、所望の露光シーケンスを実現するべくそれぞれの画素行が適切なA/D変換器40に接続される構成であればよい。
 また、本構成例では、各A/D変換器40の読み出す画素値データが各露光データに対応するとしているが、必ずしもその必要はない。例えば、接続スイッチ60のつなぎ方は画素値の読み出し過程で固定として、A/D変換器40から読み出された後に適宜画素値データの入れ替え等の処理を施すことで、本構成例と同等の露光データの読出しを実現することも可能である。
[変形例]
 上記の実施形態では、CMOSイメージセンサ10として、図1に示す平置構造のものを例示したが、積層構造のものであってもよい。ここで、「平置構造」とは、図1に示すように、画素アレイ部11の周辺回路部、即ち、画素アレイ部11の各画素20を駆動する駆動部や、A/D変換器40等を含む信号処理部などを、画素アレイ部11と同じ半導体基板30上に配置する構造をいう。
 また、「積層構造」とは、図15Aに示すように、画素アレイ部11とその周辺回路部とを別々の半導体基板30_1,30_2に搭載し、これらの半導体基板30_1,30_2を積層する構造をいう。この積層構造を採用する場合、画素アレイ部11側の半導体基板30_1内の単位画素20を所定の大きさの領域毎に画素群27とし、それぞれの画素群27毎にA/D変換器40を半導体基板30_2上に配置する構成とすることができる。この場合、画素群27内の上下左右に隣接する複数の単位画素20で1つのA/D変換器40を共有することになる。図15Bに示すように、1つの画素群27内の各画素20と、対応するA/D変換器40とは信号線34で接続される。図15Bでは、画素群27が縦4画素×横4画素の場合を例示している。
 また、CMOSイメージセンサ10の入射光を取り込む画素構造としては、配線層が配される側を正面とするとき、入射光を正面側から取り込む正面照射型の画素構造であってもよいし、裏面側(配線層が配される側と反対側)から取り込む裏面照射型の画素構造であってもよい。
 また、上記の実施形態では、本開示の固体撮像素子として、CMOSイメージセンサを例に挙げて説明したが、CMOSイメージセンサへの適用に限られるものではない。すなわち、単位画素20をグループ分けし、複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光を行う本開示の技術は、CCDイメージセンサに対しても同様に適用可能である。
<本開示の撮像装置>
 上記の実施形態に係るCMOSイメージセンサ10は、デジタルスチルカメラ、ビデオカメラ、監視カメラ、車載カメラ等の撮像装置において、その撮像部として用いることができる。本実施形態に係るCMOSイメージセンサ10は、広ダイナミックレンジのシーンを飽和させず、黒つぶれも起こさずに撮影することを可能とするため、特に、監視カメラや車載カメラ等の撮像装置に用いて好適なものである。
[システム構成]
 図16は、本開示の撮像装置の構成例を示すブロック図である。図16に示すように、本開示の撮像装置100は、光学レンズ101、撮像部102、画像処理部103、カメラ信号処理部104、制御部105、及び、タイミング制御部106を有する構成となっている。
 図16において、光学レンズ101は、被写体(図示せず)からの像光(入射光)を撮像部102の撮像面上に集光させる。撮像部102としては、上述したCMOSイメージセンサ10が用いられる。CMOSイメージセンサ10は、単位画素が複数の画素グループにグループ分けされている。
 先述したように、CMOSイメージセンサ10においては、複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとが設定される。そして、CMOSイメージセンサ10からは、例えば露光シーケンス1の下に、画素グループAにおける3回の露光A_a、露光A_b、露光A_cの各露光画像の画像データと、画素グループBにおける1回の露光Bの露光画像の画像データとが出力される。
 尚、先述した例では、タイミング制御部16を、CMOSイメージセンサ10の半導体基板(チップ)30上に設けるとしたが、半導体基板30外に設ける構成を採ることもできる。図16の構成例では、タイミング制御部16を半導体基板30外に設けた場合を示している。すなわち、図16のタイミング制御部106は、図1のタイミング制御部16に相当し、露光終了タイミングが時間的に重複する複数の露光画像について、行毎に時分割形式で各々の画像データを出力する制御を行う。
 画像処理部103は、CMOSイメージセンサ10から出力される、露光A_a、露光A_b、露光A_cの各露光画像の画像データと、露光Bの露光画像の画像データとに基づいて、広ダイナミックレンジの画像(以下、「HDR画像」と記述する)を生成するHDR画像生成部である。この画像処理部103の詳細については後述する。カメラ信号処理部104は、例えば、ホワイトバランス調整、ガンマ補正等の一般的なカメラにおける信号処理を実行して出力画像(HDR画像)を生成する。
 制御部105は、例えば、CPU(Central Processing Unit)等によって構成され、メモリ(図示せず)に格納されたプログラムに従って、画像処理部103、カメラ信号処理部104、及び、タイミング制御部106に対して制御信号を出力し、各種の処理の制御を行う。
 上述したように、CMOSイメージセンサ10では、複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとが設定される。そして、画像処理部103では、CMOSイメージセンサ10から出力される、例えば、画素グループAにおける3回の露光A_a、露光A_b、露光A_cの各露光画像の画像データと、画素グループBにおける1回の露光Bの露光画像の画像データとに基づいて広ダイナミックレンジの画像の生成が行われる。
 これにより、広ダイナミックレンジのシーンを捉える際に、1垂直同期期間内で多数枚の露光を露光画像間の露光時間比を近接して設定できるため、各露光画像のHDR合成処理に係わるアーティファクト、例えば、空間解像度の劣化、露光画像間のS/Nの違いによるノイズ段差等を起こしづらい撮像装置を実現できる。
 因みに、広ダイナミックレンジを捉えるために露光時間比を大きく設定する、という手法も考えられるが、この手法を採った場合、露光時間が離れることで、動体領域において画像毎のブラー(動体ブレ)の度合が大きく異なり、合成処理が難しくなる。また、各露光画像間の露光時間が離れていると、多くの輝度域において、ある入射光量に対して有効な画素値を持つ画素位相が少なくなり、解像度が低下しやすくなる。
 これに対し、本撮像装置100においては、1垂直同期期間内に複数回の露光を行い、空間的に露光シーケンスを並列に設定することにより、広ダイナミックレンジのシーンに対しても各露光画像の露光時間を近接して設定することが可能となるため、解像度の低下が起こりにくい。つまり、本撮像装置100によれば、広ダイナミックレンジのシーンを捉えつつ、解像度の低下を抑制することができる。
 尚、本構成例では、HDR画像を生成する画像処理部103(図16参照)を、撮像部102であるCMOSイメージセンサ10の外部に設ける場合を例に挙げて説明したが、画像処理部103をCMOSイメージセンサ10の内部に設けるようにすることも可能である。この場合、CMOSイメージセンサ10は、画像処理部103の機能を備える固体撮像素子となる。また、CMOSイメージセンサ10が図15Aに示す積層構造の場合には、A/D変換器40を配置する半導体基板30_2上に画像処理部103を搭載することができるため、チップサイズを大きくすることなく、画像処理部103の内蔵が可能となる利点がある。
 以下に、所定の露光シーケンスの下に、画像処理部103によって実行される画像処理の具体的な実施例について説明する。画像処理部103の構成は各実施例毎に異なる。実施例1,4に係る画像処理部103では、露光シーケンス1の下に画像処理が行われ、実施例2,3に係る画像処理部103では、後述する露光シーケンス2の下に画像処理が行われる。
(実施例1)
 図17は、実施例1に係る画像処理部103Aの構成例を示すブロック図である。図17に示すように、実施例1に係る画像処理部103Aは、行シーケンス変換部1031、記憶部1032、及び、第1画像合成部としてのHDR合成部1033を有する。
 行シーケンス変換部1031は、同一の画素グループにおいて、1垂直同期期間内での露光順序が最終でない露光画像については行毎に画素値データを記憶部1032に保持しておく。そして、行シーケンス変換部1031は、1垂直同期期間内での露光順序が最終の露光画像の行毎の画素値データの出力タイミングに応じて、記憶部1032から同一行の画素値データを読み出す。この行シーケンス変換部1031による処理により、複数の露光画素の画素値データが行を揃えて出力される。
 第1画像合成部としてのHDR合成部1033は、行シーケンス変換部1031によって行を揃えて出力される複数の露光画素の画素値データを、複数の露光画素間で合成することによってHDR画像データを生成する。
 次に、上記の構成の実施例1に係る画像処理部103Aによって実行される画像処理について、図18を用いて説明する。図18は、実施例1に係る画像処理部103Aによって実行される画像処理の流れを示す図である。
 単位画素20が例えば2つの画素グループA,Bにグループ分けされたCMOSイメージセンサ10では、画素グループAについて1垂直同期期間内に3回の露光が行われ、画素グループBについて1垂直同期期間内に1回の露光が行われる(図4の露光シーケンス1参照)。そして、CMOSイメージセンサ10からは、画素グループAにおける3種類の露光画像の画素値データが時分割で読み出される。
 具体的には、まず、露光A_aの露光画像の各行a0、a1、a2、・・・の画素値データが順次読み出される。露光A_bの露光画像の最初の読出し行b0の画素値データは、露光A_aの露光画像の読出し行a3に後続する形で時分割方式により読み出される。露光A_cの露光画像の画素値データの読出しについても、露光A_a、露光A_bの各露光画像の画素値データの読出しと同様に時分割方式で行われる。
 CMOSイメージセンサ10から読み出された画素値データは、行シーケンス変換部1031に供給される。行シーケンス変換部1031は、CMOSイメージセンサ10から読み出された露光A_aの露光画像及び露光A_bの露光画像の各行の画素値データを一度記憶部1032に格納する。そして、行シーケンス変換部1031は、露光A_cの露光画像の各行の画素値データが読み出されたタイミングで、記憶部1032に格納されている露光A_aの露光画像及び露光A_bの露光画像の対応する行の画素値データを読み出す。HDR合成部1033は、3種類の露光画像の画素値データを構成することで、広ダイナミックレンジ(HDR)の画像データ(HDR画像データ)を生成する。
 図18には、CMOSイメージセンサ10から、露光A_a、露光A_b、露光A_cの各露光画素の各行の画素値データが読み出された以降の処理の流れを示している。この場合、図18に示すように、a0、a1、a2、a3、b0、a4、b1、a5、b2、・・・、という具合に、CMOSイメージセンサ10から読み出された順に従って、それぞれの行の画素値データは記憶部1032に格納される。その後、露光A_cの露光画像の最初の行の画素値データc0がCMOSイメージセンサ10から読み出され、その読出しタイミングで対応する行の画素値データa0、b0が記憶部1032から読み出され、それらの合成結果A0が出力される。
 つまり、露光A_a、露光A_b、露光A_cの露光タイミングの違いによる各露光画像の読出し行の時間的なずれを、記憶部1032への格納と当該記憶部1032からの読出しによる同時化処理によって吸収している。これにより、対応する各露光画像の同一行の画素値データを合成し、HDRデータA0、A1、A2、・・・を生成することが可能となっている。
 ここで、記憶部1032の必要なメモリ容量は、露光A_cの最初に読み出される行の画素値データc0の読出しまでに読み出される行数分となる。これは、画素値データc0以降のタイミングで読み出される露光A_a及び露光A_bの各露光画像のデータについて、露光A_a、露光A_bの各露光画像のデータが既に読み出された記憶部1032のメモリ領域に上書きすればよいためである。
 また、図19に示すように、画素グループAからのHDR画像データA0、A1、A2、・・・と、画素グループBからの出力データB0、B1、B2、・・・とを更に合成し、その合成結果をHDR画像データC0、C1、C2、・・・として出力するようにすることも可能である。
 上述したように、実施例1では、行シーケンス変換部1031において、1垂直同期期間内での露光順序が最終でない露光画像については行毎に画素値データを記憶部1032に保持しておき、最終の露光画像の行毎の画素値データの出力タイミングに応じて、記憶部1032から同一行の画素値データを読み出す同時化処理が行われる。これにより、1垂直同期期間内に複数回の露光を行う際に必要であった待ち合わせ用(同時化用)の記憶部1032のメモリ容量を大幅に削減できる。以下の実施例においても同様である。
(実施例2)
 実施例1での画像処理は、画素グループAについて1垂直同期期間内に3回の露光を行い、画素グループBについて1垂直同期期間内に1回の露光を行う露光シーケンス1(図4参照)の場合の画像処理である。これに対して、実施例2での画像処理は、図20に示すように、画素グループA、画素グループB共に、1垂直同期期間内に複数回、例えば共に3回の露光を行う露光シーケンス(以下、「露光シーケンス2」と記述する)の場合の画像処理である。
 図20は、本実施形態に係る露光シーケンスの他の例(露光シーケンス2)を示す図である。この露光シーケンス2では、画素グループA、画素グループBそれぞれの露光画像をA_a、A_b、A_c、B_a、B_b、B_cとすると、露光時間はB_a、A_a、B_b、A_b、B_c、A_cの順で互い違いに短くなるように設定されている。
 図21は、実施例2に係る画像処理部103Bの構成例を示すブロック図である。図21に示すように、実施例2に係る画像処理部103Bは、実施例1の行シーケンス変換部1031及びHDR合成部1033に代えて、逐次HDR合成部1034を第2画像合成部として備えている。
 逐次HDR合成部1034は、同一の画素グループにおいて、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部1032に保持しておく。また、逐次HDR合成部1034は、1垂直同期期間内での露光順序が最初でない露光画像については、画素毎に既に記憶部1032に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成値を算出して記憶部1032に保持する。そして、逐次HDR合成部1034は、1垂直同期期間内での露光順序が最終の露光画像について画素値データの合成が終了したら、その合成結果を出力する。
 図20の下部に、画像内の最初の行について、逐次HDR合成部1034が互い違いの露光画像6枚を逐次合成し、最終結果を出力する処理の流れを示している。6枚の画像の露光タイミングのずれに関しては、実施例1と同様に、記憶部1032を用いることによって同時化処理を行っている。
 実施例2に係る画像処理部103Bは、記憶部1032及び逐次HDR合成部1034に加えて、画素グループ間HDR合成部1035、動被写体判定部1036、合成比率決定部1037、及び、合成比率履歴格納部1038を有する。
 画素グループ間HDR合成部1035は、逐次HDR合成部1034において1垂直同期期間内で露光順序が最終の露光画像を合成して得られる画素グループ毎の最終の合成結果を参照して画素グループ間の合成値を算出し、HDR画像データとして出力する。
 動被写体判定部1036は、各画素位置において被写体が動いているか否か、即ち動被写体であるか否かを判定(推定)する。より具体的には、動被写体判定部1036は、露光画像の画素値と記憶部1032上の画素値とを参照することによって、各画素位置において被写体が動いているか否かを判定し、その判定結果を出力する。
 合成比率決定部1037は、動被写体判定部1036の判定結果に基づいて、合成画素値を算出する際の合成比率、即ち逐次HDR合成部1034及び画素グループ間HDR合成部1035における合成比率を決定する。合成比率履歴格納部1038は、それまでの逐次HDR合成部1034での合成比率、即ち合成比率決定部1037が決定した合成比率の履歴を格納し、当該履歴を出力する。
 合成比率決定部1037は、動被写体判定部1036の推定結果に基づいて合成比率を決定するに当たっては、合成比率履歴格納部1038から出力される合成比率履歴を参照して合成比率を決定する。合成比率決定部1037は更に、各露光画像の露光時間を参照して合成比率を決定する。各露光画像の露光時間の情報については、タイミング制御部16(図1参照)から取得することができる。合成比率決定部1037は更に、各露光画像の画素値レベルを参照して合成比率を決定する。
 ここで、動被写体判定部1036により画素位置毎に被写体が動いているかを推定し、その推定結果に応じて合成比率決定部1037により2つの画像の合成比率を決定し、2つの画像を合成する処理の流れの一例について、図22のフローチャートを用いて説明する。この一連の処理は、制御部105(図16参照)を構成するCPUによる制御の下に実行される。また、図22において、画像M、画像Nはそれぞれ逐次合成する2つの画像を表す。
 CPUは、画像M、画像Nにおける対象位置を選択し(ステップS11)、画像Mにおける対象位置の周辺5×5ピクセルの平均値aveMを生成し(ステップS12)、次いで、画像Nにおける対象位置の周辺5×5ピクセルの平均値aveNを生成する(ステップS13)。次に、CPUは、平均値aveMと平均値aveNとの差分絶対値dを計算する(ステップS14)。
 次に、CPUは、差分絶対値dと判定閾値との大小関係に応じて合成比率αを決定する(ステップS15)。具体的には、ステップS15では、2つの画像M,Nの差分絶対値dが判定閾値よりも大きい場合、その画素位置は動体領域であると判定し、より露光時間の短い画像が使われるように合成比率αを設定する処理が行われる。
 次に、CPUは、画像Mと画像Nの対象位置における画素値を、ステップS15で設定した合成比率αで合成し(ステップS16)、次いで、2つの画像M,N上の全画素位置を選択したか否か、即ち、上述した処理が2つの画像M,N上の全画素位置において終了したか否かを判断する(ステップS17)。
 そして、CPUは、全画素位置において終了していなければ(S17のNO)、ステップS11に戻って上述した一連の処理を繰り返して実行する。また、終了していれば(S17のYES)、CPUは、合成結果を出力し(ステップS18)、2つの画像M,Nの合成比率αを決定し、当該合成比率αで2つの画像M,Nを合成する、1回の逐次HDR合成のための一連の処理を終了する。
 上述したように、実施例2では、逐次HDR合成部1034において、画素グループ毎に同じ画素グループにおいて行番号が揃った露光画像から逐次的にHDR合成処理が行われる。そして、1垂直同期期間内で得られた最終のHDR合成結果が逐次HDR合成部1034から出力される。また、画素グループ間HDR合成部1035において、画素グループ間の合成値を算出し、HDR画像データとして出力する処理が行われる。
(実施例3)
 図23は、実施例3に係る画像処理部の構成例を示すブロック図である。図23に示すように、実施例3に係る画像処理部103Cは、実施例2の逐次HDR合成部1034に代えて、逐次HDR合成部1039を第3画像合成部として備えている。実施例3に係る画像処理部103Cは更に、画素値補間部1040を備えており、それ以外の構成は実施例2に係る画像処理部103Bと同じである。
 逐次HDR合成部1039は、全ての画素グループにおける露光画像の中で、1垂直同期期間内での露光順序が最初の露光画像について画素値データを1032に保持しておく。また、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部1032に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部1032に保持する。そして、逐次HDR合成部1039は、1垂直同期期間内での露光順序が最終の露光画像について画素値データの合成が終了したら、最終の合成結果を出力する。
 ここで、画素グループAと画素グループBとは、異なる空間位相でサンプリングされている。そのために、逐次HDR合成部1039の前段部において、画素値補間部1040によって全画素位置に画素値を補間した後に合成処理が行われる。画素値補間部1040は、各々の画素グループ毎にCMOSイメージセンサ10から読み出される画素値に基づいて全画素位置に画素値を補間する。
 このとき、逐次HDR合成部1039は、画素値補間部1040からの出力を受け、全ての画素グループの全ての露光画像の中で1垂直同期期間内での露光順序が最初の画像であるときには記憶部1032に画素値データを保持する。また、逐次HDR合成部1039は、1垂直同期期間内での露光順序が最初でない露光画像であるときには、画素毎に既に記憶部1032に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成値を算出し、記憶部1032に保持する動作を行う。
 上述したように、実施例3では、逐次HDR合成部1039において、記憶部1032を用いることによって、画素グループ間で逐次的にHDR合成処理が行われる。また、画素値補間部1040において、画素グループから読み出される画素値を全画素位置に補間する処理が行われる。
(実施例4)
 ところで、LED(発光ダイオード)を光源とする信号機や、蛍光灯を光源とする電光看板等では、光源が交流電源の揺らぎにより明滅している場合、その明滅の周期とカメラのフレームレートの関係によって、光っている信号機や看板が消灯したり、ちらついたりしているように捉えられる。この現象はフリッカ現象と呼ばれている。このフリッカ現象の下では、発光物体が消えている(所謂、ブラックアウト)、又はちらついているように捉えられる。このような現象は、特に認識用途の車載カメラなどで問題となっている。
 実施例4は、上記のフリッカ現象による不具合を解消するためになされたものであり、発光物体が消えている、又はちらついているように捉えられる現象を抑制する露光駆動である。図24に、実施例4の場合の露光シーケンスを示す。
 図24に示すように、実施例34の場合の露光シーケンスでは、例えば、画素グループAにおいて1垂直同期期間内に5回の露光を行い、画素グループBにおいて1垂直同期期間内に1回の露光を行うものとする。画素グループAにおける5回の露光を、露光開始タイミングが早い方から露光A_a、露光A_b、露光A_c、露光A_d、露光A_eとする。
 画素グループAにおける5回の露光A_a、露光A_b、露光A_c、露光A_d、露光A_eによる5枚の露光画像について、1垂直同期期間内の露光順序がi番目の画像の最初に読み出される行の露光開始時刻をSi[sec]、露光期間をti[sec]とし、フリッカ光源の明滅周期をT[sec]とする。ここで、発光物体を含む被写体シーンを飽和させずに撮影させる上限の露光時間をtmax[sec]としたとき、全ての露光期間tiがti<tmaxを満たすものとする。
 画素グループAの5枚の露光画像と画素グループBの1枚の露光画像により、所望のダイナミックレンジが実現できるように各露光期間tiが設定されるとする。このとき、光源の点灯している期間を撮像するように、各露光画像の露光タイミングを設定することを考える。
 フリッカ明滅周期で正規化した露光開始時刻を正規化露光開始時刻xSi[sec]とすると、
  xSi=Si-floor(Si/T)・T
となる。ただし、floor()は床関数である。ここで、各露光画像の露光期間が明滅周期内のどの位相に相当するかを考える。明滅周期においてi枚目の露光期間の占める範囲を集合Miで表すと、
  if(ti>T)        Mi={p│0<p≦T}
  else if(xSi+ti>T)  Mi={p│0<p≦xSi+ti-T or xSi≦p≦T}
  else           Mi={p│xSi<p≦xSi+ti}
となる。ここで、pは集合Miに含まれる時間を表す要素である。
 各集合の総和を、
  Mall=M1UM2U・・・UMN
としたとき、Mallの値域を最大化する露光開始時刻Siに基づいて各露光タイミングを設定すると、フリッカの点灯期間を捉えやすい露光が実現できる。
 上述したように、実施例4では、LEDを光源とする信号機など、高周波数で明滅する発光物体を捉える場合において、当該発光物体の明滅周期を勘案して複数枚の露光画像の各々の露光開始時刻や露光時間長を設定するようにする。これにより、発光物体の発光タイミングを取り逃さないよう露光シーケンスを決めることができるため、既存の撮像手法ではちらつく、もしくは消灯して捉えられていた光源物体の発光タイミングをより捉えやすく撮像することが可能となる。
<本開示の電子機器>
 先述した実施形態に係るCMOSイメージセンサ10は、デジタルスチルカメラ、ビデオカメラ、監視カメラ、車載カメラ等の撮像装置に用いることができる他、携帯電話機やスマートフォン等の撮像機能を有する電子機器全般において、その撮像部として用いることができる。
 図25は、本開示の電子機器の構成の概略を示すシステム構成図である。図25に示すように、本開示の電子機器200は、レンズ群などを含む光学系201、撮像部202、カメラ信号処理部であるDSP回路203、フレームメモリ204、表示装置205、記録装置206、操作系207、及び、電源系208等を有している。そして、DSP回路203、フレームメモリ204、表示装置205、記録装置206、操作系207、及び、電源系208がバスライン209を介して相互に接続された構成となっている。
 光学系201は、被写体からの入射光(像光)を取り込んで撮像部202の撮像面上に結像する。撮像部202は、光学系201によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この撮像部202として、先述した各実施形態に係るCMOSイメージセンサ10が用いることができる。
 ここで、CMOSイメージセンサ10が先述した画像処理部103(図16参照)を内蔵する場合は、DSP回路203は、一般的なカメラ信号処理、例えば、ホワイトバランス処理、デモザイク処理、ガンマ補正処理などを行う。CMOSイメージセンサ10が画像処理部103を内蔵しない場合は、DSP回路203は、上記の一般的なカメラ信号処理に先立って、画像処理部103の処理を行うことになる。
 フレームメモリ204は、DSP回路203での信号処理の過程で適宜データの格納に用いられる。表示装置205は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置から成り、撮像部202で撮像された動画または静止画を表示する。記録装置206は、撮像部202で撮像された動画または静止画を、可搬型の半導体メモリや、光ディスク、HDD(Hard Disk Drive)等の記録媒体に記録する。
 操作系207は、ユーザによる操作の下に、本電子機器200が持つ様々な機能について操作指令を発する。電源系208は、DSP回路203、フレームメモリ204、表示装置205、記録装置206、及び、操作系207の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 以上説明した本開示の電子機器200において、撮像部202として、先述したCMOSイメージセンサ10又は撮像装置100を用いることで、空間解像度を低下させることなく、広いダイナミックレンジのシーンを撮像することができる。
 尚、本開示は、以下のような構成をとることもできる。
[1]光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
 複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
 を備える固体撮像素子。
[2]タイミング制御部は、複数回の露光のうちの少なくとも2つの露光について、先に露光を開始した露光画像の最終読出し行の単位画素の露光終了タイミングよりも、後から露光を開始した露光画像の最初に読み出される行の単位画素の露光終了タイミングが早くなるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定する、
 上記[1]に記載の固体撮像素子。
[3]タイミング制御部は、露光終了が時間的に重複する複数の露光画像について、行毎に時分割形式で各々の画像データを出力する制御を行う、
 上記[2]に記載の固体撮像素子。
[4]複数の画素グループの各露光画像の画像データに基づいて広いダイナミックレンジの画像を生成する画像処理部を備える、
 上記[1]~[3]のいずれかに記載の固体撮像素子。
[5]画像処理部は、1垂直同期期間内での露光順序が最終でない露光画像については行毎に画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最終の露光画像の行毎の画素値データの出力タイミングに応じて、記憶部から同一行の画素値データを読み出し、複数の露光画像の行を揃えて出力させる行シーケンス変換部を有する、
 上記[4]に記載の固体撮像素子。
[6]画像処理部は、行シーケンス変換部から行を揃えて出力される複数の露光画素の画素値データを、複数の露光画素間で合成して出力する第1画像合成部を有する、
 上記[5]に記載の固体撮像素子。
[7]画像処理部は、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持し、1垂直同期期間内での露光順序が最終の露光画像について画素値データの合成が終了したら、最終の合成結果を出力する第2画像合成部を有する、
 上記[4]に記載の固体撮像素子。
[8]第2画像合成部は、それぞれ画素グループにおいて、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する、
 上記[7]に記載の固体撮像素子。
[9]画像処理部は、第2画像合成部において1垂直同期期間内で露光順序が最終の露光画像を合成して得られる画素グループ毎の最終の合成結果を参照して画素グループ間の合成値を算出する画素グループ間合成部を有する、
 上記[7]又は[8]に記載の固体撮像素子。
[10]画像処理部は、全ての画素グループにおける露光画像の中で、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持し、1垂直同期期間内での露光順序が最終の露光画像については画素値データの合成が終了したら、最終の合成結果を出力する第3画像合成部を有する、
 上記[7]に記載の固体撮像素子。
[11]画像処理部は、各々の画素グループ毎に読み出される画素値に基づいて全画素位置に画素値を補間する画素値補間部を有し、
 第3画像合成部は、画素値補間部の出力に基づいて、全ての画素グループの全ての露光画像の中で1垂直同期期間内での露光順序が最初の露光画像について画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像について、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する、
 上記[10]に記載の固体撮像素子。
[12]画像処理部は、
 各画素位置において被写体が動いているか否かを判定する動被写体判定部と、
 動被写体判定部の判定結果に基づいて、合成画素値を算出する際の合成比率を決定する合成比率決定部とを有する、
 上記[7]~[10]のいずれかに記載の固体撮像素子。
[13]動被写体判定部は、露光画像の画素値と記憶部上の画素値とを参照することによって、各画素位置において被写体が動いているか否かを推定する、
 上記[12]に記載の固体撮像素子。
[14]画像処理部は、合成比率決定部が決定した合成比率の履歴を格納する合成比率履歴格納部を有し、
 合成比率決定部は、合成比率履歴格納部に格納されている合成比率の履歴を参照して合成比率を決定する、
 上記[12]又は[13]に記載の固体撮像素子。
[15]合成比率決定部は、各露光画像の露光時間を参照して合成比率を決定する、
 上記[12]~[14]のいずれかに記載の固体撮像素子。
[16]合成比率決定部は、各露光画像の画素値レベルを参照して合成比率を決定する、
 上記[12]~[15]のいずれかに記載の固体撮像素子。
[17]画素アレイ部の各単位画素から画素列毎に出力されるアナログの画素信号をデジタル化するA/D変換器を備える、
 上記[1]~[16]のいずれかに記載の固体撮像素子。
[18]光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
 複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
 を備える固体撮像素子を有する撮像装置。
[19]タイミング制御部は、発光物体を捉える場合において、当該発光物体の明滅周期を勘案して、複数回の露光による複数枚の露光画像の各々の露光開始時刻や露光時間長を設定する、
 上記[18]に記載の撮像装置。
[20]光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
 複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
 を備える固体撮像素子を有する電子機器。
 10・・・CMOSイメージセンサ、11・・・画素アレイ部、12・・・行走査部、13・・・カラム処理部、14・・・列走査部、15・・・水平出力線、16・・・タイミング制御部、20・・・単位画素、21・・・フォトダイオード(PD)、22・・・転送トランジスタ、23・・・リセットトランジスタ、24・・・増幅トランジスタ、25・・・選択トランジスタ、26・・・FD部(電荷検出部)、30・・・半導体基板、31(31_1~31_m)・・・行制御線、32(32_1~32_n)・・・列信号線、40(40_1~40_n)・・・A/D変換器、100・・・撮像装置、101・・・光学レンズ、102・・・撮像部、103,103A,103B,103C・・・画像処理部、104・・・カメラ信号処理部、105・・・制御部、1031・・・行シーケンス変換部、1032・・・記憶部、1033・・・HDR合成部(第1画像合成部)、1034・・・逐次HDR合成部(第2画像合成部)、1035・・・画素グループ間HDR合成部、1036・・・動被写体判定部、1037・・・合成比率決定部、1038・・・合成比率履歴格納部、1039・・・逐次HDR合成部(第3画像合成部)、1040・・・画素値補間部、200・・・電子機器

Claims (20)

  1.  光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
     複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
     を備える固体撮像素子。
  2.  タイミング制御部は、複数回の露光のうちの少なくとも2つの露光について、先に露光を開始した露光画像の最終読出し行の単位画素の露光終了タイミングよりも、後から露光を開始した露光画像の最初に読み出される行の単位画素の露光終了タイミングが早くなるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定する、
     請求項1に記載の固体撮像素子。
  3.  タイミング制御部は、露光終了が時間的に重複する複数の露光画像について、行毎に時分割形式で各々の画像データを出力する制御を行う、
     請求項2に記載の固体撮像素子。
  4.  複数の画素グループの各露光画像の画像データに基づいて広いダイナミックレンジの画像を生成する画像処理部を備える、
     請求項1に記載の固体撮像素子。
  5.  画像処理部は、1垂直同期期間内での露光順序が最終でない露光画像については行毎に画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最終の露光画像の行毎の画素値データの出力タイミングに応じて、記憶部から同一行の画素値データを読み出し、複数の露光画像の行を揃えて出力させる行シーケンス変換部を有する、
     請求項4に記載の固体撮像素子。
  6.  画像処理部は、行シーケンス変換部から行を揃えて出力される複数の露光画素の画素値データを、複数の露光画素間で合成して出力する第1画像合成部を有する、
     請求項5に記載の固体撮像素子。
  7.  画像処理部は、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持し、1垂直同期期間内での露光順序が最終の露光画像について画素値データの合成が終了したら、最終の合成結果を出力する第2画像合成部を有する、
     請求項4に記載の固体撮像素子。
  8.  第2画像合成部は、それぞれ画素グループにおいて、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する、
     請求項7に記載の固体撮像素子。
  9.  画像処理部は、第2画像合成部において1垂直同期期間内で露光順序が最終の露光画像を合成して得られる画素グループ毎の最終の合成結果を参照して画素グループ間の合成値を算出する画素グループ間合成部を有する、
     請求項7に記載の固体撮像素子。
  10.  画像処理部は、全ての画素グループにおける露光画像の中で、1垂直同期期間内での露光順序が最初の露光画像については画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像については、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持し、1垂直同期期間内での露光順序が最終の露光画像については画素値データの合成が終了したら、最終の合成結果を出力する第3画像合成部を有する、
     請求項7に記載の固体撮像素子。
  11.  画像処理部は、各々の画素グループ毎に読み出される画素値に基づいて全画素位置に画素値を補間する画素値補間部を有し、
     第3画像合成部は、画素値補間部の出力に基づいて、全ての画素グループの全ての露光画像の中で1垂直同期期間内での露光順序が最初の露光画像について画素値データを記憶部に保持しておき、1垂直同期期間内での露光順序が最初以外の露光画像について、画素毎に既に記憶部に保持されている自身の画素位置及び周辺画素位置に対応する画素値データを参照して合成画素値を算出して記憶部に保持する、
     請求項10に記載の固体撮像素子。
  12.  画像処理部は、
     各画素位置において被写体が動いているか否かを判定する動被写体判定部と、
     動被写体判定部の判定結果に基づいて、合成画素値を算出する際の合成比率を決定する合成比率決定部とを有する、
     請求項7に記載の固体撮像素子。
  13.  動被写体判定部は、露光画像の画素値と記憶部上の画素値とを参照することによって、各画素位置において被写体が動いているか否かを推定する、
     請求項12に記載の固体撮像素子。
  14.  画像処理部は、合成比率決定部が決定した合成比率の履歴を格納する合成比率履歴格納部を有し、
     合成比率決定部は、合成比率履歴格納部に格納されている合成比率の履歴を参照して合成比率を決定する、
     請求項12に記載の固体撮像素子。
  15.  合成比率決定部は、各露光画像の露光時間を参照して合成比率を決定する、
     請求項12に記載の固体撮像素子。
  16.  合成比率決定部は、各露光画像の画素値レベルを参照して合成比率を決定する、
     請求項12に記載の固体撮像素子。
  17.  画素アレイ部の各単位画素から画素列毎に出力されるアナログの画素信号をデジタル化するA/D変換器を備える、
     請求項1に記載の固体撮像素子。
  18.  光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
     複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
     を備える固体撮像素子を有する撮像装置。
  19.  タイミング制御部は、発光物体を捉える場合において、当該発光物体の明滅周期を勘案して、複数回の露光による複数枚の露光画像の各々の露光開始時刻や露光時間長を設定する、
     請求項18に記載の撮像装置。
  20.  光電変換素子を含む単位画素が行列状に配置され、各単位画素が複数の画素グループにグループ分けされて成る画素アレイ部と、
     複数の画素グループのうちの少なくとも1つの画素グループについて1垂直同期期間内に複数回の露光が行われるように、複数の画素グループのそれぞれに対して独立に露光開始タイミングと露光終了タイミングとを設定するタイミング制御部と、
     を備える固体撮像素子を有する電子機器。
PCT/JP2016/077665 2015-11-05 2016-09-20 固体撮像素子、撮像装置、及び、電子機器 WO2017077775A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680063615.6A CN108293098B (zh) 2015-11-05 2016-09-20 固态成像器件、成像装置和电子设备
US15/771,792 US10541259B2 (en) 2015-11-05 2016-09-20 Solid-state imaging device, imaging device, and electronic apparatus
JP2017548667A JPWO2017077775A1 (ja) 2015-11-05 2016-09-20 固体撮像素子、撮像装置、及び、電子機器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-217243 2015-11-05
JP2015217243 2015-11-05

Publications (1)

Publication Number Publication Date
WO2017077775A1 true WO2017077775A1 (ja) 2017-05-11

Family

ID=58661813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077665 WO2017077775A1 (ja) 2015-11-05 2016-09-20 固体撮像素子、撮像装置、及び、電子機器

Country Status (4)

Country Link
US (1) US10541259B2 (ja)
JP (1) JPWO2017077775A1 (ja)
CN (1) CN108293098B (ja)
WO (1) WO2017077775A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603456A (zh) * 2017-07-11 2019-12-20 索尼半导体解决方案公司 测距装置和移动设备
EP3734964A4 (en) * 2017-12-25 2021-08-18 Canon Kabushiki Kaisha IMAGING DEVICE, IMAGING SYSTEM, AND METHOD OF CONTROLLING THE IMAGING DEVICE

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117034A1 (ja) * 2015-01-20 2016-07-28 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP6604297B2 (ja) * 2016-10-03 2019-11-13 株式会社デンソー 撮影装置
CN111193882A (zh) * 2018-11-15 2020-05-22 格科微电子(上海)有限公司 单帧高动态范围图像传感器的实现方法
KR20210002966A (ko) * 2019-07-01 2021-01-11 삼성전자주식회사 이미지 센서 및 그것의 구동 방법
CN112543261A (zh) * 2020-12-08 2021-03-23 浙江大华技术股份有限公司 一种图像质量提升方法、装置以及计算机可读存储介质
CN114363524B (zh) * 2022-01-24 2022-09-20 北京显芯科技有限公司 背光控制方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244309A (ja) * 2010-05-20 2011-12-01 Sony Corp 画像処理装置、画像処理方法及びプログラム
WO2012042967A1 (ja) * 2010-09-27 2012-04-05 富士フイルム株式会社 撮像装置及び撮像方法
JP2014154982A (ja) * 2013-02-06 2014-08-25 Canon Inc 撮像装置およびその制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4482781B2 (ja) 2000-10-06 2010-06-16 ソニー株式会社 撮像装置および方法
CN101057493B (zh) 2004-11-02 2011-05-25 松下电器产业株式会社 图像传感器
JP2007124174A (ja) * 2005-10-27 2007-05-17 Fujifilm Corp 固体撮像装置および固体撮像素子の駆動制御方法
JP4661922B2 (ja) * 2008-09-03 2011-03-30 ソニー株式会社 画像処理装置、撮像装置、固体撮像素子、画像処理方法およびプログラム
JP5156148B2 (ja) * 2010-07-28 2013-03-06 富士フイルム株式会社 撮像装置及び撮像方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244309A (ja) * 2010-05-20 2011-12-01 Sony Corp 画像処理装置、画像処理方法及びプログラム
WO2012042967A1 (ja) * 2010-09-27 2012-04-05 富士フイルム株式会社 撮像装置及び撮像方法
JP2014154982A (ja) * 2013-02-06 2014-08-25 Canon Inc 撮像装置およびその制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603456A (zh) * 2017-07-11 2019-12-20 索尼半导体解决方案公司 测距装置和移动设备
EP3654055A4 (en) * 2017-07-11 2020-06-24 Sony Semiconductor Solutions Corporation DISTANCE MEASURING DEVICE AND MOBILE BODY APPARATUS
CN110603456B (zh) * 2017-07-11 2023-12-01 索尼半导体解决方案公司 测距装置和包括测距装置的移动装置
EP3734964A4 (en) * 2017-12-25 2021-08-18 Canon Kabushiki Kaisha IMAGING DEVICE, IMAGING SYSTEM, AND METHOD OF CONTROLLING THE IMAGING DEVICE
US11284023B2 (en) 2017-12-25 2022-03-22 Canon Kabushiki Kaisha Imaging apparatus, imaging system, and drive method of imaging apparatus

Also Published As

Publication number Publication date
JPWO2017077775A1 (ja) 2018-08-23
CN108293098B (zh) 2021-01-19
US20180323225A1 (en) 2018-11-08
CN108293098A (zh) 2018-07-17
US10541259B2 (en) 2020-01-21

Similar Documents

Publication Publication Date Title
WO2017077775A1 (ja) 固体撮像素子、撮像装置、及び、電子機器
US9615033B2 (en) Image sensor with transfer gate control signal lines
US10110827B2 (en) Imaging apparatus, signal processing method, and program
CN102984472B (zh) 固态成像设备和相机***
US8520103B2 (en) Solid-state imaging device, signal processing method thereof and image capturing apparatus
JP4747781B2 (ja) 撮像装置
US9288399B2 (en) Image processing apparatus, image processing method, and program
KR100361945B1 (ko) 고체 이미징 장치
CN106847845B (zh) 摄像设备、摄像***和摄像设备的驱动方法
JP5645505B2 (ja) 撮像装置及びその制御方法
US9674469B2 (en) Solid-state imaging device, method of driving the same, and electronic apparatus
JP2011244309A (ja) 画像処理装置、画像処理方法及びプログラム
JP2008054136A (ja) 撮像装置及び駆動制御方法
WO2019208412A1 (ja) 撮像装置及び撮像装置の駆動方法
JP2016119652A (ja) 撮像装置及び撮像素子の駆動方法
JP2004282552A (ja) 固体撮像素子および固体撮像装置
US20220321759A1 (en) Solid-state imaging device, method for driving solid-state imaging device, and electronic apparatus
US20150036033A1 (en) Solid-state imaging device
US11412168B2 (en) Imaging element and method of controlling the same, and imaging device
JP5884847B2 (ja) 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
WO2019176309A1 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP3970069B2 (ja) 撮像装置
JP2006033885A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16861844

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017548667

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15771792

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16861844

Country of ref document: EP

Kind code of ref document: A1