WO2015008635A1 - 固体撮像素子及びその駆動方法、並びに電子機器 - Google Patents

固体撮像素子及びその駆動方法、並びに電子機器 Download PDF

Info

Publication number
WO2015008635A1
WO2015008635A1 PCT/JP2014/067881 JP2014067881W WO2015008635A1 WO 2015008635 A1 WO2015008635 A1 WO 2015008635A1 JP 2014067881 W JP2014067881 W JP 2014067881W WO 2015008635 A1 WO2015008635 A1 WO 2015008635A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
unit
solid
state imaging
Prior art date
Application number
PCT/JP2014/067881
Other languages
English (en)
French (fr)
Inventor
篤 山中
泰 斎藤
大典 川又
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2015008635A1 publication Critical patent/WO2015008635A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present technology relates to a solid-state imaging device, a driving method thereof, and an electronic device, and more particularly, to a solid-state imaging device, a driving method thereof, and an electronic device that can improve AF control accuracy.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • This technology has been made in view of such circumstances, and is intended to improve the accuracy of AF control.
  • a solid-state imaging device includes a pixel array in which first pixels corresponding to each color component of a plurality of color components and second pixels whose main components are luminance components are regularly arranged in a matrix.
  • a pixel driving unit that drives pixels arranged in the pixel array unit, and pixel information obtained from a highly sensitive pixel among the first pixel and the second pixel.
  • a signal processing unit that calculates a pixel value used for AF (Autofocus) control by executing the addition process.
  • the high-sensitivity pixel is the second pixel.
  • the second pixels are arranged in a checkered pattern, the first pixels are arranged in the remaining portion, a plurality of signal lines are formed for each column, and a predetermined number of pixels is formed.
  • the pixel unit is configured to share a floating diffusion region that holds the charge accumulated by the photoelectric conversion element of each pixel as a signal, and an analog signal output from the pixel via the signal line And an AD converter for converting the digital signal.
  • the pixel driving unit holds the charges obtained from the plurality of second pixels in the pixel share in the common floating diffusion region so as to be read simultaneously.
  • the pixel driving unit adds the analog signal output via the pixel source follower through the signal line, and then inputs the added analog signal to the AD conversion unit.
  • the pixel driving unit thins out pixel sharing in a predetermined row among pixel sharing configured in a matrix, and inputs an analog signal to the AD conversion unit through the signal line.
  • the signal processing unit executes a horizontal addition process using the digital signal from the AD conversion unit.
  • the first pixel is a pixel corresponding to any one of red (R), green (G), and blue (B) color components
  • the second pixel is a white (W) pixel.
  • a driving method includes a pixel array unit in which first pixels corresponding to each color component of a plurality of color components and second pixels whose main components are luminance components are regularly arranged in a matrix. A predetermined addition using only pixel information obtained from a high-sensitivity pixel among the first pixel and the second pixel, and a pixel driving unit that drives the pixels arranged in the pixel array unit.
  • the pixel driving unit is shared by a predetermined pixel unit including a plurality of pixels. Driving the pixel.
  • An electronic apparatus includes a pixel array unit in which first pixels corresponding to each color component of a plurality of color components and second pixels whose main components are luminance components are regularly arranged in a matrix A predetermined addition using only pixel information obtained from a high-sensitivity pixel among the first pixel and the second pixel, and a pixel driving unit that drives the pixels arranged in the pixel array unit
  • An AF that controls the AF using the pixel value output from the solid-state image sensor, by mounting a solid-state image sensor having a signal processing unit that calculates a pixel value used for AF control by executing the process A control unit is provided.
  • the driving method thereof, and the electronic apparatus the first pixel corresponding to each color component of the plurality of color components and the second pixel whose main component is the luminance component are arranged in a matrix.
  • the pixels arranged in the pixel array unit regularly arranged in a shape are driven, and a predetermined addition process is performed using only pixel information obtained from a highly sensitive pixel among the first pixel and the second pixel. By executing, a pixel value used for AF control is calculated.
  • the accuracy of AF control can be improved.
  • FIG. 1 is a diagram illustrating an embodiment of a CMOS image sensor to which the present technology is applied.
  • the CMOS image sensor 100 in FIG. 1 is an example of a solid-state imaging device. As shown in FIG. 1, the CMOS image sensor 100 includes an optical lens 101, a pixel array unit 102, a pixel driving unit 103, an AD conversion unit 104, and a signal processing circuit unit 105.
  • unit pixels having photodiodes (hereinafter sometimes simply referred to as “pixels”) are two-dimensionally arranged in a matrix.
  • pixels unit pixels having photodiodes (PDs) (hereinafter sometimes simply referred to as “pixels”) are two-dimensionally arranged in a matrix.
  • W pixels mainly composed of luminance components are arranged in a checkered pattern, and R pixels, G pixels, and B pixels corresponding to each color component of a plurality of color components are arranged in the remaining portion.
  • the number of G pixels is larger than the number of R pixels or B pixels.
  • the photodiode In each unit pixel, the photodiode generates a charge amount corresponding to the amount of light collected by the optical lens 101 and accumulates it inside.
  • the electric charge accumulated by the photodiode (PD) is transferred to a floating diffusion region (FD: Floating Diffusion).
  • FD floating diffusion region
  • the charge held in the floating diffusion region (FD) is read out as a pixel signal.
  • a pixel drive line is formed for each row in the matrix-like pixel arrangement along the pixel arrangement direction of the pixel row, and a vertical signal line is provided for each column in the pixel arrangement direction of the pixel column. Are formed along.
  • One end of the pixel drive line is connected to an output end corresponding to each row of the pixel drive unit 103.
  • One end of the vertical signal line is connected to an output end corresponding to each column of the AD conversion unit 104.
  • the pixel driving unit 103 reads and drives each pixel arranged in the pixel array unit 102 by a predetermined method.
  • a pixel signal output from each unit pixel in the pixel row driven by the pixel driving unit 103 is supplied to the AD conversion unit 104 via each vertical signal line.
  • the AD conversion unit 104 performs AD (Analog Digital) conversion on an analog pixel signal input via the vertical signal line, and supplies a digital signal obtained thereby to the signal processing circuit unit 105.
  • AD Analog Digital
  • the signal processing circuit unit 105 performs predetermined signal processing on the digital pixel signal supplied from the AD conversion unit 104 to calculate a pixel value used for AF control and outputs the pixel value to a subsequent circuit or the like. In this signal processing, for example, horizontal addition processing is executed.
  • the CMOS image sensor 100 is configured as described above.
  • FIG. 2 is a diagram for explaining pixel readout driving according to the first embodiment.
  • FIG. 2 a part of four columns of pixels are extracted from the plurality of pixels arranged in a matrix in the pixel array unit 102 of FIG. 1, and the direction from the left side to the right side in the figure is the time direction.
  • pixel sharing is performed in units of 8 pixels (4 ⁇ 2 pixels) composed of 2 pixels in the horizontal direction and 4 pixels in the vertical direction.
  • One floating diffusion region (FD) is shared by each photodiode (PD) in two G pixels, one R pixel and B pixel.
  • the state is 0.5 seconds after the first to fourth rows and 1 second after the shared pixel as a unit, and among the pixels in each pixel sharing, hatching is performed. It is shown that the pixels subjected to are read out.
  • a configuration is known in which pixels corresponding to each color component of a plurality of color components are distributed and arranged.
  • pixel sharing is performed. Is difficult.
  • the pixels are regularly arranged, so that the pixels can be easily shared.
  • a group of shared pixels in the pixel array unit 102 is described as pixel sharing (i, j).
  • i i is an integer equal to or greater than 1
  • j j is an integer equal to or greater than 1
  • FIG. 2A shows the AD conversion unit 104 of FIG.
  • two ADCs Analog Digital Converter
  • Each pixel sharing is connected to the North ADC or South ADC through a vertical vertical signal line.
  • the pixel sharing on the odd-numbered rows is connected to the North ADC, while the pixel sharing on the even-numbered rows is connected to the South ADC.
  • Each pixel share is connected to the pixel driving unit 103 in FIG. 1 via a pixel driving line in the horizontal direction.
  • pixel sharing (1, 1), pixel sharing (1, 2), and pixel sharing are performed by a vertical signal line connected to the North ADC.
  • the two W pixels in the left column in (3, 1) and pixel sharing (3, 2) are read out.
  • the vertical signal line connected to the South ADC allows pixel sharing (2,1), pixel sharing (2,2), pixel sharing (4,1), and left side in pixel sharing (4,2). Two W pixels in the column are read out.
  • the shared pixel uses a common floating diffusion region (FD), in the first AD conversion, the charges accumulated by the photodiodes (PD) of the two W pixels in the pixel share are simultaneously 1 It is transferred to two floating diffusion regions (FD) and is simultaneously read out as a pixel signal via a vertical signal line (hereinafter also referred to as “FD addition”).
  • FD floating diffusion region
  • the vertical signal line is connected to an amplification transistor (not shown) and a constant current circuit to constitute a source follower circuit.
  • the pixel source follower drives the vertical signal line, and the charge held in the floating diffusion region is read out as an analog pixel signal.
  • analog pixel signal from the pixel sharing (1, 1) connected to the same vertical signal line and the analog pixel signal from the pixel sharing (3, 1) are current-added (“SF” in the figure). Addition)), the analog pixel signal from the pixel sharing (2, 1) and the analog pixel signal from the pixel sharing (4, 1) are current-added.
  • an analog pixel signal from the pixel sharing (1, 2) connected to the same vertical signal line and an analog pixel signal from the pixel sharing (3, 2) are current-added, and the pixel sharing (2 , 2) and the analog pixel signal from pixel sharing (4, 2) are current-added.
  • analog pixel signal input via vertical signal line is AD converted to digital signal.
  • the pixel sharing (1, 1), pixel sharing (1, 2), The pixel sharing (3, 1) and the two W pixels in the right column in the pixel sharing (3, 2) are read out.
  • the vertical signal line connected to the South ADC allows pixel sharing (2,1), pixel sharing (2,2), pixel sharing (4,1), and right side in pixel sharing (4,2). Two W pixels in the column are read out.
  • analog pixel signals from the pixel sharing connected to the same vertical signal line are current-added and input to the North ADC and South ADC respectively.
  • analog pixel signals input via vertical signal lines are AD converted into digital signals.
  • the shared pixel uses a common floating diffusion region (FD), so that the charges accumulated by the photodiodes (PD) of the two W pixels in the pixel share are simultaneously After being transferred to one floating diffusion region (FD), it is read out simultaneously.
  • FD floating diffusion region
  • reading of pixels in the pixel sharing in the first column and the second column among the pixel sharing in the first row to the fourth row has been described as an example.
  • pixel readout can be performed.
  • pixel reading in the pixel sharing in the first to fourth rows has been described as an example, but pixel reading in the pixel sharing in the fifth and subsequent rows can be performed in the same manner.
  • the pixel array unit 102 employs a pixel array in which W pixels are arranged in a checkered pattern and R pixels, G pixels, and B pixels are arranged in the remaining portion.
  • the R pixel, G pixel, and B pixel corresponding to the component are not read out, and only the W pixel whose luminance component is the main component is read out.
  • the analog pixel signal obtained from the W pixel whose main component is the luminance component is AD-converted and supplied to the signal processing circuit unit 105 as a digital signal.
  • a plurality of pixels arranged in a matrix in the pixel array unit 102 can be read out at high speed.
  • FIG. 3 is a diagram for explaining the addition process in the first embodiment.
  • the signal processing circuit unit 105 in FIG. 1 includes an equal addition circuit unit 201 and a W pixel output circuit unit 202.
  • the equal addition circuit unit 201 performs addition processing on the digital pixel signal supplied from the AD conversion unit 104 (S11).
  • the equal addition circuit unit 201 shows the processing contents of the horizontal addition process, and the 16 ⁇ 8 square corresponds to the pixel signal of the pixel obtained as a result of AD conversion. Yes.
  • pixels (m, n) In the pixel arrangement in step S11 in FIG. 3, W pixels are shown only in the 6th and 7th rows and the 10th and 11th rows, but this is shown in FIG. This corresponds to pixel sharing for every 8 pixels shown in FIG.
  • the pixels arranged in a matrix are described as pixels (m, n).
  • m (m is an integer of 1 or more) represents a row
  • n (n is an integer of 1 or more) represents a column.
  • W pixels are alternately arranged every other column, but the pixel signal of the W pixel (7, 1) is shared by the first AD conversion in FIG. It corresponds to the pixel signal read out simultaneously from the two W pixels in (1, 1) and AD-converted. Further, the pixel signal of the W pixel (6, 2) is simultaneously read out from the two W pixels in the pixel share (1, 1) by the second AD conversion in FIG. It corresponds.
  • the pixel signal of the W pixel (7, 3) is simultaneously read out from the two W pixels in the pixel share (1, 2) by the first AD conversion in FIG. It corresponds to.
  • the pixel signal of the W pixel (6, 4) is simultaneously read out from the two W pixels in the pixel share (1, 2) by the second AD conversion in FIG. It corresponds.
  • the equal addition circuit unit 201 performs equal addition so that W pixels adjacent to each row become 1: 1 in the horizontal direction.
  • W pixels (7, 1) and W pixels (6, 2) are equally added in the horizontal direction
  • one W pixel is obtained.
  • W pixels (7, 3) and W pixels (6, 4) are equally added in the horizontal direction, one W pixel is obtained.
  • the input pixels (array of S11) are arranged with only W pixels, and the equal addition processing (S11) ends.
  • the W pixel output circuit unit 202 shows the processing contents of W pixel output.
  • the pixel array in S12 only W pixels are repeatedly arranged by the above-described equal addition process (S11).
  • the W pixel output circuit unit 202 outputs the pixel values of these W pixels to a subsequent circuit or the like (S12).
  • the first embodiment has been described above.
  • horizontal equalization is performed using only W pixels whose main component is a luminance component without using R, G, and B pixels corresponding to each color component of a plurality of color components.
  • Processing is performed, and the pixel value of the W pixel composed of an array of only W pixels is output.
  • the subsequent circuit for example, an AF control circuit unit 152 in FIG. 6 described later
  • AF control using pixel values obtained from highly sensitive W pixels can be performed, so that the accuracy of AF control is improved. Can be made.
  • FIG. 4 is a diagram for explaining pixel readout driving in the second embodiment.
  • pixels arranged in a matrix in the pixel array unit 102 of FIG. 1 are shared in units of 8 pixels (4 ⁇ 2 pixels).
  • North AD and South ADC are provided as the AD conversion unit 104 in FIG.
  • the pixel readout driving of FIG. 4 In the pixel readout driving of FIG. 4, two W pixels in the pixel sharing are read out by the first AD conversion, and two W pixels are read out by the second AD conversion. This is similar to pixel readout driving. On the other hand, the pixel readout driving of FIG. 4 is different in that pixel sharing for the next two rows is not read after reading pixel sharing for two rows.
  • the thinning process is performed without accessing the pixel sharing of the next two rows, and the current after readout by the pixel source follower
  • the difference from the pixel readout driving of FIG. 2 is that no addition (SF addition) is performed.
  • the point of performing FD addition of the W pixels in the pixel sharing is the same as the pixel readout driving of FIG.
  • the second AD conversion is performed in the same manner as the first AD conversion.
  • the second embodiment has been described above.
  • horizontal equalization is performed by using only W pixels whose main component is a luminance component without using R, G, and B pixels corresponding to each color component of a plurality of color components.
  • Processing is performed, and the pixel value of the W pixel composed of an array of only W pixels is output.
  • the subsequent circuit for example, an AF control circuit unit 152 in FIG. 6 described later
  • AF control using pixel values obtained from highly sensitive W pixels can be performed, so that the accuracy of AF control is improved. Can be made.
  • pixel sharing of a predetermined row is thinned out. Processing is reduced and power consumption can be suppressed.
  • FIG. 5 is a diagram illustrating pixel readout driving according to the third embodiment.
  • the pixels arranged in a matrix in the pixel array unit 102 of FIG. 1 are shared in units of 8 pixels (4 ⁇ 2 pixels).
  • North AD and South ADC are provided as the AD conversion unit 104 in FIG.
  • the W pixel in the pixel sharing is read by the first AD conversion, and the W pixel is read by the second AD conversion. This is the same as the reading drive.
  • the first and second AD conversions do not read out two W pixels at the same time as in the pixel readout driving of FIGS. The only difference is that only pixels are read out and FD addition is not performed.
  • the third embodiment has been described above.
  • horizontal equalization is performed using only W pixels whose main component is a luminance component without using R, G, and B pixels corresponding to each color component of a plurality of color components.
  • Processing is performed, and the pixel value of the W pixel composed of an array of only W pixels is output.
  • a subsequent circuit for example, an AF control circuit unit 152 in FIG. 6 described later
  • AF control using a pixel value obtained from a highly sensitive pixel W can be performed, so that the accuracy of AF control is improved. Can be made.
  • pixel sharing of a predetermined row is thinned out, so that much. Processing is reduced and power consumption can be suppressed.
  • the pixel sharing of a predetermined row has been described as thinning out. However, only the FD addition may be performed without performing the thinning process. Further, in this case, current addition (SF addition) after reading by the pixel source follower may be performed.
  • a G pixel adjacent to the W pixel is used as a highly sensitive pixel instead of the W pixel described above.
  • this G pixel read drive can be performed in the same manner as the W pixel read drive of FIG. 5 described above, for example.
  • the addition process executed by the signal processing circuit unit 105 is the same as the addition process of FIG. 3 except that the G pixel is added instead of the W pixel, and the description thereof is omitted. To do.
  • the fourth embodiment has been described above.
  • horizontal addition processing (digital addition) is performed using only high-sensitivity G pixels without using low-sensitivity R pixels and G pixels, and an array of only G pixels is obtained.
  • the pixel value of the G pixel consisting of is output.
  • the G pixel is inferior in sensitivity to the W pixel, it is a high-sensitivity pixel, so that it is obtained from the high-sensitivity G pixel in the subsequent circuit (for example, an AF control circuit unit 152 in FIG. 6 described later).
  • the accuracy of AF control can be improved by using pixel values.
  • contrast AF a method called contrast AF is known as an AF (Autofocus) method.
  • AF Autofocus
  • the pixel value (image signal) of the output image from the solid-state image sensor is read out while moving the position of the photographic lens along the optical axis direction, and the contrast is evaluated from the image signal obtained for each frame.
  • the evaluation value hereinafter referred to as “contrast evaluation value”.
  • the maximum value (peak value) of the contrast evaluation is detected, and the photographing lens position where the peak value of the contrast evaluation value is obtained is set as the in-focus position.
  • FIG. 6 shows the principle of contrast AF.
  • the taking lens 151 moves along the optical axis direction in accordance with control from the lens driving circuit unit 153.
  • the CMOS image sensor 100 receives the light collected by the photographing lens 151, performs photoelectric conversion according to the amount of the light, calculates a pixel value used for AF control, and performs an AF control circuit in the subsequent stage.
  • To the unit 152 For example, in the CMOS image sensor 100, an equal addition process in the horizontal direction is performed using only the W pixel without using the R pixel, the G pixel, and the B pixel, and the pixel value of the W pixel is output. Become.
  • the AF control circuit unit 152 executes AF control using the pixel value of the highly sensitive pixel W output from the CMOS image sensor 100. That is, the AF control circuit unit 152 calculates the contrast evaluation value from the image signal for each frame obtained by moving the position of the photographing lens 151 along the optical axis direction, and the photographing lens 151 from which the peak value is obtained. Find the position of.
  • the contrast evaluation values are integrated as the photographing lens 151 moves in the optical axis direction. As shown in FIG. 8, contrast evaluation values are obtained at points A and C that are out of focus. The contrast evaluation value becomes the maximum value (peak value) at the point B where the focus is low.
  • the contrast evaluation value is calculated as an evaluation value by, for example, generating a luminance signal by W pixels, detecting edge portions of the subject, and integrating the edge portions from which light shot noise has been removed and detected. It will be.
  • the AF control circuit unit 152 controls the lens driving circuit unit 153 based on the calculated contrast evaluation value to move the position of the photographing lens 151 in the optical axis direction, thereby focusing on the B point.
  • the subject is automatically focused.
  • a luminance signal obtained from a highly sensitive W pixel is used for calculation of a contrast evaluation value, a large value can be taken as the evaluation value. Can be realized.
  • step S101 the pixel driving unit 103 reads and drives each pixel arranged in the pixel array unit 102 by a predetermined method.
  • the pixel readout driving method any one of the pixel readout driving methods shown in FIGS. 2, 4, and 5 described above is used.
  • step S102 the AD conversion unit 104 AD-converts analog pixel signals input from the pixels arranged in the pixel array unit 102 via the vertical signal line.
  • AD conversion is performed by a North ADC or South ADC connected for each pixel sharing.
  • step S103 the signal processing circuit unit 105 executes a predetermined addition process using the digital pixel signal from the AD conversion unit 104.
  • a predetermined addition process using the digital pixel signal from the AD conversion unit 104.
  • the above-described addition processing of FIG. 3 is performed.
  • step S104 the signal processing circuit unit 105 outputs to the AF control circuit unit 152 the pixel value of the high-sensitivity pixel used for the AF control obtained by the addition process in step S103.
  • the pixel value of the W pixel is output.
  • step S105 the AF control circuit unit 152 performs AF control using the pixel values of the highly sensitive pixels output from the signal processing circuit unit 105.
  • this AF control the contrast AF processing described with reference to FIGS. 6 to 8 is performed, and the subject is brought into focus.
  • the electronic apparatus having the CMOS image sensor 100 and the photographing lens 151 to the lens drive circuit unit 153, for example, after the subject is focused by the AF control processing of FIG.
  • the R pixel, G pixel, and B pixel corresponding to are read out, and a captured image of the subject is acquired.
  • FIG. 10 is a diagram illustrating a configuration example of an electronic device to which the present technology is applied.
  • the 10 includes an optical unit 301 including a lens group, a solid-state imaging device 302 including the CMOS image sensor 100 according to the above-described embodiment, and a DSP (Digital Signal Processor) circuit that is a camera signal processing circuit.
  • 303 is provided.
  • the electronic device 300 also includes a frame memory 304, a display unit 305, a recording unit 306, an operation unit 307, a power supply unit 308, and a control unit 309.
  • the DSP circuit 303, the frame memory 304, the display unit 305, the recording unit 306, the operation unit 307, the power supply unit 308, and the control unit 309 are connected to each other via the bus line 310.
  • the optical unit 301 takes in incident light (image light) from a subject and forms an image on the imaging surface of the solid-state imaging device 302. 6 is included in the optical unit 301.
  • the solid-state imaging element 302 converts the amount of incident light imaged on the imaging surface by the optical unit 301 into an electrical signal in units of pixels and outputs the electrical signal.
  • a solid-state imaging device such as the CMOS image sensor 100 according to the above-described embodiment can be used.
  • the display unit 305 includes a panel type display device such as a liquid crystal panel or an organic EL (electroluminescence) panel, and displays a moving image or a still image captured by the solid-state imaging device 302.
  • the recording unit 306 records a moving image or a still image captured by the solid-state imaging device 302 on a recording medium such as a video tape, a DVD (Digital Versatile Disk), or a flash memory.
  • the operation unit 307 issues operation commands for various functions of the electronic device 300 under the operation of the user.
  • the power supply unit 308 appropriately supplies various power sources serving as operation power sources for the DSP circuit 303, the frame memory 304, the display unit 305, the recording unit 306, the operation unit 307, and the control unit 309 to these supply targets.
  • the control unit 309 controls the operation of each unit of the electronic device 300.
  • the control unit 309 has a function corresponding to the AF control circuit unit 152 and the lens drive circuit unit 153 in FIG. 6, and uses the pixel values of the high-sensitivity pixels output from the solid-state image sensor 302. Perform AF control processing.
  • noise reduction processing including kTC noise can be performed, so that a high S / N can be ensured. Therefore, in the electronic device 300 such as a digital still camera, a digital video camera, or a camera module for mobile devices such as a mobile phone, it is possible to improve the quality of captured images.
  • the present invention is applied to a CMOS image sensor in which unit pixels that detect signal charges corresponding to the amount of visible light as physical quantities are arranged in a matrix has been described as an example.
  • the present technology is not limited to application to a CMOS image sensor, and can be applied to all column-type solid-state imaging devices in which a column processing unit is arranged for each pixel column of a pixel array unit.
  • the present technology is not limited to application to a solid-state imaging device that detects the distribution of the amount of incident light of visible light and captures it as an image.
  • solid-state imaging devices physical quantity distribution detection devices
  • fingerprint detection sensors that detect the distribution of other physical quantities such as pressure and capacitance and capture images as images.
  • the present technology can take the following configurations.
  • a pixel array unit in which a first pixel corresponding to each color component of a plurality of color components and a second pixel whose main component is a luminance component are regularly arranged in a matrix;
  • a pixel driving unit that drives pixels arranged in the pixel array unit;
  • a pixel value used for AF (Autofocus) control is calculated by executing predetermined addition processing using only pixel information obtained from a highly sensitive pixel.
  • a solid-state imaging device (2) The solid-state imaging device according to (1), wherein the high-sensitivity pixel is the second pixel.
  • the pixel array unit includes: The second pixels are arranged in a checkered pattern, the first pixels are arranged in the remaining portion, and a plurality of signal lines are formed for each column, In a predetermined pixel unit composed of a plurality of pixels, it is configured to share a floating diffusion region that is held to read out the charge accumulated by the photoelectric conversion element of each pixel as a signal,
  • the first pixel is a pixel corresponding to any color component of red (R), green (G), and blue (B),
  • a pixel driving unit that drives pixels arranged in the pixel array unit;
  • Signal processing for calculating a pixel value used for AF control by executing predetermined addition processing using only pixel information obtained from a highly sensitive pixel among the first pixel and the second pixel.
  • the pixel driving unit includes a step of driving a pixel shared in a predetermined pixel unit including a plurality of pixels.
  • a pixel array unit in which a first pixel corresponding to each color component of a plurality of color components and a second pixel whose main component is a luminance component are regularly arranged in a matrix;
  • a pixel driving unit that drives pixels arranged in the pixel array unit;
  • Signal processing for calculating a pixel value used for AF control by executing predetermined addition processing using only pixel information obtained from a highly sensitive pixel among the first pixel and the second pixel.
  • a solid-state imaging device having a An electronic apparatus comprising an AF control unit that controls AF using the pixel value output from the solid-state imaging device.
  • CMOS image sensor 100 CMOS image sensor, 101 optical lens, 102 pixel array unit, 103 pixel driving unit, 104 AD conversion unit, 105 signal processing circuit unit, 151 photographing lens, 152 AF control circuit unit, 153 lens driving circuit unit, 201 equalizing circuit Unit, 202 W pixel output circuit unit, 300 electronic device, 302 solid-state image sensor, 309 control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

 本技術は、AF制御の精度を向上させることができるようにする固体撮像素子及びその駆動方法、並びに電子機器に関する。 画素駆動部は、複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部に配置された画素を駆動し、信号処理回路部は、第1の画素及び第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF(Autofocus)制御に用いられる画素値を算出する。本技術は、例えば、CMOSイメージセンサに適用することができる。

Description

固体撮像素子及びその駆動方法、並びに電子機器
 本技術は、固体撮像素子及びその駆動方法、並びに電子機器に関し、特に、AF制御の精度を向上させることができるようにした固体撮像素子及びその駆動方法、並びに電子機器に関する。
 従来より、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子は、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に広く用いられている。この種の撮像装置では、ピント合わせを自動化するAF(Autofocus)機能を備えているものがほとんどである。
 また、固体撮像素子においては、カラーフィルタを用いた色分離を行いながら、可能な限り多くの光を取り入れる技術が検討されている。その一つの方法として、色情報を得るためのR(Red;赤)画素、G(Green;緑)画素、B(Blue;青)画素に加え、輝度情報を得るためのW(White;白)画素を用いる方法がある(例えば、特許文献1参照)。
特開2009-44593号公報
 しかしながら、特許文献1に開示された技術であると、高感度の輝度検出画素のみならず、低感度となる色検出画素も読み出されるため、AF検波用に用いる場合には感度の低下につながり、結果としてAF制御の精度を向上させることはできない。
 本技術はこのような状況に鑑みてなされたものであり、AF制御の精度を向上させることができるようにするものである。
 本技術の一側面の固体撮像素子は、複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、前記画素アレイ部に配置された画素を駆動する画素駆動部と、前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF(Autofocus)制御に用いられる画素値を算出する信号処理部とを備える。
 前記高感度の画素は、前記第2の画素である。
 前記画素アレイ部は、前記第2の画素が市松状に配置され、残りの部分に前記第1の画素が配置されるとともに、列ごとに複数の信号線が形成され、複数の画素からなる所定の画素単位で、各画素の光電変換素子により蓄積された電荷を信号として読み出すために保持する浮遊拡散領域を共有して構成されており、前記信号線を介して画素から出力されるアナログ信号を、デジタル信号に変換するAD変換部をさらに備える。
 前記画素駆動部は、画素共有内の複数の前記第2の画素から得られる電荷を、共通の前記浮遊拡散領域に保持させて同時に読み出されるようにする。
 前記画素駆動部は、前記信号線により画素ソースフォロアを介して出力されるアナログ信号を加算してから、前記AD変換部に入力させる。
 前記画素駆動部は、行列状に構成される画素共有のうち、所定の行の画素共有を間引いて、前記信号線を介してアナログ信号を、前記AD変換部に入力させる。
 前記信号処理部は、前記AD変換部からのデジタル信号を用い、水平方向の加算処理を実行する。
 前記第1の画素は、赤(R)、緑(G)、青(B)のいずれかの色成分に対応する画素であり、前記第2の画素は、白(W)画素である。
 本技術の一側面の駆動方法は、複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、前記画素アレイ部に配置された画素を駆動する画素駆動部と、前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部とを備える固体撮像素子の駆動方法において、前記画素駆動部が、複数の画素からなる所定の画素単位で共有された画素を駆動するステップを含む。
 本技術の一側面の電子機器は、複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、前記画素アレイ部に配置された画素を駆動する画素駆動部と、前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部とを有する固体撮像素子を搭載し、前記固体撮像素子から出力される前記画素値を用いて、AFを制御するAF制御部を備える。
 本技術の一側面の固体撮像素子及びその駆動方法、並びに電子機器においては、複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部に配置された画素が駆動され、第1の画素及び第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値が算出される。
 本技術の一側面によれば、AF制御の精度を向上させることができる。
本技術を適用したCMOSイメージセンサの一実施の形態を示す図である。 第1の実施の形態における画素の読み出し駆動を説明する図である。 第1の実施の形態における加算処理を説明する図である。 第2の実施の形態における画素の読み出し駆動を説明する図である。 第3の実施の形態における画素の読み出し駆動を説明する図である。 コントラストAFの原理を説明する図である。 各レンズ位置で得られる画像の例を示す図である。 コントラスト評価値の例を示す図である。 AF制御処理を説明するフローチャートである。 本技術を適用した電子機器の一実施の形態を示す図である。
 以下、図面を参照しながら本技術の実施の形態について説明する。
<第1の実施の形態>
(固体撮像素子の構成例)
 図1は、本技術を適用したCMOSイメージセンサの一実施の形態を示す図である。
 図1のCMOSイメージセンサ100は、固体撮像素子の一例である。図1に示すように、CMOSイメージセンサ100は、光学レンズ101、画素アレイ部102、画素駆動部103、AD変換部104、及び、信号処理回路部105から構成される。
 画素アレイ部102には、フォトダイオード(PD)を有する単位画素(以下、単に「画素」という場合もある)が行列状に2次元配置されている。画素アレイ部102では、輝度成分が主成分となるW画素が市松状に配置され、残りの部分に、複数の色成分の各色成分に対応するR画素、G画素、B画素が配置されている。ただし、図1の配置例では、R画素又はB画素の数よりもG画素の数が多く配置されている。
 また、各単位画素において、フォトダイオードは、光学レンズ101により集光された光の光量に応じた電荷量の電荷を発生して内部に蓄積する。フォトダイオード(PD)により蓄積された電荷は、浮遊拡散領域(FD:Floating Diffusion)に転送される。浮遊拡散領域(FD)に保持された電荷は、画素信号として読み出される。
 画素アレイ部102ではさらに、行列状の画素配列に対して行ごとに画素駆動線が画素行の画素の配列方向に沿って形成され、列ごとに垂直信号線が画素列の画素の配列方向に沿って形成されている。画素駆動線の一端は、画素駆動部103の各行に対応した出力端に接続されている。また、垂直信号線の一端は、AD変換部104の各列に対応した出力端に接続されている。
 画素駆動部103は、画素アレイ部102に配置された各画素を、所定の方式で読み出し駆動する。画素駆動部103によって駆動された画素行の各単位画素から出力される画素信号は、垂直信号線の各々を介してAD変換部104に供給される。
 AD変換部104は、垂直信号線を介して入力されたアナログの画素信号をAD(Analog Digital)変換し、それにより得られるデジタル信号を信号処理回路部105に供給する。
 信号処理回路部105は、AD変換部104から供給されるデジタルの画素信号に、所定の信号処理を施すことで、AF制御に用いられる画素値を算出し、後段の回路などに出力する。この信号処理では、例えば、水平方向の加算処理が実行される。
 CMOSイメージセンサ100は、以上のように構成される。
(画素の読み出し駆動例)
 図2は、第1の実施の形態における画素の読み出し駆動を説明する図である。
 図2においては、図1の画素アレイ部102に行列状に配置される複数の画素のうち、4列分の画素の一部を抜き出して、図中の左側から右側に向かう方向を時間の方向として時系列に並べている。また、画素アレイ部102においては、水平方向の2画素と垂直方向の4画素からなる8画素(4×2画素)単位で画素共有がなされており、画素共有内の8画素(4つのW画素、2つのG画素、1つのR画素とB画素)における各フォトダイオード(PD)により、1つの浮遊拡散領域(FD)が共有されている。
 すなわち、図2のAでは、共有された画素を単位とした場合の1行目乃至4行目の0.5秒後と、1秒後の状態であって、各画素共有内の画素のうち、ハッチングが施された画素が読み出されることを示している。なお、感度を上げるために、複数の色成分の各色成分に対応する画素を分散させて配置する構成が知られているが、このような不規則な画素の配列を採用すると、画素共有を行うことが困難である。一方、図1の画素アレイ部102における画素の配置であると、画素が規則的に並んでいるため、容易に画素共有を行うことができる。
 なお、以下の説明では、画素アレイ部102において、共有された画素のまとまりを、画素共有(i,j)と記述して説明する。ただし、i(iは1以上の整数)は、共有された画素を単位とした行を表し、j(jは1以上の整数)は、共有された画素を単位とした列を表している。
 また、図2のAには、図1のAD変換部104が図示されている。ここでは、図中の上側と下側に、NorthとSouthの2個のADC(Analog Digital Converter)が設けられている。そして、画素共有ごとに、垂直方向の垂直信号線を介してNorth ADC又はSouth ADCに接続されている。図2のAの例では、奇数行目の画素共有はNorth ADCに接続される一方、偶数行目の画素共有はSouth ADCに接続されている。また、各画素共有は、水平方向の画素駆動線を介して、図1の画素駆動部103と接続されている。
 図2のAに示すように、0.5秒間に行われる1回目のAD変換では、North ADCに接続された垂直信号線によって、画素共有(1,1)、画素共有(1,2)、画素共有(3,1)、及び、画素共有(3,2)内の左側の列の2つのW画素が読み出される。また、South ADCに接続された垂直信号線によって、画素共有(2,1)、画素共有(2,2)、画素共有(4,1)、及び、画素共有(4,2)内の左側の列の2つのW画素が読み出される。
 なお、共有された画素は、共通の浮遊拡散領域(FD)を用いるので、1回目のAD変換では、画素共有内の2つのW画素のフォトダイオード(PD)により蓄積された電荷が同時に、1つの浮遊拡散領域(FD)に転送され、垂直信号線を介して、画素信号として同時に読み出されることになる(以下、「FD加算」ともいう)。
 ここで、垂直信号線は、図示しない増幅トランジスタと定電流回路に接続されてソースフォロア回路を構成している。これにより、この画素ソースフォロアが垂直信号線を駆動して、浮遊拡散領域に保持された電荷がアナログの画素信号として読み出される。
 また、同一の垂直信号線に接続された画素共有(1,1)からのアナログの画素信号と、画素共有(3,1)からのアナログの画素信号とが電流加算され(図中の「SF加算」)、画素共有(2,1)からのアナログの画素信号と、画素共有(4,1)からのアナログの画素信号とが電流加算される。同様に、同一の垂直信号線に接続された画素共有(1,2)からのアナログの画素信号と、画素共有(3,2)からのアナログの画素信号とが電流加算され、画素共有(2,2)からのアナログの画素信号と、画素共有(4,2)からのアナログの画素信号とが電流加算される。
 そして、North ADCとSouth ADCにおいては、垂直信号線を介して入力されるアナログの画素信号が、デジタル信号にAD変換される。
 また、1回目のAD変換終了後、次の0.5秒間に行われる2回目のAD変換ではNorth ADCに接続された垂直信号線によって、画素共有(1,1)、画素共有(1,2)、画素共有(3,1)、及び、画素共有(3,2)内の右側の列の2つのW画素が読み出される。また、South ADCに接続された垂直信号線によって、画素共有(2,1)、画素共有(2,2)、画素共有(4,1)、及び、画素共有(4,2)内の右側の列の2つのW画素が読み出される。
 そして、1回目のAD変換と同様に、同一の垂直信号線に接続された画素共有からのアナログの画素信号が電流加算され、North ADCとSouth ADCにそれぞれ入力される。North ADCとSouth ADCにおいては、垂直信号線を介して入力されるアナログの画素信号が、デジタル信号にAD変換される。
 なお、2回目のAD変換においても、共有された画素は、共通の浮遊拡散領域(FD)を用いるので、画素共有内の2つのW画素のフォトダイオード(PD)により蓄積された電荷が同時に、1つの浮遊拡散領域(FD)に転送されたあと、同時に読み出されることになる。
 また、上述した説明では、1行目乃至4行目の画素共有のうち、1列目と2列目の画素共有内の画素の読み出しを例に説明したが、3列目以降の画素共有内についても同様に画素の読み出しを行うことができる。また、上述した説明では、1行目乃至4行目の画素共有内の画素の読み出しを例に説明したが、5行目以降の画素共有内についても同様に画素の読み出しを行うことができる。
 このように、画素アレイ部102では、W画素を市松状に配置し、残りの部分に、R画素、G画素、B画素を配置する画素配列を採用しているが、複数の色成分の各色成分に対応したR画素、G画素、B画素は読み出さず、輝度成分が主成分となるW画素のみが読み出されることになる。そして、輝度成分が主成分となるW画素から得られるアナログの画素信号はAD変換され、デジタル信号として信号処理回路部105に供給されることになる。
 また、図2の画素の読み出し駆動では、同一の画素共有内の2つのW画素をFD加算したあと、同一の垂直信号線に接続された2つの画素共有から得られる画素信号をSF加算しているため、2回のアナログ加算を行っていることになる。つまり、垂直方向に注目すれば、アナログ加算を重ねることで、16画素のうち2画素しか使用していないことになる。さらに、AD変換部104としてNorth ADCとSouth ADCを設けて、共有された画素をNorth ADCとSouth ADCのいずれか一方のADCに垂直信号線を介して接続することで、1ライン分の画素を読み出す時間を倍速とすることができる。
 その結果、画素アレイ部102に行列状に配置される複数の画素を高速に読み出すことが可能となる。
(加算処理の例)
 図3は、第1の実施の形態における加算処理を説明する図である。
 第1の実施の形態においては、図1の信号処理回路部105は、均等加算回路部201及びW画素出力回路部202から構成される。
 均等加算回路部201は、AD変換部104から供給されるデジタルの画素信号に対して、加算処理を実行する(S11)。
 図3に示すように、均等加算回路部201には、水平方向の加算処理の処理内容が示されており、16×8の四角は、AD変換の結果得られる画素の画素信号に対応している。
 なお、図3のステップS11の画素配置では、6行目と7行目及び10行目と11行目にのみ、W画素を示しているが、これは説明を分かりやすくするために、図2に示した8画素ごとの画素共有に対応させたものである。また、以下の説明では、この行列状に配置された画素を、画素(m,n)と記述して説明する。ただし、m(mは1以上の整数)は行を表し、n(nは1以上の整数)は列を表している。
 例えば、6行目と7行目には、1列おきにW画素が交互に並んでいるが、W画素(7,1)の画素信号は、図2の1回目のAD変換により、画素共有(1,1)内の2つのW画素から同時に読み出され、AD変換された画素信号に対応している。また、W画素(6,2)の画素信号は、図2の2回目のAD変換により、画素共有(1,1)内の2つのW画素から同時に読み出され、AD変換された画素信号に対応している。
 同様に、W画素(7,3)の画素信号は、図2の1回目のAD変換により、画素共有(1,2)内の2つのW画素から同時に読み出され、AD変換された画素信号に対応している。また、W画素(6,4)の画素信号は、図2の2回目のAD変換により、画素共有(1,2)内の2つのW画素から同時に読み出され、AD変換された画素信号に対応している。
 なお、繰り返しになるので説明は省略するが、図3に示したその他のW画素についても、図2の画素共有と同様の関係を有している。
 ここで、均等加算回路部201は、各行ごとに隣り合うW画素同士を、水平方向に1:1となるように均等加算する。
 具体的には、例えば、W画素(7,1)とW画素(6,2)を水平方向に均等加算すると、1つのW画素が得られる。また同様に、例えば、W画素(7,3)とW画素(6,4)を水平方向に均等加算すると、1つのW画素が得られる。なお、繰り返しになるので説明は省略するが、S11の配列に示したその他のW画素についても、水平方向に均等加算される。
 そして、処理対象となるW画素について、このような水平方向の均等加算処理を繰り返すことで、入力画素(S11の配列)がW画素のみの配置となり、均等加算処理(S11)は終了する。
 また、図3に示すように、W画素出力回路部202には、W画素出力の処理内容が示されている。S12の画素配列では、上述した均等加算処理(S11)によって、W画素のみが繰り返し並べられている。W画素出力回路部202は、それらのW画素の画素値を、後段の回路などに出力する(S12)。
 すなわち、図3の信号処理回路部105においては、均等加算回路部201によって水平方向の均等加算(S11)が行われたあと、W画素出力回路部202のよってW画素のみの配列となった画素の画素値が後段の回路(例えば、後述する図6のAF制御回路部152)などに出力される(S12)。
 以上、第1の実施の形態について説明した。第1の実施の形態では、複数の色成分の各色成分に対応したR画素、G画素、B画素を用いずに、輝度成分が主成分となるW画素のみを用いて、水平方向の均等加算処理(デジタル加算)が行われ、W画素のみの配列からなるW画素の画素値が出力される。その結果、後段の回路(例えば、後述する図6のAF制御回路部152)では、高感度のW画素から得られる画素値を用いたAF制御を行うことができるので、AF制御の精度を向上させることができる。
 また、図2の画素の読み出し駆動で説明したように、垂直方向ではアナログ加算を重ねることで、16画素のうち2画素しか使用しておらず、垂直方向の画素数を減らすことができるので、高速に読み出すことができる。また、AD変換部104としてNorth ADCとSouth ADCを設けているため、1ライン分の画素を読み出す速度を向上させることができる。その結果、AFの高速フレームレート検波用の画素値の出力を実現することができる。さらに、第1の実施の形態における画素の読み出し駆動(図2)と、加算処理(図3)を採用することで、高感度のW画素から得られる画素値を用いることになり、S/N比(signal noise ratio)がよくなるため、暗部でも非常に有効なAF検波を行うことが可能となる。
<第2の実施の形態>
(固体撮像素子の構成例)
 次に、第2の実施の形態について説明する。第2の実施の形態において、固体撮像素子の構成は、図1のCMOSイメージセンサ100と同様であるため、その説明は省略する。
(画素の読み出し駆動例)
 図4は、第2の実施の形態における画素の読み出し駆動を説明する図である。
 図4においては、図2と同様に、図1の画素アレイ部102に行列状に配置される画素が、8画素(4×2画素)単位で画素共有されている。また、図1のAD変換部104としてNorth ADCとSouth ADCが設けられている点も同様である。
 図4の画素の読み出し駆動においては、1回目のAD変換で、画素共有内の2つのW画素が読み出され、2回目のAD変換で、2つのW画素が読み出される点は、図2の画素の読み出し駆動と同様である。一方、図4の画素の読み出し駆動では、2行分の画素共有を読み出したあと、次の2行分の画素共有は読み出さない点が異なっている。
 具体的には、0.5秒間に行われる1回目のAD変換では、North ADCに接続された垂直信号線によって、1行目の画素共有(1,1)及び画素共有(1,2)内の左側の列の2つのW画素が読み出される。また、South ADCに接続された垂直信号線によって、2行目の画素共有(2,1)、画素共有(2,2)内の左側の列の2つのW画素が読み出される。一方、1回目のAD変換では、図2の画素の読み出し駆動では読み出していた、3行目の画素共有(3,1)及び画素共有(3,2)と、4行目の画素共有(4,1)、及び、画素共有(4,2)のW画素はアクセスされずに、読み出されないことになる。
 また、図4の画素の読み出し駆動においては、図2の画素の読み出し駆動とは異なり、同一の垂直信号線に接続された画素共有の画素ソースフォロアによる読み出し後の電流加算が行われない点も異なっている。
 すなわち、図4の画素の読み出し駆動においては、画素共有を2行分読み出したあと、次の2行の画素共有にはアクセスせずに間引き処理を行う点と、画素ソースフォロアによる読み出し後の電流加算(SF加算)を行わない点が、図2の画素の読み出し駆動とは異なる。一方、図4の画素の読み出し駆動において、画素共有内のW画素をFD加算する点は、図2の画素の読み出し駆動と同様である。なお、2回目のAD変換についても、1回目のAD変換と同様に行われる。
(加算処理の例)
 第2の実施の形態において、信号処理回路部105により実行される加算処理は、図3の加算処理と同様であるため、その説明は省略する。
 以上、第2の実施の形態について説明した。第2の実施の形態では、複数の色成分の各色成分に対応したR画素、G画素、B画素を用いずに、輝度成分が主成分となるW画素のみを用いて、水平方向の均等加算処理(デジタル加算)が行われ、W画素のみの配列からなるW画素の画素値が出力される。その結果、後段の回路(例えば、後述する図6のAF制御回路部152)では、高感度のW画素から得られる画素値を用いたAF制御を行うことができるので、AF制御の精度を向上させることができる。
 また、図4の画素の読み出し駆動においては、図2の画素の読み出し駆動と比べて、行列状に構成される画素共有のうち、所定の行の画素共有を間引くことになるので、その分だけ処理が少なくなり、電力の消費を抑制することができる。
<第3の実施の形態>
(固体撮像素子の構成例)
 次に、第3の実施の形態について説明する。第3の実施の形態において、固体撮像素子の構成は、図1のCMOSイメージセンサ100と同様であるため、その説明は省略する。
(画素の読み出し駆動例)
 図5は、第3の実施の形態における画素の読み出し駆動を説明する図である。
 図5においては、図2と同様に、図1の画素アレイ部102に行列状に配置される画素が、8画素(4×2画素)単位で画素共有されている。また、図1のAD変換部104としてNorth ADCとSouth ADCが設けられている点も同様である。
 図5の画素の読み出し駆動においては、1回目のAD変換で、画素共有内のW画素が読み出され、2回目のAD変換で、W画素が読み出される点は、図2及び図4の画素の読み出し駆動と同様である。一方、図5の画素の読み出し駆動では、1回目及び2回目のAD変換で、図2及び図4の画素の読み出し駆動のようにW画素が2画素同時に読み出されるのではなく、W画素が1画素だけ読み出され、FD加算が行われない点が異なっている。
 また、図5の画素の読み出し駆動においては、画素共有を2行分読み出したあと、次の2行の画素共有にはアクセスせずに間引き処理を行う点と、画素ソースフォロアによる読み出し後の電流加算(SF加算)を行わない点は、図4の画素の読み出し駆動と同様である。
(加算処理の例)
 第3の実施の形態において、信号処理回路部105により実行される加算処理は、図3の加算処理と同様であるため、その説明は省略する。
 以上、第3の実施の形態について説明した。第3の実施の形態では、複数の色成分の各色成分に対応したR画素、G画素、B画素を用いずに、輝度成分が主成分となるW画素のみを用いて、水平方向の均等加算処理(デジタル加算)が行われ、W画素のみの配列からなるW画素の画素値が出力される。その結果、後段の回路(例えば、後述する図6のAF制御回路部152)では、高感度の画素Wから得られる画素値を用いたAF制御を行うことができるので、AF制御の精度を向上させることができる。
 また、図5の画素の読み出し駆動においては、図2の画素の読み出し駆動と比べて、行列状に構成される画素共有のうち、所定の行の画素共有を間引くことになるので、その分だけ処理が少なくなり、電力の消費を抑制することができる。なお、図5の画素の読み出し駆動では、所定の行の画素共有を間引くとして説明したが、間引き処理を行わずに、FD加算のみを行うようにしてもよい。さらに、この場合に、画素ソースフォロアによる読み出し後の電流加算(SF加算)を行うようにしてもよい。
<第4の実施の形態>
(固体撮像素子の構成例)
 次に、第4の実施の形態について説明する。第4の実施の形態において、固体撮像素子の構成は、図1のCMOSイメージセンサ100と同様であるため、その説明は省略する。
(画素の読み出し駆動例)
 第4の実施の形態においては、上述したW画素の代わりに、W画素に隣接するG画素を高感度の画素として用いる。このG画素の読み出し駆動は、画素共有内のG画素の数がW画素の数よりも少ない点を考慮すれば、例えば、上述した図5のW画素の読み出し駆動と同様に行うことができる。
(加算処理の例)
 第4の実施の形態において、信号処理回路部105により実行される加算処理は、W画素の代わりにG画素が加算される以外は、図3の加算処理と同様であるため、その説明は省略する。
 以上、第4の実施の形態について説明した。第4の実施の形態では、低感度のR画素及びG画素を用いずに、高感度のG画素のみを用いて、水平方向の均等加算処理(デジタル加算)が行われ、G画素のみの配列からなるG画素の画素値が出力される。その結果、G画素はW画素よりも感度は劣るものの、高感度な画素であるので、後段の回路(例えば、後述する図6のAF制御回路部152)では、高感度のG画素から得られる画素値を用い、AF制御の精度を向上させることができる。
<AF制御処理の具体例>
 次に、図6乃至図9を参照して、上述したCMOSイメージセンサ100から出力される高感度の画素の画素値を用いたAF制御処理について説明する。
 ここで、AF(Autofocus)の方式として、コントラストAFと称される方式が知られている。このコントラストAFでは、撮影レンズの位置を光軸方向に沿って移動させながら、固体撮像素子からの出力画像の画素値(画像信号)を読み出し、フレームごとに得られる画像信号からコントラストを評価するための評価値(以下、「コントラスト評価値」という)を算出する。そして、このコントラスト評価の最大値(ピーク値)を検出して、コントラスト評価値のピーク値が得られる撮影レンズ位置を、合焦位置とする。
 図6には、コントラストAFの原理が示されている。図6に示すように、撮影レンズ151は、レンズ駆動回路部153からの制御に従い、光軸方向に沿って移動する。CMOSイメージセンサ100は、撮影レンズ151により集光された光を受光して、その光の光量に応じた光電変換を行い、さらにAF制御に用いられる画素値を算出して、後段のAF制御回路部152に供給する。例えば、CMOSイメージセンサ100においては、R画素、G画素、B画素を用いずに、W画素のみを用いて、水平方向の均等加算処理が行われ、W画素の画素値が出力されることになる。
 AF制御回路部152は、CMOSイメージセンサ100から出力される高感度の画素Wの画素値を用い、AF制御を実行する。すなわち、AF制御回路部152は、撮影レンズ151の位置を光軸方向に沿って移動させることで得られるフレームごとの画像信号からコントラスト評価値を算出して、そのピーク値が得られる撮影レンズ151の位置を求める。
 例えば、撮影レンズ151の位置が光軸方向に沿って移動することで、図6のA点、B点、C点のそれぞれで、図7のフレームの画像が得られた場合を一例にすると、A点とC点ではピントが外れているため、被写体がぼけている一方、B点ではピントが合っているため、被写体がはっきり見える。AF制御回路部152においては、撮影レンズ151の光軸方向の移動に伴い、コントラスト評価値が積算されるが、図8に示すように、ピントが外れているA点とC点ではコントラスト評価値が低くなり、ピントが合っているB点ではコントラスト評価値が最大値(ピーク値)となる。
 なお、コントラスト評価値は、例えば、W画素による輝度信号を生成したあと、被写体のエッジ部分を検出して、光ショットノイズを除去・検出したエッジ部分を積算することで、評価値として算出されることになる。
 そして、AF制御回路部152は、算出したコントラスト評価値に基づき、レンズ駆動回路部153を制御して、撮影レンズ151の位置を光軸方向に移動させることで、B点にピントを合わせる。これにより、被写体に、自動的にピントが合わせられることになる。また、上述したように、本技術では、高感度のW画素から得られる輝度信号をコントラスト評価値の算出に用いることで、その評価値として大きな値をとることができるため、高性能なコントラストAFを実現することができる。
 次に、図9のフローチャートを参照して、CMOSイメージセンサ100から出力される高感度の画素の画素値を用いたAF制御処理について説明する。
 ステップS101において、画素駆動部103は、画素アレイ部102に配置された各画素を、所定の方式で読み出し駆動する。画素の読み出し駆動の方式としては、上述した図2、図4、又は、図5の画素の読み出し駆動のいずれかの方式が用いられる。
 ステップS102において、AD変換部104は、画素アレイ部102に配置された画素から、垂直信号線を介して入力されたアナログの画素信号をAD変換する。ここでは、図2等に示したように、画素共有ごとに接続されるNorth ADC又はSouth ADCによって、AD変換が行われる。
 ステップS103において、信号処理回路部105は、AD変換部104からのデジタルの画素信号を用い、所定の加算処理を実行する。ここでは、例えば、上述した図3の加算処理が行われる。
 ステップS104において、信号処理回路部105は、ステップS103の加算処理により得られたAF制御に用いられる高感度の画素の画素値を、AF制御回路部152に出力する。ここでは、例えばW画素の画素値が出力される。
 ステップS105において、AF制御回路部152は、信号処理回路部105から出力される高感度の画素の画素値を用いて、AF制御を行う。このAF制御では、上述した図6乃至図8を参照して説明したコントラストAFの処理が行われ、被写体にピントが合わせられる。
 以上、AF制御処理について説明した。
 なお、CMOSイメージセンサ100と、撮影レンズ151乃至レンズ駆動回路部153とを有する電子機器においては、例えば、図9のAF制御処理によって被写体にピントが合わせられたあと、複数の色成分の各色成分に対応するR画素、G画素、B画素が読み出され、被写体の撮影画像が取得されることになる。
<本技術を適用した電子機器の構成例>
 図10は、本技術を適用した電子機器の構成例を示す図である。
 図10の電子機器300は、レンズ群などからなる光学部301、上述した実施の形態に係るCMOSイメージセンサ100からなる固体撮像素子302、及び、カメラ信号処理回路であるDSP(Digital Signal Processor)回路303を備える。また、電子機器300は、フレームメモリ304、表示部305、記録部306、操作部307、電源部308、及び、制御部309も備える。DSP回路303、フレームメモリ304、表示部305、記録部306、操作部307、電源部308、及び、制御部309は、バスライン310を介して相互に接続されている。
 光学部301は、被写体からの入射光(像光)を取り込んで固体撮像素子302の撮像面上に結像する。なお、図6の撮影レンズ151は、光学部301に含まれる。固体撮像素子302は、光学部301によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この固体撮像素子302として、上述した実施の形態に係るCMOSイメージセンサ100等の固体撮像素子を用いることができる。
 表示部305は、例えば、液晶パネルや有機EL(electro luminescence)パネル等のパネル型表示装置からなり、固体撮像素子302で撮像された動画又は静止画を表示する。記録部306は、固体撮像素子302で撮像された動画又は静止画を、ビデオテープやDVD(Digital Versatile Disk)、フラッシュメモリ等の記録媒体に記録する。
 操作部307は、ユーザによる操作の下に、電子機器300が持つ様々な機能について操作指令を発する。電源部308は、DSP回路303、フレームメモリ304、表示部305、記録部306、操作部307、及び、制御部309の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 制御部309は、電子機器300の各部の動作を制御する。また、制御部309は、図6のAF制御回路部152及びレンズ駆動回路部153に対応する機能を有しており、固体撮像素子302から出力される高感度の画素の画素値を用いて、AF制御処理を行う。
 固体撮像素子302として、上述した実施の形態に係るCMOSイメージセンサ100を用いることで、kTCノイズをも含めたノイズ低減処理が可能となるので、高いS/Nを確保することができる。従って、デジタルスチルカメラやデジタルビデオカメラ、さらには携帯電話機等のモバイル機器向けカメラモジュールなどの電子機器300においても、撮像画像の高画質化を図ることができる。
 また、上述した実施形態においては、可視光の光量に応じた信号電荷を物理量として検知する単位画素が行列状に配置されてなるCMOSイメージセンサに適用した場合を例に挙げて説明した。しかしながら、本技術はCMOSイメージセンサへの適用に限られるものではなく、画素アレイ部の画素列ごとにカラム処理部を配置してなるカラム方式の固体撮像素子全般に対して適用可能である。
 また、本技術は、可視光の入射光量の分布を検知して画像として撮像する固体撮像素子への適用に限らず、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する固体撮像素子や、広義の意味として、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の固体撮像素子(物理量分布検知装置)全般に対して適用可能である。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本技術は、以下のような構成をとることができる。
(1)
 複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
 前記画素アレイ部に配置された画素を駆動する画素駆動部と、
 前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF(Autofocus)制御に用いられる画素値を算出する信号処理部と
 を備える固体撮像素子。
(2)
 前記高感度の画素は、前記第2の画素である
 (1)に記載の固体撮像素子。
(3)
 前記画素アレイ部は、
  前記第2の画素が市松状に配置され、残りの部分に前記第1の画素が配置されるとともに、列ごとに複数の信号線が形成され、
  複数の画素からなる所定の画素単位で、各画素の光電変換素子により蓄積された電荷を信号として読み出すために保持する浮遊拡散領域を共有して構成されており、
 前記信号線を介して画素から出力されるアナログ信号を、デジタル信号に変換するAD変換部をさらに備える
 (1)又は(2)に記載の固体撮像素子。
(4)
 前記画素駆動部は、画素共有内の複数の前記第2の画素から得られる電荷を、共通の前記浮遊拡散領域に保持させて同時に読み出されるようにする
 (3)に記載の固体撮像素子。
(5)
 前記画素駆動部は、前記信号線により画素ソースフォロアを介して出力されるアナログ信号を加算してから、前記AD変換部に入力させる
 (4)に記載の固体撮像素子。
(6)
 前記画素駆動部は、行列状に構成される画素共有のうち、所定の行の画素共有を間引いて、前記信号線を介してアナログ信号を、前記AD変換部に入力させる
 (3)又は(4)に記載の固体撮像素子。
(7)
 前記信号処理部は、前記AD変換部からのデジタル信号を用い、水平方向の加算処理を実行する
 (3)乃至(6)のいずれか一項に記載の固体撮像素子。
(8)
 前記第1の画素は、赤(R)、緑(G)、青(B)のいずれかの色成分に対応する画素であり、
 前記第2の画素は、白(W)画素である
 (1)に記載の固体撮像素子。
(9)
 複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
 前記画素アレイ部に配置された画素を駆動する画素駆動部と、
 前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部と
 を備える固体撮像素子の駆動方法において、
 前記画素駆動部が、複数の画素からなる所定の画素単位で共有された画素を駆動するステップ
 を含む駆動方法。
(10)
 複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
 前記画素アレイ部に配置された画素を駆動する画素駆動部と、
 前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部と
 を有する固体撮像素子を搭載し、
 前記固体撮像素子から出力される前記画素値を用いて、AFを制御するAF制御部を備える
 電子機器。
 100 CMOSイメージセンサ, 101 光学レンズ, 102 画素アレイ部, 103 画素駆動部, 104 AD変換部, 105 信号処理回路部, 151 撮影レンズ, 152 AF制御回路部, 153 レンズ駆動回路部, 201 均等加算回路部, 202 W画素出力回路部, 300 電子機器, 302 固体撮像素子, 309 制御部

Claims (10)

  1.  複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
     前記画素アレイ部に配置された画素を駆動する画素駆動部と、
     前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF(Autofocus)制御に用いられる画素値を算出する信号処理部と
     を備える固体撮像素子。
  2.  前記高感度の画素は、前記第2の画素である
     請求項1に記載の固体撮像素子。
  3.  前記画素アレイ部は、
      前記第2の画素が市松状に配置され、残りの部分に前記第1の画素が配置されるとともに、列ごとに複数の信号線が形成され、
      複数の画素からなる所定の画素単位で、各画素の光電変換素子により蓄積された電荷を信号として読み出すために保持する浮遊拡散領域を共有して構成されており、
     前記信号線を介して画素から出力されるアナログ信号を、デジタル信号に変換するAD変換部をさらに備える
     請求項2に記載の固体撮像素子。
  4.  前記画素駆動部は、画素共有内の複数の前記第2の画素から得られる電荷を、共通の前記浮遊拡散領域に保持させて同時に読み出されるようにする
     請求項3に記載の固体撮像素子。
  5.  前記画素駆動部は、前記信号線により画素ソースフォロアを介して出力されるアナログ信号を加算してから、前記AD変換部に入力させる
     請求項4に記載の固体撮像素子。
  6.  前記画素駆動部は、行列状に構成される画素共有のうち、所定の行の画素共有を間引いて、前記信号線を介してアナログ信号を、前記AD変換部に入力させる
     請求項3に記載の固体撮像素子。
  7.  前記信号処理部は、前記AD変換部からのデジタル信号を用い、水平方向の加算処理を実行する
     請求項3に記載の固体撮像素子。
  8.  前記第1の画素は、赤(R)、緑(G)、青(B)のいずれかの色成分に対応する画素であり、
     前記第2の画素は、白(W)画素である
     請求項1に記載の固体撮像素子。
  9.  複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
     前記画素アレイ部に配置された画素を駆動する画素駆動部と、
     前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部と
     を備える固体撮像素子の駆動方法において、
     前記画素駆動部が、複数の画素からなる所定の画素単位で共有された画素を駆動するステップ
     を含む駆動方法。
  10.  複数の色成分の各色成分に対応する第1の画素と、輝度成分が主成分となる第2の画素とを行列状に規則的に配置した画素アレイ部と、
     前記画素アレイ部に配置された画素を駆動する画素駆動部と、
     前記第1の画素及び前記第2の画素のうち、高感度の画素から得られる画素情報のみを用いて、所定の加算処理を実行することで、AF制御に用いられる画素値を算出する信号処理部と
     を有する固体撮像素子を搭載し、
     前記固体撮像素子から出力される前記画素値を用いて、AFを制御するAF制御部を備える
     電子機器。
PCT/JP2014/067881 2013-07-17 2014-07-04 固体撮像素子及びその駆動方法、並びに電子機器 WO2015008635A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013148211A JP2015023332A (ja) 2013-07-17 2013-07-17 固体撮像素子及びその駆動方法、並びに電子機器
JP2013-148211 2013-07-17

Publications (1)

Publication Number Publication Date
WO2015008635A1 true WO2015008635A1 (ja) 2015-01-22

Family

ID=52346104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067881 WO2015008635A1 (ja) 2013-07-17 2014-07-04 固体撮像素子及びその駆動方法、並びに電子機器

Country Status (3)

Country Link
JP (1) JP2015023332A (ja)
TW (1) TWI633790B (ja)
WO (1) WO2015008635A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053663A1 (en) 2018-09-14 2020-03-19 Memory Metal Holland Bv Improved intra-aortic balloon pump

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017034389A (ja) 2015-07-30 2017-02-09 ソニー株式会社 撮像装置、イメージセンサ、および画像処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285094A (ja) * 2005-04-04 2006-10-19 Nikon Corp オートフォーカスカメラおよびオートフォーカス装置
JP2009117979A (ja) * 2007-11-02 2009-05-28 Fujifilm Corp 固体撮像装置の駆動方法
JP2010239337A (ja) * 2009-03-31 2010-10-21 Sony Corp 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
WO2013100095A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 撮像装置、撮像装置の制御方法、及び制御プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4946313B2 (ja) * 2006-09-27 2012-06-06 株式会社ニコン 撮像装置
JP5116389B2 (ja) * 2007-07-25 2013-01-09 キヤノン株式会社 撮像装置及び制御方法
JP5164617B2 (ja) * 2008-03-11 2013-03-21 キヤノン株式会社 撮像装置及び画像処理方法
JP5075795B2 (ja) * 2008-11-14 2012-11-21 株式会社東芝 固体撮像装置
JP2010288150A (ja) * 2009-06-12 2010-12-24 Toshiba Corp 固体撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285094A (ja) * 2005-04-04 2006-10-19 Nikon Corp オートフォーカスカメラおよびオートフォーカス装置
JP2009117979A (ja) * 2007-11-02 2009-05-28 Fujifilm Corp 固体撮像装置の駆動方法
JP2010239337A (ja) * 2009-03-31 2010-10-21 Sony Corp 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
WO2013100095A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 撮像装置、撮像装置の制御方法、及び制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053663A1 (en) 2018-09-14 2020-03-19 Memory Metal Holland Bv Improved intra-aortic balloon pump

Also Published As

Publication number Publication date
TW201507482A (zh) 2015-02-16
JP2015023332A (ja) 2015-02-02
TWI633790B (zh) 2018-08-21

Similar Documents

Publication Publication Date Title
JP6127869B2 (ja) 固体撮像素子及びその駆動方法、並びに電子機器
TWI516122B (zh) 固態成像裝置,固態成像裝置之信號處理方法,及電子設備
JP5946421B2 (ja) 撮像装置及びその制御方法
JP5911445B2 (ja) 撮像装置及びその制御方法
JP6120091B2 (ja) 固体撮像素子および駆動方法、並びに電子機器
JP6480862B2 (ja) 固体撮像素子および電子機器
US10397502B2 (en) Method and apparatus for imaging an object
JP2014060573A (ja) 固体撮像素子、制御方法、および電子機器
KR20200136499A (ko) 고체 촬상 장치 및 그 구동 방법, 및 전자 기기
JP5885431B2 (ja) 撮像素子及び撮像装置
JP6362511B2 (ja) 撮像装置及びその制御方法
JP5966357B2 (ja) 撮像素子および撮像装置
US9317897B2 (en) Solid-state imaging device, driving method for the same, and electronic apparatus
WO2015008635A1 (ja) 固体撮像素子及びその駆動方法、並びに電子機器
JP2014016382A (ja) 固体撮像装置、電子機器、および画素読み出し方法
JP2007267278A (ja) 撮像装置および撮像方法
JP2017060155A (ja) 撮像素子及び撮像装置
JP4929584B2 (ja) 信号処理方法および信号処理装置並びに物理量分布検知のための半導体装置
WO2018087975A1 (ja) 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器
US20140333805A1 (en) Solid-state image sensor, method for driving solid-state image sensor, and electronic device
JP2009188650A (ja) 撮像装置
JP2009303020A (ja) 撮像装置及び欠陥画素補正方法
JP2017085377A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2009147540A (ja) 撮像装置
JP2015050604A (ja) 固体撮像装置の信号処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14826974

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14826974

Country of ref document: EP

Kind code of ref document: A1