WO2018043140A1 - 固体撮像素子、および電子装置 - Google Patents

固体撮像素子、および電子装置 Download PDF

Info

Publication number
WO2018043140A1
WO2018043140A1 PCT/JP2017/029494 JP2017029494W WO2018043140A1 WO 2018043140 A1 WO2018043140 A1 WO 2018043140A1 JP 2017029494 W JP2017029494 W JP 2017029494W WO 2018043140 A1 WO2018043140 A1 WO 2018043140A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
photoelectric conversion
state imaging
substrate
organic photoelectric
Prior art date
Application number
PCT/JP2017/029494
Other languages
English (en)
French (fr)
Inventor
松本 晃
博士 田舎中
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US16/325,047 priority Critical patent/US11404483B2/en
Publication of WO2018043140A1 publication Critical patent/WO2018043140A1/ja
Priority to US17/842,183 priority patent/US20220310699A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors

Definitions

  • the present technology relates to a solid-state imaging device and an electronic device, and more particularly to a solid-state imaging device and an electronic device that can reduce the chip size when an organic photoelectric conversion film is used as a light receiving element.
  • a PD (photodiode) and source follower circuit are formed on the Si substrate directly below the organic photoelectric conversion film, and an ADC (analog-digital converter) circuit that performs processing at the subsequent stage.
  • the Latch circuit is arranged in a peripheral region that is off from directly below the organic photoelectric conversion film. This increased the CIS chip size and reduced the theoretical yield during production.
  • the present technology has been made in view of such a situation, and makes it possible to reduce the chip size of a CIS using an organic photoelectric conversion film as a light receiving element.
  • a solid-state imaging device includes first and second substrates that are stacked, and a first organic photoelectric conversion film that is formed on the first substrate.
  • a latch circuit is formed on the substrate.
  • the solid-state imaging device may further include a photoelectric conversion unit having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film.
  • the photoelectric conversion part is a second organic photoelectric conversion film having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film, and can be formed on the first substrate.
  • the photoelectric conversion unit is a PD having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film, and can be formed in the first substrate.
  • Corresponding to the first organic photoelectric conversion film can be formed in the first substrate.
  • the ADC circuit corresponding to the first organic photoelectric conversion film can be formed in the first substrate.
  • the pixel Tr. And the ADC circuit corresponding to the first organic photoelectric conversion film can be occupied by each pixel.
  • the pixel Tr. And the ADC circuit corresponding to the first organic photoelectric conversion film can be shared by a plurality of pixels.
  • the pixel Tr. Corresponding to the first organic photoelectric conversion film can be composed of a reset Tr., An amplifier Tr., And a selection Tr.
  • the reset Tr. Can be GND RST method.
  • the reset Tr. Can be Vdd RST method.
  • the pixel Tr Corresponding to the first organic photoelectric conversion film may further include a transfer Tr.
  • the transfer Tr. Can be formed for each pixel, and the reset Tr., The amplifier Tr., And the selection Tr. Can be shared by a plurality of pixels.
  • the solid-state imaging device that is the first aspect of the present technology may further include a third substrate stacked on the second substrate side.
  • An electronic device is an electronic device in which a solid-state image sensor is mounted, the first and second substrates on which the solid-state image sensor is stacked, and the first substrate.
  • a first organic photoelectric conversion film is formed, and a latch circuit is formed on the second substrate.
  • the chip size can be reduced.
  • the size of the electronic device can be reduced by using the downsized solid-state imaging device.
  • the solid-state imaging device to which the present technology is applied is a back-illuminated CIS, in which a plurality of Si substrates (first substrate and second substrate) are stacked, and an organic photoelectric conversion film is stacked on the first substrate. It is a feature.
  • the passivation film CF CF ( Color filters), OCL (on-chip lenses), etc. need to use materials and processes that can be formed even at a low temperature of approximately 200 ° C. or lower.
  • FIG. 1 is a cross-sectional view of one pixel showing a first configuration example of a solid-state imaging device 10 to which the present technology is applied.
  • FIG. 2 is an equivalent circuit diagram for one pixel corresponding to the first configuration example shown in FIG.
  • the first configuration example includes an OCL 11, an organic photoelectric conversion film 12, a first substrate 20, and a third substrate 30 in order from the top of the drawing on the light incident side.
  • the organic photoelectric conversion film 11 has sensitivity only to a predetermined wavelength band (for example, G (green) wavelength band) out of incident light collected by the OCL 11, and performs photoelectric conversion. A charge corresponding to incident light is generated.
  • a predetermined wavelength band for example, G (green) wavelength band
  • the first substrate 20 and the second substrate 30 are electrically bonded at a bonding point provided on the boundary 1 indicated by a broken line in the drawing.
  • a pixel Tr. (Transistor) 21 constituting a source follower circuit of the organic photoelectric conversion film 11, a PD 22, and a pixel Tr. 24 constituting a source follower circuit of the PD 22 are formed on the first substrate 20, a pixel Tr. (Transistor) 21 constituting a source follower circuit of the organic photoelectric conversion film 11, a PD 22, and a pixel Tr. 24 constituting a source follower circuit of the PD 22 are formed.
  • the pixel Tr. 21 includes a reset Tr. 21 1 for resetting by connecting an FD (floating diffusion) in which charges generated in the organic photoelectric conversion film 11 are stored to GND, and a charge stored in the FD.
  • the an amplifier Tr.21 2 for converting the voltage consists of selection Tr.21 3 for outputting the converted analog voltage to a subsequent stage.
  • the PD 22 has sensitivity only to a wavelength band (for example, a B (blue) wavelength band) different from the wavelength band in which the organic photoelectric conversion film 11 has sensitivity. A corresponding charge is generated.
  • a wavelength band for example, a B (blue) wavelength band
  • the pixel Tr. 24 includes a reset Tr. 24 1 for resetting by connecting the FD in which the charge generated by the PD 22 is stored to Vdd, and an amplifier Tr for converting the charge stored in the FD into a voltage. .24 2 , selection Tr. 24 3 for outputting the converted analog voltage to the subsequent stage, and transfer Tr. 24 4 for reading out charges from the PD 22.
  • an ADC circuit 31 that AD converts an analog voltage input via the pixel Tr.21 and an ADC circuit 32 that AD converts an analog voltage input via the pixel Tr.24 are formed on the second substrate 30 after the ADC circuits 31 and 32.
  • the source follower circuit and the ADC circuit and the latch circuit in the subsequent stage are formed on different substrates and stacked, the chip size of the solid-state imaging device 10 can be reduced. Thus, the theoretical yield at the time of production can be improved.
  • the analog power consumption required for reading is 2 Doubled.
  • the organic photoelectric conversion film 12 is directly connected to the FD without providing the transfer Tr.
  • two readings from the FD are required to cancel kTC noise. Therefore, if this is also taken into account, the analog power consumption is three times that of a Bayer array type solid-state imaging device.
  • the organic photoelectric conversion film 12 consumes more power than the PD 22, some kind of power saving measure is required.
  • the first configuration example includes the ADC circuit 31 corresponding to the organic photoelectric conversion film 12 and the ADC circuit 32 corresponding to the PD 22 for each pixel, a limited area (for example, a subject)
  • the power consumption can be reduced by driving and controlling only the pixels in the region where there is movement.
  • FIG. 3 is an equivalent circuit diagram corresponding to a second configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the second configuration example is common to the first configuration example regarding the organic photoelectric conversion film 12 and its source follower circuit, but the PD 22-1 to 22-4 corresponding to four pixels are provided after the source follower circuit for the PD 22. Configured to be shared by.
  • the second configuration example it is possible to obtain the same effect as that of the first configuration example described above, and further, by sharing the source follower circuit and the subsequent parts by the PDs 22-1 to 22-4 for four pixels. Therefore, the chip size can be reduced by that amount, and the theoretical yield at the time of manufacturing can be further improved.
  • the number of pixels shared after the source follower circuit for the PD 22 is not limited to four, and can be any number of two or more depending on the design and the like.
  • FIG. 4 is an equivalent circuit diagram corresponding to a third configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the reset Tr.21 1 in a second configuration example described above is modified to Vdd reset method, i.e., a third electric charge generated in the organic photoelectric conversion film 11 in the configuration example Is reset by connecting to Vdd via reset Tr.21 1 .
  • Vdd reset method i.e., a third electric charge generated in the organic photoelectric conversion film 11 in the configuration example Is reset by connecting to Vdd via reset Tr.21 1 .
  • Other configurations in the third configuration example are the same as those in the second configuration example.
  • FIG. 5 is an equivalent circuit diagram corresponding to a fourth configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the fourth configuration example is obtained by adding a transfer Tr. 21 4 for reading out charges from the organic photoelectric conversion film 12 to the above-described third configuration example.
  • Other configurations in the fourth configuration example are the same as those in the third configuration example.
  • the same effects as those of the third configuration example described above can be obtained. Further, by adding the transfer Tr. 21 4 , the FD corresponding to the organic photoelectric conversion film 12 can be used. Therefore, analog power consumption can be reduced as compared with the third configuration example.
  • FIG. 6 is an equivalent circuit diagram corresponding to a fifth configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the source follower circuit for the organic photoelectric conversion film 12 and subsequent portions are shared by the organic photoelectric conversion films 12-1 to 12-4 for four pixels with respect to the third configuration example described above. It is configured as follows.
  • the same effect as that of the third configuration example described above can be obtained, and further, the source follower circuit and the subsequent circuits can be obtained by the organic photoelectric conversion films 12-1 to 12-4 for four pixels.
  • the chip size can be reduced by that amount, and the theoretical yield at the time of manufacturing can be further improved.
  • the number of pixels sharing the source follower circuit for the organic photoelectric conversion film 12 is not limited to four, and can be any number of two or more depending on the design and the like.
  • FIG. 7 is an equivalent circuit diagram corresponding to a sixth configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the sixth configuration example is common to the second configuration example described above, but in the second configuration example, the junction point between the first substrate 20 and the second substrate 30 is provided on the boundary 1. In contrast, in the sixth configuration example, the junction point is provided on the boundary 2. That is, in the sixth configuration example, up to a part of the ADC circuits 31 and 32 are formed on the first substrate 20, and the rest of the ADC circuits 31 and 32 are formed on the second substrate 30.
  • FIG. 8 is an equivalent circuit diagram corresponding to a seventh configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • the seventh configuration example is common to the second and sixth configuration examples described above, but in the second configuration example, the junction point of the first substrate 20 and the second substrate 30 is on the boundary 3. Provided. That is, in the seventh configuration example, the ADC circuits 31 and 32 are formed on the first substrate 20, and the subsequent latch circuits (not shown) and the subsequent circuits are formed on the second substrate 30.
  • the boundary between the first substrate 20 and the second substrate 30 is not limited to the boundary 1 in the first to fifth configuration examples, the boundary 2 in the sixth configuration example, and the boundary 3 in the seventh configuration example. And can be provided at any position.
  • FIG. 9 is a cross-sectional view illustrating a first modification of the first configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • a CF (color filter) 13 is additionally formed between the OCL 11 and the organic photoelectric conversion film 12 with respect to the first configuration example shown in FIG.
  • FIG. 10 is a cross-sectional view illustrating a second modification of the first configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • CF13 is additionally formed between the organic photoelectric conversion film 12 and the PD 22 with respect to the first configuration example shown in FIG.
  • FIG. 11 is a cross-sectional view illustrating a third modification of the first configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • an Si substrate (third substrate) 40 is further laminated on the lower layer side of the second substrate 30 with respect to the first configuration example shown in FIG. A memory or the like is formed.
  • the chip size can be reduced as compared with the case where the memory is arranged around the pixel.
  • FIG. 12 is a cross-sectional view illustrating a fourth modification of the first configuration example of the solid-state imaging element 10 to which the present technology is applied.
  • an Si substrate (third substrate) 40 is laminated between the first substrate 20 and the second substrate 30 with respect to the first configuration example shown in FIG.
  • a memory or the like is formed on the substrate 40.
  • the chip size can be reduced as compared with the case where the memory is arranged around the pixel.
  • the organic photoelectric conversion film 12 is formed on the first substrate 20, and the PD 22 is formed in the first substrate 20.
  • a two-layer organic photoelectric conversion film 12 having sensitivity in two different wavelength bands is formed on the first substrate 20, and the PD 22 is formed in the first substrate 20. Also good.
  • the three-layer organic photoelectric conversion film 12 having sensitivity in three different wavelength bands may be formed on the first substrate 20, and the PD 22 may be omitted from the first substrate 20.
  • the organic photoelectric conversion film 12 may be formed on the first substrate 20, and the two layers of PDs 22 having sensitivity in two different wavelength bands may be formed in the first substrate 20.
  • all the color components of the three types of wavelength bands (R, G, B) can be acquired by one pixel.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an in-vivo information acquisition system for a patient using a capsule endoscope.
  • FIG. 13 is a diagram illustrating an example of a schematic configuration of an in-vivo information acquisition system 5400 to which the technology according to the present disclosure can be applied.
  • the in-vivo information acquisition system 5400 includes a capsule endoscope 5401 and an external control device 5423 that comprehensively controls the operation of the in-vivo information acquisition system 5400.
  • the capsule endoscope 5401 is swallowed by the patient.
  • the capsule endoscope 5401 has an imaging function and a wireless communication function, and moves inside the organs such as the stomach and intestine by peristaltic movement or the like until it is spontaneously discharged from the patient.
  • Images are sequentially captured at predetermined intervals, and information about the in-vivo images is sequentially wirelessly transmitted to the external control device 5423 outside the body.
  • the external control device 5423 generates image data for displaying the in-vivo image on a display device (not shown) based on the received information about the in-vivo image.
  • an image obtained by imaging the state of the patient's body can be obtained at any time from when the capsule endoscope 5401 is swallowed until it is discharged.
  • a capsule endoscope 5401 includes a light source unit 5405, an imaging unit 5407, an image processing unit 5409, a wireless communication unit 5411, a power supply unit 5415, a power supply unit 5417, and a state detection unit in a capsule-type housing 5403.
  • the functions of the unit 5419 and the control unit 5421 are mounted.
  • the light source unit 5405 is composed of a light source such as an LED (light emitting diode), and irradiates light onto the imaging field of the imaging unit 5407.
  • a light source such as an LED (light emitting diode)
  • the imaging unit 5407 includes an imaging device and an optical system including a plurality of lenses provided in the preceding stage of the imaging device. Reflected light (hereinafter referred to as observation light) of light irradiated on the body tissue to be observed is collected by the optical system and enters the image sensor. The imaging element receives the observation light and photoelectrically converts it to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal generated by the imaging unit 5407 is provided to the image processing unit 5409.
  • various known imaging devices such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor may be used.
  • the image processing unit 5409 is configured by a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 5407.
  • the signal processing may be minimal processing (for example, image data compression, frame rate conversion, data rate conversion, and / or format conversion, etc.) for transmitting the image signal to the external control device 5423.
  • the image processing unit 5409 is configured to perform only the minimum necessary processing, the image processing unit 5409 can be realized with a smaller size and lower power consumption. Is preferred. However, if there is room in the space or power consumption in the housing 5403, the image processing unit 5409 may perform further signal processing (for example, noise removal processing or other high image quality processing). Good.
  • the image processing unit 5409 provides the image signal subjected to signal processing to the wireless communication unit 5411 as RAW data.
  • the state detection unit 5419 acquires information about the state (movement, posture, etc.) of the capsule endoscope 5401
  • the image processing unit 5409 associates the information with the information and wirelessly transmits the image signal.
  • the communication unit 5411 may be provided. Thereby, the position in the body where the image was captured, the imaging direction of the image, and the like can be associated with the captured image.
  • the wireless communication unit 5411 includes a communication device that can transmit and receive various types of information to and from the external control device 5423.
  • the communication apparatus includes an antenna 5413, a processing circuit that performs modulation processing for signal transmission and reception, and the like.
  • the wireless communication unit 5411 performs predetermined processing such as modulation processing on the image signal subjected to signal processing by the image processing unit 5409, and transmits the image signal to the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 receives a control signal related to drive control of the capsule endoscope 5401 from the external control device 5423 via the antenna 5413.
  • the wireless communication unit 5411 provides the received control signal to the control unit 5421.
  • the power feeding unit 5415 includes a power receiving antenna coil, a power regeneration circuit that regenerates power from a current generated in the antenna coil, a booster circuit, and the like.
  • the power feeding unit 5415 generates power using a so-called non-contact charging principle. Specifically, when an external magnetic field (electromagnetic wave) is applied to the antenna coil of the power feeding unit 5415, an induced electromotive force is generated in the antenna coil.
  • the electromagnetic wave may be a carrier wave transmitted from the external control device 5423 via the antenna 5425, for example. Electric power is regenerated from the induced electromotive force by the power regeneration circuit, and the potential is appropriately adjusted in the booster circuit, thereby generating power for storage.
  • the electric power generated by the power supply unit 5415 is stored in the power supply unit 5417.
  • the power supply unit 5417 is configured by a secondary battery and stores the electric power generated by the power supply unit 5415.
  • FIG. 13 in order to avoid complication of the drawing, illustration of an arrow indicating a power supply destination from the power supply unit 5417 is omitted, but the power stored in the power supply unit 5417 is stored in the light source unit 5405.
  • the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the state detection unit 5419, and the control unit 5421 can be used for driving them.
  • the state detection unit 5419 includes a sensor for detecting the state of the capsule endoscope 5401 such as an acceleration sensor and / or a gyro sensor.
  • the state detection unit 5419 can acquire information about the state of the capsule endoscope 5401 from the detection result of the sensor.
  • the state detection unit 5419 provides the acquired information about the state of the capsule endoscope 5401 to the image processing unit 5409.
  • information about the state of the capsule endoscope 5401 can be associated with the image signal.
  • the control unit 5421 is configured by a processor such as a CPU, and performs overall control of the operation of the capsule endoscope 5401 by operating according to a predetermined program.
  • the control unit 5421 drives the light source unit 5405, the imaging unit 5407, the image processing unit 5409, the wireless communication unit 5411, the power supply unit 5415, the power supply unit 5417, and the state detection unit 5419 according to a control signal transmitted from the external control device 5423. By appropriately controlling, the function in each unit as described above is realized.
  • the external control device 5423 may be a processor such as a CPU or GPU, or a microcomputer or a control board in which a processor and a storage element such as a memory are mounted.
  • the external control device 5423 includes an antenna 5425 and is configured to be able to transmit and receive various types of information to and from the capsule endoscope 5401 through the antenna 5425.
  • the external control device 5423 controls the operation of the capsule endoscope 5401 by transmitting a control signal to the control unit 5421 of the capsule endoscope 5401.
  • the light irradiation condition for the observation target in the light source unit 5405 can be changed by a control signal from the external control device 5423.
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • an imaging condition for example, a frame rate or an exposure value in the imaging unit 5407
  • the content of processing in the image processing unit 5409 and the conditions for example, the transmission interval and the number of transmission images
  • the wireless communication unit 5411 to transmit an image signal may be changed by a control signal from the external control device 5423.
  • the external control device 5423 performs various image processing on the image signal transmitted from the capsule endoscope 5401, and generates image data for displaying the captured in-vivo image on the display device.
  • image processing for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various known signal processing such as electronic zoom processing may be performed.
  • the external control device 5423 controls driving of a display device (not shown) to display an in-vivo image captured based on the generated image data.
  • the external control device 5423 may cause the generated image data to be recorded on a recording device (not shown) or may be printed out on a printing device (not shown).
  • the technology according to the present disclosure is, for example, any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). You may implement
  • FIG. 14 is a block diagram illustrating a schematic configuration example of a vehicle control system 7000 that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 for connecting the plurality of control units conforms to an arbitrary standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used for various calculations, and a drive circuit that drives various devices to be controlled. Is provided.
  • Each control unit includes a network I / F for communicating with other control units via a communication network 7010, and is connected to devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I / F for performing communication is provided. In FIG.
  • a microcomputer 7610 as a functional configuration of the integrated control unit 7600, a microcomputer 7610, a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, an audio image output unit 7670, An in-vehicle network I / F 7680 and a storage unit 7690 are illustrated.
  • other control units include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an operation amount of an accelerator pedal, an operation amount of a brake pedal, and steering of a steering wheel. At least one of sensors for detecting an angle, an engine speed, a rotational speed of a wheel, or the like is included.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110, and controls an internal combustion engine, a drive motor, an electric power steering device, a brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 7200 can be input with radio waves or various switch signals transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310 that is a power supply source of the drive motor according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the outside information detection unit 7400 detects information outside the vehicle on which the vehicle control system 7000 is mounted.
  • the outside information detection unit 7400 is connected to at least one of the imaging unit 7410 and the outside information detection unit 7420.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside information detection unit 7420 detects, for example, current weather or an environmental sensor for detecting weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects sunlight intensity, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the outside information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 15 shows an example of installation positions of the imaging unit 7410 and the vehicle outside information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided at, for example, at least one of the front nose, the side mirror, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior of the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirror mainly acquire an image of the side of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the passenger compartment is mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or
  • FIG. 15 shows an example of shooting ranges of the respective imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided in the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided in the side mirrors, respectively
  • the imaging range d The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, an overhead image when the vehicle 7900 is viewed from above is obtained.
  • the vehicle outside information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners of the vehicle 7900 and the upper part of the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle outside information detection units 7920, 7926, and 7930 provided on the front nose, the rear bumper, the back door, and the windshield in the vehicle interior of the vehicle 7900 may be, for example, LIDAR devices.
  • These outside information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives received reflected wave information.
  • the outside information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle outside information detection unit 7400 may calculate a distance to an object outside the vehicle based on the received information.
  • the outside information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, a character on a road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and combines the image data captured by the different imaging units 7410 to generate an overhead image or a panoramic image. Also good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the vehicle interior information detection unit 7500 detects vehicle interior information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • Driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects biometric information of the driver, a microphone that collects sound in the passenger compartment, and the like.
  • the biometric sensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of an occupant sitting on the seat or a driver holding the steering wheel.
  • the vehicle interior information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determines whether the driver is asleep. May be.
  • the vehicle interior information detection unit 7500 may perform a process such as a noise canceling process on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input by a passenger, such as a touch panel, a button, a microphone, a switch, or a lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera.
  • the passenger can input information using a gesture.
  • data obtained by detecting the movement of the wearable device worn by the passenger may be input.
  • the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600.
  • a passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • General-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or wireless LAN (Wi-Fi (registered trademark)). Other wireless communication protocols such as Bluetooth (registered trademark) may also be implemented.
  • the general-purpose communication I / F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via, for example, a base station or an access point.
  • the general-purpose communication I / F 7620 is a terminal (for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal) that exists in the vicinity of the vehicle using, for example, P2P (Peer To Peer) technology. You may connect with.
  • a terminal for example, a driver, a pedestrian or a store terminal, or an MTC (Machine Type Communication) terminal
  • P2P Peer To Peer
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in vehicles.
  • the dedicated communication I / F 7630 is a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609. May be implemented.
  • the dedicated communication I / F 7630 typically includes vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) Perform V2X communication, which is a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), performs positioning, and performs latitude, longitude, and altitude of the vehicle.
  • the position information including is generated.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a radio station installed on the road, and acquires information such as the current position, traffic jam, closed road, or required time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I / F 7630 described above.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I / F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I / F 7660 is connected to a USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition Link) via a connection terminal (and a cable if necessary). ) Etc. may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or a wearable device that a passenger has, or an information device that is carried into or attached to the vehicle.
  • In-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • In-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I / F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is connected via at least one of a general-purpose communication I / F 7620, a dedicated communication I / F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I / F 7660, and an in-vehicle network I / F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the acquired information. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Also good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning. You may perform the cooperative control for the purpose. Further, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, or the like based on the acquired information on the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform the cooperative control for the purpose of driving.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 is information acquired via at least one of the general-purpose communication I / F 7620, the dedicated communication I / F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I / F 7660, and the in-vehicle network I / F 7680.
  • the three-dimensional distance information between the vehicle and the surrounding structure or an object such as a person may be generated based on the above and local map information including the peripheral information of the current position of the vehicle may be created.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a collision of a vehicle, approach of a pedestrian or the like or an approach to a closed road based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include at least one of an on-board display and a head-up display, for example.
  • the display portion 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as glasses-type displays worn by passengers, projectors, and lamps.
  • the display device can display the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually. Further, when the output device is an audio output device, the audio output device converts an audio signal made up of reproduced audio data or acoustic data into an analog signal and outputs it aurally.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be configured by a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of any of the control units may be given to other control units. That is, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may transmit / receive detection information to / from each other via the communication network 7010. .
  • the image sensor 10 according to the present embodiment can be applied to the imaging unit 7410 of the application example shown in FIG.
  • the present technology can also have the following configurations. (1) Stacked first and second substrates; A first organic photoelectric conversion film formed on the first substrate, A latch circuit is formed on the second substrate. (2) The solid-state imaging device according to (1), further including a photoelectric conversion unit having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film. (3) The photoelectric conversion unit is a second organic photoelectric conversion film having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film, and is formed on the first substrate. The solid according to (2) Image sensor. (4) The solid-state imaging device according to (2), wherein the photoelectric conversion unit is a PD having sensitivity in a wavelength band different from that of the first organic photoelectric conversion film, and is formed in the first substrate. (5) The pixel Tr.
  • the solid-state imaging device corresponds to the first organic photoelectric conversion film.
  • the solid-state imaging device according to any one of (1) to (4).
  • the ADC circuit corresponding to the first organic photoelectric conversion film is formed in the first substrate.
  • the solid-state imaging device according to any one of (1) to (5).
  • the solid-state imaging device according to (6), wherein the pixel Tr.
  • the ADC circuit corresponding to the first organic photoelectric conversion film are exclusively used by each pixel.
  • the ADC circuit corresponding to the first organic photoelectric conversion film are shared by a plurality of pixels.
  • the solid-state imaging device according to any one of (1) to (8), wherein the pixel Tr.
  • the first organic photoelectric conversion film includes a reset Tr., An amplifier Tr., And a selection Tr. (10) The reset Tr. Is a GND RST method.
  • the reset Tr. Is a Vdd RST system.
  • Corresponding to the first organic photoelectric conversion film further includes a transfer Tr. (13) The transfer Tr. Is formed for each pixel, and the reset Tr., The amplifier Tr., And the selection Tr. Are shared by a plurality of pixels.
  • the solid-state imaging device according to any one of (1) to (13), further including a third substrate stacked on the second substrate side.
  • the solid-state imaging device is Stacked first and second substrates; A first organic photoelectric conversion film formed on the first substrate, An electronic device in which a latch circuit is formed on the second substrate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

本技術は、有機光電変換膜を用いたCISのチップサイズを小型化することができるようにする固体撮像素子、および電子装置に関する。 本技術の第1の側面である固体撮像素子は、積層されている第1および第2基板と、前記第1基板の上に形成されている第1有機光電変換膜とを備え、前記第2基板には、Latch回路が形成されていることを特徴とする。本技術は、例えば、裏面照射型のCISに適用できる。

Description

固体撮像素子、および電子装置
 本技術は、固体撮像素子、および電子装置に関し、特に、受光素子として有機光電変換膜を用いた場合にチップサイズを小型化できるようにした固体撮像素子、および電子装置に関する。
 従来、受光素子として有機光電変換膜を用いたカラムADC制御によるCIS(CMOSイメージセンサ)が提案されている(例えば、特許文献1参照)。
特開2007-82063号公報
 従来のカラムADC制御によるCISの場合、有機光電変換膜の直下のSi基板には、PD(フォトダイオード)やソースフォロア回路が形成されており、その後段で処理を行うADC(アナログデジタルコンバータ)回路やLatch回路については、有機光電変換膜の直下から外れた周辺領域に配置されている。これによりCISのチップサイズが大きくなり、製造時における理論収率が低下していた。
 本技術はこのような状況に鑑みてなされたものであり、受光素子として有機光電変換膜を用いたCISのチップサイズを小型化できるようにするものである。
 本技術の第1の側面である固体撮像素子は、積層されている第1および第2基板と、前記第1基板の上に形成されている第1有機光電変換膜とを備え、前記第2基板には、Latch回路が形成されている。
 本技術の第1の側面である固体撮像素子は、前記第1有機光電変換膜とは異なる波長帯に感度を有する光電変換部をさらに備えることができる。
 前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有する第2有機光電変換膜であり、前記第1基板の上に形成することができる。
 前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有するPDであり、前記第1基板内に形成することができる。
 前記第1有機光電変換膜に対応する画素Tr.は、前記第1基板内に形成することができる。
 前記第1有機光電変換膜に対応するADC回路は、前記第1基板内に形成することができる。
 前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、各画素により専有することができる。
 前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、複数の画素により共有することができる。
 前記第1有機光電変換膜に対応する前記画素Tr.は、リセットTr.、アンプTr.、および選択Tr.から構成することができる。
 前記リセットTr.は、GND RST方式とすることができる。
 前記リセットTr.は、Vdd RST方式とすることができる。
 前記第1有機光電変換膜に対応する前記画素Tr.は、転送Tr.をさらに含むことができる。
 前記転送Tr.は、画素毎に形成することができ、前記リセットTr.、前記アンプTr.、および前記選択Tr.は、複数の画素により共有することができる。
 本技術の第1の側面である固体撮像素子は、前記第2基板側に積層されている第3基板をさらに備えることができる。
 本技術の第2の側面である電子装置は、固体撮像素子が搭載されている電子装置において、前記固体撮像素子が、積層されている第1および第2基板と、前記第1基板の上に形成されている第1有機光電変換膜とを備え、前記第2基板には、Latch回路が形成されている。
 本技術の第1の側面によれば、チップサイズを小型化することができる。
 本技術の第2の側面によれば、小型化された固体撮像素子を用いたことにより、電子装置のサイズも小型化できる。
本技術を適用した固体撮像素子の第1の構成例を示す断面図である。 固体撮像素子の第1の構成例に対応する等価回路図である。 固体撮像素子の第2の構成例に対応する等価回路図である。 固体撮像素子の第3の構成例に対応する等価回路図である。 固体撮像素子の第4の構成例に対応する等価回路図である。 固体撮像素子の第5の構成例に対応する等価回路図である。 固体撮像素子の第6の構成例に対応する等価回路図である。 固体撮像素子の第7の構成例に対応する等価回路図である。 固体撮像素子の第1の構成例の第1の変形例を示す断面図である。 固体撮像素子の第1の構成例の第2の変形例を示す断面図である。 固体撮像素子の第1の構成例の第3の変形例を示す断面図である。 固体撮像素子の第1の構成例の第4の変形例を示す断面図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
 <本技術の実施の形態である固体撮像素子について>
 本技術を適用した固体撮像素子は、裏面照射型のCISであり、複数のSi基板(第1基板と第2基板)が積層され、さらに第1基板の上に有機光電変換膜が積層されていることが特徴となる。
 なお、該固体撮像素子を製造する工程においては、第1基板上に有機光電変換膜を積層した後は高熱を加えることができないので、有機光電変換膜の上に形成すべきパッシベーション膜、CF(カラーフィルタ)、OCL(オンチップレンズ)等は概ね200℃以下の低温でも形成することのできる材料・プロセスを用いる必要がある。
 <本技術の実施の形態である固体撮像素子の第1の構成例>
 図1は、本技術を適用した固体撮像素子10の第1の構成例を示す1画素分の断面図である。図2は、図1に示された第1の構成例に対応する1画素分の等価回路図である。
 該第1の構成例は、光の入射側となる図面上方から順に、OCL11、有機光電変換膜12、第1基板20、および第3基板30を有する。
 有機光電変換膜11は、OCL11によって集光された入射光のうち、所定の波長帯(例えば、G(緑)の波長帯)に対してのみ感度を有しており、光電変換を行うことによって入射光に応じた電荷を生成する。
 第1基板20と第2基板30は、図中に破線で示す境界1上に設けられている接合点において電気的に接合されている。
 第1基板20には、有機光電変換膜11のソースフォロア回路を構成する画素Tr.(トランジスタ)21と、PD22と、PD22のソースフォロア回路を構成する画素Tr.24が形成されている。
 画素Tr.21は、有機光電変換膜11で生成された電荷が蓄積されるFD(フローティングデュフージョン)をGNDに接続させることによってリセットするためのリセットTr.211と、FDに蓄積された電荷を電圧に変換するためのアンプTr.212と、変換されたアナログ電圧を後段に出力するための選択Tr.213から成る。
 PD22は、有機光電変換膜11が感度を有する波長帯とは異なる波長帯(例えば、B(青)の波長帯)に対してのみ感度を有しており、光電変換を行うことによって入射光に応じた電荷を生成する。
 画素Tr.24は、PD22で生成された電荷が蓄積されるFDをVddに接続させることによってリセットするためのリセットTr.241と、FDに蓄積された電荷を電圧に変換するためのアンプTr.242と、変換されたアナログ電圧を後段に出力するための選択Tr.243と、PD22から電荷を読み出すための転送Tr.244から成る。
 第2基板30には、画素Tr.21を介して入力されるアナログ電圧をAD変換するADC回路31と、画素Tr.24を介して入力されるアナログ電圧をAD変換するADC回路32が形成されている。さらに、第2基板30には、ADC回路31および32の後段にラッチ回路(不図示)が形成されている。
 該第1の構成例の場合、ソースフォロア回路と、その後段のADC回路およびLatch回路とを異なる基板に形成してそれらを積層したので、固体撮像素子10のチップサイズを小型化することが可能となり、製造時における理論収率を向上させることできる。
 なお、該第1の構成例のように、1画素に有機光電変換膜12とPD22を形成する面積当たりの色情報を多くとれるものの、その分だけ読み出し回数が増えることになり、第1の構成例の場合、有機光電変換膜12で1色、PD22で他の1色を読み出すので、1画素から1色を読み出すベイヤ配列タイプの固体撮像素子に比較して、読み出しに要するアナログ消費電力は2倍となる。さらに、有機光電変換膜12に対して転送Tr.を設けず、有機光電変換膜12をFDに直接接続する場合はkTCノイズをキャンセルするためにFDからの読み出しが2回必要となる。したがって、これも加味すると、ベイヤ配列タイプの固体撮像素子に比較して、アナログ消費電力は3倍となる。
 また、有機光電変換膜12はPD22に比較して消費電力が大きいので、何らかの省電力対策が必要となる。
 該第1の構成例では、1画素毎に有機光電変換膜12に対応するADC回路31とPD22に対応するADC回路32を有しているので、必要に応じて限られた領域(例えば、被写体に動きが有る領域等)の画素だけを駆動制御することによって消費電力の削減を行うことができる。
 <本技術の実施の形態である固体撮像素子の第2の構成例>
 図3は、本技術を適用した固体撮像素子10の第2の構成例に対応する等価回路図である。
 該第2の構成例は、有機光電変換膜12とそのソースフォロア回路については第1の構成例と共通であるが、PD22用のソースフォロア回路以降が4画素分のPD22-1乃至22-4によって共有されるように構成されている。
 該第2の構成例によれば、上述した第1の構成例と同様の効果を得ることができ、さらに、4画素分のPD22-1乃至22-4によってソースフォロア回路以降を共有することにより、その分だけチップサイズを小型化することができ、製造時における理論収率をより向上させることできる。
 なお、PD22用のソースフォロア回路以降を共有する画素数については4に限定するものではなく、設計等の都合に応じて2以上の任意の数にすることができる。
 <本技術の実施の形態である固体撮像素子の第3の構成例>
 図4は、本技術を適用した固体撮像素子10の第3の構成例に対応する等価回路図である。
 該第3の構成例は、上述した第2の構成例におけるリセットTr.211をVddリセット方式に変更したものである、すなわち、第3の構成例における有機光電変換膜11で生成された電荷が蓄積されるFDはリセットTr.211を介してVddに接続させることによってリセットされる。第3の構成例におけるその他の構成については第2の構成例と同様である。
 該第3の構成例によれば、上述した第2の構成例と同様の効果を得ることができる。
 <本技術の実施の形態である固体撮像素子の第4の構成例>
 図5は、本技術を適用した固体撮像素子10の第4の構成例に対応する等価回路図である。
 該第4の構成例は、上述した第3の構成例に対して、有機光電変換膜12から電荷を読み出すための転送Tr.214を追加したものである。第4の構成例におけるその他の構成については第3の構成例と同様である。
 該第4の構成例によれば、上述した第3の構成例と同様の効果を得ることができ、さらに、転送Tr.214を追加したことにより、有機光電変換膜12に対応するFDからの読み出しが1回で済むので、第3の構成例に比較して、アナログ消費電力を削減することができる。
 <本技術の実施の形態である固体撮像素子の第5の構成例>
 図6は、本技術を適用した固体撮像素子10の第5の構成例に対応する等価回路図である。
 該第5の構成例は、上述した第3の構成例に対して、有機光電変換膜12用のソースフォロア回路以降が4画素分の有機光電変換膜12-1乃至12-4によって共有されるように構成されている。
 該第5の構成例によれば、上述した第3の構成例と同様の効果を得ることができ、さらに、4画素分の有機光電変換膜12-1乃至12-4によってソースフォロア回路以降を共有することにより、その分だけチップサイズを小型化することができ、製造時における理論収率をより向上させることできる。
 なお、有機光電変換膜12用のソースフォロア回路以降を共有する画素数については4に限定するものではなく、設計等の都合に応じて2以上の任意の数にすることができる。
 <本技術の実施の形態である固体撮像素子の第6の構成例>
 図7は、本技術を適用した固体撮像素子10の第6の構成例に対応する等価回路図である。
 該第6の構成例は、上述した第2の構成例と構成要素については共通であるが、第2の構成例では第1基板20と第2基板30の接合点を境界1上に設けていたことに対し、第6の構成例では、該接合点を境界2上に設けている。すなわち、第6の構成例では、ADC回路31および32の一部までが第1基板20に形成されており、ADC回路31および32の残り以降が第2基板30に形成されている。
 該第6の構成例によれば、上述した第2の構成例と同様の効果を得ることができる。
 <本技術の実施の形態である固体撮像素子の第7の構成例>
 図8は、本技術を適用した固体撮像素子10の第7の構成例に対応する等価回路図である。
 該第7の構成例は、上述した第2および6の構成例と構成要素については共通であるが、第2の構成例では第1基板20と第2基板30の接合点を境界3上に設けている。すなわち、第7の構成例では、ADC回路31および32までが第1基板20に形成されており、その後段のLatch回路(不図示)以降が第2基板30に形成されている。
 該第7の構成例によれば、上述した第2の構成例と同様の効果を得ることができる。
 なお、第1基板20と第2基板30の境は、第1乃至第5の構成例における境界1や、第6の構成例における境界2、および第7の構成例における境界3に限るものではなく、任意の位置に設けることができる。
 <本技術の実施の形態である固体撮像素子の第1の構成例の第1の変形例>
 図9は、本技術を適用した固体撮像素子10の第1の構成例の第1の変形例を示す断面図である。
 該第1の変形例は、図1に示された第1の構成例に対して、OCL11と有機光電変換膜12の間にCF(カラーフィルタ)13を追加形成したものである。
 なお、上述した第2乃至7の構成例についても同様の変形が可能である。
 <本技術の実施の形態である固体撮像素子の第1の構成例の第2の変形例>
 図10は、本技術を適用した固体撮像素子10の第1の構成例の第2の変形例を示す断面図である。
 該第2の変形例は、図1に示された第1の構成例に対して、有機光電変換膜12とPD22の間にCF13を追加形成したものである。
 <本技術の実施の形態である固体撮像素子の第1の構成例の第3の変形例>
 図11は、本技術を適用した固体撮像素子10の第1の構成例の第3の変形例を示す断面図である。
 該第3の変形例は、図1に示された第1の構成例に対して、第2基板30の下層側にさらに、Si基板(第3基板)40を積層し、第3基板40にメモリ等を形成するようにしたものである。この場合、メモリを画素の周辺の配置指定場場合に比較して、チップサイズを小型化することができる。
 <本技術の実施の形態である固体撮像素子の第1の構成例の第4の変形例>
 図12は、本技術を適用した固体撮像素子10の第1の構成例の第4の変形例を示す断面図である。
 該第4の変形例は、図1に示された第1の構成例に対して、第1基板20と第2基板30の間に、Si基板(第3基板)40を積層し、第3基板40にメモリ等を形成するようにしたものである。この場合、メモリを画素の周辺の配置指定場場合に比較して、チップサイズを小型化することができる。
 なお、上述した第2乃至7の構成例についても同様の変形が可能である。
 <その他の変形例>
 上述した第1乃至7の構成例では、第1基板20の上に有機光電変換膜12を形成し、第1基板20の中にPD22を形成するようにした。変形例としては、例えば、第1基板20の上に異なる2種類の波長帯域に感度を有する2層の有機光電変換膜12を形成し、第1基板20の中にPD22を形成するようにしてもよい。
 また例えば、第1基板20の上に異なる3種類の波長帯域に感度を有する3層の有機光電変換膜12を形成し、第1基板20の中からPD22を省略してもよい。
 さらに例えば、第1基板20の上に有機光電変換膜12を形成し、第1基板20の中に異なる2種類の波長帯域に感度を有する2層のPD22を形成するようにしてもよい。
 これらの変形例によれば、1画素によって3種類の波長帯(R,G,B)の全て色成分を取得することができる。
 <第1の応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、カプセル型内視鏡を用いた患者の体内情報取得システムに適用されてもよい。
 図13は、本開示に係る技術が適用され得る体内情報取得システム5400の概略的な構成の一例を示す図である。図13を参照すると、体内情報取得システム5400は、カプセル型内視鏡5401と、体内情報取得システム5400の動作を統括的に制御する外部制御装置5423と、から構成される。検査時には、カプセル型内視鏡5401が患者によって飲み込まれる。カプセル型内視鏡5401は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置5423に順次無線送信する。外部制御装置5423は、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。体内情報取得システム5400では、このようにして、カプセル型内視鏡5401が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した画像を随時得ることができる。
 カプセル型内視鏡5401と外部制御装置5423の構成及び機能についてより詳細に説明する。図示するように、カプセル型内視鏡5401は、カプセル型の筐体5403内に、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417、状態検出部5419及び制御部5421の機能が搭載されて構成される。
 光源部5405は、例えばLED(light emitting diode)等の光源から構成され、撮像部5407の撮像視野に対して光を照射する。
 撮像部5407は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。当該撮像素子は、観察光を受光して光電変換することにより、観察光に対応した電気信号、すなわち観察像に対応した画像信号を生成する。撮像部5407によって生成された画像信号は、画像処理部5409に提供される。なお、撮像部5407の撮像素子としては、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Device)イメージセンサ等、各種の公知の撮像素子が用いられてよい。
 画像処理部5409は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部5407によって生成された画像信号に対して各種の信号処理を行う。当該信号処理は、画像信号を外部制御装置5423に伝送するための最小限の処理(例えば、画像データの圧縮、フレームレートの変換、データレートの変換及び/又はフォーマットの変換等)であってよい。画像処理部5409が必要最小限の処理のみを行うように構成されることにより、当該画像処理部5409を、より小型、より低消費電力で実現することができるため、カプセル型内視鏡5401に好適である。ただし、筐体5403内のスペースや消費電力に余裕がある場合であれば、画像処理部5409において、更なる信号処理(例えば、ノイズ除去処理や他の高画質化処理等)が行われてもよい。画像処理部5409は、信号処理を施した画像信号を、RAWデータとして無線通信部5411に提供する。なお、画像処理部5409は、状態検出部5419によってカプセル型内視鏡5401の状態(動きや姿勢等)についての情報が取得されている場合には、当該情報と紐付けて、画像信号を無線通信部5411に提供してもよい。これにより、画像が撮像された体内における位置や画像の撮像方向等と、撮像画像とを関連付けることができる。
 無線通信部5411は、外部制御装置5423との間で各種の情報を送受信可能な通信装置によって構成される。当該通信装置は、アンテナ5413と、信号の送受信のための変調処理等を行う処理回路等から構成される。無線通信部5411は、画像処理部5409によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ5413を介して外部制御装置5423に送信する。また、無線通信部5411は、外部制御装置5423から、カプセル型内視鏡5401の駆動制御に関する制御信号を、アンテナ5413を介して受信する。無線通信部5411は、受信した制御信号を制御部5421に提供する。
 給電部5415は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部5415では、いわゆる非接触充電の原理を用いて電力が生成される。具体的には、給電部5415のアンテナコイルに対して外部から所定の周波数の磁界(電磁波)が与えられることにより、当該アンテナコイルに誘導起電力が発生する。当該電磁波は、例えば外部制御装置5423からアンテナ5425を介して送信される搬送波であってよい。当該誘導起電力から電力再生回路によって電力が再生され、昇圧回路においてその電位が適宜調整されることにより、蓄電用の電力が生成される。給電部5415によって生成された電力は、電源部5417に蓄電される。
 電源部5417は、二次電池によって構成され、給電部5415によって生成された電力を蓄電する。図13では、図面が煩雑になることを避けるために、電源部5417からの電力の供給先を示す矢印等の図示を省略しているが、電源部5417に蓄電された電力は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、状態検出部5419及び制御部5421に供給され、これらの駆動に用いられ得る。
 状態検出部5419は、加速度センサ及び/又はジャイロセンサ等の、カプセル型内視鏡5401の状態を検出するためのセンサから構成される。状態検出部5419は、当該センサによる検出結果から、カプセル型内視鏡5401の状態についての情報を取得することができる。状態検出部5419は、取得したカプセル型内視鏡5401の状態についての情報を、画像処理部5409に提供する。画像処理部5409では、上述したように、当該カプセル型内視鏡5401の状態についての情報が、画像信号と紐付けられ得る。
 制御部5421は、CPU等のプロセッサによって構成され、所定のプログラムに従って動作することによりカプセル型内視鏡5401の動作を統括的に制御する。制御部5421は、光源部5405、撮像部5407、画像処理部5409、無線通信部5411、給電部5415、電源部5417及び状態検出部5419の駆動を、外部制御装置5423から送信される制御信号に従って適宜制御することにより、以上説明したような各部における機能を実現させる。
 外部制御装置5423は、CPU、GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイコン若しくは制御基板等であり得る。外部制御装置5423は、アンテナ5425を有し、当該アンテナ5425を介して、カプセル型内視鏡5401との間で各種の情報を送受信可能に構成される。具体的には、外部制御装置5423は、カプセル型内視鏡5401の制御部5421に対して制御信号を送信することにより、カプセル型内視鏡5401の動作を制御する。例えば、外部制御装置5423からの制御信号により、光源部5405における観察対象に対する光の照射条件が変更され得る。また、外部制御装置5423からの制御信号により、撮像条件(例えば、撮像部5407におけるフレームレート、露出値等)が変更され得る。また、外部制御装置5423からの制御信号により、画像処理部5409における処理の内容や、無線通信部5411が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置5423は、カプセル型内視鏡5401から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が行われてよい。外部制御装置5423は、表示装置(図示せず)の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置5423は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システム5400の一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部5407に好適に適用され得る。
 <第2の応用例>
 本開示に係る技術は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクタ)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図14は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図14に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図14では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図15は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図15には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図14に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図14の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図14に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム7000において、本実施の形態であるイメージセンサ10は、図14に示した応用例の撮像部7410に適用することができる。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 本技術は以下のような構成も取ることができる。
(1)
 積層されている第1および第2基板と、
 前記第1基板の上に形成されている第1有機光電変換膜とを備え、
 前記第2基板には、Latch回路が形成されている
 固体撮像素子。
(2)
 前記第1有機光電変換膜とは異なる波長帯に感度を有する光電変換部を
 さらに備える前記(1)に記載の固体撮像素子。
(3)
 前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有する第2有機光電変換膜であり、前記第1基板の上に形成されている
 前記(2)に記載の固体撮像素子。
(4)
 前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有するPDであり、前記第1基板内に形成されている
 前記(2)に記載の固体撮像素子。
(5)
 前記第1有機光電変換膜に対応する画素Tr.は、前記第1基板内に形成されている
 前記(1)から(4)のいずれかに記載の固体撮像素子。
(6)
 前記第1有機光電変換膜に対応するADC回路は、前記第1基板内に形成されている
 前記(1)から(5)のいずれかに記載の固体撮像素子。
(7)
 前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、各画素により専有される
 前記(6)に記載の固体撮像素子。
(8)
 前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、複数の画素により共有される
 前記(6)に記載の固体撮像素子。
(9)
 前記第1有機光電変換膜に対応する前記画素Tr.は、リセットTr.、アンプTr.、および選択Tr.から構成される
 前記(1)から(8)のいずれかに記載の固体撮像素子。
(10)
 前記リセットTr.は、GND RST方式である
 前記(9)に記載の固体撮像素子。
(11)
 前記リセットTr.は、Vdd RST方式である
 前記(9)に記載の固体撮像素子。
(12)
 前記第1有機光電変換膜に対応する前記画素Tr.は、転送Tr.をさらに含む
 前記(9)から(11)のいずれかに記載の固体撮像素子。
(13)
 前記転送Tr.は、画素毎に形成されており、前記リセットTr.、前記アンプTr.、および前記選択Tr.は、複数の画素により共有される
 前記(12)に記載の固体撮像素子。
(14)
 前記第2基板側に積層されている第3基板を
 さらに備える前記(1)から(13)のいずれかに記載の固体撮像素子。
(15)
 固体撮像素子が搭載されている電子装置において、
 前記固体撮像素子は、
  積層されている第1および第2基板と、
  前記第1基板の上に形成されている第1有機光電変換膜とを備え、
 前記第2基板には、Latch回路が形成されている
 電子装置。
 10 固体撮像素子, 11 OCL(オンチップレンズ), 12 有機光電変換膜, 13 CF(カラーフィルタ),20 第1基板, 21 画素Tr.(トランジスタ), 22 PD(フォトダイオード), 24 画素Tr.(トランジスタ), 30 第2基板, 31 ADC回路, 32 ADC回路

Claims (15)

  1.  積層されている第1および第2基板と、
     前記第1基板の上に形成されている第1有機光電変換膜とを備え、
     前記第2基板には、Latch回路が形成されている
     固体撮像素子。
  2.  前記第1有機光電変換膜とは異なる波長帯に感度を有する光電変換部を
     さらに備える請求項1に記載の固体撮像素子。
  3.  前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有する第2有機光電変換膜であり、前記第1基板の上に形成されている
     請求項2に記載の固体撮像素子。
  4.  前記光電変換部は、前記第1有機光電変換膜とは異なる波長帯に感度を有するPDであり、前記第1基板内に形成されている
     請求項2に記載の固体撮像素子。
  5.  前記第1有機光電変換膜に対応する画素Tr.は、前記第1基板内に形成されている
     請求項2に記載の固体撮像素子。
  6.  前記第1有機光電変換膜に対応するADC回路は、前記第1基板内に形成されている
     請求項5に記載の固体撮像素子。
  7.  前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、各画素により専有される
     請求項6に記載の固体撮像素子。
  8.  前記第1有機光電変換膜に対応する前記画素Tr.および前記ADC回路は、複数の画素により共有される
     請求項6に記載の固体撮像素子。
  9.  前記第1有機光電変換膜に対応する前記画素Tr.は、リセットTr.、アンプTr.、および選択Tr.から構成される
     請求項5に記載の固体撮像素子。
  10.  前記リセットTr.は、GND RST方式である
     請求項9に記載の固体撮像素子。
  11.  前記リセットTr.は、Vdd RST方式である
     請求項9に記載の固体撮像素子。
  12.  前記第1有機光電変換膜に対応する前記画素Tr.は、転送Tr.をさらに含む
     請求項5に記載の固体撮像素子。
  13.  前記転送Tr.は、画素毎に形成されており、前記リセットTr.、前記アンプTr.、および前記選択Tr.は、複数の画素により共有される
     請求項12に記載の固体撮像素子。
  14.  前記第2基板側に積層されている第3基板を
     さらに備える請求項2に記載の固体撮像素子。
  15.  固体撮像素子が搭載されている電子装置において、
     前記固体撮像素子は、
      積層されている第1および第2基板と、
      前記第1基板の上に形成されている第1有機光電変換膜とを備え、
     前記第2基板には、Latch回路が形成されている
     電子装置。
PCT/JP2017/029494 2016-08-30 2017-08-17 固体撮像素子、および電子装置 WO2018043140A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/325,047 US11404483B2 (en) 2016-08-30 2017-08-17 Solid-state image sensor and electronic apparatus
US17/842,183 US20220310699A1 (en) 2016-08-30 2022-06-16 Solid-state image sensor and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-167591 2016-08-30
JP2016167591A JP2018037479A (ja) 2016-08-30 2016-08-30 固体撮像素子、および電子装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/325,047 A-371-Of-International US11404483B2 (en) 2016-08-30 2017-08-17 Solid-state image sensor and electronic apparatus
US17/842,183 Division US20220310699A1 (en) 2016-08-30 2022-06-16 Solid-state image sensor and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2018043140A1 true WO2018043140A1 (ja) 2018-03-08

Family

ID=61300793

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/029494 WO2018043140A1 (ja) 2016-08-30 2017-08-17 固体撮像素子、および電子装置

Country Status (3)

Country Link
US (2) US11404483B2 (ja)
JP (1) JP2018037479A (ja)
WO (1) WO2018043140A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022049487A (ja) * 2020-09-16 2022-03-29 ソニーグループ株式会社 固体撮像装置及び電子機器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201009A (ja) * 2006-01-24 2007-08-09 Fujifilm Corp 固体撮像素子
JP2012004443A (ja) * 2010-06-18 2012-01-05 Sony Corp 固体撮像装置、電子機器
JP2012054876A (ja) * 2010-09-03 2012-03-15 Sony Corp 固体撮像素子およびカメラシステム
WO2015019836A1 (ja) * 2013-08-05 2015-02-12 ソニー株式会社 撮像装置、電子機器
JP2016009722A (ja) * 2014-06-23 2016-01-18 ソニー株式会社 光電変換膜、固体撮像素子、および電子機器
JP2016134587A (ja) * 2015-01-22 2016-07-25 ソニー株式会社 固体撮像装置、及び、電子機器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4599258B2 (ja) 2005-09-16 2010-12-15 富士フイルム株式会社 固体撮像素子
JP5353200B2 (ja) * 2008-11-20 2013-11-27 ソニー株式会社 固体撮像装置および撮像装置
TWI583195B (zh) * 2012-07-06 2017-05-11 新力股份有限公司 A solid-state imaging device and a solid-state imaging device, and an electronic device
JP6278881B2 (ja) * 2013-12-06 2018-02-14 キヤノン株式会社 撮像素子、撮像装置及び携帯電話機
CN107615487B (zh) * 2015-06-05 2022-04-15 索尼公司 成像元件、电子器件、制造设备以及制造方法
KR20170070693A (ko) * 2015-12-14 2017-06-22 삼성전자주식회사 이미지 센서
KR102473664B1 (ko) * 2016-01-19 2022-12-02 삼성전자주식회사 Tsv 구조체를 가진 다중 적층 소자

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201009A (ja) * 2006-01-24 2007-08-09 Fujifilm Corp 固体撮像素子
JP2012004443A (ja) * 2010-06-18 2012-01-05 Sony Corp 固体撮像装置、電子機器
JP2012054876A (ja) * 2010-09-03 2012-03-15 Sony Corp 固体撮像素子およびカメラシステム
WO2015019836A1 (ja) * 2013-08-05 2015-02-12 ソニー株式会社 撮像装置、電子機器
JP2016009722A (ja) * 2014-06-23 2016-01-18 ソニー株式会社 光電変換膜、固体撮像素子、および電子機器
JP2016134587A (ja) * 2015-01-22 2016-07-25 ソニー株式会社 固体撮像装置、及び、電子機器

Also Published As

Publication number Publication date
US20210305319A1 (en) 2021-09-30
JP2018037479A (ja) 2018-03-08
US20220310699A1 (en) 2022-09-29
US11404483B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
US10847561B2 (en) Solid-state imaging element and method for manufacturing the same, and electronic device
US11895398B2 (en) Imaging device and imaging system
JP7500798B2 (ja) 固体撮像装置、補正方法、および電子装置
WO2017217177A1 (ja) 画像処理装置、および撮像装置、ならびに画像処理システム
WO2020195822A1 (ja) 撮像システム
WO2020080383A1 (ja) 撮像装置及び電子機器
WO2019073726A1 (ja) 固体撮像素子、固体撮像素子の駆動方法、及び、電子機器
US20220086379A1 (en) Image capturing device and electronic apparatus
JP2018073967A (ja) 半導体装置、固体撮像装置、及び、製造方法
US20220310699A1 (en) Solid-state image sensor and electronic apparatus
WO2022054742A1 (ja) 撮像素子及び撮像装置
WO2021235323A1 (ja) 撮像装置及び撮像方法
JP2018011246A (ja) 固体撮像装置、補正方法、および電子装置
WO2022065032A1 (ja) 撮像装置及び撮像方法
WO2021229983A1 (ja) 撮像装置及びプログラム
WO2022181265A1 (ja) 画像処理装置、画像処理方法及び画像処理システム
WO2022209256A1 (ja) 撮像素子、撮像装置及び撮像素子の制御方法
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2022149556A1 (ja) 撮像装置および電子機器
WO2018135208A1 (ja) 撮像装置と撮像システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17846148

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17846148

Country of ref document: EP

Kind code of ref document: A1