WO2021075117A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021075117A1
WO2021075117A1 PCT/JP2020/028117 JP2020028117W WO2021075117A1 WO 2021075117 A1 WO2021075117 A1 WO 2021075117A1 JP 2020028117 W JP2020028117 W JP 2020028117W WO 2021075117 A1 WO2021075117 A1 WO 2021075117A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
solid
image sensor
state image
photoelectric conversion
Prior art date
Application number
PCT/JP2020/028117
Other languages
English (en)
French (fr)
Inventor
博亮 村上
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2021075117A1 publication Critical patent/WO2021075117A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • This technology relates to solid-state image sensors and electronic devices.
  • Patent Document 1 may not be able to further improve the image quality of the solid-state image sensor.
  • this technology was made in view of such a situation, and a solid-state image sensor capable of further improving the image quality of the solid-state image sensor and an electronic device equipped with the solid-state image sensor are used.
  • the main purpose is to provide.
  • the present inventor succeeded in realizing higher image quality of the solid-state image sensor, and completed the present technology.
  • a first substrate and a second substrate are provided in this order from the light incident side.
  • a first pixel region in which a plurality of first pixels are arranged is formed on the first substrate.
  • a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate.
  • the first substrate includes a first semiconductor substrate on which a first photoelectric conversion unit for photoelectrically converting incident light is formed, and a first wiring layer, in order from the light incident side.
  • the second substrate includes a second wiring layer and a second semiconductor substrate on which a second photoelectric conversion unit for photoelectric conversion of the incident light is formed, in this order from the light incident side.
  • One said first pixel has one said first photoelectric conversion part.
  • One said second pixel has one said second photoelectric conversion part.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other.
  • a solid-state image sensor in which at least one of the first pixels and at least one of the second pixels are electrically connected
  • At least one said first pixel and at least one said second pixel may be electrically connected by a Cu-Cu bond.
  • All the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the first photoelectric conversion unit and the second photoelectric conversion unit may perform photoelectric conversion of different wavelength region components of the incident light.
  • the first photoelectric conversion unit may photoelectrically convert the wavelength region component of visible light of the incident light.
  • the second photoelectric conversion unit may photoelectrically convert the wavelength region component of the infrared light of the incident light.
  • An optical path through which the incident light is transmitted may be formed in the first wiring layer and the second wiring layer.
  • a waveguide may be formed in the optical path.
  • a light reflecting member may be arranged outside the waveguide.
  • a circuit region may be formed on the second substrate. In the solid-state image sensor according to this technology A circuit region may be formed on the first substrate.
  • the solid-state image sensor according to the present technology may further include a third substrate.
  • the third substrate may include a third wiring layer and a third semiconductor substrate in order from the light incident side.
  • the second substrate and the third substrate are bonded to each other with the second semiconductor substrate and the third wiring layer facing each other, and the second substrate and the third substrate are electrically connected to each other. You may.
  • a through electrode penetrating the second semiconductor substrate may be formed, and the second substrate and the third substrate may be electrically connected via the through electrode.
  • a circuit region may be formed on the third substrate.
  • At least one of the first pixels and at least one of the second pixels may share at least one type of pixel transistor formed on the first substrate. In the solid-state image sensor according to this technology At least one of the first pixels and at least one of the second pixels may share at least one type of pixel transistor formed on the second substrate.
  • this technology provides an electronic device equipped with a solid-state image sensor according to this technology.
  • FIG. 1 It is a figure which shows an example of the schematic structure of the endoscopic surgery system. It is a block diagram which shows an example of the functional structure of a camera head and a CCU. It is a block diagram which shows an example of the schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of the vehicle exterior information detection unit and the image pickup unit.
  • the band gap of silicon (Si) is 1.12 eV, so the sensitivity of long wavelengths is low. Therefore, in order to improve the sensitivity of long wavelengths, it is necessary to increase the film thickness of silicon (Si).
  • the aspect ratio of the resist may be insufficient to hit an implant for element separation, and it may be difficult to form the resist.
  • a method using a hard mask is also conceivable, but it may be necessary to pay close attention to the stability of process processing.
  • the substrate of the back surface type sensor for example, the substrate on which the photoelectric conversion unit and the wiring layer are arranged in order from the light incident side
  • the second substrate for example, the lower side
  • a substrate of a surface type sensor for example, a substrate on which a wiring layer and a photoelectric conversion unit are arranged in order from the light incident side
  • bonded for example, Cu—Cu bonded
  • the pixels of the first substrate are used as ordinary R / G / B pixels, and the pixels of the second substrate are used as a long wavelength photoelectric conversion unit (for example, a photodiode (PD)). Is formed into a pixel structure.
  • the wiring arranges the pixel control line / vertical signal line (VSL) so as to open the opening portion like the wiring layout of the surface type sensor.
  • the wiring connection between the first substrate and the second substrate is a Cu-Cu connection (Cu-Cu connection).
  • a waveguide is provided in the joint portion between the first substrate and the second substrate, the first wiring layer included in the first substrate, and the second wiring layer included in the second substrate. It is formed so as to straddle the substrate and the second substrate. By forming this waveguide, it is possible to suppress the attenuation and / or reflection of long-wavelength light so that the light reaches the photoelectric conversion unit (for example, a photodiode (PD)) included in the second substrate.
  • PD photodiode
  • the solid-state imaging device of the first embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate emits incident light in order from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion is formed and a first wiring layer are provided, and the second substrate photoelectrically converts incident light with the second wiring layer in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit is formed is provided, one first pixel has one first photoelectric conversion unit, and one second pixel has one second photoelectric conversion unit.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, and at least one first pixel and at least one second pixel are electrically connected. It is a solid-state imaging device that is specifically connected.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • At least one first pixel and at least one second pixel are an amplification transistor (AMP transistor) and / or a selection transistor. It may be shared with (SEL transistor).
  • AMP transistor amplification transistor
  • AMP transistor amplification transistor
  • AMP transistor amplification transistor
  • AMP transistor amplification transistor
  • AMP transistor amplification transistor
  • AMP transistor amplification transistor shared by at least one first pixel and at least one second pixel.
  • the selection transistor (SEL transistor) may be formed on the first substrate or the second substrate.
  • the first photoelectric conversion unit and the second photoelectric conversion unit may perform photoelectric conversion of different wavelength region components of the incident light.
  • the first photoelectric conversion unit photoelectrically converts the wavelength region component of the visible light (for example, B light, G light, R light, etc.) of the incident light
  • the second photoelectric conversion unit photoelectrically converts the infrared light of the incident light. Photoelectric conversion of the wavelength region component of the above can be mentioned.
  • an optical path through which incident light is transmitted (passed) may be formed in the first wiring layer and the second wiring layer, and the optical path may be, for example, guided.
  • a waveguide may be formed.
  • the first signal charge generated by at least one first photoelectric conversion unit and the second signal charge generated by at least one second photoelectric conversion unit may go through the floating diffusion (FD) formed on the first substrate. Further, in the solid-state image sensor of the first embodiment according to the present technology, the first signal charge generated by at least one first photoelectric conversion unit and the second signal charge generated by at least one second photoelectric conversion unit are generated. The signal charge may pass through a floating diffusion (FD) formed on the second substrate.
  • FD floating diffusion
  • FIG. 1 is a cross-sectional view showing a configuration example (solid-state image sensor 1000) of the solid-state image sensor of the first embodiment according to the present technology.
  • FIG. 2A is a plan layout view of the first wiring layer 8-1 of the first substrate 1000-1 included in the solid-state image sensor 1000
  • FIG. 2B is a solid-state image sensor 1000. It is a figure which shows the circuit configuration example of.
  • the solid-state image sensor of the first embodiment according to the present technology is not limited to the solid-state image sensor 1000.
  • the solid-state image sensor 1000 includes an on-chip lens 1, a first substrate 1000-1 and a second substrate 1000-2 in order from the light (light L1 and light L2) incident side.
  • P1 shown in FIG. 1 indicates a joint portion between the first substrate 1000-1 and the second substrate 1000-2.
  • the first substrate 1000-1 includes a color filter 2R (red (R) filter), a flattening film 3, light-shielding films 4-1 and 4-2, and an insulating film 5 (for example, oxidation) in order from the light incident side.
  • a silicon (SiO 2 ) film), a first photoelectric conversion unit 7-1 (photodiode (PD) 7-1) formed on the first semiconductor substrate 6-1 and a first wiring layer 8-1 are provided. ing.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge.
  • the light-shielding films 4-1 and 4-2 are covered with the flattening film 3, and are opened between the first pixels so that light is incident on the first photoelectric conversion portion in a plan view from the light incident side. , Arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed on the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side.
  • the second substrate 1000-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) and the waveguide 9 to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the second wiring layer 8-2 side.
  • the waveguide 9 has the first substrate 1000-1 and the first substrate 1000-1 in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the two substrates 1000-2.
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first substrate 1000-1 and the second substrate 1000-2 are electrically connected by Cu-Cu bonding by connecting the wiring 40-1 and the wiring 40-2.
  • Cu-Cu bonding the first substrate 1000-1 (first pixel) and the second substrate 1000-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel of the first substrate (upper substrate) 1000-1 is a normal pixel (in FIG. 1, it is an R (red) pixel, but a G (green) pixel or a B (blue) pixel. ) Pixels may be used.
  • the second pixel of the second substrate 1000-2 (lower substrate) can be used as a pixel for a long wavelength (infrared or near infrared).
  • FIG. 2A is a plan layout view of the first wiring layer 8-1 of the first substrate 1000-1 included in the solid-state imaging device 1000, but for convenience, the first semiconductor substrate 6-
  • the first photoelectric conversion unit 70-1 (photodiode (PD) 70-1) and the first photoelectric conversion unit 71-1 (photodiode (PD) 71-1) formed in 1 are shown (first). It corresponds to two pixels.)
  • the wiring layout of the first wiring layer 8-1 is similar to that of a surface-illuminated image sensor (solid-state image sensor), that is, the first photoelectric conversion unit 70-1 (photodiode (PD) 70-1) and the first photoelectric conversion.
  • the incident light is transmitted (passed) through the region of the first wiring layer 8-1 corresponding to the region where the unit 71-1 (photodiode (PD) 71-1) is arranged, without routing the wiring. (A light path is formed).
  • the transfer signal line TG54 is connected to the transfer gates (TG: Transfer Gate) 80-1 and 81-1, the reset signal line RST 52 is connected to the reset gate (RST: Reset Gate) 91, and the selection signal line SEL53 is It is connected to a selection transistor (SEL: SELTr) 93.
  • reference numeral R1 is the circuit configuration of the first substrate 1000-1
  • reference numeral R2 is the circuit configuration example of the second substrate 1000-2. Is.
  • photodiodes (PD) 70-1 and 71-1 and transfer gates (TG: Transfer Gate) 80-1 and 81-1 are configured.
  • the transfer gate (TG: Transfer Gate) 80-1 reads out the first signal charge that has been photoelectrically converted and accumulated by the photodiode (PD) 70-1, and the transfer gate (TG: Transfer Gate) 81-1 is a photo.
  • the first signal charge that has been photoelectrically converted and accumulated by the diode (PD) 71-1 is read out.
  • a floating diffusion (FD) 90 a reset gate (RST: Reset Gate) 91, an amplification transistor (AMP: AMPTr) 92, and a selection transistor (SEL: SELTr) are used.
  • FD floating diffusion
  • RST reset gate
  • AMP amplification transistor
  • SEL selection transistor
  • SELTr selection transistor
  • photodiodes (PD) 70-2 and 71-2 and transfer gates (TG: TransferGate) 80-2 and 81-2 are configured.
  • the transfer gate (TG: Transfer Gate) 80-2 reads out the second signal charge that has been photoelectrically converted and accumulated by the photodiode (PD) 70-2, and the transfer gate (TG: Transfer Gate) 81-2 is a photo.
  • the second signal charge that has been photoelectrically converted and accumulated by the diode (PD) 71-2 is read out.
  • the floating diffusion (FD) 90 formed on the first substrate 1000-1 includes a photodiode (PD) 70-1 and a photodiode (PD) 71-1 (for two pixels of the first pixel), and a photodiode (for two pixels of the first pixel). It is shared by the PD) 70-2 and the photodiode (PD) 71-2 (two pixels of the second pixel) (thus, a total of four pixels).
  • the amplification transistor (AMP: AMPTr) 92 and the selection transistor (SEL: SELTr) 93 formed on the first substrate 1000-1 are also the photodiode (PD) 70-1 and the photodiode (PD) 71-1 ( It is shared by the photodiode (PD) 70-2 and the photodiode (PD) 71-2) (two pixels of the second pixel) (thus, a total of four pixels). ..
  • a reset gate (RST:) for the photodiodes (PD) 70-2 and 71-2 constituting the circuit configuration R2 of the second substrate 1000-2. ResetGate) is formed.
  • the solid-state imaging device of the second embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate emits incident light in order from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion is formed and a first wiring layer are provided, and the second substrate photoelectrically converts incident light with the second wiring layer in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit is formed is provided, one first pixel has one first photoelectric conversion unit, and one second pixel has one second photoelectric conversion unit.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, and at least one first pixel and at least one second pixel are electrically connected. It is a solid-state imaging device that is specifically connected.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above. You may.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • FIG. 3 is a cross-sectional view showing a configuration example (solid-state image sensor 2000) of the solid-state image sensor of the second embodiment according to the present technology.
  • solid-state image sensor 2000 solid-state image sensor 2000
  • the solid-state image sensor of the second embodiment according to the present technology is not limited to the solid-state image sensor 2000.
  • the solid-state image sensor 2000 includes on-chip lenses 1-1 and 1-2, and a first substrate 2000-1 and a second substrate 2000-2 in this order from the light (light L1 and light L2) incident side.
  • P2 shown in FIG. 3 shows a joint portion between the first substrate 2000-1 and the second substrate 2000-2.
  • the first substrate 2000-1 includes a color filter 2R (red (R) filter), a color filter 2G (green (G) filter), a flattening film 3, and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • a color filter 2R red (R) filter
  • a color filter 2G green (G) filter
  • a flattening film 3 and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • an insulating film 5 for example, a silicon oxide (SiO 2 ) film
  • a first photoelectric conversion unit 7-1 photodiode (PD) 7 formed on the first semiconductor substrate 6-1.
  • a first photoelectric conversion unit 7-3 (photodiode (PD) 7-3), and a first wiring layer 8-1 are provided.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge
  • the photodiode 7-3 uses the color filter 2G (color filter 2G).
  • the incident light L1 transmitted through the green (G) filter) is photoelectrically converted to generate and store a first signal charge.
  • the light-shielding films 4-1 and 4-2 and 4-3 are covered with the flattening film 3 so that light is incident on the first photoelectric conversion portion between the first pixels in a plan view from the light incident side. It is opened and arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1. On the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side, a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed, and a photo A transfer gate (transfer gate) TG10-3 for reading the first signal charge accumulated by the diode 7-3 is formed.
  • the second substrate 2000-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and a second photoelectric conversion unit 7-4 (photodiode (PD) 7-4) are provided.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) and the waveguide 9-1 to generate and store a second signal charge, and the photodiode 7-4. Lightly converts the incident light L2 transmitted through the color filter 2G (green (G) filter) and the waveguide 9-2 to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the first wiring layer 8-1 side.
  • a transfer gate (transfer gate) TG10-4 for reading the second signal charge accumulated by the diode 7-4 is formed.
  • the waveguides 9-1 and 9-2 are located in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the substrate 2000-1 and the second substrate 2000-2. By forming the waveguide, it is possible to suppress the attenuation and / or reflection of long-wavelength light so that the incident light L2 of the second photoelectric conversion unit 7-2 (photodiode 7-2) can reach.
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first pixel and the second pixel corresponding to the color filter 2R are the wiring 40-1 and the wiring 40-2. By being connected (Q part in FIG. 3), they are electrically connected by a Cu-Cu junction. By this Cu-Cu bonding, the first substrate 2000-1 (first pixel) and the second substrate 2000-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel and the second pixel corresponding to the color filter 2G are not electrically connected by a Cu—Cu junction.
  • the R pixel is Cu-Cu bonded to the first substrate 2000-1 and the second substrate 2000-2, and drives the first pixel and the second pixel to turn on the transfer gate (TG) at the same time. Therefore, the sensitivity can be increased by adding up the long wavelength signals.
  • the G pixel (or B pixel) has a wiring layout that does not join Cu-Cu, and is connected to different pixel control lines, the first pixel is for the G pixel (or B pixel), and the second pixel is near infrared. It is possible to take out a pixel signal by a photodiode for use (for infrared rays) and take out the outputs of RGB pixels and near-infrared (infrared) pixels, respectively.
  • the solid-state imaging device of the third embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged and a circuit area are formed on the second substrate, and the first substrate is sequentially arranged from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion of incident light is formed and a first wiring layer are provided, and the second substrate has a second wiring layer and incident light in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit for photoelectric conversion is formed one first pixel has one first photoelectric conversion unit, and one second pixel has one first pixel. It has two photoelectric conversion units, and the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, so that at least one first pixel and at least one second pixel are attached.
  • a circuit region may be formed on the first substrate.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • FIG. 4 is a cross-sectional view showing a configuration example (solid-state image sensor 3000) of the solid-state image sensor of the third embodiment according to the present technology.
  • FIG. 4A is a peripheral region of the solid-state image sensor 3000. It is sectional drawing which shows the structural example of the circuit area (referred to as solid-state image sensor 3000a), and FIG. It is sectional drawing which shows.
  • the solid-state image sensor of the third embodiment according to the present technology is not limited to the solid-state image sensor 3000.
  • the solid-state image sensor 3000 (solid-state image sensor 3000b) includes on-chip lenses 1-1 and 1-2, a first substrate 3000b-1 and a second substrate 3000b-2 in order from the light (light L1 and light L2) incident side. And.
  • X1 shown in FIG. 4B indicates a first pixel region, and X2 indicates a second pixel region.
  • P4 shown in FIG. 4B shows a joint portion between the first substrate 3000b-1 and the second substrate 3000b-2.
  • the first substrate 3000b-1 includes a color filter 2R (red (R) filter), a color filter 2G (green (G) filter), a flattening film 3, and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • a color filter 2R red (R) filter
  • a color filter 2G green (G) filter
  • a flattening film 3 and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • an insulating film 5 for example, a silicon oxide (SiO 2 ) film
  • a first photoelectric conversion unit 7-1 photodiode (PD) 7 formed on the first semiconductor substrate 6-1.
  • a first photoelectric conversion unit 7-3 (photodiode (PD) 7-3), and a first wiring layer 8-1 are provided.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge
  • the photodiode 7-3 uses the color filter 2G (color filter 2G).
  • the incident light L1 transmitted through the green (G) filter) is photoelectrically converted to generate and store a first signal charge.
  • the light-shielding films 4-1 and 4-2 and 4-3 are covered with the flattening film 3 so that light is incident on the first photoelectric conversion portion between the first pixels in a plan view from the light incident side. It is opened and arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1. On the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side, a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed, and a photo A transfer gate (transfer gate) TG10-3 for reading the first signal charge accumulated by the diode 7-3 is formed.
  • the second substrate 3000b-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and a second photoelectric conversion unit 7-4 (photodiode (PD) 7-4) are provided.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) and the waveguide 9-1 to generate and store a second signal charge, and the photodiode 7-4. Lightly converts the incident light L2 transmitted through the color filter 2G (green (G) filter) and the waveguide 9-2 to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the first wiring layer 8-1 side.
  • a transfer gate (transfer gate) TG10-4 for reading the second signal charge accumulated by the diode 7-4 is formed.
  • the waveguides 9-1 and 9-2 are located in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the substrate 3000b-1 and the second substrate 3000b-2. By forming a waveguide, attenuation and / or reflection of long-wavelength light is suppressed, and the second photoelectric conversion unit 7-2 (photodiode 7-2) and the second photoelectric conversion unit 7-4 (photodiode 7-) are suppressed.
  • the incident light L2 can reach 2).
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first pixel and the second pixel corresponding to the color filter 2R are the wiring 40-1 and the wiring 40-2. By being connected, they are electrically connected by a Cu-Cu junction. By this Cu-Cu bonding, the first substrate 3000b-1 (first pixel) and the second substrate 3000b-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel and the second pixel corresponding to the color filter 2G are not electrically connected by a Cu—Cu junction.
  • the R pixel is Cu-Cu bonded to the first substrate 3000b-1 and the second substrate 3000b-2, and drives the first pixel and the second pixel to turn on the transfer gate (TG) at the same time. Therefore, the sensitivity can be increased by adding up the long wavelength signals.
  • the G pixel (or B pixel) has a wiring layout that does not join Cu-Cu, and is connected to different pixel control lines, the first pixel is for the G pixel (or B pixel), and the second pixel is near infrared. It is possible to take out a pixel signal by a photodiode for use (for infrared rays) and take out the outputs of RGB pixels and near-infrared (infrared) pixels, respectively.
  • the solid-state image sensor 3000 (solid-state image sensor 3000a) includes a first substrate 3000a-1 and a second substrate 3000a-2 in this order from the light (light L1 and light L2) incident side.
  • Y1 shown in FIG. 4A indicates a circuit area.
  • P3 shown in FIG. 4A shows a joint portion between the first substrate 3000a-1 and the second substrate 3000a-2.
  • the first substrate 3000a-1 includes a flattening film 3, a light-shielding film 4, an insulating film 5 (for example, a silicon oxide (SiO 2 ) film), a first semiconductor substrate 6-1 in order from the light incident side. It includes a first wiring layer 8-1.
  • the light-shielding film 4 is covered with the flattening film 3 and is arranged in a solid shape so as to cover the entire surface (back surface) of the first semiconductor substrate 6-1 on the incident side in a plan view from the light incident side.
  • the first wiring layer 8-1 includes wirings 40-3 and 41-1, vias 42-1 connecting wirings 40-3 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • the second substrate 3000a-2 includes a second wiring layer 8-2 and a first semiconductor substrate 6-1 in this order from the light incident side.
  • the second wiring layer 8-2 includes wirings 40-4 and 41-2, vias 42-2 connecting the wirings 40-4 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 1.
  • a circuit transistor Tr1 is formed on the back surface of the second semiconductor substrate 6-2 on the second wiring layer 8-2 side, and a peripheral circuit is formed by the transistor Tr1 and the wiring 41-3 formed on the third wiring layer.
  • a circuit region Y1 is formed on the second substrate 3000b-2 by forming a logic circuit or the like.
  • the first substrate 3000a-1 and the second substrate 3000a-2 are electrically connected by Cu-Cu bonding by connecting the wiring 40-3 and the wiring 40-4.
  • a pixel signal can be sent to a circuit region Y1 (for example, a logic circuit region) on the outer periphery of the first pixel region X1 and the second pixel region X2 via the Cu-Cu junction, and also.
  • a pulse for driving the first pixel and the second pixel can be supplied to, for example, a pixel-driven wiring.
  • the first substrate 3000a-1 and the second substrate 3000a-2 may be electrically connected by using a through electrode instead of the Cu-Cu bonding.
  • the contents described about the solid-state image sensor of the third embodiment (example 3 of the solid-state image sensor) according to the present technology are the first and second implementations according to the present technology described above, unless there is a particular technical contradiction. It can be applied to the solid-state image sensor of the embodiment and the solid-state image sensor of the fourth to seventh embodiments according to the present technology described later.
  • the solid-state imaging device of the fourth embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate emits incident light in order from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion is formed and a first wiring layer are provided, and the second substrate photoelectrically converts incident light with the second wiring layer in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit is formed is provided, one first pixel has one first photoelectric conversion unit, and one second pixel has one second photoelectric conversion unit.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, and at least one first pixel and at least one second pixel are electrically connected.
  • It is a solid-state imaging device that is specifically connected.
  • a waveguide through which incident light is transmitted (passes) is formed in the first wiring layer and the second wiring layer.
  • a light reflecting member is arranged on the outside (outer peripheral side) of the waveguide.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • FIG. 5 is a cross-sectional view showing a configuration example (solid-state image sensor 4000) of the solid-state image sensor according to the fourth embodiment according to the present technology.
  • the solid-state image sensor of the fourth embodiment according to the present technology is not limited to the solid-state image sensor 4000.
  • the solid-state image sensor 4000 includes an on-chip lens 1, a first substrate 4000-1 and a second substrate 4000-2 in this order from the light (light L1 and light L2) incident side.
  • P5 shown in FIG. 5 shows a joint portion between the first substrate 4000-1 and the second substrate 4000-2.
  • the first substrate 4000-1 includes a color filter 2R (red (R) filter), a flattening film 3, light-shielding films 4-1 and 4-2, and an insulating film 5 (for example, oxidation) in order from the light incident side.
  • a silicon (SiO 2 ) film), a first photoelectric conversion unit 7-1 (photodiode (PD) 7-1) formed on the first semiconductor substrate 6-1 and a first wiring layer 8-1 are provided. ing.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge.
  • the light-shielding films 4-1 and 4-2 are covered with the flattening film 3, and are opened between the first pixels so that light is incident on the first photoelectric conversion portion in a plan view from the light incident side. , Arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed on the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side.
  • the second substrate 4000-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and.
  • the photodiode 7-2 includes a color filter 2R (red (R) filter) and a waveguide 9 (light reflecting members 90 (90-1 and 90-2) are arranged on the outside of the waveguide 9).
  • the transmitted incident light L2 is photoelectrically converted to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the wiring layer 8-2 side.
  • the waveguide 9 has the first substrate 1000-1 and the first substrate 1000-1 in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the two substrates 1000-2.
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the light reflecting member 90 (90-1 and 90-2) is formed by being embedded outside the waveguide 9.
  • the light reflecting members 90 (90-1 and 90-2) may be embedded and formed so as to cover the outer periphery of the waveguide 9.
  • the material constituting the light reflecting member 90 (90-1 and 90-2) is, for example, a reflective metal, specifically tungsten or the like.
  • the first substrate 4000-1 and the second substrate 4000-2 are electrically connected by Cu-Cu bonding by connecting the wiring 40-1 and the wiring 40-2.
  • Cu-Cu bonding the first substrate 4000-1 (first pixel) and the second substrate 4000-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel of the first substrate (upper substrate) 4000-1 is a normal pixel (in FIG. 5, it is an R (red) pixel, but a G (green) pixel or a B (blue) pixel. ) Pixels may be used.
  • the second pixel of the second substrate 4000-2 (lower substrate) can be used as a pixel for a long wavelength (infrared or near infrared).
  • the contents described about the solid-state image sensor of the fourth embodiment (example 4 of the solid-state image sensor) according to the present technology are the first to third implementations according to the present technology described above, unless there is a particular technical contradiction. It can be applied to the solid-state image sensor of the embodiment and the solid-state image sensor of the fifth to seventh embodiments according to the present technology described later.
  • the solid-state imaging device of the fifth embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate emits incident light in order from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion is formed and a first wiring layer are provided, and the second substrate photoelectrically converts incident light with the second wiring layer in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit is formed is provided, one first pixel has one first photoelectric conversion unit, and one second pixel has one second photoelectric conversion unit.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, and at least one first pixel and at least one second pixel are electrically connected. It is a solid-state imaging device that is specifically connected.
  • an amplification transistor (AMP transistor) and / or a selection transistor (SEL transistor) is formed on the second substrate.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • the first signal charge generated by at least one first photoelectric conversion unit and the second signal charge generated by at least one second photoelectric conversion unit may go through the floating diffusion (FD) formed on the first substrate. Further, in the solid-state image sensor of the fifth embodiment according to the present technology, the first signal charge generated by at least one first photoelectric conversion unit and the second signal charge generated by at least one second photoelectric conversion unit are generated. The signal charge may pass through a floating diffusion (FD) formed on the second substrate.
  • FD floating diffusion
  • FIG. 6 is a cross-sectional view showing a configuration example (solid-state image sensor 5000) of the solid-state image sensor according to the fifth embodiment according to the present technology.
  • 7A is a plan view of the first wiring layer 8-1 of the first substrate 5000-1 included in the solid-state image sensor 5000
  • FIG. 7B is a solid-state image sensor 5000.
  • It is a plan view of the 2nd wiring layer 8-2 of the 2nd substrate 5000-2 provided
  • FIG. 7C is a figure which shows the circuit structure example of the solid-state image sensor 5000.
  • the solid-state image sensor of the fifth embodiment according to the present technology is not limited to the solid-state image sensor 5000.
  • the solid-state image sensor 5000 includes an on-chip lens 1, a first substrate 5000-1 and a second substrate 5000-2 in order from the light (light L1 and light L2) incident side.
  • P6 shown in FIG. 6 shows a joint portion between the first substrate 5000-1 and the second substrate 5000-2.
  • the first substrate 5000-1 has a color filter 2R (red (R) filter), a flattening film 3, light-shielding films 4-1 and 4-2, and an insulating film 5 (for example, oxidation) in this order from the light incident side.
  • a silicon (SiO 2 ) film), a first photoelectric conversion unit 7-1 (photodiode (PD) 7-1) formed on the first semiconductor substrate 6-1 and a first wiring layer 8-1 are provided. ing.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge.
  • the light-shielding films 4-1 and 4-2 are covered with the flattening film 3, and are opened between the first pixels so that light is incident on the first photoelectric conversion portion in a plan view from the light incident side. , Arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed on the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side.
  • the second substrate 5000-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) and the waveguide 9 to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the second wiring layer 8-2 side.
  • the waveguide 9 has a first substrate 5000-1 and a first substrate 5000-1 in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the two substrates 5000-2.
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first substrate 5000-1 and the second substrate 5000-2 are electrically connected by Cu-Cu bonding by connecting the wiring 40-1 and the wiring 40-2.
  • Cu-Cu bonding the first substrate 5000-1 (first pixel) and the second substrate 5000-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel of the first substrate (upper substrate) 5000-1 is a normal pixel (in FIG. 6, it is an R (red) pixel, but a G (green) pixel or a B (blue) pixel. ) Pixels may be used.
  • the second pixel of the second substrate 5000-2 (lower substrate) can be used as a pixel for a long wavelength (infrared or near infrared).
  • FIG. 7A is a plan layout view of the first wiring layer 8-1 of the first substrate 5000-1 included in the solid-state imaging device 5000, but for convenience, the first semiconductor substrate 6-
  • the first photoelectric conversion unit 72-1 (photodiode (PD) 72-1) and the first photoelectric conversion unit 73-1 (photodiode (PD) 73-1) formed in 1 are shown (first). It corresponds to two pixels.)
  • the wiring layout of the first wiring layer 8-1 is similar to that of a surface-illuminated image sensor (solid-state image sensor), that is, the first photoelectric conversion unit 72-1 (photodiode (PD) 72-1) and the first photoelectric conversion.
  • the incident light is transmitted (passed) through the region of the first wiring layer 8-1 corresponding to the region where the portion 73-1 (photodiode (PD) 73-1) is arranged, without routing the wiring. (A light path is formed).
  • the transfer signal line TG54 is connected to the transfer gates (TG: Transfer Gate) 82-1 and 83-1, and the reset signal line RST 52 is connected to the reset gate (RST: Reset Gate) 91.
  • FIG. 7B is a plan layout view of the second wiring layer 8-2 of the second substrate 5000-2 included in the solid-state image sensor 5000 as described above, but for convenience, the second semiconductor substrate 6-
  • the second photoelectric conversion unit 72-2 (photodiode (PD) 72-2) and the second photoelectric conversion unit 73-2 (photodiode (PD) 73-2) formed in No. 2 are shown (second). It corresponds to two pixels.)
  • the wiring layout of the second wiring layer 8-2 is similar to that of a surface-illuminated image sensor (solid-state image sensor), that is, the second photoelectric conversion unit 72-2 (photodiode (PD) 72-2) and the second photoelectric conversion.
  • the incident light is transmitted (passed) through the region of the second wiring layer 8-2 corresponding to the region where the portion 73-2 (photodiode (PD) 73-2) is arranged, without routing the wiring. (A light path is formed).
  • the transfer signal line TG54 is connected to the transfer gates (TG: Transfer Gate) 82-2 and 83-2, the reset signal line RST 52 is connected to the reset gate (RST: Reset Gate) 91, and the selection signal line SEL53 is It is connected to a selection transistor (SEL: SELTr) 93.
  • the reference reference numeral R3 is the circuit configuration of the first substrate 5000-1
  • the reference numerals R4 and R5 are the circuits of the second substrate 1000-2. This is a configuration example.
  • a floating diffusion (FD) 90 is configured in the circuit configuration R3 of the first substrate 5000-1.
  • photodiodes (PD) 72-2 and 73-2 and transfer gates (TG: Transfer Gate) 82-2 and 83-2 are configured.
  • the transfer gate (TG: Transfer Gate) 82-2 reads out the second signal charge that has been photoelectrically converted and accumulated by the photodiode (PD) 72-2, and the transfer gate (TG: Transfer Gate) 83-2 is a photo.
  • the second signal charge that has been photoelectrically converted and accumulated by the diode (PD) 73-2 is read out.
  • a reset gate (RST: ResetGate) 91 an amplification transistor (AMP: AMPTr) 92, and a selection transistor (SEL: SELTr) 93 are configured.
  • the selection transistor (SEL: SELTr) 93 is connected to, for example, a column signal processing circuit (not shown) via a vertical signal line 51.
  • the floating diffusion (FD) 90 formed on the first substrate 5000-1 includes a photodiode (PD) 72-1, a photodiode (PD) 73-1 (for two pixels of the first pixel), and a photodiode (for two pixels of the first pixel). It is shared by the PD) 72-2 and the photodiode (PD) 73-2 (two pixels of the second pixel) (thus, a total of four pixels).
  • the amplification transistor (AMP: AMPTr) 92 and the selection transistor (SEL: SELTr) 93 formed on the second substrate 5000-2 are also the photodiode (PD) 70-1 and the photodiode (PD) 71-1 (. It is shared by the photodiode (PD) 70-2 and the photodiode (PD) 71-2) (two pixels of the second pixel) (thus, a total of four pixels). .. Although not shown in FIG. 7 (c), it is due to the photodiodes (PD) 72-1 and 73-1 constituting the circuit configuration R3 of the first substrate 5000-1 (the signal charge is swept away).
  • the reset gate (RST: Reset Gate) is formed.
  • the area of the first photoelectric conversion unit included in the first substrate 5000-1 can be expanded. This makes it possible to improve the characteristics (for example, image quality, etc.) of the first pixel of the first substrate 5000-1.
  • the contents described about the solid-state image sensor of the fifth embodiment (example 5 of the solid-state image sensor) according to the present technology are the implementations of the first to fourth aspects of the present technology described above, unless there is a particular technical contradiction. It can be applied to the solid-state image sensor of the embodiment and the solid-state image sensor of the sixth to seventh embodiments according to the present technology described later.
  • the solid-state imaging device of the sixth embodiment includes a first substrate and a second substrate in order from the light incident side, and a plurality of first substrates are provided on the first substrate.
  • a first pixel region in which one pixel is arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate emits incident light in order from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion is formed and a first wiring layer are provided, and the second substrate photoelectrically converts incident light with the second wiring layer in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit is formed is provided, one first pixel has one first photoelectric conversion unit, and one second pixel has one second photoelectric conversion unit.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other, and at least one first pixel and at least one second pixel are electrically connected. It is a solid-state imaging device that is specifically connected.
  • the first signal charge generated by the plurality of first photoelectric conversion units and at least one second photoelectric conversion unit are used.
  • the generated second signal charge passes through the floating diffusion (FD) formed on the first substrate.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • FIG. 8 is a cross-sectional view showing a configuration example (solid-state image sensor 6000) of the solid-state image sensor of the sixth embodiment according to the present technology.
  • FIG. 9A shows the first semiconductor substrate 6-1 (the first semiconductor substrate 6-1 and the first wiring layer 8-1) of the first substrate 6000-1 included in the solid-state imaging device 6000.
  • FIG. 9B is a plan layout diagram of the interface), and
  • FIG. 9B is a second semiconductor substrate 6-2 (second semiconductor substrate 6-2 and second wiring layer 8) of the second substrate 6000-2 included in the solid-state imaging device 6000.
  • It is a plan layout view of (the interface with -2), and
  • FIG. 9C is a circuit diagram of a solid-state imaging device 6000.
  • the solid-state image sensor of the sixth embodiment according to the present technology is not limited to the solid-state image sensor 6000.
  • the solid-state image sensor 6000 includes an on-chip lens 1, a first substrate 6000-1, and a second substrate 6000-2 in order from the light (light L1 and light L2) incident side.
  • P7 shown in FIG. 8 shows a joint portion between the first substrate 6000-1 and the second substrate 6000-2.
  • the first substrate 6000-1 includes a color filter 2R (red (R) filter), a flattening film 3, light-shielding films 4-1 and 4-2, and an insulating film 5 (for example, oxidation) in order from the light incident side.
  • a silicon (SiO 2 ) film), a first photoelectric conversion unit 7-1 (photodiode (PD) 7-1) formed on the first semiconductor substrate 6-1 and a first wiring layer 8-1 are provided. ing.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge.
  • the light-shielding films 4-1 and 4-2 are covered with the flattening film 3, and are opened between the first pixels so that light is incident on the first photoelectric conversion portion in a plan view from the light incident side. , Arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed on the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side.
  • the second substrate 6000-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) and the waveguide 9 to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the second wiring layer 8-2 side.
  • the waveguide 9 has a first substrate 6000-1 and a first substrate 6000-1 in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the two substrates 6000-2.
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first substrate 6000-1 and the second substrate 6000-2 are electrically connected by Cu-Cu bonding by connecting the wiring 40-1 and the wiring 40-2.
  • Cu-Cu bonding the first substrate 6000-1 (first pixel) and the second substrate 6000-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel of the first substrate (upper substrate) 6000-1 is a normal pixel (in FIG. 8, it is an R (red) pixel, but a G (green) pixel or a B (blue) pixel. ) Pixels may be used.
  • the second pixel of the second substrate 6000-2 (lower substrate) can be used as a pixel for a long wavelength (infrared or near infrared).
  • FIG. 9A a first photoelectric conversion unit 74-1 (photodiode (PD) 74-1) and a first photoelectric conversion unit 75-1 (photodiode (photodiode)) formed on the first semiconductor substrate 6-1 are shown.
  • PD 75-1 the first photoelectric conversion unit 76-1 (photodiode (PD) 76-1) and the first photoelectric conversion unit 77-1 (photodiode (PD) 77-1) are shown (! It corresponds to 4 pixels of the first pixel.).
  • 1st photoelectric conversion unit 75-1 (photodiode (PD) 75-1), 1st photoelectric conversion unit 76-1 (photodiode (PD) 76-1) and 1st photoelectric conversion unit 77-1 (photodiode (photodiode (PD))
  • Each of PD) 77-1) is pixel-separated by element separation (P +) 99-1.
  • a transfer gate (transfer gate) TG84-1 is formed in which the photodiode 74-1 is photoelectrically converted and the accumulated first signal charge is read out, and the photodiode 75-1 is formed.
  • a transfer gate (transfer gate) TG85-1 that reads out the first signal charge accumulated by photoelectric conversion is formed, and a transfer gate (transfer gate) TG86 that reads out the first signal charge accumulated by photoelectric conversion by the photodiode 76-1 is formed.
  • -1 is formed, and a transfer gate (transfer gate) TG87-1 is formed in which the photodiode 77-1 is photoelectrically converted and the accumulated first signal charge is read out.
  • the first signal charge read from each transfer gate (transfer gate) of the transfer gate (transfer gate) TG84-1 to the transfer gate (transfer gate) TG87-1 is the first photoelectric conversion unit 74-1 (photodiode).
  • PD photoelectric conversion unit 74-1
  • 1st photoelectric conversion unit 75-1 photodiode (PD) 75-1
  • 1st photoelectric conversion unit 76-1 photodiode (PD) 76-1)
  • 1st photoelectric conversion It is converted into a voltage in the floating diffusion (FD) 50 shared by the four pixels of the first pixel corresponding to the part 77-1 (photodiode (PD) 77-1).
  • FIG. 9B shows a second photoelectric conversion unit 74-2 (photodiode (PD) 74-2) formed on the second semiconductor substrate 6-2 (one pixel of the second pixel). Corresponds to.). Element separation (P +) 99-2 is arranged around the outer periphery of the second photoelectric conversion unit 74-2 (photodiode (PD) 74-2), and is adjacent to the second photoelectric conversion unit 74-2 (photodiode (PD) 74-2) by the element separation (P +) 99-2. The pixels are separated from two pixels (not shown). Then, as shown in FIG.
  • a transfer gate (transfer gate) TG84-2 is formed, which reads out the second signal charge accumulated by photoelectric conversion of the photodiode 74-2.
  • the second signal charge read from the transfer gate (transfer gate) TG84-2 is converted into a voltage at the floating diffusion (FD) 50.
  • the floating diffusion (FD) 50 includes the first photoelectric conversion unit 74-1 (photodiode (PD) 74-1) and the first photoelectric conversion unit 75-1 (photodiode (PD) 75-1) described above.
  • 1st photoelectric conversion unit 76-1 (photodiode (PD) 76-1) and 1st photoelectric conversion unit 77-1 (photodiode (PD) 77-1) for 4 pixels of the first pixel
  • 2nd It is shared by the photoelectric conversion unit 74-2 (photodiode (PD) 74-2) (for one pixel of the second pixel) (thus, for a total of five pixels).
  • the first substrate 6000-1 has four pixels (four photodiodes), whereas the second substrate 6000-2 has four photodiodes. Although it has only one pixel (one photodiode), the second photoelectric of the second substrate 6000-2 is within the range corresponding to the size of the region of four pixels of the first substrate 6000-1.
  • the converter (photodiode) can be designed freely. That is, the area of the second photoelectric conversion unit (photodiode) can be freely changed within the range of four pixels of the first substrate 6000-1, and the number of second photoelectric conversion units (photodiodes) can be changed. The number of pixels of the second pixel) can be freely changed.
  • FIG. 9A and 9B the first substrate 6000-1 has four pixels (four photodiodes), whereas the second substrate 6000-2 has four photodiodes. Although it has only one pixel (one photodiode), the second photoelectric of the second substrate 6000-2 is within the range corresponding to the size of the region of four pixels of
  • the second photoelectric conversion unit (photodiode) is formed for only one pixel, but for example, it is the same as the four pixels of the first photoelectric conversion unit shown in FIG. 9A.
  • the second photoelectric conversion part (photodiode) may be formed by four pixels (four photodiodes), or the second photoelectric conversion part (photodiode) may be formed by three pixels (three photodiodes).
  • the second photoelectric conversion unit (photodiode) may be formed by two pixels (two photodiodes).
  • reference numeral R6 is the circuit configuration of the first substrate 6000-1
  • reference numeral R7 is the circuit configuration example of the second substrate 6000-2. Is.
  • the selection transistor (SEL: SELTr) 93 is connected to, for example, a column signal processing circuit (not shown) via a vertical signal line 51.
  • a photodiode (PD) 74-2 and a transfer gate (TG: Transfer Gate) 84-2 are configured.
  • the floating diffusion (FD) 50 formed on the first substrate 6000-1 includes photodiodes (PD) 74-1, 75-1, 76-1 and 77-1 (for 4 pixels of the first pixel), and It is shared by the photodiode (PD) 74-2 (one pixel of the second pixel) (thus, a total of five pixels).
  • the amplification transistor (AMP: AMPTr) 92 and the selection transistor (SEL: SELTr) 93 formed on the first substrate 6000-1 are also photodiodes (PD) 74-1, 75-1, 76-1 and 77. It is shared by -1 (4 pixels of the 1st pixel) and the photodiode (PD) 74-2 (1 pixel of the 2nd pixel) (hence, 5 pixels in total).
  • a reset gate (RST: Reset Gate) for the photodiode (PD) 74-2 constituting the circuit configuration R7 of the second substrate 6000-2 is provided. It is formed.
  • the contents described about the solid-state image sensor of the sixth embodiment (example 6 of the solid-state image sensor) according to the present technology are the implementations of the first to fifth aspects of the present technology described above unless there is a particular technical contradiction. It can be applied to the solid-state image sensor of the embodiment and the solid-state image sensor of the seventh embodiment according to the present technology described later.
  • the solid-state imaging device of the seventh embodiment includes a first substrate, a second substrate, and a third substrate in order from the light incident side, and the first substrate , A first pixel region in which a plurality of first pixels are arranged is formed, a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate, and the first substrate is sequentially arranged from the light incident side.
  • a first semiconductor substrate on which a first photoelectric conversion unit for photoelectric conversion of incident light is formed and a first wiring layer are provided, and the second substrate has a second wiring layer and incident light in order from the light incident side.
  • a second semiconductor substrate on which a second photoelectric conversion unit for photoelectric conversion is formed, and a third substrate includes a third wiring layer and a third semiconductor substrate in order from the light incident side, and one first pixel.
  • Has one first photoelectric conversion unit, one second pixel has one second photoelectric conversion unit, and the first substrate and the second substrate are the first wiring layer and the second wiring layer.
  • At least one first pixel and at least one second pixel are electrically connected, and the second substrate and the third substrate are connected to the second semiconductor substrate and the third wiring. It is a solid-state imaging device in which a second substrate and a third substrate are electrically connected by being bonded to each other with the layers facing each other.
  • the fact that at least one first pixel and at least one second pixel are electrically connected means that the wiring formed in the first wiring layer (sometimes referred to as the first wiring) and the second wiring. It means that the wiring (sometimes referred to as a second wiring) formed in the wiring layer is directly or indirectly connected. Specifically, the first wiring formed of the conductive material and the second wiring formed of the conductive material are directly or indirectly connected. Specific examples of the conductive material include metals such as copper (Cu).
  • At least one first pixel and at least one second pixel are electrically connected by Cu-Cu bonding as described above.
  • all the pixels of the plurality of first pixels and all the pixels of the plurality of second pixels may be electrically connected by Cu-Cu bonding.
  • the Cu-Cu junction may be used to connect the first substrate and the second substrate in a region outside the first pixel region and / or a region outside the second pixel region.
  • a through electrode penetrating the second semiconductor substrate may be formed, and the second substrate and the second substrate may be formed via the through electrode. 3
  • the substrate may be electrically connected.
  • the second substrate and the third substrate may be electrically connected by Cu-Cu bonding. ..
  • a circuit region may be formed on the third substrate.
  • FIG. 10 is a cross-sectional view showing a configuration example (solid-state image sensor 7000) of the solid-state image sensor according to the seventh embodiment according to the present technology.
  • FIG. 10A is a peripheral region of the solid-state image sensor 7000. It is sectional drawing which shows the structural example of the circuit area (referred to as solid-state image sensor 7000a), and FIG. It is sectional drawing which shows the structural example.
  • the solid-state image sensor of the seventh embodiment according to the present technology is not limited to the solid-state image sensor 7000.
  • the solid-state image sensor 7000 (solid-state image sensor 7000b) includes on-chip lenses 1-1 and 1-2, a first substrate 7000b-1 and a second substrate 7000b-2 in order from the light (light L1 and light L2) incident side. And a third substrate 7000b-3.
  • X3 shown in FIG. 10B indicates a first pixel region
  • X4 indicates a second pixel region.
  • Y3 shown in FIG. 10B indicates a circuit area.
  • P9 shown in FIG. 10B shows a joint portion between the first substrate 7000b-1 and the second substrate 7000b-2
  • P11 is a junction between the second substrate 7000b-2 and the third substrate 7000b-3. Shows the part.
  • the first substrate 7000b-1 includes a color filter 2R (red (R) filter), a color filter 2G (green (G) filter), a flattening film 3, and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • a color filter 2R red (R) filter
  • a color filter 2G green (G) filter
  • a flattening film 3 and a light-shielding film 4-1 and 4 in this order from the light incident side.
  • an insulating film 5 for example, a silicon oxide (SiO 2 ) film
  • a first photoelectric conversion unit 7-1 photodiode (PD) 7 formed on the first semiconductor substrate 6-1.
  • a first photoelectric conversion unit 7-3 (photodiode (PD) 7-3), and a first wiring layer 8-1 are provided.
  • the photodiode 7-1 photoelectrically converts the incident light L1 transmitted through the color filter 2R (red (R) filter) to generate and store the first signal charge
  • the photodiode 7-3 uses the color filter 2G (color filter 2G).
  • the incident light L1 transmitted through the green (G) filter) is photoelectrically converted to generate and store a first signal charge.
  • the light-shielding films 4-1 and 4-2 and 4-3 are covered with the flattening film 3 so that light is incident on the first photoelectric conversion portion between the first pixels in a plan view from the light incident side. It is opened and arranged in a grid pattern.
  • the first wiring layer 8-1 includes wirings 40-1 and 41-1, vias 42-1 connecting wirings 40-1 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1. On the surface of the first semiconductor substrate 6-1 on the first wiring layer 8-1 side, a transfer gate (transfer gate) TG10-1 for reading the first signal charge accumulated by the photodiode 7-1 is formed, and a photo A transfer gate (transfer gate) TG10-3 for reading the first signal charge accumulated by the diode 7-3 is formed.
  • the second substrate 7000b-2 has a second wiring layer 8-2 and a second photoelectric conversion unit 7-2 (photodiode (PD) 7-) formed on the second semiconductor substrate 6-2 in this order from the light incident side. 2) and a second photoelectric conversion unit 7-4 (photodiode (PD) 7-4) are provided.
  • the photodiode 7-2 photoelectrically converts the incident light L2 transmitted through the color filter 2R (red (R) filter) to generate and store a second signal charge
  • the photodiode 7-4 uses the color filter 2G (color filter 2G).
  • the incident light L2 transmitted through the green (G) filter) is photoelectrically converted to generate and store a second signal charge.
  • the second wiring layer 8-2 includes wirings 40-2 and 41-2, vias 42-2 connecting wirings 40-2 and wirings 41-2, or wirings 41-2s, and an interlayer insulating film 11-. It is composed of 2.
  • a transfer gate (transfer gate) TG10-2 for reading the second signal charge accumulated by the photodiode 7-2 is formed on the back surface of the second semiconductor substrate 6-2 on the first wiring layer 8-1 side.
  • a transfer gate (transfer gate) TG10-4 for reading the second signal charge accumulated by the diode 7-4 is formed.
  • the third substrate 7000b-3 includes a third wiring layer 8-3 and a semiconductor substrate 6-3 in this order from the light incident side.
  • a totangista Tr3 for a circuit is formed on the back surface of the semiconductor substrate 6-3 on the third wiring layer 8-3 side, and a logic circuit or the like is formed by the totangista Tr3 and the wiring 41-3 formed on the third wiring layer.
  • a circuit region Y3 is formed on the third substrate 7000b-3.
  • the solid-state image sensor 7000 is compared with a solid-state image sensor having a two-layer structure (composed of a sensor board and a logic board) by using, for example, a third substrate 7000b-3 having a logic circuit in the third layer. Therefore, almost the same performance can be obtained.
  • the waveguides 9-1 and 9-2 are located in a region opened without routing the wiring 41-1 of the first wiring layer 8-1 and the wiring 41-2 of the second wiring layer 8-2. It is formed so as to straddle the substrate 7000b-1 and the second substrate 7000b-2. By forming a waveguide, attenuation and / or reflection of long-wavelength light is suppressed, and the second photoelectric conversion unit 7-2 (photodiode 7-2) and the second photoelectric conversion unit 7-4 (photodiode 7-) are suppressed.
  • the incident light L2 can reach 2).
  • the material forming the waveguide may be any material having a refractive index larger than that of the materials constituting the interlayer insulating films 11-1 and 11-2, for example.
  • the first pixel and the second pixel corresponding to the color filter 2R are the wiring 40-1 and the wiring 40-2. By being connected, they are electrically connected by a Cu-Cu junction. By this Cu-Cu bonding, the first substrate 7000b-1 (first pixel) and the second substrate 7000b-2 (second pixel) can be driven in synchronization with the timing.
  • the first pixel and the second pixel corresponding to the color filter 2G are not electrically connected by a Cu—Cu junction.
  • the R pixel is Cu-Cu bonded to the first substrate 7000b-1 and the second substrate 7000b-2, and drives the first pixel and the second pixel to turn on the transfer gate (TG) at the same time. Therefore, the sensitivity can be increased by adding up the long wavelength signals.
  • the G pixel (or B pixel) has a wiring layout that does not join Cu-Cu, and is connected to different pixel control lines, the first pixel is for the G pixel (or B pixel), and the second pixel is near infrared. It is possible to take out a pixel signal by a photodiode for use (for infrared rays) and take out the outputs of RGB pixels and near-infrared (infrared) pixels, respectively.
  • the solid-state image sensor 7000 (solid-state image sensor 7000a) includes a first substrate 7000a-1, a second substrate 7000a-2, and a third substrate 7000a-3 in this order from the light (light L1 and light L2) incident side.
  • Y2 shown in FIG. 10A indicates a circuit area.
  • P8 shown in FIG. 10A shows a joint portion between the first substrate 7000a-1 and the second substrate 7000a-2, and P10 is a junction between the second substrate 7000a-2 and the third substrate 7000a-3. Shows the part.
  • the first substrate 7000a-1 includes a flattening film 3, a light-shielding film 4, an insulating film 5 (for example, a silicon oxide (SiO 2 ) film), and a first semiconductor substrate 6-1 in this order from the light incident side. It includes a first wiring layer 8-1.
  • the light-shielding film 4 is covered with the flattening film 3 and is arranged in a solid shape so as to cover the entire surface (back surface) of the first semiconductor substrate 6-1 on the incident side in a plan view from the light incident side.
  • the first wiring layer 8-1 includes wirings 40-3 and 41-1, vias 42-1 connecting wirings 40-3 and wirings 41-1 or wirings 41-1s, and an interlayer insulating film 11-. It is composed of 1.
  • the second substrate 7000a-2 includes a second wiring layer 8-2 and a second semiconductor substrate 6-2 in this order from the light incident side.
  • the second wiring layer 8-2 is an interlayer insulation between the wiring 40-4 and 41-2, the via 42-2 connecting the wiring 40-4 and the wiring 41-2, or the wiring 41-2, and the pad 43. It is composed of a film 11-2.
  • a through electrode 45 that penetrates the semiconductor substrate is formed on the second semiconductor substrate 6-2.
  • the third substrate 7000a-3 includes a third wiring layer 8-3 and a semiconductor substrate 6-3 in this order from the light incident side.
  • a totangista Tr4 for a circuit is formed on the back surface of the semiconductor substrate 6-3 on the third wiring layer 8-3 side, and a logic circuit or the like is formed by the totangista Tr2 and the wiring 41-3 formed on the third wiring layer.
  • a circuit region Y2 is formed on the third substrate 7000a-3.
  • the wiring 41-3 and the wiring 41-2 are embedded in the third wiring layer 8-2, and the pad 44 and the second wiring layer 8-2. It is electrically connected by a through electrode 45 via a pad 43 embedded in.
  • the contents described about the solid-state image sensor of the seventh embodiment are the implementations of the first to sixth aspects of the present technology described above, unless there is a particular technical contradiction. It can be applied to a solid-state image sensor of the form.
  • the electronic device of the eighth embodiment according to the present technology is equipped with the solid-state image sensor of any one of the first to seventh embodiments according to the present technology. It is an electronic device.
  • FIG. 11 is a diagram showing an example of using the solid-state image sensor of the first to seventh embodiments according to the present technology as an image sensor (solid-state image sensor).
  • the solid-state image pickup device of the first to seventh embodiments described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below. it can. That is, as shown in FIG. 11, for example, the field of appreciation for taking an image used for appreciation, the field of transportation, the field of home appliances, the field of medical / healthcare, the field of security, the field of beauty, and sports.
  • the electronic device of the eighth embodiment described above is the solid-state image sensor of any one of the first to seventh embodiments. Can be done.
  • the first to seventh implementations are applied to devices for taking images to be used for appreciation, such as digital cameras, smartphones, and mobile phones with a camera function.
  • the solid-state imaging device of any one of the embodiments can be used.
  • in-vehicle sensors that photograph the front, rear, surroundings, inside of a vehicle, etc., and monitor traveling vehicles and roads for safe driving such as automatic stop and recognition of the driver's condition.
  • the solid-state image sensor of any one of the first to seventh embodiments is used as a device used for traffic such as a surveillance camera and a distance measuring sensor for measuring distance between vehicles. be able to.
  • devices used in home appliances such as television receivers, refrigerators, and air conditioners in order to photograph a user's gesture and operate the device according to the gesture.
  • the solid-state imaging device of any one of the seventh embodiments can be used.
  • the first to seventh implementations are applied to devices used for medical care and healthcare, such as endoscopes and devices that perform angiography by receiving infrared light.
  • the solid-state imaging device of any one of the embodiments can be used.
  • a device used for security such as a surveillance camera for crime prevention and a camera for personal authentication is used as a solid body of any one of the first to seventh embodiments.
  • An image sensor can be used.
  • a skin measuring device for photographing the skin for example, a microscope for photographing the scalp, and other devices used for cosmetology are equipped with any one of the first to seventh embodiments.
  • a solid-state imaging device of the form can be used.
  • a solid-state image sensor In the field of sports, for example, a solid-state image sensor according to any one of the first to seventh embodiments is used as a device used for sports such as an action camera or a wearable camera for sports applications. Can be used.
  • a device used for agriculture such as a camera for monitoring the state of a field or a crop is subjected to solid-state imaging of any one of the first to seventh embodiments.
  • the device can be used.
  • the solid-state image sensor of any one of the first to seventh embodiments described above is used.
  • the solid-state imaging device 101 can be applied to all types of electronic devices having an imaging function, such as a camera system such as a digital still camera or a video camera, or a mobile phone having an imaging function.
  • FIG. 12 shows a schematic configuration of the electronic device 102 (camera) as an example.
  • the electronic device 102 is, for example, a video camera capable of capturing a still image or a moving image, and drives a solid-state image sensor 101, an optical system (optical lens) 310, a shutter device 311 and a solid-state image sensor 101 and a shutter device 311. It has a driving unit 313 and a signal processing unit 312.
  • the optical system 310 guides the image light (incident light) from the subject to the pixel portion 101a of the solid-state image sensor 101.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls the light irradiation period and the light blocking period of the solid-state image sensor 101.
  • the drive unit 313 controls the transfer operation of the solid-state image sensor 101 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various signal processing on the signal output from the solid-state image sensor 101.
  • the video signal Dout after signal processing is stored in a storage medium such as a memory, or is output to a monitor or the like.
  • FIG. 13 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 13 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for ablation of tissue, incision, sealing of blood vessels, and the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • Recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 14 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the endoscope 11100, the camera head 11102 (imaging unit 11402), and the like among the configurations described above.
  • the solid-state image sensor according to the present technology can be applied to the image pickup unit 10402.
  • the endoscopic surgery system has been described as an example, but the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any kind of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 15 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microprocessor 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 16 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the image pickup unit 12101 provided on the front nose and the image pickup section 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 16 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microprocessor 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microprocessor 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure (the present technology) can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the solid-state image sensor according to the present technology can be applied to the image pickup unit 12031.
  • a first substrate and a second substrate are provided in this order from the light incident side.
  • a first pixel region in which a plurality of first pixels are arranged is formed on the first substrate.
  • a second pixel region in which a plurality of second pixels are arranged is formed on the second substrate.
  • the first substrate includes a first semiconductor substrate on which a first photoelectric conversion unit for photoelectrically converting incident light is formed, and a first wiring layer, in order from the light incident side.
  • the second substrate includes a second wiring layer and a second semiconductor substrate on which a second photoelectric conversion unit for photoelectric conversion of the incident light is formed, in this order from the light incident side.
  • One said first pixel has one said first photoelectric conversion part.
  • One said second pixel has one said second photoelectric conversion part.
  • the first substrate and the second substrate are bonded to each other with the first wiring layer and the second wiring layer facing each other.
  • a solid-state image sensor in which at least one of the first pixels and at least one of the second pixels are electrically connected.
  • the third substrate includes a third wiring layer and a third semiconductor substrate in order from the light incident side.
  • the second substrate and the third substrate are bonded to each other with the second semiconductor substrate and the third wiring layer facing each other, and the second substrate and the third substrate are electrically connected to each other.
  • the solid-state image sensor according to any one of [1] to [10].
  • [12] The solid-state image sensor according to [11], wherein a through electrode penetrating the second semiconductor substrate is formed, and the second substrate and the third substrate are electrically connected via the through electrode. ..
  • a floating diffusion (1) in which a first signal charge generated by at least one first photoelectric conversion unit and a second signal charge generated by at least one second photoelectric conversion unit are formed on the first substrate.
  • the solid-state image sensor according to any one of [1] to [13] via FD).
  • a floating diffusion (1) in which a first signal charge generated by at least one first photoelectric conversion unit and a second signal charge generated by at least one second photoelectric conversion unit are formed on the second substrate.
  • Solid-state image sensor 1000-1, 2000-1, 3000a-1, 3000b-1, 4000-1, 5000-1, 6000-1, 7000a-1, 7000b-1, ... 1st substrate, 1000-2, 2000-2, 3000a-2, 3000b-2, 4000-2, 5000-2, 6000-2, 7000a-2, 7000b-2 ... 2nd substrate, 7000a-3, 7000b-3 ... Third substrate, L1, L2 ... Incident light (light).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

固体撮像装置の更なる高画質化を実現することができる固体撮像装置を提供すること。 光入射側から順に、第1基板と、第2基板と、を備え、該第1基板に、複数の第1画素が配列された第1画素領域が形成され、該第2基板に、複数の第2画素が配列された第2画素領域が形成され、該第1基板が、光入射側から順に入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、該第2基板が、光入射側から順に第2配線層と、該入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの該第1画素は1つの該第1光電変換部を有し、1つの該第2画素は1つの該第2光電変換部を有し、該第1基板と該第2基板とが、該第1配線層と該第2配線層とを向き合わせて貼り合わされて、少なくとも1つの該第1画素と、少なくとも1つの該第2画素とが電気的に接続されている、固体撮像装置を提供する。

Description

固体撮像装置及び電子機器
 本技術は、固体撮像装置及び電子機器に関する。
 近年、デジタルカメラは、益々、普及が進んでおり、その中心部品である固体撮像装置(イメージセンサ)の需要はますます高まっている。そのため、固体撮像装置の性能面として、高画質化を実現するための技術開発が盛んに行われている。例えば、容易に、多様な光電変換出力を得ることができる撮像素子に関する技術が提案されている(特許文献1を参照。)。
特開2013-70030号
 しかしながら、特許文献1で提案された技術では、固体撮像装置の更なる高画質化を図れないおそれがある。
 そこで、本技術は、このような状況に鑑みてなされたものであり、固体撮像装置の更なる高画質化を実現することができる固体撮像装置、及びその固体撮像装置が搭載された電子機器を提供することを主目的とする。
 本発明者は、上述の目的を解決するために鋭意研究を行った結果、固体撮像装置の更なる高画質化の実現に成功し、本技術を完成するに至った。
 すなわち、本技術では、
 光入射側から順に、第1基板と、第2基板と、を備え、
 該第1基板に、複数の第1画素が配列された第1画素領域が形成され、
 該第2基板に、複数の第2画素が配列された第2画素領域が形成され、
 該第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、
 該第2基板が、光入射側から順に、第2配線層と、該入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、
 1つの該第1画素は、1つの該第1光電変換部を有し、
 1つの該第2画素は、1つの該第2光電変換部を有し、
 該第1基板と該第2基板とが、該第1配線層と該第2配線層とを向き合わせて貼り合わされて、
 少なくとも1つの該第1画素と、少なくとも1つの該第2画素とが、電気的に接続されている、固体撮像装置を提供する。
 本技術に係る固体撮像装置において、
 少なくとも1つの前記第1画素と、少なくとも1つの前記第2画素とが、Cu-Cu接合により、電気的に接続されていてもよい。
 本技術に係る固体撮像装置において、
 前記複数の第1画素の全ての画素と、前記複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。
 本技術に係る固体撮像装置において、
 前記第1光電変換部と前記第2光電変換部とが、前記入射光の互いに異なる波長域成分を光電変換してもよい。
 本技術に係る固体撮像装置において、
 前記第1光電変換部が、前記入射光の可視光の波長域成分を光電変換しもよく、
 前記第2光電変換部が、前記入射光の赤外光の波長域成分を光電変換してもよい。
 本技術に係る固体撮像装置において、
 前記第1配線層及び前記第2配線層に、前記入射光が透過する光路が形成されていてもよい。
 本技術に係る固体撮像装置において、
 前記光路に、導波路が形成されていてもよい。
 本技術に係る固体撮像装置において、
 前記導波路の外側に、光反射部材が配されていてもよい。
 本技術に係る固体撮像装置において、
 前記第2基板に回路領域が形成されていてもよい。
 本技術に係る固体撮像装置において、
 前記第1基板に回路領域が形成されていてもよい。
 本技術に係る固体撮像装置が第3基板を更に備えてもよく、
 該第3基板が、光入射側から順に、第3配線層と、第3半導体基板と、を備えてもよく、
 前記第2基板と該第3基板とが、前記第2半導体基板と該第3配線層とを向き合わせて貼り合わされて、前記第2基板と該第3基板とが、電気的に接続されていてもよい。
 本技術に係る固体撮像装置において、
 前記第2半導体基板を貫通する貫通電極が形成されていてもよく、該貫通電極を介して、前記第2基板と該第3基板とが、電気的に接続されていてもよい。
 本技術に係る固体撮像装置において、
 前記第3基板に回路領域が形成されていてもよい。
 本技術に係る固体撮像装置において、
 少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第1基板に形成されたフローティングディフュージョン(FD)を経由してもよい。
 本技術に係る固体撮像装置において、
 少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第2基板に形成されたフローティングディフュージョン(FD)を経由してもよい。
 本技術に係る固体撮像装置において、
 少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第1基板に形成された少なくとも1種の画素トランジスタを共有してもよい。
 本技術に係る固体撮像装置において、
 少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第2基板に形成された少なくとも1種の画素トランジスタを共有してもよい。
 また、本技術では、本技術に係る固体撮像装置が搭載された、電子機器を提供する。
 本技術によれば、固体撮像装置の更なる高画質化を実現することができる。なお、ここに記載された効果は、必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した第1の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第1の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第2の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第3の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第4の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第5の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第5の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第6の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第6の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第7の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第1~第7の実施形態の固体撮像装置の使用例を示す図である。 本技術を適用した第8の実施形態に係る電子機器の一例の機能ブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための好適な形態について説明する。以下に説明する実施形態は、本技術の代表的な実施形態の一例を示したものであり、これにより本技術の範囲が狭く解釈されることはない。なお、特に断りがない限り、図面において、「上」とは図中の上方向又は上側を意味し、「下」とは、図中の下方向又は下側を意味し、「左」とは図中の左方向又は左側を意味し、「右」とは図中の右方向又は右側を意味する。また、図面については、同一又は同等の要素又は部材には同一の符号を付し、重複する説明は省略する。
 説明は以下の順序で行う。
 1.本技術の概要
 2.第1の実施形態(固体撮像装置の例1)
 3.第2の実施形態(固体撮像装置の例2)
 4.第3の実施形態(固体撮像装置の例3)
 5.第4の実施形態(固体撮像装置の例4)
 6.第5の実施形態(固体撮像装置の例5)
 7.第6の実施形態(固体撮像装置の例6)
 8.第7の実施形態(固体撮像装置の例7)
 9.第8の実施形態(電子機器の例)
 10.本技術を適用した固体撮像装置の使用例
 11.内視鏡手術システムへの応用例
 12.移動体への応用例
<1.本技術の概要>
 まず、本技術の概要について説明をする。
 固体撮像装置(イメージセンサ)おいては、シリコン(Si)のバンドギャップは1.12eVであるので、長波長の感度は低い。したがって、長波長の感度向上を図る場合には、シリコン(Si)の膜厚を厚くする必要がある。
 しかし、シリコン(Si)厚を厚くしていくと、素子分離用のインプラント等を打つにはレジストのアスペクト比が足りずに、レジスト形成をすることが困難である場合がある。なお、ハードマスクを用いた手法も考えられるが、プロセス加工の安定性の細心の注意をする必要性が生じる場合がある。
 固体撮像装置の上下にフォトダイオード(PD)を形成して、長波長側の感度を上げる技術があるが、この技術では、入射光は配線層を通るので下側のフォトダイオード(PD)に到達する前に入射光が減衰及び/又は反射してしまうおそれある。また、この技術では、貫通電極を用いているので、上下画素でタイミングの同期を図ることができない。さらに、貫通電極を用いると、貫通電極を導入する面積の確保も必要であり、固体撮像装置のコンパクト化を図れないおそれがある。
 本技術は、以上のような状況を鑑みてなされたものである。本技術は、第1基板(例えば、上側チップ)として、裏面型センサの基板(例えば、光入射側から順に、光電変換部、配線層が配された基板)と、第2基板(例えば下側チップ)として、表面型センサの基板(例えば、光入射側から順に、配線層、光電変換部が配された基板)とを接合(例えば、Cu-Cu接合)して貼り合わせる。
 本技術の第一の側面としては、第1基板の画素を、通常のR/G/B画素として使用し、第2基板の画素を、長波長の光電変換部(例えばフォトダイオード(PD))を形成した画素構造とする。本技術の第二の側面としては、配線は、表面型センサの配線レイアウトのように開口部分を開けるように、画素制御線/垂直信号線(VSL)を配置する。本技術の第三の側面としては、第1基板と第2基板との配線接続をCu-Cu接続(Cu-Cu接合)にする。このCu-Cu接続(Cu-Cu接合)により、第1基板(例えば、上側チップ)と第2基板(例えば、下側チップ)とのタイミングの同期を取って駆動することが可能である。本技術の第四の側面としては、第1基板と第2基板との接合部と、第1基板が備える第1配線層及び第2基板が備える第2配線層には、導波路を第1基板と第2基板とをまたぐように形成する。この導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2基板が備える光電変換部(例えばフォトダイオード(PD))に光を到達させることができる。なお、本技術に係る固体撮像装置の製造方法(プロセス加工)においては、裏面型/表面型センサの公知の製造技術、公知の積層プロセス技術、公知の接合技術(Cu-Cu接合技術)等が用いられ得る。
 以下に、本技術に係る実施の形態について詳細に説明をする。
<2.第1の実施形態(固体撮像装置の例1)>
 本技術に係る第1の実施形態(固体撮像装置の例1)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第1の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第1の実施形態(固体撮像装置の例1)の固体撮像装置においては、少なくとも1つの第1画素と少なくとも1つの第2画素とが増幅トランジスタ(AMPトランジスタ)及び/又は選択トランジスタ(SELトランジスタ)とを共有してもよい。本技術に係る第1の実施形態(固体撮像装置の例1)の固体撮像装置においては、少なくとも1つの第1画素と少なくとも1つの第2画素とが共有する増幅トランジスタ(AMPトランジスタ)及び/又は選択トランジスタ(SELトランジスタ)が、第1基板に形成されていてもよいし、第2基板に形成されていてもよい。
 本技術に係る第1の実施形態の固体撮像装置においては、第1光電変換部と第2光電変換部とが、入射光の互いに異なる波長域成分を光電変換してもよい。例えば、第1光電変換部が、入射光の可視光(例えば、B光、G光、R光等)の波長域成分を光電変換して、第2光電変換部が、入射光の赤外光の波長域成分を光電変換することが挙げられる。
 本技術に係る第1の実施形態の固体撮像装置においては、第1配線層及び第2配線層に、入射光が透過する(通過する)光路が形成されていてよく、光路には、例えば導波路が形成されていてもよい。
 本技術に係る第1の実施形態の固体撮像装置においては、少なくとも1つの第1光電変換部によって生成された第1信号電荷と、少なくとも1つの第2光電変換部によって生成された第2信号電荷とが、第1基板に形成されたフローティングディフュージョン(FD)を経由してもよい。また、本技術に係る第1の実施形態の固体撮像装置においては、少なくとも1つの第1光電変換部によって生成された第1信号電荷と、少なくとも1つの第2光電変換部によって生成された第2信号電荷とが、第2基板に形成されたフローティングディフュージョン(FD)を経由してもよい。
 本技術に係る第1の実施形態の固体撮像装置について、図1及び図2を用いて説明をする。図1は、本技術に係る第1の実施形態の固体撮像装置の構成例(固体撮像装置1000)を示す断面図である。図2中における、図2(a)は、固体撮像装置1000が備える第1基板1000-1の第1配線層8-1の平面レイアウト図であり、図2(b)は、固体撮像装置1000の回路構成例を示す図である。ところで、当然のことながら、本技術に係る第1の実施形態の固体撮像装置は、固体撮像装置1000に限定されることはない。
 まず、図1を用いて説明をする。
 固体撮像装置1000は、光(光L1及び光L2)入射側から順に、オンチップレンズ1と、第1基板1000-1と第2基板1000-2とを備える。図1に示されるP1は、第1基板1000-1と第2基板1000-2との接合部を示す。
 第1基板1000-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように開口されて、格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されている。
 第2基板1000-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第2配線層8-2側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されている。
 導波路9は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板1000-1と第2基板1000-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板1000-1と第2基板1000-2とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板1000-1(第1画素)と第2基板1000-2(第2画素)とはタイミングの同期を取って駆動することが可能である。
 固体撮像装置1000によれば、第1基板(上側基板)1000-1の第1画素は通常の画素(図1においては、R(レッド)画素であるが、G(グリーン)画素又はB(ブルー)画素でもよい。)として使用し、第2基板1000-2(下側基板)の第2画素は、長波長(赤外又は近赤外)用の画素として使用することができる。
 図2を用いて説明をする。図2(a)は、上述したように、固体撮像装置1000が備える第1基板1000-1の第1配線層8-1の平面レイアウト図であるが、便宜的に、第1半導体基板6-1に形成された第1光電変換部70-1(フォトダイオード(PD)70-1)及び第1光電変換部71-1(フォトダイオード(PD)71-1)が示されている(第1画素の2画素分に相当する。)。第1配線層8-1の配線レイアウトは、表面照射型のイメージセンサ(固体撮像装置)のように、第1光電変換部70-1(フォトダイオード(PD)70-1)及び第1光電変換部71-1(フォトダイオード(PD)71-1)が配される領域に対応する第1配線層8-1の領域には配線を引き回さずに、入射光が透過(通過)するように開口されている(光路が形成されている。)。転送信号線TG54は、トランスファゲート(TG:Transfer Gate)80-1及び81-1に接続され、リセット信号線RST52は、リセットゲート(RST:Reset Gate)91に接続され、選択信号線SEL53は、選択トランジスタ(SEL:SELTr)93に接続されている。
 図2(b)に示される固体撮像装置1000の回路構成例において、参照符号R1は、第1基板1000-1の回路構成であり、参照符号R2は、第2基板1000-2の回路構成例である。
 第1基板1000-1の回路構成R1においては、フォトダイオード(PD)70-1及び71-1と、トランスファゲート(TG:Transfer Gate)80-1及び81-1が構成されている。トランスファゲート(TG:Transfer Gate)80-1は、フォトダイオード(PD)70-1によって光電変換されて蓄積された第1信号電荷を読み出し、トランスファゲート(TG:Transfer Gate)81-1は、フォトダイオード(PD)71-1によって光電変換されて蓄積された第1信号電荷を読み出す。また、第1基板1000-1の回路構成R1においては、フローティングディフュージョン(FD)90と、リセットゲート(RST:Reset Gate)91と、増幅トランジスタ(AMP:AMPTr)92と、選択トランジスタ(SEL:SELTr)93とが構成されている。選択トランジスタ(SEL:SELTr)93は、垂直信号線51を介して、例えばカラム信号処理回路(不図示)に接続されている。
 第2基板1000-2の回路構成R2においては、フォトダイオード(PD)70-2及び71-2と、トランスファゲート(TG:Transfer Gate)80-2及び81-2とが構成されている。トランスファゲート(TG:Transfer Gate)80-2は、フォトダイオード(PD)70-2によって光電変換されて蓄積された第2信号電荷を読み出し、トランスファゲート(TG:Transfer Gate)81-2は、フォトダイオード(PD)71-2によって光電変換されて蓄積された第2信号電荷を読み出す。
 第1基板1000-1に形成されているフローティングディフュージョン(FD)90は、フォトダイオード(PD)70-1及びフォトダイオード(PD)71-1(第1画素の2画素分)、並びにフォトダイオード(PD)70-2及びフォトダイオード(PD)71-2(第2画素の2画素分)(したがって、計4画素分)によって共有されている。
 また、第1基板1000-1に形成されている増幅トランジスタ(AMP:AMPTr)92及び選択トランジスタ(SEL:SELTr)93も、フォトダイオード(PD)70-1及びフォトダイオード(PD)71-1(第1画素の2画素分)、並びにフォトダイオード(PD)70-2及びフォトダイオード(PD)71-2)(第2画素の2画素分)(したがって、計4画素分)によって共有されている。なお、図2(b)においては、図示はされていないが、第2基板1000-2の回路構成R2を構成するフォトダイオード(PD)70-2及び71-2のためのリセットゲート(RST:Reset Gate)は形成されている。
 以上、本技術に係る第1の実施形態(固体撮像装置の例1)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、後述する本技術に係る第2~第7の実施形態の固体撮像装置に適用することができる。
<3.第2の実施形態(固体撮像装置の例2)>
 本技術に係る第2の実施形態(固体撮像装置の例2)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第2の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第2の実施形態の固体撮像装置について、図3を用いて説明をする。図3は、本技術に係る第2の実施形態の固体撮像装置の構成例(固体撮像装置2000)を示す断面図である。ところで、当然のことながら、本技術に係る第2の実施形態の固体撮像装置は、固体撮像装置2000に限定されることはない。
 固体撮像装置2000は、光(光L1及び光L2)入射側から順に、オンチップレンズ1-1及び1-2と、第1基板2000-1と第2基板2000-2とを備える。図3に示されるP2は、第1基板2000-1と第2基板2000-2との接合部を示す。
 第1基板2000-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)及びカラーフィルタ2G(グリーン(G)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2並びに4-3と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)及び第1光電変換部7-3(フォトダイオード(PD)7-3)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積し、フォトダイオード7-3は、カラーフィルタ2G(グリーン(G)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2並びに4-3は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように、開口されて格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されて、フォトダイオード7-3が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-3が形成されている。
 第2基板2000-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)及び第2光電変換部7-4(フォトダイオード(PD)7-4)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9-1を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積し、フォトダイオード7-4は、カラーフィルタ2G(グリーン(G)フィルタ)及び導波路9-2を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第1配線層8-1側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されて、フォトダイオード7-4が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-4が形成されている。
 導波路9-1及び9-2は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板2000-1と第2基板2000-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板2000-1と第2基板2000-2とにおいて、カラーフィルタ2R(レッド(R)フィルタ)に対応する第1画素と第2画素とは、配線40-1と配線40-2とが接続されることにより(図3中のQ部分)、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板2000-1(第1画素)と第2基板2000-2(第2画素)とはタイミングの同期を取って駆動することが可能である。一方、カラーフィルタ2G(グリーン(G)フィルタ、なお、ブルー(B)フィルタでもよい。)に対応する第1画素と第2画素とは、Cu-Cu接合で電気的に接続されていない。
 すなわち、R画素は、第1基板2000-1と第2基板2000-2とをCu-Cu接合して、第1画素と第2画素とを同時にトランスファゲート(TG)をONするように駆動して、長波長の信号を合算して感度をアップさせることができる。一方、G画素(又はB画素)はCu-Cu接合しない配線レイアウトにし、別々の画素制御線に接続して、第1画素はG画素(又はB画素)用として、第2画素は、近赤外線用(赤外用)としてフォトダイオードによる画素信号を取り出して、RGB画素と近赤外線(赤外線)画素の出力を各々取り出すことが可能である。
 以上、本技術に係る第2の実施形態(固体撮像装置の例2)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1の実施形態の固体撮像装置及び後述する本技術に係る第3~第7の実施形態の固体撮像装置に適用することができる。
<4.第3の実施形態(固体撮像装置の例3)>
 本技術に係る第3の実施形態(固体撮像装置の例3)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域と回路領域とが形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。なお、本技術に係る第3の実施形態の固体撮像装置において、第1基板に回路領域が形成されていてもよい。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第3の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第3の実施形態の固体撮像装置について、図4を用いて説明をする。図4は、本技術に係る第3の実施形態の固体撮像装置の構成例(固体撮像装置3000)を示す断面図であり、詳しくは、図4(a)は、固体撮像装置3000の周辺領域である回路領域(固体撮像装置3000aと称する。)の構成例を示す断面図であり、図4(b)は、固体撮像装置3000の画素領域(固体撮像装置3000bと称する。)の構成例を示す断面図である。ところで、当然のことながら、本技術に係る第3の実施形態の固体撮像装置は、固体撮像装置3000に限定されることはない。
 まず、図4(b)を用いて説明をする。固体撮像装置3000(固体撮像装置3000b)は、光(光L1及び光L2)入射側から順に、オンチップレンズ1-1及び1-2と、第1基板3000b-1と第2基板3000b-2とを備える。図4(b)に示されるX1は第1画素領域を示し、X2は、第2画素領域を示す。図4(b)に示されるP4は、第1基板3000b-1と第2基板3000b-2との接合部を示す。
 第1基板3000b-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)及びカラーフィルタ2G(グリーン(G)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2並びに4-3と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)及び第1光電変換部7-3(フォトダイオード(PD)7-3)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積し、フォトダイオード7-3は、カラーフィルタ2G(グリーン(G)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2並びに4-3は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように、開口されて格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されて、フォトダイオード7-3が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-3が形成されている。
 第2基板3000b-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)及び第2光電変換部7-4(フォトダイオード(PD)7-4)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9-1を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積し、フォトダイオード7-4は、カラーフィルタ2G(グリーン(G)フィルタ)及び導波路9-2を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第1配線層8-1側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されて、フォトダイオード7-4が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-4が形成されている。
 導波路9-1及び9-2は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板3000b-1と第2基板3000b-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)及び第2光電変換部7-4(フォトダイオード7-2)に入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板3000b-1と第2基板3000b-2とにおいて、カラーフィルタ2R(レッド(R)フィルタ)に対応する第1画素と第2画素とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板3000b-1(第1画素)と第2基板3000b-2(第2画素)とはタイミングの同期を取って駆動することが可能である。一方、カラーフィルタ2G(グリーン(G)フィルタ、なお、ブルー(B)フィルタでもよい。)に対応する第1画素と第2画素とは、Cu-Cu接合で電気的に接続されていない。
 すなわち、R画素は、第1基板3000b-1と第2基板3000b-2とをCu-Cu接合して、第1画素と第2画素とを同時にトランスファゲート(TG)をONするように駆動して、長波長の信号を合算して感度をアップさせることができる。一方、G画素(又はB画素)はCu-Cu接合しない配線レイアウトにし、別々の画素制御線に接続して、第1画素はG画素(又はB画素)用として、第2画素は、近赤外線用(赤外用)としてフォトダイオードによる画素信号を取り出して、RGB画素と近赤外線(赤外線)画素の出力を各々取り出すことが可能である。
 次に、図4(a)を用いて説明をする。固体撮像装置3000(固体撮像装置3000a)は、光(光L1及び光L2)入射側から順に、第1基板3000a-1と第2基板3000a-2とを備える。図4(a)に示されるY1は回路領域を示す。図4(a)に示されるP3は、第1基板3000a-1と第2基板3000a-2との接合部を示す。
 第1基板3000a-1は、光入射側から順に、平坦化膜3と、遮光膜4と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1と、第1配線層8-1とを備えている。遮光膜4は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1半導体基板6-1の入射側の面(裏面)の全面を覆うように、ベタ状に配されている。第1配線層8-1は、配線40-3及び41-1と、配線40-3と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。
 第2基板3000a-2は、光入射側から順に、第2配線層8-2と、第1半導体基板6-1とを備えている。第2配線層8-2は、配線40-4及び41-2と、配線40-4と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-1とから構成されている。第2半導体基板6-2の第2配線層8-2側の裏面には、回路用のトランジスタTr1が形成され、トランジスタTr1と、第3配線層に形成される配線41-3とによって周辺回路であるロジック回路等が構成されて、第2基板3000b-2には、回路領域Y1が形成される。
 第1基板3000a-1と第2基板3000a-2とは、配線40-3と配線40-4とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1画素領域X1及び第2画素領域X2の外周辺にある回路領域Y1(例えばロジック回路領域)にCu-Cu接合を介して画素信号を送ることができ、また、第1画素及び第2画素を駆動するためのパルスを例えば画素駆動の配線に供給することができる。なお、Cu-Cu接合ではなく、貫通電極を用いて、第1基板3000a-1と第2基板3000a-2とを電気的に接続してもよい。
 以上、本技術に係る第3の実施形態(固体撮像装置の例3)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1~2の実施形態の固体撮像装置及び後述する本技術に係る第4~7の実施形態の固体撮像装置に適用することができる。
<5.第4の実施形態(固体撮像装置の例4)>
 本技術に係る第4の実施形態(固体撮像装置の例4)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。本技術に係る第4の実施形態(固体撮像装置の例4)の固体撮像装置においては、第1配線層及び第2配線層に、入射光が透過する(通過する)導波路が形成されて、導波路の外側(外周側)には光反射部材が配されている。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第4の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第4の実施形態の固体撮像装置について、図5を用いて説明をする。図5は、本技術に係る第4の実施形態の固体撮像装置の構成例(固体撮像装置4000)を示す断面図である。ところで、当然のことながら、本技術に係る第4の実施形態の固体撮像装置は、固体撮像装置4000に限定されることはない。
 固体撮像装置4000は、光(光L1及び光L2)入射側から順に、オンチップレンズ1と、第1基板4000-1と第2基板4000-2とを備える。図5に示されるP5は、第1基板4000-1と第2基板4000-2との接合部を示す。
 第1基板4000-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように開口されて、格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されている。
 第2基板4000-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9(導波路9の外側には光反射部材90(90-1及び90-2)が配されている。)を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の配線層8-2側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されている。
 導波路9は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板1000-1と第2基板1000-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 光反射部材90(90-1及び90-2)は、導波路9の外側に埋め込んで形成される。例えば、光反射部材90(90-1及び90-2)は、導波路9の外周囲を覆うように埋め込まれて形成されてもよい。光反射部材90(90-1及び90-2)を構成する材料は、例えば、反射メタルであり、具体的にはタングステン等である。光反射部材90(90-1及び90-2)を用いることにより、光を第2光電変換部7-2(フォトダイオード7-2)により集光でき、より感度を上げることができる。
 第1基板4000-1と第2基板4000-2とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板4000-1(第1画素)と第2基板4000-2(第2画素)とはタイミングの同期を取って駆動することが可能である。
 固体撮像装置4000によれば、第1基板(上側基板)4000-1の第1画素は通常の画素(図5においては、R(レッド)画素であるが、G(グリーン)画素又はB(ブルー)画素でもよい。)として使用し、第2基板4000-2(下側基板)の第2画素は、長波長(赤外又は近赤外)用の画素として使用することができる。
 以上、本技術に係る第4の実施形態(固体撮像装置の例4)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1~3の実施形態の固体撮像装置及び後述する本技術に係る第5~7の実施形態の固体撮像装置に適用することができる。
<6.第5の実施形態(固体撮像装置の例5)>
 本技術に係る第5の実施形態(固体撮像装置の例5)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。本技術に係る第5の実施形態(固体撮像装置の例5)の固体撮像装置においては、第2基板に増幅トランジスタ(AMPトランジスタ)及び/又は選択トランジスタ(SELトランジスタ)が形成されている。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第5の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第5の実施形態の固体撮像装置においては、少なくとも1つの第1光電変換部によって生成された第1信号電荷と、少なくとも1つの第2光電変換部によって生成された第2信号電荷とが、第1基板に形成されたフローティングディフュージョン(FD)を経由してもよい。また、本技術に係る第5の実施形態の固体撮像装置においては、少なくとも1つの第1光電変換部によって生成された第1信号電荷と、少なくとも1つの第2光電変換部によって生成された第2信号電荷とが、第2基板に形成されたフローティングディフュージョン(FD)を経由してもよい。
 本技術に係る第5の実施形態の固体撮像装置について、図6及び図7を用いて説明をする。図6は、本技術に係る第5の実施形態の固体撮像装置の構成例(固体撮像装置5000)を示す断面図である。図7中における、図7(a)は、固体撮像装置5000が備える第1基板5000-1の第1配線層8-1の平面図であり、図7(b)は、固体撮像装置5000が備える第2基板5000-2の第2配線層8-2の平面図であり、図7(c)は、固体撮像装置5000の回路構成例を示す図である。ところで、当然のことながら、本技術に係る第5の実施形態の固体撮像装置は、固体撮像装置5000に限定されることはない。
 まず、図6を用いて説明をする。
 固体撮像装置5000は、光(光L1及び光L2)入射側から順に、オンチップレンズ1と、第1基板5000-1と第2基板5000-2とを備える。図6に示されるP6は、第1基板5000-1と第2基板5000-2との接合部を示す。
 第1基板5000-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように開口されて、格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されている。
 第2基板5000-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第2配線層8-2側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されている。
 導波路9は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板5000-1と第2基板5000-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板5000-1と第2基板5000-2とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板5000-1(第1画素)と第2基板5000-2(第2画素)とはタイミングの同期を取って駆動することが可能である。
 固体撮像装置5000によれば、第1基板(上側基板)5000-1の第1画素は通常の画素(図6においては、R(レッド)画素であるが、G(グリーン)画素又はB(ブルー)画素でもよい。)として使用し、第2基板5000-2(下側基板)の第2画素は、長波長(赤外又は近赤外)用の画素として使用することができる。
 図7を用いて説明をする。図7(a)は、上述したように、固体撮像装置5000が備える第1基板5000-1の第1配線層8-1の平面レイアウト図であるが、便宜的に、第1半導体基板6-1に形成された第1光電変換部72-1(フォトダイオード(PD)72-1)及び第1光電変換部73-1(フォトダイオード(PD)73-1)が示されている(第1画素の2画素分に相当する。)。第1配線層8-1の配線レイアウトは、表面照射型のイメージセンサ(固体撮像装置)のように、第1光電変換部72-1(フォトダイオード(PD)72-1)及び第1光電変換部73-1(フォトダイオード(PD)73-1)が配される領域に対応する第1配線層8-1の領域には配線を引き回さずに、入射光が透過(通過)するように開口されている(光路が形成されている。)。転送信号線TG54は、トランスファゲート(TG:Transfer Gate)82-1及び83-1に接続され、リセット信号線RST52は、リセットゲート(RST:Reset Gate)91に接続されている。
 図7(b)は、上述したように、固体撮像装置5000が備える第2基板5000-2の第2配線層8-2の平面レイアウト図であるが、便宜的に、第2半導体基板6-2に形成された第2光電変換部72-2(フォトダイオード(PD)72-2)及び第2光電変換部73-2(フォトダイオード(PD)73-2)が示されている(第2画素の2画素分に相当する。)。第2配線層8-2の配線レイアウトは、表面照射型のイメージセンサ(固体撮像装置)のように、第2光電変換部72-2(フォトダイオード(PD)72-2)及び第2光電変換部73-2(フォトダイオード(PD)73-2)が配される領域に対応する第2配線層8-2の領域には配線を引き回さずに、入射光が透過(通過)するように開口されている(光路が形成されている。)。転送信号線TG54は、トランスファゲート(TG:Transfer Gate)82-2及び83-2に接続され、リセット信号線RST52は、リセットゲート(RST:Reset Gate)91に接続され、選択信号線SEL53は、選択トランジスタ(SEL:SELTr)93に接続されている。
 図7(c)に示される固体撮像装置5000の回路構成例において、参照符号R3は、第1基板5000-1の回路構成であり、参照符号R4及びR5は、第2基板1000-2の回路構成例である。
 第1基板5000-1の回路構成R3においては、フォトダイオード(PD)72-1及び73-1と、トランスファゲート(TG:Transfer Gate)82-1及び83-1とが構成されている。トランスファゲート(TG:Transfer Gate)82-1は、フォトダイオード(PD)72-1によって光電変換されて蓄積された第1信号電荷を読み出し、トランスファゲート(TG:Transfer Gate)83-1は、フォトダイオード(PD)73-1によって光電変換されて蓄積された第1信号電荷を読み出す。また、第1基板5000-1の回路構成R3においては、フローティングディフュージョン(FD)90が構成されている。
 第2基板5000-2の回路構成R4においては、フォトダイオード(PD)72-2及び73-2と、トランスファゲート(TG:Transfer Gate)82-2及び83-2とが構成されている。トランスファゲート(TG:Transfer Gate)82-2は、フォトダイオード(PD)72-2によって光電変換されて蓄積された第2信号電荷を読み出し、トランスファゲート(TG:Transfer Gate)83-2は、フォトダイオード(PD)73-2によって光電変換されて蓄積された第2信号電荷を読み出す。
 第2基板5000-2の回路構成R5においては、リセットゲート(RST:Reset Gate)91と、増幅トランジスタ(AMP:AMPTr)92と、選択トランジスタ(SEL:SELTr)93とが構成されている。選択トランジスタ(SEL:SELTr)93は、垂直信号線51を介して、例えばカラム信号処理回路(不図示)に接続されている。
 第1基板5000-1に形成されているフローティングディフュージョン(FD)90は、フォトダイオード(PD)72-1及びフォトダイオード(PD)73-1(第1画素の2画素分)、並びにフォトダイオード(PD)72-2及びフォトダイオード(PD)73-2(第2画素の2画素分)(したがって、計4画素分)によって共有されている。
 また、第2基板5000-2に形成されている増幅トランジスタ(AMP:AMPTr)92及び選択トランジスタ(SEL:SELTr)93も、フォトダイオード(PD)70-1及びフォトダイオード(PD)71-1(第1画素の2画素分)、並びにフォトダイオード(PD)70-2及びフォトダイオード(PD)71-2)(第2画素の2画素分)(したがって、計4画素分)によって共有されている。なお、図7(c)においては図示はされていないが、第1基板5000-1の回路構成R3を構成するフォトダイオード(PD)72-1及び73-1のため(信号電荷の掃き捨てのため)のリセットゲート(RST:Reset Gate)は形成されている。
 増幅トランジスタ(AMP:AMPTr)92及び選択トランジスタ(SEL:SELTr)93を第2基板5000-2に形成させることで、第1基板5000-1が備える第1光電変換部の面積を拡大させることが可能となり、第1基板5000-1の第1画素の特性(例えば、画質等)を向上させることができる。
 以上、本技術に係る第5の実施形態(固体撮像装置の例5)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1~4の実施形態の固体撮像装置及び後述する本技術に係る第6~7の実施形態の固体撮像装置に適用することができる。
<7.第6の実施形態(固体撮像装置の例6)>
 本技術に係る第6の実施形態(固体撮像装置の例6)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、を備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続されている、固体撮像装置である。本技術に係る第6の実施形態(固体撮像装置の例6)の固体撮像装置においては、複数の第1光電変換部によって生成された第1信号電荷と、少なくとも1つの第2光電変換部によって生成された第2信号電荷とが、第1基板に形成されたフローティングディフュージョン(FD)を経由している。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第6の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第6の実施形態の固体撮像装置について、図8及び図9を用いて説明をする。図8は、本技術に係る第6の実施形態の固体撮像装置の構成例(固体撮像装置6000)を示す断面図である。図9中における、図9(a)は、固体撮像装置6000が備える第1基板6000-1の第1半導体基板6-1(第1半導体基板6-1と第1配線層8-1との界面)の平面レイアウト図であり、図9(b)は、固体撮像装置6000が備える第2基板6000-2の第2半導体基板6-2(第2半導体基板6-2と第2配線層8-2との界面)の平面レイアウト図であり、図9(c)は、固体撮像装置6000の回路図である。ところで、当然のことながら、本技術に係る第6の実施形態の固体撮像装置は、固体撮像装置6000に限定されることはない。
 まず、図8を用いて説明をする。
 固体撮像装置6000は、光(光L1及び光L2)入射側から順に、オンチップレンズ1と、第1基板6000-1と第2基板6000-2とを備える。図8に示されるP7は、第1基板6000-1と第2基板6000-2との接合部を示す。
 第1基板6000-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように開口されて、格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されている。
 第2基板6000-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)及び導波路9を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第2配線層8-2側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されている。
 導波路9は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板6000-1と第2基板6000-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板6000-1と第2基板6000-2とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板6000-1(第1画素)と第2基板6000-2(第2画素)とはタイミングの同期を取って駆動することが可能である。
 固体撮像装置6000によれば、第1基板(上側基板)6000-1の第1画素は通常の画素(図8においては、R(レッド)画素であるが、G(グリーン)画素又はB(ブルー)画素でもよい。)として使用し、第2基板6000-2(下側基板)の第2画素は、長波長(赤外又は近赤外)用の画素として使用することができる。
 図9を用いて説明をする。図9(a)には、第1半導体基板6-1に形成された第1光電変換部74-1(フォトダイオード(PD)74-1)、第1光電変換部75-1(フォトダイオード(PD)75-1)、第1光電変換部76-1(フォトダイオード(PD)76-1)及び第1光電変換部77-1(フォトダイオード(PD)77-1)が示されている(第1画素の4画素分に相当する。)。第1光電変換部75-1(フォトダイオード(PD)75-1)、第1光電変換部76-1(フォトダイオード(PD)76-1)及び第1光電変換部77-1(フォトダイオード(PD)77-1)のそれぞれは、素子分離(P+)99-1によって画素分離されている。そして、図9(a)に示されるように、フォトダイオード74-1が光電変換して蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG84-1が形成され、フォトダイオード75-1が光電変換して蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG85-1が形成され、フォトダイオード76-1が光電変換して蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG86-1が形成され、フォトダイオード77-1が光電変換して蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG87-1が形成されている。転送ゲート(トランスファゲート)TG84-1~転送ゲート(トランスファゲート)TG87-1のそれぞれの転送ゲート(トランスファゲート)から読み出された第1信号電荷は、第1光電変換部74-1(フォトダイオード(PD)74-1)、第1光電変換部75-1(フォトダイオード(PD)75-1)、第1光電変換部76-1(フォトダイオード(PD)76-1)及び第1光電変換部77-1(フォトダイオード(PD)77-1)に対応する第1画素の4画素が共有しているフローティングディフュージョン(FD)50において電圧に変換される。
 図9(b)には、第2半導体基板6-2に形成された第2光電変換部74-2(フォトダイオード(PD)74-2)が示されている(第2画素の1画素分に相当する。)。第2光電変換部74-2(フォトダイオード(PD)74-2)の外周囲には、素子分離(P+)99-2が配されて、この素子分離(P+)99-2によって隣接する第2画素(不図示)と画素分離されている。そして、図9(b)に示されるように、フォトダイオード74-2が光電変換して蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG84-2が形成されている。転送ゲート(トランスファゲート)TG84-2から読み出された第2信号電荷は、フローティングディフュージョン(FD)50において電圧に変換される。
 すなわち、フローティングディフュージョン(FD)50は、上述した、第1光電変換部74-1(フォトダイオード(PD)74-1)、第1光電変換部75-1(フォトダイオード(PD)75-1)、第1光電変換部76-1(フォトダイオード(PD)76-1)及び第1光電変換部77-1(フォトダイオード(PD)77-1)(第1画素の4画素分)及び第2光電変換部74-2(フォトダイオード(PD)74-2)(第2画素の1画素分)(したがって、計5画素分)によって共有されている。
 なお、図9(a)及び(b)においては、第1基板6000-1が4画素分(フォトダイオードが4個分)を有しているのに対して、第2基板6000-2は、1画素分(フォトダイオード1個分)しか有していないが、第1基板6000-1が有する4画素分の領域の大きさに対応する範囲内で、第2基板6000-2の第2光電変換部(フォトダイオード)の設計が自由にできる。すなわち、第1基板6000-1が有する4画素分の領域の範囲内で、第2光電変換部(フォトダイオード)の面積を自由に変更したり、第2光電変換部(フォトダイオード)の個数(第2画素の画素数)を自由に変更したりすることができる。図9(b)においては、第2光電変換部(フォトダイオード)が1画素分しか形成されていないが、例えば、図9(a)に示される第1光電変換部の4画素分と同様に、第2光電変換部(フォトダイオード)を4画素分(4つのフォトダイオード)で形成してもよいし、第2光電変換部(フォトダイオード)を3画素分(3つのフォトダイオード)で形成してもよいし、第2光電変換部(フォトダイオード)を2画素分(2つのフォトダイオード)で形成してもよい。
 図9(c)に示される固体撮像装置6000の回路構成例において、参照符号R6は、第1基板6000-1の回路構成であり、参照符号R7は、第2基板6000-2の回路構成例である。
 第1基板6000-1の回路構成R6においては、フォトダイオード(PD)74-1、75-1、76-1及び77-1と、トランスファゲート(TG:Transfer Gate)84-1、85-1、86-1及び87-1と、フローティングディフュージョン(FD)50と、リセットゲート(RST:Reset Gate)91と、増幅トランジスタ(AMP:AMPTr)92と、選択トランジスタ(SEL:SELTr)93とが構成されている。選択トランジスタ(SEL:SELTr)93は、垂直信号線51を介して、例えばカラム信号処理回路(不図示)に接続されている。
 第2基板6000-2の回路構成R7においては、フォトダイオード(PD)74-2と、トランスファゲート(TG:Transfer Gate)84-2とが構成されている。
 第1基板6000-1に形成されているフローティングディフュージョン(FD)50は、フォトダイオード(PD)74-1、75-1、76-1及び77-1(第1画素の4画素分)、並びにフォトダイオード(PD)74-2(第2画素の1画素分)(したがって、計5画素分)によって共有されている。
 また、第1基板6000-1に形成されている増幅トランジスタ(AMP:AMPTr)92及び選択トランジスタ(SEL:SELTr)93も、フォトダイオード(PD)74-1、75-1、76-1及び77-1(第1画素の4画素分)、並びにフォトダイオード(PD)74-2(第2画素の1画素分)(したがって、計5画素分)によって共有されている。なお、図9(c)においては、図示はされていないが、第2基板6000-2の回路構成R7を構成するフォトダイオード(PD)74-2のためのリセットゲート(RST:Reset Gate)が形成されている。
 以上、本技術に係る第6の実施形態(固体撮像装置の例6)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1~5の実施形態の固体撮像装置及び後述する本技術に係る第7の実施形態の固体撮像装置に適用することができる。
<8.第7の実施形態(固体撮像装置の例7)>
 本技術に係る第7の実施形態(固体撮像装置の例7)の固体撮像装置は、光入射側から順に、第1基板と、第2基板と、第3基板とを備え、第1基板に、複数の第1画素が配列された第1画素領域が形成され、第2基板に、複数の第2画素が配列された第2画素領域が形成され、第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、第2基板が、光入射側から順に、第2配線層と、入射光を光電変換する第2光電変換部が形成された第2半導体基板と、第3基板が、光入射側から順に、第3配線層と、第3半導体基板と、を備え、1つの第1画素は、1つの第1光電変換部を有し、1つの第2画素は、1つの第2光電変換部を有し、第1基板と第2基板とが、第1配線層と第2配線層とを向き合わせて貼り合わされて、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、電気的に接続され、第2基板と第3基板とが、第2半導体基板と第3配線層とを向き合わせて貼り合わされて、第2基板と第3基板とが、電気的に接続されている、固体撮像装置である。
 少なくとも1つの第1画素と、少なくとも1つの第2画素とが電気的に接続されているとは、第1配線層に形成された配線(第1配線と称する場合がある。)と、第2配線層に形成された配線(第2配線と称する場合がある。)とが、直接又は間接に接続されていることをいう。具体的には、導電材料で形成された第1配線と、導電材料で形成された第2配線とが直接又は間接に接続される。導電材料の具体例としては、銅(Cu)等の金属が挙げられる。
 本技術に係る第7の実施形態の固体撮像装置においては、少なくとも1つの第1画素と、少なくとも1つの第2画素とが、上述したように、Cu-Cu接合により、電気的に接続されていてもよいし、複数の第1画素の全ての画素と、複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されていてもよい。なお、Cu-Cu接合は、第1画素領域外の領域及び/又は第2画素領域外の領域で、第1基板と第2基板とを接続するために用いられてもよい。
 本技術に係る第7の実施形態(固体撮像装置の例7)の固体撮像装置において、第2半導体基板を貫通する貫通電極が形成されてもよく、貫通電極を介して、第2基板と第3基板とが、電気的に接続されていてもよい。また、本技術に係る第7の実施形態(固体撮像装置の例7)の固体撮像装置において、Cu-Cu接合により、第2基板と第3基板とが、電気的に接続されていてもよい。
 本技術に係る第7の実施形態(固体撮像装置の例7)の固体撮像装置において、第3基板に回路領域が形成されていてもよい。
 本技術に係る第7の実施形態の固体撮像装置について、図10を用いて説明をする。図10は、本技術に係る第7の実施形態の固体撮像装置の構成例(固体撮像装置7000)を示す断面図であり、詳しくは、図10(a)は、固体撮像装置7000の周辺領域である回路領域(固体撮像装置7000aと称する。)の構成例を示す断面図であり、図10(b)は、固体撮像装置7000の画素領域及び回路領域(固体撮像装置7000bと称する。)の構成例を示す断面図である。ところで、当然のことながら、本技術に係る第7の実施形態の固体撮像装置は、固体撮像装置7000に限定されることはない。
 まず、図10(b)を用いて説明をする。固体撮像装置7000(固体撮像装置7000b)は、光(光L1及び光L2)入射側から順に、オンチップレンズ1-1及び1-2と、第1基板7000b-1と第2基板7000b-2と第3基板7000b-3とを備える。図10(b)に示されるX3は第1画素領域を示し、X4は、第2画素領域を示す。図10(b)に示されるY3は、回路領域を示す。図10(b)に示されるP9は、第1基板7000b-1と第2基板7000b-2との接合部を示し、P11は、第2基板7000b-2と第3基板7000b-3との接合部を示す。
 第1基板7000b-1は、光入射側から順に、カラーフィルタ2R(レッド(R)フィルタ)及びカラーフィルタ2G(グリーン(G)フィルタ)と、平坦化膜3と、遮光膜4-1及び4-2並びに4-3と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1に形成された第1光電変換部7-1(フォトダイオード(PD)7-1)及び第1光電変換部7-3(フォトダイオード(PD)7-3)と、第1配線層8-1とを備えている。フォトダイオード7-1は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積し、フォトダイオード7-3は、カラーフィルタ2G(グリーン(G)フィルタ)を透過した入射光L1を光電変換して第1信号電荷を生成して蓄積する。遮光膜4-1及び4-2並びに4-3は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1画素間に、第1光電変換部に光が入射するように、開口されて格子状に配されている。第1配線層8-1は、配線40-1及び41-1と、配線40-1と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。第1半導体基板6-1の第1配線層8-1側の表面には、フォトダイオード7-1が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-1が形成されて、フォトダイオード7-3が蓄積した第1信号電荷を読み出す転送ゲート(トランスファゲート)TG10-3が形成されている。
 第2基板7000b-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2に形成された第2光電変換部7-2(フォトダイオード(PD)7-2)及び第2光電変換部7-4(フォトダイオード(PD)7-4)とを備えている。フォトダイオード7-2は、カラーフィルタ2R(レッド(R)フィルタ)を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積し、フォトダイオード7-4は、カラーフィルタ2G(グリーン(G)フィルタ)を透過した入射光L2を光電変換して第2信号電荷を生成して蓄積する。第2配線層8-2は、配線40-2及び41-2と、配線40-2と配線41-2と又は配線41-2同士とを接続するビア42-2と、層間絶縁膜11-2とから構成されている。第2半導体基板6-2の第1配線層8-1側の裏面には、フォトダイオード7-2が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-2が形成されて、フォトダイオード7-4が蓄積した第2信号電荷を読み出す転送ゲート(トランスファゲート)TG10-4が形成されている。
 第3基板7000b-3は、光入射側から順に、第3配線層8-3と、半導体基板6-3とを備える。半導体基板6-3の第3配線層8-3側の裏面には、回路用のトタンジスタTr3が形成され、トタンジスタTr3と、第3配線層に形成される配線41-3とによってロジック回路等が構成されて、第3基板7000b-3には、回路領域Y3が形成される。固体撮像装置7000は、3層目に、例えばロジック回路を有する第3基板7000b-3を用いることで、2層構造(センサ基板とロジック基板とから構成される。)の固体撮像装置と比較して、略同等の性能を得ることができる。
 導波路9-1及び9-2は、第1配線層8-1の配線41-1及び第2配線層8-2の配線41-2を引き回さないで開口された領域に、第1基板7000b-1と第2基板7000b-2とをまたぐように形成される。導波路の形成により、長波長の光の減衰及び/又は反射を抑制して、第2光電変換部7-2(フォトダイオード7-2)及び第2光電変換部7-4(フォトダイオード7-2)に入射光L2を到達させることができる。導波路を形成する材料は、例えば層間絶縁膜11-1及び11-2を構成する材料の屈折率よりも大きな屈折率を有する材料であれば随意でよい。
 第1基板7000b-1と第2基板7000b-2とにおいて、カラーフィルタ2R(レッド(R)フィルタ)に対応する第1画素と第2画素とは、配線40-1と配線40-2とが接続されることにより、Cu-Cu接合で電気的に接続されている。このCu-Cu接合により、第1基板7000b-1(第1画素)と第2基板7000b-2(第2画素)とはタイミングの同期を取って駆動することが可能である。一方、カラーフィルタ2G(グリーン(G)フィルタ、なお、ブルー(B)フィルタでもよい。)に対応する第1画素と第2画素とは、Cu-Cu接合で電気的に接続されていない。
 すなわち、R画素は、第1基板7000b-1と第2基板7000b-2とをCu-Cu接合して、第1画素と第2画素とを同時にトランスファゲート(TG)をONするように駆動して、長波長の信号を合算して感度をアップさせることができる。一方、G画素(又はB画素)はCu-Cu接合しない配線レイアウトにし、別々の画素制御線に接続して、第1画素はG画素(又はB画素)用として、第2画素は、近赤外線用(赤外用)としてフォトダイオードによる画素信号を取り出して、RGB画素と近赤外線(赤外線)画素の出力を各々取り出すことが可能である。
 次に、図10(a)を用いて説明をする。固体撮像装置7000(固体撮像装置7000a)は、光(光L1及び光L2)入射側から順に、第1基板7000a-1と第2基板7000a-2と第3基板7000a-3とを備える。図10(a)に示されるY2は、回路領域を示す。図10(a)に示されるP8は、第1基板7000a-1と第2基板7000a-2との接合部を示し、P10は、第2基板7000a-2と第3基板7000a-3との接合部を示す。
 第1基板7000a-1は、光入射側から順に、平坦化膜3と、遮光膜4と、絶縁膜5(例えば、酸化シリコン(SiO)膜)と、第1半導体基板6-1と、第1配線層8-1とを備えている。遮光膜4は、平坦化膜3によって被覆されて、光入射側からの平面視で、第1半導体基板6-1の入射側の面(裏面)の全面を覆うように、ベタ状に配されている。第1配線層8-1は、配線40-3及び41-1と、配線40-3と配線41-1と又は配線41-1同士とを接続するビア42-1と、層間絶縁膜11-1とから構成されている。
 第2基板7000a-2は、光入射側から順に、第2配線層8-2と、第2半導体基板6-2とを備えている。第2配線層8-2は、配線40-4及び41-2と、配線40-4と配線41-2と又は配線41-2同士とを接続するビア42-2と、パッド43と層間絶縁膜11-2とから構成されている。第2半導体基板6-2には、半導体基板を貫通する貫通電極45が形成されている。
 第3基板7000a-3は、光入射側から順に、第3配線層8-3と、半導体基板6-3とを備える。半導体基板6-3の第3配線層8-3側の裏面には、回路用のトタンジスタTr4が形成され、トタンジスタTr2と、第3配線層に形成される配線41-3とによってロジック回路等が構成されて、第3基板7000a-3には、回路領域Y2が形成される。
 第3基板7000a-3と第2基板7000a―2とは、配線41-3と配線41-2とが、第3配線層8-2に埋め込まれているパッド44と第2配線層8-2に埋め込まれているパッド43とを介して、貫通電極45によって電気的に接続している。
 以上、本技術に係る第7の実施形態(固体撮像装置の例7)の固体撮像装置について説明した内容は、特に技術的な矛盾がない限り、前述した本技術に係る第1~6の実施形態の固体撮像装置に適用することができる。
<9.第8の実施形態(電子機器の例)>
 本技術に係る第8の実施形態の電子機器は、本技術に係る第1の実施形態~第7の実施形態の固体撮像装置のうち、いずれか一つ実施形態の固体撮像装置が搭載された電子機器である。
<10.本技術を適用した固体撮像装置の使用例>
 図11は、イメージセンサ(固体撮像装置)としての本技術に係る第1~第7の実施形態の固体撮像装置の使用例を示す図である。
 上述した第1~第7の実施形態の固体撮像装置は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングするさまざまなケースに使用することができる。すなわち、図11に示すように、例えば、鑑賞の用に供される画像を撮影する鑑賞の分野、交通の分野、家電の分野、医療・ヘルスケアの分野、セキュリティの分野、美容の分野、スポーツの分野、農業の分野等において用いられる装置(例えば、上述した第8の実施形態の電子機器)に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 具体的には、鑑賞の分野においては、例えば、デジタルカメラやスマートフォン、カメラ機能付きの携帯電話機等の、鑑賞の用に供される画像を撮影するための装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 交通の分野においては、例えば、自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 家電の分野においては、例えば、ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビ受像機や冷蔵庫、エアーコンディショナ等の家電に供される装置で、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 医療・ヘルスケアの分野においては、例えば、内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 セキュリティの分野においては、例えば、防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 美容の分野においては、例えば、肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 スポーツの分野において、例えば、スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 農業の分野においては、例えば、畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置に、第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 次に、本技術に係る第1~第7の実施形態の固体撮像装置の使用例を具体的に説明する。例えば、上述で説明をした第1~第7の実施形態のいずれか1つの実施形態の固体撮像装置が用いられる。具体的には、固体撮像装置101として、例えばデジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話など、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図12に、その一例として、電子機器102(カメラ)の概略構成を示す。この電子機器102は、例えば静止画または動画を撮影可能なビデオカメラであり、固体撮像装置101と、光学系(光学レンズ)310と、シャッタ装置311と、固体撮像装置101およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を固体撮像装置101の画素部101aへ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、固体撮像装置101への光照射期間および遮光期間を制御するものである。駆動部313は、固体撮像装置101の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、固体撮像装置101から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリなどの記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
<11.内視鏡手術システムへの応用例>
 本技術は、様々な製品へ応用することができる。例えば、本開示に係る技術(本技術)は、内視鏡手術システムに適用されてもよい。
 図13は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図13では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図14は、図13に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102(の撮像部11402)等に適用され得る。具体的には、本技術に係る固体撮像装置は、撮像部10402に適用することができる。内視鏡11100や、カメラヘッド11102(の撮像部11402)等に本開示に係る技術を適用することにより、内視鏡11100や、カメラヘッド11102(の撮像部11402)等の性能を向上させることが可能となる。
 ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<12.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図16は、撮像部12031の設置位置の例を示す図である。
 図16では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図16には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術(本技術)が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。具体的には、本技術に係る固体撮像装置は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、撮像部12031の性能を向上させることが可能となる。
 なお、本技術は、上述した実施形態及び使用例、並びに応用例に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 また、本技術は、以下のような構成も取ることができる。
[1]
 光入射側から順に、第1基板と、第2基板と、を備え、
 該第1基板に、複数の第1画素が配列された第1画素領域が形成され、
 該第2基板に、複数の第2画素が配列された第2画素領域が形成され、
 該第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、
 該第2基板が、光入射側から順に、第2配線層と、該入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、
 1つの該第1画素は、1つの該第1光電変換部を有し、
 1つの該第2画素は、1つの該第2光電変換部を有し、
 該第1基板と該第2基板とが、該第1配線層と該第2配線層とを向き合わせて貼り合わ
されて、
 少なくとも1つの該第1画素と、少なくとも1つの該第2画素とが、電気的に接続されている、固体撮像装置。
[2]
 少なくとも1つの前記第1画素と、少なくとも1つの前記第2画素とが、Cu-Cu接合により、電気的に接続されている、[1]に記載の固体撮像装置。
[3]
 前記複数の第1画素の全ての画素と、前記複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されている、[1]に記載の固体撮像装置。
[4]
 前記第1光電変換部と前記第2光電変換部とが、前記入射光の互いに異なる波長域成分を光電変換する、[1]から[3]のいずれか1つに記載の固体撮像装置。
[5]
 前記第1光電変換部が、前記入射光の可視光の波長域成分を光電変換し、
 前記第2光電変換部が、前記入射光の赤外光の波長域成分を光電変換する、[1]から[3]のいずれか1つに記載の固体撮像装置。
[6]
 前記第1配線層及び前記第2配線層に、前記入射光が透過する光路が形成されている、[1]から[5]のいずれか1つに記載の固体撮像装置。
[7]
 前記光路に、導波路が形成されている、[6]に記載の固体撮像装置。
[8]
 前記導波路の外側に、光反射部材が配されている、[7]に記載の固体撮像装置。
[9]
 前記第2基板に、回路領域が形成されている、[1]から[8]のいずれか1つに記載の固体撮像装置。
[10]
 前記第1基板に、回路領域が形成されている、[1]から[9]のいずれか1つに記載の固体撮像装置。
[11]
 第3基板を更に備え、
 該第3基板が、光入射側から順に、第3配線層と、第3半導体基板と、を備え、
 前記第2基板と該第3基板とが、前記第2半導体基板と該第3配線層とを向き合わせて貼り合わされて、前記第2基板と該第3基板とが、電気的に接続されている、[1]から[10]のいずれか1つに記載の固体撮像装置。
[12]
 前記第2半導体基板を貫通する貫通電極が形成され、該貫通電極を介して、前記第2基板と該第3基板とが、電気的に接続されている、[11]に記載の固体撮像装置。
[13]
 前記第3基板に回路領域が形成されている、[11]又は[12]に記載の固体撮像装置。
[14]
 少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第1基板に形成されたフローティングディフュージョン(FD)を経由する、[1]から[13]のいずれか1つに記載の固体撮像装置。
[15]
 少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第2基板に形成されたフローティングディフュージョン(FD)を経由する、[1]から[13]のいずれか1つに記載の固体撮像装置。
[16]
 少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第1基板に形成された少なくとも1種の画素トランジスタを共有する、[1]から[15]のいずれか1つに記載の固体撮像装置。
[17]
 少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第2基板に形成された少なくとも1種の画素トランジスタを共有する、[1]から[16]のいずれか1つに記載の固体撮像装置。
[18]
 [1]から[17]のいずれか1つに記載の固体撮像装置が搭載された、電子機器。
 1・・・オンチップレンズ、
 2(2R、2G)・・・カラーフィルタ、
 3・・・平坦化膜、
 4(4-1、4-2)・・・遮光膜、
 5・・・絶縁膜、
 6-1・・・第1半導体基板、
 6-2・・・第2半導体基板、
 6-3・・・第3半導体基板、
 7-1、7-3、70-1、71-1、72-1、73-1、74-1、75-1、76-1、77-1・・・第1光電変換部(フォトダイオード(PD))、
 7-2、7-4、70-2、71-2、72-2、73-2、74-2・・・第2光電変換部(フォトダイオード(PD))、
 8-1・・・第1配線層、8-2・・・第2配線層、8-3・・・第3配線層、
 9・・・導波路、
 10(10-1、10-2、10-3、10-4)・・・転送ゲート(トランスファゲート)TG、
 11(11-1、11-2、11-3)・・・層間絶縁膜、
 40-1、40-3、41-1・・・配線(第1配線)、
 40-2、40-4、41-2・・・配線(第2配線)、
 41-3・・・配線(第3配線)、
 45・・・貫通電極、
 90(90-1、90-2)・・・光反射部材、
 1000、2000、3000(3000a、3000b)、4000、5000、6000、7000(7000a、7000b)・・・固体撮像装置、
 1000-1、2000-1、3000a-1、3000b-1、4000-1、5000-1、6000-1、7000a-1、7000b-1・・・第1基板、
 1000-2、2000-2、3000a-2、3000b-2、4000-2、5000-2、6000-2、7000a-2、7000b-2・・・第2基板、
 7000a-3、7000b-3・・・第3基板、
 L1、L2・・・入射光(光)。

Claims (18)

  1.  光入射側から順に、第1基板と、第2基板と、を備え、
     該第1基板に、複数の第1画素が配列された第1画素領域が形成され、
     該第2基板に、複数の第2画素が配列された第2画素領域が形成され、
     該第1基板が、光入射側から順に、入射光を光電変換する第1光電変換部が形成された第1半導体基板と、第1配線層と、を備え、
     該第2基板が、光入射側から順に、第2配線層と、該入射光を光電変換する第2光電変換部が形成された第2半導体基板と、を備え、
     1つの該第1画素は、1つの該第1光電変換部を有し、
     1つの該第2画素は、1つの該第2光電変換部を有し、
     該第1基板と該第2基板とが、該第1配線層と該第2配線層とを向き合わせて貼り合わされて、
     少なくとも1つの該第1画素と、少なくとも1つの該第2画素とが、電気的に接続されている、固体撮像装置。
  2.  少なくとも1つの前記第1画素と、少なくとも1つの前記第2画素とが、Cu-Cu接合により、電気的に接続されている、請求項1に記載の固体撮像装置。
  3.  前記複数の第1画素の全ての画素と、前記複数の第2画素の全ての画素とが、Cu-Cu接合により、電気的に接続されている、請求項1に記載の固体撮像装置。
  4.  前記第1光電変換部と前記第2光電変換部とが、前記入射光の互いに異なる波長域成分を光電変換する、請求項1に記載の固体撮像装置。
  5.  前記第1光電変換部が、前記入射光の可視光の波長域成分を光電変換し、
     前記第2光電変換部が、前記入射光の赤外光の波長域成分を光電変換する、請求項1に記載の固体撮像装置。
  6.  前記第1配線層及び前記第2配線層に、前記入射光が透過する光路が形成されている、請求項1に記載の固体撮像装置。
  7.  前記光路に、導波路が形成されている、請求項6に記載の固体撮像装置。
  8.  前記導波路の外側に、光反射部材が配されている、請求項7に記載の固体撮像装置。
  9.  前記第2基板に、回路領域が形成されている、請求項1に記載の固体撮像装置。
  10.  前記第1基板に、回路領域が形成されている、請求項1に記載の固体撮像装置。
  11.  第3基板を更に備え、
     該第3基板が、光入射側から順に、第3配線層と、第3半導体基板と、を備え、
     前記第2基板と該第3基板とが、前記第2半導体基板と該第3配線層とを向き合わせて貼り合わされて、前記第2基板と該第3基板とが、電気的に接続されている、請求項1に記載の固体撮像装置。
  12.  前記第2半導体基板を貫通する貫通電極が形成され、該貫通電極を介して、前記第2基板と前記第3基板とが、電気的に接続されている、請求項11に記載の固体撮像装置。
  13.  前記第3基板に回路領域が形成されている、請求項11に記載の固体撮像装置。
  14.  少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第1基板に形成されたフローティングディフュージョン(FD)を経由する、請求項1に記載の固体撮像装置。
  15.  少なくとも1つの前記第1光電変換部によって生成された第1信号電荷と、少なくとも1つの前記第2光電変換部によって生成された第2信号電荷とが、前記第2基板に形成されたフローティングディフュージョン(FD)を経由する、請求項1に記載の固体撮像装置。
  16.  少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第1基板に形成された少なくとも1種の画素トランジスタを共有する、請求項1に記載の固体撮像装置。
  17.  少なくとも1つの前記第1画素と少なくとも1つの前記第2画素とが、前記第2基板に形成された少なくとも1種の画素トランジスタを共有する、請求項1に記載の固体撮像装置。
  18.  請求項1に記載の固体撮像装置が搭載された、電子機器。
PCT/JP2020/028117 2019-10-16 2020-07-20 固体撮像装置及び電子機器 WO2021075117A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-189263 2019-10-16
JP2019189263A JP2021064722A (ja) 2019-10-16 2019-10-16 固体撮像装置及び電子機器

Publications (1)

Publication Number Publication Date
WO2021075117A1 true WO2021075117A1 (ja) 2021-04-22

Family

ID=75488161

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028117 WO2021075117A1 (ja) 2019-10-16 2020-07-20 固体撮像装置及び電子機器

Country Status (2)

Country Link
JP (1) JP2021064722A (ja)
WO (1) WO2021075117A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022269837A1 (ja) * 2021-06-23 2022-12-29 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079861A (ja) * 2010-09-30 2012-04-19 Canon Inc 固体撮像装置
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
WO2015146253A1 (ja) * 2014-03-28 2015-10-01 オリンパス株式会社 固体撮像装置
JP2018006652A (ja) * 2016-07-06 2018-01-11 キヤノン株式会社 光電変換装置、撮像システム、移動体、および、光電変換装置の製造方法
WO2019188026A1 (ja) * 2018-03-30 2019-10-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の製造方法、及び固体撮像装置を搭載した電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012079861A (ja) * 2010-09-30 2012-04-19 Canon Inc 固体撮像装置
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
WO2015146253A1 (ja) * 2014-03-28 2015-10-01 オリンパス株式会社 固体撮像装置
JP2018006652A (ja) * 2016-07-06 2018-01-11 キヤノン株式会社 光電変換装置、撮像システム、移動体、および、光電変換装置の製造方法
WO2019188026A1 (ja) * 2018-03-30 2019-10-03 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の製造方法、及び固体撮像装置を搭載した電子機器

Also Published As

Publication number Publication date
JP2021064722A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7449317B2 (ja) 撮像装置
WO2018139278A1 (ja) 撮像素子、製造方法、および電子機器
JP6951866B2 (ja) 撮像素子
WO2018180569A1 (ja) 固体撮像装置、および電子機器
WO2021131388A1 (ja) 固体撮像装置及び固体撮像装置の製造方法、並びに電子機器
WO2021044716A1 (ja) 固体撮像装置及び電子機器
JP2023164552A (ja) 固体撮像装置及び電子機器
US20220231062A1 (en) Imaging device, method of producing imaging device, imaging apparatus, and electronic apparatus
WO2021193266A1 (ja) 固体撮像装置
CN111133581A (zh) 摄像元件、其制造方法和电子设备
WO2021075117A1 (ja) 固体撮像装置及び電子機器
WO2023013444A1 (ja) 撮像装置
WO2021075116A1 (ja) 固体撮像装置及び電子機器
CN110998849B (zh) 成像装置、相机模块和电子设备
WO2021049142A1 (ja) 固体撮像装置
WO2024029408A1 (ja) 撮像装置
US20240153978A1 (en) Semiconductor chip, manufacturing method for semiconductor chip, and electronic device
WO2021215299A1 (ja) 撮像素子および撮像装置
WO2021140936A1 (ja) 受光装置
WO2022130987A1 (ja) 固体撮像装置およびその製造方法
WO2020100709A1 (ja) 固体撮像装置及び電子機器
WO2020105331A1 (ja) 固体撮像装置及び電子機器
WO2020017205A1 (ja) 撮像素子および電子機器
WO2019239767A1 (ja) 撮像装置
TW202316649A (zh) 攝像裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20877690

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20877690

Country of ref document: EP

Kind code of ref document: A1