WO2021117648A1 - 撮像装置および電子機器 - Google Patents

撮像装置および電子機器 Download PDF

Info

Publication number
WO2021117648A1
WO2021117648A1 PCT/JP2020/045356 JP2020045356W WO2021117648A1 WO 2021117648 A1 WO2021117648 A1 WO 2021117648A1 JP 2020045356 W JP2020045356 W JP 2020045356W WO 2021117648 A1 WO2021117648 A1 WO 2021117648A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
photoelectric conversion
optical system
unit
light
Prior art date
Application number
PCT/JP2020/045356
Other languages
English (en)
French (fr)
Inventor
貴志 町田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202080074583.6A priority Critical patent/CN114600448A/zh
Priority to US17/756,811 priority patent/US20220415948A1/en
Priority to EP20899448.3A priority patent/EP4075505A4/en
Priority to JP2021563931A priority patent/JPWO2021117648A1/ja
Publication of WO2021117648A1 publication Critical patent/WO2021117648A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers

Definitions

  • the present disclosure relates to an imaging device that performs imaging by performing photoelectric conversion, and an electronic device provided with the imaging device.
  • the imaging device as an embodiment of the present disclosure has a condensing optical system that condenses incident light in an effective pixel region extending along a first surface, and an amount of incident light that has passed through the condensing optical system.
  • a photoelectric conversion unit capable of generating the corresponding charge by photoelectric conversion a charge holding unit capable of holding the charge transferred from the photoelectric conversion unit, and a photoelectric conversion unit and a charge in a thickness direction orthogonal to the first surface. It has a first light-shielding film provided between the holding portion and blocking incident light.
  • the condensing optical system condenses the incident light at a position in the effective pixel region that overlaps with the first light-shielding film in the thickness direction.
  • the effective pixel region is a region in which incident light can be received.
  • the electronic device as one embodiment of the present disclosure includes the above-mentioned imaging device.
  • FIG. 1 is a first cross-sectional view schematically showing a cross section of two adjacent sensor pixels in the solid-state image sensor shown in FIG. 1 along the stacking direction.
  • FIG. 2 is a second cross-sectional view schematically showing a cross section of two adjacent sensor pixels in the solid-state image sensor shown in FIG. 1 along the stacking direction.
  • FIG. 1 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 3 is a third plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 6 is a fourth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 5 is a fifth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • 6 is a sixth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 7 is a seventh plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 8 is an eighth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1. It is sectional drawing which shows typically the path of the light incident on the sensor pixel in the solid-state image sensor as a reference example.
  • FIG. 3 is a cross-sectional view schematically showing a path of light incident on the sensor pixel shown in FIG. 3A. It is a top view which shows the 1st modification of the arrangement pattern of a lens in the solid-state image sensor of 1st Embodiment schematically. It is a top view which shows typically the 2nd modification of the arrangement pattern of a lens in the solid-state image sensor of 1st Embodiment.
  • FIG. 5 is a plan view schematically showing an eighth modification of a lens arrangement pattern in the solid-state image sensor of the first embodiment.
  • FIG. 5 is a plan view schematically showing a ninth modification of a lens arrangement pattern in the solid-state image sensor of the first embodiment. It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 2nd Embodiment of this disclosure. It is a 2nd sectional view schematically showing the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 2nd Embodiment of this disclosure.
  • FIG. 7 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 7A.
  • FIG. 7B is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 7B. It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 3rd Embodiment of this disclosure. It is a 2nd sectional view schematically showing the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 3rd Embodiment of this disclosure. It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 1st modification of 3rd Embodiment of this disclosure.
  • FIG. 3 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 13A.
  • FIG. 3 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 13B.
  • It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 1st modification of 4th Embodiment of this disclosure.
  • FIG. 1 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 15A.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 15B.
  • It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on the 2nd modification of the 4th Embodiment of this disclosure.
  • FIG. 1 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 17A.
  • FIG. 17B is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 17B.
  • FIG. 1 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 19A.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 19B.
  • It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 4th modification of 4th Embodiment of this disclosure.
  • FIG. 2 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 21A.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 21B.
  • It is a 1st cross-sectional view which shows typically the cross section along the stacking direction of two adjacent sensor pixels in the pixel array part which concerns on 5th modification of 4th Embodiment of this disclosure.
  • FIG. 3 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 23A.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 23B.
  • It is a circuit diagram which shows the circuit structure of the sensor pixel in the image pickup apparatus which concerns on 5th Embodiment of this disclosure.
  • FIG. 5 is a first plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 25.
  • FIG. 2 is a second plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 3 is a third plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 6 is a fourth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 5 is a fifth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • 6 is a sixth plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • FIG. 7 is a seventh plan view schematically showing a plan configuration of some sensor pixels in the solid-state image sensor shown in FIG. 1.
  • a global shutter type imaging pixel (hereinafter, simply referred to as a global shutter pixel) as described in Patent Document 1 described above is a photoelectric conversion unit that generates a signal charge by receiving incident light and performing photoelectric conversion. And a charge holding portion that holds the signal charge are laminated in the thickness direction. Therefore, unnecessary light is likely to be incident on the charge holding portion. Such incident of unnecessary light on the charge holding portion may cause noise and deteriorate the image signal. Therefore, PLS (Parasitic Light Sensitivity) has been reduced by forming a horizontal light-shielding film made of metal or the like between the photoelectric conversion part and the charge-holding part to suppress the incident of light on the charge-holding part. Technology is being developed.
  • the present disclosure has been made in view of these problems, and an object of the present invention is to provide an imaging device capable of further improving imaging performance such as reducing PLS, and an electronic device provided with such an imaging device. It is supposed to be.
  • First Embodiment An example of a solid-state image sensor in which one photoelectric conversion unit and a plurality of condensing optical systems are provided for each pixel. 2. Modification example of the first embodiment Modification example of the arrangement pattern of a plurality of condensing optical systems. 3. 3. Second Embodiment A first example of a solid-state image sensor in which the oblique incident sensitivity characteristic is improved. 4. Third Embodiment A second example of a solid-state image sensor in which the oblique incident sensitivity characteristic is improved. 5. Modification of the third embodiment 6.
  • Fourth Embodiment A first example of a solid-state image pickup apparatus in which a normal pixel and an image plane phase difference detection pixel are included. 7. Modification of the fourth embodiment 8. Fifth Embodiment An example of a solid-state image sensor in which two photoelectric conversion units and a plurality of condensing optical systems are provided for each pixel. 9. Application example to electronic equipment 10. Application example to mobile body 11. Other variants
  • FIG. 1 is a block diagram showing a configuration example of a function of the solid-state image sensor 101 according to the first embodiment of the present technology.
  • the solid-state image sensor 101 is a so-called global shutter type back-illuminated image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the solid-state image sensor 101 captures an image by receiving light from a subject, performing photoelectric conversion, and generating an image signal.
  • CMOS Complementary Metal Oxide Semiconductor
  • the global shutter method is basically a method of performing global exposure that starts exposure for all pixels at the same time and ends exposure for all pixels at the same time.
  • all the pixels mean all the pixels of the portion appearing in the image, and dummy pixels and the like are excluded.
  • the global shutter method also includes a method of performing global exposure not only on all the pixels of the portion appearing in the image but also on the pixels in a predetermined region.
  • a photoelectric conversion unit such as a photodiode that receives light from a subject and converts it into an electric signal has a light receiving surface on which light from the subject is incident and wiring such as a transistor that drives each pixel.
  • wiring such as a transistor that drives each pixel.
  • the solid-state image sensor 101 includes, for example, a pixel array unit 111, a vertical drive unit 112, a column signal processing unit 113, a data storage unit 119, a horizontal drive unit 114, a system control unit 115, and a signal processing unit 118.
  • the pixel array unit 111 is formed on the semiconductor substrate 11 (described later). Peripheral circuits such as the vertical drive unit 112, the column signal processing unit 113, the data storage unit 119, the horizontal drive unit 114, the system control unit 115, and the signal processing unit 118 are placed on the same semiconductor substrate 11 as the pixel array unit 111, for example. It is formed.
  • the pixel array unit 111 has a plurality of sensor pixels PX including a photoelectric conversion unit PD (described later) that generates and stores electric charges according to the amount of light incident from the subject. As shown in FIG. 1, the sensor pixels PX are arranged in the horizontal direction (row direction) and the vertical direction (column direction), respectively.
  • pixel drive lines 116 are wired along the row direction for each pixel row composed of sensor pixels PX arranged in a row in the row direction, and are composed of sensor pixels PX arranged in a row in the column direction.
  • a vertical signal line VSL is wired along the row direction for each pixel row.
  • the vertical drive unit 112 includes a shift register, an address decoder, and the like.
  • the vertical drive unit 112 simultaneously drives all of the plurality of sensor pixels PX in the pixel array unit 111 by supplying signals or the like to the plurality of sensor pixels PX via the plurality of pixel drive lines 116, or pixels. Drive in line units.
  • the signal output from each unit pixel of the pixel row selectively scanned by the vertical drive unit 112 is supplied to the column signal processing unit 113 through each of the vertical signal lines VSL.
  • the column signal processing unit 113 performs predetermined signal processing on the signal output from each unit pixel of the selected row through the vertical signal line VSL for each pixel column of the pixel array unit 111, and the pixel signal after the signal processing. Is temporarily retained.
  • the column signal processing unit 113 includes, for example, a shift register and an address decoder, and performs noise removal processing, correlated double sampling processing, A / D (Analog / Digital) conversion processing of analog pixel signals, and the like. Generates a digital pixel signal.
  • the column signal processing unit 113 supplies the generated pixel signal to the signal processing unit 118.
  • the horizontal drive unit 114 is composed of a shift register, an address decoder, and the like, and the unit circuits corresponding to the pixel strings of the column signal processing unit 113 are sequentially selected. By the selective scanning by the horizontal drive unit 114, the pixel signals processed by the column signal processing unit 113 for each unit circuit are sequentially output to the signal processing unit 118.
  • the system control unit 115 includes a timing generator or the like that generates various timing signals.
  • the system control unit 115 controls the drive of the vertical drive unit 112, the column signal processing unit 113, and the horizontal drive unit 114 based on the timing signal generated by the timing generator.
  • the signal processing unit 118 temporarily stores data in the data storage unit 119 as necessary, and performs signal processing such as arithmetic processing on the pixel signal supplied from the column signal processing unit 113, and each pixel signal. It outputs an image signal consisting of.
  • the data storage unit 119 temporarily stores the data required for the signal processing when the signal processing unit 118 performs the signal processing.
  • FIG. 2 shows a circuit configuration example of two sensor pixels PX1 and PX4 out of a plurality of sensor pixels PX constituting the pixel array unit 111.
  • a plurality of sensor pixels PX other than the sensor pixels PX1 and PX4 have substantially the same configuration.
  • the sensor pixel PX1 and the sensor pixel PX4 are arranged so as to sandwich the other two sensor pixels PX2 and the sensor pixel PX3 as shown in FIGS. 4A to 4F described later.
  • the sensor pixels PX (PX1, PX4) in the pixel array unit 111 realize a memory-holding type global shutter.
  • the sensor pixel PX1 includes a photoelectric conversion unit PD1, first to third transfer transistors TG1A to TG1C, a charge holding unit MEM1, an discharge transistor OFG1, a discharge unit OFD1, and a buffer BUF1.
  • the first transfer transistor TG1A includes a transfer gate TRZ1
  • the second transfer transistor TG1B includes a transfer gate TRY1 and a transfer gate TRX1
  • the third transfer transistor TG1C includes a transfer gate TRG1.
  • the sensor pixel PX4 has a photoelectric conversion unit PD4, first to third transfer transistors TG4A to TG4C, a charge holding unit MEM4, an emission transistor OFG4, an emission unit OFD4, and a buffer BUF4.
  • the first transfer transistor TG4A includes a transfer gate TRZ4
  • the second transfer transistor TG4B includes a transfer gate TRY4 and a transfer gate TRX4
  • the third transfer transistor TG4C includes a transfer gate TRG4.
  • the sensor pixel PX1 and the sensor pixel PX4 share the power supply VDD1, VDD2, the charge / voltage conversion unit FD14, the reset transistor RST14, the amplification transistor AMP14, the selection transistor SEL14, and the like.
  • the first to third transfer transistors TG1A to TG1C, the first to third transfer transistors TG4A to TG4C, the reset transistor RST14, the amplification transistor AMP14, and the selection transistor SEL14 are all N-type MOS transistors. is there.
  • the system control unit 115 is attached to each gate electrode of the first to third transfer transistors TG1A to TG1C, the first to third transfer transistors TG4A to TG4C, the reset transistor RST14, the amplification transistor AMP14, and the selection transistor SEL14, respectively.
  • the drive signal is supplied by the vertical drive unit 112 and the horizontal drive unit 114 based on the drive control of the above.
  • These drive signals are pulse signals in which a high level state becomes an active state (on state) and a low level state becomes an inactive state (off state).
  • setting the drive signal to the active state is also referred to as turning on the drive signal
  • making the drive signal inactive is also referred to as turning off the drive signal.
  • the photoelectric conversion units PD1 and PD4 are photoelectric conversion elements composed of, for example, PN junction photodiodes, and are configured to receive light from a subject and generate and store electric charges according to the amount of the received light by photoelectric conversion. Has been done.
  • the charge holding units MEM1 and MEM4 are provided between the photoelectric conversion units PD1 and PD4 and the charge-voltage conversion unit FD14, respectively, and are generated and stored in the photoelectric conversion units PD1 and PD4 in order to realize the global shutter function. This is a region for temporarily holding the electric charge until the electric charge is transferred to the charge-voltage conversion unit FD14.
  • the first transfer transistor TG1A and the second transfer transistor TG1B are arranged in order between the photoelectric conversion unit PD1 and the charge holding unit MEM1, and the third transfer transistor TG1C is the charge holding unit MEM1 and the charge voltage conversion unit. It is arranged between the FD14 and the FD14.
  • the first transfer transistor TG1A and the second transfer transistor TG1B are configured to transfer the electric charge accumulated in the photoelectric conversion unit PD1 to the charge holding unit MEM1 according to the drive signal applied to the gate electrode thereof. ing.
  • the first transfer transistor TG4A and the second transfer transistor TG4B are sequentially arranged between the photoelectric conversion unit PD4 and the charge holding unit MEM4, and the third transfer transistor TG4C is charged with the charge holding unit MEM4. It is arranged between the voltage conversion unit FD14 and the voltage conversion unit FD14.
  • the first transfer transistor TG4A and the second transfer transistor TG4B are configured to transfer the electric charge stored in the photoelectric conversion unit PD4 to the charge holding unit MEM4 according to the drive signal applied to the gate electrode thereof. ing.
  • the third transfer transistor TG1C and the third transfer transistor TG4C charge the charges temporarily held in the charge holding unit MEM1 and the charge holding unit MEM4, respectively, according to the drive signal applied to their gate electrodes. It is configured to transfer to the voltage conversion unit FD14.
  • the charges held in the charge holding units MEM1 and MEM4 are the third. It is transferred to the charge-voltage conversion unit FD14 via the transfer transistors TG1C and TG4C.
  • the buffers BUF1 and BUF4 are charge storage regions formed between the first transfer transistor TG1A and the second transfer transistor TG1B, respectively.
  • the reset transistor RST14 has a drain connected to the power supply VDD1 and a source connected to the charge-voltage conversion unit FD14.
  • the reset transistor RST14 initializes, that is, resets, the charge-voltage conversion unit FD14 according to the drive signal applied to the gate electrode. For example, when the reset transistor RST14 is turned on by the drive signal, the potential of the charge-voltage conversion unit FD14 is reset to the voltage level of the power supply VDD1. That is, the charge-voltage conversion unit FD14 is initialized.
  • the charge-voltage conversion unit FD14 transfers the electric charges transferred from the photoelectric conversion units PD1 and PD4 via the first to third transfer transistors TG1A to TG1C, TG4A to TG4C and the charge holding units MEM1 and MEM45, respectively, as an electric signal (for example).
  • Voltage signal is a floating diffusion region that is converted and output.
  • a reset transistor RST14 is connected to the charge-voltage conversion unit FD14, and a vertical signal line VSL is connected via an amplification transistor AMP14 and a selection transistor SEL14.
  • the amplification transistor AMP14 outputs an electric signal corresponding to the potential of the charge-voltage conversion unit FD14.
  • the amplification transistor AMP 14 constitutes, for example, a constant current source and a source follower circuit provided in the column signal processing unit 113.
  • the selection transistor SEL14 is turned on when the sensor pixel PX is selected, and an electric signal from the charge-voltage conversion unit FD14 via the amplification transistor AMP14 is output to the column signal processing unit 113 through the vertical signal line VSL. ing.
  • the sensor pixels PX1 and PX4 further include discharge units OFD1 and OFD4 in addition to the charge-voltage conversion unit FD14 as charge transfer destinations of the photoelectric conversion units PD1 and PD4.
  • the discharge transistor OFG1 is arranged between the buffer BUF1 and the discharge part OFD1
  • the discharge transistor OFG4 is arranged between the buffer BUF4 and the discharge part OFD4.
  • the discharge transistor OFG1 has a drain connected to the discharge unit OFD1 and a source connected to the buffer BUF1.
  • the discharge transistor OFG4 has a drain connected to the discharge portion OFD4 and a source connected to the buffer BUF4.
  • the discharge transistors OFG1 and OFG4 initialize, that is, reset the photoelectric conversion units PD1 and PD4 according to the drive signal applied to each gate electrode. Resetting the photoelectric conversion units PD1 and PD4 means depleting the photoelectric conversion units PD1 and PD4.
  • the discharge transistors OFG1 and OFG4 form overflow paths, respectively, and the charges overflowing from the photoelectric conversion units PD1 and PD4 are discharged to the discharge units OFD1 and OFD4, respectively.
  • the emission transistors OFG1 and OFG4 are turned on and the transfer gates TRZ1 and TRZ4 are turned on.
  • FIG. 3A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 out of a plurality of sensor pixels PX constituting the pixel array unit 111.
  • FIG. 3B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among a plurality of sensor pixels PX constituting the pixel array unit 111.
  • FIG. 3A represents a cross section in the direction of the arrow along the X-axis direction IIIA-IIIA cutting line passing through the sensor pixels PX1 and the sensor pixels PX5 shown in FIGS. 4A to 4H, respectively.
  • FIG. 3B shows a cross section in the arrow-viewing direction along the IIIB-IIIB cutting line in the Y-axis direction passing through the sensor pixels PX1 and the sensor pixels PX2 shown in FIGS. 4A to 4H, respectively.
  • FIGS. 4A to 4H show a plan configuration example of eight sensor pixels PX1 to PX8 arranged in a grid pattern of 2 rows and 4 columns, respectively. Specifically, FIGS. 4A to 4H represent the planar configurations at the height positions Lv1 to Lv8 shown in FIGS. 3A and 3B, respectively.
  • the sensor pixels PX1 to PX8 shown in FIGS. 4A to 4H are repeatedly arranged along the X-axis direction and the Y-axis direction as the minimum unit. It is preferable that each component of the sensor pixels PX1 to PX8 has substantially the same structure. Further, the sensor pixels PX1 to PX4 arranged in the Y-axis direction and the sensor pixels PX5 to PX8 arranged in the Y-axis direction may have a symmetrical structure in the X-axis direction.
  • the sensor pixel PX2 and the sensor pixel PX3 are the photoelectric conversion units PD2 and PD3, the first to third transfer transistors TG2A to TG2C, and TG3A, similarly to the sensor pixel PX1 and the sensor pixel PX4 shown in FIG. It has TG3C, charge holding units MEM2, MEM3, discharge transistors OFG2, OFG3, discharge parts OFD2, OFD3, buffers BUF2, BUF3 and the like. Further, the sensor pixel PX2 and the sensor pixel PX3 share a vertical signal line VSL23, a charge-voltage conversion unit FD23, a reset transistor RST23, an amplification transistor AMP23, a selection transistor SEL23, and the like.
  • the sensor pixels PX5 to PX8 have a configuration corresponding to the sensor pixels PX1 to PX4, respectively.
  • the sensor pixel PX5 and the sensor pixel PX8 have the same as the sensor pixel PX1 and the sensor pixel PX4 shown in FIG. 2, the photoelectric conversion units PD5 and PD8, the first to third transfer transistors TG5A to TG5C, TG8A to TG8C, and the charge. It has holding units MEM5, MEM8, discharge transistors OFG5, OFG8, discharge parts OFD5, OFD8, buffer BUF5, BUF8, and the like.
  • the sensor pixel PX5 and the sensor pixel PX8 share a vertical signal line VSL58, a charge-voltage conversion unit FD58, a reset transistor RST58, an amplification transistor AMP58, a selection transistor SEL58, and the like.
  • the sensor pixel PX6 and the sensor pixel PX7 are the photoelectric conversion unit PD6, PD7, the first to third transfer transistors TG6A to TG6C, TG7A to TG7C, and the charge holding unit MEM6, similarly to the sensor pixel PX2 and the sensor pixel PX3. It has a MEM7, discharge transistors OFG6, OFG7, discharge parts OFD6, OFD7, buffer BUF6, BUF7 and the like.
  • the sensor pixel PX6 and the sensor pixel PX7 share a vertical signal line VSL67, a charge-voltage conversion unit FD67, a reset transistor RST67, an amplification transistor AMP67, a selection transistor SEL67, and the like.
  • the pixel array unit 111 joins the first substrate S1 including the first layer LY1 and the second layer LY2 and the second substrate S2 including the third layer LY3. It has a structure bonded at the interface K. At the joining interface K, the wiring layers are joined together. As the bonding between the wiring layers, so-called Cu-Cu bonding in which the surfaces of metal layers such as Cu (copper) are activated by plasma irradiation and bonded to each other is preferable.
  • photoelectric conversion units PD (PD1 to PD8) and the like are formed in the first layer LY1 of the pixel array unit 111.
  • the sensor pixels PX1 to PX8 have a semiconductor substrate 11 formed of a semiconductor material such as Si (silicon) and photoelectric conversion units PD (PD1 to PD8) embedded in the semiconductor substrate 11 in the first layer LY1. doing.
  • the semiconductor substrate 11 includes a front surface 11S1 and a back surface 11S2 opposite to the front surface 11S1.
  • the back surface 11S2 is a surface on which light from the outside is incident, and is provided with a color filter forming layer including color filter CFs (CF1 to CF8) (see FIGS.
  • the color filter CF1 is green light
  • the color filter CF2 is red light
  • the color filter CF3 is green light
  • the color filter CF4 is blue light
  • the color filter CF5 is red light
  • the color filter CF6 is green light
  • the color filter CF7 is blue light
  • the color filter CF8 transmits green light, respectively.
  • the color arrangement pattern is not limited to this.
  • a total of 32 lenses LS (LS11-14, LS21-24, LS31-34, LS41-44, LS51-54, LS61-64, LS71 ⁇ 74, LS81 ⁇ 84) are further provided (see FIGS. 3A, 3B and 4A). Details of the lens LS will be described later. Further, the tips of the two vertical trench gates 51 and 52 extending in the depth direction (+ Z direction) from the lower part of the transfer gates TRZ (TRZ1 to TRZ8) provided on the surface 11S1 are the photoelectric conversion units PD ( It is in contact with PD1 to PD8) (see FIGS. 3A, 3B and 4E).
  • the first layer LY1 of the semiconductor substrate 11 is further provided with an element separation unit 12 so as to surround the photoelectric conversion units PD (PD1 to PD8), respectively (FIGS. 3A, 3B and 4C).
  • the element separation unit 12 is a wall-shaped member that extends in the Z-axis direction so as to penetrate the semiconductor substrate 11 at the boundary position between the sensor pixels PX adjacent to each other and surrounds each photoelectric conversion unit PD.
  • the sensor pixels PX adjacent to each other are electrically separated from each other by the element separation unit 12. Further, the element separation unit 12 prevents the leakage light from the adjacent sensor pixels PX from being incident on the photoelectric conversion units PD (PD1 to PD8) to generate noise such as color mixing.
  • the element separation unit 12 is made of an insulating material such as silicon oxide.
  • the photoelectric conversion units PD1 to PD8 are formed in the first layer LY1 respectively.
  • FIG. 4C shows an example in which the first aspect ratio AR1 is 1, that is, the width X1 and the length Y1 are equal, and the photoelectric conversion units PD1 to PD8 are formed in each of the effective pixel regions 1R1 to 1R8. ..
  • a charge holding portion forming region 2R (2R1 to 2R8) including the charge holding portions MEM1 to MEM8 is formed in the second layer LY2 of the first substrate S1 constituting the pixel array portion 111.
  • the first aspect ratio AR1 and the second aspect ratio AR2 are different.
  • FIG. 4G shows an example in which the second aspect ratio AR2 is 4, that is, the length Y2 is four times as large as the width X2.
  • the width X2 is half the size of the width X1, and the length Y2 is twice the size of the length Y1.
  • the first to third transfer transistors TG1A to TG1C, TG2A to TG2C, TG3A to TG3C, TG4A to TG4C, charge holding units MEM1 to MEM4, discharge transistors OFG1 to OFG4, discharge units OFD1 to OFD4, buffers BUF1 to BUF4, power supply VDD, charge-voltage conversion units FD14, FD23, etc. are formed (FIGS. 3A, 3B and 23). See 4G).
  • the charge holding units MEM1 to MEM4 are located below, for example, transfer gates TRY1 to TRY4, TRX1 to TRX4, and TRG1 to TRG4.
  • the charge holding portion forming regions 2R5 to 2R8 corresponding to the sensor pixels PX5 to PX8 for example, the first to third transfer transistors TG5A to TG5C, TG6A to TG6C, TG7A to TG7C , TG8A to TG8C
  • charge holding units MEM5 to MEM8 discharge transistors OFG5 to OFG8, discharge parts OFD5 to OFD8, buffers BUF5 to BUF8, power supply VDD, charge-voltage conversion units FD58, FD67, etc. are formed (FIGS. 3A, FIG. See 3B and FIG. 4G).
  • the charge holding units MEM5 to MEM8 are located below, for example, transfer gates TRY5 to TRY8, TRX5 to TRX8, and TRG5 to TRG8.
  • Two vertical trench gates 51 and 52 arranged in the X-axis direction are provided in the charge holding portion forming regions 2R1 to 2R8 of the second layer LY2, respectively, corresponding to the sensor pixels PX1 to PX8 (FIG. 3A, 3B, 4E and 4F).
  • the vertical trench gates 51 and 52 form a part of the charge transfer unit, connect the photoelectric conversion units PD1 to PD8 and the transfer gates TRZ1 to TRZ8, respectively, and connect the buffers BUF1 to BUF8 from the photoelectric conversion units PD1 to PD8. It is a path for transferring charges to the charge holding units MEM1 to MEM8, which are transfer destinations. Only one vertical trench gate may be arranged, or three or more vertical trench gates may be arranged.
  • a horizontal light-shielding film 13 extending along the XY surface so as to overlap the vertical trench gates 51 and 52 in the Z-axis direction is provided (FIGS. 3A, 3A, See FIGS. 3B and 4D).
  • the horizontal light-shielding film 13 is a light-shielding member that prevents incident light from entering the charge holding portions MEM1 to MEM8, and is provided so as to overlap the horizontal light-shielding film 14 described later in the Z-axis direction.
  • the horizontal light-shielding film 13 is connected to, for example, the end portion of the element separation portion 12 opposite to the back surface 11S2. As shown in FIG.
  • a part of the horizontal light-shielding film 13 is provided with openings 13K1 to 13K8 so as to partially partition the photoelectric conversion units PD1 to PD8 in the Z-axis direction.
  • the electric charges generated in the photoelectric conversion units PD1 to PD8 move to the vertical trench gates 51 and 52 through the openings 13K1 to 13K8, respectively.
  • the positions of the openings 13K1 to 13K8 on the XY plane are different from the positions of the openings 14K1 to 14K8 (described later) on the XY plane in the horizontal light shielding film 14.
  • the charge holding portion forming region 2R1 is not provided only directly above the effective pixel region 1R1 constituting the sensor pixel PX1, and the charge holding portion MEM1 is formed by the effective pixel region 1R1 and the effective pixel region 1R1. It is formed across both of the effective pixel regions 1R2.
  • the charge holding portion forming region 2R2 is not provided only directly above the effective pixel region 1R2 constituting the sensor pixel PX2, and the charge holding portion MEM2 straddles both the effective pixel region 1R1 and the effective pixel region 1R2. Is formed.
  • the effective pixel region 1R1 overlaps a part of the charge holding portion forming region 2R1 and a part of the charge holding portion forming region 2R2, respectively, and the effective pixel region 1R2 is the remaining part of the charge holding portion forming region 2R1 and the charge holding portion forming region. It overlaps with the rest of 2R2.
  • each of the charge holding portion forming regions 2R1 to 2R8 further has a light-shielding wall 17 extending in the Z-axis direction and extending along the Y-axis direction.
  • the charge holding units MEM1 to MEM4 are arranged so as to be sandwiched between two light-shielding walls 17 adjacent to each other in the X-axis direction.
  • the light-shielding wall 17 is a member that prevents light from entering the charge holding portions MEM1 to MEM8.
  • a horizontal light-shielding film 14 extending along the XY plane is provided so as to overlap the horizontal light-shielding film 13 in the thickness direction (Z-axis direction). (FIGS. 3A, 3B and 4F).
  • the horizontal light-shielding film 14 is a member that prevents incident light from entering the charge-holding units MEM1 to MEM8, and the light transmitted through the photoelectric conversion units PD1 to PD8 is the charge-holding unit MEM1. -Suppresses the generation of noise when incident on the MEM8.
  • the light incident from the back surface 11S2 and transmitted through the photoelectric conversion units PD1 to PD8 without being absorbed by the photoelectric conversion units PD1 to PD8 is reflected by the horizontal shading film 14 and is again incident on the photoelectric conversion units PD1 to PD8.
  • the horizontal light-shielding film 14 is also a reflector, and the light transmitted through the photoelectric conversion units PD1 to PD8 is incident on the photoelectric conversion units PD1 to PD8 again to improve the photoelectric conversion efficiency.
  • the horizontal light-shielding film 14 is provided with openings 14K (14K1 to 14K8) through which the electric charges generated by the photoelectric conversion units PD1 to PD8 can pass.
  • the vertical trench gates 51 and 52 are provided so as to penetrate the openings 14K1 to 14K8, respectively. It is preferable that the openings 14K1 to 14K8 are provided at different positions from the openings 13K1 to 13K8 in the effective pixel area 1R.
  • the horizontal light-shielding film 14 may be provided over the entire XY surface of the pixel array portion 111 except for the openings 14K1 to 14K8. Further, the horizontal light-shielding film 14 may be connected to the light-shielding wall 17.
  • the horizontal light-shielding films 13 and 14 and the light-shielding wall 17 each have a two-layer structure of, for example, an inner layer portion and an outer layer portion surrounding the inner layer portion.
  • the inner layer portion is made of, for example, a material containing at least one of a light-shielding elemental metal, a metal alloy, a metal nitride, and a metal silicide. More specifically, as the constituent materials of the inner layer portion, Al (aluminum), Cu (copper), Co (cobalt), W (tungsten), Ti (titanium), Ta (tantalum), Ni (nickel), Examples thereof include Mo (molybdenum), Cr (chromium), Ir (iridium), platinum iridium, TiN (titanium nitride) and tungsten silicon compounds. Among them, Al (aluminum) is the most optically preferable constituent material.
  • the inner layer portion may be made of graphite or an organic material.
  • the outer layer portion is made of an insulating material such as SiOx (silicon oxide). The outer layer portion ensures electrical insulation between the inner layer portion and the semiconductor substrate 11.
  • the horizontal light-shielding film 14 extending in the XY plane is formed by, for example, partially removing the semiconductor substrate 11 by a wet etching process to form a space inside the semiconductor substrate 11, and then embedding the above-mentioned material in the space.
  • Can be formed by In the wet etching process for example, when the semiconductor substrate 11 is composed of Si ⁇ 111 ⁇ , a predetermined alkaline aqueous solution is used, and the etching rate differs depending on the plane orientation of Si ⁇ 111 ⁇ . Perform sex etching. More specifically, in the Si ⁇ 111 ⁇ substrate, the property that the etching rate in the ⁇ 110> direction is sufficiently higher than the etching rate in the ⁇ 111> direction is utilized.
  • the ⁇ 111> direction is a direction having three Si back bonds.
  • the ⁇ 110> direction is a direction having one or two Si back bonds, and in the present embodiment, the X-axis direction corresponds to this.
  • KOH, NaOH, CsOH or the like can be applied if it is an inorganic solution, and EDP (ethylenediamine pyrocatechol aqueous solution), N 2 H 4 (hydrazine), NH 4 OH (if it is an organic solution).
  • EDP ethylenediamine pyrocatechol aqueous solution
  • N 2 H 4 hydroazine
  • NH 4 OH if it is an organic solution.
  • Ammonia hydroxide TMAH (tetramethylammonium hydroxide), etc.
  • the longer the traveling distance of the wet etching in the XY plane the larger the thickness (dimension in the Z-axis direction) of the horizontal light-shielding film 14. It ends up. Therefore, in order to prevent the horizontal light-shielding film 14 from becoming thicker than necessary, it is desirable that the progress distance of wet etching in the XY plane is as short as possible. Therefore, as shown in FIG. 3A of the present embodiment, it is preferable to shorten the dimension of the horizontal light-shielding film 14 in the X-axis direction.
  • the present embodiment it is possible to form a space in which the horizontal light-shielding film 14 is formed by the wet etching process that proceeds in the X-axis direction by using the trench that is dug down when forming the light-shielding wall 17 extending in the Y-axis direction. .. By doing so, it is possible to suppress an increase in the thickness of the finally obtained horizontal light-shielding film 14.
  • the semiconductor substrate 11 is, for example, a P-type (first conductive type), and the photoelectric conversion unit PD and the charge holding units MEM1 to MEM4 are N-type (second conductive type).
  • the vertical signal line VSL14 is formed in a region corresponding to the effective pixel regions 1R1, 1R2 and the charge holding portion forming regions 2R1 and 2R2, respectively.
  • a charge-voltage conversion unit FD14, a reset transistor RST14, an amplification transistor AMP14, a selection transistor SEL14, and the like are formed.
  • a vertical signal line VSL23, a charge-voltage conversion unit FD23, a reset transistor RST23, an amplification transistor AMP23, a selection transistor SEL23, and the like are formed in the regions corresponding to the effective pixel regions 1R3 and 1R4 and the charge holding portion forming regions 2R3 and 2R4, respectively.
  • a vertical signal line VSL58, a charge-voltage conversion unit FD58, a reset transistor RST58, an amplification transistor AMP58, a selection transistor SEL58, and the like are formed in regions corresponding to the effective pixel regions 1R5 and 1R6 and the charge holding portion forming regions 2R5 and 2R6, respectively. ing.
  • a vertical signal line VSL67, a charge-voltage conversion unit FD67, a reset transistor RST67, an amplification transistor AMP67, a selection transistor SEL67, and the like are formed in regions corresponding to the effective pixel regions 1R7 and 1R8 and the charge holding portion forming regions 2R7 and 2R8, respectively. ing.
  • the effective pixel region 1R (1R1 to 1R8) extending along the XY plane, which is surrounded by the element separation unit 12, is formed.
  • a plurality of lenses LS are arranged. Specifically, in the effective pixel region 1R1 of the sensor pixel PX1, lenses LS11 to LS14 having substantially the same dimensions and substantially the same refractive power as each other are arranged in a matrix along the XY plane. It is arranged in rows and columns. In the lenses LS11 to LS14, the dimension in the X-axis direction and the dimension in the Y-axis direction are substantially equal.
  • the plurality of lens LS is a condensing optical system that collects incident light from an imaging object.
  • Each of the plurality of lenses LS collects the above-mentioned incident light at a position in the effective pixel region 1R that overlaps with the horizontal light-shielding film 14 in the thickness direction (Z-axis direction).
  • each lens LS collects light at a position other than the center position in each corresponding effective pixel region 1R.
  • the lenses LS11 to LS14 (FIG. 4A) collect the incident light so as to be directed toward the focusing points FP11 to FP14 (FIG.
  • the horizontal light-shielding film 14 may include an opening 14K (14K1 to 14K8) at a position other than the center position in the effective pixel region 1R. This is because the intensity of the incident light is usually relatively high at the center position in the effective pixel region 1R. Therefore, it is preferable that the focusing points FP11 to FP14 are positions other than the central position of the effective pixel region 1R1 and different from the position of the opening 14K1.
  • the discharge transistor OFG and the transfer gate TRZ are turned off by supplying a low level drive signal to the discharge transistor OFG and the transfer gate TRZ, respectively, based on the drive control of the system control unit 115.
  • exposure is started in all the sensor pixels PX in the pixel array unit 111, and electric charges are generated and accumulated in each photoelectric conversion unit PD that receives the light from the subject.
  • the drive signals to the transfer gate TRZ and the transfer gate TRY are turned on in all the sensor pixels PX of the pixel array unit 111 based on the drive control of the system control unit 115.
  • the charge accumulated in the photoelectric conversion unit PD is transferred from the photoelectric conversion unit PD to the charge holding unit MEM via the transfer gate TRZ and the transfer gate TRY, and is temporarily transferred to the charge holding unit MEM. Is held in.
  • the drive signals to the transfer gate TRZ and the transfer gate TRY are turned off, and then the charges held in the charge holding unit MEM of each sensor pixel PX are sequentially read out.
  • the operation is performed.
  • the charge reading operation is performed, for example, in units of rows of the pixel array unit 111.
  • the transfer gate TRX and the transfer gate TRG are turned on by a drive signal for each row to be read.
  • the charges held in the charge holding unit MEM of each sensor pixel PX are transferred to the charge-voltage conversion unit FD line by line.
  • an electric signal indicating the level corresponding to the charge held in the charge-voltage conversion unit FD is vertically passed through the amplification transistor AMP and the selection transistor SEL in sequence. It is output to the column signal processing unit 113 through the signal line VSL.
  • FIG. 5A is a cross-sectional view schematically showing the path of the light L1 incident on the sensor pixel PX1X as a reference example.
  • FIG. 5B is a cross-sectional view schematically showing the paths of the lights L11 and L14 incident on the sensor pixel PX1 of the present embodiment.
  • one lens LS1 is arranged for one effective pixel region 1R1. Therefore, the light L1 incident on the sensor pixel PX1X passes through the lens LS1 and travels in the ⁇ Z direction, and is focused on the vicinity of the center of the effective pixel region 1R1 by the refractive power of the lens LS1. Therefore, although a part of the incident light L1 is hindered by the horizontal light-shielding film 13, the remaining part of the incident light L1 is diffracted at the open end of the horizontal light-shielding film 13 as shown by the arrow, and further, the sensor pixel PX1X It will proceed inward.
  • the incident light L1 that has entered deeper than the horizontal light-shielding film 13 is diffracted at the open end of the horizontal light-shielding film 14 as shown by the arrow, and further travels to the inside of the sensor pixel PX1X. As a result, a part of the incident light L1 may reach the charge holding portion MEM2, which may lead to deterioration of PLS.
  • the sensor pixel PX1 of the present embodiment shown in FIG. 5B a plurality of lenses LS11 to LS14 are arranged for one effective pixel area 1R1.
  • the plurality of lenses LS11 to LS14 are adapted to collect the incident light at the focusing points FP11 to FP14 at positions different from the center position of the effective pixel region 1R1, respectively. Therefore, as shown in FIG. 5B, the incident light L11 incident on, for example, the lens LS11 of the sensor pixel PX1 abuts on, for example, the horizontal light-shielding film 13 and is shielded by the horizontal light-shielding film 13.
  • the incident light L14 incident on, for example, the lens LS14 of the sensor pixel PX1 hits the horizontal light-shielding film 14 and is shielded by the horizontal light-shielding film 14 even if it passes through the opening 13K as shown in FIG. 5B. Will be done. Therefore, it is possible to prevent the incident lights L11 and L14 from reaching the charge holding unit MEM2.
  • the incident light is focused while avoiding the central position where the portion near the opening 13K of the horizontal shading film 13 and the portion near the opening 14K of the horizontal shading film 14 overlap.
  • the charge holding unit MEM it is possible to prevent unnecessary light from being incident on the charge holding unit MEM, and it is possible to improve the PLS.
  • a lens array is used in which four lens LSs having substantially the same dimensions and substantially the same refractive power are arranged in a matrix in 2 rows and 2 columns for one sensor pixel PX. I did it. Therefore, the amount of incident light can be more evenly distributed over the entire effective pixel region 1R1 having a substantially square shape.
  • FIG. 6A is a plan view showing a lens arrangement pattern in the pixel array unit 111A as a first modification of the first embodiment.
  • two lens LSs that are not divided in the X-axis direction but are evenly divided only in the Y-axis direction are arranged for one sensor pixel PX. It is designed to be installed.
  • the sensor pixel PX1 two horizontally long lenses LS11 and LS12 adjacent to each other in the Y-axis direction are provided.
  • the lenses LS11 and LS12 of the lens arrangement pattern in the pixel array unit 111A have twice the dimensions in the X-axis direction as those of the lenses LS11 and LS12 of the lens arrangement pattern (FIG. 4A) in the pixel array unit 111, while Y Has equal dimensions in the axial direction.
  • the lens arrangement pattern in the pixel array unit 111A has a high affinity with the aspect in which the image plane phase difference detection pixel is provided in a part of the sensor pixel PX.
  • FIG. 6B is a plan view showing a lens arrangement pattern in the pixel array unit 111B as a second modification of the first embodiment.
  • two lens LSs that are not divided in the Y-axis direction but are evenly divided only in the X-axis direction are arranged for one sensor pixel PX. It is designed to be installed.
  • the sensor pixel PX1 two vertically long lenses LS11 and LS12 adjacent to each other in the X-axis direction are provided.
  • the lenses LS11 and LS12 of the lens arrangement pattern in the pixel array unit 111B have the same dimensions in the X-axis direction as those of the lenses LS11 and LS12 of the lens arrangement pattern (FIG. 4A) of the first embodiment, while Y It has twice the size in the axial direction. The same applies to the other sensor pixels PX2 to PX8. As will be described later, the lens arrangement pattern in the pixel array unit 111B also has a high affinity with the aspect in which the image plane phase difference detection pixel is provided in a part of the sensor pixel PX.
  • FIG. 6C is a plan view showing a lens arrangement pattern in the pixel array unit 111C as a third modification of the first embodiment.
  • nine lens LSs evenly divided into three in both the X-axis direction and the Y-axis direction are formed in a matrix for one sensor pixel PX. It is arranged in. In this way, the number of lens LSs per sensor pixel PX may be changed according to the position of the opening 13K of the horizontal light-shielding film 13 and the position of the opening 14K of the horizontal light-shielding film 14.
  • FIG. 6D is a plan view showing a lens arrangement pattern in the pixel array unit 111D as a fourth modification of the first embodiment.
  • 16 lens LSs evenly divided into four in both the X-axis direction and the Y-axis direction are matrixed for one sensor pixel PX. They are arranged in a shape. In this way, the number of lens LSs per sensor pixel PX may be changed according to the position of the opening 13K of the horizontal light-shielding film 13 and the position of the opening 14K of the horizontal light-shielding film 14.
  • FIG. 6E is a plan view showing a lens arrangement pattern in the pixel array unit 111E as a fifth modification of the first embodiment.
  • the central lens LS of the nine lens LS corresponding to one sensor pixel PX in the pixel array unit 111C shown in FIG. 6C is removed. It is an aspect.
  • the lens arrangement pattern in the pixel array unit 111E the component of the incident light focused on the center of the effective pixel region 1R1 is reduced, so that the charge holding unit MEM is compared with the pixel array unit 111C of FIG. 6C. The ingress of incident light can be further reduced.
  • 6F to 6H are plan views showing lens arrangement patterns in the pixel array units 111F to 111H as the sixth to eighth modifications of the first embodiment. As shown in FIGS. 6F to 6H, the lens arrangement pattern in the pixel array units 111F to 111H includes two or more types of lens LS having different dimensions.
  • FIG. 6I is a plan view showing a lens arrangement pattern in the pixel array unit 111I as a ninth modification of the first embodiment.
  • all the lens LS have the same shape and the same size, but the lens LS in the direction in which the X-axis direction is the longitudinal direction and the lens LS.
  • a lens LS having a direction in which the Y-axis direction is the longitudinal direction is included.
  • FIG. 7A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among the plurality of sensor pixels PX constituting the pixel array unit 211 as the second embodiment of the present disclosure.
  • FIG. 7B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 211.
  • FIG. 8A shows the plane configuration at the height position Lv1 shown in FIGS. 7A and 7B
  • FIG. 8B shows the plane configuration at the height position Lv3 shown in FIGS. 7A and 7B.
  • FIGS. 9A and 9B correspond to FIGS.
  • FIGS. 8A and 8B correspond to FIGS. 4A and 4C in the first embodiment, respectively.
  • FIG. 7A represents a cross section in the arrow-viewing direction along the X-axis VIIA-VIIA cutting line passing through the sensor pixel PX1 and the sensor pixel PX5 shown in FIGS. 8A and 8B, respectively.
  • FIG. 7B shows a cross section in the arrow-viewing direction along the VIIB-VIIB cutting line in the Y-axis direction passing through the sensor pixel PX1 and the sensor pixel PX2 shown in FIGS. 8A and 8B, respectively.
  • the focusing point FP by the lens LS can be removed from the center position of the effective pixel region 1R1, and as a result, the effect of reducing PLS is brought about.
  • the fact that the condensing point FP by the lens LS deviates from the central position of the effective pixel region 1R1 also means that the incident light approaches the element separation unit 12 provided between the sensor pixels PX. Therefore, when the incident light is incident on the back surface 11S2 from an oblique direction, vignetting may occur in the element separation portion 12 after being transmitted to the semiconductor substrate 11 through the lens LS and the color filter CF. In that case, the incident sensitivity to obliquely incident light is lowered.
  • the plurality of lens LSs have a horizontally long planar shape with the X-axis direction as the longitudinal direction, thereby forming the X-axis direction.
  • the (horizontal) oblique incident characteristics are improved.
  • the element separation unit 12 is divided only into portions that partition adjacent sensor pixels PX in the X-axis direction, that is, in the Y-axis direction and Z. Only the part that spreads in the axial direction is provided.
  • the portions extending in the X-axis direction are not provided.
  • the plurality of lens LSs have a horizontally long planar shape with the X-axis direction as the longitudinal direction, and the element separation portion 12 is provided only at a portion extending in the Y-axis direction and the Z-axis direction.
  • the present disclosure may adopt only one of them. Even in that case, it is possible to improve the oblique incident characteristic in the X-axis direction (horizontal direction) or the oblique incident characteristic in the Y-axis direction (vertical direction).
  • FIG. 9A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 311 as the third embodiment of the present disclosure.
  • FIG. 9B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 311. Note that FIGS. 9A and 9B correspond to FIGS. 3A and 3B in the first embodiment, respectively.
  • the inner lens INL (INL1, INL2, INL5) as a layer is further included.
  • the lens LS is provided with one per sensor pixel PX, whereas the inner lens INL is arranged in two rows and two columns per one sensor pixel PX. There are only four.
  • the incident light is condensed to some extent by the lens LS, and then condensed to a focusing point other than the central position of the effective pixel region 1R1 by a plurality of inner lens INLs. Can be made to. Therefore, the PLS characteristics can be improved, and even if the incident light is inclined with respect to the back surface 11S2, vignetting can be avoided in the element separation unit 12, and the oblique incident characteristics can also be improved.
  • FIG. 10A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 311A as the first modification of the third embodiment.
  • FIG. 10B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 out of a plurality of sensor pixels PX constituting the pixel array unit 311A. Note that FIGS. 10A and 10B correspond to FIGS. 9A and 9B in the third embodiment, respectively.
  • a plurality of lens LSs located on the incident side of the inner lens INL are also provided for each sensor pixel PX.
  • each sensor pixel PX for example, four lens LS arranged in 2 rows and 2 columns are provided.
  • FIG. 11A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 311B as a second modification of the third embodiment.
  • FIG. 11B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 311B. Note that FIGS. 11A and 11B correspond to FIGS. 9A and 9B in the third embodiment, respectively.
  • the pixel array unit 311B in the pixel array unit 311B, four lens LSs arranged in, for example, 2 rows and 2 columns are arranged per one sensor pixel PX, while 1 for the inner lens INL. Only one is provided for each sensor pixel PX. In this modified example, the same effect as that of the third embodiment can be expected.
  • FIG. 12A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 311C as a second modification of the third embodiment.
  • FIG. 12B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 311C. Note that FIGS. 12A and 12B correspond to FIGS. 9A and 9B in the third embodiment, respectively.
  • FIGS. 12A and 12B in the pixel array unit 311C, four lens LS arranged in two rows and two columns, for example, are arranged per one sensor pixel PX, while instead of the inner lens INL.
  • An optical waveguide WG (WG1, WG2, WG5) is provided. In this modified example, the same effect as that of the third embodiment can be expected.
  • FIG. 13A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411 as the fourth embodiment of the present disclosure.
  • FIG. 13B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 411.
  • FIG. 14A shows the plane configuration at the height position Lv1 shown in FIGS. 13A and 13B
  • FIG. 14B shows the plane configuration at the height position Lv3 shown in FIGS. 13A and 13B. Note that FIGS. 13A and 13B correspond to FIGS.
  • FIGS. 14A and 14B correspond to FIGS. 4A and 4C in the first embodiment, respectively.
  • FIG. 13A shows a cross section in the arrow-viewing direction along the XIIIA-XIIIA cutting line in the X-axis direction passing through the sensor pixel PX1 and the sensor pixel PX5 shown in FIGS. 14A and 14B, respectively.
  • FIG. 13B shows a cross section in the arrow-viewing direction along the XIIIB-XIIIB cutting line in the Y-axis direction passing through the sensor pixel PX1 and the sensor pixel PX2 shown in FIGS. 14A and 14B, respectively.
  • the focusing point FP by the lens LS can be removed from the center position of the effective pixel region 1R1, and as a result, the effect of reducing PLS is brought about.
  • the sensor pixel PX that employs the lens LS divided in this way cannot be used as an image plane phase difference detection pixel (ZAF pixel) as it is.
  • ZAF pixel image plane phase difference detection pixel
  • a ZAF light-shielding film is provided so as to cover the left half of the photoelectric conversion unit PD, for example.
  • the ZAF light-shielding film 16 is located at a position corresponding to the arrangement position of the plurality of lens LSs in the direction in which the image plane phase difference is desired to be detected. Is provided.
  • the ZAF light-shielding film 16 is formed of a material that blocks visible light, such as metal.
  • the sensor pixel PX5 is divided into two so as to selectively cover a part of the effective pixel area 1R5 in order to obtain image plane phase difference information in the X-axis direction (left-right direction).
  • the ZAF light-shielding film 16 (16A, 16B) is arranged.
  • the ZAF light-shielding film 16A is provided at a position overlapping the right halves of the lenses LS51 and LS54, and the ZAF light-shielding film 16B is provided at a position overlapping the right halves of the lenses LS52 and LS53. Therefore, in the X-axis direction, the arrangement pitch of the ZAF light-shielding film 16 is the lens L. It substantially matches the arrangement pitch of S.
  • the ZAF pixel capable of detecting the image plane phase difference information even when the lens LS is divided into a plurality of parts is provided.
  • the structure of the ZAF pixel is the same as that of the normal pixel except that it has the ZAF light-shielding film 16, so that it is excellent in terms of ease of manufacture. Further, since the normal pixel has the same configuration as that of the first embodiment, the effect of improving PLS can be obtained.
  • one sensor pixel PX is provided with the ZAF light-shielding film 16 divided into a plurality of parts according to the arrangement pitch of the plurality of lens LS.
  • the present disclosure is not limited to this.
  • the present disclosure also includes, for example, other forms shown in the following modifications 4-1 to 4-5.
  • FIG. 15A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411A as the first modification of the fourth embodiment.
  • FIG. 15B shows a cross-sectional configuration example of two sensor pixels PX5 and PX6 out of a plurality of sensor pixels PX constituting the pixel array unit 411A. Note that FIGS. 15A and 15B correspond to FIGS. 13A and 13B in the fourth embodiment, respectively.
  • FIG. 16A shows the plane configuration at the height position Lv1 shown in FIGS. 15A and 15B, and FIG. 16B shows the plane configuration at the height position Lv3 shown in FIGS. 15A and 15B. Note that FIGS. 16A and 16B correspond to FIGS. 14A and 14B in the fourth embodiment, respectively.
  • the pixel array unit 411A for one sensor pixel PX, two lens LSs that are not divided in the X-axis direction in which image plane phase difference information is to be acquired but are evenly divided only in the Y-axis direction. It is designed to be arranged.
  • two horizontally long lenses LS11 and LS12 adjacent to each other in the Y-axis direction are provided. Therefore, the focusing points of the lenses LS11 and LS12 can be shifted from the center position of the effective pixel region 1R1 in the Y-axis direction, and PLS can be reduced.
  • the ZAF light-shielding film 16 is provided so as to cover half of the effective pixel area 1R5. Since both of the two lenses LS51 and LS52 extend over the entire effective pixel region 1R5 in the X-axis direction, image plane phase difference information in the left-right direction can be obtained.
  • FIG. 17A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411B as a second modification of the fourth embodiment.
  • FIG. 17B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among a plurality of sensor pixels PX constituting the pixel array unit 411B.
  • FIGS. 17A and 17B correspond to FIGS. 13A and 13B in the fourth embodiment, respectively.
  • FIG. 18A shows the plane configuration at the height position Lv1 shown in FIGS. 17A and 17B
  • FIG. 18B shows the plane configuration at the height position Lv3 shown in FIGS. 17A and 17B.
  • FIGS. 18A and 18B correspond to FIGS. 14A and 14B in the fourth embodiment, respectively.
  • the element separation unit 12 is not provided with a portion extending in the X-axis direction, and only the portion extending in the Y-axis direction is left.
  • the other configurations of the pixel array unit 411B are substantially the same as the configurations of the pixel array unit 411A as the first modification of the fourth embodiment.
  • the pixel array unit 411B also has the same effect as the pixel array unit 411A as the first modification of the fourth embodiment. Further, it is possible to improve the oblique incident characteristic with respect to the incident light incident at an incident angle inclined in the vertical direction.
  • FIG. 19A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411C as a third modification of the fourth embodiment.
  • FIG. 19B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among a plurality of sensor pixels PX constituting the pixel array unit 411C. Note that FIGS. 19A and 19B correspond to FIGS. 13A and 13B in the fourth embodiment, respectively.
  • FIG. 20A shows the plane configuration at the height position Lv1 shown in FIGS. 19A and 19B, and FIG. 20B shows the plane configuration at the height position Lv3 shown in FIGS. 19A and 19B. Note that FIGS. 20A and 20B correspond to FIGS. 14A and 14B in the fourth embodiment, respectively.
  • the pixel array unit 411C as an example of this modification, two lens LSs that are not divided in the Y-axis direction but are evenly divided only in the X-axis direction are arranged only in the sensor pixel PX5. Specifically, in the sensor pixel PX5, as shown in FIG. 20A, two vertically long lenses LS51 and LS52 adjacent to each other in the X-axis direction are provided. Further, in the pixel array unit 411C, a ZAF light-shielding film 16 is provided in the sensor pixel PX5, which is a ZAF pixel, so as to cover half of the effective pixel area 1R5 in the Y-axis direction in which image plane phase difference information is desired to be acquired. There is. The other configurations of the pixel array unit 411C are substantially the same as the configurations of the pixel array unit 411B as the second modification of the fourth embodiment.
  • the pixel array unit 411C since both of the two lenses LS51 and LS52 extend over the entire effective pixel area 1R5 in the Y-axis direction, half of the effective pixel area 1R5 in the Y-axis direction.
  • the ZAF light-shielding film 16 covering the region provides image plane phase difference information in the vertical direction.
  • the pixel array unit 411C also has the same effect as the pixel array unit 411B as the second modification of the fourth embodiment.
  • FIG. 21A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411D as a fourth modification of the fourth embodiment.
  • FIG. 21B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among a plurality of sensor pixels PX constituting the pixel array unit 411D. Note that FIGS. 21A and 21B correspond to FIGS. 13A and 13B in the fourth embodiment, respectively.
  • FIG. 22A shows the plane configuration at the height position Lv1 shown in FIGS. 21A and 21B, and FIG. 22B shows the plane configuration at the height position Lv3 shown in FIGS. 21A and 21B. Note that FIGS. 22A and 22B correspond to FIGS. 14A and 14B in the fourth embodiment, respectively.
  • the pixel array unit 411D as an example of this modification, one lens LS5 is provided in the effective pixel area 1R5 only in the sensor pixel PX5 which is a ZAF pixel. Except for this point, the configuration of the pixel array unit 411D is substantially the same as the configuration of the pixel array unit 411B as the second modification of the fourth embodiment.
  • the pixel array unit 411D also has the same effect as the pixel array unit 411B as the second modification of the fourth embodiment. However, since the sensor pixel PX5 as the ZAF pixel is not provided with a plurality of lens LS, the effect of reducing PLS cannot be expected.
  • FIG. 23A shows a cross-sectional configuration example of two sensor pixels PX1 and PX5 among a plurality of sensor pixel PXs constituting the pixel array unit 411E as a fifth modification of the fourth embodiment.
  • FIG. 23B shows a cross-sectional configuration example of two sensor pixels PX1 and PX2 among the plurality of sensor pixels PX constituting the pixel array unit 411E. Note that FIGS. 23A and 23B correspond to FIGS. 13A and 13B in the fourth embodiment, respectively.
  • FIG. 24A shows the plane configuration at the height position Lv1 shown in FIGS. 23A and 23B, and FIG. 24B shows the plane configuration at the height position Lv3 shown in FIGS. 23A and 23B. Note that FIGS. 24A and 24B correspond to FIGS. 14A and 14B in the fourth embodiment, respectively.
  • the pixel array unit 411E as an example of this modification, one lens LS5 is provided in the effective pixel area 1R5 only in the sensor pixel PX5 which is a ZAF pixel. Except for this point, the configuration of the pixel array unit 411E is substantially the same as the configuration of the pixel array unit 411C as the third modification of the fourth embodiment.
  • the pixel array unit 411E also has the same effect as the pixel array unit 411C as the third modification of the fourth embodiment. However, since the sensor pixel PX5 as the ZAF pixel is not provided with a plurality of lens LS, the effect of reducing PLS cannot be expected.
  • FIG. 25 shows a circuit configuration example of two adjacent sensor pixels PX1 and PX2 among a plurality of sensor pixel PXs constituting the pixel array unit 511 as the fifth embodiment of the present disclosure.
  • FIGS. 26A to 26G show a plan configuration example of the sensor pixels PX1 and PX2, and correspond to the height positions Lv1 and Lv3 to Lv8 shown in FIGS. 3A and 3B, respectively.
  • the photoelectric conversion unit PD in each sensor pixel PX is divided into two. That is, the sensor pixel PX1 has two sub-pixels PX1A and a sub-pixel PX1B, and the sub-pixel PX1A and the sub-pixel PX1B include a photoelectric conversion unit PD1A and a photoelectric conversion unit PD1B, respectively.
  • the photoelectric conversion unit PD1A and the photoelectric conversion unit PD1B are arranged so as to be arranged in the X-axis direction (left-right direction). Further, as shown in FIG.
  • the sensor pixel PX1 in the sensor pixel PX1, two horizontally long lenses LS11 and 12 evenly divided in the Y-axis direction are arranged side by side.
  • the sensor pixel PX2 has the same configuration. That is, the sensor pixel PX2 has two sub-pixels PX2A and a sub-pixel PX2B, and the sub-pixel PX2A and the sub-pixel PX2B include a photoelectric conversion unit PD2A and a photoelectric conversion unit PD2B, respectively. Further, as shown in FIG. 26A, in the sensor pixel PX2, two horizontally long lenses LS21, 22 which are evenly divided in the Y-axis direction are arranged side by side.
  • the sub-pixels PX1A, PX1B, PX2A, and PX2B each have substantially the same circuit configuration as the sensor pixel PX1 described in the first embodiment.
  • the power supply VDD, the charge / voltage conversion unit FD, the reset transistor RST, the amplification transistor AMP, the selection transistor SEL, the vertical signal line VSL, etc. are the sub-pixels PX1A, PX1B, PX2A, etc. It is shared one by one on PX2B.
  • the photoelectric conversion unit PD can be divided into two in one sensor pixel PX, and signals independent of each other can be obtained from each photoelectric conversion unit PD. Thereby, the image plane phase difference information can be obtained. Further, since a plurality of lens LSs are provided in one sensor pixel PX, reduction of PLS can be expected as in the first embodiment.
  • FIG. 27 is a block diagram showing a configuration example of the camera 2000 as an electronic device to which the present technology is applied.
  • the camera 2000 is an optical unit 2001 including a lens group or the like, an image pickup device (imaging device) 2002 to which the above-mentioned solid-state image pickup device 101 or the like (hereinafter referred to as a solid-state image pickup device 101 or the like) is applied, and a camera signal processing circuit.
  • a DSP (Digital Signal Processor) circuit 2003 is provided.
  • the camera 2000 also includes a frame memory 2004, a display unit 2005, a recording unit 2006, an operation unit 2007, and a power supply unit 2008.
  • the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, the operation unit 2007, and the power supply unit 2008 are connected to each other via the bus line 2009.
  • the optical unit 2001 captures incident light (image light) from the subject and forms an image on the image pickup surface of the image pickup apparatus 2002.
  • the image pickup apparatus 2002 converts the amount of incident light imaged on the image pickup surface by the optical unit 2001 into an electric signal in pixel units and outputs it as a pixel signal.
  • the display unit 2005 is composed of a panel-type display device such as a liquid crystal panel or an organic EL panel, and displays a moving image or a still image captured by the image pickup device 2002.
  • the recording unit 2006 records a moving image or a still image captured by the imaging device 2002 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 2007 issues operation commands for various functions of the camera 2000 under the operation of the user.
  • the power supply unit 2008 appropriately supplies various power sources serving as operating power sources for the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, and the operation unit 2007 to these supply targets.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 28 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 29 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 29 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the solid-state image sensor 101 or the like shown in FIG. 1A or the like can be applied to the image pickup unit 12031.
  • excellent operation of the vehicle control system can be expected.
  • the imaging device of the present disclosure is not limited to the imaging device that detects the light amount distribution of visible light and acquires it as an image, and acquires the distribution of the incident amount of infrared rays, X-rays, particles, or the like as an image. It may be an image pickup device.
  • the imaging device of the present disclosure may be in the form of a module in which an imaging unit and a signal processing unit or an optical system are packaged together.
  • the memory-holding type global shutter type back-illuminated image sensor has been described, but the present disclosure is not limited to this.
  • a back-illuminated image sensor of the FD holding type global shutter type that holds the charge in the charge-voltage conversion unit instead of the charge holding unit may be used.
  • the solid-state image sensor of the technique of the present disclosure may have a configuration such as the solid-state image sensor 101A shown in FIG. 30A or the solid-state image sensor 101B shown in FIG. 30B.
  • FIG. 30A is a block diagram showing a configuration example of the solid-state image sensor 101A as the first modification of the present disclosure.
  • FIG. 30B is a block diagram showing a configuration example of the solid-state image sensor 101B as a second modification of the present disclosure.
  • a data storage unit 119 is arranged between the column signal processing unit 113 and the horizontal drive unit 114, and the pixel signal output from the column signal processing unit 113 causes the data storage unit 119. It is supplied to the signal processing unit 118 via the signal processing unit 118.
  • the data storage unit 119 and the signal processing unit 118 are arranged in parallel between the column signal processing unit 113 and the horizontal drive unit 114.
  • the column signal processing unit 113 performs A / D conversion for converting an analog pixel signal into a digital pixel signal for each row of the pixel array unit 111 or for each of a plurality of rows of the pixel array unit 111. There is.
  • the present disclosure is not limited to this.
  • a plurality of lens LSs are arranged for one sensor pixel PX, and in the peripheral region PR, one lens LS is arranged for each sensor pixel PX.
  • the arrangement pattern of the lens LS can be arbitrarily set according to the position of the pixel array unit 111, such as by arranging the lenses.
  • FIG. 31 is only an example of the arrangement pattern of the lens LS, and the present disclosure is not limited to this.
  • the dimension of the lens LS may be enlarged stepwise or continuously from the outer edge of the central region CR toward the outer edge of the peripheral region PR.
  • FIG. 32A and FIG. 32A in which the configuration of the pixel array unit 411B as the second modification of the fourth embodiment and the configuration of the pixel array unit 411C as the third modification of the fourth embodiment are combined.
  • the pixel array unit 611 shown in FIG. 32B can also be realized.
  • the sensor pixel PX5 is a ZAF pixel for obtaining image plane phase difference information in the left-right direction
  • the sensor pixel PX7 is a ZAF pixel for obtaining image plane phase difference information in the vertical direction.
  • the sensor pixel PX5 includes a lens LS51 and a lens LS52 that are vertically divided in the effective pixel region 1R5.
  • the sensor pixel PX7 includes a lens LS71 and a lens LS72 divided in the left-right direction in the effective pixel region 1R7.
  • the condensing optical system collects the incident light at a position in the effective pixel region that overlaps with the first light-shielding film in the thickness direction. There is. Therefore, the PLS characteristics can be improved, and further improvement in imaging performance can be realized.
  • the Si ⁇ 111 ⁇ substrate in the present disclosure is a substrate or wafer made of a silicon single crystal and having a crystal plane represented by ⁇ 111 ⁇ in the Miller index notation.
  • the Si ⁇ 111 ⁇ substrate in the present disclosure also includes a substrate or wafer whose crystal orientation is deviated by several degrees, for example, a substrate or wafer deviated by several degrees from the ⁇ 111 ⁇ plane in the closest [110] direction. Further, it also includes a silicon single crystal grown on a part or the entire surface of these substrates or wafers by an epitaxial method or the like.
  • the ⁇ 111 ⁇ planes are crystal planes equivalent to each other in terms of symmetry, which are the (111) plane, the (-111) plane, the (1-11) plane, the (11-1) plane, and the (-) plane. It is a general term for the 1-11) plane, the (-11-1) plane, the (1-1-1) plane, and the (1-1-1) plane. Therefore, the description of the Si ⁇ 111 ⁇ substrate in the specification and the like of the present disclosure may be read as, for example, a Si (1-11) substrate.
  • the bar sign for expressing the negative index of the Miller index is replaced with a minus sign.
  • the ⁇ 110> direction in the description of the present invention is the [110] direction, the [101] direction, the [011] direction, the [-110] direction, and [1-10], which are crystal plane directions equivalent to each other in terms of symmetry.
  • Direction, [-101] direction, [10-1] direction, [0-11] direction, [01-1] direction, [-1-10] direction, [-10-1] direction and [0-1- 1] It is a general term for directions, and may be read as either.
  • etching is performed in a direction orthogonal to the element forming surface and a direction further orthogonal to the direction orthogonal to the element forming surface (that is, a direction parallel to the element forming surface).
  • Table 1 shows a specific combination of a plane and an orientation in which etching in the ⁇ 110> direction is established on the ⁇ 111 ⁇ plane, which is the crystal plane of the Si ⁇ 111 ⁇ substrate in the present invention. ..
  • the ⁇ 110> direction of the present disclosure is limited to a direction orthogonal to the ⁇ 111 ⁇ plane which is an element forming surface and a direction parallel to the element forming surface. That is, the combination of the element forming surface of the Si ⁇ 111 ⁇ substrate of the present disclosure and the orientation for etching the Si ⁇ 111 ⁇ substrate is selected from any of the combinations indicated by ⁇ in Table 1.
  • the Si ⁇ 111 ⁇ substrate includes, for example, a substrate in which the surface of the substrate is processed so as to have an off angle with respect to the ⁇ 112> direction, as shown in FIG. 33.
  • the off angle is 19.47 ° or less, even in the case of a substrate having an off angle, the etching rate in the ⁇ 111> direction, that is, the direction having three Si back bonds, is in the ⁇ 110> direction, that is, Si back.
  • the relationship in which the etching rate in the direction of having one bond is sufficiently high is maintained.
  • the off angle increases, the number of steps increases and the density of microsteps increases, so 5 ° or less is preferable.
  • the case where the substrate surface has an off-angle in the ⁇ 112> direction is mentioned, but the off-angle may be in the ⁇ 110> direction, and the off-angle direction does not matter.
  • the Si plane orientation can be analyzed by using an X-ray diffraction method, an electron beam diffraction method, an electron backscatter diffraction method, or the like. Since the number of Si backbonds is determined by the crystal structure of Si, the number of backbonds can also be analyzed by analyzing the Si plane orientation.
  • the present technology can have the following configurations.
  • Condensing optical system that collects incident light and A photoelectric conversion unit capable of generating an electric charge according to the amount of incident light passing through the condensing optical system by photoelectric conversion, and a photoelectric conversion unit.
  • a charge holding unit capable of holding the charge transferred from the photoelectric conversion unit, and a charge holding unit, It has a first light-shielding film provided between the photoelectric conversion part and the charge-holding part in a thickness direction orthogonal to the first surface and blocks the incident light.
  • the condensing optical system is an imaging device that condenses the incident light at a position in the effective pixel region that overlaps with the first light-shielding film in the thickness direction.
  • It is provided so as to overlap the first light-shielding film in the thickness direction includes a second opening at a position different from the first opening in the effective pixel region, and the incident light enters the charge holding portion.
  • the condensing optical system includes a first optical system and a second optical system arranged along the first surface.
  • the first optical system collects the incident light toward the first focusing point in the effective pixel region.
  • the imaging device according to any one of (1) to (4) above, wherein the second optical system collects the incident light so as to go toward the second focusing point in the effective pixel region. .. (6)
  • the first optical system includes a first lens.
  • the condensing optical system includes first to fourth optical systems arranged in a matrix along the first surface.
  • Each of the first to fourth optical systems condenses the incident light so as to go toward the first to fourth condensing points in the effective pixel region, any of the above (1) to (6).
  • the imaging device according to one.
  • the condensing optical system includes a first lens layer and a second lens layer laminated in the thickness direction.
  • the photoelectric conversion unit includes a first photoelectric conversion element and a second photoelectric conversion element arranged in a first direction along the first surface.
  • the condensing optical system includes a first optical system and a second optical system that are orthogonal to the first direction and are arranged in a second direction along the first surface.
  • the first optical system collects the incident light toward the first focusing point in the effective pixel region.
  • the imaging device according to any one of (1) to (8) above, wherein the second optical system collects the incident light so as to go toward the second focusing point in the effective pixel region. .. (10) It has a first pixel and a second pixel, The first pixel is In the effective pixel area extending along the first surface, Condensing optical system that collects incident light and A photoelectric conversion unit capable of generating an electric charge according to the amount of incident light passing through the condensing optical system by photoelectric conversion, and a photoelectric conversion unit.
  • a charge holding unit capable of holding the charge transferred from the photoelectric conversion unit, and a charge holding unit, It has a first light-shielding film provided between the photoelectric conversion part and the charge-holding part in a thickness direction orthogonal to the first surface and blocks the incident light.
  • the condensing optical system is adapted to condense the incident light at a position in the effective pixel region that overlaps with the first light-shielding film in the thickness direction.
  • the second pixel is an image pickup apparatus which is an image plane phase difference detection pixel. (11) With a third pixel
  • the second pixel is a first image plane phase difference detection pixel including a first lens and a second lens divided in the first direction in the effective pixel region.
  • the third pixel is a second image plane phase difference detection pixel including a third lens and a fourth lens divided in a second direction orthogonal to the first direction in the effective pixel region (10). ).
  • (12) The image pickup apparatus according to (10) or (11) above, wherein the first pixel is a global shutter pixel.
  • An electronic device equipped with an imaging device The image pickup device In the effective pixel area extending along the first surface, Condensing optical system that collects incident light and A photoelectric conversion unit capable of generating an electric charge according to the amount of incident light passing through the condensing optical system by photoelectric conversion, and a photoelectric conversion unit.
  • a charge holding unit capable of holding the charge transferred from the photoelectric conversion unit, and a charge holding unit, It has a light-shielding film provided between the photoelectric conversion unit and the charge holding unit in the thickness direction orthogonal to the first surface and blocks the incident light.
  • the condensing optical system is an electronic device that condenses the incident light at a position in the effective pixel region that overlaps the light-shielding film in the thickness direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

さらなる撮像性能の向上を実現可能な撮像装置を提供する。この撮像装置は、第1の面に沿って広がる有効画素領域に、 入射光を集光する集光光学系と、その集光光学系を経由した入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、その光電変換部から転送される電荷を保持可能な電荷保持部と、第1の面と直交する厚さ方向において光電変換部と電荷保持部との間に設けられ、入射光を遮断する第1の遮光膜とを有する。ここで、集光光学系は、有効画素領域のうち、厚さ方向において第1の遮光膜と重なり合う位置に入射光を集光するようになっている

Description

撮像装置および電子機器
 本開示は、光電変換を行うことで撮像を行う撮像装置および、その撮像装置を備えた電子機器に関する。
 これまでに、本出願人は、フォトダイオードとメモリとを光入射方向において積層した積層構造を有するシリコン基板を備えた撮像装置を提案している(例えば、特許文献1参照)。
国際公開第2016/136486号明細書
 ところで、このような撮像装置では、撮像性能のさらなる向上が求められている。したがって、さらなる撮像性能の向上を実現可能な撮像装置、およびそのような撮像装置を備えた電子機器を提供することが望まれる。
 本開示の一実施形態としての撮像装置は、第1の面に沿って広がる有効画素領域に、入射光を集光する集光光学系と、その集光光学系を経由した入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、その光電変換部から転送される電荷を保持可能な電荷保持部と、第1の面と直交する厚さ方向において光電変換部と電荷保持部との間に設けられ、入射光を遮断する第1の遮光膜とを有する。ここで、集光光学系は、有効画素領域のうち、厚さ方向において第1の遮光膜と重なり合う位置に入射光を集光するようになっている。なお、有効画素領域とは、入射光を受光可能な領域をいう。
 また、本開示の一実施形態としての電子機器は、上記撮像装置を備えたものである。 
本開示の第1の実施の形態に係る撮像装置の構成例を示すブロック図である。 図1に示した撮像装置における一のセンサ画素の回路構成を表す回路図である。 図1に示した固体撮像装置において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 図1に示した固体撮像装置において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第3の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第4の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第5の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第6の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第7の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第8の平面図である。 参考例としての固体撮像装置におけるセンサ画素に入射した光の経路を模式的に表す断面図である。 図3Aに示したセンサ画素に入射した光の経路を模式的に表す断面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第1変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第2変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第3変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第4変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第5変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第6変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第7変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第8変形例を模式的に表す平面図である。 第1の実施の形態の固体撮像装置におけるレンズの配列パターンの第9変形例を模式的に表す平面図である。 本開示の第2の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第2の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図7Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図7Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第3の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第3の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 本開示の第3の実施の形態の第1変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第3の実施の形態の第1変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 本開示の第3の実施の形態の第2変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第3の実施の形態の第2変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 本開示の第3の実施の形態の第3変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第3の実施の形態の第3変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 本開示の第4の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図13Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図13Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第4の実施の形態の第1変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態の第1変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図15Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図15Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第4の実施の形態の第2変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態の第2変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図17Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図17Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第4の実施の形態の第3変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態の第3変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図19Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図19Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第4の実施の形態の第4変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態の第4変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図21Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図21Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第4の実施の形態の第5変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第1の断面図である。 本開示の第4の実施の形態の第5変形例に係る画素アレイ部において隣り合う2つのセンサ画素の積層方向に沿った断面を模式的に表す第2の断面図である。 図23Aに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図23Bに示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 本開示の第5の実施の形態に係る撮像装置におけるセンサ画素の回路構成を表す回路図である。 図25に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第1の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第2の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第3の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第4の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第5の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第6の平面図である。 図1に示した固体撮像装置における一部のセンサ画素の平面構成を模式的に表す第7の平面図である。 電子機器の全体構成例を表す概略図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 本開示のその他の第1変形例としての固体撮像装置の構成例を示すブロック図である。 本開示のその他の第2変形例としての固体撮像装置の構成例を示すブロック図である。 本開示のその他の第3変形例としてのレンズ配列パターンを示す模式図である。 本開示のその他の第4変形例としての画素アレイ部の構成例を示す第1の平面図である。 図32Aに示した画素アレイ部の構成例を示す第2の平面図である。 本開示のSi基板の表面におけるオフ角を説明する模式図である。
 上述の特許文献1に記載されたような、グローバルシャッタ方式の撮像画素(以下、単にグローバルシャッタ画素という。)は、入射光を受光して光電変換を行うことで信号電荷を生成する光電変換部と、その信号電荷を保持する電荷保持部とを厚さ方向において積層した構成を有する。よって、電荷保持部に不要な光が入射しやすい。そのような不要光の電荷保持部への入射は、ノイズとなって画像信号の劣化を招くおそれがある。そのため、これまでに、光電変換部と電荷保持部との間に金属などからなる水平遮光膜を形成し、電荷保持部への光の入射を抑制することで、PLS(Parasitic Light Sensitivity)の低減を図る技術が開発されている。
 しかしながら、光電変換部から電荷保持部へ信号電荷を転送するための経路を確保するため、水平遮光膜の一部には開口を設ける必要がある。そのため、その開口から漏れる光が電荷保持部へ入射し、PLSを悪化させる可能性がある。
 本開示はこれらの問題に鑑みてなされたものであり、PLSを低減するなど、さらなる撮像性能の向上を実現可能な撮像装置、およびそのような撮像装置を備えた電子機器を提供することを目的としている。
 以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
 1画素あたり、1つの光電変換部と複数の集光光学系とを設けるようにした固体撮像装置の例。
2.第1の実施の形態の変形例
 複数の集光光学系の配列パターンの変形例。
3.第2の実施の形態
 斜入射感度特性を向上させるようにした固体撮像装置の第1の例。
4.第3の実施の形態
 斜入射感度特性を向上させるようにした固体撮像装置の第2の例。
5.第3の実施の形態の変形例
6.第4の実施の形態
 通常画素と像面位相差検出画素とを含むようにした固体撮像装置の第1の例。
7.第4の実施の形態の変形例
8.第5の実施の形態
 1画素あたり、2つの光電変換部と複数の集光光学系とを設けるようにした固体撮像装置の例。
9.電子機器への適用例
10.移動体への適用例
11.その他の変形例
<1.第1の実施の形態>
[固体撮像装置101の構成]
 図1は、本技術の第1の実施の形態に係る固体撮像装置101の機能の構成例を示すブロック図である。
 固体撮像装置101は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの、いわゆるグローバルシャッタ方式の裏面照射型イメージセンサである。固体撮像装置101は、被写体からの光を受光して光電変換し、画像信号を生成することで画像を撮像するものである。
 グローバルシャッタ方式とは、基本的には全画素同時に露光を開始し、全画素同時に露光を終了するグローバル露光を行う方式である。ここで、全画素とは、画像に現れる部分の画素の全てということであり、ダミー画素等は除外される。また、時間差や画像の歪みが問題にならない程度に十分小さければ、全画素同時ではなく、複数行(例えば、数十行)単位でグローバル露光を行いながら、グローバル露光を行う領域を移動する方式もグローバルシャッタ方式に含まれる。また、画像に表れる部分の画素の全てでなく、所定領域の画素に対してグローバル露光を行う方式もグローバルシャッタ方式に含まれる。
 裏面照射型イメージセンサとは、被写体からの光を受光して電気信号に変換するフォトダイオード等の光電変換部が、被写体からの光が入射する受光面と、各画素を駆動させるトランジスタ等の配線が設けられた配線層との間に設けられている構成のイメージセンサをいう。
 固体撮像装置101は、例えば、画素アレイ部111、垂直駆動部112、カラム信号処理部113、データ格納部119、水平駆動部114、システム制御部115、および信号処理部118を備えている。
 固体撮像装置101では、半導体基板11(後出)上に画素アレイ部111が形成される。垂直駆動部112、カラム信号処理部113、データ格納部119、水平駆動部114、システム制御部115、および信号処理部118などの周辺回路は、例えば、画素アレイ部111と同じ半導体基板11上に形成される。
 画素アレイ部111は、被写体から入射した光の量に応じた電荷を生成して蓄積する光電変換部PD(後出)を含むセンサ画素PXを複数有する。センサ画素PXは、図1に示したように、横方向(行方向)および縦方向(列方向)のそれぞれに配列される。画素アレイ部111では、行方向に一列に配列されたセンサ画素PXからなる画素行ごとに、画素駆動線116が行方向に沿って配線され、列方向に一列に配列されたセンサ画素PXからなる画素列ごとに、垂直信号線VSLが列方向に沿って配線されている。
 垂直駆動部112は、シフトレジスタやアドレスデコーダなどからなる。垂直駆動部112は、複数の画素駆動線116を介して複数のセンサ画素PXに対し信号等をそれぞれ供給することにより、画素アレイ部111における複数のセンサ画素PXの全てを同時に駆動させ、または画素行単位で駆動させる。
 垂直駆動部112によって選択走査された画素行の各単位画素から出力される信号は、垂直信号線VSLの各々を通してカラム信号処理部113に供給されるようになっている。カラム信号処理部113は、画素アレイ部111の画素列ごとに、選択行の各単位画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持するようになっている。
 具体的には、カラム信号処理部113は、例えばシフトレジスタやアドレスデコーダなどからなり、ノイズ除去処理、相関二重サンプリング処理、アナログ画素信号のA/D(Analog/Digital)変換処理等を行い、ディジタル画素信号を生成する。カラム信号処理部113は、生成した画素信号を信号処理部118に供給する。
 水平駆動部114は、シフトレジスタやアドレスデコーダなどによって構成され、カラム信号処理部113の画素列に対応する単位回路を順番に選択するようになっている。この水平駆動部114による選択走査により、カラム信号処理部113において単位回路ごとに信号処理された画素信号が順番に信号処理部118に出力されるようになっている。
 システム制御部115は、各種のタイミング信号を生成するタイミングジェネレータ等からなる。システム制御部115は、タイミングジェネレータで生成されたタイミング信号に基づいて、垂直駆動部112、カラム信号処理部113、および水平駆動部114の駆動制御を行なうものである。
 信号処理部118は、必要に応じてデータ格納部119にデータを一時的に格納しながら、カラム信号処理部113から供給された画素信号に対して演算処理等の信号処理を行ない、各画素信号からなる画像信号を出力するものである。
 データ格納部119は、信号処理部118での信号処理にあたり、その信号処理に必要なデータを一時的に格納するようになっている。
[センサ画素PXの構成]
(回路構成例)
 次に、図2を参照して、図1の画素アレイ部111に設けられたセンサ画素PXの回路構成例について説明する。図2は、画素アレイ部111を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX4の回路構成例を示している。センサ画素PX1,PX4以外の複数のセンサ画素PXにおいても実質的に同様の構成を有する。なお、センサ画素PX1およびセンサ画素PX4は、後出の図4A~4Fなどに示すように他の2つのセンサ画素PX2およびセンサ画素PX3を挟んで配置される。
 図2に示した例では、画素アレイ部111におけるセンサ画素PX(PX1,PX4)は、メモリ保持型のグローバルシャッタを実現している。
 センサ画素PX1は、光電変換部PD1、第1~第3の転送トランジスタTG1A~TG1C、電荷保持部MEM1、排出トランジスタOFG1、排出部OFD1およびバッファBUF1を有している。第1の転送トランジスタTG1Aは転送ゲートTRZ1を含み、第2の転送トランジスタTG1Bは転送ゲートTRY1および転送ゲートTRX1を含み、第3の転送トランジスタTG1Cは転送ゲートTRG1を含んでいる。
 同様に、センサ画素PX4は、光電変換部PD4、第1~第3の転送トランジスタTG4A~TG4C、電荷保持部MEM4、排出トランジスタOFG4、排出部OFD4およびバッファBUF4を有している。第1の転送トランジスタTG4Aは転送ゲートTRZ4を含み、第2の転送トランジスタTG4Bは転送ゲートTRY4および転送ゲートTRX4を含み、第3の転送トランジスタTG4Cは転送ゲートTRG4を含んでいる。
 さらに、センサ画素PX1およびセンサ画素PX4は、電源VDD1,VDD2、電荷電圧変換部FD14、リセットトランジスタRST14、増幅トランジスタAMP14、および選択トランジスタSEL14などを共有している。
 この例では、第1~第3の転送トランジスタTG1A~TG1C、第1~第3の転送トランジスタTG4A~TG4C、リセットトランジスタRST14、増幅トランジスタAMP14、および選択トランジスタSEL14は、いずれもN型のMOSトランジスタである。これら第1~第3の転送トランジスタTG1A~TG1C、第1~第3の転送トランジスタTG4A~TG4C、リセットトランジスタRST14、増幅トランジスタAMP14、および選択トランジスタSEL14における各ゲート電極には、それぞれ、システム制御部115の駆動制御に基づき垂直駆動部112および水平駆動部114により駆動信号が供給されるようになっている。それらの駆動信号は、高レベルの状態がアクティブ状態(オンの状態)となり、低レベルの状態が非アクティブ状態(オフの状態)となるパルス信号である。なお、以下、駆動信号をアクティブ状態にすることを、駆動信号をオンするとも称し、駆動信号を非アクティブ状態にすることを、駆動信号をオフするとも称する。
 光電変換部PD1,PD4は、例えばPN接合のフォトダイオードからなる光電変換素子であり、被写体からの光を受光して、その受光量に応じた電荷を光電変換により生成し、蓄積するように構成されている。
 電荷保持部MEM1,MEM4は、それぞれ、光電変換部PD1,PD4と電荷電圧変換部FD14との間に設けられており、グローバルシャッタ機能を実現するため、光電変換部PD1,PD4において生成されて蓄積された電荷を電荷電圧変換部FD14へ転送するまでの間、一時的にその電荷を保持する領域である。
 第1の転送トランジスタTG1Aおよび第2の転送トランジスタTG1Bは、光電変換部PD1と電荷保持部MEM1との間に順に配置されており、第3の転送トランジスタTG1Cは電荷保持部MEM1と電荷電圧変換部FD14との間に配置されている。第1の転送トランジスタTG1Aおよび第2の転送トランジスタTG1Bは、そのゲート電極に印加される駆動信号に応じて、光電変換部PD1に蓄積されている電荷を電荷保持部MEM1へ転送するように構成されている。
 同様に、第1の転送トランジスタTG4Aおよび第2の転送トランジスタTG4Bは、光電変換部PD4と電荷保持部MEM4との間に順に配置されており、第3の転送トランジスタTG4Cは電荷保持部MEM4と電荷電圧変換部FD14との間に配置されている。第1の転送トランジスタTG4Aおよび第2の転送トランジスタTG4Bは、そのゲート電極に印加される駆動信号に応じて、光電変換部PD4に蓄積されている電荷を電荷保持部MEM4へ転送するように構成されている。
 第3の転送トランジスタTG1Cおよび第3の転送トランジスタTG4Cは、それぞれ、それらのゲート電極に印加される駆動信号に応じて、電荷保持部MEM1および電荷保持部MEM4に一時的に保持された電荷を電荷電圧変換部FD14へ転送するように構成されている。
 センサ画素PX1,PX4では、例えば、第2の転送トランジスタTG1B,TG4Bがオフし、第3の転送トランジスタTG1C,TG4Cがオンすると、電荷保持部MEM1,MEM4にそれぞれ保持されている電荷が第3の転送トランジスタTG1C,TG4Cを介して、電荷電圧変換部FD14へ転送されるようになっている。
 バッファBUF1,BUF4は、それぞれ、第1の転送トランジスタTG1Aと第2の転送トランジスタTG1Bとの間に形成される電荷蓄積領域である。
 リセットトランジスタRST14は、電源VDD1に接続されたドレインと、電荷電圧変換部FD14に接続されたソースとを有している。リセットトランジスタRST14は、そのゲート電極に印加される駆動信号に応じて、電荷電圧変換部FD14を初期化、すなわちリセットする。例えば、駆動信号によりリセットトランジスタRST14がオンすると、電荷電圧変換部FD14の電位が電源VDD1の電圧レベルにリセットされる。すなわち、電荷電圧変換部FD14の初期化が行われる。
 電荷電圧変換部FD14は、第1~第3の転送トランジスタTG1A~TG1C,TG4A~TG4Cおよび電荷保持部MEM1,MEM45を介して光電変換部PD1,PD4からそれぞれ転送されてきた電荷を電気信号(例えば、電圧信号)に変換して出力する浮遊拡散領域である。電荷電圧変換部FD14には、リセットトランジスタRST14が接続されるとともに、増幅トランジスタAMP14および選択トランジスタSEL14を介して垂直信号線VSLが接続されている。
 増幅トランジスタAMP14は、電荷電圧変換部FD14の電位に応じた電気信号を出力する。増幅トランジスタAMP14は、例えばカラム信号処理部113に設けられた定電流源とソースフォロワ回路を構成している。選択トランジスタSEL14は、当該センサ画素PXが選択されたときにオンされ、電荷電圧変換部FD14から増幅トランジスタAMP14を経由した電気信号を、垂直信号線VSLを通してカラム信号処理部113へ出力するようになっている。
 センサ画素PX1,PX4は、光電変換部PD1,PD4の電荷の転送先として、電荷電圧変換部FD14のほかに排出部OFD1,OFD4をそれぞれさらに備えている。排出トランジスタOFG1は、バッファBUF1と排出部OFD1との間に配置され、排出トランジスタOFG4はバッファBUF4と排出部OFD4との間に配置されている。
 排出トランジスタOFG1は、排出部OFD1に接続されたドレイン、および、バッファBUF1に接続されたソースを有している。同様に、排出トランジスタOFG4は、排出部OFD4に接続されたドレイン、および、バッファBUF4に接続されたソースを有している。排出トランジスタOFG1,OFG4は、各々のゲート電極に印加される駆動信号に応じて、光電変換部PD1,PD4を初期化、すなわちリセットする。光電変換部PD1,PD4をリセットする、とは、光電変換部PD1,PD4を空乏化するという意味である。
 また、排出トランジスタOFG1,OFG4は、オーバーフローパスをそれぞれ形成し、光電変換部PD1,PD4から溢れた電荷をそれぞれ排出部OFD1,OFD4へ排出するようになっている。但し、光電変換部PD1,PD4をリセットする際には、排出トランジスタOFG1,OFG4がオンされると共に転送ゲートTRZ1,TRZ4がオンされる必要がある。
(平面構成例および断面構成例)
 次に、図3Aから4Hを参照して、図1の画素アレイ部111に設けられたセンサ画素PXの平面構成例および断面構成例について説明する。
 図3Aは、画素アレイ部111を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図3Bは、画素アレイ部111を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。より詳細には、図3Aは、図4A~4Hにそれぞれ示したセンサ画素PX1およびセンサ画素PX5を通過するX軸方向のIIIA-IIIA切断線に沿った矢視方向の断面を表している。また、図3Bは、図4A~4Hにそれぞれ示したセンサ画素PX1およびセンサ画素PX2を通過するY軸方向のIIIB-IIIB切断線に沿った矢視方向の断面を表している。
 図4A~4Hは、それぞれ、2行4列の格子状に配列された8つのセンサ画素PX1~PX8の平面構成例を示している。具体的には、図4A~4Hは、それぞれ、図3Aおよび図3Bに示した高さ位置Lv1~Lv8における平面構成を表している。本実施の形態の画素アレイ部111では、図4A~4Hに示したセンサ画素PX1~PX8を最小単位としてX軸方向およびY軸方向のそれぞれに沿って繰り返し配列されている。なお、センサ画素PX1~PX8における各構成要素は実質的に同じ構造を有するとよい。また、Y軸方向に並ぶセンサ画素PX1~PX4と、同じくY軸方向に並ぶセンサ画素PX5~PX8とは、X軸方向において対称の構造と有するとよい。
 具体的には、センサ画素PX2およびセンサ画素PX3は、図2に示したセンサ画素PX1およびセンサ画素PX4と同様に、光電変換部PD2,PD3、第1~第3の転送トランジスタTG2A~TG2C,TG3A~TG3C、電荷保持部MEM2,MEM3、排出トランジスタOFG2,OFG3、排出部OFD2,OFD3、バッファBUF2,BUF3などを有している。また、センサ画素PX2およびセンサ画素PX3は、垂直信号線VSL23、電荷電圧変換部FD23、リセットトランジスタRST23、増幅トランジスタAMP23、および選択トランジスタSEL23などを共有している。
 また、センサ画素PX5~PX8は、センサ画素PX1~PX4とそれぞれ対応した構成を有する。例えばセンサ画素PX5およびセンサ画素PX8は、図2に示したセンサ画素PX1およびセンサ画素PX4と同様に、光電変換部PD5,PD8、第1~第3の転送トランジスタTG5A~TG5C,TG8A~TG8C、電荷保持部MEM5,MEM8、排出トランジスタOFG5,OFG8、排出部OFD5,OFD8、バッファBUF5,BUF8などを有している。さらに、センサ画素PX5およびセンサ画素PX8は、垂直信号線VSL58、電荷電圧変換部FD58、リセットトランジスタRST58、増幅トランジスタAMP58、および選択トランジスタSEL58などを共有している。また、センサ画素PX6およびセンサ画素PX7は、センサ画素PX2およびセンサ画素PX3と同様に、光電変換部PD6,PD7、第1~第3の転送トランジスタTG6A~TG6C,TG7A~TG7C、電荷保持部MEM6,MEM7、排出トランジスタOFG6,OFG7、排出部OFD6,OFD7、バッファBUF6,BUF7などを有している。さらに、センサ画素PX6およびセンサ画素PX7は、垂直信号線VSL67、電荷電圧変換部FD67、リセットトランジスタRST67、増幅トランジスタAMP67、および選択トランジスタSEL67などを共有している。
 図3Aおよび図3Bに示したように、画素アレイ部111は、第1の階層LY1および第2の階層LY2を含む第1基板S1と、第3の階層LY3を含む第2基板S2とを接合界面Kにおいて貼り合わせた構造を有する。接合界面Kでは、配線層同士を接合するようにしている。配線層同士の接合は、例えばCu(銅)などの金属層の表面同士をプラズマ照射により活性化させて接合するいわゆるCu-Cu接合が好適である。
 画素アレイ部111の第1の階層LY1には、図3A,3Bおよび図4C~4Eに示したように、光電変換部PD(PD1~PD8)などが形成されている。センサ画素PX1~PX8は、第1の階層LY1において、Si(シリコン)などの半導体材料により形成された半導体基板11と、半導体基板11に埋設された光電変換部PD(PD1~PD8)とを有している。また、半導体基板11は、表面11S1と、その表面11S1と反対側の裏面11S2とを含んでいる。裏面11S2は外部からの光が入射する面であり、カラーフィルタCF(CF1~CF8)を含むカラーフィルタ形成層が設けられている(図3A,図3Bおよび図4B参照)。例えば、カラーフィルタCF1は緑色光、カラーフィルタCF2は赤色光、カラーフィルタCF3は緑色光、カラーフィルタCF4は青色光、カラーフィルタCF5は赤色光、カラーフィルタCF6は緑色光、カラーフィルタCF7は青色光、カラーフィルタCF8は緑色光をそれぞれ透過する。但し、色の配列パターンはこれに限定されるものではない。カラーフィルタCF(CF1~CF8)の裏面11S2と反対側には、例えば合計32個のレンズLS(LS11~14,LS21~24,LS31~34,LS41~44,LS51~54,LS61~64,LS71~74,LS81~84)がさらに設けられている(図3A,図3Bおよび図4A参照)。レンズLSの詳細については、後述する。また、表面11S1に設けられた転送ゲートTRZ(TRZ1~TRZ8)の下部から深さ方向(+Z方向)に延在する2本の縦型トレンチゲート51,52の先端部が、光電変換部PD(PD1~PD8)と接している(図3A,図3Bおよび図4E参照)。
 半導体基板11のうちの第1の階層LY1には、光電変換部PD(PD1~PD8)をそれぞれ取り囲むように素子分離部12がさらに設けられている(図3A,図3Bおよび図4C)。素子分離部12は、互いに隣り合うセンサ画素PX同士の境界位置において半導体基板11を貫くようにZ軸方向に延在すると共に各光電変換部PDを取り囲む壁状の部材である。素子分離部12により、互いに隣り合うセンサ画素PX同士は電気的に分離されている。また、素子分離部12は、隣接するセンサ画素PXからの漏れ光が光電変換部PD(PD1~PD8)へ入射することにより混色等のノイズを発生させるのを防止する。素子分離部12は、例えば酸化珪素などの絶縁材料によって構成されている。
 上述したように、第1の階層LY1には、光電変換部PD1~PD8がそれぞれ形成されている。センサ画素PX1~PX8において、素子分離部12により取り囲まれた有効画素領域1R(1R1~1R8)は、図4Cに示したように、それぞれ幅X1および長さY1で規定される、第1のアスペクト比AR1(=X1/Y1)を有する矩形状の領域である。図4Cでは、第1のアスペクト比AR1が1、すなわち、幅X1と長さY1とが等しい例を示しており、有効画素領域1R1~1R8の各々に光電変換部PD1~PD8が形成されている。
 図4Gに示したように、画素アレイ部111を構成する第1基板S1の第2の階層LY2には、電荷保持部MEM1~MEM8を含む電荷保持部形成領域2R(2R1~2R8)が形成されている。電荷保持部形成領域2R1~2R4は、それぞれ、XY面において幅X2および長さY2で規定される、第2のアスペクト比AR2(=X2/Y2)を有する矩形状の領域である。ここで、第1のアスペクト比AR1と第2のアスペクト比AR2とは異なっている。図4Gでは、第2のアスペクト比AR2が4、すなわち、幅X2に対しと長さY2が4倍の寸法である例を示している。なお、図4Cおよび図4Gでは、幅X2が幅X1の半分の寸法であり、長さY2が長さY1の2倍の寸法である。
 第2の階層LY2のうち、センサ画素PX1~PX4に対応する電荷保持部形成領域2R1~2R4には、例えば第1~第3の転送トランジスタTG1A~TG1C,TG2A~TG2C,TG3A~TG3C,TG4A~TG4C、電荷保持部MEM1~MEM4、排出トランジスタOFG1~OFG4、排出部OFD1~OFD4、バッファBUF1~BUF4、電源VDD、電荷電圧変換部FD14,FD23などが形成されている(図3A,図3Bおよび図4G参照)。なお、電荷保持部MEM1~MEM4は、例えば転送ゲートTRY1~TRY4,TRX1~TRX4,TRG1~TRG4の下方に位置している。同様に、第2の階層LY2のうち、センサ画素PX5~PX8に対応する電荷保持部形成領域2R5~2R8には、例えば第1~第3の転送トランジスタTG5A~TG5C,TG6A~TG6C,TG7A~TG7C,TG8A~TG8C、電荷保持部MEM5~MEM8、排出トランジスタOFG5~OFG8、排出部OFD5~OFD8、バッファBUF5~BUF8、電源VDD、電荷電圧変換部FD58,FD67などが形成されている(図3A,図3Bおよび図4G参照)。なお、電荷保持部MEM5~MEM8は、例えば転送ゲートTRY5~TRY8,TRX5~TRX8,TRG5~TRG8の下方に位置している。
 第2の階層LY2の電荷保持部形成領域2R1~2R8には、センサ画素PX1~PX8に対応して、X軸方向に並ぶ2本の縦型トレンチゲート51,52がそれぞれ設けられている(図3A,図3B,図4Eおよび図4F参照)。縦型トレンチゲート51,52は電荷転送部の一部を構成し、光電変換部PD1~PD8と転送ゲートTRZ1~TRZ8とをそれぞれ繋いでおり、光電変換部PD1~PD8から、バッファBUF1~BUF8を介して転送先である電荷保持部MEM1~MEM8へ電荷を転送する経路となる。なお、縦型トレンチゲートは1つのみ配置されていてもよいし、3つ以上配置されてもよい。
 縦型トレンチゲート51,52と裏面11S2との間には、Z軸方向において縦型トレンチゲート51,52と重なり合うようにXY面に沿って広がる水平遮光膜13が設けられている(図3A,図3Bおよび図4D参照)。水平遮光膜13は、電荷保持部MEM1~MEM8への入射光の進入を妨げる遮光部材であり、後述する水平遮光膜14とZ軸方向において重なり合うように設けられている。水平遮光膜13は、例えば素子分離部12の、裏面11S2と反対側の端部と接続されている。図4Dに示したように、水平遮光膜13の一部には、Z軸方向において光電変換部PD1~PD8を部分的に仕切るように開口13K1~13K8が設けられている。光電変換部PD1~PD8において生成された電荷は、それぞれ開口13K1~13K8を通じて縦型トレンチゲート51,52へ移動するようになっている。なお、開口13K1~13K8のXY面での位置は、水平遮光膜14における開口14K1~14K8(後述)のXY面での位置と異なっている。
 このように、本実施の形態では、例えばセンサ画素PX1を構成する有効画素領域1R1の直上のみに電荷保持部形成領域2R1が設けられているわけではなく、電荷保持部MEM1は有効画素領域1R1および有効画素領域1R2の双方にまたがって形成されている。同様に、センサ画素PX2を構成する有効画素領域1R2の直上のみに電荷保持部形成領域2R2が設けられているわけではなく、電荷保持部MEM2は有効画素領域1R1および有効画素領域1R2の双方にまたがって形成されている。すなわち、有効画素領域1R1が,電荷保持部形成領域2R1の一部分および電荷保持部形成領域2R2の一部分とそれぞれ重なり合い、有効画素領域1R2が電荷保持部形成領域2R1の残りの部分および電荷保持部形成領域2R2の残りの部分と重なり合うようになっている。
 電荷保持部形成領域2R1~2R8は、それぞれ、Z軸方向に延在すると共にY軸方向に沿って延在する遮光壁17をさらに有するとよい。電荷保持部MEM1~MEM4は、X軸方向に隣り合う2つの遮光壁17の間に挟まれるように配置される。遮光壁17は、電荷保持部MEM1~MEM8への光の入射を妨げる部材である。
 光電変換部PD1~PD4と電荷保持部MEM1~MEM4との間には、XY面に沿って広がる水平遮光膜14が、厚さ方向(Z軸方向)において水平遮光膜13と重なり合うように設けられている(図3A,図3Bおよび図4F)。水平遮光膜14は、水平遮光膜13および遮光壁17と同様、電荷保持部MEM1~MEM8への入射光の進入を妨げる部材であり、光電変換部PD1~PD8を透過した光が電荷保持部MEM1~MEM8へ入射してノイズが発生するのを抑制する。なお、裏面11S2から入射して光電変換部PD1~PD8により吸収されずに光電変換部PD1~PD8を透過した光は、水平遮光膜14において反射し、再度、光電変換部PD1~PD8へ入射することとなる。すなわち、水平遮光膜14はリフレクタでもあり、光電変換部PD1~PD8を透過した光を再度光電変換部PD1~PD8へ入射させることにより、光電変換効率を高めている。但し、水平遮光膜14には、光電変換部PD1~PD8により生成された電荷が通過可能な開口14K(14K1~14K8)が設けられている。縦型トレンチゲート51,52は、開口14K1~14K8をそれぞれ貫通するように設けられている。開口14K1~14K8は、有効画素領域1Rのうち、開口13K1~13K8とそれぞれ異なる位置に設けられているとよい。水平遮光膜14は、開口14K1~14K8を除き、画素アレイ部111におけるXY面の全体に亘って設けられているとよい。また、水平遮光膜14は、遮光壁17と連結されていてもよい。水平遮光膜13,14および遮光壁17は、例えば内層部分と、その周囲を取り囲む外層部分との2層構造をそれぞれ有している。内層部分は、例えば遮光性を有する単体金属、金属合金、金属窒化物、および金属シリサイドのうちの少なくとも1種を含む材料からなる。より、具体的には、内層部分の構成材料としては、Al(アルミニウム),Cu(銅),Co(コバルト),W(タングステン),Ti(チタン),Ta(タンタル),Ni(ニッケル),Mo(モリブデン),Cr(クロム),Ir(イリジウム),白金イリジウム,TiN(窒化チタン)またはタングステンシリコン化合物などが挙げられる。なかでもAl(アルミニウム)が最も光学的に好ましい構成材料である。なお、内層部分は、グラファイトや有機材料により構成されていてもよい。外層部分は、例えばSiOx(シリコン酸化物)などの絶縁材料により構成されている。外層部分により、内層部分と半導体基板11との電気的絶縁性が確保される。
 なお、XY面内に延在する水平遮光膜14は、例えばウェットエッチング処理により半導体基板11を一部除去し、半導体基板11の内部に空間を形成したのち、その空間に上述の材料を埋め込むことにより形成可能である。そのウェットエッチング処理においては、例えば半導体基板11がSi{111}により構成される場合、所定のアルカリ水溶液を用い、Si{111}の面方位に応じてエッチングレートが異なる性質を利用した結晶異方性エッチングを行う。より具体的には、Si{111}基板においては、<111>方向のエッチングレートに対して<110>方向のエッチングレートが十分に高くなる性質を利用する。ここで、<111>方向とは、Siバックボンドを3本有する方向である。また、<110>方向とは、Siバックボンドを1本または2本有する方向であり、本実施の形態ではX軸方向がこれに該当する。所定のアルカリ水溶液としては、無機溶液であればKOH,NaOH,またはCsOHなどが適用可能であり、有機溶液であればEDP(エチレンジアミンピロカテコール水溶液),N24(ヒドラジン),NH4OH(水酸化アンモニウム),またはTMAH(水酸化テトラメチルアンモニウム)などが適用可能である。
 水平遮光膜14を形成するための空間をウェットエッチング処理により形成する場合、XY面内でのウェットエッチングの進行距離が長くなるほど、水平遮光膜14の厚さ(Z軸方向の寸法)も大きくなってしまう。したがって、水平遮光膜14の厚さが必要以上に厚くなるのを避けるためには、XY面内でのウェットエッチングの進行距離はなるべく短いことが望ましい。そこで、本実施の形態の図3Aに示したように、水平遮光膜14におけるX軸方向の寸法を短くするとよい。本実施の形態では、Y軸方向に延びる遮光壁17を形成する際に掘り下げるトレンチを利用し、X軸方向へ進行するウェットエッチング処理により水平遮光膜14が形成される空間を形成することができる。こうすることにより、最終的に得られる水平遮光膜14の厚さの増大を抑えることができる。
 また、本実施の形態では、半導体基板11は例えばP型(第1導電型)であり、光電変換部PDおよび電荷保持部MEM1~MEM4はN型(第2導電型)である。
 第3の階層LY3には、図3A,図3Bおよび図4Hに示したように、例えば有効画素領域1R1,1R2および電荷保持部形成領域2R1,2R2とそれぞれ対応する領域に、垂直信号線VSL14、電荷電圧変換部FD14、リセットトランジスタRST14、増幅トランジスタAMP14および選択トランジスタSEL14などが形成されている。また、有効画素領域1R3,1R4および電荷保持部形成領域2R3,2R4とそれぞれ対応する領域に、垂直信号線VSL23、電荷電圧変換部FD23、リセットトランジスタRST23、増幅トランジスタAMP23および選択トランジスタSEL23などが形成されている。また、有効画素領域1R5,1R6および電荷保持部形成領域2R5,2R6とそれぞれ対応する領域に、垂直信号線VSL58、電荷電圧変換部FD58、リセットトランジスタRST58、増幅トランジスタAMP58および選択トランジスタSEL58などが形成されている。さらに、有効画素領域1R7,1R8および電荷保持部形成領域2R7,2R8とそれぞれ対応する領域に、垂直信号線VSL67、電荷電圧変換部FD67、リセットトランジスタRST67、増幅トランジスタAMP67および選択トランジスタSEL67などが形成されている。
(レンズLS)
 図4Aに示したように、本実施の形態のセンサ画素PX(PX1~PX8)では、素子分離部12によってそれぞれ取り囲まれた、XY面に沿って広がる有効画素領域1R(1R1~1R8)に、複数のレンズLSが配設されている。具体的には、センサ画素PX1の有効画素領域1R1には、互いに実質的に同じ寸法を有すると共に互いに実質的に同じ屈折力を有するレンズLS11~LS14が、XY面に沿ってマトリクス状に、2行2列で配列されている。レンズLS11~LS14において、X軸方向の寸法とY軸方向の寸法とは実質的に等しい。センサ画素PX2~PX8についても同様である。複数のレンズLSは、撮像対象物からの入射光を集光する集光光学系である。複数のレンズLSは、それぞれ、有効画素領域1Rのうち、厚さ方向(Z軸方向)において水平遮光膜14と重なり合う位置に上述の入射光を集光するようになっている。ここで、各レンズLSは、対応する各有効画素領域1Rにおける中心位置以外の位置に集光するようになっている。本実施の形態では、例えばセンサ画素PX1では、レンズLS11~LS14(図4A)が、それぞれ、有効画素領域1R1のうちの集光点FP11~FP14(図4F)に向かうように入射光を集光するようになっている。他のセンサ画素PX2~PX8においても同様である。また、水平遮光膜14は、有効画素領域1Rにおける中心位置以外の位置に開口14K(14K1~14K8)を含むようにするとよい。通常、有効画素領域1Rにおける中心位置において入射光の強度が比較的高くなるからである。したがって、集光点FP11~FP14は、それぞれ、有効画素領域1R1のうちの中心位置以外であって開口14K1の位置とも異なる位置であるとよい。
(センサ画素PXの動作)
 次に、図2から図4Hなどを参照して、センサ画素PXの動作について説明する。センサ画素PXでは、まず、システム制御部115の駆動制御に基づき、露光を行う前に高レベルの駆動信号が排出トランジスタOFGおよび転送ゲートTRZにそれぞれ供給されることで、排出トランジスタOFGおよび転送ゲートTRZがオンされる。これにより、光電変換部PDにおいて蓄積されている電荷が排出部OFDへ排出され、光電変換部PDがリセットされる。
 光電変換部PDがリセットされたのち、システム制御部115の駆動制御に基づき、低レベルの駆動信号が排出トランジスタOFGおよび転送ゲートTRZにそれぞれ供給されることで排出トランジスタOFGおよび転送ゲートTRZがオフされる。これにより、画素アレイ部111における全てのセンサ画素PXにおいて露光が開始され、被写体からの光を受光した各光電変換部PDにおいて電荷が生成および蓄積される。
 予定された露光時間が経過したのち、画素アレイ部111の全てのセンサ画素PXにおいて、システム制御部115の駆動制御に基づき、転送ゲートTRZおよび転送ゲートTRYへの駆動信号がオンにされる。これにより、各センサ画素PXにおいて、光電変換部PDに蓄積された電荷は、光電変換部PDから転送ゲートTRZおよび転送ゲートTRYを介して電荷保持部MEMへ転送され、電荷保持部MEMにおいて一時的に保持される。
 続いて、システム制御部115の駆動制御に基づき、転送ゲートTRZおよび転送ゲートTRYへの駆動信号がオフにされたのち、各センサ画素PXの電荷保持部MEMに保持されている電荷を順次読み出す読み出し動作が行われる。電荷の読み出し動作は、例えば画素アレイ部111の行単位で行われ、具体的には、読み出される行ごとに転送ゲートTRXおよび転送ゲートTRGを駆動信号によりオンされる。これにより、各センサ画素PXの電荷保持部MEMに保持されている電荷が、行単位に電荷電圧変換部FDへそれぞれ転送される。
 そののち、選択トランジスタSELが駆動信号によりオンされると、電荷電圧変換部FDに保持されている電荷に応じたレベルを示す電気信号が、増幅トランジスタAMPと選択トランジスタSELとを順次経由して垂直信号線VSLを通してカラム信号処理部113へ出力される。
[固体撮像装置101の効果]
 本実施の形態の固体撮像装置101では、上述したように、1つのセンサ画素PXの有効画素領域1Rに対し、複数のレンズLSを配置するようにした。このため、固体撮像装置101は、PLSの低減を図ることができ、より良好な撮像性能を発揮することができる。
 以下、図5Aに示した参考例としてのセンサ画素PX1Xと、図5Bに示した本実施の形態のセンサ画素PX1とを比較して説明する。図5Aは、参考例としてのセンサ画素PX1Xに入射した光L1の経路を模式的に表す断面図である。図5Bは、本実施の形態のセンサ画素PX1に入射した光L11,L14の経路を模式的に表す断面図である。
 図5Aの参考例としてのセンサ画素PX1Xでは、1つの有効画素領域1R1に対し、1つのレンズLS1が配設されている。このため、センサ画素PX1Xに入射した光L1は、レンズLS1を透過して-Z方向に進行しつつ、レンズLS1の屈折力により有効画素領域1R1の中心付近に集光される。そのため、入射光L1の一部は水平遮光膜13により進行を妨げられるものの、入射光L1の残りの部分が矢印で示したように水平遮光膜
13の開口端において回折し、さらにセンサ画素PX1Xの内部へ進行することとなる。水平遮光膜13よりも深く進入した入射光L1は、矢印で示したように水平遮光膜14の開口端において回折し、さらにセンサ画素PX1Xの内部へ進行することとなる。その結果、入射光L1の一部が電荷保持部MEM2へ到達してしまい、PLSの悪化を招くおそれがある。
 これに対し、図5Bに示した本実施の形態のセンサ画素PX1では、1つの有効画素領域1R1に対し、複数のレンズLS11~LS14が配設されている。ここで、複数のレンズLS11~LS14は、それぞれ、有効画素領域1R1の中心位置と異なる位置の集光点FP11~FP14に入射光を集光するようになっている。このため、図5Bに示したように、センサ画素PX1のうちの例えばレンズLS11に入射した入射光L11は、例えば水平遮光膜13に突き当たって水平遮光膜13により遮蔽される。また、センサ画素PX1のうちの例えばレンズLS14に入射した入射光L14は、図5Bに示したように仮に開口13Kを通過した場合であっても、水平遮光膜14に突き当たり水平遮光膜14により遮蔽されることとなる。したがって、入射光L11,L14が電荷保持部MEM2へ到達するのを防止することができる。
 このように、本実施の形態では、水平遮光膜13の開口13Kの近傍部分と水平遮光膜14の開口14Kの近傍部分とが重なり合う中心位置を避けて入射光を集光させるようにしている。その結果、電荷保持部MEMへの不要光の入射を防止でき、PLSの改善を図ることができる。
 また、本実施の形態では、1つのセンサ画素PXにつき、実質的に同じ寸法であって実質的に同じ屈折力を有する4つのレンズLSをマトリクス状に2行2列で配列したレンズアレイを用いるようにした。このため、略正方形を有する有効画素領域1R1の全体に亘って、入射光の光量をより均等に分配することができる。
<2.第1の実施の形態の変形例>
 上記第1の実施の形態では、図4Aに示したように、1つのセンサ画素PXにつき、実質的に同じ寸法であって実質的に同じ屈折力を有する4つのレンズLSをマトリクス状に2行2列で配列したレンズアレイを集光光学系として例示したが、本開示はこれに限定されるものではない。本開示は、例えば下記の変形例1-1~1-9に示す他の形態をも包含する。
(変形例1-1)
 図6Aは、第1の実施の形態の第1変形例としての画素アレイ部111Aにおけるレンズ配列パターンを表す平面図である。図6Aに示したように、画素アレイ部111Aにおけるレンズ配列パターンでは、1つのセンサ画素PXにつき、X軸方向には分割されずにY軸方向においてのみ均等に分割された2つのレンズLSを配設するようになっている。例えばセンサ画素PX1では、Y軸方向に隣り合う横長の2つのレンズLS11,LS12が設けられている。画素アレイ部111Aにおけるレンズ配列パターンのレンズLS11,LS12は、画素アレイ部111におけるレンズ配列パターン(図4A)のレンズLS11,LS12と比較して、X軸方向に2倍の寸法を有する一方、Y軸方向において等しい寸法を有する。他のセンサ画素PX2~PX8においても同様である。後述するように、画素アレイ部111Aにおけるレンズ配列パターンは、センサ画素PXの一部に像面位相差検出画素を設ける態様との親和性が高い。
(変形例1-2)
 図6Bは、第1の実施の形態の第2変形例としての画素アレイ部111Bにおけるレンズ配列パターンを表す平面図である。図6Bに示したように、画素アレイ部111Bにおけるレンズ配列パターンでは、1つのセンサ画素PXにつき、Y軸方向には分割されずにX軸方向においてのみ均等に分割された2つのレンズLSを配設するようになっている。例えばセンサ画素PX1では、X軸方向に隣り合う縦長の2つのレンズLS11,LS12が設けられている。画素アレイ部111Bにおけるレンズ配列パターンのレンズLS11,LS12は、第1の実施の形態のレンズ配列パターン(図4A)のレンズLS11,LS12と比較して、X軸方向において等しい寸法を有する一方、Y軸方向において2倍の寸法を有する。他のセンサ画素PX2~PX8においても同様である。後述するように、画素アレイ部111Bにおけるレンズ配列パターンについても、センサ画素PXの一部に像面位相差検出画素を設ける態様との親和性が高い。
(変形例1-3)
 図6Cは、第1の実施の形態の第3変形例としての画素アレイ部111Cにおけるレンズ配列パターンを表す平面図である。図6Cに示したように、画素アレイ部111Cにおけるレンズ配列パターンでは、1つのセンサ画素PXにつき、X軸方向およびY軸方向の双方において3つに均等に分割された9つのレンズLSがマトリクス状に配列されている。このように、水平遮光膜13の開口13Kの位置や水平遮光膜14の開口14Kの位置に応じて、1つのセンサ画素PX当たりのレンズLSの数を変更してもよい。
(変形例1-4)
 図6Dは、第1の実施の形態の第4変形例としての画素アレイ部111Dにおけるレンズ配列パターンを表す平面図である。図6Dに示したように、画素アレイ部111Dにおけるレンズ配列パターンでは、1つのセンサ画素PXにつき、X軸方向およびY軸方向の双方において4つに均等に分割された16個のレンズLSがマトリクス状に配列されている。このように、水平遮光膜13の開口13Kの位置や水平遮光膜14の開口14Kの位置に応じて、1つのセンサ画素PX当たりのレンズLSの数を変更してもよい。
(変形例1-5)
 図6Eは、第1の実施の形態の第5変形例としての画素アレイ部111Eにおけるレンズ配列パターンを表す平面図である。図6Eに示したように、画素アレイ部111Eにおけるレンズ配列パターンは、図6Cに示した画素アレイ部111Cにおける1つのセンサ画素PXに対応した9つのレンズLSのうちの中央のレンズLSを除去した態様である。画素アレイ部111Eにおけるレンズ配列パターンによれば、有効画素領域1R1の中心に集光する入射光の成分が低減されるので、図6Cの画素アレイ部111Cと比較して、電荷保持部MEMへの入射光の進入をより低減できる。
(変形例1-6~1-8)
 図6F~6Hは、第1の実施の形態の第6~第8変形例としての画素アレイ部111F~111Hにおけるレンズ配列パターンをそれぞれ表す平面図である。図6F~6Hにそれぞれ示したように、画素アレイ部111F~111Hにおけるレンズ配列パターンは、寸法の異なる2種以上のレンズLSを含んでいる。
(変形例1-9)
 図6Iは、第1の実施の形態の第9変形例としての画素アレイ部111Iにおけるレンズ配列パターンを表す平面図である。図6Iに示したように、画素アレイ部111Iにおけるレンズ配列パターンでは、全てのレンズLSが同じ形状および同じ大きさを有しているが、X軸方向を長手方向とする向きのレンズLSと、Y軸方向を長手方向とする向きのレンズLSとが含まれている。
<3.第2の実施の形態>
[画素アレイ部211の構成]
 図7Aは、本開示の第2の実施の形態としての画素アレイ部211を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図7Bは、画素アレイ部211を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。また、図8Aは、図7Aおよび図7Bに示した高さ位置Lv1における平面構成を表しており、図8Bは、図7Aおよび図7Bに示した高さ位置Lv3における平面構成を表している。なお、図9Aおよび図9Bは、上記第1の実施の形態における図3Aおよび図3Bにそれぞれ対応している。また、図8Aおよび図8Bは、上記第1の実施の形態における図4Aおよび図4Cにそれぞれ対応している。より詳細には、図7Aは、図8A,8Bにそれぞれ示したセンサ画素PX1およびセンサ画素PX5を通過するX軸方向のVIIA-VIIA切断線に沿った矢視方向の断面を表している。また、図7Bは、図8A,8Bにそれぞれ示したセンサ画素PX1およびセンサ画素PX2を通過するY軸方向のVIIB-VIIB切断線に沿った矢視方向の断面を表している。
 上記第1の実施の形態では、1つのセンサ画素PX当たり2行2列で配列された4つのレンズLSを設けるようにした。そのような構成により、レンズLSによる集光点FPを有効画素領域1R1の中心位置から外すことができ、その結果、PLSの低減という効果がもたらされる。しかしながら、レンズLSによる集光点FPが有効画素領域1R1の中心位置から外れるということは、センサ画素PX間に設けられた素子分離部12に入射光が接近するということにもなる。そのため、裏面11S2に対し入射光が斜め方向から入射する場合、レンズLSおよびカラーフィルタCFを透過して半導体基板11に入射したのち、素子分離部12においてケラレが生じることがある。その場合、斜入射光に対する入射感度が低下してしまう。
 そこで、本実施の形態の画素アレイ部211では、図7Aおよび図8Aに示したように、複数のレンズLSを、X軸方向を長手方向とする横長の平面形状とすることで、X軸方向(水平方向)の斜入射特性を改善するようにしている。
 さらに本実施の形態の画素アレイ部211では、図7Bおよび図8Bに示したように、素子分離部12を、X軸方向において隣り合うセンサ画素PX同士を仕切る部分のみ、すなわちY軸方向およびZ軸方向に広がる部分のみ設けるようにした。さらに換言すれば、本実施の形態では、上記第1の実施の形態において格子状に設けられた素子分離部12のうち、X軸方向に延在する部分を設けないようにした。こうすることにより、Y軸方向(垂直方向)に傾斜した入射光のケラレを緩和し、Y軸方向(垂直方向)の斜入射特性を改善するようにしている。
[画素アレイ部211の効果]
 本実施の形態の画素アレイ部211では、上述の構成により、X軸方向およびY軸方向の双方に対して傾斜した成分を含む入射光であっても、上記第1の実施の形態の画素アレイ部111よりも良好な感度特性を発揮することができる。
 なお、本実施の形態では、複数のレンズLSを、X軸方向を長手方向とする横長の平面形状とすると共に素子分離部12を、Y軸方向およびZ軸方向に広がる部分のみ設けるようにしたが、本開示はいずれか一方のみを採用するようにしてもよい。その場合、であっても、X軸方向(水平方向)の斜入射特性の改善またはY軸方向(垂直方向)の斜入射特性の改善を行うことができる。
<4.第3の実施の形態>
[画素アレイ部311の構成]
 図9Aは、本開示の第3の実施の形態としての画素アレイ部311を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図9Bは、画素アレイ部311を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図9Aおよび図9Bは、上記第1の実施の形態における図3Aおよび図3Bにそれぞれ対応している。
 本実施の形態の画素アレイ部311では、各センサ画素PXが、厚さ方向(Z軸方向)において第1レンズ層としてのレンズLSと光電変換部PDとの間に挿入された、第2レンズ層としてのインナーレンズINL(INL1,INL2,INL5)をさらに含むようにしている。本実施の形の画素アレイ部311では、レンズLSについては1つのセンサ画素PX当たり1個が設けられているのに対し、インナーレンズINLについては1つのセンサ画素PX当たり2行2列で配列された4個が設けられている。
[画素アレイ部311の効果]
 このような態様の画素アレイ部311においては、入射光を、レンズLSによってある程度集光させたのち、複数設けられたインナーレンズINLにより、有効画素領域1R1の中心位置以外の集光点に集光させることができる。よって、PLS特性を改善することができるうえ、裏面11S2に対して傾斜した入射光であっても、素子分離部12においてケラレを回避することができ、斜入射特性をも改善できる。
<5.第3の実施の形態の変形例>
 上記第3の実施の形態では、図9Aおよび図9Bに示したように、1つのセンサ画素PXにつき、1つのレンズLSと、複数のインナーレンズINLとを積層させた構造を例示したが、本開示はこれに限定されるものではない。本開示は、例えば下記の変形例3-1~3-3に示す他の形態をも包含する。
(変形例3-1)
 図10Aは、第3の実施の形態の第1変形例としての画素アレイ部311Aを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図10Bは、画素アレイ部311Aを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図10Aおよび図10Bは、上記第3の実施の形態における図9Aおよび図9Bにそれぞれ対応している。
 図10Aおよび図10Bに示したように、画素アレイ部311Aでは、インナーレンズINLよりも入射側に位置するレンズLSについても、1つのセンサ画素PX当たり複数設けるようにしている。具体的には、1つのセンサ画素PX当たり、例えば2行2列で配列された4個のレンズLSが設けられている。本変形例によれば、レンズLSの屈折力をより向上させることができるので、より入射角の大きな入射光であっても、素子分離部12においてケラレを回避することができ、斜入射特性を改善できる。
(変形例3-2)
 図11Aは、第3の実施の形態の第2変形例としての画素アレイ部311Bを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図11Bは、画素アレイ部311Bを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図11Aおよび図11Bは、上記第3の実施の形態における図9Aおよび図9Bにそれぞれ対応している。
 図11Aおよび図11Bに示したように、画素アレイ部311Bでは、1つのセンサ画素PX当たり、例えば2行2列で配列された4個のレンズLSを配設する一方、インナーレンズINLについては1つのセンサ画素PX当たり1つのみ設けるようにしている。本変形例においても、上記第3の実施の形態と同様の効果が期待できる。
(変形例3-3)
 図12Aは、第3の実施の形態の第2変形例としての画素アレイ部311Cを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図12Bは、画素アレイ部311Cを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図12Aおよび図12Bは、上記第3の実施の形態における図9Aおよび図9Bにそれぞれ対応している。
 図12Aおよび図12Bに示したように、画素アレイ部311Cでは、1つのセンサ画素PX当たり、例えば2行2列で配列された4個のレンズLSを配設する一方、インナーレンズINLの代わりに光導波路WG(WG1,WG2,WG5)を設けるようにしている。本変形例においても、上記第3の実施の形態と同様の効果が期待できる。
<6.第4の実施の形態>
[画素アレイ部411の構成]
 図13Aは、本開示の第4の実施の形態としての画素アレイ部411を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図13Bは、画素アレイ部411を構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。また、図14Aは、図13Aおよび図13Bに示した高さ位置Lv1における平面構成を表しており、図14Bは、図13Aおよび図13Bに示した高さ位置Lv3における平面構成を表している。なお、図13Aおよび図13Bは、上記第1の実施の形態における図3Aおよび図3Bにそれぞれ対応している。また、図14Aおよび図14Bは、上記第1の実施の形態における図4Aおよび図4Cにそれぞれ対応している。より詳細には、図13Aは、図14A,14Bにそれぞれ示したセンサ画素PX1およびセンサ画素PX5を通過するX軸方向のXIIIA-XIIIA切断線に沿った矢視方向の断面を表している。また、図13Bは、図14A,14Bにそれぞれ示したセンサ画素PX1およびセンサ画素PX2を通過するY軸方向のXIIIB-XIIIB切断線に沿った矢視方向の断面を表している。
 上記第1の実施の形態では、1つのセンサ画素PX当たり2行2列で配列された4つのレンズLSを設けるようにした。そのような構成により、レンズLSによる集光点FPを有効画素領域1R1の中心位置から外すことができ、その結果、PLSの低減という効果がもたらされる。しかしながら、そのように分割されたレンズLSを採用したセンサ画素PXは、そのままでは像面位相差検出画素(ZAF画素)とすることはできない。例えば左右方向の像面位相差を検出するため、例えば光電変換部PDの左半分を覆うようにZAF遮光膜を設けた場合を想定する。その場合、4つのレンズLSのうちの左半分を占める2つのレンズLSを透過した入射光はZAF遮光膜に全て遮断されてしまう一方、右半分を占める2つのレンズLSを透過した入射光は全て光電変換部PDへ入射することとなる。このため、入射角の相違による入射光の強度の変化がほとんど検出できず、その結果、位相差情報を得ることができない。
 そこで、本実施の形態の画素アレイ部411では、図13A~図14Bに示したように、像面位相差を検出したい方向において、複数のレンズLSの配置位置と対応する位置にZAF遮光膜16を設けるようにしている。ZAF遮光膜16は、例えば金属などの、可視光を遮断する材料により形成されている。図13A~図14Bの例では、センサ画素PX5においてX軸方向(左右方向)の像面位相差情報を得るため、有効画素領域1R5の一部を選択的に覆うように2つに分割されたZAF遮光膜16(16A,16B)を配設している。ZAF遮光膜16Aは、レンズLS51,LS54の右半分と重なる位置に設けられ、ZAF遮光膜16Bは、レンズLS52,LS53の右半分と重なる位置に設けられている。したがって、X軸方向において、ZAF遮光膜16の配列ピッチはレンズL
Sの配列ピッチと実質的に一致している。
[画素アレイ部411の効果]
 本実施の形態の画素アレイ部411では、上述のようにZAF遮光膜16を配置することにより、複数に分割されたレンズLSを有する場合であっても像面位相差情報を検出可能なZAF画素を実現している。なお、本実施の形態の画素アレイ部411によれば、ZAF画素の構成が、ZAF遮光膜16を有すること以外は通常画素と同じ構成であるので、製造容易性の点で優れている。また、通常画素においては、上記第1の実施の形態と同じ構成を有することから、PLSの改善効果が得られる。
<7.第4の実施の形態の変形例>
 上記第4の実施の形態では、図13Aおよび図14Bに示したように、1つのセンサ画素PXにつき、複数のレンズLSの配列ピッチに合わせて複数に分割されたZAF遮光膜16を設けるようにしたが、本開示はこれに限定されるものではない。本開示は、例えば下記の変形例4-1~4-5に示す他の形態をも包含する。
(変形例4-1)
 図15Aは、第4の実施の形態の第1変形例としての画素アレイ部411Aを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図15Bは、画素アレイ部411Aを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX5,PX6の断面構成例を示している。なお、図15Aおよび図15Bは、上記第4の実施の形態における図13Aおよび図13Bにそれぞれ対応している。また、図16Aは、図15Aおよび図15Bに示した高さ位置Lv1における平面構成を表しており、図16Bは、図15Aおよび図15Bに示した高さ位置Lv3における平面構成を表している。なお、図16Aおよび図16Bは、上記第4の実施の形態における図14Aおよび図14Bにそれぞれ対応している。
 本変形例としての画素アレイ部411Aでは、1つのセンサ画素PXにつき、像面位相差情報を獲得したいX軸方向には分割されずにY軸方向においてのみ均等に分割された2つのレンズLSを配設するようになっている。例えばセンサ画素PX1では、Y軸方向に隣り合う横長の2つのレンズLS11,LS12を設けるようにしている。このため、レンズLS11,LS12の各々の集光点を、有効画素領域1R1の中心位置からY軸方向にずらすことができ、PLSの低減を図ることができる。
 ZAF画素であるセンサ画素PX5では、ZAF遮光膜16を、有効画素領域1R5の半分の領域を覆うように設けている。2つのレンズLS51,LS52は、いずれもX軸方向において有効画素領域1R5の全てに亘って延在しているので、左右方向における像面位相差情報が得られる。
(変形例4-2)
 図17Aは、第4の実施の形態の第2変形例としての画素アレイ部411Bを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図17Bは、画素アレイ部411Bを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図17Aおよび図17Bは、上記第4の実施の形態における図13Aおよび図13Bにそれぞれ対応している。また、図18Aは、図17Aおよび図17Bに示した高さ位置Lv1における平面構成を表しており、図18Bは、図17Aおよび図17Bに示した高さ位置Lv3における平面構成を表している。なお、図18Aおよび図18Bは、上記第4の実施の形態における図14Aおよび図14Bにそれぞれ対応している。
 本変形例としての画素アレイ部411Bでは、素子分離部12のうち、X軸方向に延在する部分が設けられておらず、Y軸方向に延在する部分のみ残すようにしている。画素アレイ部411Bのそれ以外の構成は、上記第4の実施の形態の第1変形例としての画素アレイ部411Aの構成と実質的に同じである。
 画素アレイ部411Bにおいても、上記第4の実施の形態の第1変形例としての画素アレイ部411Aと同様の効果が得られる。さらに、上下方向に傾斜した入射角で入射する入射光に対する斜入射特性を改善できる。
(変形例4-3)
 図19Aは、第4の実施の形態の第3変形例としての画素アレイ部411Cを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図19Bは、画素アレイ部411Cを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図19Aおよび図19Bは、上記第4の実施の形態における図13Aおよび図13Bにそれぞれ対応している。また、図20Aは、図19Aおよび図19Bに示した高さ位置Lv1における平面構成を表しており、図20Bは、図19Aおよび図19Bに示した高さ位置Lv3における平面構成を表している。なお、図20Aおよび図20Bは、上記第4の実施の形態における図14Aおよび図14Bにそれぞれ対応している。
 本変形例としての画素アレイ部411Cでは、センサ画素PX5においてのみ、Y軸方向には分割されずにX軸方向においてのみ均等に分割された2つのレンズLSを配設するようになっている。具体的には、センサ画素PX5では、図20Aに示したように、X軸方向に隣り合う縦長の2つのレンズLS51,LS52を設けるようにしている。さらに、画素アレイ部411Cでは、ZAF画素であるセンサ画素PX5において、有効画素領域1R5のうち、像面位相差情報を獲得したいY軸方向の半分の領域を覆うようにZAF遮光膜16を設けている。画素アレイ部411Cのそれ以外の構成は、上記第4の実施の形態の第2変形例としての画素アレイ部411Bの構成と実質的に同じである。
 画素アレイ部411Cによれば、2つのレンズLS51,LS52は、いずれもY軸方向において有効画素領域1R5の全てに亘って延在しているので、有効画素領域1R5のうちY軸方向の半分の領域を覆うZAF遮光膜16により、上下方向における像面位相差情報が得られる。また、画素アレイ部411Cにおいても、上記第4の実施の形態の第2変形例としての画素アレイ部411Bと同様の効果が得られる。
(変形例4-4)
 図21Aは、第4の実施の形態の第4変形例としての画素アレイ部411Dを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図21Bは、画素アレイ部411Dを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図21Aおよび図21Bは、上記第4の実施の形態における図13Aおよび図13Bにそれぞれ対応している。また、図22Aは、図21Aおよび図21Bに示した高さ位置Lv1における平面構成を表しており、図22Bは、図21Aおよび図21Bに示した高さ位置Lv3における平面構成を表している。なお、図22Aおよび図22Bは、上記第4の実施の形態における図14Aおよび図14Bにそれぞれ対応している。
 本変形例としての画素アレイ部411Dでは、ZAF画素であるセンサ画素PX5においてのみ、有効画素領域1R5に1つのレンズLS5を設けるようにしている。その点を除き、画素アレイ部411Dの構成は、上記第4の実施の形態の第2変形例としての画素アレイ部411Bの構成と実質的に同じである。
 画素アレイ部411Dにおいても、上記第4の実施の形態の第2変形例としての画素アレイ部411Bと同様の効果が得られる。但し、ZAF画素としてのセンサ画素PX5においは、複数のレンズLSを設けていないので、PLSの低減効果は期待できない。
(変形例4-5)
 図23Aは、第4の実施の形態の第5変形例としての画素アレイ部411Eを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX5の断面構成例を示している。図23Bは、画素アレイ部411Eを構成する複数のセンサ画素PXのうちの2つのセンサ画素PX1,PX2の断面構成例を示している。なお、図23Aおよび図23Bは、上記第4の実施の形態における図13Aおよび図13Bにそれぞれ対応している。また、図24Aは、図23Aおよび図23Bに示した高さ位置Lv1における平面構成を表しており、図24Bは、図23Aおよび図23Bに示した高さ位置Lv3における平面構成を表している。なお、図24Aおよび図24Bは、上記第4の実施の形態における図14Aおよび図14Bにそれぞれ対応している。
 本変形例としての画素アレイ部411Eでは、ZAF画素であるセンサ画素PX5においてのみ、有効画素領域1R5に1つのレンズLS5を設けるようにしている。その点を除き、画素アレイ部411Eの構成は、上記第4の実施の形態の第3変形例としての画素アレイ部411Cの構成と実質的に同じである。
 画素アレイ部411Eにおいても、上記第4の実施の形態の第3変形例としての画素アレイ部411Cと同様の効果が得られる。但し、ZAF画素としてのセンサ画素PX5においは、複数のレンズLSを設けていないので、PLSの低減効果は期待できない。
<8.第5の実施の形態>
[画素アレイ部511の構成]
 図25は、本開示の第5の実施の形態としての画素アレイ部511を構成する複数のセンサ画素PXのうちの隣り合う2つのセンサ画素PX1,PX2の回路構成例を示している。また、図26A~26Gは、センサ画素PX1,PX2における平面構成例を表しており、図3Aおよび図3Bに示した高さ位置Lv1,Lv3~Lv8にそれぞれ対応している。
 画素アレイ部511では、各センサ画素PXにおける光電変換部PDが2つに分割されている。すなわち、センサ画素PX1は、2つのサブ画素PX1Aおよびサブ画素PX1Bを有し、サブ画素PX1Aおよびサブ画素PX1Bは、それぞれ、光電変換部PD1Aおよび光電変換部PD1Bを含んでいる。ここでは、図26B~26Dに示したように、X軸方向(左右方向)に光電変換部PD1Aと光電変換部PD1Bとが並ぶように配置されている。また、図26Aに示したように、センサ画素PX1では、Y軸方向において均等に分割された横長の2つのレンズLS11,12が並んでいる。センサ画素PX2についても同様の構成である。すなわち、センサ画素PX2は、2つのサブ画素PX2Aおよびサブ画素PX2Bを有し、サブ画素PX2Aおよびサブ画素PX2Bは、それぞれ、光電変換部PD2Aおよび光電変換部PD2Bを含んでいる。また、図26Aに示したように、センサ画素PX2では、Y軸方向において均等に分割された横長の2つのレンズLS21,22が並んでいる。
 サブ画素PX1A,PX1B,PX2A,PX2Bは、それぞれ、上記第1の実施の形態で説明したセンサ画素PX1と実質的に同じ回路構成を有する。但し、電源VDD、電荷電圧変換部FD、リセットトランジスタRST、増幅トランジスタAMP、選択トランジスタSELおよび垂直信号線VSLなどは、サブ画素PX1A,PX1B,PX2A,
PX2Bで1つずつ共有している。
 本実施の形態の画素アレイ部511によれば、1つのセンサ画素PXにおいて光電変換部PDを2つに分割し、互いに独立した信号を各光電変換部PDから得ることができる。これにより、像面位相差情報を得ることができる。また、1つのセンサ画素PXにおいて複数のレンズLSを設けるようにしたので、上記第1の実施の形態と同様に、PLSの低減が期待できる。
<9.電子機器への適用例>
 図27は、本技術を適用した電子機器としてのカメラ2000の構成例を示すブロック図である。
 カメラ2000は、レンズ群などからなる光学部2001、上述の固体撮像装置101など(以下、固体撮像装置101等という。)が適用される撮像装置(撮像デバイス)2002、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路2003を備える。また、カメラ2000は、フレームメモリ2004、表示部2005、記録部2006、操作部2007、および電源部2008も備える。DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007および電源部2008は、バスライン2009を介して相互に接続されている。
 光学部2001は、被写体からの入射光(像光)を取り込んで撮像装置2002の撮像面上に結像する。撮像装置2002は、光学部2001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 表示部2005は、例えば、液晶パネルや有機ELパネル等のパネル型表示装置からなり、撮像装置2002で撮像された動画または静止画を表示する。記録部2006は、撮像装置2002で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部2007は、ユーザによる操作の下に、カメラ2000が持つ様々な機能について操作指令を発する。電源部2008は、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006および操作部2007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、撮像装置2002として、上述した固体撮像装置101等を用いることで、良好な画像の取得が期待できる。
<10.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図36の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図29は、撮像部12031の設置位置の例を示す図である。
 図29では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図1Aなどに示した固体撮像装置101等を撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、車両制御システムの優れた動作が期待できる。
<11.その他の変形例>
 以上、いくつかの実施の形態および変形例を挙げて本開示を説明したが、本開示は上記実施の形態等に限定されるものではなく、種々の変形が可能である。例えば本開示は、裏面照射型イメージセンサに限定されるものではなく、表面照射型イメージセンサにも適用可能である。
 また、本開示の撮像装置は、可視光の光量分布を検出して画像として取得する撮像装置に限定されるものではなく、赤外線やX線、あるいは粒子等の入射量の分布を画像として取得する撮像装置であってもよい。
 また、本開示の撮像装置は、撮像部と信号処理部または光学系とがまとめてパッケージングされたモジュールの形態をなしていてもよい。
 また、上記実施の形態等では、メモリ保持型のグローバルシャッタ方式の裏面照射型イメージセンサについて説明したが、本開示はこれに限定されるものではない。例えば電荷保持部ではなく電荷電圧変換部において電荷を保持するFD保持型グローバルシャッタ方式の裏面照射型イメージセンサであってもよい。
 さらに、本開示の技術の固体撮像装置は、例えば図30Aに示した固体撮像装置101Aや図30Bに示した固体撮像装置101Bのような構成を有していてもよい。図30Aは、本開示の第1変形例としての固体撮像装置101Aの構成例を示すブロック図である。図30Bは、本開示の第2変形例としての固体撮像装置101Bの構成例を示すブロック図である
 図30Aの固体撮像装置101Aでは、カラム信号処理部113と水平駆動部114との間にデータ格納部119が配設され、カラム信号処理部113から出力される画素信号が、データ格納部119を経由して信号処理部118に供給されるようになっている。
 また、図30Bの固体撮像装置101Bは、カラム信号処理部113と水平駆動部114との間にデータ格納部119と信号処理部118とを並列に配設するようにしたものである。固体撮像装置101Bでは、カラム信号処理部113が画素アレイ部111の列ごと、あるいは画素アレイ部111の複数列ごとにアナログ画素信号をディジタル画素信号に変換するA/D変換を行うようになっている。
 また、上記実施の形態等では、センサ画素PX1~PX8が、画素アレイ部111の全体に亘って一様に繰り返し配置される場合について説明したが、本開示はこれに限定されるものではない。例えば図31に示したように、例えば画素アレイ部111の中央領域CRにおいては1つのセンサ画素PXにつき複数のレンズLSを配置し、周辺領域PRにおいては1つのセンサ画素PXにつき1つのレンズLSを配置するなど、画素アレイ部111の位置に応じてレンズLSの配列パターンを任意に設定可能である。なお、中央領域CRに比べて周辺領域PRでは斜入射光の感度が低下しやすいので、図31のように周辺領域PRにおいては1つのセンサ画素PXにつき1つのレンズLSを配置することで、斜入射特性を向上させるのに有利となる。但し、図31はレンズLSの配列パターンの一例を表しているにすぎず、本開示はこれに限定されるものではない。例えば、中央領域CRの外縁から周辺領域PRの外縁に向かうほど段階的に、あるいは連続的にレンズLSの寸法を拡大するようにしてもよい。
 また、本開示では、上記各実施の形態およびいくつかの変形例で説明した各種態様を任意に組み合わせることも可能な場合がある。例えば、第4の実施の形態の第2変形例としての画素アレイ部411Bの構成と、第4の実施の形態の第3変形例としての画素アレイ部411Cの構成とを組み合わせた、図32Aおよび図32Bに示した画素アレイ部611も実現可能である。画素アレイ部611では、センサ画素PX5を、左右方向の像面位相差情報を得るためのZAF画素とし、センサ画素PX7を、上下方向の像面位相差情報を得るためのZAF画素としている。センサ画素PX5は、有効画素領域1R5において上下方向に分割されたレンズLS51およびレンズLS52を含んでいる。センサ画素PX7は、有効画素領域1R7において左右方向に分割されたレンズLS71およびレンズLS72を含んでいる。
 本開示の一実施形態としての撮像装置および電子機器では、集光光学系が、有効画素領域のうち、厚さ方向において第1の遮光膜と重なり合う位置に入射光を集光するようになっている。このため、PLS特性を改善でき、さらなる撮像性能の向上を実現することができる。
 また、本開示におけるSi{111}基板とは、シリコン単結晶からなり、ミラー指数の表記において{111}で表される結晶面を有する基板またはウェハである。本開示におけるSi{111}基板は、結晶方位が数度ずれた、例えば{111}面から最近接の[110]方向へ数度ずれた基板またはウェハも含む。さらに、これらの基板またはウェハ上の一部または全面にエピタキシャル法等によりシリコン単結晶を成長させたものをも
含む。
  また、本開示の表記において{111}面は、対称性において互いに等価な結晶面である(111)面、(-111)面、(1-11)面、(11-1)面、(-1-11)面、(-11-1)面、(1-1-1)面および(-1-1-1)面の総称である。したがって、本開示の明細書等におけるSi{111}基板という記載を、例えばSi(1-11)基板と読み替えてもよい。ここで、ミラー指数の負方向の指数を表記するためのバー符号はマイナス符号で代用している。
 また、本発明の記載における <110>方向は、対称性において互いに等価な結晶面方向である[110]方向、[101]方向、[011]方向、[-110]方向、[1-10]方向、[-101]方向、[10-1]方向、[0-11]方向、[01-1]方向、[-1-10]方向、[-10-1]方向および[0-1-1]方向の総称であり、いずれかに読み替えてもよい。但し、本開示は、素子形成面と直交する方向と、この素子形成面に直交する方向に対してさらに直交する方向(すなわち素子形成面と平行な方向)とにエッチングを行うものである。
 表1は、本発明におけるSi{111}基板の結晶面である{111}面において<110>方向へのエッチングが成立することとなる面と方位との具体的な組み合わせを示したものである。
Figure JPOXMLDOC01-appb-T000001
 表1に示したように、{111}面と<110>方向との組み合わせは、96(=8×12)通り存在する。しかしながら、本開示の<110>方向は、素子形成面である{111}面と直交する方向と、素子形成面と平行な方向とに限られる。すなわち、本開示のSi{111}基板における素子形成面と、そのSi{111}基板に対してエッチングを行う方位との組み合わせは、表1において○で示した組合せのいずれかから選択される。
 また、上記第1の実施の形態では、Si{111}基板を用いて、X軸方向へのエッチングが進行する一方、Y軸方向およびZ軸方向には進行しない場合を例示した。しかしながら、本開示はこれに限定されず、X軸方向およびY軸方向の双方、または、X軸方向もしくはY軸方向のいずれか一方にエッチング進行方位があればよい。また、Si{111}基板には、例えば、図33に示したように、基板表面が<112>方向に対してオフ角があるように加工された基板の場合も含まれる。オフ角が19.47°以下の場合、オフ角を有する基板の場合においても、<111>方向、すなわちSiバックボンドを3本有する方向のエッチングレートに対して、<110>方向、すなわちSiバックボンドを1本有する方向のエッチングレートが十分に高くなる関係性は保たれる。オフ角が大きくなるとステップ数が多くなり、ミクロな段差の密度が高くなるので、好ましくは5°以下がよい。なお、図33の例では基板表面が<112>方向にオフ角がある場合を挙げたが、<110>方向にオフ角がある場合でも構わなく、オフ角の方向は問わない。また、Si面方位は、X線回折法、電子線回折法、電子線後方散乱回折法などを用いて解析可能である。Siバックボンド数は、Siの結晶構造で決定されているものであるため、Si面方位を解析することによって、バックボンド数も解析可能である。
 なお、本明細書中に記載された効果はあくまで例示であってその記載に限定されるものではなく、他の効果があってもよい。また、本技術は以下のような構成を取り得るものである。
(1)
 第1の面に沿って広がる有効画素領域に、
 入射光を集光する集光光学系と、
 前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
 前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
 前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する第1の遮光膜と
 を有し、
 前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記第1の遮光膜と重なり合う位置に前記入射光を集光するようになっている
 撮像装置。
(2)
 前記集光光学系は、前記有効画素領域における中心位置以外の位置に集光するようになっている
 上記(1)記載の撮像装置。
(3)
 前記第1の遮光膜は、前記有効画素領域における中心位置以外の位置に第1の開口を含む
 上記(1)または(2)に記載の撮像装置。
(4)
 前記厚さ方向において前記第1の遮光膜と重なり合うように設けられ、前記有効画素領域における前記第1の開口と異なる位置に第2の開口を含み、前記電荷保持部への前記入射光の進入を妨げる第2の遮光膜をさらに有する
 上記(3)に記載の撮像装置。
(5)
 前記集光光学系は、前記第1の面に沿って並ぶ第1の光学系と第2の光学系とを含み、
 前記第1の光学系は、前記有効画素領域のうちの第1の集光点に向かうように前記入射光を集光し、
 前記第2の光学系は、前記有効画素領域のうちの第2の集光点に向かうように前記入射光を集光する
 上記(1)から(4)のいずれか1つに記載の撮像装置。
(6)
 前記第1の光学系は第1のレンズを含み、
 前記第2の光学系は前記第1のレンズよりも小さな第2のレンズを含む
 上記(5)記載の撮像装置。
(7)
 前記集光光学系は、前記第1の面に沿ってマトリクス状に配列された第1から第4の光学系を含み、
 第1から第4の光学系は、それぞれ、前記有効画素領域のうちの第1から第4の集光点に向かうように前記入射光を集光する
 上記(1)から(6)のいずれか1つに記載の撮像装置。
(8)
 前記集光光学系は、前記厚さ方向において積層された第1レンズ層と第2レンズ層とを含む
 上記(1)から(7)のいずれか1つに記載の撮像装置。
(9)
 前記光電変換部は、前記第1の面に沿った第1の方向に並ぶ第1の光電変換素子と第2の第1の光電変換素子とを含み、
 前記集光光学系は、前記第1の方向と直交すると共に前記第1の面に沿った第2の方向に並ぶ第1の光学系と第2の光学系とを含み、
 前記第1の光学系は、前記有効画素領域のうちの第1の集光点に向かうように前記入射光を集光し、
 前記第2の光学系は、前記有効画素領域のうちの第2の集光点に向かうように前記入射光を集光する
 上記(1)から(8)のいずれか1つに記載の撮像装置。
(10)
 第1画素と、第2画素とを備え、
 前記第1画素は、
 第1の面に沿って広がる有効画素領域に、
 入射光を集光する集光光学系と、
 前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
 前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
 前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する第1の遮光膜と
 を有し、
 前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記第1の遮光膜と重なり合う位置に前記入射光を集光するようになっており、
 前記第2画素は、像面位相差検出画素である
 撮像装置。
(11)
 第3画素をさらに備え、
 前記第2画素は、前記有効画素領域において第1方向に分割された第1のレンズおよび第2のレンズを含む第1の像面位相差検出画素であり、
 前記第3画素は、前記有効画素領域において前記第1方向と直交する第2方向に分割された第3のレンズおよび第4のレンズを含む第2の像面位相差検出画素である
 上記(10)に記載の撮像装置。
(12)
 前記第1画素はグローバルシャッタ画素である
 上記(10)または(11)に記載の撮像装置。
(13)
 撮像装置を備えた電子機器であって、
 前記撮像装置は、
 第1の面に沿って広がる有効画素領域に、
 入射光を集光する集光光学系と、
 前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
 前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
 前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する遮光膜と
 を有し、
 前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記遮光膜と重なり合う位置に前記入射光を集光するようになっている
 電子機器。
 本出願は、日本国特許庁において2019年12月13日に出願された日本特許出願番号2019-225188号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (13)

  1.  第1の面に沿って広がる有効画素領域に、
     入射光を集光する集光光学系と、
     前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
     前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
     前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する第1の遮光膜と
     を有し、
     前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記第1の遮光膜と重なり合う位置に前記入射光を集光するようになっている
     撮像装置。
  2.  前記集光光学系は、前記有効画素領域における中心位置以外の位置に集光するようになっている
     請求項1記載の撮像装置。
  3.  前記第1の遮光膜は、前記有効画素領域における中心位置以外の位置に第1の開口を含む
     請求項1記載の撮像装置。
  4.  前記厚さ方向において前記第1の遮光膜と重なり合うように設けられ、前記有効画素領域における前記第1の開口と異なる位置に第2の開口を含み、前記電荷保持部への前記入射光の進入を妨げる第2の遮光膜をさらに有する
     請求項3記載の撮像装置。
  5.  前記集光光学系は、前記第1の面に沿って並ぶ第1の光学系と第2の光学系とを含み、
     前記第1の光学系は、前記有効画素領域のうちの第1の集光点に向かうように前記入射光を集光し、
     前記第2の光学系は、前記有効画素領域のうちの第2の集光点に向かうように前記入射光を集光する
     請求項1記載の撮像装置。
  6.  前記第1の光学系は第1のレンズを含み、
     前記第2の光学系は前記第1のレンズよりも小さな第2のレンズを含む
     請求項5記載の撮像装置。
  7.  前記集光光学系は、前記第1の面に沿ってマトリクス状に配列された第1から第4の光学系を含み、
     第1から第4の光学系は、それぞれ、前記有効画素領域のうちの第1から第4の集光点に向かうように前記入射光を集光する
     請求項1記載の撮像装置。
  8.  前記集光光学系は、前記厚さ方向において積層された第1レンズ層と第2レンズ層とを含む
     請求項1記載の撮像装置。
  9.  前記光電変換部は、前記第1の面に沿った第1の方向に並ぶ第1の光電変換素子と第2の第1の光電変換素子とを含み、
     前記集光光学系は、前記第1の方向と直交すると共に前記第1の面に沿った第2の方向に並ぶ第1の光学系と第2の光学系とを含み、
     前記第1の光学系は、前記有効画素領域のうちの第1の集光点に向かうように前記入射光を集光し、
     前記第2の光学系は、前記有効画素領域のうちの第2の集光点に向かうように前記入射光を集光する
     請求項1記載の撮像装置。
  10.  第1画素と、第2画素とを備え、
     前記第1画素は、
     第1の面に沿って広がる有効画素領域に、
     入射光を集光する集光光学系と、
     前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
     前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
     前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する第1の遮光膜と
     を有し、
     前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記第1の遮光膜と重なり合う位置に前記入射光を集光するようになっており、
     前記第2画素は、像面位相差検出画素である
     撮像装置。
  11.  第3画素をさらに備え、
     前記第2画素は、前記有効画素領域において第1方向に分割された第1のレンズおよび第2のレンズを含む第1の像面位相差検出画素であり、
     前記第3画素は、前記有効画素領域において前記第1方向と直交する第2方向に分割された第3のレンズおよび第4のレンズを含む第2の像面位相差検出画素である
     請求項10記載の撮像装置。
  12.  前記第1画素はグローバルシャッタ画素である
     請求項10記載の撮像装置。
  13.  撮像装置を備えた電子機器であって、
     前記撮像装置は、
     第1の面に沿って広がる有効画素領域に、
     入射光を集光する集光光学系と、
     前記集光光学系を経由した前記入射光の光量に応じた電荷を、光電変換により生成可能な光電変換部と、
     前記光電変換部から転送される前記電荷を保持可能な電荷保持部と、
     前記第1の面と直交する厚さ方向において前記光電変換部と前記電荷保持部との間に設けられ、前記入射光を遮断する遮光膜と
     を有し、
     前記集光光学系は、前記有効画素領域のうち、前記厚さ方向において前記遮光膜と重なり合う位置に前記入射光を集光するようになっている
     電子機器。
PCT/JP2020/045356 2019-12-13 2020-12-05 撮像装置および電子機器 WO2021117648A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080074583.6A CN114600448A (zh) 2019-12-13 2020-12-05 摄像装置和电子设备
US17/756,811 US20220415948A1 (en) 2019-12-13 2020-12-05 Imaging device and electronic apparatus
EP20899448.3A EP4075505A4 (en) 2019-12-13 2020-12-05 IMAGING DEVICE AND ELECTRONIC APPARATUS
JP2021563931A JPWO2021117648A1 (ja) 2019-12-13 2020-12-05

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019225188 2019-12-13
JP2019-225188 2019-12-13

Publications (1)

Publication Number Publication Date
WO2021117648A1 true WO2021117648A1 (ja) 2021-06-17

Family

ID=76330346

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045356 WO2021117648A1 (ja) 2019-12-13 2020-12-05 撮像装置および電子機器

Country Status (6)

Country Link
US (1) US20220415948A1 (ja)
EP (1) EP4075505A4 (ja)
JP (1) JPWO2021117648A1 (ja)
CN (1) CN114600448A (ja)
TW (1) TW202127649A (ja)
WO (1) WO2021117648A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057806A1 (ja) * 2022-09-15 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2024058010A1 (ja) * 2022-09-13 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2024116928A1 (ja) * 2022-11-28 2024-06-06 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び電子機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054414A (ja) * 2004-08-11 2006-02-23 Dongbuanam Semiconductor Inc Cmosイメージセンサ及びその製造方法
JP2007158109A (ja) * 2005-12-06 2007-06-21 Nikon Corp 焦点検出用信号の生成機能を有する固体撮像装置、および電子カメラ
WO2016136486A1 (ja) 2015-02-27 2016-09-01 ソニー株式会社 固体撮像装置及び電子機器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013098446A (ja) * 2011-11-04 2013-05-20 Sony Corp 固体撮像素子、固体撮像素子の製造方法、及び、電子機器
CN114731380A (zh) * 2019-12-10 2022-07-08 索尼半导体解决方案公司 成像装置和电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054414A (ja) * 2004-08-11 2006-02-23 Dongbuanam Semiconductor Inc Cmosイメージセンサ及びその製造方法
JP2007158109A (ja) * 2005-12-06 2007-06-21 Nikon Corp 焦点検出用信号の生成機能を有する固体撮像装置、および電子カメラ
WO2016136486A1 (ja) 2015-02-27 2016-09-01 ソニー株式会社 固体撮像装置及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4075505A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058010A1 (ja) * 2022-09-13 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器
WO2024057806A1 (ja) * 2022-09-15 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2024116928A1 (ja) * 2022-11-28 2024-06-06 ソニーセミコンダクタソリューションズ株式会社 半導体装置及び電子機器

Also Published As

Publication number Publication date
US20220415948A1 (en) 2022-12-29
EP4075505A4 (en) 2023-02-01
CN114600448A (zh) 2022-06-07
JPWO2021117648A1 (ja) 2021-06-17
EP4075505A1 (en) 2022-10-19
TW202127649A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
WO2021117648A1 (ja) 撮像装置および電子機器
WO2019240207A1 (ja) 撮像装置およびその製造方法、電子機器
US11863892B2 (en) Imaging unit and electronic apparatus with first and second light blocking films
WO2021112128A1 (ja) 撮像装置およびその製造方法、電子機器
WO2021112098A1 (ja) 撮像装置およびその製造方法、電子機器
WO2019188043A1 (ja) 撮像装置および撮像装置の製造方法
WO2022181155A1 (ja) 撮像装置および電子機器
WO2020195824A1 (ja) 撮像装置および電子機器
WO2020045142A1 (ja) 撮像装置および電子機器
JP2020181947A (ja) 光電変換装置、撮像システム、および、移動体
TW202006938A (zh) 受光元件及測距模組
JP7281895B2 (ja) 撮像素子および電子機器
WO2021117511A1 (ja) 撮像装置および電子機器
WO2021256261A1 (ja) 撮像素子、電子機器
WO2020241163A1 (ja) 撮像装置および電子機器
CN114008783A (zh) 摄像装置
WO2021111818A1 (ja) 固体撮像装置およびその製造方法
WO2024057739A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2022196141A1 (ja) 固体撮像装置および電子機器
WO2020149181A1 (ja) 撮像装置
WO2022080124A1 (ja) 撮像装置および撮像装置の製造方法
JP2023073713A (ja) 光検出装置及び電子機器
TW202020402A (zh) 受光元件及測距模組

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20899448

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021563931

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020899448

Country of ref document: EP

Effective date: 20220713