WO2019009024A1 - 撮像素子および撮像装置 - Google Patents

撮像素子および撮像装置 Download PDF

Info

Publication number
WO2019009024A1
WO2019009024A1 PCT/JP2018/022327 JP2018022327W WO2019009024A1 WO 2019009024 A1 WO2019009024 A1 WO 2019009024A1 JP 2018022327 W JP2018022327 W JP 2018022327W WO 2019009024 A1 WO2019009024 A1 WO 2019009024A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
photoelectric conversion
unit
imaging device
organic photoelectric
Prior art date
Application number
PCT/JP2018/022327
Other languages
English (en)
French (fr)
Inventor
宏和 澁田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to KR1020197034242A priority Critical patent/KR102554502B1/ko
Priority to CN201880043501.4A priority patent/CN110809821A/zh
Priority to DE112018003461.5T priority patent/DE112018003461T5/de
Priority to US16/626,018 priority patent/US10910440B2/en
Publication of WO2019009024A1 publication Critical patent/WO2019009024A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/30Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation comprising bulk heterojunctions, e.g. interpenetrating networks of donor and acceptor material domains
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/80Constructional details
    • H10K30/87Light-trapping means
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14638Structures specially adapted for transferring the charges across the imager perpendicular to the imaging plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy
    • Y02E10/549Organic PV cells
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P70/00Climate change mitigation technologies in the production process for final industrial or consumer products
    • Y02P70/50Manufacturing or production processes characterised by the final manufactured product

Definitions

  • the present disclosure relates to, for example, an imaging device having an organic photoelectric conversion unit and an imaging device provided with the same.
  • a wire for applying a voltage to the upper electrode is required. Since the wiring can be used as a light shielding film in the optical black area (OB area), the wiring is generally formed with a film thickness of about 250 nm from the viewpoint of the light shielding performance.
  • a protective layer is provided as a buffer between the connection wiring and the organic photoelectric conversion film including the p layer, the n layer, and the electron blocking layer.
  • the buffer material becomes thick, mixed light occurs due to the light condensed by the on-chip lens entering the adjacent pixels before reaching the photoelectric conversion unit, or vignetting occurs due to the light shielding film provided between the adjacent pixels. There is a concern about deterioration of optical characteristics such as deterioration of shading.
  • a metal light shielding film is generally arrange
  • Patent Documents 2 to 4 disclose solid-state imaging devices whose optical characteristics are improved by devising the arrangement position of the light shielding film and forming a film for flare prevention.
  • the imaging device is provided continuously in a pixel area in which a plurality of pixels are arranged, a peripheral area provided around the pixel area, and at least a part of the pixel area to the peripheral area.
  • An imaging apparatus includes the imaging element according to an embodiment of the present disclosure as an imaging element.
  • the light shielding conductive layer is provided on the organic photoelectric conversion layer continuing from the pixel region and extending from the peripheral portion of the pixel region to the peripheral region.
  • Black layer was provided. This makes it possible to reduce the thickness of the light shielding layer and reduce its stress.
  • black is further formed on the light shielding conductive layer provided on the organic photoelectric conversion layer from the peripheral portion of the pixel region to the peripheral region. Since the layer is provided, the thickness of the conductive layer can be reduced, and the stress of the conductive layer is reduced. Therefore, it becomes possible to thin the film thickness of the buffer layer provided on the organic photoelectric conversion layer which relieves the stress of the conductive layer, and it becomes possible to improve the optical characteristics.
  • FIG. 1 is a schematic view illustrating a cross-sectional configuration of an imaging device according to a first embodiment of the present disclosure. It is a schematic diagram showing the planar structure of the image pick-up element shown in FIG. It is sectional drawing of the photoelectric conversion element shown in FIG. It is sectional drawing for demonstrating the manufacturing method of the photoelectric conversion element shown in FIG.
  • FIG. 5 is a cross-sectional view illustrating a process following FIG. 4. It is a schematic diagram showing the cross-sectional structure of the image pick-up element which concerns on 2nd Embodiment of this indication. It is a schematic diagram showing the cross-sectional structure of the image pick-up element which concerns on 3rd Embodiment of this indication.
  • FIG. 1 It is a schematic diagram showing the cross-sectional structure of the image pick-up element which concerns on 4th Embodiment of this indication. It is a functional block diagram of an image sensor shown in FIG. It is a block diagram showing schematic structure of the imaging device using the image pick-up element shown in FIG. It is a block diagram showing an example of rough composition of an internal information acquisition system. It is a block diagram showing an example of rough composition of a vehicle control system. It is explanatory drawing which shows an example of the installation position of an imaging part.
  • First embodiment (example in which a black layer is provided on a light shielding layer provided on an organic photoelectric conversion layer) 1-1.
  • Configuration of imaging device 1-2 Configuration of photoelectric conversion element 1-3.
  • Method of manufacturing photoelectric conversion element 1-4 Action / Effect 2.
  • Second embodiment (example in which the light shielding layer has a two-layer structure) 3.
  • Third embodiment (an example in which an oxide film is formed on the surface of a light shielding layer) 4.
  • Fourth embodiment (example of projecting the black layer to the pixel effective area side) 5.
  • FIG. 1 schematically shows a cross-sectional configuration of an imaging device (imaging device 1) according to a first embodiment of the present disclosure.
  • FIG. 2 schematically shows a plane configuration of the image pickup device 1 shown in FIG.
  • the imaging device 1 is, for example, a backside illuminated (backside illuminated) CCD image sensor, a CMOS image sensor, or the like, and is a pixel region (pixel portion 100 in which a plurality of unit pixels P are two-dimensionally arrayed on a semiconductor substrate 11. ) (See FIG. 9).
  • FIG. 1 shows a cross-sectional configuration taken along line II shown in FIG.
  • an optical black (OB) area 110B is provided so as to surround the effective pixel area 110A and the effective pixel area 110A.
  • a peripheral region 200 is provided around the pixel unit 100, and includes a routing region 210A, an outer peripheral region 210B, and a pad region 210C from the pixel unit 100 side.
  • the effective pixel area 110A is provided with a photoelectric conversion element 10 for selectively detecting light of different wavelength ranges and performing photoelectric conversion for each unit pixel P (for example, see FIG. 9).
  • the photoelectric conversion element 10 includes one organic photoelectric conversion unit (organic photoelectric conversion unit 11G) and two inorganic photoelectric conversion units (inorganic photoelectric conversion unit 11B and inorganic photoelectric conversion unit 11R). These three photoelectric conversion units (organic photoelectric conversion unit 11G, inorganic photoelectric conversion unit 11B and inorganic photoelectric conversion unit 11R) are stacked in the vertical direction.
  • the inorganic photoelectric conversion unit 11 ⁇ / b> B and the inorganic photoelectric conversion unit 11 ⁇ / b> R are embedded in the semiconductor substrate 11.
  • the organic photoelectric conversion unit 11G is provided on the back surface (light receiving surface (first surface 11S1)) side of the semiconductor substrate 11, and the protective layer 19 and the buffer layer 21 (stress buffer layer) are formed on the organic photoelectric conversion unit 11G.
  • the protective layer 23 are provided in this order, and the on-chip lens layer 25 and the anti-reflection layer 26 (not shown in FIG. 3) that constitute the on-chip lens 25 L are formed on the protective layer 23.
  • a pixel transistor (including transfer transistors Tr1 to Tr3 described later) is formed on the surface (the surface (second surface 11S2) opposite to the light receiving surface) side of the semiconductor substrate 11, and a multilayer wiring layer (multilayer wiring layer (multilayer wiring) 70). The detailed configuration of the photoelectric conversion element 10 will be described later.
  • the OB area 110B is for outputting an optical black which is a reference of the black level.
  • the buffer layer 21 extends from the effective pixel region 110A through the lower electrode 15a, the organic photoelectric conversion layer 17 and the upper electrode 18 on the light receiving surface (first surface 11S1) side of the semiconductor substrate 11.
  • a light shielding layer 22 is provided on the buffer layer 21.
  • a protective layer 23 extending from the effective pixel area 110A is provided on the light shielding layer 22.
  • the black layer 24 is provided on the protective layer 23.
  • an on-chip lens layer 25 extending from the effective pixel area 110A is provided.
  • An anti-reflection layer 26 is provided on the on-chip lens layer 25.
  • the buffer layer 21 is for relieving stress from the light shielding layer 22 and preventing film peeling of the organic photoelectric conversion layer 17.
  • the buffer layer 21 is preferably a film having a high passivation property that suppresses damage to the organic film due to water supply from the outside.
  • Examples of the material of the buffer layer 21 include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), and materials mainly composed of silicon and carbon represented by the composition formula SiCO.
  • the film thickness in the stacking direction of the buffer layer 21 (hereinafter simply referred to as the thickness) is preferably, for example, 200 nm or more and 1000 nm or less.
  • the light shielding layer 22 is for defining a black level, and is made of a conductive material having a light shielding property. Specifically, for example, a single layer film of a metal material such as tungsten (W), titanium (Ti), titanium nitride (TiN) and aluminum (Al) or the like is desirably formed. Among these, the thickness of the buffer layer 21 can be reduced by forming the light shielding layer 22 with Al. Although the thickness of the light shielding layer 22 changes with materials, it is preferable that they are 50 nm or more and 250 nm or less (for example, 50 nm for Al and 250 nm for W).
  • the light shielding layer 22 is electrically connected to the upper electrode 18 through the through hole 21H (contact hole) in, for example, a routing region 210A described later.
  • the light shielding layer 22 is electrically connected to the conductive film 120 through the through holes 14 H penetrating the insulating film 16 and the interlayer insulating layer 14, and also functions as a wiring for applying a potential to the upper electrode 18. Do.
  • the protective layer 23 is for preventing corrosion of the conductive film which comprises the light shielding layer 22, for example, is comprised with the material which has light transmittance. Specifically, for example, it is configured of a single layer film made of any one of silicon nitride (SiN) and silicon oxynitride (SiON) or a laminated film made of two or more of them.
  • the thickness of the protective layer 23 is, for example, 100 nm or more and 500 nm or less.
  • the black layer 24 is for defining a black level together with the light shielding layer 22 and is for blocking the incidence of light on the OB region 110B.
  • the material of the black layer 24 desirably has a light shielding property, and examples thereof include black pigment dispersion type photosensitive resins containing pigments such as carbon black, titanium oxide (TiO 2 ), and a plurality of color mixed dyes.
  • the thickness of the black layer 24 is preferably, for example, 200 nm or more and 1000 nm or less.
  • the black layer 24 extends from the OB region 110B to, for example, the outer peripheral region 210B, thereby preventing the incidence of light on the OB region 110B and the reflection from the light shielding layer 22.
  • the black layer 24 is provided on the light shielding layer 22 made of a conductive film, with the protective layer 23 interposed therebetween.
  • the thickness of the light shielding layer 22 can be reduced, and the stress of the light shielding layer 22 is reduced.
  • the thickness of the buffer layer 21 that relieves the stress of the light shielding layer 22 applied to the organic photoelectric conversion layer 17 can also be reduced, the occurrence of color mixing and shading can be reduced.
  • the on-chip lens layer 25 is, for example, continuously provided on the entire surface of the light receiving surface (first surface 11S1) of the semiconductor substrate 11, that is, the pixel portion 100 and the peripheral region 200. belongs to. In the effective pixel area 110A, an on-chip lens 25L is formed on the surface.
  • the on-chip lens layer 25 is made of a light transmissive material. Examples of the light-transmissive material include transparent resin materials such as acrylic, silicon oxide (SiO), silicon nitride (SiN), silicon oxynitride (SiON), and the like.
  • the on-chip lens layer 25 is composed of a single layer film of any of these, or a laminated film of two or more of them.
  • the anti-reflection layer 26 is for reducing unintended reflection of light on the surface of the imaging device 1.
  • Examples of the material of the antireflective layer 26 include silicon oxide (SiO) and silicon oxynitride (SiON).
  • the peripheral region 200 is provided with the routing region 210A, the outer peripheral region 210B, and the pad region 210C from the pixel unit 100 side.
  • connection wiring to the upper electrode 18 is formed in the lead-out area 210A.
  • the outer peripheral region 210B is, for example, for preventing light from being incident on the inorganic photoelectric conversion unit 11B and the inorganic photoelectric conversion unit 11R.
  • the buffer layer 21, the light shielding layer 22, the protective layer 23, the black layer 24, the on-chip lens layer 25, and the anti-reflection layer 26 are continuously formed in the routing area 210A and the outer peripheral area 210B from the OB area 110B. In the outer peripheral region 210B, by providing the light shielding layer 22 and the black layer 24, light incident on the inorganic photoelectric conversion unit 11B and the inorganic photoelectric conversion unit 11R is reduced.
  • the light shielding layer 22 electrically connects each other through the contact hole 21H and the through hole 14H penetrating to the upper electrode 18 and the conductive film 120 in the routing region 210A, respectively.
  • a conduction path for applying a potential is configured.
  • the surface of the semiconductor substrate 11 passes through the antireflective layer 26, the on-chip lens layer 25, the protective layer 23, the light shielding layer 22, the buffer layer 21, the interlayer insulating layers 14 and 12, and the semiconductor substrate 11
  • a contact hole 211H penetrating to the two surfaces 11S2) is provided.
  • the pad portion 211 At the bottom of the contact hole 211H, there is a metal film of Al or the like as the pad portion 211, which is a voltage application portion from the outside.
  • FIG. 3 shows a detailed cross-sectional configuration of the photoelectric conversion element 10 shown in FIG.
  • the photoelectric conversion element 10 is, for example, of a so-called vertical direction spectroscopy type in which one organic photoelectric conversion unit 11G and two inorganic photoelectric conversion units 11B and 11R are vertically stacked.
  • the organic photoelectric conversion unit 11G is provided on the back surface (first surface 11S1) side of the semiconductor substrate 11.
  • the inorganic photoelectric conversion units 11B and 11R are embedded in the semiconductor substrate 11 and stacked in the thickness direction of the semiconductor substrate 11.
  • the organic photoelectric conversion unit 11G is configured to include a p-type semiconductor and an n-type semiconductor, and includes an organic photoelectric conversion layer 17 having a bulk heterojunction structure in the layer.
  • the bulk heterojunction structure is a p / n junction surface formed by mixing a p-type semiconductor and an n-type semiconductor.
  • the organic photoelectric conversion unit 11G, the inorganic photoelectric conversion unit 11B, and the inorganic photoelectric conversion unit 11R selectively detect light in different wavelength bands to perform photoelectric conversion. Specifically, the organic photoelectric conversion unit 11G acquires a green (G) color signal. In the inorganic photoelectric conversion units 11B and 11R, color signals of blue (B) and red (R) are obtained based on the difference in absorption coefficient. Thereby, in the photoelectric conversion element 10, a plurality of types of color signals can be obtained in one pixel without using a color filter.
  • the multilayer wiring 70 has, for example, a configuration in which the wiring layers 71, 72, 73 are stacked in the insulating layer 74.
  • the first surface 11S1 side of the semiconductor substrate 11 is referred to as a light incident side S1
  • the second surface 11S2 side is referred to as a wiring layer side S2.
  • the organic photoelectric conversion unit 11G has, for example, a configuration in which the lower electrode 15, the organic photoelectric conversion layer 17, and the upper electrode 18 are stacked in this order from the side of the first surface 11S1 of the semiconductor substrate 11.
  • the lower electrode 15 is formed separately for each photoelectric conversion element 10, for example.
  • the organic photoelectric conversion layer 17 and the upper electrode 18 are provided as a continuous layer common to the plurality of photoelectric conversion elements 10.
  • interlayer insulating layers 12 and 14 are stacked in this order from the semiconductor substrate 11 side between the first surface 11S1 of the semiconductor substrate 11 and the lower electrode 15.
  • the interlayer insulating layer has, for example, a configuration in which a layer (fixed charge layer) 12A having a fixed charge and a dielectric layer 12B having an insulating property are stacked.
  • a protective layer 19 is provided on the upper electrode 18.
  • the buffer layer 21 and the protective layer 23 described above are provided above the protective layer 19, and an on-chip lens layer 25 constituting an on-chip lens 25 L is further provided.
  • an anti-reflection layer 26 is provided on the on-chip lens layer 25.
  • a through electrode 63 is provided between the first surface 11S1 and the second surface 11S2 of the semiconductor substrate 11.
  • the organic photoelectric conversion unit 11G is connected to the gate Gamp of the amplifier transistor AMP and the floating diffusion FD3 via the through electrode 63.
  • the charge generated in the organic photoelectric conversion unit 11G on the first surface 11S1 side of the semiconductor substrate 11 is favorably transferred to the second surface 11S2 side of the semiconductor substrate 11 via the through electrode 63. It is possible to improve the characteristics.
  • the through electrodes 63 are provided, for example, in each of the photoelectric conversion elements 10 for each of the organic photoelectric conversion units 11G.
  • the through electrode 63 functions as a connector between the organic photoelectric conversion unit 11G and the gate Gamp of the amplifier transistor AMP and the floating diffusion FD3, and also serves as a transmission path of charges generated in the organic photoelectric conversion unit 11G.
  • the lower end of the through electrode 63 is connected to, for example, the connection portion 71A in the wiring layer 71, and the connection portion 71A and the gate Gamp of the amplifier transistor AMP are connected via the lower first contact 75.
  • the connection portion 71A and the floating diffusion FD3 are connected to the lower electrode 15 via the lower second contact 76.
  • the penetration electrode 63 was shown as cylindrical shape in FIG. 3, it is good not only this but it is good also as taper shape, for example.
  • a reset gate Grst of the reset transistor RST is disposed.
  • the charge accumulated in the floating diffusion FD3 can be reset by the reset transistor RST.
  • the photoelectric conversion element 10 of the present embodiment light incident on the organic photoelectric conversion unit 11 G from the upper electrode 18 side is absorbed by the organic photoelectric conversion layer 17.
  • the excitons generated by this move to the interface between the electron donor and the electron acceptor constituting the organic photoelectric conversion layer 17 and are separated into excitons, that is, dissociated into electrons and holes.
  • the charges (electrons and holes) generated here are diffused by the carrier concentration difference or by the internal electric field due to the work function difference between the anode (here, the upper electrode 18) and the cathode (here, the lower electrode 15). Each is transported to a different electrode and detected as a photocurrent. Further, by applying a potential between the lower electrode 15 and the upper electrode 18, the transport direction of electrons and holes can be controlled.
  • the organic photoelectric conversion unit 11G absorbs green light corresponding to a part or all of a selective wavelength band (for example, 450 nm or more and 650 nm or less) to generate an electron-hole pair It is.
  • a selective wavelength band for example, 450 nm or more and 650 nm or less
  • the lower electrode 15 is provided in a region that covers the light receiving surfaces of the inorganic photoelectric conversion units 11B and 11R formed in the semiconductor substrate 11 so as to face the light receiving surfaces.
  • the lower electrode 15 is made of a light-transmitting conductive film, and is made of, for example, ITO (indium tin oxide).
  • ITO indium tin oxide
  • a tin oxide (SnO 2 ) based material to which a dopant is added, or a zinc oxide based material formed by adding a dopant to aluminum zinc oxide (ZnO) May be used.
  • zinc oxide based material for example, aluminum zinc oxide (AZO) to which aluminum (Al) is added as a dopant, gallium zinc oxide (GZO) to which gallium (Ga) is added, and indium zinc oxide to which indium (In) is added (IZO).
  • AZO aluminum zinc oxide
  • GZO gallium zinc oxide
  • IZO indium zinc oxide to which indium (In) is added
  • CuI, InSbO 4, ZnMgO, CuInO 2, MgIN 2 O 4, CdO may be used ZnSnO 3, and the like.
  • the organic photoelectric conversion layer 17 converts light energy into electrical energy.
  • the organic photoelectric conversion layer 17 includes, for example, three types of organic semiconductor materials that function as p-type semiconductors or n-type semiconductors.
  • One of the three organic semiconductor materials is either or both of an organic P-type semiconductor and an organic n-type semiconductor, and photoelectrically converts light of a selective wavelength range (for example, 450 nm or more and 650 nm or less) And light in other wavelength ranges.
  • the organic photoelectric conversion layer 17 has a junction surface (p / n junction surface) between the p-type semiconductor and the n-type semiconductor in the layer.
  • the p-type semiconductor relatively functions as an electron donor (donor)
  • the n-type semiconductor relatively functions as an electron acceptor (acceptor).
  • the organic photoelectric conversion layer 17 provides a place where excitons generated upon absorption of light separate into electrons and holes. Specifically, the interface between the electron donor and the electron acceptor (p At the / n junction surface), excitons are separated into electrons and holes.
  • the thickness of the organic photoelectric conversion layer 17 is, for example, 50 nm to 500 nm.
  • the upper electrode 18 is formed of a conductive film having the same light transmittance as the lower electrode 15. In the imaging device 1 using the photoelectric conversion device 10 as one pixel, the upper electrode 18 may be separated for each pixel, or may be formed as an electrode common to each pixel. The thickness of the upper electrode 18 is, for example, 10 nm to 200 nm.
  • organic photoelectric conversion layer 17 and the lower electrode 15 may be provided between the organic photoelectric conversion layer 17 and the upper electrode 18.
  • an undercoat film, a hole transport layer, an electron blocking film, an organic photoelectric conversion layer 17, a hole blocking film, a buffer film, an electron transport layer, a work function adjustment film, etc. in order from the lower electrode 15 side May be stacked.
  • the fixed charge layer 12A may be a film having a positive fixed charge or a film having a negative fixed charge.
  • Examples of the material of the film having a negative fixed charge include hafnium oxide, aluminum oxide, zirconium oxide, tantalum oxide, titanium oxide and the like.
  • Materials other than the above include lanthanum oxide, praseodymium oxide, cerium oxide, neodymium oxide, promethium oxide, samarium oxide, europium oxide, gadolinium oxide, terbium oxide, dysprosium oxide, hole oxide lithium, thulium oxide, ytterbium oxide, lutetium oxide
  • An yttrium oxide, an aluminum nitride film, a hafnium oxynitride film, an aluminum oxynitride film, or the like may be used.
  • the fixed charge layer 12A may have a configuration in which two or more types of films are stacked. Thereby, for example, in the case of a film having a negative fixed charge, it is possible to further enhance the function as a hole storage layer.
  • the material of the dielectric layer 12B is not particularly limited, it is formed of, for example, a silicon oxide film, TEOS, a silicon nitride film, a silicon oxynitride film, or the like.
  • the interlayer insulating layer 14 is formed of, for example, a single layer film made of one of silicon oxide, silicon nitride and silicon oxynitride (SiON) or a laminated film made of two or more of these. .
  • the protective layer 19 is made of a light transmitting material, and is, for example, a single layer film made of any of silicon oxide, silicon nitride, silicon oxynitride and the like, or a laminated film made of two or more of them. It is composed of The thickness of the protective layer 19 is, for example, 100 nm to 30000 nm.
  • An on-chip lens layer 25 is formed on the protective layer 23 so as to cover the entire surface.
  • the on-chip lens 25L condenses the light incident from above on the light receiving surfaces of the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R.
  • the multilayer wiring 70 is formed on the second surface 11S2 side of the semiconductor substrate 11, the light receiving surfaces of the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R are arranged close to each other. It is possible to reduce the variation in sensitivity among the respective colors depending on the F value of the on-chip lens 25L.
  • the on-chip lens 25L is not necessarily provided in the OB region 110B, and may be omitted as appropriate.
  • FIG. 1 shows an example in which the organic photoelectric conversion unit 11G is provided continuously from the effective pixel region 110A in the OB region 110B, but, for example, inorganic photoelectric conversion along with the organic photoelectric conversion unit 11G as a dummy pixel.
  • the part 11B and the inorganic photoelectric conversion part 11R may be provided.
  • the semiconductor substrate 11 is made of, for example, an n-type silicon (Si) substrate, and has a p-well 61 in a predetermined region. On the second surface 11S2 of the p well 61, the above-described vertical transistor Tr1, transfer transistor Tr2, amplifier transistor AMP, reset transistor RST, and the like are provided. In addition, peripheral circuits (not shown) including logic circuits and the like are provided in the peripheral portion of the semiconductor substrate 11.
  • the inorganic photoelectric conversion units 11B and 11R each have a pn junction in a predetermined region of the semiconductor substrate 11.
  • the inorganic photoelectric conversion parts 11B and 11R make it possible to disperse light in the vertical direction by utilizing the fact that the wavelengths of light absorbed in the silicon substrate differ according to the incident depth of light.
  • the inorganic photoelectric conversion unit 11B selectively detects blue light to accumulate signal charges corresponding to blue, and is disposed at a depth at which blue light can be efficiently photoelectrically converted.
  • the inorganic photoelectric conversion unit 11R selectively detects red light and stores signal charges corresponding to red, and is disposed at a depth at which red light can be efficiently photoelectrically converted.
  • Blue (B) is a color corresponding to, for example, a wavelength band of 350 nm to 495 nm
  • red (R) is a color corresponding to a wavelength band of, for example, 620 nm to 750 nm.
  • the inorganic photoelectric conversion units 11 ⁇ / b> B and 11 ⁇ / b> R only need to be able to detect light in a wavelength band of a part or all of the respective wavelength bands.
  • the inorganic photoelectric conversion unit 11B is configured to include, for example, ap + region to be a hole storage layer and an n region to be an electron storage layer.
  • the inorganic photoelectric conversion unit 11R has, for example, ap + region serving as a hole storage layer and an n region serving as an electron storage layer (having a layered structure of pnp).
  • the n region of the inorganic photoelectric conversion unit 11B is connected to the vertical transistor Tr1.
  • the p + region of the inorganic photoelectric conversion unit 11B is bent along the vertical transistor Tr1 and is connected to the p + region of the inorganic photoelectric conversion unit 11R.
  • the vertical transistor Tr1 is a transfer transistor that transfers the signal charge (here, electrons) corresponding to blue generated and accumulated in the inorganic photoelectric conversion unit 11B to the floating diffusion FD1. Since the inorganic photoelectric conversion unit 11B is formed at a deep position from the second surface 11S2 of the semiconductor substrate 11, it is preferable that the transfer transistor of the inorganic photoelectric conversion unit 11B be configured by the vertical transistor Tr1.
  • the transfer transistor Tr2 transfers the signal charge (here, electrons) generated in the inorganic photoelectric conversion unit 11R and corresponding to the accumulated red to the floating diffusion FD2, and is formed of, for example, a MOS transistor.
  • the amplifier transistor AMP is a modulation element that modulates the amount of charge generated in the organic photoelectric conversion unit 11G to a voltage, and is formed of, for example, a MOS transistor.
  • the reset transistor RST is for resetting the charge transferred from the organic photoelectric conversion unit 11G to the floating diffusion FD3, and is made of, for example, a MOS transistor.
  • the lower first contact 75, the lower second contact 76 and the upper contact 13 may be made of, for example, a doped silicon material such as PDAS (Phosphorus Doped Amorphous Silicon) or aluminum (Al), tungsten (W), titanium (Ti) And metal materials such as cobalt (Co), hafnium (Hf), tantalum (Ta) and the like.
  • PDAS Phosphorus Doped Amorphous Silicon
  • Al aluminum
  • Ti titanium
  • metal materials such as cobalt (Co), hafnium (Hf), tantalum (Ta) and the like.
  • the photoelectric conversion element 10 of the present embodiment can be manufactured, for example, as follows.
  • FIG. 4 and FIG. 5 show the manufacturing method of the photoelectric conversion element 10 in order of process.
  • a p well 61 is formed in the semiconductor substrate 11 as a well of the first conductivity type, and an inorganic of the second conductivity type (for example, n type) is formed in the p well 61.
  • the photoelectric conversion units 11B and 11R are formed. In the vicinity of the first surface 11S1 of the semiconductor substrate 11, ap + region is formed.
  • the gate insulating layer 62 after forming n + regions to be floating diffusions FD1 to FD3 on the second surface 11S2 of the semiconductor substrate 11, the gate insulating layer 62, the vertical transistor Tr1, the transfer transistor Tr2, the amplifier A gate interconnection layer 64 including the gates of the transistor AMP and the reset transistor RST is formed.
  • the vertical transistor Tr1, the transfer transistor Tr2, the amplifier transistor AMP, and the reset transistor RST are formed.
  • a multilayer wiring 70 including the lower first contact 75, the lower second contact 76, the wiring layers 71 to 73 including the connecting portion 71A, and the insulating layer 74 is formed on the second surface 11S2 of the semiconductor substrate 11.
  • an SOI (Silicon on Insulator) substrate in which the semiconductor substrate 11, a buried oxide film (not shown), and a holding substrate (not shown) are stacked is used.
  • the buried oxide film and the holding substrate are bonded to the first surface 11S1 of the semiconductor substrate 11, although not shown in FIG. After ion implantation, annealing is performed.
  • a supporting substrate (not shown) or another semiconductor substrate or the like is bonded to the second surface 11S2 side (multilayer wiring 70 side) of the semiconductor substrate 11 and vertically inverted. Subsequently, the semiconductor substrate 11 is separated from the buried oxide film and the holding substrate of the SOI substrate, and the first surface 11S1 of the semiconductor substrate 11 is exposed.
  • the above steps can be performed by techniques used in a normal CMOS process such as ion implantation and CVD (Chemical Vapor Deposition).
  • the semiconductor substrate 11 is processed from the first surface 11S1 side by dry etching, for example, to form an annular opening 63H.
  • the depth of the opening 63H penetrates from the first surface 11S1 to the second surface 11S2 of the semiconductor substrate 11 and reaches, for example, the connection portion 71A, as shown in FIG.
  • a negative fixed charge layer 12A is formed on the side surface of the first surface 11S1 of the semiconductor substrate 11 and the opening 63H.
  • Two or more types of films may be stacked as the negative fixed charge layer 12A. Thereby, the function as the hole accumulation layer can be further enhanced.
  • the dielectric layer 12B is formed.
  • a conductor is embedded in the opening 63H to form the through electrode 63.
  • the conductor for example, in addition to doped silicon materials such as PDAS (Phosphorus Doped Amorphous Silicon), aluminum (Al), tungsten (W), titanium (Ti), cobalt (Co), hafnium (Hf) and tantalum can be used.
  • PDAS Phosphorus Doped Amorphous Silicon
  • Al aluminum
  • Ti tungsten
  • Ti titanium
  • hafnium (Hf) and tantalum can be used.
  • a metal material such as (Ta) can be used.
  • the lower electrode 15 and the through electrode 63 are formed on the dielectric layer 12B and the pad portion 13A.
  • the upper first contact 13B and the pad portion 13C electrically connecting the upper and lower contacts form the interlayer insulating layer 14 provided on the pad portion 13A.
  • the lower electrode 15, the organic photoelectric conversion layer 17, the upper electrode 18 and the protective layer 19 are formed in this order on the interlayer insulating layer 14.
  • the organic photoelectric conversion layer 17 is formed, for example, by using the above-mentioned three types of organic semiconductor materials, for example, using a vacuum evaporation method.
  • the buffer layer 21, the protective layer 23, and the on-chip lens layer 25 are provided.
  • the photoelectric conversion element 10 shown in FIG. 3 is completed.
  • the film formation method of the organic photoelectric conversion layer 17 is not necessarily limited to the method using the vacuum evaporation method, and other methods such as spin coating technology and printing technology may be used.
  • the photoelectric conversion element 10 when light enters the organic photoelectric conversion unit 11G through the on-chip lens 25L, the light passes through the organic photoelectric conversion unit 11G and the inorganic photoelectric conversion units 11B and 11R in this order, and the passage process The photoelectric conversion is performed for each of green, blue and red color lights.
  • the signal acquisition operation of each color will be described.
  • the organic photoelectric conversion unit 11G is connected to the gate Gamp of the amplifier transistor AMP and the floating diffusion FD3 via the through electrode 63. Therefore, electrons of the electron-hole pairs generated in the organic photoelectric conversion unit 11G are extracted from the lower electrode 15 side, transferred to the second surface 11S2 side of the semiconductor substrate 11 through the through electrode 63, and floating diffusion It is accumulated in FD3. At the same time, the charge amount generated in the organic photoelectric conversion unit 11G is modulated to a voltage by the amplifier transistor AMP.
  • the reset gate Grst of the reset transistor RST is disposed next to the floating diffusion FD3. As a result, the charge accumulated in the floating diffusion FD3 is reset by the reset transistor RST.
  • the organic photoelectric conversion unit 11G is connected not only to the amplifier transistor AMP but also to the floating diffusion FD3 via the through electrode 63, the charge accumulated in the floating diffusion FD3 is easily reset by the reset transistor RST. It is possible to
  • the solid-state imaging device using the organic photoelectric conversion film is provided with a wire for applying a voltage to the upper electrode.
  • the wiring can be used as a light shielding film of an optical black area (OB area) by forming it using a material having a light shielding property. In that case, the wiring is formed with a film thickness of about 250 nm from the viewpoint of light shielding performance.
  • a stress buffer made of, for example, SiN is formed between the organic photoelectric conversion film and the light shielding film.
  • the stress buffer is formed to have a film thickness of, for example, about 750 nm.
  • the stress buffer material becomes thick, mixed light occurs due to the light condensed by the on-chip lens entering the adjacent pixels before reaching the photoelectric conversion unit, or the light shielding film provided between the adjacent pixels causes vignetting.
  • the optical characteristics such as the deterioration of the shading may be deteriorated.
  • flare ghost may occur due to the reflection from the metal light shielding film provided in the upper layer than the organic photoelectric conversion film.
  • the light shielding layer 22 is provided on the organic photoelectric conversion layer 17 and provided from the optical black area (OB area) 110B of the pixel unit 100 to the peripheral area 200. , The black layer 24 was provided. Thereby, the thickness of the light shielding layer 22 can be reduced, for example, from 250 nm to 200 nm, and the stress of the light shielding layer 22 can be reduced.
  • the black layer 24 is provided on the light shielding layer 22 provided on the organic photoelectric conversion layer 17, thinning of the light shielding layer 22 is possible, and the stress of the light shielding layer 22 is reduced. Reduced. Thereby, for example, it is possible to reduce the thickness of the buffer layer 21 provided to relieve the stress of the light shielding layer 22 by about 250 nm, for example, from 750 nm to 500 nm. Therefore, the occurrence of color mixing and shading due to oblique incidence to adjacent pixels can be reduced, and optical characteristics can be improved.
  • the black layer 24 for example, light incident on the OB region 110B is attenuated by the black layer 24, and the attenuated light is reflected by the light shielding layer 22 again. It is extracted as reflected light to the outside through the black layer 24. This makes it possible to reduce defects such as flare ghosts.
  • the imaging device 1 of the present embodiment by forming the light shielding layer 22 with a relatively soft metal film such as aluminum (Al), it is possible to further reduce the stress of the light shielding layer 22, and buffer It is possible to make the layer 21 thinner.
  • a relatively soft metal film such as aluminum (Al)
  • FIG. 6 schematically shows a cross-sectional configuration of an imaging device (imaging device 2) according to a second embodiment of the present disclosure.
  • the imaging device 2 is, for example, a backside illuminated (backside light receiving) CCD image sensor or a CMOS image sensor as in the first embodiment, and a plurality of unit pixels P are arranged on the semiconductor substrate 11. It has a pixel area (pixel unit 100) formed by dimensional array (see FIG. 13).
  • FIG. 6 shows a cross-sectional configuration along the line II shown in FIG.
  • the imaging device 2 according to the present embodiment is different from the first embodiment in that the light shielding layer 32 has a laminated structure in which, for example, the insulating layers 33 are laminated.
  • the light shielding layer 32 is a wiring for applying a voltage to the upper electrode 18 of the photoelectric conversion element 10 and is for defining a black level. As described above, the light shielding layer 32 has a two-layer (light shielding layers 32A and 32B) structure in which the insulating layer 33 is stacked.
  • the lower light shielding layer 32A is preferably configured as a wiring layer having a light shielding property.
  • the upper light shielding layer 32B may be provided as a simple light shielding film, or may be provided as a wiring layer.
  • the material of the light shielding layer 32 may be the same material as the light shielding layer 22, for example, a single layer film of a metal material such as tungsten (W), titanium (Ti), titanium nitride (TiN) and aluminum (Al) or the like It is desirable to be composed of a laminated film.
  • a metal material such as tungsten (W), titanium (Ti), titanium nitride (TiN) and aluminum (Al) or the like It is desirable to be composed of a laminated film.
  • the light shielding layer 32A and the light shielding layer 32B may be formed using the same material, or may be formed using different materials.
  • the light shielding layer 32A and the light shielding layer 32B may be electrically connected to each other by a contact 32a, for example, as shown in FIG.
  • the thicknesses of the light shielding layer 32A and the light shielding layer 32B may be, for example, two layers combined to have a light shielding property similar to that of the light shielding layer 22. Therefore, the thickness of the light shielding layer 32A and the light shielding layer 32B is preferably, for example, 50 nm or more and 150 nm or less, for example, in the case of using tungsten (W), although it depends on the material to be formed.
  • W tungsten
  • the insulating layer 33 is, for example, for electrically insulating the light shielding layer 32A and the light shielding layer 32B.
  • the insulating layer 33 is made of silicon oxide (SiO), silicon nitride (SiN), silicon oxynitride (SiON), or the like. Or a laminated film of two or more of them.
  • the thickness of the insulating layer 33 is not particularly limited, but is, for example, about 100 nm.
  • the light shielding layer 32 has a two-layer structure, and the insulating layer 33 is provided therebetween. Thereby, it becomes possible to reduce the amount of film formation of 1 time of light shielding layer 32A, 32B. Therefore, it is possible to reduce the stress of the light shielding layer 32A and the light shielding layer 32B immediately after the film formation where the stress becomes the largest, and it is possible to further reduce the thickness of the buffer layer 21.
  • the light shielding layer 32 can be used as a wiring layer other than the wiring for applying a voltage to the upper electrode 18.
  • FIG. 7 schematically illustrates the cross-sectional configuration of the imaging device (imaging device 3) according to the third embodiment of the present disclosure.
  • the imaging device 3 is, for example, a backside illuminated (backside light receiving) CCD image sensor, a CMOS image sensor, or the like, and a plurality of unit pixels P are arranged on the semiconductor substrate 11. It has a pixel area (pixel unit 100) formed by dimensional array (see FIG. 13).
  • FIG. 7 shows a cross-sectional configuration along the line II shown in FIG.
  • the imaging device 3 of the present embodiment is different from the first embodiment in that the oxide film 42A is formed on the surface of the light shielding layer 42.
  • the light shielding layer 42 is a wiring for applying a voltage to the upper electrode 18 of the photoelectric conversion element 10 and is for defining a black level.
  • the light shielding layer 42 is made of a conductive material having a light shielding property, as in the first embodiment. Specifically, for example, a single layer film of a metal material such as tungsten (W), titanium (Ti), titanium nitride (TiN) and aluminum (Al) or the like is desirably formed.
  • the oxide film 42A is for changing the periodicity of the molecules constituting the light shielding layer 42 to increase the scattering intensity of the surface of the light shielding layer 42.
  • the oxide film 42A may be formed by oxidizing the surface of the light shielding layer 42, or may be separately formed.
  • the oxide film 42A is provided on the surface of the light shielding layer 42, the scattering intensity of the surface of the light shielding layer 42 is improved, and light reflected on the surface of the light shielding layer 42 is It is possible to reduce the strength. Thus, the occurrence of flare ghost can be further reduced.
  • FIG. 8 schematically shows a cross-sectional configuration of an imaging device (imaging device 4) according to a fourth embodiment of the present disclosure.
  • the imaging device 4 is, for example, a backside illuminated (backside light receiving) CCD image sensor, a CMOS image sensor, or the like, and a plurality of unit pixels P are arranged on the semiconductor substrate 11. It has a pixel area (pixel unit 100) formed by dimensional array (see FIG. 13).
  • FIG. 8 shows a cross-sectional configuration along the line II shown in FIG.
  • the black layer 54 is formed to protrude toward the effective pixel region 110A, and the black layer 54 covers the side surface of the step 22X generated by providing the light shielding layer 22 on the buffer layer 21. The point provided is different from the first embodiment.
  • the black layer 54 is for blocking the incidence of light on the OB region 110B.
  • a light shielding property for example, carbon black, blackened titanium oxide (TiO 2 ), dispersion type photosensitive resin and acrylic. Black pigments, such as system resin, and the mixed pigment which combined two or more colors are mentioned.
  • the thickness of the black layer 54 is preferably, for example, 200 nm or more and 1000 nm or less.
  • the black layer 54 of the present embodiment is formed so as to project toward the effective pixel area 110A so as to cover the side surface of the step 22X generated by providing the light shielding layer 22 on the buffer layer 21.
  • a step is generated in the on-chip lens layer 25 between the effective pixel area 110A and the OB area 110B by providing the light shielding layer, the black layer 24 and the like on the buffer layer 21.
  • This step may cause the shape of the on-chip lens 25L provided in the effective pixel area 110A to be deformed or damage to the black layer 24 when the on-chip lens 25L is formed.
  • the black layer 54 is formed so as to protrude toward the effective pixel region 110A, and the side surface of the step 22X generated by providing the light shielding layer 22 on the buffer layer 21 is covered. .
  • the light shielding layer 22 and the black layer 54 it is possible to reduce the level difference generated between the effective pixel area 110A and the OB area 110B. Therefore, it becomes possible to reduce the occurrence of uneven sensitivity and the like, and it is possible to further improve the optical characteristics.
  • FIG. 9 shows an entire configuration of an imaging device (imaging device 1) using the photoelectric conversion device 10 described in the first embodiment for a unit pixel P.
  • the imaging device 1 is a CMOS image sensor, and has a pixel unit 1a as an imaging area on a semiconductor substrate 11, and a row scanning unit 131, a horizontal selection unit 133, and the like in a peripheral region of the pixel unit 1a.
  • the peripheral circuit unit 130 including the column scanning unit 134 and the system control unit 132 is provided.
  • the pixel unit 1a includes, for example, a plurality of unit pixels P (corresponding to the photoelectric conversion elements 10) two-dimensionally arranged in a matrix.
  • this unit pixel P for example, pixel drive lines Lread (specifically, row selection lines and reset control lines) are wired for each pixel row, and vertical signal lines Lsig are wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading out a signal from the pixel.
  • One end of the pixel drive line Lread is connected to an output end corresponding to each row of the row scanning unit 131.
  • the row scanning unit 131 is a pixel driving unit that is configured of a shift register, an address decoder, and the like, and drives each unit pixel P of the pixel unit 1a, for example, in units of rows.
  • a signal output from each unit pixel P of the pixel row selectively scanned by the row scanning unit 131 is supplied to the horizontal selection unit 133 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 133 is configured of an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 134 is configured of a shift register, an address decoder, and the like, and drives the horizontal selection switches of the horizontal selection unit 133 in order while scanning them.
  • the signal of each pixel transmitted through each vertical signal line Lsig is sequentially output to the horizontal signal line 135 by the selective scanning by the column scanning unit 134, and transmitted to the outside of the semiconductor substrate 11 through the horizontal signal line 135. .
  • the circuit portion including the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the horizontal signal line 135 may be formed directly on the semiconductor substrate 11, or disposed in an external control IC. It may be In addition, those circuit portions may be formed on another substrate connected by a cable or the like.
  • the system control unit 132 receives a clock supplied from the outside of the semiconductor substrate 11, data instructing an operation mode, and the like, and outputs data such as internal information of the imaging device 1.
  • the system control unit 132 further includes a timing generator that generates various timing signals, and the row scanning unit 131, the horizontal selection unit 133, the column scanning unit 134, and the like are generated based on the various timing signals generated by the timing generator. Drive control of peripheral circuits.
  • FIG. 10 shows a schematic configuration of the imaging device 5 (camera) as an example.
  • the imaging device 5 is, for example, a video camera capable of capturing a still image or a moving image, and drives the imaging device 1, an optical system (optical lens) 310, a shutter device 311, the imaging device 1 and the shutter device 311.
  • a drive unit 313 and a signal processing unit 312 are included.
  • the optical system 310 guides image light (incident light) from a subject to the pixel unit 1 a of the imaging device 1.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls a light irradiation period and a light shielding period to the imaging element 1.
  • the drive unit 313 controls the transfer operation of the imaging device 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various types of signal processing on the signal output from the imaging device 1.
  • the video signal Dout after signal processing is stored in a storage medium such as a memory or output to a monitor or the like.
  • the imaging device 1 can be applied to the following electronic devices (capsule type endoscope 10100 and moving objects such as vehicles).
  • FIG. 11 is a block diagram showing an example of a schematic configuration of a patient's in-vivo information acquiring system using a capsule endoscope to which the technology (the present technology) according to the present disclosure can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside the organ such as the stomach and intestine by peristaltic movement and the like while being naturally discharged from the patient, Images (hereinafter, also referred to as in-vivo images) are sequentially captured at predetermined intervals, and information on the in-vivo images is sequentially wirelessly transmitted to the external control device 10200 outside the body.
  • External controller 10200 generally controls the operation of the in-vivo information acquiring system 10001.
  • the external control unit 10200 receives information about the in-vivo image transmitted from the capsule endoscope 10100, based on the information about the in-vivo image received, the in-vivo image on a display device (not shown) Generate image data to display the
  • In-vivo information acquiring system 10001 in this way, until the capsule endoscope 10100 is discharged from swallowed, it is possible to obtain the in-vivo image of the captured state of the patient's body at any time.
  • the capsule endoscope 10100 has a capsule type casing 10101, and in the casing 10101, a light source unit 10111, an imaging unit 10112, an image processing unit 10113, a wireless communication unit 10114, a power feeding unit 10115, a power supply unit 10116 and a control unit 10117 are accommodated.
  • Light source unit 10111 is constituted by, for example, an LED (light emitting diode) light source, which irradiates light to the imaging field of the imaging unit 10112.
  • LED light emitting diode
  • the imaging unit 10112 includes an imaging device and an optical system including a plurality of lenses provided in front of the imaging device. Reflected light is irradiated to the body tissue to be observed light (hereinafter, referred to as observation light) is condensed by the optical system and is incident on the imaging element. In the imaging unit 10112, in the imaging device, wherein the observation light incident is photoelectrically converted into an image signal corresponding to the observation light is generated. Image signal generated by the imaging unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is configured by a processor such as a central processing unit (CPU) or a graphics processing unit (GPU), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 supplies the image signal subjected to the signal processing to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal subjected to the signal processing by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Also, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 provides a control signal received from the external control unit 10200 to the control unit 10117.
  • the feeding unit 10115 includes an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like.
  • the feeding unit 10115 the power by using the principle of so-called non-contact charging is generated.
  • the power supply unit 10116 is formed of a secondary battery, and stores the power generated by the power supply unit 10115. Although an arrow or the like indicating the supply destination of the power from the power supply unit 10116 is omitted in FIG. 11 to avoid complication of the drawing, the power stored in the power supply unit 10116 is the light source unit 10111. , The image processing unit 10113, the wireless communication unit 10114, and the control unit 10117, and can be used to drive them.
  • the control unit 10117 is configured of a processor such as a CPU, and is a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115. Control as appropriate.
  • the external control device 10200 is configured of a processor such as a CPU or a GPU, or a microcomputer or control board or the like in which memory elements such as a processor and a memory are mixed.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • a control signal from the external control unit 10200 irradiation conditions of light with respect to observation target in the light source unit 10111 may be changed.
  • image pickup conditions e.g., the frame rate of the imaging unit 10112, the exposure value and the like
  • the contents of processing in the image processing unit 10113 and conditions for example, transmission interval, number of transmission images, etc. under which the wireless communication unit 10114 transmits an image signal may be changed by a control signal from the external control device 10200. .
  • the external control unit 10200 subjects the image signal transmitted from the capsule endoscope 10100, performs various image processing to generate image data to be displayed on the display device the in-vivo images captured.
  • image processing for example, development processing (demosaicing processing), high image quality processing (band emphasis processing, super-resolution processing, NR (noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing can be performed.
  • External controller 10200 controls the driving of the display device to display the in-vivo images captured based on the generated image data.
  • the external control device 10200 may cause the generated image data to be recorded on a recording device (not shown) or cause the printing device (not shown) to print out.
  • the technique according to the present disclosure may be applied to, for example, the imaging unit 10112 among the configurations described above. As a result, a precise surgical site image can be obtained, and the accuracy of the examination is improved.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of mobile object such as a car, an electric car, a hybrid electric car, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot May be
  • FIG. 12 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an external information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the driveline control unit 12010 controls the operation of devices related to the driveline of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • Body system control unit 12020 controls the operation of the camera settings device to the vehicle body in accordance with various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device of various lamps such as a headlamp, a back lamp, a brake lamp, a blinker or a fog lamp.
  • the body system control unit 12020 the signal of the radio wave or various switches is transmitted from wireless controller to replace the key can be entered.
  • Body system control unit 12020 receives an input of these radio or signal, the door lock device for a vehicle, the power window device, controls the lamp.
  • Outside vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the external information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing or distance detection processing of a person, a vehicle, an obstacle, a sign, characters on a road surface, or the like based on the received image.
  • Imaging unit 12031 receives light, an optical sensor for outputting an electric signal corresponding to the received light amount of the light.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information.
  • the light image pickup unit 12031 is received may be a visible light, it may be invisible light such as infrared rays.
  • Vehicle information detection unit 12040 detects the vehicle information.
  • a driver state detection unit 12041 that detects a state of a driver is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera for imaging the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver does not go to sleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information inside and outside the vehicle acquired by the outside information detecting unit 12030 or the in-vehicle information detecting unit 12040, and a drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 the driving force generating device on the basis of the information around the vehicle acquired by the outside information detection unit 12030 or vehicle information detection unit 12040, by controlling the steering mechanism or braking device, the driver automatic operation such that autonomously traveling without depending on the operation can be carried out cooperative control for the purpose of.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the external information detection unit 12030.
  • the microcomputer 12051 controls the headlamps in response to the preceding vehicle or the position where the oncoming vehicle is detected outside the vehicle information detection unit 12030, the cooperative control for the purpose of achieving the anti-glare such as switching the high beam to the low beam It can be carried out.
  • the audio image output unit 12052 transmits at least one of an audio and an image output signal to an output device capable of visually or aurally notifying information to a passenger or an outside of a vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 13 is a diagram illustrating an example of the installation position of the imaging unit 12031.
  • imaging units 12101, 12102, 12103, 12104, and 12105 are provided as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose of the vehicle 12100, a side mirror, a rear bumper, a back door, and an upper portion of a windshield of a vehicle interior.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle cabin mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the top of the windshield in the passenger compartment is mainly used to detect a leading vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 13 illustrates an example of the imaging range of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates an imaging range of the imaging unit 12101 provided in the front nose
  • imaging range 12112,12113 are each an imaging range of the imaging unit 12102,12103 provided on the side mirror
  • an imaging range 12114 is The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown.
  • a bird's eye view of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging unit 12101 through 12104 may have a function of obtaining distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging devices, or an imaging device having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from to no imaging unit 12101 12104, and the distance to the three-dimensional object in to no imaging range 12111 in 12114, the temporal change of the distance (relative speed with respect to the vehicle 12100) In particular, it is possible to extract a three-dimensional object traveling at a predetermined speed (for example, 0 km / h or more) in substantially the same direction as the vehicle 12100 as a leading vehicle, in particular by finding the it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. Automatic operation or the like for autonomously traveling without depending on the way of the driver operation can perform cooperative control for the purpose.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data relating to three-dimensional objects into two-dimensional vehicles such as two-wheeled vehicles, ordinary vehicles, large vehicles, classification and extracted, can be used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see.
  • the microcomputer 12051 determines a collision risk which indicates the risk of collision with the obstacle, when a situation that might collide with the collision risk set value or more, through an audio speaker 12061, a display portion 12062 By outputting a warning to the driver or performing forcible deceleration or avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging unit 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • Such pedestrian recognition is, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as an infrared camera, and pattern matching processing on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not
  • the procedure is to determine Microcomputer 12051 is, determines that the pedestrian in the captured image of the imaging unit 12101 to 12104 is present, recognizing the pedestrian, the sound image output unit 12052 is rectangular outline for enhancement to the recognized pedestrian to superimpose, controls the display unit 12062.
  • the audio image output unit 12052 is, an icon or the like indicating a pedestrian may control the display unit 12062 to display the desired position.
  • the present disclosure is not limited to the above embodiments and the like, and various modifications can be made.
  • the organic photoelectric conversion unit 11G for detecting green light and the inorganic photoelectric conversion units 11B and 11R for detecting blue light and red light are laminated.
  • the present disclosure is not limited to such a structure. That is, red light or blue light may be detected in the organic photoelectric conversion unit, and green light may be detected in the inorganic photoelectric conversion unit.
  • the number and ratio of the organic photoelectric conversion unit and the inorganic photoelectric conversion unit are not limited, and two or more organic photoelectric conversion units may be provided, or colors of plural colors may be provided by the organic photoelectric conversion unit alone. A signal may be obtained.
  • the structure is not limited to the structure in which the organic photoelectric conversion unit and the inorganic photoelectric conversion unit are vertically stacked, and may be parallel along the substrate surface.
  • the configuration of the backside illumination type imaging device is illustrated, but the present disclosure can also be applied to the front side illumination type imaging device. Further, in the imaging device (photoelectric conversion device) of the present disclosure, it is not necessary to include all the components described in the above embodiment, and conversely, other layers may be provided.
  • the present disclosure may have the following configuration.
  • An organic photoelectric conversion layer provided continuously from the pixel area to at least a part of the peripheral area;
  • a conductive layer provided on the organic photoelectric conversion layer from the peripheral edge of the pixel area to the peripheral area, and having a light shielding property;
  • An image pickup device comprising: a black layer provided on the conductive layer.
  • the imaging device according to (1) wherein a stress buffer layer is provided between the organic photoelectric conversion layer and the conductive layer.
  • the pixel area has a level difference between the effective pixel area and the optical black area, the optical black area side being high, and the effective pixel area side being low.
  • the pixel region includes a photoelectric conversion unit including the organic photoelectric conversion layer and a pair of electrodes disposed to face the organic photoelectric conversion layer therebetween,
  • the image sensor is A pixel area in which a plurality of pixels are arranged, A peripheral area provided around the pixel area; An organic photoelectric conversion layer provided continuously from the pixel area to at least a part of the peripheral area; A conductive layer provided on the organic photoelectric conversion layer from the peripheral edge of the pixel area to the peripheral area, and having a light shielding property; An imaging device having a black layer provided on the conductive layer;

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の一実施形態の撮像素子は、複数の画素が配置された画素領域と、画素領域の周囲に設けられた周辺領域と、画素領域から周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、画素領域の周縁部から周辺領域にかけて、有機光電変換層上に設けられると共に、遮光性を有する導電層と、導電層上に設けられた黒色層とを備える。

Description

撮像素子および撮像装置
 本開示は、例えば、有機光電変換部を有する撮像素子およびこれを備えた撮像装置に関する。
 有機光電変換膜を用いた固体撮像素子では、例えば、上部電極に電圧を印加するための配線が必要となる。その配線はオプティカルブラック領域(OB領域)の遮光膜として利用できるため、遮光性能の観点から、その配線は一般的に250nm程度の膜厚で形成される。
 しかしながら、有機光電変換膜は下地との密着性が弱く、金属膜である遮光膜の成膜時の応力によって剥がれやすい。このため、例えば特許文献1では、接続配線と、p層、n層および電子ブロッキング層から構成される有機光電変換膜との間に、緩衝材として保護層が設けられている。但し、緩衝材が厚くなると、オンチップレンズにおいて集光した光が光電変換部に届く前に隣接画素へ入射して混色が発生したり、隣接画素間に設けられた遮光膜によってケラレが生じ、シェーディングの悪化等の光学特性の劣化が懸念される。また、有機光電変換膜を用いる場合には、一般に、有機光電変換膜よりも上層に金属遮光膜が配置されるが、金属遮光膜からの反射によってフレアゴーストの発生する虞がある。
 そこで、例えば特許文献2~4では、遮光膜の配置位置の工夫やフレア防止用膜を形成することによって光学特性を向上させた固体撮像装置が開示されている。
特開2006-086493号公報 特開2011-138927号公報 特開2011-176325号公報 特開2012-124377号公報
 このように、撮像装置では、光学特性を向上させることが求められている。
 光学特性を向上させることが可能な撮像素子および撮像装置を提供することが望ましい。
 本開示の一実施形態の撮像素子は、複数の画素が配置された画素領域と、画素領域の周囲に設けられた周辺領域と、画素領域から周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、画素領域の周縁部から周辺領域にかけて、有機光電変換層上に設けられると共に、遮光性を有する導電層と、導電層上に設けられた黒色層とを備えたものである。
 本開示の一実施形態の撮像装置は、撮像素子として、上記本開示の一実施形態の撮像素子を有するものである。
 本開示の一実施形態の撮像素子および一実施形態の撮像装置では、画素領域から連続する有機光電変換層上に、画素領域の周縁部から周辺領域にかけて設けられた遮光性を有する導電層上に、黒色層を設けるようにした。これにより、遮光層を薄膜化してその応力を低減させることが可能となる。
 本開示の一実施形態の撮像素子および一実施形態の撮像装置によれば、有機光電変換層上に、画素領域の周縁部から周辺領域にかけて設けられた遮光性を有する導電層上に、さらに黒色層を設けるようにしたので、導電層の厚みを削減することが可能となり、導電層の応力が低減される。よって、有機光電変換層上に設けられる、導電層の応力を緩和する緩衝層の膜厚を薄膜化することが可能となり、光学特性を向上させることが可能となる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。
本開示の第1の実施の形態に係る撮像素子の断面構成を表す模式図である。 図1に示した撮像素子の平面構成を表す模式図である。 図1に示した光電変換素子の断面図である。 図1に示した光電変換素子の製造方法を説明するための断面図である。 図4に続く工程を表す断面図である。 本開示の第2の実施の形態に係る撮像素子の断面構成を表す模式図である。 本開示の第3の実施の形態に係る撮像素子の断面構成を表す模式図である。 本開示の第4の実施の形態に係る撮像素子の断面構成を表す模式図である。 図1に示した撮像素子の機能ブロック図である。 図1に示した撮像素子を用いた撮像装置の概略構成を表すブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施の形態について、図面を参照して詳細に説明する。なお、説明する順序は、下記の通りである。
 1.第1の実施の形態(有機光電変換層上に設けられた遮光層上に黒色層を設けた例)
   1-1.撮像素子の構成
   1-2.光電変換素子の構成
   1-3.光電変換素子の製造方法
   1-4.作用・効果
 2.第2の実施の形態(遮光層を2層構造とした例)
 3.第3の実施の形態(遮光層の表面に酸化膜を形成した例)
 4.第4の実施の形態(黒色層を画素有効領域側に張り出した例)
 5.適用例
<1.第1の実施の形態>
(1-1.撮像素子の構成)
 図1は、本開示の第1の実施の形態に係る撮像素子(撮像素子1)の断面構成を模式的に表したものである。図2は、図1に示した撮像素子1の平面構成を模式的に表したものである。撮像素子1は、例えば、裏面照射型(裏面受光型)のCCDイメージセンサまたはCMOSイメージセンサ等であり、半導体基板11上に複数の単位画素Pが2次元配列されてなる画素領域(画素部100)を有するものである(図9参照)。なお、図1は、図2に示したI-I線における断面構成を表したものである。また、図1に示した光電変換素子10は簡略化して表したものであり、詳細な断面構成は、図4に示している。画素部100には、有効画素領域110Aおよび有効画素領域110Aを囲むように、オプティカルブラック(OB)領域110Bが設けられている。画素部100の周囲には、周辺領域200が設けられており、画素部100側から引き回し領域210A、外周領域210Bおよびパッド領域210Cを有する。
 有効画素領域110Aには、単位画素P(例えば、図9参照)毎に、それぞれ異なる波長域の光を選択的に検出して光電変換を行う光電変換素子10が設けられている。光電変換素子10は、1つの有機光電変換部(有機光電変換部11G)と、2つの無機光電変換部(無機光電変換部11Bおよび無機光電変換部11R)とを有する。これら3つの光電変換部(有機光電変換部11G、無機光電変換部11Bおよび無機光電変換部11R)は縦方向に積層されている。無機光電変換部11Bおよび無機光電変換部11Rは、半導体基板11内に埋め込み形成されている。有機光電変換部11Gは、半導体基板11の裏面(受光面(第1面11S1))側に設けられており、有機光電変換部11Gの上には、保護層19、緩衝層21(応力緩衝層)、および保護層23がこの順に設けられており、保護層23上には、オンチップレンズ25Lを構成するオンチップレンズ層25および反射防止層26(図3では省略)が形成されている。半導体基板11の表面(受光面とは反対側の面(第2面11S2))側には、画素トランジスタ(後述の転送トランジスタTr1~Tr3を含む)が形成されると共に、多層配線層(多層配線70)を有する。なお、光電変換素子10の詳細な構成については後述する。
 OB領域110Bは、黒レベルの基準になる光学的黒を出力するためのものである。OB領域110Bには、半導体基板11の受光面(第1面11S1)側には、例えば有効画素領域110Aから下部電極15a、有機光電変換層17および上部電極18を介して緩衝層21が延在しており、この緩衝層21上には、遮光層22が設けられている。遮光層22上には、有効画素領域110Aから延在する保護層23が設けられている。本実施の形態では、この保護層23上に黒色層24が設けられている。黒色層24上には、例えば、有効画素領域110Aから延在するオンチップレンズ層25が設けられている。オンチップレンズ層25上には、反射防止層26が設けられている。
 緩衝層21は、遮光層22からの応力を緩和し、有機光電変換層17の膜剥がれを防ぐためのものである。緩衝層21は、外部からの水分供給による有機膜へのダメージを抑えるパッシベーション性の高い膜質であることが好ましい。緩衝層21の材料としては、例えば窒化シリコン(SiN)、酸化アルミニウム(Al23)および組成式SiCOで表されるケイ素とカーボンを主とする材料等が挙げられる。緩衝層21の積層方向の膜厚(以下、単に厚みという)は、例えば200nm以上1000nm以下であることが好ましい。
 遮光層22は、黒レベルを規定するためのものであり、遮光性を有する導電性材料によって構成されている。具体的には、例えば、タングステン(W)、チタン(Ti)、窒化チタン(TiN)およびアルミニウム(Al)等の金属材料の単層膜あるいはこれらの積層膜により構成されることが望ましい。この中でも、Alによって遮光層22を構成することで、緩衝層21の厚みを削減することが可能となる。遮光層22の厚みは、材料によって異なるが、例えば50nm以上250nm以下(一例として、Alでは50nm、Wでは250nm)であることが好ましい。遮光層22は、例えば、後述する引き回し領域210Aにおいて、貫通孔21H(コンタクトホール)を介して上部電極18と電気的に接続されている。また、遮光層22は、絶縁膜16および層間絶縁層14を貫通する貫通孔14Hを介して導電膜120と電気的に接続されており、上部電極18へ電位を印加するための配線としても機能する。
 保護層23は、遮光層22を構成する導電膜の腐食を防ぐためのものであり、例えば、光透過性を有する材料により構成されている。具体的には、例えば、窒化シリコン(SiN)および酸窒化シリコン(SiON)等のうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜により構成されている。保護層23の厚みは、例えば100nm以上500nm以下である。
 黒色層24は、遮光層22と共に黒レベルを規定するためのものであり、OB領域110Bへの光の入射を遮断するためのものである。黒色層24の材料としては、遮光性を有することが望ましく、例えば、カーボンブラック、酸化チタン(TiO2)、複数色混合色素等の顔料を含む黒色顔料分散型の感光性樹脂等が挙げられる。黒色層24の厚みは、例えば200nm以上1000nm以下であることが好ましい。黒色層24は、OB領域110Bから、例えば外周領域210Bまで延在しており、これによって、OB領域110Bへの光の入射および遮光層22からの反射を防いでいる。
 本実施の形態では、導電膜によって構成される遮光層22上に、例えば保護層23を介して黒色層24が設けられた構成を有する。これにより、遮光層22の厚みを削減することが可能となり、遮光層22の応力が低減される。また、有機光電変換層17へ印加される遮光層22の応力を緩和する緩衝層21の厚みも削減できるため、混色やシェーディングの発生が低減される。
 オンチップレンズ層25は、例えば、半導体基板11の受光面(第1面11S1)の全面、即ち、画素部100および周辺領域200に連続して設けられたものであり、表面を平坦化するためのものである。また、有効画素領域110Aにおいては、その表面にオンチップレンズ25Lが形成されている。オンチップレンズ層25は、光透過性を有する材料により構成されている。光透過性を有する材料としては、例えば、アクリル等の透明樹脂材、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiON)等が挙げられる。オンチップレンズ層25は、これらのうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜によって構成されている。
 反射防止層26は、撮像素子1の表面における意図しない光の反射を低減するためのものである。反射防止層26の材料としては、例えば酸化シリコン(SiO)および酸窒化シリコン(SiON)等が挙げられる。
 周辺領域200は、上記のように画素部100側から引き回し領域210A、外周領域210Bおよびパッド領域210Cが設けられている。引き回し領域210Aには、例えば上部電極18への接続配線が形成されている。外周領域210Bは、例えば無機光電変換部11Bおよび無機光電変換部11Rへの光入射を防ぐためのものである。引き回し領域210Aおよび外周領域210Bには、OB領域110Bから、緩衝層21、遮光層22、保護層23、黒色層24、オンチップレンズ層25および反射防止層26が連続して形成されている。外周領域210Bでは、遮光層22および黒色層24を設けることによって、無機光電変換部11Bおよび無機光電変換部11Rへの光入射が低減される。
 遮光層22は、上記のように、引き回し領域210Aにおいて、それぞれ上部電極18および導電膜120まで貫通するコンタクトホール21Hおよび貫通孔14Hを介して各々を電気的に接続しており、上部電極18へ電位を印加するための導通路を構成している。
 パッド領域210Cには、反射防止層26、オンチップレンズ層25、保護層23、遮光層22、緩衝層21、層間絶縁層14,12および半導体基板11を貫通して半導体基板11の表面(第2面11S2)まで貫通するコンタクトホール211Hが設けられている。コンタクトホール211Hの底部にはパッド部211としてAl等の金属膜があり、外部からの電圧印加部となっている。
(1-2.光電変換素子の構成)
 図3は、図1に示した光電変換素子10の詳細な断面構成を表したものである。光電変換素子10は、上記のように、例えば、1つの有機光電変換部11Gと、2つの無機光電変換部11B,11Rとが縦方向に積層された、いわゆる縦方向分光型のものである。有機光電変換部11Gは、半導体基板11の裏面(第1面11S1)側に設けられている。無機光電変換部11B,11Rは、半導体基板11内に埋め込み形成されており、半導体基板11の厚み方向に積層されている。有機光電変換部11Gは、p型半導体およびn型半導体を含んで構成され、層内にバルクヘテロ接合構造を有する有機光電変換層17を含む。バルクヘテロ接合構造は、p型半導体およびn型半導体が混ざり合うことで形成されたp/n接合面である。
 有機光電変換部11G、無機光電変換部11Bおよび無機光電変換部11Rは、互いに異なる波長帯域の光を選択的に検出して光電変換を行うものである。具体的には、有機光電変換部11Gでは、緑(G)の色信号を取得する。無機光電変換部11B,11Rでは、吸収係数の違いにより、それぞれ、青(B)および赤(R)の色信号を取得する。これにより、光電変換素子10では、カラーフィルタを用いることなく一つの画素において複数種類の色信号を取得可能となっている。
 なお、本実施の形態では、光電変換によって生じる電子および正孔の対のうち、電子を信号電荷として読み出す場合(n型半導体領域を光電変換層とする場合)について説明する。また、図中において、「p」「n」に付した「+(プラス)」は、p型またはn型の不純物濃度が高いことを表し、「++」はp型またはn型の不純物濃度が「+」よりも更に高いことを表している。
 半導体基板11の表面(第2面11S2)には、例えば、フローティングディフュージョン(浮遊拡散層)FD1,FD2,FD3と、縦型トランジスタ(転送トランジスタ)Tr1と、転送トランジスタTr2と、アンプトランジスタ(変調素子)AMPと、リセットトランジスタRSTと、多層配線70とが設けられている。多層配線70は、例えば、配線層71,72,73を絶縁層74内に積層した構成を有している。
 なお、図面では、半導体基板11の第1面11S1側を光入射側S1、第2面11S2側を配線層側S2と表している。
 有機光電変換部11Gは、例えば、下部電極15、有機光電変換層17および上部電極18が、半導体基板11の第1面11S1の側からこの順に積層された構成を有している。下部電極15は、例えば、光電変換素子10ごとに分離形成されている。有機光電変換層17および上部電極18は、複数の光電変換素子10に共通した連続層として設けられている。半導体基板11の第1面11S1と下部電極15との間には、例えば、層間絶縁層12,14が半導体基板11側からこの順に積層されている。層間絶縁層は、例えば、固定電荷を有する層(固定電荷層)12Aと、絶縁性を有する誘電体層12Bとが積層された構成を有する。上部電極18の上には、保護層19が設けられている。保護層19の上方には、上述した緩衝層21および保護層23が設けられており、さらにオンチップレンズ25Lを構成するオンチップレンズ層25が設けられている。なお、図3では省略しているが、オンチップレンズ層25上には、反射防止層26が設けられている。
 半導体基板11の第1面11S1と第2面11S2との間には、貫通電極63が設けられている。有機光電変換部11Gは、この貫通電極63を介して、アンプトランジスタAMPのゲートGampと、フローティングディフュージョンFD3とに接続されている。これにより、光電変換素子10では、半導体基板11の第1面11S1側の有機光電変換部11Gで生じた電荷を、貫通電極63を介して半導体基板11の第2面11S2側に良好に転送し、特性を高めることが可能となっている。
 貫通電極63は、例えば、光電変換素子10の各々に、有機光電変換部11Gごとに設けられている。貫通電極63は、有機光電変換部11GとアンプトランジスタAMPのゲートGampおよびフローティングディフュージョンFD3とのコネクタとしての機能を有すると共に、有機光電変換部11Gにおいて生じた電荷の伝送経路となるものである。
 貫通電極63の下端は、例えば、配線層71内の接続部71Aに接続されており、接続部71Aと、アンプトランジスタAMPのゲートGampとは、下部第1コンタクト75を介して接続されている。接続部71Aと、フローティングディフュージョンFD3とは、下部第2コンタクト76を介して下部電極15に接続されている。なお、図3では、貫通電極63を円柱形状として示したが、これに限らず、例えばテーパ形状としてもよい。
 フローティングディフュージョンFD3の隣には、図3に示したように、リセットトランジスタRSTのリセットゲートGrstが配置されていることが好ましい。これにより、フローティングディフュージョンFD3に蓄積された電荷を、リセットトランジスタRSTによりリセットすることが可能となる。
 本実施の形態の光電変換素子10では、上部電極18側から有機光電変換部11Gに入射した光は、有機光電変換層17で吸収される。これによって生じた励起子は、有機光電変換層17を構成する電子供与体と電子受容体との界面に移動し、励起子分離、即ち、電子と正孔とに解離する。ここで発生した電荷(電子および正孔)は、キャリアの濃度差による拡散や、陽極(ここでは、上部電極18)と陰極(ここでは、下部電極15)との仕事関数の差による内部電界によって、それぞれ異なる電極へ運ばれ、光電流として検出される。また、下部電極15と上部電極18との間に電位を印加することによって、電子および正孔の輸送方向を制御することができる。
 以下、各部の構成や材料等について説明する。
 有機光電変換部11Gは、選択的な波長帯域(例えば、450nm以上650nm以下)の一部または全部の波長帯域に対応する緑色光を吸収して、電子-正孔対を発生させる有機光電変換素子である。
 下部電極15は、半導体基板11内に形成された無機光電変換部11B,11Rの受光面と正対して、これらの受光面を覆う領域に設けられている。下部電極15は、光透過性を有する導電膜により構成され、例えば、ITO(インジウム錫酸化物)により構成されている。但し、下部電極15の構成材料としては、このITOの他にも、ドーパントを添加した酸化スズ(SnO2)系材料、あるいはアルミニウム亜鉛酸化物(ZnO)にドーパントを添加してなる酸化亜鉛系材料を用いてもよい。酸化亜鉛系材料としては、例えば、ドーパントとしてアルミニウム(Al)を添加したアルミニウム亜鉛酸化物(AZO)、ガリウム(Ga)添加のガリウム亜鉛酸化物(GZO)、インジウム(In)添加のインジウム亜鉛酸化物(IZO)が挙げられる。また、この他にも、CuI、InSbO4、ZnMgO、CuInO2、MgIN24、CdO、ZnSnO3等を用いてもよい。
 有機光電変換層17は、光エネルギーを電気エネルギーに変換するものである。有機光電変換層17は、上記のように、p型半導体またはn型半導体として機能する有機半導体材料を、例えば3種類含んで構成されている。3種類の有機半導体材料のいずれかは、有機P型半導体および有機n型半導体のうちの一方または両方であると共に、選択的な波長域(例えば、450nm以上650nm以下)の光を光電変換する一方、他の波長域の光を透過させるものである。
 有機光電変換層17は、層内に、このp型半導体とn型半導体との接合面(p/n接合面)を有する。p型半導体は、相対的に電子供与体(ドナー)として機能するものであり、n型半導体は、相対的に電子受容体(アクセプタ)として機能するものである。有機光電変換層17は、光を吸収した際に生じる励起子が電子と正孔とに分離する場を提供するものであり、具体的には、電子供与体と電子受容体との界面(p/n接合面)において、励起子が電子と正孔とに分離する。有機光電変換層17の厚みは、例えば、50nm~500nmである。
 上部電極18は、下部電極15と同様の光透過性を有する導電膜により構成されている。光電変換素子10を1つの画素として用いた撮像素子1では、この上部電極18が画素毎に分離されていてもよいし、各画素に共通の電極として形成されていてもよい。上部電極18の厚みは、例えば、10nm~200nmである。
 なお、有機光電変換層17と下部電極15との間、および有機光電変換層17と上部電極18との間には、他の層が設けられていてもよい。具体的には、例えば、下部電極15側から順に、下引き膜、正孔輸送層、電子ブロッキング膜 、有機光電変換層17、正孔ブロッキング膜、バッファ膜、電子輸送層および仕事関数調整膜等が積層されていてもよい。
 固定電荷層12Aは、正の固定電荷を有する膜でもよいし、負の固定電荷を有する膜でもよい。負の固定電荷を有する膜の材料としては、酸化ハフニウム、酸化アルミニウム、酸化ジルコニウム、酸化タンタル、酸化チタン等が挙げられる。また上記以外の材料としては酸化ランタン、酸化プラセオジム、酸化セリウム、酸化ネオジム、酸化プロメチウム、酸化サマリウム、酸化ユウロピウム、酸化ガドリニウム、酸化テルビウム、酸化ジスプロシウム、酸化正孔ミウム、酸化ツリウム、酸化イッテルビウム、酸化ルテチウム、酸化イットリウム、窒化アルミニウム膜、酸窒化ハフニウム膜または酸窒化アルミニウム膜等を用いてもよい。
 固定電荷層12Aは、2種類以上の膜を積層した構成を有していてもよい。それにより、例えば負の固定電荷を有する膜の場合には正孔蓄積層としての機能をさらに高めることが可能である。
 誘電体層12Bの材料は特に限定されないが、例えば、シリコン酸化膜、TEOS、シリコン窒化膜、シリコン酸窒化膜等によって形成されている。
 層間絶縁層14は、例えば、酸化シリコン、窒化シリコンおよび酸窒化シリコン(SiON)等のうちの1種よりなる単層膜か、あるいはこれらのうちの2種以上よりなる積層膜により構成されている。
 保護層19は、光透過性を有する材料により構成され、例えば、酸化シリコン、窒化シリコンおよび酸窒化シリコン等のうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜により構成されている。この保護層19の厚みは、例えば、100nm~30000nmである。
 保護層23上には、全面を覆うように、オンチップレンズ層25が形成されている。オンチップレンズ層25の表面には、複数のオンチップレンズ25L(マイクロレンズ)が設けられている。オンチップレンズ25Lは、その上方から入射した光を、有機光電変換部11G、無機光電変換部11B,11Rの各受光面へ集光させるものである。本実施の形態では、多層配線70が半導体基板11の第2面11S2側に形成されていることから、有機光電変換部11G、無機光電変換部11B,11Rの各受光面を互いに近づけて配置することができ、オンチップレンズ25LのF値に依存して生じる各色間の感度のばらつきを低減することができる。
 なお、OB領域110Bには、オンチップレンズ25Lは、必ずしも設ける必要はなく、適宜省略してもかまわない。また、図1では、OB領域110Bに、有効画素領域110Aから連続して有機光電変換部11Gが設けられている例を示したが、例えばダミー画素として、有機光電変換部11Gと共に、無機光電変換部11Bおよび無機光電変換部11Rが設けられていてもよい。また、例えば、有効画素領域110Aにカラーフィルタを設ける場合には、保護層23とオンチップレンズ層25との間に配置することが好ましい。
 半導体基板11は、例えば、n型のシリコン(Si)基板により構成され、所定領域にpウェル61を有している。pウェル61の第2面11S2には、上述した縦型トランジスタTr1,転送トランジスタTr2,アンプトランジスタAMP,リセットトランジスタRST等が設けられている。また、半導体基板11の周辺部には、ロジック回路等からなる周辺回路(図示せず)が設けられている。
 無機光電変換部11B,11Rは、それぞれ、半導体基板11の所定領域にpn接合を有する。無機光電変換部11B,11Rは、シリコン基板において光の入射深さに応じて吸収される光の波長が異なることを利用して縦方向に光を分光することを可能としたものである。無機光電変換部11Bは、青色光を選択的に検出して青色に対応する信号電荷を蓄積させるものであり、青色光を効率的に光電変換可能な深さに設置されている。無機光電変換部11Rは、赤色光を選択的に検出して赤色に対応する信号電荷を蓄積させるものであり、赤色光を効率的に光電変換可能な深さに設置されている。なお、青(B)は、例えば350nm~495nmの波長帯域、赤(R)は、例えば620nm~750nmの波長帯域にそれぞれ対応する色である。無機光電変換部11B,11Rはそれぞれ、各波長帯域のうちの一部または全部の波長帯域の光を検出可能となっていればよい。
 無機光電変換部11Bは、例えば、正孔蓄積層となるp+領域と、電子蓄積層となるn領域とを含んで構成されている。無機光電変換部11Rは、例えば、正孔蓄積層となるp+領域と、電子蓄積層となるn領域とを有する(p-n-pの積層構造を有する)。無機光電変換部11Bのn領域は、縦型トランジスタTr1に接続されている。無機光電変換部11Bのp+領域は、縦型トランジスタTr1に沿って屈曲し、無機光電変換部11Rのp+領域につながっている。
 縦型トランジスタTr1は、無機光電変換部11Bにおいて発生し、蓄積された、青色に対応する信号電荷(ここでは電子)を、フローティングディフュージョンFD1に転送する転送トランジスタである。無機光電変換部11Bは半導体基板11の第2面11S2から深い位置に形成されているので、無機光電変換部11Bの転送トランジスタは縦型トランジスタTr1により構成されていることが好ましい。
 転送トランジスタTr2は、無機光電変換部11Rにおいて発生し、蓄積された赤色に対応する信号電荷(ここでは電子)を、フローティングディフュージョンFD2に転送するものであり、例えばMOSトランジスタにより構成されている。
 アンプトランジスタAMPは、有機光電変換部11Gで生じた電荷量を電圧に変調する変調素子であり、例えばMOSトランジスタにより構成されている。
 リセットトランジスタRSTは、有機光電変換部11GからフローティングディフュージョンFD3に転送された電荷をリセットするものであり、例えばMOSトランジスタにより構成されている。
 下部第1コンタクト75、下部第2コンタクト76および上部コンタクト13は、例えば、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料、または、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)、タンタル(Ta)等の金属材料により構成されている。
(1-3.光電変換素子の製造方法)
 本実施の形態の光電変換素子10は、例えば、次のようにして製造することができる。
 図4および図5は、光電変換素子10の製造方法を工程順に表したものである。まず、図4に示したように、半導体基板11内に、第1の導電型のウェルとして例えばpウェル61を形成し、このpウェル61内に第2の導電型(例えばn型)の無機光電変換部11B,11Rを形成する。半導体基板11の第1面11S1近傍にはp+領域を形成する。
 半導体基板11の第2面11S2には、同じく図4に示したように、フローティングディフュージョンFD1~FD3となるn+領域を形成したのち、ゲート絶縁層62と、縦型トランジスタTr1、転送トランジスタTr2、アンプトランジスタAMPおよびリセットトランジスタRSTの各ゲートを含むゲート配線層64とを形成する。これにより、縦型トランジスタTr1、転送トランジスタTr2、アンプトランジスタAMPおよびリセットトランジスタRSTが形成される。更に、半導体基板11の第2面11S2上に、下部第1コンタクト75、下部第2コンタクト76、接続部71Aを含む配線層71~73および絶縁層74からなる多層配線70を形成する。
 半導体基板11の基体としては、例えば、半導体基板11と、埋込み酸化膜(図示せず)と、保持基板(図示せず)とを積層したSOI(Silicon on Insulator)基板を用いる。埋込み酸化膜および保持基板は、図4には図示しないが、半導体基板11の第1面11S1に接合されている。イオン注入後、アニール処理を行う。
 次いで、半導体基板11の第2面11S2側(多層配線70側)に支持基板(図示せず)または他の半導体基板等を接合して、上下反転する。続いて、半導体基板11をSOI基板の埋込み酸化膜および保持基板から分離し、半導体基板11の第1面11S1を露出させる。以上の工程は、イオン注入およびCVD(Chemical Vapor Deposition)等、通常のCMOSプロセスで使用されている技術にて行うことが可能である。
 次いで、図5に示したように、例えばドライエッチングにより半導体基板11を第1面11S1側から加工し、環状の開口63Hを形成する。開口63Hの深さは、図5に示したように、半導体基板11の第1面11S1から第2面11S2まで貫通すると共に、例えば、接続部71Aまで達するものである。
 続いて、図5に示したように、半導体基板11の第1面11S1および開口63Hの側面に、例えば負の固定電荷層12Aを形成する。負の固定電荷層12Aとして、2種類以上の膜を積層してもよい。それにより、正孔蓄積層としての機能をより高めることが可能となる。負の固定電荷層12Aを形成したのち、誘電体層12Bを形成する。
 次に、開口63Hに、導電体を埋設して貫通電極63を形成する。導電体としては、例えば、PDAS(Phosphorus Doped Amorphous Silicon)等のドープされたシリコン材料の他、アルミニウム(Al)、タングステン(W)、チタン(Ti)、コバルト(Co)、ハフニウム(Hf)およびタンタル(Ta)等の金属材料を用いることができる。
 続いて、貫通電極63上にパッド部13Aを形成したのち、誘電体層12Bおよびパッド部13A上に、下部電極15と貫通電極63(具体的には、貫通電極63上のパッド部13A)とを電気的に接続する上部第1コンタクト13Bおよびパッド部13Cがパッド部13A上に設けられた層間絶縁層14を形成する。
 次に、層間絶縁層14上に、下部電極15,有機光電変換層17、上部電極18および保護層19をこの順に形成する。有機光電変換層17は、例えば、上記3種類の有機半導体材料を、例えば真空蒸着法を用いて成膜する。最後に、緩衝層21、保護層23およびオンチップレンズ層25を配設する。以上により、図3に示した光電変換素子10が完成する。
 なお、上記のように、有機光電変換層17の上層または下層に、他の有機層(例えば、電子ブロッキング層等)を形成する場合には、真空工程において連続的に(真空一貫プロセスで)形成することが望ましい。また、有機光電変換層17の成膜方法としては、必ずしも真空蒸着法を用いた手法に限らず、他の手法、例えば、スピンコート技術やプリント技術等を用いてもよい。
 光電変換素子10では、有機光電変換部11Gに、オンチップレンズ25Lを介して光が入射すると、その光は、有機光電変換部11G、無機光電変換部11B,11Rの順に通過し、その通過過程において緑、青、赤の色光毎に光電変換される。以下、各色の信号取得動作について説明する。
(有機光電変換部11Gによる緑色信号の取得)
 光電変換素子10へ入射した光のうち、まず、緑色光が、有機光電変換部11Gにおいて選択的に検出(吸収)され、光電変換される。
 有機光電変換部11Gは、貫通電極63を介して、アンプトランジスタAMPのゲートGampとフローティングディフュージョンFD3とに接続されている。よって、有機光電変換部11Gで発生した電子-正孔対のうちの電子が、下部電極15側から取り出され、貫通電極63を介して半導体基板11の第2面11S2側へ転送され、フローティングディフュージョンFD3に蓄積される。これと同時に、アンプトランジスタAMPにより、有機光電変換部11Gで生じた電荷量が電圧に変調される。
 また、フローティングディフュージョンFD3の隣には、リセットトランジスタRSTのリセットゲートGrstが配置されている。これにより、フローティングディフュージョンFD3に蓄積された電荷は、リセットトランジスタRSTによりリセットされる。
 ここでは、有機光電変換部11Gが、貫通電極63を介して、アンプトランジスタAMPだけでなくフローティングディフュージョンFD3にも接続されているので、フローティングディフュージョンFD3に蓄積された電荷をリセットトランジスタRSTにより容易にリセットすることが可能となる。
 これに対して、貫通電極63とフローティングディフュージョンFD3とが接続されていない場合には、フローティングディフュージョンFD3に蓄積された電荷をリセットすることが困難となり、大きな電圧をかけて上部電極18側へ引き抜くことになる。そのため、有機光電変換層17がダメージを受けるおそれがある。また、短時間でのリセットを可能とする構造は暗時ノイズの増大を招き、トレードオフとなるため、この構造は困難である。
(無機光電変換部11B,11Rによる青色信号,赤色信号の取得)
 続いて、有機光電変換部11Gを透過した光のうち、青色光は無機光電変換部11B、赤色光は無機光電変換部11Rにおいて、それぞれ順に吸収され、光電変換される。無機光電変換部11Bでは、入射した青色光に対応した電子が無機光電変換部11Bのn領域に蓄積され、蓄積された電子は、縦型トランジスタTr1によりフローティングディフュージョンFD1へと転送される。同様に、無機光電変換部11Rでは、入射した赤色光に対応した電子が無機光電変換部11Rのn領域に蓄積され、蓄積された電子は、転送トランジスタTr2によりフローティングディフュージョンFD2へと転送される。
(1-4.作用・効果)
 前述したように、有機光電変換膜を用いた固体撮像素子には、上部電極に電圧を印加するための配線が設けられている。その配線は、遮光性を有する材料を用いて形成することにより、オプティカルブラック領域(OB領域)の遮光膜として用いることができる。その場合、その配線は、遮光性能の観点から250nm程度の膜厚で形成される。
 ところで、有機光電変換膜は下地との密着性が弱いため、遮光膜の成膜時に発生する応力によって剥がれを生じやすい。このため、有機光電変換膜と遮光膜との間には、例えばSiN等によって構成される応力緩衝材が形成される。応力緩衝材は、例えば750nm程度の膜厚で形成される。しかしながら、応力緩衝材が厚くなると、オンチップレンズにおいて集光した光が光電変換部に届くまでの間に隣接画素へ入射して混色が発生したり、隣接画素間に設けられた遮光膜によってケラレが生じ、シェーディングの悪化等の光学特性の劣化する虞がある。また、有機光電変換膜よりも上層に設けられた金属遮光膜からの反射によってフレアゴーストが発生する虞がある。
 これに対して、本実施の形態の撮像素子1では、有機光電変換層17上に設けられ、画素部100のオプティカルブラック領域(OB領域)110Bから周辺領域200にかけて設けられた遮光層22上に、黒色層24を設けるようにした。これにより、遮光層22の厚みを、例えば、250nmから200nmに薄くすることが可能となり、遮光層22の応力を低減されることが可能となる。
 以上、本実施の形態では、有機光電変換層17上に設けられた遮光層22上に、黒色層24を設けるようにしたので、遮光層22の薄膜化が可能となり、遮光層22の応力が低減される。これにより、例えば、遮光層22の応力を緩和するために設けられた緩衝層21の厚みを、例えば、750nmから500nmへと、約250nm程度薄くすることが可能となる。よって、隣接画素への斜め入射による混色やシェーディングの発生が低減され、光学特性を向上させることが可能となる。
 また、本実施の形態の撮像素子1では、黒色層24を設けることにより、例えば、OB領域110Bに入射した光は黒色層24で減衰し、その減衰光が遮光層22で反射され、再度、黒色層24を介して外部に反射光として取り出される。これにより、フレアゴースト等の欠陥を低減することが可能となる。
 なお、本実施の形態の撮像素子1では、遮光層22を、アルミニウム(Al)等の比較的柔らかな金属膜によって構成することにより、遮光層22の応力をより低減することが可能となり、緩衝層21をさらに薄膜化することが可能となる。
 次に、第2~第4の実施の形態について説明する。なお、第1の実施の形態の撮像素子1に対応する構成要素には同一の符号を付して説明を省略する。
<2.第2の実施の形態>
 図6は、本開示の第2の実施の形態に係る撮像素子(撮像素子2)の断面構成を模式的に表したものである。撮像素子2は、上記第1の実施の形態と同様に、例えば、裏面照射型(裏面受光型)のCCDイメージセンサまたはCMOSイメージセンサ等であり、半導体基板11上に複数の単位画素Pが2次元配列されてなる画素領域(画素部100)を有するものである(図13参照)。なお、図6は、図2に示したI-I線における断面構成を表したものである。本実施の形態の撮像素子2は、遮光層32が、例えば絶縁層33を間に積層された積層構造とした点が上記第1の実施の形態とは異なる。
 遮光層32は、光電変換素子10の上部電極18へ電圧を印加する配線であると共に、黒レベルを規定するためのものである。遮光層32は、上記のように、絶縁層33を間に積層された2層(遮光層32A,32B)構造を有する。下層側の遮光層32Aは、遮光性を有する配線層として構成されていることが好ましい。上層側の遮光層32Bは、単なる遮光膜として設けてもよいし、配線層として設けるようにしてもよい。遮光層32の材料としては、上記遮光層22と同様の材料、例えば、タングステン(W)、チタン(Ti)、窒化チタン(TiN)およびアルミニウム(Al)等の金属材料の単層膜あるいはこれらの積層膜により構成されることが望ましい。
 遮光層32Aおよび遮光層32Bは、同じ材料を用いて形成してもよいし、異なる材料を用いて形成するようにしてもよい。また、遮光層32Aおよび遮光層32Bは、例えば、図6に示したように、コンタクト32aによって互いに電気的に接続されていてもよい。遮光層32Aおよび遮光層32Bの厚みは、例えば、2層を合わせて、上記遮光層22と同程度の遮光性を有していればよい。よって、遮光層32Aおよび遮光層32Bの厚みは、構成する材料にもよるが、例えば、タングステン(W)を用いる場合には、それぞれ、例えば50nm以上150nm以下であることが好ましい。
 絶縁層33は、例えば、遮光層32Aと遮光層32Bとを電気的に絶縁するためのものであり、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)および酸窒化シリコン(SiON)等のうちのいずれかよりなる単層膜、あるいはそれらのうちの2種以上よりなる積層膜である。絶縁層33の厚みは、特に問わないが、例えば、100nm程度である。
 以上のように、本実施の形態では、遮光層32を、例えば2層構造とし、その間に絶縁層33を設けるようにした。これにより、遮光層32A,32Bの1回の成膜量を減らすことが可能となる。よって、最も応力が大きくなる成膜直後の遮光層32Aおよび遮光層32Bの応力を低減することが可能となり、緩衝層21の厚みをさらに薄くすることが可能となる。
 また、遮光層32を多層構造とすることにより、遮光層32を上部電極18への電圧印加用の配線以外の配線層として用いることが可能となる。
<3.第3の実施の形態>
 図7は、本開示の第3の実施の形態に撮像素子(撮像素子3)の断面構成を模式的に表したものである。撮像素子3は、上記第1の実施の形態と同様に、例えば、裏面照射型(裏面受光型)のCCDイメージセンサまたはCMOSイメージセンサ等であり、半導体基板11上に複数の単位画素Pが2次元配列されてなる画素領域(画素部100)を有するものである(図13参照)。なお、図7は、図2に示したI-I線における断面構成を表したものである。本実施の形態の撮像素子3は、遮光層42の表面に酸化膜42Aが形成された点が上記第1の実施の形態とは異なる。
 遮光層42は、光電変換素子10の上部電極18へ電圧を印加する配線であると共に、黒レベルを規定するためのものである。遮光層42は、上記第1の実施の形態と同様に、遮光性を有する導電性材料によって構成されている。具体的には、例えば、タングステン(W)、チタン(Ti)、窒化チタン(TiN)およびアルミニウム(Al)等の金属材料の単層膜あるいはこれらの積層膜により構成されることが望ましい。
 酸化膜42Aは、遮光層42を構成する分子の周期性を変化させて遮光層42の表面の散乱強度を高めるためのものである。酸化膜42Aは、遮光層42の表面を酸化して形成してもよいし、別途成膜するようにしてもよい。
 以上のように、本実施の形態では、遮光層42の表面に酸化膜42Aを設けるようにしたので、遮光層42の表面の散乱強度が向上し、遮光層42の表面において反射される光の強度を低減させることが可能となる。よって、フレアゴーストの発生をさらに低減することが可能となる。
<4.第4の実施の形態>
 図8は、本開示の第4の実施の形態に係る撮像素子(撮像素子4)の断面構成を模式的に表したものである。撮像素子4は、上記第1の実施の形態と同様に、例えば、裏面照射型(裏面受光型)のCCDイメージセンサまたはCMOSイメージセンサ等であり、半導体基板11上に複数の単位画素Pが2次元配列されてなる画素領域(画素部100)を有するものである(図13参照)。なお、図8は、図2に示したI-I線における断面構成を表したものである。本実施の形態の撮像素子4は、黒色層54を有効画素領域110A側に張り出し形成し、緩衝層21上に遮光層22を設けることによって生じる段差22Xの側面を黒色層54によって覆うようにした設けた点が上記第1の実施の形態とは異なる。
 黒色層54は、OB領域110Bへの光の入射を遮断するためのものである。黒色層54の材料としては、上記第1の実施の形態と同様に、遮光性を有することが望ましく、例えば、カーボンブラック、黒化された酸化チタン(TiO2)、分散型感光性樹脂およびアクリル系樹脂等の黒色顔料や、複数色を組み合わせた混合色素が挙げられる。黒色層54の厚みは、例えば200nm以上1000nm以下であることが好ましい。本実施の形態の黒色層54は、緩衝層21上に遮光層22を設けることによって生じた段差22Xの側面を覆うように、有効画素領域110A側に張り出して形成されている。
 上記第1の実施の形態等では、緩衝層21上に遮光層や黒色層24等と設けることによって、有効画素領域110AとOB領域110Bとの間のオンチップレンズ層25に段差が生じる。この段差は、有効画素領域110Aに設けられるオンチップレンズ25Lの形状崩れや、オンチップレンズ25Lの形成時に黒色層24が損傷する虞があり、これによって感度ムラ等の発生が懸念される。
 これに対して、本実施の形態では、黒色層54を、有効画素領域110A側に張り出して形成し、緩衝層21上に遮光層22を設けることによって生じた段差22Xの側面を覆うようにした。これにより、遮光層22や黒色層54を設けることによって、有効画素領域110AとOB領域110Bとの間に生じる段差を低減することが可能となる。よって、感度ムラ等の発生を低減することが可能となり、光学特性をさらに向上させることが可能となる。
<5.適用例>
(適用例1)
 図9は、上記第1の実施の形態において説明した光電変換素子10を単位画素Pに用いた撮像素子(撮像素子1)の全体構成を表したものである。この撮像素子1は、CMOSイメージセンサであり、半導体基板11上に、撮像エリアとしての画素部1aを有すると共に、この画素部1aの周辺領域に、例えば、行走査部131、水平選択部133、列走査部134およびシステム制御部132からなる周辺回路部130を有している。
 画素部1aは、例えば、行列状に2次元配置された複数の単位画素P(光電変換素子10に相当)を有している。この単位画素Pには、例えば、画素行ごとに画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部131の各行に対応した出力端に接続されている。
 行走査部131は、シフトレジスタやアドレスデコーダ等によって構成され、画素部1aの各単位画素Pを、例えば、行単位で駆動する画素駆動部である。行走査部131によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部133に供給される。水平選択部133は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部134は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部133の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部134による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線135に出力され、当該水平信号線135を通して半導体基板11の外部へ伝送される。
 行走査部131、水平選択部133、列走査部134および水平信号線135からなる回路部分は、半導体基板11上に直に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 システム制御部132は、半導体基板11の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力するものである。システム制御部132はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部131、水平選択部133および列走査部134等の周辺回路の駆動制御を行う。
(適用例2)
 上述の撮像素子1は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの撮像装置に適用することができる。図10に、その一例として、撮像装置5(カメラ)の概略構成を示す。この撮像装置5は、例えば、静止画または動画を撮影可能なビデオカメラであり、撮像素子1と、光学系(光学レンズ)310と、シャッタ装置311と、撮像素子1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子1の画素部1aへ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像素子1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像素子1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像素子1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリ等の記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
 更に、上記撮像素子1は、下記電子機器(カプセル型内視鏡10100および車両等の移動体)にも適用することが可能である。
(適用例3)
<体内情報取得システムへの応用例>
 図11は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能および無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成および機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、および制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、および当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、および昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図11では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、および、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理および/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、精細な術部画像を得ることができるため、検査の精度が向上する。
(適用例4)
<移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、および統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、および車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、および、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声および画像のうちの少なくとも一方の出力信号を送信する。図12の例では、出力装置として、オーディオスピーカ12061、表示部12062およびインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイおよびヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図13は、撮像部12031の設置位置の例を示す図である。
 図13では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドアおよび車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101および車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図13には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、第1~第4の実施の形態および適用例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態では、光電変換素子10として、緑色光を検出する有機光電変換部11Gと、青色光,赤色光をそれぞれ検出する無機光電変換部11B,11Rとを積層させた構成としたが、本開示内容はこのような構造に限定されるものではない。即ち、有機光電変換部において赤色光あるいは青色光を検出するようにしてもよいし、無機光電変換部において緑色光を検出するようにしてもよい。
 また、これらの有機光電変換部および無機光電変換部の数やその比率も限定されるものではなく、2以上の有機光電変換部を設けてもよいし、有機光電変換部だけで複数色の色信号が得られるようにしてもよい。更に、有機光電変換部および無機光電変換部を縦方向に積層させる構造に限らず、基板面に沿って並列させてもよい。
 更にまた、上記第1~第4の実施の形態では、裏面照射型の撮像素子の構成を例示したが、本開示内容は表面照射型の撮像素子にも適用可能である。また、本開示の撮像素子(光電変換素子)では、上記実施の形態で説明した各構成要素を全て備えている必要はなく、また逆に他の層を備えていてもよい。
 なお、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、また、他の効果があってもよい。
 なお、本開示は、以下のような構成であってもよい。
(1)
 複数の画素が配置された画素領域と、
 前記画素領域の周囲に設けられた周辺領域と、
 前記画素領域から前記周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、
 前記画素領域の周縁部から前記周辺領域にかけて、前記有機光電変換層上に設けられると共に、遮光性を有する導電層と、
 前記導電層上に設けられた黒色層と
 を備えた撮像素子。
(2)
 前記有機光電変換層と前記導電層との間には、応力緩衝層が設けられている、前記(1)に記載の撮像素子。
(3)
 前記導電層と前記黒色層とは、第1の絶縁層を介して積層されている、前記(1)または(2)に記載の撮像素子。
(4)
 前記第1の絶縁層は、前記画素領域において前記有機光電変換層上に設けられ、前記画素領域から延在する保護層である、前記(3)に記載の撮像素子。
(5)
 前記導電層は、間に第2の絶縁層が設けられた多層構造を有する、前記(1)乃至(4)のうちのいずれかに記載の撮像素子。
(6)
 多層構造を有する前記導電層は、互いに電気的に接続されている、前記(5)に記載の撮像素子。
(7)
 前記導電層は表面に酸化膜は形成されている、前記(1)乃至(6)のうちのいずれかに記載の撮像素子。
(8)
 前記画素領域は、有効画素領域と、前記有効画素領域の周縁部に設けられたオプティカルブラック領域とからなる、前記(1)乃至(7)のうちのいずれかに記載の撮像素子。
(9)
 前記画素領域は、前記有効画素領域と前記オプティカルブラック領域との間に、前記オプティカルブラック領域側が高く、前記有効画素領域側が低い段差を有し、
 前記段差の側面は、前記黒色層によって覆われている、前記(8)に記載の撮像素子。
(10)
 前記画素領域は、前記有機光電変換層と、前記有機光電変換層を間に対向配置された一対の電極とを含んで構成される光電変換部を有し、
 前記導電層は、前記一対の電極の一方と電気的に接続されている、前記(1)乃至(9)のうちのいずれかに記載の撮像素子。
(11)
 撮像素子を備え、
 前記撮像素子は、
 複数の画素が配置された画素領域と、
 前記画素領域の周囲に設けられた周辺領域と、
 前記画素領域から前記周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、
 前記画素領域の周縁部から前記周辺領域にかけて、前記有機光電変換層上に設けられると共に、遮光性を有する導電層と、
 前記導電層上に設けられた黒色層と
 を有する撮像装置。
 本出願は、日本国特許庁において2017年7月5日に出願された日本特許出願番号2017-132013号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (11)

  1.  複数の画素が配置された画素領域と、
     前記画素領域の周囲に設けられた周辺領域と、
     前記画素領域から前記周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、
     前記画素領域の周縁部から前記周辺領域にかけて、前記有機光電変換層上に設けられると共に、遮光性を有する導電層と、
     前記導電層上に設けられた黒色層と
     を備えた撮像素子。
  2.  前記有機光電変換層と前記導電層との間には、応力緩衝層が設けられている、請求項1に記載の撮像素子。
  3.  前記導電層と前記黒色層とは、第1の絶縁層を介して積層されている、請求項1に記載の撮像素子。
  4.  前記第1の絶縁層は、前記画素領域において前記有機光電変換層上に設けられ、前記画素領域から延在する保護層である、請求項3に記載の撮像素子。
  5.  前記導電層は、間に第2の絶縁層が設けられた多層構造を有する、請求項1に記載の撮像素子。
  6.  多層構造を有する前記導電層は、互いに電気的に接続されている、請求項5に記載の撮像素子。
  7.  前記導電層は表面に酸化膜は形成されている、請求項1に記載の撮像素子。
  8.  前記画素領域は、有効画素領域と、前記有効画素領域の周縁部に設けられたオプティカルブラック領域とからなる、請求項1に記載の撮像素子。
  9.  前記画素領域は、前記有効画素領域と前記オプティカルブラック領域との間に、前記オプティカルブラック領域側が高く、前記有効画素領域側が低い段差を有し、
     前記段差の側面は、前記黒色層によって覆われている、請求項8に記載の撮像素子。
  10.  前記画素領域は、前記有機光電変換層と、前記有機光電変換層を間に対向配置された一対の電極とを含んで構成される光電変換部を有し、
     前記導電層は、前記一対の電極の一方と電気的に接続されている、請求項1に記載の撮像素子。
  11.  撮像素子を備え、
     前記撮像素子は、
     複数の画素が配置された画素領域と、
     前記画素領域の周囲に設けられた周辺領域と、
     前記画素領域から前記周辺領域の少なくとも一部に連続して設けられた有機光電変換層と、
     前記画素領域の周縁部から前記周辺領域にかけて、前記有機光電変換層上に設けられると共に、遮光性を有する導電層と、
     前記導電層上に設けられた黒色層と
     を有する撮像装置。
PCT/JP2018/022327 2017-07-05 2018-06-12 撮像素子および撮像装置 WO2019009024A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020197034242A KR102554502B1 (ko) 2017-07-05 2018-06-12 촬상 소자 및 촬상 장치
CN201880043501.4A CN110809821A (zh) 2017-07-05 2018-06-12 摄像器件和摄像装置
DE112018003461.5T DE112018003461T5 (de) 2017-07-05 2018-06-12 Bildgebungsvorrichtung und bildgebungseinrichtung
US16/626,018 US10910440B2 (en) 2017-07-05 2018-06-12 Imaging device and imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017132013A JP2019016667A (ja) 2017-07-05 2017-07-05 撮像素子および撮像装置
JP2017-132013 2017-07-05

Publications (1)

Publication Number Publication Date
WO2019009024A1 true WO2019009024A1 (ja) 2019-01-10

Family

ID=64950861

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022327 WO2019009024A1 (ja) 2017-07-05 2018-06-12 撮像素子および撮像装置

Country Status (6)

Country Link
US (1) US10910440B2 (ja)
JP (1) JP2019016667A (ja)
KR (1) KR102554502B1 (ja)
CN (1) CN110809821A (ja)
DE (1) DE112018003461T5 (ja)
WO (1) WO2019009024A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210124224A (ko) * 2019-02-15 2021-10-14 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 소자 및 촬상 장치
WO2021084971A1 (ja) * 2019-10-28 2021-05-06 パナソニックIpマネジメント株式会社 撮像装置
KR20210110912A (ko) * 2020-03-02 2021-09-10 삼성전자주식회사 이미지 센서
JP2021166259A (ja) * 2020-04-07 2021-10-14 キヤノン株式会社 光電変換装置および機器
DE112022002222T5 (de) 2021-04-20 2024-03-07 Sony Semiconductor Solutions Corporation Lichtdetektionseinrichtung, lichtdektionssystem, elektronisches gerät und beweglicher körper
WO2023106026A1 (ja) * 2021-12-08 2023-06-15 パナソニックIpマネジメント株式会社 撮像装置
WO2023234095A1 (ja) * 2022-06-01 2023-12-07 富士フイルム株式会社 光検出素子、イメージセンサおよび光検出素子の製造方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03148868A (ja) * 1989-11-06 1991-06-25 Nec Corp 固体撮像素子およびその製造方法
JPH09232552A (ja) * 1996-02-27 1997-09-05 Sony Corp 固体撮像素子
JP2011198855A (ja) * 2010-03-17 2011-10-06 Fujifilm Corp 光電変換膜積層型固体撮像素子及び撮像装置
JP2012124377A (ja) * 2010-12-09 2012-06-28 Sony Corp 固体撮像装置とその製造方法、及び電子機器
WO2013111419A1 (ja) * 2012-01-26 2013-08-01 シャープ株式会社 固体撮像装置
WO2014007132A1 (ja) * 2012-07-05 2014-01-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015012239A (ja) * 2013-07-01 2015-01-19 ソニー株式会社 撮像素子および電子機器
JP2016051746A (ja) * 2014-08-29 2016-04-11 ソニー株式会社 固体撮像装置、および電子装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5244287B2 (ja) 2004-03-19 2013-07-24 富士フイルム株式会社 撮像素子、及び撮像素子に電場を印加する方法
CN100472791C (zh) * 2005-06-17 2009-03-25 凸版印刷株式会社 摄像元件
CN101552280B (zh) * 2006-09-20 2012-07-18 富士胶片株式会社 背面照明成像器件及其制造方法、半导体基片和成像设备
JP5509846B2 (ja) 2009-12-28 2014-06-04 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
JP5360102B2 (ja) 2011-03-22 2013-12-04 ソニー株式会社 固体撮像装置及び電子機器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03148868A (ja) * 1989-11-06 1991-06-25 Nec Corp 固体撮像素子およびその製造方法
JPH09232552A (ja) * 1996-02-27 1997-09-05 Sony Corp 固体撮像素子
JP2011198855A (ja) * 2010-03-17 2011-10-06 Fujifilm Corp 光電変換膜積層型固体撮像素子及び撮像装置
JP2012124377A (ja) * 2010-12-09 2012-06-28 Sony Corp 固体撮像装置とその製造方法、及び電子機器
WO2013111419A1 (ja) * 2012-01-26 2013-08-01 シャープ株式会社 固体撮像装置
WO2014007132A1 (ja) * 2012-07-05 2014-01-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015012239A (ja) * 2013-07-01 2015-01-19 ソニー株式会社 撮像素子および電子機器
JP2016051746A (ja) * 2014-08-29 2016-04-11 ソニー株式会社 固体撮像装置、および電子装置

Also Published As

Publication number Publication date
KR102554502B1 (ko) 2023-07-12
US20200119099A1 (en) 2020-04-16
CN110809821A (zh) 2020-02-18
KR20200019123A (ko) 2020-02-21
US10910440B2 (en) 2021-02-02
DE112018003461T5 (de) 2020-03-19
JP2019016667A (ja) 2019-01-31

Similar Documents

Publication Publication Date Title
US11302728B2 (en) Solid-state imaging element and solid-state imaging apparatus
US20220246683A1 (en) Solid-state imaging element and solid-state imaging apparatus
US11101305B2 (en) Imaging element and electronic device
KR102554502B1 (ko) 촬상 소자 및 촬상 장치
CN109997019B (zh) 摄像元件和摄像装置
KR102413726B1 (ko) 수광 소자, 수광 소자의 제조 방법, 촬상 장치 및 전자 기기
US11798968B2 (en) Image pickup device and electronic apparatus
JPWO2018008614A1 (ja) 撮像素子、撮像素子の製造方法、及び、電子機器
US10522772B2 (en) Photoelectric conversion element and solid-state imaging apparatus
US11646341B2 (en) Light-receiving device, method of manufacturing light-receiving device, and electronic apparatus
US11587968B2 (en) Solid-state imaging device and electronic apparatus
JP7242655B2 (ja) 撮像素子の駆動方法
WO2019188043A1 (ja) 撮像装置および撮像装置の製造方法
US20240055465A1 (en) Photoelectric conversion element, photodetector, photodetection system, electronic apparatus, and mobile body
CN114930205A (zh) 多层膜和成像元件
US20240031703A1 (en) Light detection apparatus, light detection system, electronic equipment, and mobile body
US20240014230A1 (en) Solid-state imaging element, method of manufacturing the same, and electronic device
US20240206202A1 (en) Light detection apparatus, light detection system, electronic equipment, and mobile body

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18828025

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197034242

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18828025

Country of ref document: EP

Kind code of ref document: A1