WO2021261234A1 - 固体撮像装置およびその製造方法、並びに電子機器 - Google Patents

固体撮像装置およびその製造方法、並びに電子機器 Download PDF

Info

Publication number
WO2021261234A1
WO2021261234A1 PCT/JP2021/021662 JP2021021662W WO2021261234A1 WO 2021261234 A1 WO2021261234 A1 WO 2021261234A1 JP 2021021662 W JP2021021662 W JP 2021021662W WO 2021261234 A1 WO2021261234 A1 WO 2021261234A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
translucent substrate
region
state image
image sensor
Prior art date
Application number
PCT/JP2021/021662
Other languages
English (en)
French (fr)
Inventor
啓介 畑野
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/001,857 priority Critical patent/US20230238407A1/en
Publication of WO2021261234A1 publication Critical patent/WO2021261234A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present technology relates to a solid-state image pickup device and a manufacturing method thereof, and an electronic device, and particularly to a solid-state image pickup device capable of suppressing flare, a manufacturing method thereof, and an electronic device.
  • CSP Chip Size Package
  • a cavity is provided between the semiconductor substrate and the glass substrate as a structure for joining the glass substrate to the semiconductor substrate.
  • a structure and a cavityless structure in which no void is provided (see, for example, Patent Document 1).
  • the higher-order light of the diffracted light reflected on the surface of the semiconductor substrate and incident on the glass substrate is totally reflected on the front surface (upper surface) of the glass substrate, and then the back surface of the glass substrate (upper surface). Total internal reflection on the bottom surface). This prevents the higher-order light of the diffracted light from returning to the pixel region.
  • the higher-order light of the diffracted light reflected on the surface of the semiconductor substrate and incident on the glass substrate is totally reflected on the front surface of the glass substrate and then not totally reflected on the back surface. , May return to the pixel area. That is, in the cavityless structure, the space between the semiconductor substrate and the glass substrate is embedded without voids with a resin having a refractive index similar to that of the glass substrate, so that the reflected light totally reflected on the upper surface of the glass substrate is the glass substrate. It returns to the pixel region of the semiconductor substrate as it is without being reflected at the interface between the glass and the resin, and the higher-order light of the diffracted light may form a ring-shaped flare and adversely affect the image quality.
  • This technology was made in view of such a situation, and makes it possible to suppress flare in a CSP type solid-state image sensor having a cavityless structure.
  • the solid-state image sensor on the first aspect of the present technology is A semiconductor substrate in which a photoelectric conversion unit is formed for each pixel, An on-chip lens formed on the light incident surface side of the semiconductor substrate and A translucent substrate that protects the on-chip lens, A bonding resin for bonding between the translucent substrate and the on-chip lens is provided.
  • the first surface of the translucent substrate on the light incident surface side is flat.
  • the second surface of the translucent substrate facing the first surface has different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof.
  • the method for manufacturing the solid-state image sensor on the second aspect of the present technology is A semiconductor substrate in which a photoelectric conversion unit is formed for each pixel, An on-chip lens formed on the light incident surface side of the semiconductor substrate and The first surface of the translucent substrate of the solid-state image pickup device including the translucent substrate that protects the on-chip lens on the light incident surface side is flat.
  • the second surface of the translucent substrate facing the first surface has different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof.
  • the translucent substrate and the on-chip lens are bonded via a bonding resin.
  • the electronic device of the third aspect of this technology is A semiconductor substrate in which a photoelectric conversion unit is formed for each pixel, An on-chip lens formed on the light incident surface side of the semiconductor substrate and A translucent substrate that protects the on-chip lens, A bonding resin for bonding between the translucent substrate and the on-chip lens is provided.
  • the first surface of the translucent substrate on the light incident surface side is flat.
  • the second surface of the translucent substrate facing the first surface is a solid-state image sensor having different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof. Be prepared.
  • the semiconductor substrate in which the photoelectric conversion unit is formed for each pixel, the on-chip lens formed on the light incident surface side of the semiconductor substrate, and the on-chip lens are protected.
  • a translucent substrate and a bonding resin for joining between the translucent substrate and the on-chip lens are provided, and the first surface of the translucent substrate on the light incident surface side is flat.
  • the second surface of the translucent substrate facing the first surface has different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof.
  • the solid-state image sensor and the electronic device may be an independent device or a module incorporated in another device.
  • FIG. 3 is a cross-sectional view of the vicinity of the end of the solid-state image sensor of FIG. It is sectional drawing near the end part when there is an OPB area. It is a figure explaining the manufacturing method of the solid-state image sensor of FIG.
  • the definition of the vertical direction in the following description is merely a definition for convenience of explanation, and does not limit the technical idea of the present disclosure. For example, if the object is rotated 90 ° and observed, the top and bottom are converted to left and right and read, and if the object is rotated 180 ° and observed, the top and bottom are reversed and read.
  • FIG. 1 is a cross-sectional view showing a configuration example of a first embodiment of a solid-state image pickup device to which the present technology is applied.
  • the solid-state image sensor 1 shown in FIG. 1 is a semiconductor package in which a laminated substrate 13 configured by laminating a lower substrate 11 and an upper substrate 12 is packaged.
  • the lower substrate 11 and the upper substrate 12 are joined by the plane indicated by the alternate long and short dash line.
  • a multilayer wiring layer 22 is formed on the upper side (upper substrate 12 side) of the semiconductor substrate 21 (hereinafter referred to as silicon substrate 21) made of silicon (Si).
  • the multilayer wiring layer 22 is composed of a plurality of wiring layers (not shown) and an interlayer insulating film 23 between them.
  • solder bumps 25 which are backside electrodes for electrically connecting to an external module board, are formed on the back side opposite to the front side of the lower board 11 on which the multilayer wiring layer 22 is formed. Has been done.
  • the region other than the solder bump 25 on the back surface side of the lower substrate 11 is covered with the protective film 26.
  • solder resist which is an organic material, is used as the material of the protective film 26 for example.
  • the solder bump 25 is formed on the rewiring 27 formed on the upper surface of the back side of the silicon substrate 21, and the rewiring 27 is on the front surface side via the connecting conductor 28 penetrating the silicon substrate 21. It is electrically connected to the internal electrode 24 which is a part of the wiring layer of the multilayer wiring layer 22.
  • the rewiring 27 and the connecting conductor 28 can be formed of, for example, copper (Cu), tungsten (W), titanium (Ti), tantalum (Ta), titanium-tungsten alloy (TiW), polysilicon, or the like.
  • the rewiring 27 and the connecting conductor 28 and the silicon substrate 21 are insulated from each other by an insulating film.
  • the upper substrate 12 is formed on, for example, a semiconductor substrate 31 made of silicon (Si) (hereinafter referred to as a silicon substrate 31), a wiring layer 32 formed on one surface of the silicon substrate 31, and the other surface. It includes a formed on-chip lens 33.
  • a photodiode 71 as a photoelectric conversion unit is formed in pixel units, and an on-chip lens 33 is also formed in pixel units corresponding to the photodiode 71.
  • the on-chip lens 33 is formed to the outside of the pixel region 43 so as to maintain pattern continuity at the end of the pixel region 43 in order to prevent the lens shape from collapsing at the end of the pixel region 43.
  • the wiring layer 32 formed on the front surface of the silicon substrate 31 is formed of, for example, a metal film such as copper (Cu), aluminum (Al), tungsten (W), and, for example, a silicon oxide film, a silicon nitride film, or the like. It includes an interlayer insulating film and is electrically connected to the multilayer wiring layer 22 of the lower substrate 11 by a metal bond such as a Cu-CU bond on the surface indicated by the one-point chain wire.
  • a metal film such as copper (Cu), aluminum (Al), tungsten (W), and, for example, a silicon oxide film, a silicon nitride film, or the like. It includes an interlayer insulating film and is electrically connected to the multilayer wiring layer 22 of the lower substrate 11 by a metal bond such as a Cu-CU bond on the surface indicated by the one-point chain wire.
  • the on-chip lens 33 formed on the back surface of the silicon substrate 31 is formed on the upper side of the flattening film 34 formed on the upper surface of the silicon substrate 31, and the upper side of the on-chip lens 33 is flattened by the interlayer insulating film 35. Is formed in.
  • the interlayer insulating film 35 is formed of a material having a refractive index lower than that of the on-chip lens 33, and the on-chip lens 33 is provided with a refractive index difference between the on-chip lens 33 and the interlayer insulating film 35 on the interlayer insulating film 35. The light-collecting power of the lens is increased.
  • the refractive index of the interlayer insulating film 35 is lower than the refractive index of the bonding resin 36 on the interlayer insulating film 35.
  • the refractive index of the bonding resin 36 is n 1
  • the refractive index of the interlayer insulating film 35 is n 2
  • the refractive index of the on-chip lens 33 is n 3
  • the refractive index of the resin 36 is n 1 ) ⁇ (refractive index n 3 of the on-chip lens 33).
  • the refractive index n 1 of the bonding resin 36 is the same as that of the translucent substrate 37.
  • a translucent substrate 37 is bonded to the upper side of the interlayer insulating film 35 by a bonding resin 36.
  • the translucent substrate 37 is a translucent substrate such as a glass substrate.
  • the translucent substrate 37 also has a function of protecting the on-chip lens 33.
  • the first surface (upper surface) of the translucent substrate 37 on the light incident surface side is formed flat.
  • the second surface (lower surface) facing the first surface of the translucent substrate 37 is a central region 41 facing the pixel region 43 and an outer peripheral portion of the chip as shown in FIG. It has a different thickness from the outer peripheral region 42.
  • the thickness T1 of the central region 41 is, for example, about 20 to 30 ⁇ m
  • the thickness T2 of the outer peripheral region 42 is, for example, about 50 to 60 ⁇ m, which is larger than that of the outer peripheral region 42.
  • the thickness of the central region 41 is thinly formed.
  • the central region 41 which is a thin portion of the translucent substrate 37, is a region extending outward by a predetermined width L (> 0) from the pixel region 43 of the upper substrate 12 in which the photodiode 71 is formed in pixel units. It has become.
  • the width M (> 0) of the outer peripheral region 42 needs to have a certain width or more in order to prevent cracks and damages such as cracks due to an impact from the outside, and is set to, for example, 30 ⁇ m or more.
  • FIG. 2 shows the arrangement relationship between the pixel region 43, the central region 41 formed by the thin thickness T1 and the outer peripheral region 42 formed by the thicker thickness T2, as shown in FIG.
  • FIG. 2 is a plan view of the translucent substrate 37, and in FIG. 2, in order to facilitate the distinction between the central region 41 and the outer peripheral region 42, the outer peripheral region 42 is hatched.
  • the central region 41 of the translucent substrate 37 is a region in which the periphery of the pixel region 43 is further extended by a distance L in a plan view, and the outer peripheral region 42 is a region having a distance M in the vertical and horizontal directions from the periphery of the central region 41. It is a rectangular shape formed by.
  • the solid-state image sensor 1 having the above structure is a back-illuminated type in which an on-chip lens 33 is formed on the back surface side of a silicon substrate 31 in which a photodiode 71 is formed in pixel units, and light is incident from the back surface side. It is a solid-state image sensor.
  • the solid-state imaging device 1 is a solid-state imaging device having a cavityless structure in which the translucent substrate 37 that protects the on-chip lens 33 is joined to the interlayer insulating film 35 of the upper substrate 12 without gaps by the bonding resin 36. be.
  • FIG. 3 is a perspective view showing a configuration example of each of the lower substrate 11 and the upper substrate 12.
  • both the control circuit 44 and the logic circuit 45 are formed and laminated on the lower substrate 11 different from the upper substrate 12 of the pixel region 43, so that the pixel region 43,
  • the size of the solid-state imaging device 1 can be reduced as compared with the case where the control circuit 44 and the logic circuit 45 are arranged in the plane direction.
  • FIG. 4 shows an example of a circuit configuration of the solid-state image sensor 1.
  • the solid-state imaging device 1 includes a pixel array unit 52 in which pixels 51 are arranged in a two-dimensional grid, a vertical drive circuit 53, a column signal processing circuit 54, a horizontal drive circuit 55, a control circuit 56, an output circuit 57, and an input / output terminal. Includes 58 and the like.
  • the pixel 51 is composed of a photodiode 71 and a plurality of pixel transistors, and a detailed configuration example of the pixel 51 will be described later with reference to FIG.
  • the vertical drive circuit 53 is composed of, for example, a shift register, selects a predetermined pixel drive wiring 61, supplies a pulse for driving the pixel 51 to the selected pixel drive wiring 61, and drives the pixel 51 in row units. do. That is, the vertical drive circuit 53 selectively scans each pixel 51 of the pixel array unit 52 in a row-by-row manner in the vertical direction, and a pixel signal based on the signal charge generated in the photoelectric conversion unit of each pixel 51 according to the amount of light received. Is supplied to the column signal processing circuit 54 through the vertical signal line 62.
  • the column signal processing circuit 54 is arranged for each column of the pixel 51, and performs signal processing such as noise removal for each pixel column of the signal output from the pixel 51 for one row.
  • the column signal processing circuit 54 performs signal processing such as CDS (Correlated Double Sampling) and AD conversion for removing fixed pattern noise peculiar to pixels.
  • the horizontal drive circuit 55 is composed of, for example, a shift register, and by sequentially outputting horizontal scan pulses, each of the column signal processing circuits 54 is sequentially selected, and a pixel signal is output from each of the column signal processing circuits 54 as a horizontal signal line. Output to 63.
  • the control circuit 56 receives an input clock and data instructing an operation mode and the like, and controls the operation and timing of the entire device. More specifically, the control circuit 56 is based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock, and is a clock that serves as a reference for the operation of the vertical drive circuit 53, the column signal processing circuit 54, the horizontal drive circuit 55, and the like. Generate signals and control signals. Then, the control circuit 56 outputs the generated clock signal and control signal to the vertical drive circuit 53, the column signal processing circuit 54, the horizontal drive circuit 55, and the like.
  • the output circuit 57 performs signal processing on the signals sequentially supplied from each of the column signal processing circuits 54 through the horizontal signal line 63 and outputs the signals.
  • the output circuit 57 may, for example, perform only buffering, or may perform various digital signal processing such as black level adjustment and column variation correction.
  • the input / output terminal 58 exchanges signals with the outside.
  • the solid-state image sensor 1 configured as described above is a CMOS image sensor called a column AD method in which a column signal processing circuit 54 that performs CDS processing and AD conversion processing is arranged for each pixel string.
  • FIG. 5 shows an example of a circuit configuration of the pixel 51.
  • the pixel 51 shown in FIG. 5 shows a configuration that realizes an electronic global shutter function.
  • the pixel 51 includes a photodiode 71, a first transfer transistor 72, a memory unit (MEM) 73, a second transfer transistor 74, an FD (floating diffusion region) 75, a reset transistor 76, an amplification transistor 77, a selection transistor 78, and an emission. It has a transistor 79.
  • the photodiode 71 is a photoelectric conversion unit that generates and stores an electric charge (signal charge) according to the amount of received light.
  • the anode terminal of the photodiode 71 is grounded, and the cathode terminal is connected to the memory unit 73 via the first transfer transistor 72. Further, the cathode terminal of the photodiode 71 is also connected to an emission transistor 79 for discharging unnecessary charges.
  • the memory unit 73 is a charge holding unit that temporarily holds the charge until the charge is transferred to the FD75.
  • the second transfer transistor 74 When the second transfer transistor 74 is turned on by the transfer signal TRG, it reads out the electric charge held in the memory unit 73 and transfers it to the FD75.
  • the FD75 is a charge holding unit that holds the charge read from the memory unit 73 to read it as a signal.
  • the reset transistor 76 is turned on by the reset signal RST, the electric charge stored in the FD75 is discharged to the constant voltage source VDD to reset the potential of the FD75.
  • the amplification transistor 77 outputs a pixel signal according to the potential of the FD75. That is, the amplification transistor 77 constitutes a load MOS 80 as a constant current source and a source follower circuit, and a pixel signal indicating a level corresponding to the charge stored in the FD 75 is a column signal from the amplification transistor 77 via the selection transistor 78. It is output to the processing circuit 54 (FIG. 4).
  • the load MOS 80 is arranged in, for example, the column signal processing circuit 54.
  • the selection transistor 78 is turned on when the pixel 51 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 51 to the column signal processing circuit 54 via the vertical signal line 62.
  • the discharge transistor 79 When the discharge transistor 79 is turned on by the discharge signal OFG, the discharge transistor 79 discharges the unnecessary charge stored in the photodiode 71 to the constant voltage source VDD.
  • the transfer signals TRX and TRG, the reset signal RST, the emission signal OFG, and the selection signal SEL are supplied from the vertical drive circuit 53 via the pixel drive wiring 61.
  • the high-level emission signal OFG is supplied to the emission transistor 79 to turn on the emission transistor 79, and the electric charge stored in the photodiode 71 is discharged to the constant voltage source VDD to all the pixels. Photodiode 71 is reset.
  • the first transfer transistor 72 When a predetermined exposure time elapses, the first transfer transistor 72 is turned on by the transfer signal TRX in all the pixels of the pixel array unit 52, and the electric charge accumulated in the photodiode 71 is transferred to the memory unit 73. Will be done.
  • the electric charges held in the memory unit 73 of each pixel 51 are sequentially read out to the column signal processing circuit 54 row by row.
  • the second transfer transistor 74 of the pixel 51 of the read line is turned on by the transfer signal TRG, and the electric charge held in the memory unit 73 is transferred to the FD75.
  • the selection transistor 78 is turned on by the selection signal SEL, a signal indicating the level corresponding to the charge stored in the FD 75 is output from the amplification transistor 77 to the column signal processing circuit 54 via the selection transistor 78.
  • the exposure time is set to be the same for all the pixels of the pixel array unit 52, and after the exposure is completed, the electric charge is temporarily held in the memory unit 73. It is possible to perform a global shutter method operation (imaging) in which electric charges are sequentially read from the memory unit 73 in row units.
  • the circuit configuration of the pixel 51 is not limited to the configuration shown in FIG. 5, and for example, a circuit configuration that does not have the memory unit 73 and operates by the so-called rolling shutter method can be adopted.
  • the pixel 51 may have a shared pixel structure in which some pixel transistors are shared by a plurality of pixels.
  • the first transfer transistor 72, the memory unit 73, and the second transfer transistor 74 are included in the pixel 51 unit, and the FD75, the reset transistor 76, the amplification transistor 77, and the selection transistor 78 are formed by a plurality of pixels such as 4 pixels. It can be a shared configuration.
  • the surface of the upper substrate 12 In the cavityless structure in which the translucent substrate 37 and the on-chip lens 33 of the upper substrate 12 are joined without gaps by the bonding resin 36, as shown in the upper part of FIG. 6, the surface of the upper substrate 12 The higher-order light of the diffracted light reflected by the translucent substrate 37 and incident on the translucent substrate 37 is totally reflected on the front surface (upper surface) of the translucent substrate 37 and then not totally reflected on the back surface (lower surface). It may return to 43.
  • the space between the upper substrate 12 and the translucent substrate 37 is embedded without voids with the bonding resin 36 having the same refractive index as that of the translucent substrate 37, so that the translucent substrate is used.
  • the reflected light totally reflected on the upper surface of the 37 is not reflected at the interface between the translucent substrate 37 and the bonding resin 36, but returns to the pixel region 43 of the upper substrate 12 as it is, and the higher-order light of the diffracted light is ring-shaped. It may cause flare and adversely affect the image quality.
  • the translucent substrate 37 and the bonding resin 36 are formed to be thin, the ring flare generation position can be brought closer to the light source position of the incident light as shown in the lower part of FIG. 6, and the ring flare can be integrated with the light source. As a result, the visibility of the flare can be reduced.
  • the translucent substrate 37 When the thickness of the translucent substrate 37 is reduced, the strength is reduced, and in particular, the translucent substrate 37 made of a material such as glass may be cracked at the end of the chip due to an external impact or the like.
  • the bonding resin 36 has a function of suppressing alpha rays generated from the glass substrate when the translucent substrate 37 is a glass substrate, but when the thickness of the bonding resin 36 is reduced, the bonding resin 36 has a function of suppressing alpha rays. Does not sufficiently fulfill the function of suppressing alpha rays, and electrons caused by alpha rays from the translucent substrate 37 may be generated in the photoelectric conversion unit, resulting in defects called white scratches.
  • the solid-state image sensor 1 has a thickness of the translucent substrate 37 in the central region 41 facing the pixel region 43 while forming the upper surface of the translucent substrate 37 which is the surface of the apparatus flat.
  • T1 thinly, the thickness of the bonding resin 36 is secured, and the structure is such that the function of suppressing alpha rays generated from the translucent substrate 37 is fully exhibited.
  • the thickness T2 of the outer peripheral region 42 including the end portion of the translucent substrate 37 thicker than the thickness T1 of the central region 41, the strength is secured and the damage due to an external impact or the like is prevented.
  • looking at the film thickness of the bonding resin 36 for the outer peripheral region 42 it is formed thinner than the pixel region 43.
  • the thickness of the bonding resin 36 is secured and the translucent substrate 37 is formed thin in order to suppress alpha rays.
  • the function of suppressing alpha rays is unnecessary. Therefore, instead of reducing the film thickness of the bonding resin 36, the translucent substrate 37 is formed to be thicker. And the strength is secured.
  • the thickness of the bonding resin 36 and the translucent substrate 37 is reduced in the central region 41 and the outer peripheral region 42 by increasing the thickness of one as necessary and reducing the thickness of the other. It can be formed and improves flare due to higher-order diffracted light.
  • the thin central region 41 of the translucent substrate 37 is considered to be a region expanded outward by a predetermined width L from the pixel region 43.
  • L the thin central region 41 of the translucent substrate 37
  • FIG. 7 is a cross-sectional view of the vicinity of the end portion of the solid-state image sensor 1 of FIG.
  • this film thickness A needs to have a thickness of a certain value or more in order to block alpha rays, for example, 50 ⁇ m. And.
  • step D The difference in thickness between the thickness T1 of the central region 41 of the translucent substrate 37 and the thickness T2 of the outer peripheral region 42 is defined as D (hereinafter referred to as step D), and the most pixel region of the outer peripheral region 42 of the translucent substrate 37.
  • P be the corner inside the bottom surface close to 43.
  • the film thickness A in the direction perpendicular to the plane of the pixel region 43 needs to have a thickness of a certain value or more in order to block alpha rays, and is closest to the pixel region 43 of the outer peripheral region 42 of the translucent substrate 37.
  • the distance B between the corner portion P inside the bottom surface and the end portion of the pixel region 43 needs to be equidistant from the film thickness A.
  • the set distance L is a distance at which the distance B is separated by at least the distance A.
  • the distance L is 30 ⁇ m, so it is necessary to set the distance L to at least 30 ⁇ m or more.
  • the pixel region 43 may be composed of an effective pixel region 91 and an OPB region 92.
  • the effective pixel area 91 is an area in which the pixels 51 that generate electric charges according to the amount of incident light are arranged, and the pixel area 43 in FIG. 1 is an example of the effective pixel area 91 in which the entire area is arranged.
  • the OPB region 92 is a region in which a light-shielding film 93 is formed on the upper part of the photodiode 71 of each pixel 51, and is a region in which the pixels 51 for detecting a black level reference potential without incident light are arranged.
  • a light-shielding film 93 for example, tungsten, aluminum, copper and the like are used.
  • the central region 41 is a region extended outward by the distance L of the equation (2) from the end of the OPB region 92. It is said that.
  • the solid-state image sensor 1 is manufactured by a wafer level process in which a required circuit or the like is formed in a region (hereinafter referred to as a chip region) that becomes each chip portion of a semiconductor substrate in a wafer state.
  • 9 to 14 show a simplified version of FIG. 1 for a portion of a wafer-state semiconductor substrate corresponding to three chip regions arranged in the plane direction due to space limitations.
  • the photodiode 71 of each pixel 51 is formed in each chip region of the silicon substrate 31 in the wafer state, and the wiring layer 32 is formed on one surface (front surface) of the silicon substrate 31.
  • a multilayer wiring layer 22 serving as a control circuit 44 and a logic circuit 45 is formed on one surface (front surface) of the silicon substrate 21 in a wafer state.
  • the control circuit 44 and the logic circuit 45 are also formed corresponding to each chip region.
  • the internal electrode 24 is included in a part of the logic circuit 45.
  • the alternate long and short dash line shows the joint surface between the wiring layer 32 of the silicon substrate 31 and the multilayer wiring layer 22 of the silicon substrate 21.
  • the on-chip lens 33 formed on the light incident surface side of the silicon substrate 31 in the wafer state and the interlayer insulating film 35 on the on-chip lens 33 may be formed before bonding or may be formed after bonding. ..
  • the bonding resin 36 is formed on the upper surface of the interlayer insulating film 35. Then, as shown in FIG. 10A, the translucent substrate 37 in a wafer state is bonded by the bonding resin 36.
  • the transparent substrate 37 in the wafer state to be bonded has a recess formed in a portion corresponding to the central region 41 of each chip region on the lower surface on the on-chip lens 33 side. .. That is, the translucent substrate 37 in which a step D is formed between the central region 41 and the outer peripheral region 42 of each chip region is bonded to the light incident surface side of the silicon substrate 31 in the wafer state.
  • the bonding resin 36 formed flat as shown in FIG. 9B is filled up to the recessed portion.
  • the thickness T3 of the central region 41 of the translucent substrate 37 at the time of joining is thicker than the thickness T1 of the central region 41 of the solid-state image sensor 1 in the completed state. This ensures the strength required for handling in the subsequent process.
  • a through hole 101 is formed at a position corresponding to the internal electrode 24 of the multilayer wiring layer 22 from the back surface side of the silicon substrate 21 in the wafer state.
  • connection conductor 28 on the upper surface of the internal electrode 24 and the inner peripheral surface of the through hole is used by an electrolytic plating method or the like using a resist material having an opening pattern in a desired region as a mask.
  • the rewiring 27 on the back surface of the silicon substrate 21 are formed at the same time.
  • an insulating film is formed between the rewiring 27 and the connecting conductor 28 and the silicon substrate 21.
  • copper (Cu) is used as the material for the rewiring 27 and the connecting conductor 28, and the film thickness of the rewiring 27 is, for example, several ⁇ m to several tens of ⁇ m.
  • a part of the rewiring 27 is an opening 102, and the other rewiring 27, the connecting conductor 28, and the upper surface of the silicon substrate 21 are covered with the protective film 26.
  • the material of the protective film 26 for example, solder resist, which is an organic material, is used.
  • the opening 102 corresponds to a portion where the solder bump 25 is formed.
  • the translucent substrate 37 in a wafer state is thinned to a desired film thickness by a chemical mechanical polishing method (CMP) or the like.
  • CMP chemical mechanical polishing method
  • the thickness of the translucent substrate 37 in the central region 41 becomes T1
  • the thickness of the outer peripheral region 42 becomes T2.
  • the silicon substrates 21 and 31 in the wafer state and the bonded substrate including the translucent substrate 37 are divided into chip units.
  • the width M of the outer peripheral region 42 after being cut into chip units is, for example, 30 ⁇ m or more, and the width necessary for preventing damage due to an impact from the outside is secured.
  • a solder bump 25 is formed on the rewiring 27 of the opening 102 of the silicon substrate 31 of the bonded substrate divided into chip units, and the solid-state image sensor 1 of FIG. 1 is formed. Complete.
  • the solder bump 25 is a joint portion that serves as a contact point between the solid-state image pickup device 1 and the module substrate on which the solder bump 25 is mounted.
  • a metal material such as copper or nickel in the opening 102 by a plating method, a back electrode equivalent to that of the solder bump 25 may be formed.
  • a circuit of each pixel 51 including a photodiode 71, a control circuit 44 for controlling each pixel, a logic circuit 45, and the like are provided for the semiconductor substrate in the wafer state. It is manufactured by a wafer level process, which is simultaneously formed in each chip region arranged in a grid pattern and then divided into chip sizes.
  • the translucent substrate 37 is pre-processed so that the central region 41 and the outer peripheral region 42 of each chip region have different thicknesses, and then bonded to the silicon substrates 21 and 31 in the wafer state. Then, the silicon substrates 21 and 31 in the wafer state and the translucent substrate 37 are divided into chip units.
  • FIG. 14 is a plan view of the translucent substrate 37 in a wafer state formed so that the central region 41 and the outer peripheral region 42 have different thicknesses.
  • the central region 41 of each chip region is formed so as to be thinner by the step D, and the outer peripheral region 42 is formed in a grid pattern.
  • the translucent substrate 37 of FIG. 14 is divided into chip units, the plan view shown in FIG. 2 is obtained.
  • FIG. 15 is a diagram showing another first shape example of the translucent substrate 37.
  • FIG. 15A is a perspective view of a chip-sized translucent substrate 37
  • FIG. 15B is a plan view of the translucent substrate 37 on the bonding surface with the bonding resin 36.
  • the translucent substrate 37 has an outer peripheral region 42 having a thickness T2, which is an outer peripheral portion having a width M from an end corresponding to two sides of a rectangular chip in the left-right direction, and inside the outer peripheral region 42. It has a central region 41 formed in a thickness T1 thinner than the thickness T2. As described above, the translucent substrate 37 may have a shape in which a thick outer peripheral region 42 is formed only on two sides of the rectangular chip.
  • the strength of the two sides in the vertical direction seems to be weak, but considering the stress applied to the chip, the part where strength is required is the chip.
  • FIG. 16 is a plan view of the translucent substrate 37 in a wafer state before the translucent substrate 37 of FIG. 15 is divided into chip units.
  • the translucent substrate 37 of the first shape example has a shape in which a thick outer peripheral region 42 is arranged in a stripe shape as shown in FIG.
  • the outer peripheral region 42 By forming the outer peripheral region 42 in a striped shape in this way, when the silicon substrates 21 and 31 and the translucent substrate 37 are bonded in a wafer state via the bonding resin 36, the vertical direction is shown in FIG. It is possible to alleviate the misalignment accuracy in the direction parallel to the stripe.
  • FIGS. 15 and 16 are examples in which the two sides of the rectangular chip in the left-right direction are the outer peripheral region 42
  • the shape may be such that the two sides in the vertical direction are the outer peripheral region 42. That is, the first shape example can be a line shape having a constant width M along two sides of either the left-right direction or the up-down direction of the rectangular chip as the outer peripheral region 42.
  • FIG. 17 is a diagram showing another second shape example of the translucent substrate 37.
  • 17A is a perspective view of a chip-sized translucent substrate 37
  • FIG. 17B is a plan view of the translucent substrate 37 on the bonding surface with the bonding resin 36.
  • the outer peripheral region 42 of the thickness T2 of the translucent substrate 37 is formed from each corner of the rectangle to the two sides forming the corner, except for the central portion of each side of the rectangle. It has a shape with L-shapes arranged along it.
  • the translucent substrate 37 of FIG. 17 has a shape in which the central portions of the four sides of the upper, lower, left, and right sides of the outer peripheral region 42 of the translucent substrate 37 of FIG. 2 are changed to the central region 41.
  • the four corners of the chip are thickly formed outer peripheral regions 42, so that the strength is ensured.
  • FIG. 18 is a plan view of the translucent substrate 37 in a wafer state before the translucent substrate 37 of FIG. 17 is cut into chip units.
  • the translucent substrate 37 of the second shape example has a shape in which thick outer peripheral regions 42 are regularly arranged in a cross shape as shown in FIG.
  • a flow path through which the bonding resin 36 can flow is formed in the vertical and horizontal directions of each chip region. That is, when the silicon substrates 21 and 31 and the translucent substrate 37 are bonded in a wafer state via the bonding resin 36, the excess bonding resin 36 flows in either the vertical or horizontal direction in FIG. Since it is discharged through the path, excess bonding resin 36 stays in a specific chip region and the film thickness becomes thick, or the bonding resin 36 becomes insufficient in a specific chip region and the film thickness becomes thin. There is nothing to do. That is, the uniformity of the film thickness of the bonding resin 36 is enhanced, and good bonding is possible.
  • recesses serving as a flow path of the bonding resin 36 are formed in all the vertical and horizontal directions of each rectangular chip region, but are formed in at least one direction. It suffices if it has been done.
  • dents are formed in all of the vertical and horizontal directions of each of the grid-shaped chip regions, but the dents may be formed only in any direction.
  • an odd-numbered row of each chip region in a grid pattern may have a recess in the right direction
  • an even-numbered row may have a recess in the left direction.
  • a recess in either the vertical or horizontal direction may be formed in units of every other chip region or every two chip regions.
  • the thickness of the bonding resin 36 is secured and the film is transparent.
  • the optical substrate 37 is formed thin.
  • the translucent substrate 37 is formed to be thicker to ensure the strength.
  • the thickness of the bonding resin 36 and the translucent substrate 37 is thinned in the central region 41 and the outer peripheral region 42 by increasing the thickness of one as necessary and reducing the thickness of the other. It is possible to improve flare due to higher-order diffracted light.
  • FIG. 19 is a cross-sectional view showing a configuration example of a second embodiment of a solid-state image pickup device to which the present technology is applied.
  • FIG. 19 the parts corresponding to the first embodiment shown in FIG. 1 are designated by the same reference numerals, and the description of the parts will be omitted as appropriate.
  • the interlayer insulating film 35 formed on the on-chip lens 33 in the first embodiment shown in FIG. 1 is omitted. That is, in the solid-state image sensor 1 of FIG. 19, the bonding resin 36 is formed on the on-chip lens 33, and the translucent substrate 37 is bonded to the bonding resin 36.
  • the interlayer insulating film 35 can be omitted.
  • the on-chip lens 33 and the interlayer on the on-chip lens 33 are provided.
  • a difference in refractive index can be provided with the insulating film 35, and the light-collecting power of the on-chip lens 33 can be enhanced.
  • FIG. 20 is a cross-sectional view showing a configuration example of a third embodiment of a solid-state image sensor to which the present technology is applied.
  • FIG. 20 the parts corresponding to the first embodiment shown in FIG. 1 are designated by the same reference numerals, and the description of the parts will be omitted as appropriate.
  • the third embodiment of FIG. 20 is a stepped portion 201 between the central region 41 of the translucent substrate 37 and the outer peripheral region 42, in other words, the inner circumference of the outer peripheral region 42 of the translucent substrate 37 on the central region 41 side. It differs from the first embodiment shown in FIG. 1 in that the side surface is formed in a tapered shape inclined inward, and is common to the first embodiment in other respects.
  • the inner peripheral side surface of the outer peripheral region 42 By forming the inner peripheral side surface of the outer peripheral region 42 into a tapered shape in this way, it is possible to alleviate the stress applied to the step portion 201 and prevent cracks and cracks in the translucent substrate 37. Further, it is possible to improve the embedding property of the bonding resin 36 in the stepped portion 201 when joining the translucent substrate 37.
  • FIG. 21 is a cross-sectional view showing a configuration example of a fourth embodiment of a solid-state image sensor to which the present technology is applied.
  • FIG. 21 the parts corresponding to the first embodiment shown in FIG. 1 are designated by the same reference numerals, and the description of the parts will be omitted as appropriate.
  • the step portion 202 between the central region 41 of the translucent substrate 37 and the outer peripheral region 42 in other words, the inner circumference of the outer peripheral region 42 of the translucent substrate 37 on the central region 41 side. It differs from the first embodiment shown in FIG. 1 in that the side surface is formed in an arc shape inclined inward, and is common to the first embodiment in other respects.
  • the step portion 202 is formed in an arc shape at a connection portion between the bottom surface of the central region 41 and the inner peripheral side surface of the outer peripheral region 42, which is the upper part of the inner peripheral side surface.
  • FIG. 22 is a cross-sectional view showing a configuration example of a fifth embodiment of a solid-state image sensor to which the present technology is applied.
  • FIG. 22 the parts corresponding to the first embodiment shown in FIG. 1 are designated by the same reference numerals, and the description of the parts will be omitted as appropriate.
  • the step portion 203 between the central region 41 of the translucent substrate 37 and the outer peripheral region 42 in other words, the inner circumference of the outer peripheral region 42 of the translucent substrate 37 on the central region 41 side. It differs from the first embodiment shown in FIG. 1 in that the side surface is formed in an arc shape inclined inward, and is common to the first embodiment in other respects.
  • the step portion 203 is a cross-sectional view of FIG. 22, and both the upper and lower connecting portions of the inner peripheral side surface are formed in an arc shape.
  • the upper connection portion of the inner peripheral side surface is a connection portion between the bottom surface of the central region 41 and the inner peripheral side surface of the outer peripheral region 42
  • the lower connection portion of the inner peripheral side surface is a connection portion between the inner peripheral side surface and the bottom surface of the outer peripheral region 42. It is a connection part of.
  • the upper and lower portions of the inner peripheral side surface of the outer peripheral region 42 into an arc shape in this way, it is possible to alleviate the stress applied to the step portion 203 and prevent cracks and cracks in the translucent substrate 37. .. Further, it is possible to improve the embedding property of the bonding resin 36 in the stepped portion 203 when joining the translucent substrate 37. Further, the position of the inner peripheral side surface of the outer peripheral region 42 can be made closer to the pixel region 43, and the chip strength can be further increased.
  • the shape of the translucent substrate 37 according to the second to fifth embodiments described above is not limited to the arrangement of the outer peripheral region 42 in which the outer peripheral region 42 shown in FIG. 2 surrounds the periphery of the central region 41, and FIGS. The same can be applied to the first and second shape examples shown in 1.
  • the solid-state image sensor 1 includes a color filter layer on the upper side of the photodiode 71 formed in pixel units.
  • FIG. 23 is a cross-sectional view showing a configuration example when the solid-state image sensor 1 includes a color filter layer.
  • FIG. 23 shows a cross-sectional view of the vicinity of the end portion when the OPB region 92 is provided, as in FIG.
  • the color filter layer 94 is formed between the on-chip lens 33 and the light-shielding film 93, as shown in FIG. 23. If the pixel region 43 does not include the OPB region 92 on which the light-shielding film 93 is formed and is composed of only the effective pixel region 91, the color filter layer 94 includes the on-chip lens 33 and the flattening film 34. Formed between.
  • the color filter layer 94 is a layer that transmits light having a predetermined wavelength such as R (Red), G (Green), B (Blue), and is, for example, as shown in FIG. 23, each row of the pixel array unit 52. In, each color of R, G, and B is repeatedly arranged in order in pixel units.
  • the color arrangement arranged in each pixel 51 of the color filter layer 94 is not limited to this example. For example, it may be a Bayer sequence or a combination of R, G, B, W (White) and the like. W is a layer that transmits light of all wavelengths.
  • the on-chip lens 33 is formed to the outside of the pixel region 43, and the color filter layer 94 also secures the continuity of the base. Therefore, it is formed to the outside of the pixel region 43.
  • the color filter layer 94 outside the OPB region 92 and the pixel region 43 where light is not incident on the photodiode 71 can have the same color. In the example of FIG. 23, the color B is used, but other colors may be used.
  • the material of the insulating layer on the lower side of the color filter layer 94 is different from the material of the on-chip lens 33 on the upper side of the color filter layer 94. It may be a material.
  • the film thickness of the translucent substrate 37 in the central region 41 corresponding to the pixel region 43 is formed thinner than the outer peripheral region 42.
  • the total thickness on the light incident surface side can be suppressed while increasing the intensity of the chip, so that the adverse effect of the higher-order light of the diffracted light reflected by the surface of the upper substrate 12 on the image quality can be suppressed. Will be possible.
  • FIG. 24 is a diagram showing an example of using an image sensor using the above-mentioned solid-state image sensor 1.
  • the image sensor using the above-mentioned solid-state image sensor 1 can be used in various cases of sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • Devices used for traffic such as in-vehicle sensors that capture images of the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measuring sensors that measure distance between vehicles.
  • Equipment used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gestures ⁇ Endoscopes and devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes ⁇ Devices used for security such as surveillance cameras for crime prevention and cameras for person authentication ⁇ Skin measuring instruments for taking pictures of the skin and taking pictures of the scalp Equipment used for beauty such as microscopes ⁇ Equipment used for sports such as action cameras and wearable cameras for sports applications ⁇ Camera for monitoring the condition of fields and crops, etc. , Equipment used for agriculture
  • the present technology is not limited to application to a solid-state image sensor. That is, this technology is applied to an image capture unit (photoelectric conversion unit) such as an image pickup device such as a digital still camera or a video camera, a portable terminal device having an image pickup function, or a copier using a solid-state image pickup device for an image reader. It can be applied to all electronic devices that use solid-state imaging devices.
  • the solid-state image pickup device may be in the form of one chip, or may be in the form of a module having an image pickup function in which an image pickup unit and a signal processing unit or an optical system are packaged together.
  • FIG. 25 is a block diagram showing a configuration example of an image pickup device as an electronic device to which the present technology is applied.
  • the image pickup device 300 of FIG. 25 includes an optical unit 301 including a lens group and the like, a solid-state image pickup device (imaging device) 302 in which the configuration of the solid-state image pickup device 1 of FIG. 1 is adopted, and a DSP (Digital Signal) which is a camera signal processing circuit. Processor) A circuit 303 is provided.
  • the image pickup apparatus 300 also includes a frame memory 304, a display unit 305, a recording unit 306, an operation unit 307, and a power supply unit 308.
  • the DSP circuit 303, the frame memory 304, the display unit 305, the recording unit 306, the operation unit 307, and the power supply unit 308 are connected to each other via the bus line 309.
  • the optical unit 301 captures incident light (image light) from the subject and forms an image on the image pickup surface of the solid-state image pickup device 302.
  • the solid-state image sensor 302 converts the amount of incident light imaged on the image pickup surface by the optical unit 301 into an electric signal in pixel units and outputs it as a pixel signal.
  • the solid-state image sensor 1 of FIG. 1 that is, the chip is increased in intensity, and the high-order light of the diffracted light reflected by the surface of the upper substrate 12 is suppressed from adversely affecting the image quality.
  • a CSP type solid-state image sensor having a cavityless structure can be used.
  • the display unit 305 is composed of a thin display such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display, and displays a moving image or a still image captured by the solid-state imaging device 302.
  • the recording unit 306 records the moving image or still image captured by the solid-state image sensor 302 on a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 307 issues operation commands for various functions of the image pickup apparatus 300 under the operation of the user.
  • the power supply unit 308 appropriately supplies various power sources that serve as operating power sources for the DSP circuit 303, the frame memory 304, the display unit 305, the recording unit 306, and the operation unit 307 to these supply targets.
  • the solid-state image pickup device 1 As described above, by using the solid-state image pickup device 1 to which each of the above-described embodiments is applied as the solid-state image pickup device 302, it is possible to improve the chip strength and the image quality. Therefore, the image quality of the captured image can be improved even in the image pickup device 300 such as a video camera, a digital still camera, and a camera module for mobile devices such as mobile phones.
  • the image pickup device 300 such as a video camera, a digital still camera, and a camera module for mobile devices such as mobile phones.
  • FIG. 26 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 26 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for tissue cauterization, incision, blood vessel sealing, and the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 27 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 26.
  • the camera head 11102 includes a lens unit 11401, an image pickup unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image pickup element constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the image pickup unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques.
  • the control unit 11413 detects a surgical tool such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 11112, etc. by detecting the shape, color, etc. of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can surely proceed with the surgery.
  • the transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the lens unit 11401 and the image pickup unit 11402 of the camera head 11102 among the configurations described above.
  • the solid-state image sensor 1 according to each embodiment can be applied as the lens unit 11401 and the image pickup unit 11402.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 28 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 29 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the vehicle 12100 has an imaging unit 12101, 12102, 12103, 12104, 12105 as an imaging unit 12031.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the image pickup units 12101 and 12105 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 29 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object in the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031 among the configurations described above.
  • the solid-state image sensor 1 according to each embodiment can be applied as the image pickup unit 12031.
  • this technology is not limited to application to a solid-state image sensor that detects the distribution of the incident light amount of visible light and captures it as an image, but is also a solid that captures the distribution of the incident amount of infrared rays, X-rays, particles, etc. as an image. It can be applied to image sensors and, in a broad sense, solid-state image sensors (physical quantity distribution detection devices) such as fingerprint detection sensors that detect the distribution of other physical quantities such as pressure and capacitance and capture images as images. be.
  • this technology is applicable not only to a solid-state image sensor but also to all semiconductor devices having other semiconductor integrated circuits.
  • the present technology can have the following configurations.
  • a semiconductor substrate in which a photoelectric conversion unit is formed for each pixel, An on-chip lens formed on the light incident surface side of the semiconductor substrate and A translucent substrate that protects the on-chip lens, A bonding resin for bonding between the translucent substrate and the on-chip lens is provided.
  • the first surface of the translucent substrate on the light incident surface side is flat.
  • the second surface of the translucent substrate facing the first surface is a solid-state image sensor having different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof.
  • D be the difference between the thickness of the central region and the thickness of the outer peripheral region of the translucent substrate, and A be the thickness of the bonding resin in the central region.
  • the minimum value of the predetermined width L is The solid-state image sensor according to (5) or (6) above.
  • (8) The solid-state image sensor according to any one of (1) to (7) above, wherein the pixel region is composed of an effective pixel region and an OPB region.
  • (9) The solid-state image sensor according to any one of (1) to (8) above, wherein the planar shape of the outer peripheral region of the translucent substrate is rectangular.
  • the upper portion of the inner peripheral side surface of the outer peripheral region of the translucent substrate on the central region side is formed in an arc shape.
  • the solid-state image pickup device according to any one of (1) to (14), wherein the upper portion and the lower portion of the inner peripheral side surface on the central region side of the outer peripheral region of the translucent substrate are formed in an arc shape.
  • the second surface of the translucent substrate facing the first surface has different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof.
  • a method for manufacturing a solid-state image sensor in which a translucent substrate and an on-chip lens are bonded via a bonding resin (19) The translucent substrate in a wafer state in which the central region of each chip region is formed thinner than the outer peripheral region is bonded to the upper side of the on-chip lens with the bonding resin, and then cut into chip units (18). ). The method for manufacturing a solid-state image pickup device. (20) A semiconductor substrate in which a photoelectric conversion unit is formed for each pixel, An on-chip lens formed on the light incident surface side of the semiconductor substrate and A translucent substrate that protects the on-chip lens, A bonding resin for bonding between the translucent substrate and the on-chip lens is provided. The first surface of the translucent substrate on the light incident surface side is flat. The second surface of the translucent substrate facing the first surface is a solid-state image sensor having different thicknesses in the central region facing the pixel region of the semiconductor substrate and the outer peripheral region thereof. Electronic equipment to be equipped.
  • 1 solid-state imaging device 11 lower substrate, 12 upper substrate, 13 laminated substrate, 21 semiconductor substrate (silicon substrate), 24 internal electrodes, 25 solder bumps, 27 rewiring, 31 semiconductor substrate (silicon substrate), 32 wiring layer, 33 on-chip lens, 35 interlayer insulating film, 36 bonding resin, 37 translucent substrate, 41 central area, 42 outer peripheral area, 43 pixel area, 51 pixels, 71 photodiode, 91 effective pixel area, 92 OPB area, 93.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本技術は、キャビティレス構造のCSP型固体撮像装置において、フレアを抑制できるようにする固体撮像装置およびその製造方法、並びに電子機器に関する。 固体撮像装置は、光電変換部が画素ごとに形成された半導体基板と、半導体基板の光入射面側に形成されたオンチップレンズと、オンチップレンズを保護する透光性基板と、透光性基板とオンチップレンズとの間を接合する接合用樹脂とを備え、透光性基板の光入射面側の第1の面は平坦であり、透光性基板の第1の面と対向する第2の面は、半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している。本技術は、例えば、キャビティレス構造のCSP型固体撮像装置等に適用できる。

Description

固体撮像装置およびその製造方法、並びに電子機器
 本技術は、固体撮像装置およびその製造方法、並びに電子機器に関し、特に、フレアを抑制できるようにした固体撮像装置およびその製造方法、並びに電子機器に関する。
 半導体装置の小型化の要求に対して、半導体装置をチップサイズまで小型化したCSP(Chip Size Package)がある。
 固体撮像装置のCSPにおいては、複数の画素が配置された画素領域を封止するため、半導体基板に対してガラス基板を接合する構造として、半導体基板とガラス基板との間に空隙が設けられるキャビティ構造と、空隙が設けられないキャビティレス構造とがある(例えば、特許文献1参照)。
 例えば、キャビティ構造のCSP型固体撮像装置では、半導体基板の表面で反射してガラス基板に入射した回折光の高次光は、ガラス基板の表面(上面)で全反射し、次にガラス基板の裏面(下面)で全反射する。これにより、回折光の高次光が画素領域に戻ることが回避される。
国際公開第2017/163924号
 これに対し、キャビティレス構造のCSP型固体撮像装置では、半導体基板の表面で反射してガラス基板に入射した回折光の高次光が、ガラス基板の表面で全反射した後に裏面で全反射することなく、画素領域に戻ってしまうことがある。即ち、キャビティレス構造では、半導体基板とガラス基板との間が、ガラス基板と同程度の屈折率の樹脂で空隙なく埋め込まれているため、ガラス基板の上面で全反射した反射光が、ガラス基板と樹脂との界面で反射せずに、そのまま半導体基板の画素領域へ戻り、回折光の高次光が、リング状のフレアとなって画質に悪影響を及ぼすことがある。
 本技術は、このような状況に鑑みてなされたものであり、キャビティレス構造のCSP型固体撮像装置において、フレアを抑制できるようにするものである。
 本技術の第1の側面の固体撮像装置は、
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と、
 前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
 を備え、
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している。
 本技術の第2の側面の固体撮像装置の製造方法は、
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と
 を備える固体撮像装置の
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有し、
 前記透光性基板と前記オンチップレンズとの間を接合用樹脂を介して接合する。
 本技術の第3の側面の電子機器は、
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と、
 前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
 を備え、
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している
 固体撮像装置
 を備える。
 本技術の第1乃至第3の側面においては、光電変換部が画素ごとに形成された半導体基板と、前記半導体基板の光入射面側に形成されたオンチップレンズと、前記オンチップレンズを保護する透光性基板と、前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂とが設けられ、前記透光性基板の光入射面側の第1の面は平坦であり、前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している。
 固体撮像装置及び電子機器は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本技術を適用した固体撮像装置の第1実施の形態の構成例を示す断面図である。 図1の透光性基板の平面図である。 下側基板と上側基板それぞれの構成例を示す斜視図である。 固体撮像装置の回路構成例を示す図である。 画素の回路構成例を示す図である。 キャビティレス構造の問題を説明する図である。 図1の固体撮像装置の端部付近の断面図である。 OPB領域がある場合の端部付近の断面図である。 図1の固体撮像装置の製造方法を説明する図である。 図1の固体撮像装置の製造方法を説明する図である。 図1の固体撮像装置の製造方法を説明する図である。 図1の固体撮像装置の製造方法を説明する図である。 図1の固体撮像装置の製造方法を説明する図である。 ウエハ状態の透光性基板の平面図である。 透光性基板のその他の第1の形状例を示す図である。 図15のウエハ状態の透光性基板の平面図である。 透光性基板のその他の第2の形状例を示す図である。 図17のウエハ状態の透光性基板の平面図である。 本技術を適用した固体撮像装置の第2実施の形態の構成例を示す断面図である。 本技術を適用した固体撮像装置の第3実施の形態の構成例を示す断面図である。 本技術を適用した固体撮像装置の第4実施の形態の構成例を示す断面図である。 本技術を適用した固体撮像装置の第5実施の形態の構成例を示す断面図である。 カラーフィルタ層を備える場合の端部付近の断面図である。 イメージセンサの使用例を説明する図である。 本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.固体撮像装置の第1実施の形態
2.固体撮像装置の回路構成例
3.図1の装置構造の効果
4.距離Lの導出
5.固体撮像装置の製造方法
6.透光性基板のその他の形状例
7.固体撮像装置の第2実施の形態
8.固体撮像装置の第3実施の形態
9.固体撮像装置の第4実施の形態
10.固体撮像装置の第5実施の形態
11.カラーフィルタ層を備える構成例
12.イメージセンサの使用例
13.電子機器への適用例
14.内視鏡手術システムへの応用例
15.移動体への応用例
 なお、以下の説明で参照する図面において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は実際のものとは異なる。また、図面相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれる。
<1.固体撮像装置の第1実施の形態>
 図1は、本技術を適用した固体撮像装置の第1実施の形態の構成例を示す断面図である。
 図1に示される固体撮像装置1は、下側基板11と上側基板12とが積層されて構成された積層基板13がパッケージ化された半導体パッケージである。下側基板11と上側基板12は、一点鎖線で示される面で接合されている。
 下側基板11には、例えばシリコン(Si)で構成された半導体基板21(以下、シリコン基板21という。)の上側(上側基板12側)に、多層配線層22が形成されている。この多層配線層22は、複数の配線層(不図示)とその間の層間絶縁膜23とで構成されている。
 多層配線層22が形成された下側基板11のおもて面側と反対の裏面側には、外部のモジュール基板と電気的に接続するための裏面電極であるはんだバンプ25が、複数、形成されている。下側基板11の裏面側のはんだバンプ25以外の領域は、保護膜26で覆われている。保護膜26の材料には、例えば、有機材料であるソルダレジストが用いられる。
 はんだバンプ25は、シリコン基板21の裏側上面に形成された再配線27の上に形成されており、再配線27は、シリコン基板21を貫通する接続導体28を介して、おもて面側の多層配線層22の配線層の一部である内部電極24と電気的に接続されている。再配線27および接続導体28は、例えば、銅(Cu)、タングステン(W)、チタン(Ti)、タンタル(Ta)、チタンタングステン合金(TiW)、ポリシリコンなどで形成することができる。なお、図示は省略されているが、再配線27および接続導体28と、シリコン基板21との間は、絶縁膜で絶縁されている。
 一方、上側基板12は、例えばシリコン(Si)で構成された半導体基板31(以下、シリコン基板31という。)と、シリコン基板31の一方の面に形成された配線層32と、他方の面に形成されたオンチップレンズ33とを備える。
 シリコン基板31には、光電変換部としてのフォトダイオード71が画素単位に形成されており、オンチップレンズ33も、フォトダイオード71に対応して画素単位に形成されている。オンチップレンズ33は、画素領域43の端部でのレンズ形状崩れを防ぐため、画素領域43の端部ではパターンの連続性を保つように、画素領域43よりも外側まで形成されている。
 シリコン基板31のおもて面に形成された配線層32は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などの金属膜と、例えば、シリコン酸化膜、シリコン窒化膜などの層間絶縁膜とを含み、下側基板11の多層配線層22と、一点鎖線で示される面で、例えば、Cu-CU接合などの金属接合により電気的に接続されている。
 シリコン基板31の裏面に形成されたオンチップレンズ33は、シリコン基板31の上面に形成された平坦化膜34の上側に形成されており、オンチップレンズ33の上側は、層間絶縁膜35で平坦に形成されている。層間絶縁膜35は、オンチップレンズ33の材料よりも屈折率の低い材料で形成され、オンチップレンズ33と、その上の層間絶縁膜35とで屈折率差を設けることにより、オンチップレンズ33の集光力を高めている。また、層間絶縁膜35の屈折率は、その上の接合用樹脂36の屈折率よりも低い。接合用樹脂36の屈折率をn、層間絶縁膜35の屈折率をn、オンチップレンズ33の屈折率をnとすると、(層間絶縁膜35の屈折率n)<(接合用樹脂36の屈折率n)<<(オンチップレンズ33の屈折率n)となっている。接合用樹脂36の屈折率nは、透光性基板37と同じである。
 層間絶縁膜35のさらに上側には、透光性基板37が接合用樹脂36により接合されている。透光性基板37は、例えば、ガラス基板などの透光性を有する基板である。透光性基板37は、オンチップレンズ33を保護する機能も有している。
 透光性基板37の光入射面側である第1の面(上面)は、平坦に形成されている。一方、透光性基板37の第1の面と対向する第2の面(下面)は、図1に示されるように、画素領域43に向かい合う中央領域41と、その外側のチップ外周部である外周領域42とで、異なる厚みを有している。具体的には、中央領域41の厚みT1は、例えば、20ないし30μm程度の厚みとされ、外周領域42の厚みT2は、例えば、50ないし60μm程度の厚みとされており、外周領域42よりも中央領域41の厚みが薄く形成されている。
 透光性基板37の厚みが薄い部分である中央領域41は、フォトダイオード71が画素単位に形成された上側基板12の画素領域43から、所定の幅L(>0)だけ外側に拡げた領域となっている。外周領域42の幅M(>0)は、外部からの衝撃による割れやクラック等の破損を防止するため、一定以上の幅が必要であり、例えば、30μm以上とされる。
 画素領域43と、薄い厚みT1で形成された中央領域41と、それよりも厚い厚みT2で形成された外周領域42の配置関係を、平面視でみると、図2のようになる。
 図2は、透光性基板37の平面図であり、図2では、中央領域41と外周領域42との区別を容易にするため、外周領域42にハッチングを付している。
 透光性基板37の中央領域41は、平面視で、画素領域43の周囲をさらに距離Lだけ拡張した領域であり、外周領域42は、中央領域41の周囲から上下左右方向に距離Mの領域で形成された矩形状である。
 以上のような構造を有する固体撮像装置1は、フォトダイオード71が画素単位に形成されているシリコン基板31の裏面側にオンチップレンズ33が形成され、裏面側から光が入射される裏面照射型の固体撮像装置である。
 また、固体撮像装置1は、オンチップレンズ33を保護する透光性基板37が、上側基板12の層間絶縁膜35と、接合用樹脂36により空隙なく接合されたキャビティレス構造の固体撮像装置である。
 図3は、下側基板11と上側基板12それぞれの構成例を示す斜視図である。
 上側基板12には、光電変換部であるフォトダイオード71と、フォトダイオード71で生成された電荷を転送する転送トランジスタ等が画素単位に形成された画素領域43のみが配置され、下側基板11に、各画素の制御を行う制御回路44と、各画素から出力された画素信号を処理する信号処理回路などのロジック回路45が配置される。
 このように、制御回路44及びロジック回路45の両方を、画素領域43の上側基板12とは別の下側基板11に形成して積層させることで、1枚の半導体基板に、画素領域43、制御回路44、およびロジック回路45を平面方向に配置した場合と比較して、固体撮像装置1としてのサイズを小型化することができる。
<2.固体撮像装置の回路構成例>
 図4および図5を参照して、固体撮像装置1の回路構成について説明する。
 図4は、固体撮像装置1の回路構成例を示している。
 固体撮像装置1は、画素51が2次元格子状に配列された画素アレイ部52と、垂直駆動回路53、カラム信号処理回路54、水平駆動回路55、制御回路56、出力回路57、入出力端子58などを含む。
 画素51は、フォトダイオード71と、複数の画素トランジスタとで構成されるが、画素51の詳細構成例については、図5を参照して後述する。
 垂直駆動回路53は、例えばシフトレジスタによって構成され、所定の画素駆動配線61を選択し、選択された画素駆動配線61に画素51を駆動するためのパルスを供給し、行単位で画素51を駆動する。すなわち、垂直駆動回路53は、画素アレイ部52の各画素51を行単位で順次垂直方向に選択走査し、各画素51の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線62を通してカラム信号処理回路54に供給する。
 カラム信号処理回路54は、画素51の列ごとに配置されており、1行分の画素51から出力される信号を画素列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路54は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)およびAD変換等の信号処理を行う。
 水平駆動回路55は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路54の各々を順番に選択し、カラム信号処理回路54の各々から画素信号を水平信号線63に出力させる。
 制御回路56は、入力クロックと、動作モードなどを指令するデータを受け取り、装置全体の動作およびタイミングを制御する。より具体的には、制御回路56は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路53、カラム信号処理回路54、及び、水平駆動回路55などの動作の基準となるクロック信号や制御信号を生成する。そして、制御回路56は、生成したクロック信号や制御信号を、垂直駆動回路53、カラム信号処理回路54、及び、水平駆動回路55等に出力する。
 出力回路57は、カラム信号処理回路54の各々から水平信号線63を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路57は、例えば、バファリングだけする場合もあるし、黒レベル調整、列ばらつき補正、などの各種のデジタル信号処理などを行う場合もある。入出力端子58は、外部と信号のやりとりをする。
 以上のように構成される固体撮像装置1は、CDS処理とAD変換処理を行うカラム信号処理回路54が画素列ごとに配置されたカラムAD方式と呼ばれるCMOSイメージセンサである。
<画素回路の例>
 図5は、画素51の回路構成例を示している。
 図5に示される画素51は、電子式のグローバルシャッタ機能を実現する構成を示している。
 画素51は、フォトダイオード71、第1転送トランジスタ72、メモリ部(MEM)73、第2転送トランジスタ74、FD(フローティング拡散領域)75、リセットトランジスタ76、増幅トランジスタ77、選択トランジスタ78、及び、排出トランジスタ79を有する。
 フォトダイオード71は、受光量に応じた電荷(信号電荷)を生成し、蓄積する光電変換部である。フォトダイオード71のアノード端子が接地されているとともに、カソード端子が第1転送トランジスタ72を介してメモリ部73に接続されている。また、フォトダイオード71のカソード端子は、不要な電荷を排出するための排出トランジスタ79とも接続されている。
 第1転送トランジスタ72は、転送信号TRXによりオンされたとき、フォトダイオード71で生成された電荷を読み出し、メモリ部73に転送する。メモリ部73は、FD75に電荷を転送するまでの間、一時的に電荷を保持する電荷保持部である。
 第2転送トランジスタ74は、転送信号TRGによりオンされたとき、メモリ部73に保持されている電荷を読み出し、FD75に転送する。
 FD75は、メモリ部73から読み出された電荷を信号として読み出すために保持する電荷保持部である。リセットトランジスタ76は、リセット信号RSTによりオンされたとき、FD75に蓄積されている電荷が定電圧源VDDに排出されることで、FD75の電位をリセットする。
 増幅トランジスタ77は、FD75の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ77は定電流源としての負荷MOS80とソースフォロワ回路を構成し、FD75に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ77から選択トランジスタ78を介してカラム信号処理回路54(図4)に出力される。負荷MOS80は、例えば、カラム信号処理回路54内に配置されている。
 選択トランジスタ78は、選択信号SELにより画素51が選択されたときオンされ、画素51の画素信号を、垂直信号線62を介してカラム信号処理回路54に出力する。
 排出トランジスタ79は、排出信号OFGによりオンされたとき、フォトダイオード71に蓄積されている不要電荷を定電圧源VDDに排出する。
 転送信号TRX及びTRG、リセット信号RST、排出信号OFG、並びに選択信号SELは、画素駆動配線61を介して垂直駆動回路53から供給される。
 画素51の動作について簡単に説明する。
 まず、露光開始前に、Highレベルの排出信号OFGが排出トランジスタ79に供給されることにより排出トランジスタ79がオンされ、フォトダイオード71に蓄積されている電荷が定電圧源VDDに排出され、全画素のフォトダイオード71がリセットされる。
 フォトダイオード71のリセット後、排出トランジスタ79が、Lowレベルの排出信号OFGによりオフされると、画素アレイ部52の全画素で露光が開始される。
 予め定められた所定の露光時間が経過すると、画素アレイ部52の全画素において、転送信号TRXにより第1転送トランジスタ72がオンされ、フォトダイオード71に蓄積されていた電荷が、メモリ部73に転送される。
 第1転送トランジスタ72がオフされた後、各画素51のメモリ部73に保持されている電荷が、行単位に、順次、カラム信号処理回路54に読み出される。読み出し動作は、読出し行の画素51の第2転送トランジスタ74が転送信号TRGによりオンされ、メモリ部73に保持されている電荷が、FD75に転送される。そして、選択トランジスタ78が選択信号SELによりオンされることで、FD75に蓄積されている電荷に応じたレベルを示す信号が、増幅トランジスタ77から選択トランジスタ78を介してカラム信号処理回路54に出力される。
 以上のように、図5の画素回路を有する画素51は、露光時間を画素アレイ部52の全画素で同一に設定し、露光終了後はメモリ部73に電荷を一時的に保持しておいて、メモリ部73から行単位に順次電荷を読み出すグローバルシャッタ方式の動作(撮像)が可能である。
 なお、画素51の回路構成としては、図5に示した構成に限定されるものではなく、例えば、メモリ部73を持たず、いわゆるローリングシャッタ方式による動作を行う回路構成を採用することもできる。
 また、画素51は、一部の画素トランジスタを複数画素で共有する共有画素構造とすることもできる。例えば、第1転送トランジスタ72、メモリ部73、および、第2転送トランジスタ74を画素51単位に有し、FD75、リセットトランジスタ76、増幅トランジスタ77、および、選択トランジスタ78を4画素等の複数画素で共有する構成などを取り得る。
<3.図1の装置構造の効果>
 図6を参照して、図1の固体撮像装置1が解決しようとするキャビティレス構造の問題について説明する。
 透光性基板37と、上側基板12のオンチップレンズ33との間が、接合用樹脂36により空隙なく接合されたキャビティレス構造では、図6の上段に示されるように、上側基板12の表面等で反射して透光性基板37に入射した回折光の高次光が、透光性基板37のおもて面(上面)で全反射した後に裏面(下面)で全反射することなく、画素領域43に戻ってしまうことがある。
 即ち、キャビティレス構造では、上側基板12と透光性基板37との間が、透光性基板37と同程度の屈折率の接合用樹脂36で空隙なく埋め込まれているため、透光性基板37の上面で全反射した反射光が、透光性基板37と接合用樹脂36との界面で反射せずに、そのまま上側基板12の画素領域43へ戻り、回折光の高次光が、リング状のフレアとなって画質に悪影響を及ぼすことがある。
 高次の回折光によるフレアを改善するためには、透光性基板37と接合用樹脂36の厚みを薄く形成することが望ましい。透光性基板37と接合用樹脂36の厚みを薄く形成した場合、図6の下段に示されるように、リングフレアの発生位置を入射光の光源位置に近づけることができ、光源と一体化させることで、フレアの視認性を下げることができる。
 しかしながら、透光性基板37と接合用樹脂36の厚みを薄く形成した場合、次のような問題が発生する。
 透光性基板37の厚みを薄くした場合、強度が低下し、特に、チップの端部において、外部からの衝撃などによりガラス等の材料の透光性基板37が割れることがある。
 一方、接合用樹脂36は、透光性基板37がガラス基板である場合に、ガラス基板から発生するアルファ線を抑止する機能を有しているが、接合用樹脂36の厚みを薄くした場合には、アルファ線を抑止する機能が十分果たせず、透光性基板37からのアルファ線に起因した電子が光電変換部で発生し、白キズと呼ばれる欠陥となる場合がある。
 そこで、固体撮像装置1は、図1で示したように、装置表面となる透光性基板37の上面を平坦に形成しつつ、画素領域43に向かい合う中央領域41の透光性基板37の厚みT1を薄く形成することで、接合用樹脂36の厚みを確保し、透光性基板37から発生するアルファ線を抑止する機能を十分に発揮させた構造となっている。
 また、透光性基板37の端部を含む外周領域42の厚みT2を、中央領域41の厚みT1よりも厚く形成することで、強度を確保し、外部からの衝撃などによる破損を防止する。一方、外周領域42について接合用樹脂36の膜厚をみると、画素領域43よりも薄く形成されている。
 すなわち、平面視で画素領域43に重なる中央領域41では、アルファ線を抑止するため、接合用樹脂36の厚みを確保し、透光性基板37は薄く形成される。反対に、画素領域43に重ならない外周領域42では、アルファ線を抑止する機能は不要となるため、接合用樹脂36の膜厚を薄くする代わりに、透光性基板37の厚みを厚く形成して、強度が確保されている。
 このように、接合用樹脂36および透光性基板37の厚みを、中央領域41と外周領域42とで、必要に応じて一方を厚くし、他方を薄くすることで、全体としての厚みを薄く形成することができ、高次の回折光によるフレアを改善している。
 したがって、固体撮像装置1の上記構造によれば、高次の回折光によるフレアを改善するとともに、白キズの発生防止と、透光性基板37の強度確保を実現している。
<4.距離Lの導出>
 図1および図2に示したように、透光性基板37の厚みが薄い中央領域41は、画素領域43から、所定の幅Lだけ外側に拡げた領域とされるが、この幅Lをどれだけ確保する必要があるかについて説明する。
 図7は、図1の固体撮像装置1の端部付近の断面図である。
 平面視で画素領域43に重なる中央領域41における接合用樹脂36の膜厚をAとすると、この膜厚Aが、アルファ線を阻止するために一定値以上の厚みが必要であり、例えば、50μmとする。
 透光性基板37の中央領域41の厚みT1と、外周領域42の厚みT2との厚みの差をD(以下、段差Dという。)とし、透光性基板37の外周領域42の最も画素領域43に近接する底面内側の角部をPとする。
 画素領域43の平面に垂直な方向の膜厚Aが、アルファ線を阻止するために一定値以上の厚みが必要であるとともに、透光性基板37の外周領域42の最も画素領域43に近接する底面内側の角部Pと画素領域43の端部との距離Bも同様に、膜厚Aと等距離だけ離れている必要がある。
 したがって、設定される距離Lは、距離Bが少なくとも距離Aだけ離れる距離である。
 距離Aと、距離(A-D)と、距離Bとは、
 B=(A-D)+L
の関係にあるから、Lを左辺にして変形すると、
Figure JPOXMLDOC01-appb-M000002
と表すことができ、距離Bの最小値が距離Aになるので、BにAを代入すると、
Figure JPOXMLDOC01-appb-M000003
と表すことができる。
 したがって、例えば、距離Aを50μm、段差Dを10μmとすると、距離Lは、30μmとなるので、距離Lは少なくとも30μm以上に設定する必要がある。
<OPB領域がある場合>
 なお、図8に示されるように、画素領域43が、有効画素領域91とOPB領域92とで構成されている場合もある。有効画素領域91は、入射光の光量に応じた電荷を生成する画素51が配列された領域であり、図1の画素領域43は、全領域が有効画素領域91の例であった。
 OPB領域92は、各画素51のフォトダイオード71の上部に遮光膜93が形成された領域であり、入射光がない黒レベルの基準電位を検出する画素51が配列された領域である。遮光膜93の材料には、例えば、タングステン、アルミニウム、銅などが用いられる。
 このように、画素領域43が有効画素領域91とOPB領域92とで構成される場合は、中央領域41は、OPB領域92の端部から、式(2)の距離Lだけ外側に拡げた領域とされる。
<5.固体撮像装置の製造方法>
 次に、図9ないし図13を参照して、図1の固体撮像装置1の製造方法について説明する。
 固体撮像装置1は、ウエハ状態の半導体基板の各チップ部となる領域(以下、チップ領域と称する。)に所要の回路等を形成するウエハレベルプロセスにより製造される。図9ないし図14は、紙面の都合上、ウエハ状態の半導体基板のうち、平面方向に並ぶ3個のチップ領域に対応する部分について、図1をさらに簡略化して示している。
 初めに、図9のAに示されるように、フォトダイオード71を含む各画素51の回路が形成されたウエハ状態のシリコン基板31と、制御回路44とロジック回路45が形成されたウエハ状態のシリコン基板21とが貼り合わされる。
 より詳しくは、ウエハ状態のシリコン基板31の各チップ領域に、各画素51のフォトダイオード71が形成され、シリコン基板31の一方の面(おもて面)に、配線層32が形成される。また、ウエハ状態のシリコン基板21の一方の面(おもて面)に、制御回路44やロジック回路45となる多層配線層22が形成される。制御回路44やロジック回路45も、各チップ領域に対応して形成される。内部電極24は、ロジック回路45の一部に含まれる。その後、ウエハ状態のシリコン基板31の配線層32と、ウエハ状態のシリコン基板21の多層配線層22が、プラズマ接合や接着剤による接合により貼り合わされる。一点鎖線は、シリコン基板31の配線層32と、シリコン基板21の多層配線層22との接合面を示している。ウエハ状態のシリコン基板31の光入射面側に形成されるオンチップレンズ33と、その上の層間絶縁膜35は、貼り合わせ前に形成してもよいし、貼り合わせた後に形成してもよい。
 次に、図9のBに示されるように、層間絶縁膜35の上面に、接合用樹脂36が形成される。そして、接合用樹脂36により、図10のAに示されるように、ウエハ状態の透光性基板37が接合される。
 接合されるウエハ状態の透光性基板37は、図10のAに示されるように、オンチップレンズ33側の下面の各チップ領域の中央領域41に対応する部分に窪み部が形成されている。すなわち、各チップ領域の中央領域41と外周領域42とで段差Dが形成された状態の透光性基板37が、ウエハ状態のシリコン基板31の光入射面側に接合される。図9のBのように平坦に形成された接合用樹脂36は、窪み部が形成された透光性基板37が接合されると、窪み部まで充填される。
 なお、接合時点での透光性基板37の中央領域41の厚みT3は、完成状態の固体撮像装置1の中央領域41の厚みT1よりも厚い状態である。これにより、この後の工程における取り扱いに必要な強度が確保されている。
 次に、図10のBに示されるように、ウエハ状態のシリコン基板21の裏面側から、多層配線層22の内部電極24に対応する位置に、貫通孔101が形成される。
 次に、図11のAに示されるように、所望領域に開口パターンを設けたレジスト材料をマスクとして電解めっき法等を用いて、内部電極24の上面および貫通孔の内周面の接続導体28と、シリコン基板21の裏面上の再配線27が、同時に形成される。なお、図示は省略されているが、再配線27および接続導体28と、シリコン基板21との間には、絶縁膜が形成されている。再配線27および接続導体28の材料には、例えば、銅(Cu)が用いられ、再配線27の膜厚は、例えば、数μmから数十μmとされる。
 次に、図11のBに示されるように、再配線27上の一部分を開口部102とし、それ以外の再配線27および接続導体28とシリコン基板21の上面が、保護膜26で覆われる。保護膜26の材料には、例えば、有機材料であるソルダレジストが用いられる。開口部102は、はんだバンプ25が形成される部分に相当する。
 次に、図12のAに示されるように、ウエハ状態の透光性基板37が、化学的機械的研磨法(CMP)などにより所望の膜厚に薄膜化される。これにより、中央領域41の透光性基板37厚みがT1となり、外周領域42の厚みがT2となる。
 次に、図12のBに示されるように、ウエハ状態のシリコン基板21および31、並びに、透光性基板37を含む接合基板が、チップ単位に割断される。チップ単位に割断後の外周領域42の幅Mは、例えば30μm以上とされており、外部からの衝撃による破損を防止するために必要な幅が確保されている。
 最後に、図13に示されるように、チップ単位に割断された接合基板のシリコン基板31の開口部102の再配線27上に、はんだバンプ25を形成して、図1の固体撮像装置1が完成する。
 はんだバンプ25は、固体撮像装置1と、それを実装するモジュール基板との接点となる接合部であるが、ボール状のはんだ材料を配置し、熱処理を加えることでバンプ状に形成する以外にも、めっき法により銅やニッケルなどの金属材料を開口部102に形成することによって、はんだバンプ25と同等の裏面電極を形成してもよい。
 以上のように、図1の固体撮像装置1は、ウエハ状態の半導体基板に対して、フォトダイオード71を含む各画素51の回路や、各画素の制御を行う制御回路44とロジック回路45等が、格子状に配列された各チップ領域に同時に形成された後、チップサイズに割断されるウエハレベルプロセスにより製造される。
 透光性基板37は、ウエハ状態において、各チップ領域の中央領域41と外周領域42とで厚みが異なるように予め加工された後、ウエハ状態のシリコン基板21および31と接合される。そして、ウエハ状態のシリコン基板21および31と透光性基板37とが、チップ単位に割断される。
 図14は、中央領域41と外周領域42とで厚みが異なるように形成されたウエハ状態の透光性基板37の平面図である。
 ウエハ状態においては、各チップ領域の中央領域41が段差Dだけ薄くなるように形成され、外周領域42が格子状に形成されている。図14の透光性基板37をチップ単位に割断すると、図2に示した平面図となる。
<6.透光性基板のその他の形状例>
 図15ないし図18を参照して、図1の固体撮像装置1に適用可能な透光性基板37のその他の形状例について説明する。
 図15は、透光性基板37のその他の第1の形状例を示す図である。図15のAは、チップサイズの透光性基板37の斜視図であり、図15のBは、接合用樹脂36との接合面の透光性基板37の平面図である。
 透光性基板37は、図15のBに示されるように、矩形のチップの左右方向の二辺に対応する端部から幅Mの外周部分である厚みT2の外周領域42と、その内側であって、厚みT2よりも薄い厚みT1に形成された中央領域41とを有している。このように、透光性基板37は、矩形のチップの二辺のみに厚みの厚い外周領域42を形成した形状としてもよい。
 矩形のチップの左右方向の二辺のみを厚みの厚い外周領域42とすると、上下方向の二辺の強度が弱いようにも思われるが、チップにかかる応力からすると、強度が必要な個所はチップ四隅の角部である。図15のBからわかるように、チップの四隅は、厚みが厚く形成された外周領域42となっているため、強度が確保されている。
 図16は、図15の透光性基板37をチップ単位に割断する前の、ウエハ状態の透光性基板37の平面図である。
 第1の形状例の透光性基板37は、ウエハ状態では、図16に示されるように、厚みの厚い外周領域42がストライプ状に配置された形状となる。このようにストライプ状に外周領域42を形成することにより、シリコン基板21および31と透光性基板37とを、接合用樹脂36を介してウエハ状態で接合する場合に、図16において上下方向となるストライプに平行な方向の位置ずれ精度を緩和することができる。
 なお、図15および図16は、矩形のチップの左右方向の二辺を外周領域42とした例であるが、上下方向の二辺を外周領域42とした形状でもよい。すなわち、第1の形状例は、矩形のチップの左右方向または上下方向のいずれか一方の二辺に沿った一定幅Mを外周領域42としたライン形状とすることができる。
 図17は、透光性基板37のその他の第2の形状例を示す図である。図17のAは、チップサイズの透光性基板37の斜視図であり、図17のBは、接合用樹脂36との接合面の透光性基板37の平面図である。
 透光性基板37の厚みT2の外周領域42は、図17のBに示されるように、矩形の各辺の中央部を除いて、矩形の各角部から、角部を形成する二辺に沿ってL字状を配置した形状を有している。換言すれば、図17の透光性基板37は、図2の透光性基板37の外周領域42のうち、上下左右の四辺の中央部を中央領域41に変更した形状を有する。このような第2の形状例も、チップの四隅は、厚みが厚く形成された外周領域42となっているため、強度が確保されている。
 図18は、図17の透光性基板37をチップ単位に割断する前の、ウエハ状態の透光性基板37の平面図である。
 第2の形状例の透光性基板37は、ウエハ状態では、図18に示されるように、厚みの厚い外周領域42が十字状に規則的に配置された形状となる。このように十字状に外周領域42を形成することにより、接合用樹脂36が流動可能な流動経路が、各チップ領域の上下左右方向に形成される。すなわち、シリコン基板21および31と透光性基板37とを、接合用樹脂36を介してウエハ状態で接合する場合に、余分な接合用樹脂36が、図18において上下左右方向のいずれかの流動経路を通って排出されるので、特定のチップ領域で余分な接合用樹脂36が滞留して膜厚が厚くなったり、特定のチップ領域で接合用樹脂36が不足して膜厚が薄くなったりすることがない。すなわち、接合用樹脂36の膜厚の均一性を高め、良好な接合を可能とする。
 なお、図17および図18の第2の形状例では、接合用樹脂36の流動経路となる窪みが矩形の各チップ領域の上下左右方向のすべてに形成されているが、少なくとも1つの方向に形成されていればよい。
 また、図18のウエハ状態においては、格子状の各チップ領域の上下左右方向のすべてに、窪みが形成されているが、窪みは任意の方向にのみ形成してもよい。例えば、格子状の各チップ領域の奇数行には右方向の窪みが形成され、偶数行には左方向の窪みを形成してもよい。また、1つおきや2つおきのチップ領域単位で、上下左右方向いずれかの窪みを形成してもよい。
 図15ないし図18に示した第1および第2の形状例においても、平面視で画素領域43に重なる中央領域41では、アルファ線を抑止するため、接合用樹脂36の厚みを確保し、透光性基板37は薄く形成される。反対に、画素領域43に重ならない外周領域42では、接合用樹脂36の膜厚を薄くする代わりに、透光性基板37の厚みを厚く形成して、強度が確保されている。
 また、接合用樹脂36および透光性基板37の厚みを、中央領域41と外周領域42とで、必要に応じて一方を厚くし、他方を薄くすることで、全体としての厚みを薄く形成することができ、高次の回折光によるフレアを改善している。
 したがって、第1および第2の形状例においても、高次の回折光によるフレアを改善するとともに、白キズの発生防止と、透光性基板37の強度確保を実現している。
<7.固体撮像装置の第2実施の形態>
 図19は、本技術を適用した固体撮像装置の第2実施の形態の構成例を示す断面図である。
 図19において、図1に示した第1実施の形態と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図19の第2実施の形態は、図1に示した第1実施の形態においてオンチップレンズ33の上に形成されていた層間絶縁膜35が省略されている。すなわち、図19の固体撮像装置1では、オンチップレンズ33の上に接合用樹脂36が形成されて、そこに透光性基板37が接合されている。
 このように、層間絶縁膜35は省略することができる。ただし、図1で説明したように、オンチップレンズ33よりも屈折率の低い材料を用いてオンチップレンズ33の上に層間絶縁膜35を設けることで、オンチップレンズ33と、その上の層間絶縁膜35とで屈折率差を設けることができ、オンチップレンズ33の集光力を高めることができる。
<8.固体撮像装置の第3実施の形態>
 図20は、本技術を適用した固体撮像装置の第3実施の形態の構成例を示す断面図である。
 図20において、図1に示した第1実施の形態と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図20の第3実施の形態は、透光性基板37の中央領域41と外周領域42との段差部201、換言すれば、透光性基板37の外周領域42の中央領域41側の内周側面が、内側に傾斜したテーパ形状に形成されている点で図1に示した第1実施の形態と異なり、その他の点で第1実施の形態と共通する。
 このように、外周領域42の内周側面をテーパ形状とすることで、段差部201にかかる応力を緩和し、透光性基板37の割れやクラックを防止することが可能になる。さらに、透光性基板37を接合する際の接合用樹脂36の段差部201への埋め込み性を良好にすることができる。
<9.固体撮像装置の第4実施の形態>
 図21は、本技術を適用した固体撮像装置の第4実施の形態の構成例を示す断面図である。
 図21において、図1に示した第1実施の形態と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図21の第4実施の形態は、透光性基板37の中央領域41と外周領域42との段差部202、換言すれば、透光性基板37の外周領域42の中央領域41側の内周側面が、内側に傾斜した円弧状に形成されている点で図1に示した第1実施の形態と異なり、その他の点で第1実施の形態と共通する。段差部202は、図21の断面図で、内周側面の上部となる、中央領域41の底面と外周領域42の内周側面との接続部が円弧状に形成されている。
 このように、外周領域42の内周側面の上部を円弧状とすることで、段差部202にかかる応力を緩和し、透光性基板37の割れやクラックを防止することが可能になる。さらに、透光性基板37を接合する際の接合用樹脂36の段差部202への埋め込み性を良好にすることができる。
<10.固体撮像装置の第5実施の形態>
 図22は、本技術を適用した固体撮像装置の第5実施の形態の構成例を示す断面図である。
 図22において、図1に示した第1実施の形態と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図22の第5実施の形態は、透光性基板37の中央領域41と外周領域42との段差部203、換言すれば、透光性基板37の外周領域42の中央領域41側の内周側面が、内側に傾斜した円弧状に形成されている点で図1に示した第1実施の形態と異なり、その他の点で第1実施の形態と共通する。段差部203は、図22の断面図で、内周側面の上部および下部の両方の接続部が円弧状に形成されている。内周側面の上部の接続部は、中央領域41の底面と外周領域42の内周側面との接続部であり、内周側面の下部の接続部は、外周領域42の内周側面と底面との接続部である。
 このように、外周領域42の内周側面の上部および下部を円弧状とすることで、段差部203にかかる応力を緩和し、透光性基板37の割れやクラックを防止することが可能になる。また、透光性基板37を接合する際の接合用樹脂36の段差部203への埋め込み性を良好にすることができる。さらに、外周領域42の内周側面の位置をより画素領域43に近づけることが可能になり、チップ強度をより高めることができる。
 上述した第2乃至第5実施の形態の透光性基板37の形状は、図2に示した外周領域42が中央領域41の周囲を囲む外周領域42の配置に限らず、図15ないし図18に示した第1および第2の形状例においても、同様に適用できる。
<11.カラーフィルタ層を備える構成例>
 上述した各実施の形態では、カラーフィルタ層について言及してこなかったが、固体撮像装置1においては、画素単位に形成されたフォトダイオード71の上側にカラーフィルタ層を備えることも一般的である。
 図23は、固体撮像装置1がカラーフィルタ層を備える場合の構成例を示す断面図である。
 なお、図23は、図8と同様に、OPB領域92を有する場合の端部付近の断面図を示している。
 固体撮像装置1がカラーフィルタ層を備える場合、図23に示されるように、オンチップレンズ33と遮光膜93との間に、カラーフィルタ層94が形成される。仮に、画素領域43が、遮光膜93が形成されるOPB領域92を含まず、有効画素領域91のみで構成される場合には、カラーフィルタ層94は、オンチップレンズ33と平坦化膜34との間に形成される。
 カラーフィルタ層94は、R(Red)、G(Green)、B(Blue)などの所定の波長の光を透過させる層であり、例えば、図23に示されるように、画素アレイ部52の各行において、R,G,Bの各色が画素単位に順番に繰り返し配置されている。なお、カラーフィルタ層94の各画素51に配置される色の配列は、この例に限られない。例えば、ベイヤ配列や、R,G,B,W(White)などを組み合わせた配列であってもよい。Wは、全波長の光を透過させる層である。
 また、オンチップレンズ33が、画素領域43の端部でのレンズ形状崩れを防ぐため、画素領域43よりも外側まで形成されるのに合わせて、カラーフィルタ層94も、下地の連続性を確保するため、画素領域43よりも外側まで形成される。フォトダイオード71に光が入射されないOPB領域92や画素領域43よりも外側のカラーフィルタ層94は、同色とすることができる。図23の例では、Bの色としているが、他の色でもよい。
 オンチップレンズ33と遮光膜93との間にカラーフィルタ層94を配置した場合、カラーフィルタ層94の下側の絶縁層の材料は、カラーフィルタ層94の上側のオンチップレンズ33の材料と異なる材料であってもよい。
 以上、説明したキャビティレス構造のCSP型固体撮像装置である固体撮像装置1において、画素領域43に対応した中央領域41の透光性基板37の膜厚を、外周領域42に対して薄く形成することで、チップの強度を高めつつ、光入射面側のトータルの厚みを抑えることができるので、入射光が上側基板12の表面で反射された回折光の高次光が画質に及ぼす悪影響を抑制することが可能になる。
<12.イメージセンサの使用例>
 図24は、上述の固体撮像装置1を用いたイメージセンサの使用例を示す図である。
 上述の固体撮像装置1を用いたイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<13.電子機器への適用例>
 本技術は、固体撮像装置への適用に限られるものではない。即ち、本技術は、デジタルスチルカメラやビデオカメラ等の撮像装置や、撮像機能を有する携帯端末装置や、画像読取部に固体撮像装置を用いる複写機など、画像取込部(光電変換部)に固体撮像装置を用いる電子機器全般に対して適用可能である。固体撮像装置は、ワンチップとして形成された形態であってもよいし、撮像部と信号処理部または光学系とがまとめてパッケージングされた撮像機能を有するモジュール状の形態であってもよい。
 図25は、本技術を適用した電子機器としての、撮像装置の構成例を示すブロック図である。
 図25の撮像装置300は、レンズ群などからなる光学部301、図1の固体撮像装置1の構成が採用される固体撮像装置(撮像デバイス)302、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路303を備える。また、撮像装置300は、フレームメモリ304、表示部305、記録部306、操作部307、および電源部308も備える。DSP回路303、フレームメモリ304、表示部305、記録部306、操作部307および電源部308は、バスライン309を介して相互に接続されている。
 光学部301は、被写体からの入射光(像光)を取り込んで固体撮像装置302の撮像面上に結像する。固体撮像装置302は、光学部301によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この固体撮像装置302として、図1の固体撮像装置1、即ち、チップの強度を高めたうえで、入射光が上側基板12の表面で反射された回折光の高次光が画質に及ぼす悪影響を抑制したキャビティレス構造のCSP型固体撮像装置を用いることができる。
 表示部305は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等の薄型ディスプレイで構成され、固体撮像装置302で撮像された動画または静止画を表示する。記録部306は、固体撮像装置302で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部307は、ユーザによる操作の下に、撮像装置300が持つ様々な機能について操作指令を発する。電源部308は、DSP回路303、フレームメモリ304、表示部305、記録部306および操作部307の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、固体撮像装置302として、上述した各実施の形態を適用した固体撮像装置1を用いることで、チップ強度と画質の向上を実現することができる。従って、ビデオカメラやデジタルスチルカメラ、さらには携帯電話機等のモバイル機器向けカメラモジュールなどの撮像装置300においても、撮像画像の高画質化を図ることができる。
<14.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図26は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図26では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図27は、図26に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、カメラヘッド11102のレンズユニット11401及び撮像部11402に適用され得る。具体的には、レンズユニット11401及び撮像部11402として、各実施の形態に係る固体撮像装置1を適用することができる。レンズユニット11401及び撮像部11402に本開示に係る技術を適用することにより、カメラヘッド11102を小型化しつつも、より鮮明な術部画像を得ることができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<15.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図28の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図29は、撮像部12031の設置位置の例を示す図である。
 図29では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、撮像部12031として、各実施の形態に係る固体撮像装置1を適用することができる。撮像部12031に本開示に係る技術を適用することにより、小型化しつつも、より見やすい撮影画像を得ることができる。また、得られた撮影画像を用いて、ドライバの疲労を軽減したり、ドライバや車両の安全度を高めることが可能になる。
 また、本技術は、可視光の入射光量の分布を検知して画像として撮像する固体撮像装置への適用に限らず、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する固体撮像装置や、広義の意味として、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の固体撮像装置(物理量分布検知装置)全般に対して適用可能である。
 また、本技術は、固体撮像装置に限らず、他の半導体集積回路を有する半導体装置全般に対して適用可能である。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
(1)
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と、
 前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
 を備え、
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している
 固体撮像装置。
(2)
 前記透光性基板の前記中央領域の厚みは、前記外周領域の厚みよりも薄く形成されている
 前記(1)に記載の固体撮像装置。
(3)
 前記接合用樹脂は、前記中央領域と前記外周領域とで異なる厚みを有している
 前記(1)または(2)に記載の固体撮像装置。
(4)
 前記接合用樹脂の前記中央領域の厚みは、前記外周領域の厚みよりも厚く形成されている
 前記(3)に記載の固体撮像装置。
(5)
 前記中央領域は、平面視で、前記画素領域から所定の幅L(>0)だけ外側に拡げた領域である
 前記(1)乃至(4)のいずれかに記載の固体撮像装置。
(6)
 前記画素領域の端部と、前記外周領域の前記透光性基板の底面内側の角部との距離は、前記所定の幅Lである
 前記(5)に記載の固体撮像装置。
(7)
 前記透光性基板の前記中央領域の厚みと前記外周領域の厚みの差をD、前記中央領域の前記接合用樹脂の厚みをAとすると、
 前記所定の幅Lの最小値は、
Figure JPOXMLDOC01-appb-M000004
である
 前記(5)または(6)に記載の固体撮像装置。
(8)
 前記画素領域は、有効画素領域とOPB領域とで構成される
 前記(1)乃至(7)のいずれかに記載の固体撮像装置。
(9)
 前記透光性基板の前記外周領域の平面形状は矩形状である
 前記(1)乃至(8)のいずれかに記載の固体撮像装置。
(10)
 前記透光性基板の前記外周領域の平面形状は、矩形の左右方向または上下方向のいずれか一方の二辺に沿ったライン形状である
 前記(1)乃至(8)のいずれかに記載の固体撮像装置。
(11)
 前記透光性基板の前記外周領域の平面形状は、L字状を矩形の各角部に配置した形状である
 前記(1)乃至(8)のいずれかに記載の固体撮像装置。
(12)
 前記透光性基板は、前記中央領域よりも厚く形成された矩形の前記外周領域の上下左右方向の少なくとも1つの方向に窪みを有する
 前記(1)乃至(8)のいずれかに記載の固体撮像装置。
(13)
 前記オンチップレンズの上に層間絶縁膜をさらに備え、
 前記接合用樹脂は、前記透光性基板と前記層間絶縁膜とを接合する
 前記(1)乃至(12)のいずれかに記載の固体撮像装置。
(14)
 前記接合用樹脂は、前記透光性基板と前記オンチップレンズとを接合する
 前記(1)乃至(12)のいずれかに記載の固体撮像装置。
(15)
 前記透光性基板の前記外周領域の前記中央領域側の内周側面が、テーパ形状に形成されている
 前記(1)乃至(14)のいずれかに記載の固体撮像装置。
(16)
 前記透光性基板の前記外周領域の前記中央領域側の内周側面の上部が、円弧状に形成されている
 前記(1)乃至(14)のいずれかに記載の固体撮像装置。
(17)
 前記透光性基板の前記外周領域の前記中央領域側の内周側面の上部および下部が、円弧状に形成されている
 前記(1)乃至(14)のいずれかに記載の固体撮像装置。
(18)
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と
 を備える固体撮像装置の
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有し、
 前記透光性基板と前記オンチップレンズとの間を接合用樹脂を介して接合する
 固体撮像装置の製造方法。
(19)
 各チップ領域の前記中央領域が前記外周領域より薄く形成されたウエハ状態の前記透光性基板を、前記オンチップレンズの上側に前記接合用樹脂で接合した後、チップ単位に割断する
 前記(18)に記載の固体撮像装置の製造方法。
(20)
 光電変換部が画素ごとに形成された半導体基板と、
 前記半導体基板の光入射面側に形成されたオンチップレンズと、
 前記オンチップレンズを保護する透光性基板と、
 前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
 を備え、
 前記透光性基板の光入射面側の第1の面は平坦であり、
 前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している
 固体撮像装置
 を備える電子機器。
 1 固体撮像装置, 11 下側基板, 12 上側基板, 13 積層基板, 21 半導体基板(シリコン基板), 24 内部電極, 25 はんだバンプ, 27 再配線, 31 半導体基板(シリコン基板), 32 配線層, 33 オンチップレンズ, 35 層間絶縁膜, 36 接合用樹脂, 37 透光性基板, 41 中央領域, 42 外周領域, 43 画素領域, 51 画素, 71 フォトダイオード, 91 有効画素領域, 92 OPB領域, 93 遮光膜,94 カラーフィルタ層, 201,202,203 段差部, 300 撮像装置, 302 固体撮像装置

Claims (20)

  1.  光電変換部が画素ごとに形成された半導体基板と、
     前記半導体基板の光入射面側に形成されたオンチップレンズと、
     前記オンチップレンズを保護する透光性基板と、
     前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
     を備え、
     前記透光性基板の光入射面側の第1の面は平坦であり、
     前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している
     固体撮像装置。
  2.  前記透光性基板の前記中央領域の厚みは、前記外周領域の厚みよりも薄く形成されている
     請求項1に記載の固体撮像装置。
  3.  前記接合用樹脂は、前記中央領域と前記外周領域とで異なる厚みを有している
     請求項1に記載の固体撮像装置。
  4.  前記接合用樹脂の前記中央領域の厚みは、前記外周領域の厚みよりも厚く形成されている
     請求項3に記載の固体撮像装置。
  5.  前記中央領域は、平面視で、前記画素領域から所定の幅L(>0)だけ外側に拡げた領域である
     請求項1に記載の固体撮像装置。
  6.  前記画素領域の端部と、前記外周領域の前記透光性基板の底面内側の角部との距離は、前記所定の幅Lである
     請求項5に記載の固体撮像装置。
  7.  前記透光性基板の前記中央領域の厚みと前記外周領域の厚みの差をD、前記中央領域の前記接合用樹脂の厚みをAとすると、
     前記所定の幅Lの最小値は、
    Figure JPOXMLDOC01-appb-M000001
    である
     請求項5に記載の固体撮像装置。
  8.  前記画素領域は、有効画素領域とOPB領域とで構成される
     請求項1に記載の固体撮像装置。
  9.  前記透光性基板の前記外周領域の平面形状は矩形状である
     請求項1に記載の固体撮像装置。
  10.  前記透光性基板の前記外周領域の平面形状は、矩形の左右方向または上下方向のいずれか一方の二辺に沿ったライン形状である
     請求項1に記載の固体撮像装置。
  11.  前記透光性基板の前記外周領域の平面形状は、L字状を矩形の各角部に配置した形状である
     請求項1に記載の固体撮像装置。
  12.  前記透光性基板は、前記中央領域よりも厚く形成された矩形の前記外周領域の上下左右方向の少なくとも1つの方向に窪みを有する
     請求項1に記載の固体撮像装置。
  13.  前記オンチップレンズの上に層間絶縁膜をさらに備え、
     前記接合用樹脂は、前記透光性基板と前記層間絶縁膜とを接合する
     請求項1に記載の固体撮像装置。
  14.  前記接合用樹脂は、前記透光性基板と前記オンチップレンズとを接合する
     請求項1に記載の固体撮像装置。
  15.  前記透光性基板の前記外周領域の前記中央領域側の内周側面が、テーパ形状に形成されている
     請求項1に記載の固体撮像装置。
  16.  前記透光性基板の前記外周領域の前記中央領域側の内周側面の上部が、円弧状に形成されている
     請求項1に記載の固体撮像装置。
  17.  前記透光性基板の前記外周領域の前記中央領域側の内周側面の上部および下部が、円弧状に形成されている
     請求項1に記載の固体撮像装置。
  18.  光電変換部が画素ごとに形成された半導体基板と、
     前記半導体基板の光入射面側に形成されたオンチップレンズと、
     前記オンチップレンズを保護する透光性基板と
     を備える固体撮像装置の
     前記透光性基板の光入射面側の第1の面は平坦であり、
     前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有し、
     前記透光性基板と前記オンチップレンズとの間を接合用樹脂を介して接合する
     固体撮像装置の製造方法。
  19.  各チップ領域の前記中央領域が前記外周領域より薄く形成されたウエハ状態の前記透光性基板を、前記オンチップレンズの上側に前記接合用樹脂で接合した後、チップ単位に割断する
     請求項18に記載の固体撮像装置の製造方法。
  20.  光電変換部が画素ごとに形成された半導体基板と、
     前記半導体基板の光入射面側に形成されたオンチップレンズと、
     前記オンチップレンズを保護する透光性基板と、
     前記透光性基板と前記オンチップレンズとの間を接合する接合用樹脂と
     を備え、
     前記透光性基板の光入射面側の第1の面は平坦であり、
     前記透光性基板の前記第1の面と対向する第2の面は、前記半導体基板の画素領域に向かい合う中央領域と、その外側の外周領域とで異なる厚みを有している
     固体撮像装置
     を備える電子機器。
PCT/JP2021/021662 2020-06-22 2021-06-08 固体撮像装置およびその製造方法、並びに電子機器 WO2021261234A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/001,857 US20230238407A1 (en) 2020-06-22 2021-06-08 Solid-state imaging device, method of manufacturing the same, and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020106971 2020-06-22
JP2020-106971 2020-06-22

Publications (1)

Publication Number Publication Date
WO2021261234A1 true WO2021261234A1 (ja) 2021-12-30

Family

ID=79281106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/021662 WO2021261234A1 (ja) 2020-06-22 2021-06-08 固体撮像装置およびその製造方法、並びに電子機器

Country Status (2)

Country Link
US (1) US20230238407A1 (ja)
WO (1) WO2021261234A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007053324A (ja) * 2005-07-20 2007-03-01 Matsushita Electric Ind Co Ltd 固体撮像装置及びその製造方法
JP2012084601A (ja) * 2010-10-07 2012-04-26 Panasonic Corp 光学デバイス及びその製造方法
WO2013179972A1 (ja) * 2012-05-30 2013-12-05 ソニー株式会社 撮像素子、撮像装置、製造装置および方法
JP2015159275A (ja) * 2014-01-27 2015-09-03 ソニー株式会社 撮像素子、製造装置、製造方法
US20200098808A1 (en) * 2018-09-26 2020-03-26 Taiwan Semiconductor Manufacturing Co., Ltd. Wafer level image sensor package
JP2020072187A (ja) * 2018-10-31 2020-05-07 キヤノン株式会社 半導体装置、モジュール、カメラおよび機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007053324A (ja) * 2005-07-20 2007-03-01 Matsushita Electric Ind Co Ltd 固体撮像装置及びその製造方法
JP2012084601A (ja) * 2010-10-07 2012-04-26 Panasonic Corp 光学デバイス及びその製造方法
WO2013179972A1 (ja) * 2012-05-30 2013-12-05 ソニー株式会社 撮像素子、撮像装置、製造装置および方法
JP2015159275A (ja) * 2014-01-27 2015-09-03 ソニー株式会社 撮像素子、製造装置、製造方法
US20200098808A1 (en) * 2018-09-26 2020-03-26 Taiwan Semiconductor Manufacturing Co., Ltd. Wafer level image sensor package
JP2020072187A (ja) * 2018-10-31 2020-05-07 キヤノン株式会社 半導体装置、モジュール、カメラおよび機器

Also Published As

Publication number Publication date
US20230238407A1 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
US11508773B2 (en) Image pickup device and electronic apparatus
JP6947160B2 (ja) 固体撮像素子
WO2019093135A1 (ja) 撮像素子およびその製造方法、並びに電子機器
JP6951866B2 (ja) 撮像素子
WO2018074250A1 (ja) 半導体装置、製造方法、および電子機器
WO2021241019A1 (ja) 撮像素子および撮像装置
US11830898B2 (en) Wafer level lens
WO2020137285A1 (ja) 撮像素子および撮像素子の製造方法
WO2022009693A1 (ja) 固体撮像装置およびその製造方法
US11329092B2 (en) Semiconductor device, manufacturing method of semiconductor device, and electronic equipment
US20230103730A1 (en) Solid-state imaging device
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
WO2021100332A1 (ja) 半導体装置、固体撮像装置及び電子機器
EP4124010A1 (en) Sensor package, method for manufacturing same, and imaging device
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
US20240178079A1 (en) Semiconductor device
US20230335574A1 (en) Imaging device
WO2021192584A1 (ja) 撮像装置およびその製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21829588

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21829588

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP