WO2022009674A1 - 半導体パッケージ及び半導体パッケージの製造方法 - Google Patents

半導体パッケージ及び半導体パッケージの製造方法 Download PDF

Info

Publication number
WO2022009674A1
WO2022009674A1 PCT/JP2021/023698 JP2021023698W WO2022009674A1 WO 2022009674 A1 WO2022009674 A1 WO 2022009674A1 JP 2021023698 W JP2021023698 W JP 2021023698W WO 2022009674 A1 WO2022009674 A1 WO 2022009674A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor package
chip lens
unit
resin layer
image
Prior art date
Application number
PCT/JP2021/023698
Other languages
English (en)
French (fr)
Inventor
佳明 桝田
時久 金口
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/003,448 priority Critical patent/US20230253427A1/en
Publication of WO2022009674A1 publication Critical patent/WO2022009674A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14632Wafer-level processed structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14687Wafer level processing

Definitions

  • This technology relates to a method for manufacturing a semiconductor package and a semiconductor package, and particularly to a method for manufacturing a semiconductor package and a semiconductor package having a WCSP (Wafer Level Chip Size Package) structure.
  • WCSP Wafer Level Chip Size Package
  • This technology was made in view of such a situation, and is intended to improve the quality of the semiconductor package of the WCSP structure.
  • the semiconductor package on the first aspect of the present technology includes a semiconductor substrate including a light receiving element, an on-chip lens arranged on the incident surface side of the semiconductor substrate, and a central portion including the most protruding portion of the on-chip lens.
  • a resin layer in contact with the on-chip lens and a glass substrate in contact with a surface of the resin layer opposite to the surface of the resin layer in contact with the on-chip lens are provided, and the peripheral portion around the central portion of the on-chip lens is provided.
  • a space is provided between the resin layer and the resin layer.
  • the incident light transmitted through the glass substrate and the resin layer passes through the space provided between the peripheral portion of the on-chip lens and the resin layer, and is said to be the on-chip lens. It is incident on the peripheral part.
  • the method for manufacturing a semiconductor package on the second aspect of the present technology includes a coating step of applying a resin to one surface of a glass substrate, a curing step of curing the resin, and a surface on which an on-chip lens of a wafer is formed. Includes a joining step of joining the glass substrate and the surface of the glass substrate coated with the resin.
  • a resin is applied to one surface of the glass substrate, the resin is cured, and the surface on which the on-chip lens of the wafer is formed and the resin of the glass substrate are applied. The surface is joined.
  • FIG. 6 is a cross-sectional view schematically showing a first configuration example near the boundary between the pixel region and the peripheral region of the semiconductor package of FIG. 7.
  • FIG. 6 is a cross-sectional view schematically showing a second configuration example near the boundary between the pixel region and the peripheral region of the semiconductor package of FIG. 7.
  • FIG. 6 is a cross-sectional view schematically showing a third configuration example near the boundary between the pixel region and the peripheral region of the semiconductor package of FIG. 7.
  • It is a flowchart for demonstrating the manufacturing method of the semiconductor package of FIG. It is a figure which shows the application example of the image sensor. It is a figure which shows an example of the schematic structure of an endoscopic surgery system.
  • FIG. 1 is a cross-sectional view schematically showing a configuration example of a semiconductor package 1 having a WCSP structure with a cavity, including a back-illuminated image sensor (image sensor).
  • image sensor image sensor
  • a plurality of layers are laminated in the order of the semiconductor substrate 11, the insulating film 12, the flattening layer 13, the color filter 14, the on-chip lens 15, and the glass substrate 17 from the bottom in the drawing.
  • a light-shielding film 18 for light-shielding between pixels is formed on the flattening layer 13.
  • a space (hereinafter referred to as an air gap) 16 is provided between the on-chip lens 15 and the glass substrate 17.
  • the semiconductor package 1 is generated by forming a condensing structure (color filter 14 and on-chip lens 15) or the like on a wafer made of a semiconductor such as silicon, and then joining the glass substrate 17 to the wafer and separating them into individual pieces. Will be done.
  • FIG. 2 is a cross-sectional view schematically showing a configuration example of a cavityless WCSP structure semiconductor package 31 including a back-illuminated image sensor.
  • the parts corresponding to the semiconductor package 1 in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • the semiconductor package 31 is different from the semiconductor package 1 in that the resin layer 41 is arranged instead of the air gap 16. That is, in the semiconductor package 31, resin is filled between the on-chip lens 15 and the glass substrate 17.
  • the strength of the semiconductor package 31 is improved, and for example, the semiconductor substrate 11 and the glass substrate 17 can be made thinner, and the semiconductor package 31 can be miniaturized and reduced in height.
  • FIG. 3 shows a configuration example of the semiconductor package 31 and the semiconductor package 61 in which the flattening layer 13 is removed from the semiconductor package 31 side by side.
  • the horizontal dotted line on the semiconductor substrate 11 indicates the focusing position of the on-chip lens 15 and the on-chip lens 71.
  • the semiconductor package 61 is different from the semiconductor package 31 in that the flattening layer 13 is removed and the on-chip lens 71 is provided instead of the on-chip lens 15. Further, by removing the flattening layer 13, a light-shielding film 72 that shields light from between pixels is formed in the layer of the color filter 14.
  • the semiconductor package 61 can be made lower than the semiconductor package 31.
  • the distance between the on-chip lens 15 and the light receiving surface of the photodiode formed on the semiconductor substrate 11 becomes shorter. Therefore, in order to make the focal length of the on-chip lens 71 shorter than that of the on-chip lens 15, it is necessary to make the curvature of the on-chip lens 71 larger than that of the on-chip lens 15.
  • the curvature of the on-chip lens 71 increases, the gap between the on-chip lenses 71 becomes deeper. Therefore, the film stress of the resin layer 41 becomes large, and cracks are likely to occur in the resin layer 41. Further, by increasing the curvature, the difficulty of manufacturing the on-chip lens 71 becomes high. As a result, the quality of the semiconductor package 61 may deteriorate.
  • This technology was made in view of such a situation, and is intended to improve the quality of a semiconductor package having a WCSP structure in which a resin layer is provided between an on-chip lens and a glass substrate.
  • FIG. 4 is a block diagram showing a schematic configuration example of the electronic device 101 to which the present technology is applied.
  • the electronic device 101 includes, for example, an image pickup lens 111, an image pickup element 112, a storage unit 113, and a processor 114.
  • the image pickup lens 111 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the image pickup element 112.
  • the light receiving surface is, for example, a surface on which a light receiving element (for example, a photoelectric conversion element such as a photodiode) included in the image pickup element 112 is arranged.
  • the image pickup device 112 photoelectrically converts the incident light to generate image data. Further, the image pickup device 112 executes predetermined signal processing such as noise removal and white balance adjustment on the generated image data.
  • the storage unit 113 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and stores image data or the like input from the image pickup element 112.
  • the processor 114 is composed of, for example, a CPU (Central Processing Unit), an application processor that executes an operating system, various application software, etc., a GPU (Graphics Processing Unit), a baseband processor, and the like.
  • the processor 114 executes various processes as necessary for the image data input from the image sensor 112, the image data read from the storage unit 113, and the like.
  • the various processes include, for example, an image display process based on image data, an image data transmission process to the outside via a network, and the like.
  • FIG. 5 is a block diagram showing a schematic configuration example of the image pickup device 112 of FIG.
  • the image sensor 112 is composed of a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor.
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the CMOS image sensor is an image sensor manufactured by applying or partially using a CMOS process.
  • the image pickup element 112 includes a pixel array unit 121, a vertical drive circuit 122, a column processing circuit 123, a horizontal drive circuit 124, a system control unit 125, a signal processing unit 126, and a data storage unit 127.
  • the vertical drive circuit 122, the column processing circuit 123, the horizontal drive circuit 124, the system control unit 125, the signal processing unit 126, and the data storage unit 127 are also referred to as peripheral circuits.
  • a unit pixel (hereinafter, also simply referred to as a pixel) 131 having a photoelectric conversion element such as a photodiode that generates and stores an electric charge according to the amount of received light is a two-dimensional lattice in the row direction and the column direction. They are arranged in a shape (hereinafter referred to as a matrix).
  • the row direction means the arrangement direction (horizontal direction in the drawing) of the pixels 131 of the pixel row
  • the column direction means the arrangement direction (vertical direction in the drawing) of the pixels 131 of the pixel row.
  • the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row with respect to the matrix-shaped pixel array.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel 131.
  • the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one.
  • One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 122.
  • the vertical drive circuit 122 is composed of a shift register, an address decoder, etc., and drives each pixel 131 of the pixel array unit 121 simultaneously for all pixels or in line units. That is, the vertical drive circuit 122 constitutes a drive unit that controls the operation of each pixel 131 of the pixel array unit 121 together with the system control unit 125 that controls the vertical drive circuit 122. Although the specific configuration of the vertical drive circuit 122 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read scanning system selectively scans the unit pixels 131 of the pixel array unit 121 row by row in order to read a signal from the unit pixels 131.
  • the signal read from the unit pixel 131 is an analog signal.
  • the sweep scan system performs sweep scan for the read row on which read scan is performed by the read scan system, ahead of the read scan by the exposure time.
  • the photodiode is reset by sweeping out unnecessary charges from the photodiode of the unit pixel 131 of the read row. Then, by sweeping out (resetting) unnecessary charges with this sweeping scanning system, a so-called electronic shutter operation is performed.
  • the electronic shutter operation is an operation of discarding the electric charge of the photodiode and starting a new exposure (starting the accumulation of electric charge).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that.
  • the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as an exposure period) in the unit pixel 131.
  • the signal output from each unit pixel 131 of the pixel row selectively scanned by the vertical drive circuit 122 is input to the column processing circuit 123 through each of the vertical signal lines VSL for each pixel column.
  • the column processing circuit 123 performs predetermined signal processing on the signal output from each pixel 131 of the selected row through the vertical signal line VSL for each pixel column of the pixel array unit 121, and also processes the pixel signal after signal processing. Temporarily hold.
  • the column processing circuit 123 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes fixed pattern noise peculiar to the pixel 131, such as reset noise and threshold variation of the amplification transistor in the pixel 131.
  • the column processing circuit 123 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photodiode into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 124 is composed of a shift register, an address decoder, and the like, and a read circuit (hereinafter referred to as a pixel circuit) corresponding to the pixel sequence of the column processing circuit 123 is sequentially selected.
  • a read circuit hereinafter referred to as a pixel circuit
  • the system control unit 125 is configured by a timing generator or the like that generates various timing signals, and is a vertical drive circuit 122, a column processing circuit 123, and a horizontal drive circuit 124 based on various timings generated by the timing generator. Drive control such as.
  • the signal processing unit 126 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing circuit 123.
  • the data storage unit 127 temporarily stores the data necessary for the signal processing in the signal processing unit 126.
  • the image data output from the signal processing unit 126 is, for example, executed by a processor 114 or the like in the electronic device 101 equipped with the image pickup element 112, or transmitted to the outside via a network or the like.
  • FIG. 6 is a circuit diagram showing a schematic configuration example of the unit pixel 131 of FIG.
  • the unit pixel 131 includes a photodiode PD, a transfer transistor 151, a reset transistor 152, an amplification transistor 153, a selection transistor 154, and a floating diffusion layer FD.
  • the anode of the photodiode PD is grounded, and the cascade is connected to the source of the transfer transistor 151.
  • the drain of the transfer transistor 151 is connected to the source of the reset transistor 152 and the gate of the amplification transistor 153, and the nodes at these connection points form the floating diffusion layer FD.
  • the drain of the reset transistor 152 is connected to a vertical reset input line (not shown).
  • the source of the amplification transistor 153 is connected to a vertical current supply line (not shown).
  • the drain of the amplification transistor 153 is connected to the source of the selection transistor 154, and the drain of the selection transistor 154 is connected to the vertical signal line VSL.
  • the selection transistor drive line LD154 included in the pixel drive line LD is connected to the gate of the selection transistor 154.
  • the reset transistor drive line LD152 included in the pixel drive line LD is connected to the gate of the reset transistor 152.
  • the transfer transistor drive line LD 151 included in the pixel drive line LD is connected to the gate of the transfer transistor 151.
  • a vertical signal line VSL having one end connected to the column processing circuit 123 is connected to the drain of the amplification transistor 153 via the selection transistor 154.
  • the reset transistor 152, the amplification transistor 153, and the selection transistor 154 are also collectively referred to as a pixel circuit.
  • the pixel circuit may include a stray diffusion layer FD and / or a transfer transistor 151.
  • the reset transistor 152 controls the discharge (reset) of the electric charge accumulated in the stray diffusion layer FD according to the reset signal RST supplied from the vertical drive circuit 122 via the reset transistor drive line LD152.
  • the transfer transistor 151 By turning on the transfer transistor 151 while the reset transistor 152 is in the ON state, the electric charge stored in the photodiode PD is discharged (reset) in addition to the electric charge stored in the floating diffusion layer FD. It is also possible to do.
  • the floating diffusion layer FD is electrically disconnected from the vertical reset input line and becomes a floating state.
  • the photodiode PD photoelectrically converts the incident light and generates an electric charge according to the amount of the light.
  • the generated charge is accumulated on the cathode side of the photodiode PD.
  • the transfer transistor 151 controls the transfer of electric charges from the photodiode PD to the stray diffusion layer FD according to the transfer control signal TRG supplied from the vertical drive circuit 122 via the transfer transistor drive line LD 151.
  • the floating diffusion layer FD has a function of converting the electric charge transferred from the photodiode PD via the transfer transistor 151 into a voltage having a voltage value corresponding to the amount of the electric charge. Therefore, in the floating state where the reset transistor 152 is turned off, the potential of the floating diffusion layer FD is modulated according to the amount of electric charge accumulated by each.
  • the amplification transistor 153 functions as an amplifier that uses the potential fluctuation of the floating diffusion layer FD connected to the gate as an input signal, and the output voltage signal appears as a pixel signal on the vertical signal line VSL via the selection transistor 154.
  • the selection transistor 154 controls the appearance of the pixel signal by the amplification transistor 153 on the vertical signal line VSL according to the selection control signal SEL supplied from the vertical drive circuit 122 via the selection transistor drive line LD154. For example, when a high level selection control signal SEL is input to the gate of the selection transistor 154, a pixel signal by the amplification transistor 153 appears on the vertical signal line VSL. On the other hand, when the Low level selection control signal SEL is input to the gate of the selection transistor 154, the appearance of the pixel signal on the vertical signal line VSL is stopped. This makes it possible to take out only the output of the selected unit pixel 131 in the vertical signal line VSL to which a plurality of unit pixels 131 are connected.
  • FIG. 7 is a cross-sectional view schematically showing a configuration example of the semiconductor package 201 including the image pickup device 112 of FIG.
  • the semiconductor package 201 a plurality of layers are laminated in the order of the semiconductor substrate 211, the insulating film 212, the color filter 213, the on-chip lens 214, the resin layer 215, and the glass substrate 216 from the bottom in the drawing.
  • the semiconductor substrate 211 is, for example, a substrate made of silicon or the like, and the unit pixels 131 (not shown) in FIG. 6 are arranged in a matrix.
  • Photodiode PDs (not shown) of each unit pixel 131 are arranged in a matrix near the back surface (upper surface in the drawing) of the semiconductor substrate 211, and incident light is incident on each photodiode PD from the back surface side. That is, the image pickup device 112 included in the semiconductor package 201 is a back-illuminated CMOS image sensor.
  • each layer of the semiconductor package 201 in the drawing that is, the surface on which the incident light is incident is referred to as an incident surface.
  • the insulating film 212 is formed on the surface of the incident surface of the semiconductor substrate 211.
  • the color filter 213 is laminated on the insulating film 212.
  • a color filter corresponding to each unit pixel 131 is arranged for each unit pixel 131 formed on the semiconductor substrate 211.
  • the color filter 213 is provided with a light-shielding film 217 for light-shielding between pixels.
  • the on-chip lens 214 is made of, for example, SiN or SiO, and the refractive index is set in the range of, for example, 1.4 to 2.0.
  • the on-chip lens 214 is arranged in a matrix on the color filter 213 for each unit pixel 131 formed on the semiconductor substrate 211.
  • Each on-chip lens 214 collects incident light on the light receiving surface of the photodiode PD of the corresponding unit pixel 131.
  • the resin layer 215 is made of a transparent resin such as an epoxy resin, a low melting point glass, and an ultraviolet curable resin, and the refractive index is set to a value larger than that of air, for example, about 1.4.
  • the resin layer 215 serves to bond the glass substrate 216 to the semiconductor substrate 211 on which the on-chip lens 214 and the like are formed.
  • the resin layer 215 is in contact with a portion (hereinafter referred to as a central portion) including the most protruding portion of the on-chip lens 214.
  • a space hereinafter referred to as an air gap 218 is provided between the peripheral portion around the central portion of the on-chip lens 214 and the resin layer 215.
  • the maximum height of the air gap 218, that is, the height of the lower surface of the resin layer 215 and the lowest portion (lowest portion) of the on-chip lens 214 is set to, for example, 100 nm or more.
  • the glass substrate 216 is bonded to the semiconductor substrate 211 on which the insulating film 212 to the on-chip lens 214 are formed via the resin layer 215. That is, the glass substrate 216 is in contact with the incident surface of the resin layer 215 (the surface opposite to the surface in contact with the on-chip lens 214).
  • the glass substrate 216 plays a role of protecting the incident surface of the semiconductor substrate 211 and maintaining the physical strength of the semiconductor package 201.
  • the refractive index of the glass substrate 216 is set, for example, in the range of 1.4 to 1.5.
  • the incident light incident from the glass substrate 216 side passes through the glass substrate 216 and the resin layer 215 and then incidents on the on-chip lens 214.
  • the incident light incident on the on-chip lens 214 is collected by the on-chip lens 214 on the light receiving surface of the photodiode PD formed on the semiconductor substrate 211.
  • the incident light incident on the central portion of the on-chip lens 214 directly incidents on the on-chip lens 214 from the resin layer 215.
  • the incident light incident on the peripheral portion of the on-chip lens 214 is once incident on the air gap 218 from the resin layer 215, and is incident on the on-chip lens 214 through the air gap 218.
  • the refractive index (about 1.4) of the resin layer 215 is larger than the refractive index (about 1.0) of the air in the air gap 218, the incident light from the interface between the resin layer 215 and the air gap 218 The emission angle is larger than the incident angle at the interface.
  • the incident angle of the incident light on the peripheral portion of the on-chip lens 214 is larger than that in the case where the air gap is not provided between the resin layer 41 and the on-chip lens 71 as in the semiconductor package 61 of FIG. ..
  • the focal length of the on-chip lens 214 can be shortened without increasing the curvature of the on-chip lens 214.
  • the height of the semiconductor package 201 can be reduced as in the semiconductor package 61 of FIG. 3 without increasing the curvature of the on-chip lens 214.
  • the on-chip lens 214 can be easily manufactured, and for example, the on-chip lens 214 can be manufactured by using a conventional process.
  • the air gap 218 is provided between the peripheral portion of the on-chip lens 214 and the resin layer 215 and the resin is not embedded, the occurrence of cracks is prevented and the quality of the semiconductor package 201 is improved.
  • FIG. 10A to FIG. 10 are schematic cross-sectional views of the vicinity of the boundary between the pixel region and the peripheral region of the semiconductor package 201.
  • B to FIG. 10B is a schematic plan view of a layer (hereinafter referred to as an on-chip lens layer) in which the on-chip lens 214 near the boundary between the pixel region and the peripheral region of the semiconductor package 201 is arranged. It is shown in.
  • the left side of the boundary line L1 is the pixel area
  • the right side is the peripheral area.
  • the layer structure of the pixel area and the peripheral area is substantially the same. Specifically, the region outside the auxiliary line L2 in the peripheral region has the same layer structure as the pixel region. On the other hand, in the region adjacent to the pixel region of the peripheral region (the region between the boundary line L1 and the auxiliary line L2), the on-chip lens 214 is not provided in the on-chip lens layer, and the lower end of the on-chip lens 214 Flat regions 251 at the same height are formed.
  • the on-chip lens 214 is not provided in the peripheral region. Specifically, in the peripheral region, the on-chip lens 214 is not provided in the on-chip lens layer, and a flat region 261 having the same height as the lower end of the on-chip lens 214 is formed. Further, the resin layer 215 and the glass substrate 216 are inclined downward in the vicinity of the boundary with the pixel region in the peripheral region, and are lower than the pixel region in the peripheral region.
  • FIG. 10 is different from the example of FIG. 8 in that a flat region 271 is formed instead of the on-chip lens 214 in the peripheral region.
  • the flat region 271 has the same height as the upper end of the on-chip lens 214, and the flat region 271 keeps the resin layer 215 and the glass substrate 216 at the same height as the pixel region in the peripheral region.
  • step S1 the resin is applied to the glass substrate.
  • the shape in the surface direction is the same as that of the wafer, and the resin used for the resin layer 215 is applied to one surface of the glass substrate used for the glass substrate 216 of the semiconductor package 201.
  • the surface of the glass substrate coated with the resin is referred to as a joint surface.
  • step S2 the resin is cured. Specifically, the glass substrate coated with the resin is subjected to a treatment necessary for curing the resin, such as heating or UV curing (ultraviolet ray curing). As a result, the resin applied to the glass substrate is cured.
  • a treatment necessary for curing the resin such as heating or UV curing (ultraviolet ray curing).
  • step S3 it is desirable to cure the resin so that it is as hard as possible while maintaining the adhesive strength. This makes it possible to stably bond the wafer and the glass substrate in the process of step S3.
  • step S3 the wafer and the glass substrate are joined. Specifically, the wafer and the glass substrate are bonded after the alignment is performed with the surface on which the on-chip lens 214 of the wafer is formed and the bonding surface of the glass substrate facing each other.
  • the bonding method for example, a method using surface energy between substrates such as plasma bonding or room temperature bonding is desirable.
  • step S4 the semiconductor package 201 is fragmented. Specifically, the wafer to which the glass substrate is bonded is diced, and the plurality of semiconductor packages 201 formed on the wafer are separated into individual pieces.
  • the air gap 218 of the semiconductor package 201 is easily stabilized by applying the resin to the glass substrate side instead of the wafer on which the on-chip lens 214 is formed and then joining the wafer and the glass substrate. Can be formed.
  • a flattening layer may be provided between the insulating film 12 and the color filter 14 as in the semiconductor package 31 of FIG.
  • the focal length of the on-chip lens 214 can be shortened, so that the flattening layer can be thinned.
  • a semiconductor substrate provided with peripheral circuits or the like may be laminated under the semiconductor substrate 211.
  • the refractive index of the resin layer 215 can be set in the range of 1.0 to 1.5.
  • the refractive index of the resin layer 215 is set to around 1.0, the refractive indexes of the resin layer 215 and the air in the air gap 218 are almost the same, and the light is incident at the interface between the resin layer 215 and the air gap 218. Light is hardly refracted. Therefore, it is necessary to set the curvature of the on-chip lens 214 in substantially the same manner as the curvature of the on-chip lens 71 of the semiconductor package 61 of FIG. However, even if the curvature of the on-chip lens 214 is set to be substantially the same as the curvature of the on-chip lens 71, the resin layer 215 can be prevented from cracking because the air gap 218 is provided.
  • This technology can be applied not only to the back-illuminated image sensor described above, but also to the surface-illuminated image sensor.
  • a wiring layer is provided between the color filter and the semiconductor substrate (insulating film).
  • this technique can be applied to various cases of sensing light such as visible light, infrared light, ultraviolet light, and X-rays.
  • Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • Devices used for traffic such as in-vehicle sensors that capture images of the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measuring sensors that measure distance between vehicles.
  • Devices used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gestures ⁇ Endoscopes and devices that take blood vessels by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes ⁇ Equipment used for security such as surveillance cameras for crime prevention and cameras for person authentication ⁇ Skin measuring instruments for taking pictures of the skin and taking pictures of the scalp Equipment used for beauty such as microscopes ⁇ Equipment used for sports such as action cameras and wearable cameras for sports applications ⁇ Camera for monitoring the condition of fields and crops, etc. , Equipment used for agriculture
  • FIG. 13 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 13 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emission diode), and supplies the irradiation light for photographing the surgical site or the like to the endoscope 11100.
  • a light source such as an LED (light emission diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 14 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an image pickup unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup element constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to the 3D (dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the image pickup unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to detect a surgical tool such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can surely proceed with the surgery.
  • the transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the image pickup unit 11402 of the camera head 11102 among the configurations described above.
  • the semiconductor package 201 of FIG. 7 can be applied to the image pickup unit 11402.
  • the image pickup unit 11402 can be downsized, and as a result, the camera head 11102 can be downsized.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • a microscopic surgery system ⁇ Application example to mobile>
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 15 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 16 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the image pickup units 12101, 12102, 12103, 12104, and 12105 are included.
  • the image pickup units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the image pickup unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 16 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object in the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure may be applied to, for example, the image pickup unit 12301 among the configurations described above.
  • the semiconductor package 201 of FIG. 7 can be applied to the image pickup unit 12301.
  • the image pickup unit 12301 can be miniaturized.
  • the present technology can also have the following configurations.
  • a semiconductor substrate equipped with a light receiving element and An on-chip lens arranged on the incident surface side of the semiconductor substrate and A resin layer in contact with the central portion including the most protruding portion of the on-chip lens, and A glass substrate in contact with a surface of the resin layer in contact with the on-chip lens and a surface opposite to the on-chip lens is provided.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本技術は、WCSP構造の半導体パッケージの品質を向上させることができるようにする半導体パッケージ及び半導体パッケージの製造方法に関する。 半導体パッケージは、受光素子を備える半導体基板と、前記半導体基板の入射面側に配置されているオンチップレンズと、前記オンチップレンズの最も突出した部分を含む中央部と接している樹脂層と、前記樹脂層の前記オンチップレンズと接している面と反対側の面に接しているガラス基板とを備え、前記オンチップレンズの前記中央部の周囲の周辺部と前記樹脂層との間に空間が設けられている。本技術は、例えば、撮像素子に適用できる。

Description

半導体パッケージ及び半導体パッケージの製造方法
 本技術は、半導体パッケージ及び半導体パッケージの製造方法に関し、特に、WCSP(Wafer Level Chip Size Package)構造の半導体パッケージ及び半導体パッケージの製造方法に関する。
 近年、カメラ付き携帯端末装置やデジタルカメラ等の電子機器において、カメラの高画素化、小型化及び薄型化が進んでいる。
 これに対して、カメラに用いられる撮像素子を小型化及び低背化するために、WCSP構造の半導体パッケージを用いた撮像素子の普及が進んでいる(例えば、特許文献1参照)。
特開2008-270650号公報
 一方、半導体パッケージの小型化及び低背化に伴い、品質の低下が危惧されている。
 本技術は、このような状況に鑑みてなされたものであり、WCSP構造の半導体パッケージの品質を向上させるようにするものである。
 本技術の第1の側面の半導体パッケージは、受光素子を備える半導体基板と、前記半導体基板の入射面側に配置されているオンチップレンズと、前記オンチップレンズの最も突出した部分を含む中央部と接している樹脂層と、前記樹脂層の前記オンチップレンズと接している面と反対側の面に接しているガラス基板とを備え、前記オンチップレンズの前記中央部の周囲の周辺部と前記樹脂層との間に空間が設けられている。
 本技術の第1の側面においては、ガラス基板及び樹脂層を透過した入射光が、オンチップレンズの周辺部と前記樹脂層との間に設けられた空間を介して、前記オンチップレンズの前記周辺部に入射する。
 本技術の第2の側面の半導体パッケージの製造方法は、ガラス基板の一方の面に樹脂を塗布する塗布工程と、前記樹脂を硬化する硬化工程と、ウエハのオンチップレンズが形成されている面と前記ガラス基板の前記樹脂が塗布されている面とを接合する接合工程とを含む。
 本技術の第2の側面においては、ガラス基板の一方の面に樹脂が塗布され、前記樹脂が硬化され、ウエハのオンチップレンズが形成されている面と前記ガラス基板の前記樹脂が塗布されている面とが接合される。
キャビティ有りのWCSP構造の半導体パッケージの構成例を模式的に示す断面図である。 キャビティレスのWCSP構造の半導体パッケージの第1の構成例を模式的に示す断面図である。 キャビティレスのWCSP構造の半導体パッケージの第1の構成例及び第2の構成例を模式的に示す断面図である。 本技術を適用した電子機器の概略構成例を示すブロック図である。 図4の撮像素子の概略構成例を示すブロック図である。 図5の単位画素の基本機能を説明するための図である。 図4の撮像素子を含む半導体パッケージの構成例を模式的に示す断面図である。 図7の半導体パッケージの画素領域と周辺領域との境界付近の第1の構成例を模式的に示す断面図である。 図7の半導体パッケージの画素領域と周辺領域との境界付近の第2の構成例を模式的に示す断面図である。 図7の半導体パッケージの画素領域と周辺領域との境界付近の第3の構成例を模式的に示す断面図である。 図7の半導体パッケージの製造方法を説明するためのフローチャートである。 撮像素子の応用例を示す図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.本技術の背景
 2.実施の形態
 3.変形例
 4.応用例
 5.その他
 <<1.本技術の背景>>
 まず、図1乃至図3を参照して、本技術の背景について説明する。
 図1は、裏面照射型の撮像素子(イメージセンサ)を含む、キャビティ有りのWCSP構造の半導体パッケージ1の構成例を模式的に示す断面図である。
 半導体パッケージ1においては、図内の下から、半導体基板11、絶縁膜12、平坦化層13、カラーフィルタ14、オンチップレンズ15、及び、ガラス基板17の順に複数の層が積層されている。平坦化層13には、画素間を遮光するための遮光膜18が形成されている。オンチップレンズ15とガラス基板17との間には、空間(以下、エアギャップと称する)16が設けられている。
 半導体パッケージ1は、シリコン等の半導体からなるウエハに集光構造(カラーフィルタ14及びオンチップレンズ15)等が形成された後、ガラス基板17がウエハに接合され、個片化されることにより生成される。
 図2は、裏面照射型の撮像素子を含む、キャビティレスのWCSP構造の半導体パッケージ31の構成例を模式的に示す断面図である。なお、図中、図1の半導体パッケージ1と対応する部分には同じ符号を付しており、その説明は適宜省略する。
 半導体パッケージ31は、半導体パッケージ1と比較して、エアギャップ16の代わりに樹脂層41が配置されている点が異なる。すなわち、半導体パッケージ31では、オンチップレンズ15とガラス基板17の間に樹脂が充填されている。
 これにより、半導体パッケージ31の強度が向上し、例えば、半導体基板11やガラス基板17を薄くすることができ、半導体パッケージ31の小型化及び低背化が可能になる。
 また、半導体パッケージ31をさらに低背化するために、例えば、平坦化層13を薄くしたり、削除したりすることが考えられる。
 図3には、半導体パッケージ31と、半導体パッケージ31から平坦化層13を削除した半導体パッケージ61との構成例が左右に並べて表示されている。なお、半導体基板11上の水平方向の点線は、オンチップレンズ15及びオンチップレンズ71の集光位置を示している。
 半導体パッケージ61は、半導体パッケージ31と比較して、平坦化層13が削除され、オンチップレンズ15の代わりにオンチップレンズ71が設けられている点が異なる。また、平坦化層13を削除することにより、画素間を遮光する遮光膜72が、カラーフィルタ14の層に形成されている。
 このように、半導体パッケージ61を半導体パッケージ31より低背化することができる。
 ここで、平坦化層13を削除することにより、オンチップレンズ15と、半導体基板11に形成されているフォトダイオードの受光面との間の距離が短くなる。そのため、オンチップレンズ71の焦点距離をオンチップレンズ15より短くするために、オンチップレンズ71の曲率をオンチップレンズ15より大きくする必要がある。
 しかしながら、オンチップレンズ71の曲率が大きくなると、オンチップレンズ71間のギャップが深くなる。そのため、樹脂層41の膜ストレスが大きくなり、樹脂層41にクラックが発生しやすくなる。また、曲率を大きくすることにより、オンチップレンズ71の製造の難易度が高くなる。これにより、半導体パッケージ61の品質が低下するおそれがある。
 本技術は、このような状況に鑑みてなされたものであり、オンチップレンズとガラス基板との間に樹脂層を設けたWCSP構造の半導体パッケージの品質を向上させるようにするものである。
 <<2.実施の形態>>
 次に、図4乃至図11を参照して、本技術の実施の形態について説明する。
  <電子機器の構成例>
 図4は、本技術を適用した電子機器101の概略構成例を示すブロック図である。電子機器101は、例えば、撮像レンズ111、撮像素子112、記憶部113、及び、プロセッサ114を備える。
 撮像レンズ111は、入射光を集光してその像を撮像素子112の受光面に結像する光学系の一例である。受光面は、例えば、撮像素子112が備える受光素子(例えば、フォトダイオード等の光電変換素子)が配列された面である。撮像素子112は、入射光を光電変換して画像データを生成する。また、撮像素子112は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。
 記憶部113は、例えば、フラッシュメモリ、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等で構成され、撮像素子112から入力された画像データ等を記憶する。
 プロセッサ114は、例えば、CPU(Central Processing Unit)、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサ、GPU(Graphics Processing Unit)、ベースバンドプロセッサ等で構成される。プロセッサ114は、撮像素子112から入力された画像データや記憶部113から読み出した画像データ等に対し、必要に応じて各種の処理を実行する。各種の処理には、例えば、画像データに基づく画像の表示処理、ネットワーク等を介した外部への画像データの送信処理等が含まれる。
  <撮像素子の構成例>
 図5は、図4の撮像素子112の概略構成例を示すブロック図である。
 この例では、撮像素子112は、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサにより構成されている。ここで、CMOSイメージセンサとは、CMOSプロセスを応用して、又は、部分的に使用して製造されたイメージセンサである。
 撮像素子112は、画素アレイ部121、垂直駆動回路122、カラム処理回路123、水平駆動回路124、システム制御部125、信号処理部126、及び、データ格納部127を備える。以下の説明において、垂直駆動回路122、カラム処理回路123、水平駆動回路124、システム制御部125、信号処理部126、及び、データ格納部127は、周辺回路とも称される。
 画素アレイ部121は、受光した光量に応じた電荷を生成しかつ蓄積するフォトダイオード等の光電変換素子を有する単位画素(以下、単に画素とも称する)131が、行方向及び列方向に2次元格子状(以下、行列状と称する)に配置されている。ここで、行方向とは画素行の画素131の配列方向(図面中、横方向)をいい、列方向とは画素列の画素131の配列方向(図面中、縦方向)をいう。単位画素131の具体的な回路構成の詳細については後述する。
 画素アレイ部121では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素131から信号を読み出す際の駆動を行うための駆動信号を伝送する。この例では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、垂直駆動回路122の各行に対応した出力端に接続されている。
 垂直駆動回路122は、シフトレジスタやアドレスデコーダ等によって構成され、画素アレイ部121の各画素131を全画素同時又は行単位等で駆動する。すなわち、垂直駆動回路122は、当該垂直駆動回路122を制御するシステム制御部125と共に、画素アレイ部121の各画素131の動作を制御する駆動部を構成している。垂直駆動回路122の具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
 読出し走査系は、単位画素131から信号を読み出すために、画素アレイ部121の単位画素131を行単位で順に選択走査する。単位画素131から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素131のフォトダイオードから不要な電荷が掃き出されることによって当該フォトダイオードがリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、フォトダイオードの電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことである。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作又は電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミング又は電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素131における電荷の蓄積期間(露光期間とも称する)となる。
 垂直駆動回路122によって選択走査された画素行の各単位画素131から出力される信号は、画素列ごとに垂直信号線VSLの各々を通してカラム処理回路123に入力される。カラム処理回路123は、画素アレイ部121の画素列ごとに、選択行の各画素131から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路123は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素131内の増幅トランジスタの閾値ばらつき等の画素131固有の固定パターンノイズが除去される。カラム処理回路123は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、フォトダイオードから読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路124は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路123の画素列に対応する読出し回路(以下、画素回路と称する)を順番に選択する。この水平駆動回路124による選択走査により、カラム処理回路123において画素回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部125は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路122、カラム処理回路123、及び、水平駆動回路124などの駆動制御を行う。
 信号処理部126は、少なくとも演算処理機能を有し、カラム処理回路123から出力される画素信号に対して演算処理等の種々の信号処理を行う。
 データ格納部127は、信号処理部126での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 なお、信号処理部126から出力された画像データは、例えば、撮像素子112を搭載する電子機器101におけるプロセッサ114等において所定の処理が実行されたり、ネットワーク等を介して外部へ送信されたりする。
  <単位画素の構成例>
 図6は、図5の単位画素131の概略構成例を示す回路図である。単位画素131は、フォトダイオードPD、転送トランジスタ151、リセットトランジスタ152、増幅トランジスタ153、選択トランジスタ154、及び、浮遊拡散層FDを備える。
 フォトダイオードPDのアノードは、接地されており、カソ-ドは、転送トランジスタ151のソースに接続されている。転送トランジスタ151のドレインは、リセットトランジスタ152のソースおよび増幅トランジスタ153のゲートに接続されており、これらの接続点であるノードが浮遊拡散層FDを構成する。なお、リセットトランジスタ152のドレインは、不図示の垂直リセット入力線に接続されている。
 増幅トランジスタ153のソースは、不図示の垂直電流供給線に接続されている。増幅トランジスタ153のドレインは、選択トランジスタ154のソースに接続されており、選択トランジスタ154のドレインは、垂直信号線VSLに接続されている。
 選択トランジスタ154のゲートには、画素駆動線LDに含まれる選択トランジスタ駆動線LD154が接続されている。リセットトランジスタ152のゲートには、画素駆動線LDに含まれるリセットトランジスタ駆動線LD152が接続されている。転送トランジスタ151のゲートには、画素駆動線LDに含まれる転送トランジスタ駆動線LD151が接続されている。増幅トランジスタ153のドレインには、カラム処理回路123に一端が接続される垂直信号線VSLが、選択トランジスタ154を介して接続されている。
 以下の説明において、リセットトランジスタ152、増幅トランジスタ153と及び選択トランジスタ154は、まとめて画素回路とも称される。この画素回路には、浮遊拡散層FD及び/又は転送トランジスタ151が含まれてもよい。次に、単位画素131の基本機能について説明する。
 リセットトランジスタ152は、垂直駆動回路122からリセットトランジスタ駆動線LD152を介して供給されるリセット信号RSTに従って、浮遊拡散層FDに蓄積されている電荷の排出(リセット)を制御する。なお、リセットトランジスタ152がオン状態であるときに転送トランジスタ151をオン状態とすることで、浮遊拡散層FDに蓄積されている電荷に加え、フォトダイオードPDに蓄積されている電荷を排出(リセット)することも可能である。
 リセットトランジスタ152のゲートにHighレベルのリセット信号RSTが入力されると、浮遊拡散層FDが垂直リセット入力線を通して印加される電圧にクランプされる。これにより、浮遊拡散層FDに蓄積されていた電荷が排出(リセット)される。
 また、リセットトランジスタ152のゲートにLowレベルのリセット信号RSTが入力されると、浮遊拡散層FDは、垂直リセット入力線と電気的に切断され、浮遊状態になる。
 フォトダイオードPDは、入射光を光電変換し、その光量に応じた電荷を生成する。生成された電荷は、フォトダイオードPDのカソード側に蓄積する。
 転送トランジスタ151は、垂直駆動回路122から転送トランジスタ駆動線LD151を介して供給される転送制御信号TRGに従って、フォトダイオードPDから浮遊拡散層FDへの電荷の転送を制御する。
 例えば、転送トランジスタ151のゲートにHighレベルの転送制御信号TRGが入力されると、フォトダイオードPDに蓄積されている電荷が浮遊拡散層FDに転送される。一方、転送トランジスタ151のゲートにLowレベルの転送制御信号TRGが供給されると、フォトダイオードPDからの電荷の転送が停止する。
 浮遊拡散層FDは、フォトダイオードPDから転送トランジスタ151を介して転送された電荷をその電荷量に応じた電圧値の電圧に変換する機能を持つ。したがって、リセットトランジスタ152がオフした浮遊状態では、浮遊拡散層FDの電位は、それぞれが蓄積する電荷量に応じて変調される。
 増幅トランジスタ153は、そのゲートに接続された浮遊拡散層FDの電位変動を入力信号とする増幅器として機能し、その出力電圧信号は選択トランジスタ154を介して垂直信号線VSLに画素信号として出現する。
 選択トランジスタ154は、垂直駆動回路122から選択トランジスタ駆動線LD154を介して供給される選択制御信号SELに従って、増幅トランジスタ153による画素信号の垂直信号線VSLへの出現を制御する。例えば、選択トランジスタ154のゲートにHighレベルの選択制御信号SELが入力されると、増幅トランジスタ153による画素信号が垂直信号線VSLに出現される。一方、選択トランジスタ154のゲートにLowレベルの選択制御信号SELが入力されると、垂直信号線VSLへの画素信号の出現が停止される。これにより、複数の単位画素131が接続された垂直信号線VSLにおいて、選択した単位画素131の出力のみを取り出すことが可能となる。
  <半導体パッケージの構成例>
 図7は、図5の撮像素子112を含む半導体パッケージ201の構成例を模式的に示す断面図である。
 半導体パッケージ201においては、図内の下から、半導体基板211、絶縁膜212、カラーフィルタ213、オンチップレンズ214、樹脂層215、及び、ガラス基板216の順に、複数の層が積層されている。
 半導体基板211は、例えば、シリコン等からなる基板であり、図6の単位画素131(不図示)が行列状に配列されている。半導体基板211の裏面(図内の上面)付近には、各単位画素131のフォトダイオードPD(不図示)が行列状に配列されており、入射光が裏面側から各フォトダイオードPDに入射する。すなわち、半導体パッケージ201に含まれる撮像素子112は、裏面照射型のCMOSイメージセンサからなる。
 なお、以下、半導体パッケージ201の各層の図内の上面、すなわち、入射光が入射する面を、それぞれ入射面と称する。
 絶縁膜212は、半導体基板211の入射面の表面に成膜されている。
 カラーフィルタ213は、絶縁膜212の上に積層されている。カラーフィルタ213には、半導体基板211に形成されている単位画素131毎に、各単位画素131に対応する色のフィルタが配置されている。また、カラーフィルタ213には、画素間を遮光するための遮光膜217が設けられている。
 オンチップレンズ214は、例えば、SiN又はSiO等からなり、屈折率が、例えば、1.4から2.0の範囲内に設定される。オンチップレンズ214は、半導体基板211に形成されている単位画素131毎に、カラーフィルタ213上に行列状に配置されている。各オンチップレンズ214は、それぞれ対応する単位画素131のフォトダイオードPDの受光面に入射光を集光させる。
 樹脂層215は、例えば、エポキシ系樹脂、低融点ガラス、紫外線硬化型樹脂等の透明な樹脂からなり、屈折率は、空気より大きい値、例えば、約1.4に設定される。樹脂層215は、オンチップレンズ214等が形成されている半導体基板211にガラス基板216を接合する役割等を果たす。
 樹脂層215は、オンチップレンズ214の最も突出した部分を含む部分(以下、中央部と称する)と接している。一方、オンチップレンズ214の中央部の周囲の周辺部と、樹脂層215との間には、空間(以下、エアギャップと称する)218が設けられている。エアギャップ218の高さの最大値、すなわち、樹脂層215の下面とオンチップレンズ214の最も凹んでいる部分(最も低い部分)の高さは、例えば、100nm以上に設定される。
 ガラス基板216は、絶縁膜212乃至オンチップレンズ214が形成されている半導体基板211に、樹脂層215を介して接合されている。すなわち、ガラス基板216は、樹脂層215の入射面(オンチップレンズ214と接している面と反対側の面)に接している。ガラス基板216は、半導体基板211の入射面を保護するとともに、半導体パッケージ201の物理的な強度を保つ役割を果たす。
 なお、ガラス基板216の屈折率は、例えば、1.4から1.5の範囲内に設定される。
 半導体パッケージ201においては、ガラス基板216側から入射した入射光が、ガラス基板216及び樹脂層215を透過した後、オンチップレンズ214に入射する。オンチップレンズ214に入射した入射光は、オンチップレンズ214により、半導体基板211に形成されているフォトダイオードPDの受光面に集光される。
 ここで、オンチップレンズ214の中央部に入射する入射光は、樹脂層215から直接オンチップレンズ214に入射する。
 一方、オンチップレンズ214の周辺部に入射する入射光は、樹脂層215から一旦エアギャップ218に入射し、エアギャップ218を介して、オンチップレンズ214に入射する。このとき、樹脂層215の屈折率(約1.4)がエアギャップ218内の空気の屈折率(約1.0)より大きいため、樹脂層215とエアギャップ218との界面からの入射光の出射角が、界面への入射角より大きくなる。
 従って、オンチップレンズ214の周辺部への入射光の入射角は、図3の半導体パッケージ61のように樹脂層41とオンチップレンズ71の間にエアギャップを設けない場合と比較して大きくなる。その結果、オンチップレンズ214の曲率を大きくしなくても、オンチップレンズ214の焦点距離を短くすることができる。
 このように、オンチップレンズ214の曲率を大きくしなくても、図3の半導体パッケージ61と同様に、半導体パッケージ201の低背化が可能になる。また、図3の半導体パッケージ61のオンチップレンズ71と比較して、オンチップレンズ214の製造が容易になり、例えば、従来のプロセスを用いてオンチップレンズ214を製造することが可能になる。
 さらに、オンチップレンズ214の周辺部と樹脂層215の間にエアギャップ218が設けられ、樹脂が埋め込まれないため、クラックの発生が防止され、半導体パッケージ201の品質が向上する。
 次に、図8乃至図10を参照して、半導体パッケージ201の単位画素131が配置されている画素領域の周囲の周辺領域の構成例について説明する。
 なお、図8のA乃至図10のAは、半導体パッケージ201の画素領域と周辺領域の境界付近の断面の模式図である。図8のB乃至図10のBは、半導体パッケージ201の画素領域と周辺領域の境界付近のオンチップレンズ214が配置されている層(以下、オンチップレンズ層と称する)の平面図を模式的に示している。なお、図8乃至図10において境界線L1より左側を画素領域とし、右側を周辺領域とする。
 図8の例では、画素領域と周辺領域の層構造が略同様になっている。具体的には、周辺領域の補助線L2より外側の領域が、画素領域と同じ層構造となっている。一方、周辺領域の画素領域と隣接する領域(境界線L1と補助線L2との間の領域)において、オンチップレンズ層にオンチップレンズ214が設けられておらず、オンチップレンズ214の下端と同じ高さの平坦領域251が形成されている。
 図9の例では、周辺領域においてオンチップレンズ214が設けられていない。具体的には、周辺領域において、オンチップレンズ層にオンチップレンズ214が設けられておらず、オンチップレンズ214の下端と同じ高さの平坦領域261が形成されている。また、樹脂層215及びガラス基板216が、周辺領域の画素領域との境界付近において下方向に傾斜し、周辺領域において画素領域より低くなっている。
 図10の例は、図8の例と比較して、周辺領域において、オンチップレンズ214の代わりに平坦領域271が形成されている点が異なる。平坦領域271は、オンチップレンズ214の上端と同じ高さであり、平坦領域271により、樹脂層215及びガラス基板216が、周辺領域において画素領域と同じ高さに保たれている。
  <半導体パッケージの製造工程>
 次に、図11のフローチャートを参照して、図7の半導体パッケージ201の製造工程の一部の例について説明する。
 なお、以下、ウエハに、複数の半導体パッケージ201の半導体基板211乃至オンチップレンズ214に対応する層が既に形成されているものとする。
 ステップS1において、ガラス基板に樹脂が塗布される。具体的には、面方向の形状がウエハと同様であり、半導体パッケージ201のガラス基板216に用いられるガラス基板の一方の面に、樹脂層215に用いられる樹脂が塗布される。なお、以下、ガラス基板の樹脂が塗布されている面を接合面と称する。
 ステップS2において、樹脂が硬化される。具体的には、樹脂が塗布されたガラス基板に対して、加熱又はUVキュアリング(紫外線硬化)等の樹脂の硬化に必要な処理が施される。これにより、ガラス基板に塗布されている樹脂が硬化する。
 なお、この工程において、樹脂を接着力が保持された状態で、できるだけ硬くなるように硬化することが望ましい。これにより、ステップS3の処理において、ウエハとガラス基板とを安定して接合することが可能になる。
 ステップS3において、ウエハとガラス基板が接合される。具体的には、ウエハのオンチップレンズ214が形成されている面と、ガラス基板の接合面とを対向させた状態で位置合わせが行われた後、ウエハとガラス基板とが接合される。接合方法には、例えば、プラズマ接合や常温接合等の基板間の表面エネルギーを用いる手法が望ましい。
 ステップS4において、半導体パッケージ201が個片化される。具体的には、ガラス基板が接合されたウエハのダイシングが行われ、ウエハに形成されている複数の半導体パッケージ201が個片化される。
 その後、半導体パッケージ製造工程は終了する。
 このように、オンチップレンズ214が形成されているウエハではなく、ガラス基板側に樹脂を塗布した後、ウエハとガラス基板とを接合することにより、半導体パッケージ201のエアギャップ218を容易に安定して形成することが可能になる。
 <<3.変形例>>
 以下、上述した本技術の実施の形態の変形例について説明する。
 例えば、半導体パッケージ201において、図2の半導体パッケージ31と同様に、絶縁膜12とカラーフィルタ14との間に平坦化層を設けるようにしてもよい。この場合、上述したように、オンチップレンズ214の焦点距離を短くすることができるため、平坦化層を薄くすることが可能である。
 例えば、半導体基板211の下に、周辺回路等を備える半導体基板を積層するようにしてもよい。
 例えば、樹脂層215の屈折率は、1.0から1.5までの範囲内に設定することが可能である。
 ただし、樹脂層215の屈折率を1.0付近に設定した場合、樹脂層215とエアギャップ218内の空気との屈折率がほぼ同じになり、樹脂層215とエアギャップ218との界面で入射光がほとんど屈折しない。そのため、オンチップレンズ214の曲率を、図3の半導体パッケージ61のオンチップレンズ71の曲率と略同様に設定する必要が生じる。ただし、オンチップレンズ214の曲率をオンチップレンズ71の曲率と略同様に設定しても、エアギャップ218が設けられているため、樹脂層215のクラックを防止することができる。
 本技術は、上述した裏面照射型の撮像素子だけでなく、表面照射型のイメージセンサにも適用することができる。この場合、例えば、カラーフィルタと半導体基板(絶縁膜)との間に配線層が設けられる。
 <<4.応用例>>
  <本技術の応用例>
 例えば、本技術は、図12に示されるように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに応用することができる。
 ・デジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 以下、より具体的な応用例について説明する。
  <内視鏡手術システムへの応用例>
 例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図13は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図13では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図14は、図13に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、カメラヘッド11102の撮像部11402に適用され得る。具体的には、例えば、図7の半導体パッケージ201は、撮像部11402に適用することができる。撮像部11402に本開示に係る技術を適用することにより、撮像部11402を小型化し、その結果、カメラヘッド11102を小型化することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
  <移動体への応用例>
 例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図16は、撮像部12031の設置位置の例を示す図である。
 図16では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図16には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12301に適用され得る。具体的には、例えば、図7の半導体パッケージ201は、撮像部12301に適用することができる。撮像部12301に本開示に係る技術を適用することにより、例えば、撮像部12301を小型化することができる。
 <<5.その他>>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
  <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 受光素子を備える半導体基板と、
 前記半導体基板の入射面側に配置されているオンチップレンズと、
 前記オンチップレンズの最も突出した部分を含む中央部と接している樹脂層と、
 前記樹脂層の前記オンチップレンズと接している面と反対側の面に接しているガラス基板と
 を備え、
 前記オンチップレンズの前記中央部の周囲の周辺部と前記樹脂層との間に空間が設けられている
 半導体パッケージ。
(2)
 前記樹脂層の屈折率が、1.0から1.5の範囲内である
 前記(1)に記載の半導体パッケージ。
(3)
 前記樹脂層の屈折率が、空気の屈折率より大きい
 前記(2)に記載の半導体パッケージ。
(4)
 前記樹脂層は、エポキシ系樹脂、低融点ガラス、又は、紫外線硬化型樹脂からなる
 前記(1)乃至(3)のいずれかに記載の半導体パッケージ。
(5)
 前記空間の高さの最大値が、100nm以上である
 前記(1)乃至(4)のいずれかに記載の半導体パッケージ。
(6)
 前記半導体基板と前記オンチップレンズとの間に、カラーフィルタが配置されている
 前記(1)乃至(5)のいずれかに記載の半導体パッケージ。
(7)
 前記半導体基板と前記カラーフィルタとの間に、平坦化層が配置されている
 前記(6)に記載の半導体パッケージ。
(8)
 前記半導体基板と前記カラーフィルタとの間に、配線層が配置されている
 前記(6)に記載の半導体パッケージ。
(9)
 画素が配置されている画素領域の周囲の周辺領域において、前記オンチップレンズの上端と同じ高さの平坦な領域が形成されている
 前記(1)乃至(8)のいずれかに記載の半導体パッケージ。
(10)
 ガラス基板の一方の面に樹脂を塗布する塗布工程と、
 前記樹脂を硬化する硬化工程と、
 ウエハのオンチップレンズが形成されている面と前記ガラス基板の前記樹脂が塗布されている面とを接合する接合工程と
 を含む半導体パッケージの製造方法。
(11)
 前記接合工程において、前記ウエハと前記ガラス基板とが、両者の間の表面エネルギーを用いて接合される
 前記(10)に記載の半導体パッケージの製造方法。
(12)
 前記ガラス基板が接合された前記ウエハから半導体パッケージを個片化する個片化工程を
 さらに含む前記(10)又は(11)に記載の半導体パッケージの製造方法。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 101 電子機器, 112 撮像素子, 121 画素アレイ部, 131 単位画素, 201 半導体パッケージ, 211 半導体基板, 212 絶縁膜, 213 カラーフィルタ, 214 オンチップレンズ, 215 樹脂層, 216 半導体基板, 218 空間(エアギャップ), 251乃至271 平坦領域

Claims (12)

  1.  受光素子を備える半導体基板と、
     前記半導体基板の入射面側に配置されているオンチップレンズと、
     前記オンチップレンズの最も突出した部分を含む中央部と接している樹脂層と、
     前記樹脂層の前記オンチップレンズと接している面と反対側の面に接しているガラス基板と
     を備え、
     前記オンチップレンズの前記中央部の周囲の周辺部と前記樹脂層との間に空間が設けられている
     半導体パッケージ。
  2.  前記樹脂層の屈折率が、1.0から1.5の範囲内である
     請求項1に記載の半導体パッケージ。
  3.  前記樹脂層の屈折率が、空気の屈折率より大きい
     請求項2に記載の半導体パッケージ。
  4.  前記樹脂層は、エポキシ系樹脂、低融点ガラス、又は、紫外線硬化型樹脂からなる
     請求項1に記載の半導体パッケージ。
  5.  前記空間の高さの最大値が、100nm以上である
     請求項1に記載の半導体パッケージ。
  6.  前記半導体基板と前記オンチップレンズとの間に、カラーフィルタが配置されている
     請求項1に記載の半導体パッケージ。
  7.  前記半導体基板と前記カラーフィルタとの間に、平坦化層が配置されている
     請求項6に記載の半導体パッケージ。
  8.  前記半導体基板と前記カラーフィルタとの間に、配線層が配置されている
     請求項6に記載の半導体パッケージ。
  9.  画素が配置されている画素領域の周囲の周辺領域において、前記オンチップレンズの上端と同じ高さの平坦な領域が形成されている
     請求項1に記載の半導体パッケージ。
  10.  ガラス基板の一方の面に樹脂を塗布する塗布工程と、
     前記樹脂を硬化する硬化工程と、
     ウエハのオンチップレンズが形成されている面と前記ガラス基板の前記樹脂が塗布されている面とを接合する接合工程と
     を含む半導体パッケージの製造方法。
  11.  前記接合工程において、前記ウエハと前記ガラス基板とが、両者の間の表面エネルギーを用いて接合される
     請求項10に記載の半導体パッケージの製造方法。
  12.  前記ガラス基板が接合された前記ウエハから半導体パッケージを個片化する個片化工程を
     さらに含む請求項10に記載の半導体パッケージの製造方法。
PCT/JP2021/023698 2020-07-07 2021-06-23 半導体パッケージ及び半導体パッケージの製造方法 WO2022009674A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/003,448 US20230253427A1 (en) 2020-07-07 2021-06-23 Semiconductor package and method for manufacturing semiconductor package

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-116831 2020-07-07
JP2020116831A JP2022014507A (ja) 2020-07-07 2020-07-07 半導体パッケージ及び半導体パッケージの製造方法

Publications (1)

Publication Number Publication Date
WO2022009674A1 true WO2022009674A1 (ja) 2022-01-13

Family

ID=79552976

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023698 WO2022009674A1 (ja) 2020-07-07 2021-06-23 半導体パッケージ及び半導体パッケージの製造方法

Country Status (3)

Country Link
US (1) US20230253427A1 (ja)
JP (1) JP2022014507A (ja)
WO (1) WO2022009674A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048292A1 (ja) * 2022-08-29 2024-03-07 ソニーセミコンダクタソリューションズ株式会社 光検出素子、撮像装置、及び車両制御システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295739A (ja) * 2008-06-04 2009-12-17 Zycube:Kk 半導体イメージセンサ
JP2014063144A (ja) * 2012-08-27 2014-04-10 Asahi Glass Co Ltd 光学フィルタおよび固体撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295739A (ja) * 2008-06-04 2009-12-17 Zycube:Kk 半導体イメージセンサ
JP2014063144A (ja) * 2012-08-27 2014-04-10 Asahi Glass Co Ltd 光学フィルタおよび固体撮像装置

Also Published As

Publication number Publication date
US20230253427A1 (en) 2023-08-10
JP2022014507A (ja) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7449317B2 (ja) 撮像装置
CN110431668B (zh) 固态摄像装置和电子设备
WO2018088284A1 (ja) 固体撮像素子および製造方法、並びに電子機器
US20230008784A1 (en) Solid-state imaging device and electronic device
WO2019207978A1 (ja) 撮像素子および撮像素子の製造方法
JP6869717B2 (ja) 撮像装置および撮像装置の製造方法、並びに、電子機器
WO2022064853A1 (ja) 固体撮像装置及び電子機器
WO2022009693A1 (ja) 固体撮像装置およびその製造方法
WO2021131904A1 (ja) 撮像装置および撮像装置の製造方法
WO2019069669A1 (ja) 半導体装置、半導体装置の製造方法、及び、電子機器
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
WO2022009674A1 (ja) 半導体パッケージ及び半導体パッケージの製造方法
WO2022091576A1 (ja) 固体撮像装置及び電子機器
US20200203409A1 (en) Imaging device, method of producing imaging device, imaging apparatus, and electronic apparatus
US20230117904A1 (en) Sensor package, method of manufacturing the same, and imaging device
CN110998849B (zh) 成像装置、相机模块和电子设备
JP2021150325A (ja) 固体撮像装置及びその製造方法、並びに電子機器
US20240153978A1 (en) Semiconductor chip, manufacturing method for semiconductor chip, and electronic device
WO2023105678A1 (ja) 光検出装置および光学フィルタ
WO2021192584A1 (ja) 撮像装置およびその製造方法
US20210272995A1 (en) Imaging element and electronic apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21836775

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21836775

Country of ref document: EP

Kind code of ref document: A1