WO2022209128A1 - 半導体装置 - Google Patents

半導体装置 Download PDF

Info

Publication number
WO2022209128A1
WO2022209128A1 PCT/JP2022/000888 JP2022000888W WO2022209128A1 WO 2022209128 A1 WO2022209128 A1 WO 2022209128A1 JP 2022000888 W JP2022000888 W JP 2022000888W WO 2022209128 A1 WO2022209128 A1 WO 2022209128A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
semiconductor device
wiring layer
electrode
laminate
Prior art date
Application number
PCT/JP2022/000888
Other languages
English (en)
French (fr)
Inventor
啓太 竹内
悟司 山本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021054562A external-priority patent/JP2024098510A/ja
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202280016071.3A priority Critical patent/CN116868346A/zh
Priority to US18/551,251 priority patent/US20240178079A1/en
Publication of WO2022209128A1 publication Critical patent/WO2022209128A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/31Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to form insulating layers thereon, e.g. for masking or by using photolithographic techniques; After treatment of these layers; Selection of materials for these layers
    • H01L21/3205Deposition of non-insulating-, e.g. conductive- or resistive-, layers on insulating layers; After-treatment of these layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/70Manufacture or treatment of devices consisting of a plurality of solid state components formed in or on a common substrate or of parts thereof; Manufacture of integrated circuit devices or of parts thereof
    • H01L21/71Manufacture of specific parts of devices defined in group H01L21/70
    • H01L21/768Applying interconnections to be used for carrying current between separate components within a device comprising conductors and dielectrics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/30Structural arrangements specially adapted for testing or measuring during manufacture or treatment, or specially adapted for reliability measurements
    • H01L22/32Additional lead-in metallisation on a device or substrate, e.g. additional pads or pad portions, lines in the scribe line, sacrificed conductors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/52Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames
    • H01L23/522Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames including external interconnections consisting of a multilayer structure of conductive and insulating layers inseparably formed on the semiconductor body
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14632Wafer-level processed structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to semiconductor devices.
  • a technique has been proposed for mounting a semiconductor device on a wiring board in a more space-saving manner without using bonding wires by bonding the semiconductor device to the wiring board by a flip-chip method.
  • a semiconductor device undergoes a probe test to determine whether the semiconductor device is good or bad before being mounted on a wiring board.
  • a probe is brought into contact with a pad electrode of the semiconductor device to check the operation of the semiconductor device, thereby determining whether the semiconductor device is good or bad.
  • the present disclosure proposes a new and improved semiconductor device capable of further reducing the effects of probe testing.
  • a laminate including a semiconductor substrate, an opening provided from a first surface of the laminate and filled with an insulating material, a pad electrode provided at the bottom of the opening, and the opening a wiring layer provided in the laminate in a planar region overlapping the provided planar region in plan view from the first surface and electrically connected to the pad electrode; and a planar region provided with the opening. and a through electrode provided in a different planar region in plan view and provided from a second surface opposite to the first surface of the laminate.
  • the openings exposing the pad electrodes and the through electrodes are arranged so that the stress applied to the laminate by the probes pressed against the pad electrodes during the probe test during the manufacturing process does not directly act on the through electrodes. can do.
  • FIG. 1 is a vertical cross-sectional view showing an outline of an imaging device according to an embodiment of the present disclosure
  • FIG. FIG. 3 is a schematic diagram showing the arrangement of pixel regions and various circuits on the first substrate and the second substrate;
  • FIG. 3 is a schematic diagram showing a circuit configuration example in a laminate;
  • 4 is a circuit diagram showing an equivalent circuit of each pixel;
  • FIG. It is a top view which shows an example of the planar structure of a laminated body.
  • FIG. 6 is a longitudinal sectional view showing an enlarged attention area of FIG. 5;
  • FIG. 7 is a vertical cross-sectional view showing a state during a probe test in the cross-sectional structure shown in FIG. 6;
  • FIG. 7 is a longitudinal sectional view showing another example of the sectional structure shown in FIG.
  • FIG. 6 It is a longitudinal section showing the 1st modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 1st modification of the imaging device concerning the embodiment.
  • FIG. 7 is a vertical cross-sectional view of the imaging device shown in FIG. 6 having a cavityless structure; It is a longitudinal section showing the 2nd modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 2nd modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 2nd modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 2nd modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 3rd modification of the imaging device concerning the embodiment. It is a longitudinal section showing the 1st derivation example of the imaging device concerning the embodiment.
  • FIG. 11 is a longitudinal sectional view showing a fourth derived example of the imaging device according to the same embodiment
  • FIG. 11 is a longitudinal sectional view showing a fifth derived example of the imaging device according to the same embodiment
  • 2 is a block diagram showing a configuration example of an electronic device including the imaging device according to the same embodiment
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit; 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system; FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU; FIG.
  • Imaging device 1.1. Overall configuration 1.2. Detailed configuration 2 . Modification 3. Derived example 4. Electronic equipment 5 .
  • Imaging Device> (1.1. Overall configuration) First, with reference to FIGS. 1 to 4, the overall configuration of an imaging device according to an embodiment of the present disclosure will be described. An imaging device according to the present embodiment described below is a specific example of a semiconductor device in the present disclosure.
  • FIG. 1 is a vertical cross-sectional view showing an outline of an imaging device according to this embodiment.
  • the imaging device 1 according to this embodiment is a semiconductor package in which a laminate 13 in which a first substrate 11 and a second substrate 12 are laminated is packaged.
  • the imaging device 1 can convert light incident from the direction indicated by the arrow L in the drawing into an electrical signal and output the electrical signal.
  • a plurality of backside electrodes 14 are provided on the lower surface of the second substrate 12 as electrical connection points with an external substrate (that is, the substrate on which the imaging device 1 is mounted) not shown.
  • the back electrodes 14 may be solder balls containing, for example, tin (Sn), silver (Ag), copper (Cu), and the like.
  • a red (R), green (G), or blue (B) color filter 15 and an on-chip lens 16 are provided on the upper surface of the first substrate 11 .
  • a transparent substrate 18 such as a glass substrate for protecting the on-chip lens 16 is provided on the upper surface of the first substrate 11 .
  • a glass sealing resin 17 is filled between the upper surface of the first substrate 11 and the transparent substrate 18 .
  • a structure in which no gap (also called a cavity) is provided around the color filter 15 and the on-chip lens 16 is also called a cavityless structure.
  • the imaging device 1 according to this embodiment may be provided with a cavityless structure as shown in FIG. good.
  • FIG. 2 is a schematic diagram showing the arrangement of pixel regions and various circuits on the first substrate 11 and the second substrate 12.
  • FIG. 2 is a schematic diagram showing the arrangement of pixel regions and various circuits on the first substrate 11 and the second substrate 12.
  • the first substrate 11 may be provided with a pixel region 21 in which pixels that perform photoelectric conversion are two-dimensionally arranged, and a control circuit 22 that controls each pixel.
  • the second substrate 12 may be provided with a logic circuit 23 including a signal processing circuit for processing pixel signals output from each pixel.
  • only the pixel region 21 may be provided on the first substrate 11 .
  • a control circuit 22 and a logic circuit 23 may be provided on the second substrate 12 .
  • the logic circuit 23, or the logic circuit 23 and the control circuit 22 may be provided on the second substrate 12 different from the first substrate 11 on which the pixel region 21 is provided.
  • the imaging device 1 is configured as a laminate 13 in which a first substrate 11 and a second substrate 12 are laminated as shown in FIG. The size can be made smaller compared to the case of planar arrangement on the substrate.
  • FIG. 3 is a schematic diagram showing a circuit configuration example in the laminate 13.
  • the laminate 13 includes a pixel array section 33, a vertical drive circuit 34, a column signal processing circuit 35, a horizontal drive circuit 36, an output circuit 37, a control circuit 38, and input/output terminals. 39.
  • the pixel array section 33 is an area in which a plurality of pixels 32 are arranged in a two-dimensional array.
  • Each of the plurality of pixels 32 includes a photoelectric conversion element such as a photodiode and a plurality of pixel transistors.
  • the photoelectric conversion element in each pixel 32 and the circuit configuration of the plurality of pixel transistors will be described later with reference to FIG.
  • the control circuit 38 receives an input clock and data indicating an operation mode, etc., and outputs data such as internal information of the laminate 13 . Specifically, the control circuit 38 generates a clock signal that serves as a reference for the operation of the vertical drive circuit 34, the column signal processing circuit 35, the horizontal drive circuit 36, and the like based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. and generate control signals. Furthermore, the control circuit 38 outputs the generated clock signal and control signal to the vertical drive circuit 34, the column signal processing circuit 35, the horizontal drive circuit 36, and the like.
  • the vertical drive circuit 34 is composed of, for example, a shift register.
  • the vertical drive circuit 34 selects a predetermined pixel drive wiring 40 and supplies pulses for driving the pixels 32 to the selected pixel drive wiring 40 . This allows the vertical drive circuit 34 to drive the pixels 32 on a row-by-row basis.
  • the vertical drive circuit 34 sequentially selects and scans the pixels 32 of the pixel array section 33 in units of rows in the vertical direction. Thereby, the vertical driving circuit 34 can supply the pixel signal generated by each pixel 32 to the column signal processing circuit 35 via the vertical signal line 41 .
  • a column signal processing circuit 35 is arranged for each column of pixels 32 .
  • the column signal processing circuit 35 performs signal processing such as noise removal on pixel signals output from the pixels 32 of one row for each column of the pixels 32 .
  • the column signal processing circuit 35 may perform signal processing such as CDS (Correlated Double Sampling) for removing pixel-specific fixed pattern noise and AD (Analog to Digital) conversion.
  • CDS Correlated Double Sampling
  • AD Analog to Digital
  • the horizontal drive circuit 36 is composed of, for example, a shift register.
  • the horizontal drive circuit 36 sequentially selects each of the column signal processing circuits 35 by sequentially outputting horizontal scanning pulses. Thereby, the horizontal driving circuit 36 can output the pixel signal from each of the column signal processing circuits 35 to the horizontal signal line 42 .
  • the output circuit 37 performs signal processing on the pixel signals sequentially supplied from each of the column signal processing circuits 35 via the horizontal signal line 42, and outputs the signal-processed pixel signals to the outside.
  • the output circuit 37 may, for example, perform only buffering, or may perform black level adjustment, column variation correction, or various digital signal processing.
  • the input/output terminal 39 performs input/output of signals with the outside.
  • the input/output terminal 39 may receive data indicating an operation mode or the like from the outside, and may output information such as the operation mode of the imaging device 1 to the outside.
  • the imaging device 1 including the laminate 13 configured as described above is a so-called column AD type CMOS image sensor in which a column signal processing circuit 35 for performing CDS processing and AD conversion processing is arranged for each column of pixels 32 .
  • FIG. 4 is a circuit diagram showing an equivalent circuit of each pixel 32.
  • FIG. According to the pixel 32 having the following equivalent circuit, the imaging device 1 can realize an electronic global shutter function.
  • the pixel 32 includes a photoelectric conversion element 51, a first transfer transistor 52, a memory section (MEM) 53, a second transfer transistor 54, an FD (floating diffusion) region 55, and a reset transistor. 56 , an amplification transistor 57 , a selection transistor 58 and an ejection transistor 59 .
  • the photoelectric conversion element 51 is a photodiode that generates and accumulates charges according to the amount of light received.
  • the photoelectric conversion element 51 has an anode terminal grounded and a cathode terminal connected to the memory section 53 via the first transfer transistor 52 .
  • the cathode terminal of the photoelectric conversion element 51 is also connected to a discharge transistor 59 provided for discharging unnecessary charges.
  • the first transfer transistor 52 reads out the charge generated by the photoelectric conversion element 51 and transfers it to the memory unit 53 by being controlled to be turned on by the transfer signal TRX.
  • the memory section 53 is a charge holding section that temporarily holds charges until the charges are transferred to the FD region 55 .
  • the second transfer transistor 54 is controlled to be turned on by the transfer signal TRG to read out the charge held in the memory section 53 and transfer it to the FD region 55 .
  • the FD region 55 is a charge holding portion that holds charges read from the memory portion 53 for reading out as pixel signals.
  • the reset transistor 56 discharges the charge accumulated in the FD region 55 to the constant voltage source VDD by being controlled to be turned on by the reset signal RST. Thereby, the reset transistor 56 can reset the potential of the FD region 55 to the potential before charge is accumulated.
  • the amplification transistor 57 outputs a pixel signal corresponding to the potential of the FD region 55.
  • the amplifying transistor 57 forms a source follower circuit with the load MOS 60 as a constant current source, thereby outputting a pixel signal having a level corresponding to the amount of charge accumulated in the FD region 55 .
  • the load MOS 60 is, for example, a MOS transistor and provided inside the column signal processing circuit 35 . Thereby, the amplification transistor 57 can output a pixel signal to the column signal processing circuit 35 via the selection transistor 58 .
  • the selection transistor 58 is controlled to be turned on when the pixel 32 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 32 to the column signal processing circuit 35 via the vertical signal line 41 .
  • the discharge transistor 59 is controlled to be turned on by the discharge signal OFG, thereby discharging unnecessary charges accumulated in the photoelectric conversion element 51 to the constant voltage source VDD.
  • the transfer signal TRX, the transfer signal TRG, the reset signal RST, the discharge signal OFG, and the selection signal SEL are supplied from the vertical drive circuit 34 via the pixel drive wiring 40 .
  • a High-level discharge signal OFG is supplied to the discharge transistor 59, thereby turning the discharge transistor 59 on.
  • the charges accumulated in the photoelectric conversion elements 51 are discharged to the constant voltage source VDD, so that the photoelectric conversion elements 51 of all the pixels 32 are reset.
  • the discharge transistor 59 is controlled to be turned off by the low-level discharge signal OFG. After that, exposure is started for all the pixels 32 of the pixel array section 33 .
  • the first transfer transistors 52 are controlled to be turned on by the transfer signal TRX, so that the charges accumulated in the photoelectric conversion elements 51 are It is transferred to the memory unit 53 .
  • the charges held in the memory section 53 of each pixel 32 are sequentially read out to the column signal processing circuit 35 row by row.
  • the charge held in the memory unit 53 of the pixel 32 in the readout row is transferred to the FD region 55 by controlling the second transfer transistor 54 in the pixel 32 in the readout row to be turned on by the transfer signal TRG.
  • the selection transistor 58 is controlled to be turned on by the selection signal SEL, so that the pixel signal having the level corresponding to the amount of charge accumulated in the FD region 55 is transmitted from the amplification transistor 57 through the selection transistor 58 to the column signal processing.
  • Output to circuit 35 is provided to circuit 35 .
  • the imaging apparatus 1 sets the exposure time to be the same for all the pixels 32 of the pixel array section 33, and the electric charge temporarily held in the memory section 53 is transferred from the memory section 53 row by row after the end of the exposure. It is possible to read out sequentially. As a result, the imaging device 1 can operate (imaging) in the global shutter method.
  • circuit configuration of the pixel 32 is not limited to the circuit configuration shown in FIG.
  • the circuit configuration of the pixel 32 may be a circuit configuration that does not have the memory unit 53 and that operates according to a so-called rolling shutter method.
  • the pixel 32 may be provided as a shared pixel in which a part of the pixel transistor is shared by a plurality of pixels 32 .
  • each pixel 32 has a first transfer transistor 52, a memory unit 53, and a second transfer transistor 54, and a plurality of FD regions 55, reset transistors 56, amplification transistors 57, and selection transistors 58. It may be provided as a shared pixel shared by the pixels 32 (for example, four pixels 32, etc.).
  • FIG. 5 is a plan view showing an example of the planar configuration of the laminate 13. As shown in FIG.
  • the laminated body 13 of the imaging device 1 is provided with a plurality of pairs of through electrodes 85 and pad electrodes 62 .
  • the through electrodes 85 are provided on the rear surface side of the laminate 13 to take out pixel signals and the like.
  • pixel signals are output to the outside from a back surface electrode 14 provided on the back surface of the laminate 13 . Therefore, by providing the through electrodes 85 , the imaging device 1 can extract pixel signals processed by various circuits inside the laminate 13 to the back surface side of the laminate 13 and output them to the outside from the back electrodes 14 . can be done.
  • the pad electrode 62 is subjected to a probe test to determine whether or not various circuits provided in the laminate 13 operate normally (that is, whether the laminate 13 is a non-defective product) during the manufacturing process of the imaging device 1.
  • a needle-shaped probe is pressed against the pad electrode 62 exposed on the surface of the multilayer body 13 to check the operation, etc., and whether or not the various circuits provided on the multilayer body 13 operate normally.
  • the imaging device 1 can determine whether the laminate 13 is good or bad during the manufacturing process, thereby reducing losses during manufacturing.
  • the pad electrodes 62 are embedded so as not to be exposed on the surface of the laminate 13 after the probe test, in order to prevent malfunction or noise from occurring in the manufactured imaging device 1 .
  • the through electrodes 85 and the pad electrodes 62 are provided in the peripheral region of the pixel array section 33 .
  • the through electrode 85 may be provided on the side opposite to the side on which the pixel array section 33 is provided with respect to the pad electrode 62 (that is, the region outside the pixel array section 33).
  • the through electrode 85 is provided in a plane area different in plan view from the plane area of the pad electrode 62 that can be contacted by the probe used for the probe test. According to this, the imaging device 1 can reduce the influence of the stress due to the pressing of the probe during the probe test.
  • FIG. 6 is a longitudinal sectional view showing an enlarged attention area MA of FIG.
  • the area of interest MA is an area including, for example, the through electrode 85 , the pad electrode 62 , and part of the pixel array section 33 .
  • the imaging device 1 is composed of a laminate 13 in which a first substrate 11 and a second substrate 12 are laminated.
  • the first substrate 11 includes a first semiconductor substrate 101 made of silicon (Si) or the like, and a first multi-layer stacked on the second substrate 12 side of the first semiconductor substrate 101 (lower side facing FIG. 6). and wiring layer 102 .
  • the pixel circuits of the pixel region 21 shown in FIG. 2 and the like are provided in the first multilayer wiring layer 102 .
  • the first multilayer wiring layer 102 is composed of a plurality of wiring layers 103 made of a conductive material and interlayer insulating films 104 made of an insulating material between the wiring layers 103 .
  • the wiring layer 103 may be provided with a conductive material such as copper (Cu), aluminum (Al), or tungsten (W), for example.
  • the interlayer insulating film 104 may be provided with an insulating material such as silicon oxide (SiO 2 ), silicon nitride (SiN), or silicon oxynitride (SiON).
  • the plurality of wiring layers 103 and the interlayer insulating film 104 may all be made of the same material, or may be made of two or more materials for each layer.
  • a photoelectric conversion element 51 (not shown) such as a photodiode is provided for each pixel 32 on the first semiconductor substrate 101 . Further, in the first semiconductor substrate 101 and the first multilayer wiring layer 102, a first transfer transistor 52, a second transfer transistor 54, and a memory section (MEM) 53 for transferring charges photoelectrically converted by the photoelectric conversion element 51 are provided. etc. are provided.
  • the second substrate 12 includes a second semiconductor substrate 81 made of silicon (Si) or the like, and a second multilayer wiring laminated on the first substrate 11 side of the second semiconductor substrate 81 (on the upper side when facing FIG. 6). layer 82.
  • the second multilayer wiring layer 82 is provided with the control circuit 22 and the logic circuit 23 shown in FIG.
  • the second multilayer wiring layer 82 is composed of a plurality of wiring layers 83 made of a conductive material and interlayer insulating films 84 made of an insulating material between the wiring layers 83 .
  • the wiring layer 83 may be provided with a conductive material such as copper (Cu), aluminum (Al), or tungsten (W), for example.
  • the interlayer insulating film 84 may be provided with an insulating material such as silicon oxide (SiO 2 ), silicon nitride (SiN), or silicon oxynitride (SiON).
  • the plurality of wiring layers 83 and the interlayer insulating films 84 may all be made of the same material, or may be made of two or more materials for each layer.
  • the first wiring layer 102 of the first substrate 11 includes four wiring layers 103
  • the second wiring layer 82 of the second substrate 12 includes five wiring layers. 83.
  • the wiring layers 103 and 83 are not limited to the number of layers described above, and may be provided with any number of layers.
  • dummy wirings may be provided in a region of the first multilayer wiring layer 102 not including the wiring layer 103 and a region of the second multilayer wiring layer 82 not including the wiring layer 83 .
  • the first substrate 11 and the second substrate 12 are laminated by making the first multilayer wiring layer 102 and the second multilayer wiring layer 82 face each other. Also, an electrode junction structure 105 is provided at the interface between the first multilayer wiring layer 102 and the second multilayer wiring layer 82 .
  • the electrode junction structure 105 includes a metal electrode exposed on the surface of the first multilayer wiring layer 102 facing the second substrate 12 and a metal electrode exposed on the surface of the second multilayer wiring layer 82 facing the first substrate 11 . are formed by joining them by heat treatment.
  • the electrode junction structure 105 can efficiently connect the wiring layer 103 included in the first multilayer wiring layer 102 and the wiring layer 83 included in the second multilayer wiring layer 82 in a shorter distance.
  • the first semiconductor substrate 101 in the peripheral region of the pixel array section 33 is provided with an opening 61 on the first surface S1 opposite to the second substrate 12 side.
  • the opening 61 is filled with a buried layer 63 , and a pad electrode 62 is provided at the bottom of the opening 61 .
  • the opening 61 is provided from the first surface S1 side of the first semiconductor substrate 101 through the planarization film 108, the first semiconductor substrate 101, and the first multilayer wiring layer 102 to the second multilayer wiring layer 82,
  • the pad electrodes 62 provided on the second multilayer wiring layer 82 of the second substrate 12 are exposed at the bottom.
  • the opening 61 is provided in a planar region different from the planar region in which the through electrode 85 is provided when viewed from the first surface S1 of the first semiconductor substrate 101 .
  • the pad electrode 62 is provided at the bottom of the opening 61 with a conductive material such as copper (Cu) or aluminum (Al).
  • the pad electrode 62 may be provided inside the second multilayer wiring layer 82 of the second substrate 12 .
  • FIG. 7 is a vertical cross-sectional view showing a probe test state in the cross-sectional structure shown in FIG.
  • the opening 61 exposes the pad electrode 62 provided on the second multilayer wiring layer 82 of the second substrate 12 .
  • the probes 120 come into contact with the pad electrodes 62 through the openings 61 , and apply a voltage or the like to the pad electrodes 62 to check the operation of various circuits provided on the first substrate 11 and the second substrate 12 . It can be performed.
  • the needle-like probe 120 is pressed against the pad electrode 62 , an impression is formed on the pad electrode 62 by the probe.
  • the embedded layer 63 may be made of an insulating inorganic material such as silicon oxide (SiO 2 ), silicon nitride (SiN), or silicon oxynitride (SiON), or may be made of an insulating organic material such as siloxane. It may be configured by
  • the embedded layer 63 may be provided to extend on the first surface S1 of the first semiconductor substrate 101 opposite to the second substrate 12 side.
  • the embedding layer 63 is provided extending over the first surface S1 of the outer peripheral region of the pixel array section 33 so that the color filter 15 and the on-chip lens 16 are provided between the first substrate 11 and the transparent substrate 18.
  • a void 19 (or cavity) can be formed that encloses the .
  • the color filter 15 and the on-chip lens 16 are provided on the first surface S1 via a planarizing film 108 made of an insulating material. Furthermore, a transparent substrate 18 such as a glass substrate is provided on the first surface S ⁇ b>1 of the first semiconductor substrate 101 with an embedded layer 63 interposed therebetween. Since the embedded layer 63 is provided in the peripheral region of the pixel array section 33 , it is possible to form a gap 19 (so-called cavity) between the first semiconductor substrate 101 of the pixel array section 33 and the transparent substrate 18 . That is, the imaging device 1 shown in FIG. 6 is configured with a cavity structure in which a gap 19 is provided around the color filter 15 and the on-chip lens 16 .
  • the embedded layer 63 may be provided only inside the opening 61 .
  • 8 is a longitudinal sectional view showing another example of the sectional structure shown in FIG. 6.
  • a seal resin 17A is provided in the peripheral region of the pixel array section 33 on the first surface S1 of the first semiconductor substrate 101 including the embedding layer 63 and the planarizing film 108 .
  • the transparent substrate 18 is provided on the first surface S1 of the first semiconductor substrate 101 via the seal resin 17A, so that the color filter 15 and the on-chip lens 16 are included between the first substrate 11 and the transparent substrate 18.
  • the embedding layer 63 may be made of a resin having a light shielding property such as a black resin.
  • the seal resin 17A may be made of a transparent inorganic material such as silicon oxide (SiO 2 ), silicon nitride (SiN), or silicon oxynitride (SiON), or may be made of a transparent organic material such as siloxane.
  • a wiring layer 83A electrically connected to the pad electrode 62 is provided in a planar region that overlaps the planar region in which the opening 61 is provided in plan view from the first surface S1.
  • a wiring layer 83A electrically connected to the pad electrode 62 is provided on the second substrate 12 side of the opening 61 (on the lower side when facing FIG. 6). According to this, the imaging device 1 can improve the volume utilization efficiency in the laminate 13 by providing the wiring layer 83A also in the planar region overlapping the planar region in which the opening 61 used for the probe test is provided. . Therefore, the imaging device 1 can be made smaller in size.
  • a protective element (not shown) electrically connected to the pad electrode 62 may be provided in a planar region overlapping the planar region in which the opening 61 is provided in plan view from the first surface S1.
  • the second multilayer wiring layer 82 includes a wiring use region 71 provided with a wiring layer 83A electrically connected to the pad electrode 62, and a protection element electrically connected to the pad electrode 62.
  • a protective element region 72 may be included.
  • the wiring use region 71 is a region including a plurality of wiring layers 83A and an interlayer insulating film 84 provided between each of the wiring layers 83A. provided as a region.
  • the protective element region 72 is a region in which a protective element such as a diode is provided, and is provided as a region of the second multilayer wiring layer 82 on the second semiconductor substrate 81 side.
  • the protection element is electrically connected to the pad electrode 62 via the wiring layer 83A, thereby preventing various types of protection provided inside the laminate 13 from surges (Electro-Static Discharge: ESD) that may be input from the pad electrode 62. circuit can be protected.
  • ESD Electro-Static Discharge
  • a through electrode 85 is provided on the second surface S2 opposite to the first substrate 11 side.
  • the through electrode 85 is configured by, for example, embedding a rewiring layer 87 and a filling layer 89 into the inner wall of a through hole 88 passing through the second semiconductor substrate 81 with an insulating layer 86 interposed therebetween.
  • the through electrodes 85 are electrically connected to the wiring layer 65 provided in the second multilayer wiring layer 82 , so that the pixel signals processed by various circuits inside the imaging device 1 are transferred to the second semiconductor substrate 81 . It can be taken out on the second surface S2 side.
  • the through hole 88 is provided through the second semiconductor substrate 81 from the second surface S2 side, and exposes the wiring layer 65 at the bottom.
  • the insulating layer 86 is made of silicon oxide (SiO 2 ), silicon nitride (SiN), silicon oxynitride (SiON), or the like, and is uniformly formed on the side surfaces of the through holes 88 and the second surface S2 of the second semiconductor substrate 81 .
  • the rewiring layer 87 is formed by sequentially stacking titanium (Ti), copper (Cu), nickel (Ni), gold (Au), and the like. It is provided on layer 86 .
  • the rewiring layer 87 extends from the through electrode 85 to the insulating layer 86 on the second surface S2 of the second semiconductor substrate 81, and is connected to the back electrode 14 on the second surface S2.
  • the filling layer 89 is made of a solder resist or a solder mask containing epoxy resin, novolac resin, acrylic resin, or the like as a main component, and is provided so as to fill the through holes 88 .
  • the through electrode 85 is provided in a planar region different from the planar region in which the opening 61 is provided in plan view from the first surface S1 of the first semiconductor substrate 101 . According to this, the penetrating electrode 85 can prevent stress from being directly applied from the probe 120 when the probe 120 is pressed against the pad electrode 62 through the opening 61 . Therefore, the through electrode 85 can suppress cracks or the like from occurring in the filling layer 89 or the like due to the stress from the probe 120 .
  • the through hole 88 is provided through the second semiconductor substrate 81 , the structure around the through hole 88 is vulnerable to stress from the direction perpendicular to the in-plane direction of the second semiconductor substrate 81 . That is, the through electrode 85 becomes vulnerable to stress from the stacking direction of the stack 13 such as stress during a probe test. Therefore, in the imaging device 1 according to the present embodiment, by providing the through electrode 85 in a plane region different from the opening 61 exposing the pad electrode 62, cracks in the through electrode 85 due to stress during the probe test can be prevented. can be effectively suppressed.
  • the wiring layer 103 of the first substrate 11 and the wiring layer 83 of the second substrate 12 are the first multilayer wiring layer 102 and the second multilayer wiring layer 82 . are electrically connected at the electrode junction structure 105 provided at the interface with the . Further, in the imaging device 1 , the wiring layer 83 of the second substrate 12 and the back surface electrode 14 provided on the second surface S ⁇ b>2 are electrically connected by the through electrodes 85 . According to this, the imaging device 1 can have a smaller planar area, so that a smaller semiconductor package can be configured.
  • the opening 61 for exposing the pad electrode 62 during the probe test during the manufacturing process and the through electrode 85 are different from each other when viewed from the first surface S1 of the first semiconductor substrate 101. It is provided in a plane area. According to this, the imaging device 1 can further reduce the influence of the stress applied to the laminate 13 from the probes 120 on the laminate 13 during the probe test.
  • imaging devices 1A to 1C according to first to third modifications will be described with reference to FIGS. 9A to 13.
  • FIG. 9A and 9B are longitudinal sectional views showing the configuration of an imaging device 1A according to the first modified example.
  • FIG. 9A like FIG. 6, is a vertical cross-sectional view of the attention area MA of the imaging device 1A according to the first modification.
  • FIG. 9B like FIG. 6, is a vertical cross-sectional view of the attention area MA of the imaging device 1A according to the first modification.
  • an imaging device 1A according to a first modified example is a modified example showing variations in the structure of the first surface S1 side of the laminate 13.
  • FIG. 9A is a modified example showing variations in the structure of the first surface S1 side of the laminate 13.
  • the color filter 15 and the on-chip lens 16 are formed on the first surface S1 of the laminate 13 (that is, the first semiconductor substrate 101) via a planarizing film 108 made of an insulating material. is provided.
  • the color filter 15 and the on-chip lens 16 are embedded in an embedding layer 63 provided to extend over the entire first surface S1 of the laminate 13 while embedding the opening 61 .
  • the imaging device 1A according to the first modification has a so-called cavityless structure in which no air gap (also referred to as a cavity) is provided around the color filter 15 and the on-chip lens 16 .
  • the embedding layer 63 may be made of a transparent resin such as a glass seal resin so as not to block incident light in the pixel array section 33 .
  • a reinforcing member 67 may be provided on the embedded layer 63 provided in a region other than the pixel array section 33 .
  • the reinforcing member 67 is a frame-shaped planar member having an opening in a region corresponding to the pixel array section 33 .
  • the reinforcing member 67 may be a frame-shaped member that has a planar shape of about the same size as the laminate 13 and covers the outer peripheral region of the pixel array section 33 .
  • the reinforcing member 67 may be composed of a rigid member that can reinforce the laminate 13, such as silicon (Si), glass, plastic, or carbon.
  • the embedding layer 63 and the glass sealing resin 17 may be provided on the first surface S1 of the laminate 13 .
  • the embedding layer 63 is provided to extend on the first surface S ⁇ b>1 other than the pixel array section 33 while embedding the opening 61 .
  • the glass seal resin 17 is provided on the first surface S ⁇ b>1 of the pixel array section 33 so as to embed the color filter 15 and the on-chip lens 16 .
  • the embedding layer 63 since the embedding layer 63 is not provided on the first surface S1 of the pixel array section 33, it may be made of colored resin such as black resin.
  • the imaging device 1A according to the first modification can further reduce the size of the stack 13 in the stacking direction due to the cavityless structure. Therefore, the imaging device 1A can configure a more compact semiconductor package.
  • FIG. 9C is a vertical cross-sectional view of the attention area MA of the imaging device 1 having a cavityless structure.
  • a glass seal resin 17 is provided on the first surface S1 of the pixel array section 33 so as to embed the color filters 15 and the on-chip lenses 16 therein. Furthermore, by bonding the transparent substrate 18 onto the embedding layer 63 and the glass seal resin 17, the image pickup device 1 is configured as a cavityless structure in which no gap 19 exists around the color filter 15 and the on-chip lens 16. be done.
  • the technology according to the present disclosure is not particularly limited to the structure of the first surface S1 of the laminate 13, and can be applied to either a cavity structure or a cavityless structure.
  • (Second modification) 10 to 12 are vertical cross-sectional views respectively showing the configuration of an imaging device 1B according to the second modification.
  • 10 to 12 are vertical cross-sectional views in which the pixel array section 33 is omitted from the attention area MA of the imaging device 1B according to the second modification.
  • the imaging device 1B according to the second modification is a modification showing variations of the regions in which the pad electrodes 62 are provided in the laminate 13.
  • FIG. 10 the imaging device 1B according to the second modification is a modification showing variations of the regions in which the pad electrodes 62 are provided in the laminate 13.
  • the pad electrode 62 may be provided inside the first multilayer wiring layer 102 of the first substrate 11 with a conductive material such as copper (Cu) or aluminum (Al).
  • a conductive material such as copper (Cu) or aluminum (Al).
  • the opening 61 is provided from the first surface S1 side of the first semiconductor substrate 101 to the first multilayer wiring layer 102 through the planarization film 108 and the first semiconductor substrate 101, thereby The pad electrodes 62 provided on the first multilayer wiring layer 102 of the first substrate 11 can be exposed.
  • the pad electrode 62 may be provided on the first semiconductor substrate 101 side surface of the first multilayer wiring layer 102 with a conductive material such as copper (Cu) or aluminum (Al). good.
  • the pad electrode 62 and the first semiconductor substrate 101 are electrically insulated by an insulating film (not shown).
  • the opening 61 is provided through the planarizing film 108 and the first semiconductor substrate 101 from the first surface S1 side of the first semiconductor substrate 101, so that the first multilayer wiring layer 102 is formed at the bottom.
  • the pad electrode 62 provided on the surface of can be exposed.
  • the pad electrode 62 may be provided on the first surface S1 of the first semiconductor substrate 101 with a conductive material such as copper (Cu) or aluminum (Al). Note that the pad electrode 62 and the first semiconductor substrate 101 are electrically insulated by an insulating film (not shown). In such a case, the opening 61 is provided through the planarization film 108 so that the pad electrode 62 provided on the first surface S1 of the first semiconductor substrate 101 can be exposed at the bottom.
  • a conductive material such as copper (Cu) or aluminum (Al).
  • the imaging device 1 ⁇ /b>B according to the second modification exposes the pad electrodes 62 through the openings 61 regardless of which region the pad electrodes 62 are provided in the laminate 13 , so that the probe test can be performed. It is possible.
  • FIG. 13 is a longitudinal sectional view showing the configuration of an imaging device 1C according to the third modified example.
  • FIG. 13 is a vertical cross-sectional view of an imaging device 1C according to a third modification, with the pixel array section 33 omitted from the attention area MA.
  • an imaging device 1C according to the third modification is a modification showing variations of planar regions in which the pad electrodes 62 are provided.
  • the pad electrode 62 may be provided so as to extend from the bottom of the opening 61 to the plane area where the through electrode 85 is provided.
  • the pad electrode 62 may be provided in any planar region as long as it is provided at least in a planar region different from the planar region in which the through electrode 85 is provided.
  • the pad electrode 62 has a planar region different from the planar region where the through electrode 85 is provided is exposed at the opening 61 during the probe test.
  • the pad electrode 62 may be provided over both the planar area where the opening 61 is provided and the planar area where the through electrode 85 is provided.
  • the imaging device 1C according to the third modification can flexibly change the plane area in which the opening 61 is provided. This is because, depending on the position where the opening 61 is provided, the incident light reflected by the side surface of the first surface S1 of the embedding layer 63 filling the opening 61 enters an unintended pixel 32 of the pixel array section 33, resulting in an image being captured. This is because flare is generated in the image. Therefore, the imaging device 1C flexibly changes the position of the opening 61 so that the side surface of the embedded layer 63 is formed at a position where the occurrence of flare is suppressed by providing the pad electrode 62 in a wider plane area. can do.
  • FIG. 14 to 18 The imaging apparatus 1 according to the present embodiment can derive a structure having other effects by partially changing the structure shown in FIG. 13 .
  • FIG. 14 is a vertical cross-sectional view showing an imaging device 2 according to a first derived example.
  • the pad electrode 62 has both a planar region different from the planar region where the through electrode 85 is provided and a planar region where the through electrode 85 is provided.
  • the opening 61 is provided in a planar region that overlaps the planar region in which the through electrode 85 is provided. Note that the rest of the configuration is substantially the same as the configuration of the imaging device 1C shown in FIG. 13, so descriptions thereof will be omitted here.
  • the imaging device 2 can provide the opening 61 at a position further away from the pixel array section 33, the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 can be used as a pixel. It can be provided at a position further away from the array section 33 . According to this, in the imaging device 2 according to the first derivative example, the incident light reflected by the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 enters an unintended pixel 32. Therefore, the occurrence of flare in the captured image can be suppressed.
  • FIG. 15 is a longitudinal sectional view showing an imaging device 3 according to a second derived example.
  • the pad electrode 62 is provided so as to extend only in the planar region where the through electrode 85 is provided, and the opening 61 is formed so that the through electrode 85 is formed. It is provided in a planar region overlapping the provided planar region. Note that the rest of the configuration is substantially the same as the configuration of the imaging device 1C shown in FIG. 13, so descriptions thereof will be omitted here.
  • the imaging device 3 can provide the opening 61 at a position further away from the pixel array section 33, the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 is a pixel. It can be provided at a position further away from the array section 33 . According to this, in the imaging device 3 according to the second derived example, the incident light reflected by the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 enters an unintended pixel 32. Therefore, the occurrence of flare in the captured image can be suppressed.
  • the imaging device 3 can reduce the plane area where the pad electrodes 62 are provided, compared to the imaging device 2 according to the first derivative. Therefore, the imaging device 3 according to the second derived example can reduce the parasitic capacitance caused by the pad electrode 62, thereby reducing signal noise and signal delay.
  • FIG. 16 is a longitudinal sectional view showing an imaging device 4 according to a third derived example.
  • the pad electrode 62 is provided so as to extend only in the planar region where the through electrode 85 is provided, and the opening 61 is formed so that the through electrode 85 is formed. It is provided in a planar region overlapping the provided planar region.
  • the pad electrode 62 and the wiring layer 65 are provided only in the planar region overlapping the planar region in which the through electrode 85 is provided. Note that the rest of the configuration is substantially the same as the configuration of the imaging device 1C shown in FIG. 13, so descriptions thereof will be omitted here.
  • the imaging device 4 can provide the opening 61 at a position further away from the pixel array section 33, the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 can be used as a pixel. It can be provided at a position further away from the array section 33 . According to this, in the imaging device 4 according to the third derivative example, the incident light reflected by the side surface of the embedding layer 63 provided on the first surface S1 of the laminate 13 enters an unintended pixel 32. Therefore, the occurrence of flare in the captured image can be suppressed.
  • the imaging device 4 according to the third derivative example has a smaller plane area where the pad electrodes 62 are provided, compared to the imaging device 2 according to the first derivative example and the imaging device 3 according to the second derivative example. can do. Therefore, the imaging device 4 according to the third derivative can reduce the parasitic capacitance caused by the pad electrode 62, thereby reducing signal noise and signal delay.
  • the imaging device 4 according to the third derivative example has wiring electrically connected to the through electrodes 85 with respect to the imaging device 2 according to the first derivative example and the imaging device 3 according to the second derivative example.
  • the planar area in which layer 65 is provided can be reduced. Therefore, the imaging device 4 according to the third derived example can further expand the planar area in which the wiring layer 83 included in the second multilayer wiring layer 82 can be used, so that the wiring layer 83 can be laid out more flexibly. Can be set.
  • FIG. 17 is a longitudinal sectional view showing an imaging device 5 according to a fourth derived example.
  • signals are processed in various circuits inside the laminate 13 by bonding wires 121 connected to the pad electrodes 62 instead of the through electrodes 85 .
  • the resulting pixel signal is output to the outside.
  • the pad electrode 62 includes a plane region where the through electrode 85 was provided in the imaging device 1C shown in FIG. is provided so as to extend over both the planar region where the is provided and the different planar region.
  • the opening 61 is provided in a planar region corresponding to the planar region in which the pad electrode 62 is provided, and exposes the entire area of the pad electrode 62 .
  • Pad electrode 62 includes a connection area 131 to which bonding wire 121 is connected, and a test area 132 against which probe 120 is pressed during a probe test. Note that the rest of the configuration is substantially the same as the configuration of the imaging device 1C shown in FIG. 13, so descriptions thereof will be omitted here.
  • the imaging device 5 according to the fourth derivative can be mounted on an external substrate (not shown) using bonding wires 121 instead of the through electrodes 85 .
  • the pad electrode 62 can be divided into the connection area 131 to which the bonding wire 121 is connected and the test area 132 to which the probe 120 is pressed during the probe test. be. According to this, the imaging device 5 according to the fourth derivative can prevent the reliability of the connection of the bonding wires 121 from deteriorating due to the impressions of the probes 120 during the probe test.
  • FIG. 18 is a longitudinal sectional view showing an imaging device 6 according to a fifth derived example.
  • signals are processed in various circuits inside the laminate 13 by bonding wires 121 connected to the pad electrodes 62 instead of the through electrodes 85 .
  • the resulting pixel signal is output to the outside.
  • the plane area where the pad electrode 62 and the opening 61 are provided is reduced compared to the imaging device 5 according to the fourth derived example.
  • the pad electrode 62 includes a plane region where the through electrode 85 was provided in the imaging device 1C shown in FIG. is provided so as to extend over both the planar region where the is provided and the different planar region.
  • the opening 61 is provided in a planar region corresponding to the planar region in which the pad electrode 62 is provided, and exposes the entire area of the pad electrode 62 .
  • the bonding wire 121 is connected to the same area of the pad electrode 62 as the area to which the probe 120 is pressed during the probe test. Note that the rest of the configuration is substantially the same as the configuration of the imaging device 1C shown in FIG. 13, so descriptions thereof will be omitted here.
  • the imaging device 6 according to the fifth derivative can be mounted on an external substrate (not shown) using bonding wires 121 without using the through electrodes 85 . Further, in the imaging device 6 according to the fifth derived example, the planar area in which the pad electrodes 62 are provided can be reduced compared to the imaging device 5 according to the fourth derived example. Therefore, the imaging device 6 according to the fifth derived example can reduce the parasitic capacitance caused by the pad electrode 62, thereby reducing signal noise and signal delay.
  • the imaging devices according to the first to fifth derived examples described above can share a part of the structure and manufacturing process with the imaging device 1C shown in FIG. Therefore, the imaging device 1 according to this embodiment can be applied or derived from imaging devices having a wider range of structures.
  • FIG. 19 is a block diagram showing a configuration example of an electronic device 1000 including the imaging device 1 according to this embodiment.
  • the electronic device 1000 includes an imaging device such as a digital camera or a video camera, a portable terminal device having an imaging function, or a copying machine using an imaging device as an image reading unit.
  • general electronic equipment using The imaging device 1 may be mounted on the electronic device 1000 in the form of being formed as a single chip, and may be electronically packaged in the form of a module having an imaging function in which an imaging unit and a signal processing unit or an optical system are packaged together. It may be mounted on the device 1000 .
  • the electronic device 1000 includes an optical lens 1001, a shutter device 1002, an imaging device 1, a DSP (Digital Signal Processor) circuit 1011, a frame memory 1014, a display section 1012, and a storage section 1015. , an operation unit 1013 , and a power supply unit 1016 .
  • the DSP circuit 1011 , frame memory 1014 , display section 1012 , storage section 1015 , operation section 1013 and power supply section 1016 are interconnected via a bus line 1017 .
  • the optical lens 1001 forms an image of incident light from a subject on the imaging surface of the imaging device 1 .
  • a shutter device 1002 controls a light irradiation period and a light shielding period for the imaging device 1 .
  • the imaging device 1 converts the amount of incident light imaged on the imaging surface by the optical lens 1001 into an electric signal for each pixel and outputs the electric signal as a pixel signal.
  • the DSP circuit 1011 is a signal processing circuit that performs general camera signal processing on pixel signals output from the imaging device 1 .
  • the DSP circuit 1011 may perform, for example, white balance processing, demosaic processing, or gamma correction processing.
  • the frame memory 1014 is a temporary data storage unit.
  • the frame memory 1014 is appropriately used for storing data during signal processing in the DSP circuit 1011 .
  • the display unit 1012 is composed of a panel-type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel.
  • a display unit 1012 can display a moving image or a still image captured by the imaging device 1 .
  • the storage unit 1015 records moving images or still images captured by the imaging device 1 in a storage medium such as a hard disk drive, an optical disc, or a semiconductor memory.
  • the operation unit 1013 issues operation commands for various functions of the electronic device 1000 based on user's operations.
  • a power supply unit 1016 is an operating power supply for the DSP circuit 1011 , frame memory 1014 , display unit 1012 , storage unit 1015 and operation unit 1013 .
  • the power supply unit 1016 can appropriately supply power to these supply targets.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving object such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility vehicle, an airplane, a drone, a ship, or a robot. may be
  • FIG. 20 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 21 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 21 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • By applying the technology according to the present disclosure to the imaging unit 12031 it is possible to improve the reliability of the imaging unit 12031, so that, for example, it is possible to reduce the occurrence of errors caused by the imaging unit 12031 in a vehicle control system. .
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 22 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (this technology) can be applied.
  • FIG. 22 illustrates a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • the tip of the lens barrel 11101 is provided with an opening into which the objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel 11101 by a light guide extending inside the lens barrel 11101, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 11132 .
  • the endoscope 11100 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging element photoelectrically converts the observation light to generate an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emitting diode), and supplies the endoscope 11100 with irradiation light for imaging a surgical site or the like.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the observation target is irradiated with laser light from each of the RGB laser light sources in a time-division manner, and by controlling the drive of the imaging element of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging device.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, the wavelength dependence of light absorption in body tissues is used to irradiate a narrower band of light than the irradiation light (i.e., white light) used during normal observation, thereby observing the mucosal surface layer.
  • narrow band imaging in which a predetermined tissue such as a blood vessel is imaged with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 23 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the number of imaging elements constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to, for example, the endoscope 11100 and the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the technology according to the present disclosure can be applied to the imaging unit 11402, the reliability of the imaging unit 11402 can be improved. Therefore, for example, it is possible to reduce the occurrence of errors caused by the imaging unit 11402 in an endoscopic surgery system. can be done.
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • an imaging device is shown as a specific example of a semiconductor device, but the technology according to the present disclosure is not limited to the above examples.
  • the technology according to the present disclosure can be applied to a semiconductor device including a photodetector device such as a ToF (Time of Flight) sensor, a semiconductor storage device such as a semiconductor memory, or a logic operation device such as a CMOS circuit. be.
  • a photodetector device such as a ToF (Time of Flight) sensor
  • a semiconductor storage device such as a semiconductor memory
  • a logic operation device such as a CMOS circuit.
  • a laminate including a semiconductor substrate; an opening provided from the first surface of the laminate and filled with an insulating material; a pad electrode provided on the bottom of the opening; a wiring layer provided in the laminate in a planar region overlapping the planar region provided with the opening in a planar view from the first surface and electrically connected to the pad electrode; a through electrode provided in a planar region different from the planar region in which the opening is provided, and provided from a second surface opposite to the first surface of the laminate;
  • a semiconductor device comprising: (2) The semiconductor device according to (1) above, wherein the stacked body is configured by stacking a first substrate on the first surface side and a second substrate on the second surface side.
  • the first substrate includes a first semiconductor substrate and a first multilayer wiring layer laminated on the first semiconductor substrate
  • the second substrate includes a second semiconductor substrate and a second multilayer wiring layer laminated on the second semiconductor substrate
  • the semiconductor device according to (2) above wherein the first substrate and the second substrate are laminated with the first multilayer wiring layer and the second multilayer wiring layer facing each other.
  • the pad electrode is provided inside the first multilayer wiring layer or inside the second multilayer wiring layer.
  • the first semiconductor substrate includes a photoelectric conversion element that photoelectrically converts light incident on the first surface.
  • the pad electrode and the through electrode are provided on the periphery of the pixel array section.
  • the through electrode is provided in a planar region on the side opposite to the side on which the pixel array section is provided with respect to the pad electrode.

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

半導体基板(108、81)を含む積層体(13)と、前記積層体の第1面(S1)から設けられ、絶縁性材料で埋め込まれた開口(61)と、前記開口の底部に設けられたパッド電極(62)と、前記開口が設けられた平面領域と前記第1面からの平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された配線層(83A)と、前記開口が設けられた平面領域と前記平面視で異なる平面領域に設けられ、前記積層体の前記第1面と反対側の第2面(S2)から設けられた貫通電極(85)とを備え、プローブテストによる影響を低減することが可能な半導体装置(1)を提供する。

Description

半導体装置
 本開示は、半導体装置に関する。
 近年、電子機器の小型化に伴って、電子機器に搭載される半導体装置の小型化が求められている。
 例えば、半導体装置をフリップチップ方式にて配線基板と接合することで、ボンディングワイヤを用いずに、より省スペースにて半導体装置を配線基板に実装する技術が提案されている。
 また、複数の半導体基板を三次元的に積層することで、半導体装置を大幅に小型化する技術が提案されている。このような積層構造の半導体装置では、半導体基板を貫通する貫通電極によって積層方向での電気的な接続が形成される。
 一方で、下記の特許文献1に記載されるように、半導体装置では、配線基板に実装される前に、半導体装置の良否を判定するプローブテストが行われる。プローブテストでは、半導体装置のパッド電極にプローブを接触させ、半導体装置の動作確認等が行われることで、半導体装置の良否が判定される。
特開2009-158862号公報
 しかしながら、プローブテストでは、半導体装置のパッド電極にプローブを押し当てるため、プローブの押し当てによって半導体装置の内部に応力を与えてしまう。これにより、プローブからの応力によって、半導体装置の内部構造にクラック等を発生させてしまうことがあった。
 特に、積層構造の半導体装置では、積層方向の構造が複雑化しているため、プローブからの応力による内部構造への影響が大きくなってしまう。したがって、積層構造の半導体装置では、プローブテストによる半導体装置の信頼性への影響が大きくなってしまう。
 そこで、本開示では、プローブテストによる影響をより低減することが可能な新規かつ改良された半導体装置を提案する。
 本開示によれば、半導体基板を含む積層体と、前記積層体の第1面から設けられ、絶縁性材料で埋め込まれた開口と、前記開口の底部に設けられたパッド電極と、前記開口が設けられた平面領域と前記第1面からの平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された配線層と、前記開口が設けられた平面領域と前記平面視で異なる平面領域に設けられ、前記積層体の前記第1面と反対側の第2面から設けられた貫通電極と、を備える、半導体装置が提供される。
 本開示によれば、製造工程中のプローブテスト時にパッド電極に押し当てられたプローブによって積層体に与えられる応力が貫通電極に直接作用しないように、パッド電極を露出させる開口と貫通電極とを配置することができる。
本開示の一実施形態に係る撮像装置の概略を示す縦断面図である。 第1基板及び第2基板における画素領域と、各種回路との配置を示す模式図である。 積層体における回路構成例を示す模式図である。 画素の各々の等価回路を示す回路図である。 積層体の平面構成の一例を示す平面図である。 図5の注目領域を拡大して示した縦断面図である。 図6に示す断面構造において、プローブテストの際の状態を示す縦断面図である。 図6に示す断面構造の他の例を示す縦断面図である。 同実施形態に係る撮像装置の第1の変形例を示す縦断面図である。 同実施形態に係る撮像装置の第1の変形例を示す縦断面図である。 図6に示す撮像装置をキャビティレス構造とした縦断面図である。 同実施形態に係る撮像装置の第2の変形例を示す縦断面図である。 同実施形態に係る撮像装置の第2の変形例を示す縦断面図である。 同実施形態に係る撮像装置の第2の変形例を示す縦断面図である。 同実施形態に係る撮像装置の第3の変形例を示す縦断面図である。 同実施形態に係る撮像装置の第1の派生例を示す縦断面図である。 同実施形態に係る撮像装置の第2の派生例を示す縦断面図である。 同実施形態に係る撮像装置の第3の派生例を示す縦断面図である。 同実施形態に係る撮像装置の第4の派生例を示す縦断面図である。 同実施形態に係る撮像装置の第5の派生例を示す縦断面図である。 同実施形態に係る撮像装置を含む電子機器の構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.撮像装置
  1.1.全体構成
  1.2.詳細構成
 2.変形例
 3.派生例
 4.電子機器
 5.適用例
 <1.撮像装置>
 (1.1.全体構成)
 まず、図1~図4を参照して、本開示の一実施形態に係る撮像装置の全体構成について説明する。以下で説明する本実施形態に係る撮像装置は、本開示における半導体装置の一具体例である。
 図1は、本実施形態に係る撮像装置の概略を示す縦断面図である。図1に示すように、本実施形態に係る撮像装置1は、第1基板11と第2基板12とが積層された積層体13をパッケージ化した半導体パッケージである。撮像装置1は、図中の矢印Lで示される方向から入射する光を電気信号へ変換して出力することができる。
 第2基板12の下面には、図示しない外部基板(すなわち、撮像装置1が実装される基板)との電気的な接続点となる裏面電極14が複数設けられる。裏面電極14は、例えば、錫(Sn)、銀(Ag)、及び銅(Cu)などを含むはんだボールであってもよい。
 第1基板11の上面には、赤色(R)、緑色(G)、又は青色(B)のカラーフィルタ15と、オンチップレンズ16とが設けられる。また、第1基板11の上面には、オンチップレンズ16を保護するガラス基板等の透明基板18が設けられる。さらに、第1基板11の上面と、透明基板18との間には、ガラスシール樹脂17が充填される。
 このようなカラーフィルタ15及びオンチップレンズ16の周囲に空隙(キャビティともいう)が設けられない構造は、キャビティレス構造とも称される。本実施形態に係る撮像装置1は、図1のようにキャビティレス構造にて設けられてもよく、カラーフィルタ15及びオンチップレンズ16の周囲に空隙が設けられたキャビティ構造にて設けられてもよい。
 図2は、第1基板11及び第2基板12における画素領域と、各種回路との配置を示す模式図である。
 図2のAに示すように、第1基板11には、光電変換を行う画素が二次元配列された画素領域21と、各画素の制御を行う制御回路22とが設けられてもよい。第2基板12には、各画素から出力された画素信号を処理する信号処理回路などを含むロジック回路23が設けられてもよい。
 または、図2のBに示すように、第1基板11には、画素領域21のみが設けられてもよい。第2基板12には、制御回路22と、ロジック回路23とが設けられてもよい。
 すなわち、ロジック回路23、又はロジック回路23及び制御回路22は、画素領域21が設けられた第1基板11と異なる第2基板12に設けられてもよい。撮像装置1は、図2に示すような第1基板11と第2基板12とを積層した積層体13として構成されることで、画素領域21、制御回路22、及びロジック回路23を1枚の基板に平面的に配置した場合と比較して、サイズをより小さくすることができる。
 図3は、積層体13における回路構成例を示す模式図である。図3に示すように、積層体13は、画素アレイ部33と、垂直駆動回路34と、カラム信号処理回路35と、水平駆動回路36と、出力回路37と、制御回路38と、入出力端子39とを備える。
 画素アレイ部33は、複数の画素32が二次元アレイ状に配列された領域である。複数の画素32は、フォトダイオードなどの光電変換素子と、複数の画素トランジスタとを含んでそれぞれ構成される。画素32の各々における光電変換素子、及び複数の画素トランジスタの回路構成については、図4を参照して後述する。
 制御回路38は、入力クロックと、動作モードなどを指示するデータとを受け取り、積層体13の内部情報などのデータを出力する。具体的には、制御回路38は、垂直同期信号、水平同期信号、及びマスタクロックに基づいて、垂直駆動回路34、カラム信号処理回路35、及び水平駆動回路36などの動作の基準となるクロック信号及び制御信号を生成する。さらに、制御回路38は、生成したクロック信号及び制御信号を垂直駆動回路34、カラム信号処理回路35、及び水平駆動回路36等に出力する。
 垂直駆動回路34は、例えば、シフトレジスタによって構成される。垂直駆動回路34は、所定の画素駆動配線40を選択し、選択された画素駆動配線40に画素32を駆動するためのパルスを供給する。これにより、垂直駆動回路34は、行単位で画素32を駆動することができる。例えば、垂直駆動回路34は、画素アレイ部33の画素32の各々を行単位で垂直方向に順次選択及び走査する。これにより、垂直駆動回路34は、画素32の各々にて生成された画素信号をカラム信号処理回路35に垂直信号線41を介して供給することができる。
 カラム信号処理回路35は、画素32の列ごとに配置される。カラム信号処理回路35は、1行分の画素32から出力される画素信号に対して画素32の列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路35は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)、及びAD(Analog to Digital)変換等の信号処理を行ってもよい。
 水平駆動回路36は、例えば、シフトレジスタによって構成される。水平駆動回路36は、水平走査パルスを順次出力することによって、カラム信号処理回路35の各々を順番に選択する。これにより、水平駆動回路36は、カラム信号処理回路35の各々から画素信号を水平信号線42に出力させることができる。
 出力回路37は、カラム信号処理回路35の各々から水平信号線42を介して順次供給される画素信号を信号処理し、信号処理された画素信号を外部に出力する。出力回路37は、例えば、バファリングのみを行ってもよく、黒レベル調整、列ばらつき補正、又は各種デジタル信号処理などを行ってもよい。
 入出力端子39は、外部との信号の入出力を行う。例えば、入出力端子39は、動作モードなどを指示するデータを外部から入力されてもよく、撮像装置1の動作モードなどの情報を外部に出力してもよい。
 上記構成の積層体13を備える撮像装置1は、CDS処理及びAD変換処理を行うカラム信号処理回路35が画素32の列ごとに配置された、いわゆるカラムAD方式のCMOSイメージセンサである。
 図4は、画素32の各々の等価回路を示す回路図である。以下の等価回路を有する画素32によれば、撮像装置1は、電子式のグローバルシャッタ機能を実現することが可能である。
 図4に示すように、画素32は、光電変換素子51と、第1転送トランジスタ52と、メモリ部(MEM)53と、第2転送トランジスタ54と、FD(フローティングディフュージョン)領域55と、リセットトランジスタ56と、増幅トランジスタ57と、選択トランジスタ58と、排出トランジスタ59とを有する。
 光電変換素子51は、受光量に応じた電荷を生成し、蓄積するフォトダイオードである。光電変換素子51では、アノード端子が接地されると共に、カソード端子が第1転送トランジスタ52を介してメモリ部53に接続される。また、光電変換素子51のカソード端子は、不要な電荷を排出するために設けられた排出トランジスタ59とも接続される。
 第1転送トランジスタ52は、転送信号TRXにてオン状態に制御されることで、光電変換素子51で生成された電荷を読み出し、メモリ部53に転送する。
 メモリ部53は、FD領域55に電荷が転送されるまでの間、電荷を一時的に保持する電荷保持部である。
 第2転送トランジスタ54は、転送信号TRGにてオン状態に制御されることで、メモリ部53に保持されている電荷を読み出し、FD領域55に転送する。
 FD領域55は、メモリ部53から読み出された電荷を画素信号として読み出すために保持する電荷保持部である。
 リセットトランジスタ56は、リセット信号RSTにてオン状態に制御されることで、FD領域55に蓄積されている電荷を定電圧源VDDに排出する。これにより、リセットトランジスタ56は、FD領域55の電位を電荷が蓄積される前の電位にリセットすることができる。
 増幅トランジスタ57は、FD領域55の電位に応じた画素信号を出力する。具体的には、増幅トランジスタ57は、定電流源としての負荷MOS60とソースフォロワ回路を構成することで、FD領域55に蓄積されている電荷量に応じたレベルの画素信号を出力する。負荷MOS60は、例えば、MOSトランジスタであり、カラム信号処理回路35の内部に設けられる。これにより、増幅トランジスタ57は、選択トランジスタ58を介してカラム信号処理回路35に画素信号を出力することができる。
 選択トランジスタ58は、選択信号SELにより画素32が選択されたときにオン状態に制御され、垂直信号線41を介して、画素32の画素信号をカラム信号処理回路35に出力する。
 排出トランジスタ59は、排出信号OFGにてオン状態に制御されることで、光電変換素子51に蓄積されている不要な電荷を定電圧源VDDに排出する。
 なお、転送信号TRX、転送信号TRG、リセット信号RST、排出信号OFG、及び選択信号SELは、画素駆動配線40を介して垂直駆動回路34から供給される。
 続いて、図4で示す等価回路を有する画素32の動作について説明する。
 まず、露光開始前に、Highレベルの排出信号OFGが排出トランジスタ59に供給されることで、排出トランジスタ59がオン状態に制御される。これにより、光電変換素子51に蓄積されている電荷が定電圧源VDDに排出されるため、全ての画素32の光電変換素子51がリセットされる。
 次に、光電変換素子51のリセット後、排出トランジスタ59は、Lowレベルの排出信号OFGによりオフ状態に制御される。その後、画素アレイ部33の全ての画素32で露光が開始される。
 所定の露光時間が経過した後、画素アレイ部33の全ての画素32において、転送信号TRXにて第1転送トランジスタ52がオン状態に制御されることで、光電変換素子51に蓄積された電荷がメモリ部53に転送される。
 第1転送トランジスタ52がオフ状態に制御された後、画素32の各々のメモリ部53に保持されている電荷が行単位にカラム信号処理回路35に順次読み出される。
 具体的には、読み出し行の画素32の第2転送トランジスタ54が転送信号TRGにてオン状態に制御されることで、読み出し行の画素32のメモリ部53に保持されている電荷がFD領域55に転送される。その後、選択信号SELにて選択トランジスタ58がオン状態に制御されることで、FD領域55に蓄積された電荷量に応じたレベルの画素信号が増幅トランジスタ57から選択トランジスタ58を介してカラム信号処理回路35に出力される。
 以上の動作によれば、撮像装置1は、画素アレイ部33の全ての画素32で露光時間を同一とし、露光終了後にメモリ部53で一時的に保持された電荷をメモリ部53から行単位で順次読み出すことが可能である。これにより、撮像装置1は、グローバルシャッタ方式での動作(撮像)が可能である。
 なお、画素32の回路構成は、図4に示す回路構成に限定されない。例えば、画素32の回路構成は、メモリ部53を有さない、いわゆるローリングシャッタ方式による動作を行う回路構成であってもよい。
 また、画素32は、画素トランジスタの一部を複数の画素32で共有する共有画素として設けられてもよい。例えば、画素32は、第1転送トランジスタ52、メモリ部53、及び第2転送トランジスタ54を画素32の各々が有し、FD領域55、リセットトランジスタ56、増幅トランジスタ57、及び選択トランジスタ58を複数の画素32(例えば、4つの画素32など)で共有する共有画素として設けられてもよい。
 (1.2.詳細構成)
 次に、図5~図7を参照して、本実施形態に係る撮像装置1の詳細構成について説明する。図5は、積層体13の平面構成の一例を示す平面図である。
 図5に示すように、本実施形態に係る撮像装置1の積層体13には、貫通電極85及びパッド電極62が対となって複数設けられる。
 貫通電極85は、積層体13の裏面側に画素信号等を取り出すために設けられる。撮像装置1は、積層体13の裏面に設けられた裏面電極14から外部に画素信号が出力される。そのため、貫通電極85が設けられることで、撮像装置1は、積層体13の内部の各種回路で信号処理された画素信号を積層体13の裏面側に取り出し、裏面電極14から外部に出力することができる。
 パッド電極62は、撮像装置1の製造工程中に、積層体13に設けられた各種回路が正常に動作するか否か(すなわち、積層体13が良品か否か)を判定するプローブテストを行うために設けられる。プローブテストは、積層体13の表面に露出されたパッド電極62に針状のプローブを押し当てて動作確認等を行うことで、積層体13に設けられた各種回路が正常に動作するか否かを検査するテストである。パッド電極62が設けられることで、撮像装置1は、製造工程の途中で積層体13の良不良を判定することができるため、製造時の損失を低減することができる。なお、パッド電極62は、製造された撮像装置1で誤作動又はノイズ等が発生することを防止するために、プローブテストの後に、積層体13の表面に露出されないように埋め込まれる。
 本実施形態に係る撮像装置1では、貫通電極85及びパッド電極62は、画素アレイ部33の外周領域に設けられる。例えば、貫通電極85は、パッド電極62に対して、画素アレイ部33が設けられた側と反対側(すなわち、画素アレイ部33よりも外側の領域)に設けられてもよい。また、貫通電極85は、プローブテストに用いるプローブが接触可能なパッド電極62の平面領域と平面視で異なる平面領域に設けられる。これによれば、撮像装置1は、プローブテスト時のプローブ押し当てによる応力の影響を低減することができる。
 続いて、図6を参照して、貫通電極85及びパッド電極62の構成に注目して、撮像装置1の詳細構成についてより具体的に説明する。図6は、図5の注目領域MAを拡大して示した縦断面図である。注目領域MAは、例えば、貫通電極85、パッド電極62、及び画素アレイ部33の一部を含む領域である。
 図6に示すように、撮像装置1は、第1基板11と、第2基板12とを積層した積層体13にて構成される。
 第1基板11は、シリコン(Si)等で構成された第1半導体基板101と、第1半導体基板101の第2基板12側(図6に正対して下側)に積層された第1多層配線層102とで構成される。第1多層配線層102には、図2で示した画素領域21の画素回路などが設けられる。
 第1多層配線層102は、導電性材料で設けられた複数の配線層103と、配線層103の各々の間に絶縁性材料で設けられた層間絶縁膜104とで構成される。配線層103は、例えば、銅(Cu)、アルミニウム(Al)、又はタングステン(W)などの導電性材料で設けられてもよい。層間絶縁膜104は、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などの絶縁性材料で設けられてもよい。複数の配線層103、及び層間絶縁膜104は、すべての層が同一の材料で構成されてもよく、層ごとに2以上の材料を使い分けて構成されてもよい。
 第1半導体基板101には、画素32ごとにフォトダイオードなどの光電変換素子51(図示せず)が設けられる。また、第1半導体基板101及び第1多層配線層102には、光電変換素子51にて光電変換された電荷を転送する第1転送トランジスタ52、第2転送トランジスタ54、及びメモリ部(MEM)53などが設けられる。
 第2基板12は、シリコン(Si)等で構成された第2半導体基板81と、第2半導体基板81の第1基板11側(図6に正対して上側)に積層された第2多層配線層82とで構成される。第2多層配線層82には、図2で示した制御回路22及びロジック回路23などが設けられる。
 第2多層配線層82は、導電性材料で設けられた複数の配線層83と、配線層83の各々の間に絶縁性材料で設けられた層間絶縁膜84とで構成される。配線層83は、例えば、銅(Cu)、アルミニウム(Al)、又はタングステン(W)などの導電性材料で設けられてもよい。層間絶縁膜84は、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などの絶縁性材料で設けられてもよい。複数の配線層83、及び層間絶縁膜84は、すべての層が同一の材料で構成されてもよく、層ごとに2以上の材料を使い分けて構成されてもよい。
 図6で示す例では、第1基板11の第1多層配線層102は、4層の配線層103を含んで構成され、第2基板12の第2多層配線層82は、5層の配線層83を含んで構成される。しかしながら、配線層103,83は、上記の層数に限定されず、任意の層数で設けられてもよい。また、第1多層配線層102の配線層103が含まれない領域、及び第2多層配線層82の配線層83が含まれない領域には、ダミー配線が設けられてもよい。
 第1基板11と第2基板12とは、第1多層配線層102と第2多層配線層82とを互いに対向させることで積層される。また、第1多層配線層102及び第2多層配線層82との界面には、電極接合構造105が設けられる。電極接合構造105は、第1多層配線層102の第2基板12と対向する表面に露出された金属電極と、第2多層配線層82の第1基板11と対向する表面に露出された金属電極とを熱処理によって接合することで形成される。電極接合構造105は、第1多層配線層102に含まれる配線層103と、第2多層配線層82に含まれる配線層83とをより短い距離で効率的に接続することが可能である。
 ここで、画素アレイ部33の外周領域の第1半導体基板101には、第2基板12側と反対側の第1面S1に開口61が設けられる。開口61は、埋込層63にて埋め込まれており、開口61の底部には、パッド電極62が設けられる。
 例えば、開口61は、第1半導体基板101の第1面S1側から平坦化膜108、第1半導体基板101、及び第1多層配線層102を貫通して第2多層配線層82まで設けられ、底部にて第2基板12の第2多層配線層82に設けられたパッド電極62を露出させる。開口61は、後述するように、第1半導体基板101の第1面S1から平面視した際に、貫通電極85が設けられた平面領域とは異なる平面領域に設けられる。
 パッド電極62は、銅(Cu)又はアルミニウム(Al)等の導電性材料にて開口61の底部に設けられる。例えば、パッド電極62は、第2基板12の第2多層配線層82の内部に設けられてもよい。
 開口61は、撮像装置1の製造工程にてプローブテストを行うために設けられる。図7を参照して、撮像装置1のプローブテストについて説明する。図7は、図6に示す断面構造において、プローブテストの際の状態を示す縦断面図である。
 図7に示すように、例えば、プローブテスト時に、開口61は、第2基板12の第2多層配線層82に設けられたパッド電極62を露出させる。これにより、プローブ120は、開口61を介してパッド電極62に接触し、パッド電極62に電圧等を印加することで、第1基板11及び第2基板12に設けられた各種回路の動作確認等を行うことができる。なお、プローブテストでは、針状のプローブ120をパッド電極62に押し当てるため、パッド電極62にはプローブによる圧痕が形成される。
 プローブテストの後、開口61は、誤作動又はノイズの発生を防止するために、埋込層63にて埋め込まれる。埋込層63は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)等の絶縁性の無機材料で構成されてもよく、シロキサン等の絶縁性の有機材料により構成されてもよい。
 埋込層63は、第1半導体基板101の第2基板12側と反対側の第1面S1上に延在して設けられてもよい。埋込層63は、画素アレイ部33の外周領域の第1面S1上に延在して設けられることで、第1基板11と透明基板18との間に、カラーフィルタ15及びオンチップレンズ16を包摂する空隙19(すなわちキャビティ)を形成することができる。
 具体的には、第1面S1には、絶縁性材料で構成された平坦化膜108を介して、カラーフィルタ15及びオンチップレンズ16が設けられる。さらに、第1半導体基板101の第1面S1には、埋込層63を介して、ガラス基板等の透明基板18が設けられる。埋込層63は、画素アレイ部33の外周領域に設けられるため、画素アレイ部33の第1半導体基板101と、透明基板18との間に空隙19(いわゆるキャビティ)を形成することができる。すなわち、図6に示す撮像装置1は、カラーフィルタ15及びオンチップレンズ16の周囲に空隙19が設けられたキャビティ構造にて構成される。
 なお、図8に示すように、埋込層63は、開口61の内部のみに設けられてもよい。図8は、図6に示す断面構造の他の例を示す縦断面図である。図8に示す断面構造では、埋込層63は、開口61の内部に設けられる。埋込層63及び平坦化膜108を含む第1半導体基板101の第1面S1上には、画素アレイ部33の外周領域にシール樹脂17Aが設けられる。透明基板18は、シール樹脂17Aを介して第1半導体基板101の第1面S1に設けられることで、第1基板11と透明基板18との間に、カラーフィルタ15及びオンチップレンズ16を包摂する空隙19を形成することができる。このような場合、埋込層63は、黒色樹脂などの遮光性を有する樹脂で構成されてもよい。また、シール樹脂17Aは、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)等の透明な無機材料で構成されてもよく、シロキサン等の透明な有機材料で構成されてもよい。
 また、開口61が設けられた平面領域と第1面S1からの平面視で重畳する平面領域には、パッド電極62と電気的に接続する配線層83Aが設けられる。具体的には、開口61の第2基板12側(図6に正対して下側)には、パッド電極62と電気的に接続する配線層83Aが設けられる。これによれば、撮像装置1は、プローブテストに用いる開口61が設けられた平面領域と重畳する平面領域にも配線層83Aを設けることで、積層体13における体積利用効率を向上させることができる。したがって、撮像装置1は、サイズをより小さくすることが可能である。
 さらに、開口61が設けられた平面領域と第1面S1からの平面視で重畳する平面領域には、パッド電極62と電気的に接続する保護素子(図示せず)が設けられてもよい。具体的には、第2多層配線層82は、パッド電極62と電気的に接続する配線層83Aが設けられた配線使用領域71と、パッド電極62と電気的に接続する保護素子が設けられた保護素子領域72とを含んでもよい。
 配線使用領域71は、複数の配線層83Aと、配線層83Aの各々の間に設けられた層間絶縁膜84とを含む領域であり、第2多層配線層82の第1多層配線層102側の領域として設けられる。保護素子領域72は、ダイオードなどの保護素子が設けられた領域であり、第2多層配線層82の第2半導体基板81側の領域として設けられる。保護素子は、配線層83Aを介してパッド電極62と電気的に接続されることで、パッド電極62から入力され得るサージ(Electro-Static Discharge:ESD)から積層体13の内部に設けられた各種回路を保護することができる。
 一方、画素アレイ部33の外周領域の第2半導体基板81には、第1基板11側と反対側の第2面S2に貫通電極85が設けられる。
 貫通電極85は、例えば、第2半導体基板81を貫通する貫通孔88の内壁に絶縁層86を介して、再配線層87及びフィリング層89を埋め込むことで構成される。貫通電極85は、第2多層配線層82に設けられた配線層65と電気的に接続することで、撮像装置1の内部の各種回路にて信号処理された画素信号を第2半導体基板81の第2面S2側に取り出すことができる。
 具体的には、貫通孔88は、第2面S2側から第2半導体基板81を貫通して設けられ、底部にて配線層65を露出させる。絶縁層86は、酸化シリコン(SiO)、窒化シリコン(SiN)、又は酸窒化シリコン(SiON)などで構成され、貫通孔88の側面、及び第2半導体基板81の第2面S2に一様に設けられる。再配線層87は、チタン(Ti)、銅(Cu)、ニッケル(Ni)、及び金(Au)などを順次積層することで構成され、貫通孔88の形状に沿って、配線層65及び絶縁層86の上に設けられる。再配線層87は、貫通電極85から第2半導体基板81の第2面S2上の絶縁層86の上まで延在しており、第2面S2上で裏面電極14と接続される。フィリング層89は、エポキシ系樹脂、ノボラック系樹脂、又はアクリル系樹脂などを主成分とするソルダーレジスト又はソルダーマスクで構成され、貫通孔88を埋め込むように設けられる。
 貫通電極85は、第1半導体基板101の第1面S1からの平面視で、開口61が設けられた平面領域とは異なる平面領域に設けられる。これによれば、貫通電極85は、開口61を介してパッド電極62にプローブ120が押し当てられた際に、プローブ120からの応力が直接加わらないようにすることができる。したがって、貫通電極85は、プローブ120からの応力によってフィリング層89等にクラック等が発生することを抑制することができる。
 貫通孔88は、第2半導体基板81を貫通して設けられるため、貫通孔88付近の構成は、第2半導体基板81の面内方向に垂直な方向からの応力に弱くなる。すなわち、貫通電極85は、プローブテスト時の応力などの積層体13の積層方向からの応力に弱くなる。そのため、本実施形態に係る撮像装置1は、パッド電極62を露出させる開口61とは異なる平面領域に貫通電極85を設けることで、プローブテスト時の応力によって貫通電極85にクラックが発生することを効率的に抑制することができる。
 以上の構成によれば、本実施形態に係る撮像装置1では、第1基板11の配線層103と、第2基板12の配線層83とが第1多層配線層102と第2多層配線層82との界面に設けられた電極接合構造105にて電気的に接続される。また、撮像装置1では、第2基板12の配線層83と、第2面S2に設けられた裏面電極14とが貫通電極85にて電気的に接続される。これによれば、撮像装置1は、平面面積をより小さくすることができるため、より小型化した半導体パッケージを構成することが可能である。
 また、本実施形態に係る撮像装置1では、製造工程中のプローブテスト時にパッド電極62を露出させる開口61と、貫通電極85とが第1半導体基板101の第1面S1からの平面視で異なる平面領域に設けられる。これによれば、撮像装置1は、プローブテスト時にプローブ120から積層体13に加えられる応力が積層体13に与える影響をより低減することが可能である。
 <2.変形例>
 次に、図9A~図13を参照して、第1~第3の変形例に係る撮像装置1A~1Cについて説明する。
 (第1の変形例)
 図9A及び図9Bは、第1の変形例に係る撮像装置1Aの構成を示す縦断面図である。図9Aは、図6と同様に、第1の変形例に係る撮像装置1Aの注目領域MAの縦断面図である。図9Bは、図6と同様に、第1の変形例に係る撮像装置1Aの注目領域MAの縦断面図である。
 図9A及び図9Bに示すように、第1の変形例に係る撮像装置1Aは、積層体13の第1面S1側の構造のバリエーションを示す変形例である。
 図9Aに示すように、積層体13(すなわち、第1半導体基板101)の第1面S1には、絶縁性材料で構成された平坦化膜108を介して、カラーフィルタ15及びオンチップレンズ16が設けられる。また、カラーフィルタ15及びオンチップレンズ16は、開口61を埋め込みつつ積層体13の第1面S1の全面に延在して設けられた埋込層63にて埋め込まれる。すなわち、第1の変形例に係る撮像装置1Aは、カラーフィルタ15及びオンチップレンズ16の周囲に空隙(キャビティともいう)が設けられない、いわゆるキャビティレス構造を有する。このような場合、埋込層63は、画素アレイ部33にて入射光を遮らないようにガラスシール樹脂などの透明樹脂で構成され得る。
 なお、画素アレイ部33以外の領域に設けられた埋込層63の上には、補強部材67が設けられてもよい。補強部材67は、画素アレイ部33に対応する領域が開口された額縁形状の平面形状の部材である。具体的には、補強部材67は、積層体13と同程度のサイズの平面形状を有し、画素アレイ部33の外周領域を覆う額縁形状の部材であってもよい。補強部材67は、例えば、シリコン(Si)、ガラス、プラスチック、又はカーボンなどの積層体13を補強可能な剛直な部材で構成され得る。
 また、図9Bに示すように、積層体13の第1面S1には、埋込層63及びガラスシール樹脂17が設けられてもよい。埋込層63は、開口61を埋め込みつつ画素アレイ部33以外の第1面S1上に延在して設けられる。ガラスシール樹脂17は、画素アレイ部33の第1面S1上にカラーフィルタ15及びオンチップレンズ16を埋め込むように設けられる。このような場合、埋込層63は、画素アレイ部33の第1面S1上に設けられないため、黒色樹脂等の有色樹脂で構成されてもよい。
 これによれば、第1の変形例に係る撮像装置1Aは、キャビティレス構造により、積層体13の積層方向のサイズをより小さくすることができる。したがって、撮像装置1Aは、より小型化した半導体パッケージを構成することが可能である。
 なお、図6にて示したキャビティ構造の撮像装置1において、空隙19をガラスシール樹脂17で埋め込むことでキャビティレス構造とすることも可能である。このような構造について図9Cを参照して説明する。図9Cは、キャビティレス構造の撮像装置1の注目領域MAの縦断面図である。
 図9Cに示すように、キャビティレス構造の撮像装置1では、画素アレイ部33の第1面S1上に、カラーフィルタ15及びオンチップレンズ16を埋め込むようにガラスシール樹脂17が設けられる。さらに、埋込層63及びガラスシール樹脂17の上に透明基板18が貼り合わせられることで、撮像装置1は、カラーフィルタ15及びオンチップレンズ16の周囲に空隙19が存在しないキャビティレス構造として構成される。本開示に係る技術は、積層体13の第1面S1側の構造については特に限定されないため、キャビティ構造又はキャビティレス構造のいずれに対しても適用することが可能である。
 (第2の変形例)
 図10~図12は、第2の変形例に係る撮像装置1Bの構成をそれぞれ示す縦断面図である。図10~図12は、第2の変形例に係る撮像装置1Bの注目領域MAから画素アレイ部33を省略した縦断面図である。
 図10~図12に示すように、第2の変形例に係る撮像装置1Bは、積層体13においてパッド電極62が設けられる領域のバリエーションを示す変形例である。
 図10に示すように、パッド電極62は、銅(Cu)又はアルミニウム(Al)等の導電性材料にて第1基板11の第1多層配線層102の内部に設けられてもよい。このような場合、開口61は、第1半導体基板101の第1面S1側から平坦化膜108、及び第1半導体基板101を貫通して第1多層配線層102まで設けられることで、底部にて第1基板11の第1多層配線層102に設けられたパッド電極62を露出させることができる。
 また、図11に示すように、パッド電極62は、銅(Cu)又はアルミニウム(Al)等の導電性材料にて第1多層配線層102の第1半導体基板101側の表面に設けられてもよい。なお、パッド電極62と第1半導体基板101とは、図示しない絶縁膜にて電気的に絶縁される。このような場合、開口61は、第1半導体基板101の第1面S1側から平坦化膜108、及び第1半導体基板101を貫通して設けられることで、底部にて第1多層配線層102の表面に設けられたパッド電極62を露出させることができる。
 さらに、図12に示すように、パッド電極62は、銅(Cu)又はアルミニウム(Al)等の導電性材料にて第1半導体基板101の第1面S1上に設けられてもよい。なお、パッド電極62と第1半導体基板101とは、図示しない絶縁膜にて電気的に絶縁される。このような場合、開口61は、平坦化膜108を貫通して設けられることで、底部にて第1半導体基板101の第1面S1に設けられたパッド電極62を露出させることができる。
 これによれば、第2の変形例に係る撮像装置1Bは、パッド電極62が積層体13のいずれの領域に設けられる場合でも、開口61にてパッド電極62を露出させることで、プローブテストを行うことが可能である。第2の変形例に係る撮像装置1Bでは、パッド電極62が積層体13の第1面S1側に近い領域に設けられるほど、プローブテスト時にプローブ120を押し当てた際の応力が貫通電極85に与える影響をより低減することが可能である。
 (第3の変形例)
 図13は、第3の変形例に係る撮像装置1Cの構成を示す縦断面図である。図13は、第3の変形例に係る撮像装置1Cの注目領域MAから画素アレイ部33を省略した縦断面図である。
 図13に示すように、第3の変形例に係る撮像装置1Cは、パッド電極62が設けられる平面領域のバリエーションを示す変形例である。
 具体的には、パッド電極62は、開口61の底部から貫通電極85が設けられた平面領域まで延在して設けられてもよい。パッド電極62は、貫通電極85が設けられた平面領域と異なる平面領域に少なくとも設けられていれば、任意の平面領域に設けられてもよい。ただし、パッド電極62は、プローブテスト時には、貫通電極85が設けられた平面領域と異なる平面領域が開口61にて露出される。例えば、パッド電極62は、開口61が設けられた平面領域と、貫通電極85が設けられた平面領域との双方に亘って設けられてもよい。
 これによれば、第3の変形例に係る撮像装置1Cは、開口61が設けられる平面領域をフレキシブルに変更することが可能である。これは、開口61が設けられる位置によっては、開口61を埋め込む埋込層63の第1面S1上の側面にて反射された入射光が画素アレイ部33の意図しない画素32に入射し、撮像画像にフレアを発生させてしまうためである。そのため、撮像装置1Cは、パッド電極62をより広い平面領域に設けることで、フレアの発生が抑制される位置に埋込層63の側面が形成されるように、開口61の位置をフレキシブルに変更することができる。
 <3.派生例>
 続いて、図14~図18を参照して、本実施形態に係る撮像装置1の派生例について説明する。本実施形態に係る撮像装置1は、図13に示した構造の一部を変更することで、他の効果を奏する構造に派生させることが可能である。
 (第1の派生例)
 図14は、第1の派生例に係る撮像装置2を示す縦断面図である。図14に示すように、第1の派生例に係る撮像装置2では、パッド電極62は、貫通電極85が設けられた平面領域と異なる平面領域、及び貫通電極85が設けられた平面領域の双方に延在して設けられ、開口61は、貫通電極85が設けられた平面領域と重畳する平面領域に設けられる。なお、その他の構成については、図13に示した撮像装置1Cの構成と実質的に同様であるため、ここでの説明は省略する。
 このような場合、撮像装置2は、画素アレイ部33からより離れた位置に開口61を設けることができるため、積層体13の第1面S1上に設けられた埋込層63の側面を画素アレイ部33からより離れた位置に設けることができる。これによれば、第1の派生例に係る撮像装置2は、積層体13の第1面S1上に設けられた埋込層63の側面にて反射した入射光が意図しない画素32に入射することを抑制することができるため、撮像画像にフレアが発生することを抑制することができる。
 (第2の派生例)
 図15は、第2の派生例に係る撮像装置3を示す縦断面図である。図15に示すように、第2の派生例に係る撮像装置3では、パッド電極62は、貫通電極85が設けられた平面領域のみに延在して設けられ、開口61は、貫通電極85が設けられた平面領域と重畳する平面領域に設けられる。なお、その他の構成については、図13に示した撮像装置1Cの構成と実質的に同様であるため、ここでの説明は省略する。
 このような場合、撮像装置3は、画素アレイ部33からより離れた位置に開口61を設けることができるため、積層体13の第1面S1上に設けられた埋込層63の側面を画素アレイ部33からより離れた位置に設けることができる。これによれば、第2の派生例に係る撮像装置3は、積層体13の第1面S1上に設けられた埋込層63の側面にて反射した入射光が意図しない画素32に入射することを抑制することができるため、撮像画像にフレアが発生することを抑制することができる。
 また、撮像装置3は、第1の派生例に係る撮像装置2に対して、パッド電極62が設けられる平面領域を縮小することができる。したがって、第2の派生例に係る撮像装置3は、パッド電極62に起因する寄生容量を低減することができるため、信号ノイズ及び信号遅れを低減することができる。
 (第3の派生例)
 図16は、第3の派生例に係る撮像装置4を示す縦断面図である。図16に示すように、第3の派生例に係る撮像装置4では、パッド電極62は、貫通電極85が設けられた平面領域のみに延在して設けられ、開口61は、貫通電極85が設けられた平面領域と重畳する平面領域に設けられる。また、パッド電極62及び配線層65は、貫通電極85が設けられた平面領域と重畳する平面領域のみに設けられる。なお、その他の構成については、図13に示した撮像装置1Cの構成と実質的に同様であるため、ここでの説明は省略する。
 このような場合、撮像装置4は、画素アレイ部33からより離れた位置に開口61を設けることができるため、積層体13の第1面S1上に設けられた埋込層63の側面を画素アレイ部33からより離れた位置に設けることができる。これによれば、第3の派生例に係る撮像装置4は、積層体13の第1面S1上に設けられた埋込層63の側面にて反射した入射光が意図しない画素32に入射することを抑制することができるため、撮像画像にフレアが発生することを抑制することができる。
 また、第3の派生例に係る撮像装置4は、第1の派生例に係る撮像装置2、及び第2の派生例に係る撮像装置3に対して、パッド電極62が設けられる平面領域を縮小することができる。したがって、第3の派生例に係る撮像装置4は、パッド電極62に起因する寄生容量を低減することができるため、信号ノイズ及び信号遅れを低減することができる。
 さらに、第3の派生例に係る撮像装置4は、第1の派生例に係る撮像装置2、及び第2の派生例に係る撮像装置3に対して、貫通電極85と電気的に接続する配線層65が設けられる平面領域を縮小することができる。したがって、第3の派生例に係る撮像装置4は、第2多層配線層82に含まれる配線層83が使用可能な平面領域をより拡大することができるため、配線層83のレイアウトをより柔軟に設定することが可能である。
 (第4の派生例)
 図17は、第4の派生例に係る撮像装置5を示す縦断面図である。図17に示すように、第4の派生例に係る撮像装置5では、貫通電極85に替えて、パッド電極62に接続されたボンディングワイヤ121によって、積層体13の内部の各種回路で信号処理された画素信号が外部に出力される。
 具体的には、パッド電極62は、図13に示す撮像装置1Cにて貫通電極85が設けられていた平面領域(すなわち、図17では配線層65が設けられた平面領域)、及び貫通電極85が設けられた平面領域と異なる平面領域の双方に延在して設けられる。開口61は、パッド電極62が設けられた平面領域に対応する平面領域に設けられ、パッド電極62の全域を露出させる。パッド電極62は、ボンディングワイヤ121が接続される接続領域131と、プローブテスト時にプローブ120が押し当てられるテスト領域132とを含む。なお、その他の構成については、図13に示した撮像装置1Cの構成と実質的に同様であるため、ここでの説明は省略する。
 第4の派生例に係る撮像装置5は、貫通電極85に替えてボンディングワイヤ121を用いて、図示しない外部基板に実装されることが可能である。また、第4の派生例に係る撮像装置5では、パッド電極62は、ボンディングワイヤ121が接続される接続領域131と、プローブテスト時にプローブ120が押し当てられるテスト領域132とを分けることが可能である。これによれば、第4の派生例に係る撮像装置5は、プローブテスト時のプローブ120の圧痕によってボンディングワイヤ121の接続の信頼性が低下することを防止することができる。
 (第5の派生例)
 図18は、第5の派生例に係る撮像装置6を示す縦断面図である。図18に示すように、第5の派生例に係る撮像装置6では、貫通電極85に替えて、パッド電極62に接続されたボンディングワイヤ121によって、積層体13の内部の各種回路で信号処理された画素信号が外部に出力される。また、第5の派生例に係る撮像装置6では、第4の派生例に係る撮像装置5に対して、パッド電極62及び開口61が設けられる平面領域が縮小される。
 具体的には、パッド電極62は、図13に示す撮像装置1Cにて貫通電極85が設けられていた平面領域(すなわち、図17では配線層65が設けられた平面領域)、及び貫通電極85が設けられた平面領域と異なる平面領域の双方に延在して設けられる。開口61は、パッド電極62が設けられた平面領域に対応する平面領域に設けられ、パッド電極62の全域を露出させる。ただし、パッド電極62は、プローブテスト時にプローブ120が押し当てられた領域と同じ領域にボンディングワイヤ121が接続される。なお、その他の構成については、図13に示した撮像装置1Cの構成と実質的に同様であるため、ここでの説明は省略する。
 第5の派生例に係る撮像装置6は、貫通電極85を用いずにボンディングワイヤ121を用いて、図示しない外部基板に実装されることが可能である。また、第5の派生例に係る撮像装置6では、第4の派生例に係る撮像装置5に対して、パッド電極62が設けられる平面領域を縮小することができる。したがって、第5の派生例に係る撮像装置6は、パッド電極62に起因する寄生容量を低減することができるため、信号ノイズ及び信号遅れを低減することができる。
 以上にて説明した第1~第5の派生例に係る撮像装置は、図13に示した撮像装置1Cに対して、構造及び製造工程の一部を共通化することが可能である。したがって、本実施形態に係る撮像装置1は、より広範な構造の撮像装置に対して応用又は派生が可能である。
 <4.電子機器>
 次に、図19を参照して、本実施形態に係る撮像装置1を含む電子機器の構成について説明する。図19は、本実施形態に係る撮像装置1を含む電子機器1000の構成例を示すブロック図である。例えば、電子機器1000は、デジタルカメラ又はビデオカメラなどの撮像機器、撮像機能を有する携帯端末装置、又は画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に撮像装置を用いる電子機器全般であってもよい。撮像装置1は、ワンチップとして形成された形態で電子機器1000に搭載されてもよく、撮像部と信号処理部又は光学系とがまとめてパッケージングされた撮像機能を有するモジュール状の形態で電子機器1000に搭載されてもよい。
 図19に示すように、電子機器1000は、光学レンズ1001と、シャッタ装置1002と、撮像装置1と、DSP(Digital Signal Processor)回路1011と、フレームメモリ1014と、表示部1012と、記憶部1015と、操作部1013と、電源部1016とを備える。DSP回路1011、フレームメモリ1014、表示部1012、記憶部1015、操作部1013、及び電源部1016は、バスライン1017を介して相互に接続される。
 光学レンズ1001は、被写体からの入射光を撮像装置1の撮像面上に結像させる。シャッタ装置1002は撮像装置1に対する光照射期間及び遮光期間を制御する。
 撮像装置1は、光学レンズ1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 DSP回路1011は、撮像装置1から出力された画素信号に対して、一般的なカメラ信号処理を行う信号処理回路である。DSP回路1011は、例えば、ホワイトバランス処理、デモザイク処理、又はガンマ補正処理などを行ってもよい。
 フレームメモリ1014は、一時的なデータの記憶部である。フレームメモリ1014は、DSP回路1011での信号処理の過程にてデータの格納に適宜用いられる。
 表示部1012は、例えば、液晶パネル又は有機EL(Electro Luminescence)パネル等のパネル型表示装置で構成される。表示部1012は、撮像装置1で撮像された動画又は静止画を表示することができる。
 記憶部1015は、撮像装置1で撮像された動画又は静止画をハードディスクドライブ、光ディスク、又は半導体メモリ等の記憶媒体に記録する。
 操作部1013は、ユーザの操作に基づいて、電子機器1000有する様々な機能について操作指令を発する。
 電源部1016は、DSP回路1011、フレームメモリ1014、表示部1012、記憶部1015、及び操作部1013の動作電源である。電源部1016は、これらの供給対象に対して電力を適宜供給することができる。
 <5.適用例>
 (移動体への適用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、又はロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図21は、撮像部12031の設置位置の例を示す図である。
 図21では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図21には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、撮像部12031の信頼性を向上させることができるため、例えば、車両制御システムにおいて撮像部12031に起因するエラーの発生を低減することができる。
 (内視鏡手術システムへの適用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図22は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図22では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図23は、図22に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100やカメラヘッド11102の撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、撮像部11402の信頼性を向上させることができるため、例えば、内視鏡手術システムにおいて撮像部11402に起因するエラーの発生を低減することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、半導体装置の一具体例として撮像装置を示したが、本開示に係る技術は上記例示に限定されない。例えば、本開示に係る技術は、ToF(Time of Flight)センサ等の光検出装置、半導体メモリ等の半導体記憶装置、又はCMOS回路等の論理演算装置などを含む半導体装置に適用することも可能である。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 半導体基板を含む積層体と、
 前記積層体の第1面から設けられ、絶縁性材料で埋め込まれた開口と、
 前記開口の底部に設けられたパッド電極と、
 前記開口が設けられた平面領域と前記第1面からの平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された配線層と、
 前記開口が設けられた平面領域と前記平面視で異なる平面領域に設けられ、前記積層体の前記第1面と反対側の第2面から設けられた貫通電極と、
を備える、半導体装置。
(2)
 前記積層体は、前記第1面側の第1基板と、前記第2面側の第2基板とを積層させることで構成される、上記(1)に記載の半導体装置。
(3)
 前記第1基板は、第1半導体基板と、前記第1半導体基板に積層された第1多層配線層とを含み、
 前記第2基板は、第2半導体基板と、前記第2半導体基板に積層された第2多層配線層とを含み、
 前記第1基板及び前記第2基板は、前記第1多層配線層と前記第2多層配線層とを対向させて積層される、上記(2)に記載の半導体装置。
(4)
 前記パッド電極は、前記第1多層配線層の内部、又は前記第2多層配線層の内部に設けられる、上記(3)に記載の半導体装置。
(5)
 前記第1半導体基板は、前記第1面に入射する光を光電変換する光電変換素子を含む、上記(3)又は(4)に記載の半導体装置。
(6)
 前記第1多層配線層及び前記第2多層配線層との界面には、前記界面に露出された金属電極同士を接合した電極接合構造が設けられる、上記(3)~(5)のいずれか一項に記載の半導体装置。
(7)
 前記積層体の前記第1面には、複数の画素を二次元配列した画素アレイ部が設けられる、上記(1)~(6)のいずれか一項に記載の半導体装置。
(8)
 前記パッド電極及び前記貫通電極は、前記画素アレイ部の外周に設けられる、上記(7)に記載の半導体装置。
(9)
 前記貫通電極は、前記パッド電極に対して前記画素アレイ部が設けられた側と反対側の平面領域に設けられる、上記(8)に記載の半導体装置。
(10)
 前記積層体の前記第1面側には、透明基板がさらに積層される、上記(1)~(9)のいずれか一項に記載の半導体装置。
(11)
 前記積層体と前記透明基板との間には、空隙が形成される、上記(10)に記載の半導体装置。
(12)
 前記パッド電極は、前記開口が設けられた平面領域と重畳する平面領域から、前記貫通電極が設けられた平面領域にまで延在して設けられる、上記(1)~(11)のいずれか一項に記載の半導体装置。
(13)
 前記パッド電極の前記開口側の表面には、プローブ痕が存在する、上記(1)~(12)のいずれか一項に記載の半導体装置。
(14)
 前記貫通電極は、前記第2面に沿って設けられた配線を介して外部接続部と電気的に接続される、上記(1)~(13)のいずれか一項に記載の半導体装置。
(15)
 前記開口が設けられた平面領域と前記平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された保護素子をさらに備える、上記(1)~(14)のいずれか一項に記載の半導体装置。
 1、1A,1B,1C,2,3,4,5,6  撮像装置
 11   第1基板
 12   第2基板
 13   積層体
 14   裏面電極
 15   カラーフィルタ
 16   オンチップレンズ
 17   ガラスシール樹脂
 18   透明基板
 19   空隙
 21   画素領域
 22   制御回路
 23   ロジック回路
 32   画素
 33   画素アレイ部
 34   垂直駆動回路
 35   カラム信号処理回路
 36   水平駆動回路
 37   出力回路
 38   制御回路
 39   入出力端子
 40   画素駆動配線
 41   垂直信号線
 42   水平信号線
 51   光電変換素子
 52   第1転送トランジスタ
 53   メモリ部
 54   第2転送トランジスタ
 55   FD領域
 56   リセットトランジスタ
 57   増幅トランジスタ
 58   選択トランジスタ
 59   排出トランジスタ
 61   開口
 62   パッド電極
 63   埋込層
 67   補強部材
 71   配線使用領域
 72   保護素子領域
 81   第2半導体基板
 82   第2多層配線層
 85   貫通電極
 86   絶縁層
 87   再配線層
 88   貫通孔
 89   フィリング層
 101  第1半導体基板
 102  第1多層配線層
 65,83,83A,103  配線層
 84,104  層間絶縁膜
 105  電極接合構造
 108  平坦化膜
 120  プローブ
 121  ボンディングワイヤ
 131  接続領域
 132  テスト領域

Claims (15)

  1.  半導体基板を含む積層体と、
     前記積層体の第1面から設けられ、絶縁性材料で埋め込まれた開口と、
     前記開口の底部に設けられたパッド電極と、
     前記開口が設けられた平面領域と前記第1面からの平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された配線層と、
     前記開口が設けられた平面領域と前記平面視で異なる平面領域に設けられ、前記積層体の前記第1面と反対側の第2面から設けられた貫通電極と、
    を備える、半導体装置。
  2.  前記積層体は、前記第1面側の第1基板と、前記第2面側の第2基板とを積層させることで構成される、請求項1に記載の半導体装置。
  3.  前記第1基板は、第1半導体基板と、前記第1半導体基板に積層された第1多層配線層とを含み、
     前記第2基板は、第2半導体基板と、前記第2半導体基板に積層された第2多層配線層とを含み、
     前記第1基板及び前記第2基板は、前記第1多層配線層と前記第2多層配線層とを対向させて積層される、請求項2に記載の半導体装置。
  4.  前記パッド電極は、前記第1多層配線層の内部、又は前記第2多層配線層の内部に設けられる、請求項3に記載の半導体装置。
  5.  前記第1半導体基板は、前記第1面に入射する光を光電変換する光電変換素子を含む、請求項3に記載の半導体装置。
  6.  前記第1多層配線層及び前記第2多層配線層との界面には、前記界面に露出された金属電極同士を接合した電極接合構造が設けられる、請求項3に記載の半導体装置。
  7.  前記積層体の前記第1面には、複数の画素を二次元配列した画素アレイ部が設けられる、請求項1に記載の半導体装置。
  8.  前記パッド電極及び前記貫通電極は、前記画素アレイ部の外周に設けられる、請求項7に記載の半導体装置。
  9.  前記貫通電極は、前記パッド電極に対して前記画素アレイ部が設けられた側と反対側の平面領域に設けられる、請求項8に記載の半導体装置。
  10.  前記積層体の前記第1面側には、透明基板がさらに積層される、請求項1に記載の半導体装置。
  11.  前記積層体と前記透明基板との間には、空隙が形成される、請求項10に記載の半導体装置。
  12.  前記パッド電極は、前記開口が設けられた平面領域と重畳する平面領域から、前記貫通電極が設けられた平面領域にまで延在して設けられる、請求項1に記載の半導体装置。
  13.  前記パッド電極の前記開口側の表面には、プローブ痕が存在する、請求項1に記載の半導体装置。
  14.  前記貫通電極は、前記第2面に沿って設けられた配線を介して外部接続部と電気的に接続される、請求項1に記載の半導体装置。
  15.  前記開口が設けられた平面領域と前記平面視で重畳する平面領域の前記積層体に設けられ、前記パッド電極と電気的に接続された保護素子をさらに備える、請求項1に記載の半導体装置。
PCT/JP2022/000888 2021-03-29 2022-01-13 半導体装置 WO2022209128A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280016071.3A CN116868346A (zh) 2021-03-29 2022-01-13 半导体装置
US18/551,251 US20240178079A1 (en) 2021-03-29 2022-01-13 Semiconductor device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021054562A JP2024098510A (ja) 2021-03-29 半導体装置
JP2021-054562 2021-03-29

Publications (1)

Publication Number Publication Date
WO2022209128A1 true WO2022209128A1 (ja) 2022-10-06

Family

ID=83456004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000888 WO2022209128A1 (ja) 2021-03-29 2022-01-13 半導体装置

Country Status (3)

Country Link
US (1) US20240178079A1 (ja)
CN (1) CN116868346A (ja)
WO (1) WO2022209128A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006216935A (ja) * 2005-02-01 2006-08-17 Samsung Electro-Mechanics Co Ltd ウェーハレベルのイメージセンサーモジュール及びその製造方法
JP2008140819A (ja) * 2006-11-30 2008-06-19 Sony Corp 固体撮像装置
JP2014086596A (ja) * 2012-10-24 2014-05-12 Olympus Corp 半導体装置、撮像装置、半導体基板の検査方法及び半導体装置の製造方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006216935A (ja) * 2005-02-01 2006-08-17 Samsung Electro-Mechanics Co Ltd ウェーハレベルのイメージセンサーモジュール及びその製造方法
JP2008140819A (ja) * 2006-11-30 2008-06-19 Sony Corp 固体撮像装置
JP2014086596A (ja) * 2012-10-24 2014-05-12 Olympus Corp 半導体装置、撮像装置、半導体基板の検査方法及び半導体装置の製造方法

Also Published As

Publication number Publication date
CN116868346A (zh) 2023-10-10
US20240178079A1 (en) 2024-05-30

Similar Documents

Publication Publication Date Title
US11508773B2 (en) Image pickup device and electronic apparatus
JP7211935B2 (ja) 半導体素子およびその製造方法、並びに電子機器
WO2019087764A1 (ja) 裏面照射型の固体撮像装置、および裏面照射型の固体撮像装置の製造方法、撮像装置、並びに電子機器
JP7267940B2 (ja) 固体撮像装置およびその製造方法、並びに電子機器
US11940602B2 (en) Imaging device
US11606519B2 (en) Imaging device
JP2022179641A (ja) 半導体装置およびその製造方法、並びに電子機器
JP2019067937A (ja) 半導体装置、半導体装置の製造方法、及び、電子機器
US20220231057A1 (en) Imaging device
WO2022172711A1 (ja) 光電変換素子および電子機器
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2022209128A1 (ja) 半導体装置
WO2023106308A1 (ja) 受光装置
JP2024098510A (ja) 半導体装置
WO2023106316A1 (ja) 受光装置
WO2022201815A1 (ja) 半導体チップおよびその製造方法、半導体装置およびその製造方法、並びに電子機器
WO2023171008A1 (ja) 光検出装置および電子機器ならびに光検出システム
WO2023079835A1 (ja) 光電変換装置
WO2022244297A1 (ja) 固体撮像装置及び電子機器
WO2023112520A1 (ja) 半導体装置、電子機器、及びウエハ
WO2023048235A1 (ja) 光検出素子及び光検出装置
WO2022118670A1 (ja) 撮像装置、電子機器、製造方法
WO2024024269A1 (ja) 固体撮像装置およびその製造方法
EP4391061A1 (en) Optical detection device and method for manufacturing same
WO2023106023A1 (ja) 光検出装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22779361

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280016071.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18551251

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22779361

Country of ref document: EP

Kind code of ref document: A1