WO2021187091A1 - センサパッケージおよびその製造方法、並びに撮像装置 - Google Patents

センサパッケージおよびその製造方法、並びに撮像装置 Download PDF

Info

Publication number
WO2021187091A1
WO2021187091A1 PCT/JP2021/008044 JP2021008044W WO2021187091A1 WO 2021187091 A1 WO2021187091 A1 WO 2021187091A1 JP 2021008044 W JP2021008044 W JP 2021008044W WO 2021187091 A1 WO2021187091 A1 WO 2021187091A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor package
lens
sensor
solid
state image
Prior art date
Application number
PCT/JP2021/008044
Other languages
English (en)
French (fr)
Inventor
英一郎 土橋
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP21772386.5A priority Critical patent/EP4124010A4/en
Priority to JP2022508190A priority patent/JPWO2021187091A1/ja
Priority to US17/905,910 priority patent/US20230117904A1/en
Priority to CN202180010653.6A priority patent/CN115004679A/zh
Publication of WO2021187091A1 publication Critical patent/WO2021187091A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0033Condensers, e.g. light collectors or similar non-imaging optics characterised by the use
    • G02B19/0076Condensers, e.g. light collectors or similar non-imaging optics characterised by the use for use with a detector
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/025Mountings, adjusting means, or light-tight connections, for optical elements for lenses using glue
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/14Special procedures for taking photographs; Apparatus therefor for taking photographs during medical operations
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0053Driving means for the movement of one or more optical element
    • G03B2205/0069Driving means for the movement of one or more optical element using electromagnetic actuators, e.g. voice coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Definitions

  • the present disclosure relates to a sensor package and a manufacturing method thereof, and an image pickup apparatus, and more particularly to a sensor package and a manufacturing method thereof capable of suppressing flare generation while realizing miniaturization and low profile, and an image pickup apparatus.
  • the lens and the solid-state image sensor are closer to each other on the optical axis, and the infrared light cut filter is arranged near the lens.
  • a technique has been proposed that realizes miniaturization of a solid-state image sensor by configuring a lens that is the lowest layer of a lens group consisting of a plurality of lenses on a solid-state image sensor.
  • the lens of the lowest layer is configured on the solid-state image sensor, the total reflection of the lens of the lowest layer arranged on the solid-state image sensor is contributed to the miniaturization and the reduction of the height of the device configuration. Flare occurs due to.
  • This disclosure has been made in view of such a situation, and is intended to realize miniaturization and low profile, and to suppress the occurrence of flare.
  • the sensor package on the first aspect of the present disclosure includes a solid-state image sensor that generates a pixel signal by photoelectric conversion according to the amount of incident light, a circuit board that is electrically connected to the solid-state image sensor, and the solid-state image sensor. It includes a sensor package substrate that is arranged on the incident light side of the element and seals the solid-state image sensor, and a lens formed on the lower surface of the sensor package substrate that is on the solid-state image sensor side.
  • the method for manufacturing a sensor package on the second side surface of the present disclosure is a method in which a sensor package holding component having a predetermined opening formed is fixed to one surface of the sensor package substrate so as to be in contact with the predetermined opening.
  • the sensor package substrate, the sensor package holding component, and the lens are simultaneously joined by filling the portion with a lens material and molding and curing the lens material with a lens mold.
  • the image pickup device on the third aspect of the present disclosure includes a solid-state image sensor that generates a pixel signal by photoelectric conversion according to the amount of incident light, a circuit board that is electrically connected to the solid-state image sensor, and the solid-state image sensor.
  • a sensor package having a sensor package substrate arranged on the incident light side of the element and sealing the solid-state image sensor, and a sensor formed on the lower surface of the sensor package substrate on the solid-state image sensor side, and a front It includes a lens unit having a lens group for focusing the incident light on the light receiving surface of the solid-state image sensor.
  • a solid-state image sensor that generates a pixel signal by photoelectric conversion according to the amount of incident light
  • a circuit board that is electrically connected to the solid-state image sensor, and the solid-state.
  • a sensor package substrate that is arranged on the incident light side of the image sensor and seals the solid-state image sensor, and a lens formed on the lower surface of the sensor package substrate that is on the solid-state image sensor side are provided.
  • the lens material is fixed to the predetermined opening so that the sensor package holding component having the predetermined opening formed on one surface of the sensor package substrate is in contact with the sensor package holding component.
  • the sensor package and the image pickup device may be independent devices or may be modules incorporated in other devices.
  • the definition of the vertical direction in the following description is merely a definition for convenience of explanation, and does not limit the technical idea of the present disclosure. For example, if the object is rotated 90 ° and observed, the top and bottom are converted to left and right and read, and if the object is rotated 180 ° and observed, the top and bottom are reversed and read.
  • FIG. 1 is a cross-sectional view showing a configuration example of an imaging device according to the first embodiment of the present disclosure, in which flare generation can be suppressed while realizing miniaturization and low profile of the device. ..
  • the image pickup device 1 of FIG. 1 is a module camera configured by assembling the sensor package 11 and the lens unit 12.
  • the sensor package 11 includes a solid-state image sensor 22 arranged on the circuit board 21, and the solid-state image sensor 22 is sealed by the circuit board 21, the sensor package board 25, and the sensor package holding component 27. It is composed of.
  • the sensor package holding component 27 that holds the sensor package board 25 is fixed to the circuit board 21 with an adhesive 30.
  • the solid-state image sensor 22 is an image sensor made of a so-called CMOS (Complementary Metal Oxide Semiconductor) sensor, CCD (Charge Coupled Device), or the like, and is fixed in a state of being electrically connected to the circuit board 21.
  • the solid-state image sensor 22 may be a sensor that receives single-wavelength incident light such as infrared rays, or may be a sensor that receives multi-wavelength incident light such as R, G, and B.
  • the solid-state image sensor 22 is composed of a plurality of pixels arranged in an array, and is focused and incident on the pixel unit from the upper part of the figure via the lens group 31.
  • a pixel signal corresponding to the amount of incident light is generated and output to the circuit board 21 as an image signal.
  • the solid-state image sensor 22 may be a sensor using a bolometer, a pn diode, a thermopile, a carbon nanotube, or the like.
  • the solid-state image sensor 22 is a solid-state image sensor (hereinafter, also referred to as a CSP solid-state image sensor) having a CSP (Chip Size Package) structure integrated with the glass substrate 24 with an adhesive 23.
  • the refractive index of the adhesive 23 is substantially the same as that of the glass substrate 24.
  • the sensor package substrate 25 is arranged on the incident light side of the solid-state image sensor 22, and has an IRCF (infrared light cut filter) function that cuts infrared light.
  • the sensor package substrate 25 is made of, for example, a glass-based material such as blue plate glass or a resin-based material, and antireflection films 26 are formed on the upper and lower surfaces of the sensor package substrate 25.
  • the material of the sensor package substrate 25 can be a metal-based material such as a Si substrate or a Ge substrate.
  • the sensor package holding component 27 fixes the sensor package board 25 in contact with the lower surface of the sensor package board 25, and also holds the lens 28 formed in the opening provided above the solid-state image sensor 22. ..
  • the sensor package holding component 27 is manufactured by molding, for example, using a resin-based material so as to provide an opening at a position above the solid-state image sensor 22.
  • the lens 28 formed in the opening of the sensor package holding component 27 is a wafer level lens manufactured by the wafer level lens process.
  • the wafer level lens process is a manufacturing method in which a plurality of openings are formed in the plane direction of a wafer substrate, and the mold is pressed against the resin dropped on the plurality of openings to transfer the mold shape.
  • An antireflection film 29 is also formed on the lower surface of the lens 28.
  • the antireflection films 26 and 29 can be formed by alternately laminating a total of four layers of low-refractive film and high-refractive film, for example.
  • the low refraction film is composed of, for example, an oxide film such as SiOx (1 ⁇ x ⁇ 2), SiOC, SiOF
  • the high refraction film is composed of, for example, a metal oxide film such as TiO, TaO, Nb2O5.
  • the antireflection films 26 and 29 may be a single-layer film containing an oxide, a nitride, or other insulating material, and may be an inorganic film among them.
  • the lens unit 12 assembled on the upper side of the sensor package 11 includes a lens group 31 composed of a plurality of lenses, a lens barrel (lens holder) 32 for accommodating the lens group 31, an AF drive unit 33, and AF. It is configured to include a fixing unit 34 for fixing the drive unit 33.
  • the lens unit 12 is fixed to the sensor package 11 by connecting the lower surface of the fixing unit 34 and the upper surface of the sensor package holding component 27 with an adhesive 35.
  • the AF drive unit 33 is composed of an AF coil 36 and an AF magnet 37 arranged so as to face each other.
  • the AF coil 36 is fixed to the outer side wall of the lens barrel 32
  • the AF magnet 37 which is a permanent magnet, is fixed to the inner side wall of the fixing unit 34.
  • the AF drive unit 33 realizes autofocus by moving the lens barrel 32 in the optical axis direction by flowing a current through the AF coil 36 and adjusting the distance between the lens group 31 and the solid-state image sensor 22. do. Due to the autofocus function of the AF drive unit 33, the lens group 31 focuses the incident light on the light receiving surface of the solid-state image sensor 22.
  • the image pickup apparatus 1 is provided with the sensor package substrate 25 for cutting (removing) infrared light and the lens 28 integrally with the sensor package holding component 27, thereby reducing the size of the apparatus configuration and reducing the height. It is configured to suppress the occurrence of flare while realizing the conversion.
  • the antireflection film 26 is formed on the upper surface and the lower surface of the sensor package substrate 25, and the antireflection film 29 is also formed on the lower surface of the lens 28.
  • one of the antireflection films 26 and 29 is formed. Or both may be omitted.
  • the antireflection film 26 may be formed only on either the upper surface or the lower surface of the sensor package substrate 25.
  • a film having other filter functions such as an infrared light cut filter and a bandpass filter may be formed in place of or in addition to the antireflection function.
  • FIG. 2 shows a schematic external view of the CSP solid-state image sensor.
  • the CSP solid-state image sensor shown in FIG. 2 is a semiconductor package in which a solid-state image sensor 22 composed of a laminated substrate in which a lower substrate 22a and an upper substrate 22b are laminated is packaged.
  • a plurality of solder balls 22e which are backside electrodes for electrically connecting to the circuit board 21 of FIG. 1, are formed on the lower substrate 22a of the laminated substrate constituting the solid-state image sensor 22.
  • An R (red), G (green), or B (blue) color filter 22c and an on-chip lens 22d are formed on the upper surface of the upper substrate 22b. Further, the upper substrate 22b is connected to the glass substrate 24 for protecting the on-chip lens 22d in a cavityless structure via an adhesive 23 made of a glass seal resin.
  • the upper substrate 22b is formed with a pixel region 41 in which pixel portions for photoelectric conversion are two-dimensionally arranged in an array, and a control circuit 42 for controlling the pixel portions.
  • a logic circuit 43 such as a signal processing circuit for processing a pixel signal output from the pixel portion is formed on the lower substrate 22a.
  • only the pixel region 41 may be formed on the upper substrate 22b, and the control circuit 42 and the logic circuit 43 may be formed on the lower substrate 22a.
  • the logic circuit 43 or both the control circuit 42 and the logic circuit 43 are formed on the lower substrate 22a different from the upper substrate 22b of the pixel region 41 and laminated to form one semiconductor substrate.
  • the size of the image pickup apparatus 1 can be reduced as compared with the case where the pixel region 41, the control circuit 42, and the logic circuit 43 are arranged in the plane direction.
  • the upper substrate 22b on which at least the pixel region 41 is formed will be referred to as a pixel sensor substrate 22b
  • the lower substrate 22a on which at least the logic circuit 43 is formed will be referred to as a logic substrate 22a.
  • FIG. 4 shows an example of a circuit configuration of the solid-state image sensor 22.
  • the solid-state image sensor 22 includes a pixel array unit 52 in which pixels 51 are arranged in a two-dimensional array, a vertical drive circuit 53, a column signal processing circuit 54, a horizontal drive circuit 55, an output circuit 56, a control circuit 57, and input / output. Includes terminal 58.
  • the pixel 51 includes a photodiode as a photoelectric conversion element and a plurality of pixel transistors. An example of the circuit configuration of the pixel 51 will be described later with reference to FIG.
  • the pixel 51 may have a shared pixel structure.
  • This pixel sharing structure is composed of a plurality of photodiodes, a plurality of transfer transistors, one shared floating diffusion (floating diffusion region), and one shared pixel transistor. That is, in the shared pixel, the photodiode and the transfer transistor constituting the plurality of unit pixels are configured by sharing the other pixel transistor.
  • the control circuit 57 receives an input clock and data for instructing an operation mode and the like, and outputs data such as internal information of the solid-state image sensor 22. That is, the control circuit 57 generates a clock signal or a control signal that serves as a reference for the operation of the vertical drive circuit 53, the column signal processing circuit 54, the horizontal drive circuit 55, etc., based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. do. Then, the control circuit 57 outputs the generated clock signal and control signal to the vertical drive circuit 53, the column signal processing circuit 54, the horizontal drive circuit 55, and the like.
  • the vertical drive circuit 53 is composed of, for example, a shift register, selects a predetermined pixel drive wiring HL, supplies a pulse for driving the pixel 51 to the selected pixel drive wiring HL, and drives the pixel 51 in line units. do. That is, the vertical drive circuit 53 selectively scans each pixel 51 of the pixel array unit 52 in a row-by-row manner in the vertical direction, and a pixel signal based on the signal charge generated in the photoelectric conversion unit of each pixel 51 according to the amount of light received. Is supplied to the column signal processing circuit 54 through the vertical signal line VL.
  • the column signal processing circuit 54 is arranged for each column of the pixel 51, and performs signal processing such as noise removal for each row of signals output from the pixel 51 for one row.
  • the column signal processing circuit 54 performs signal processing such as CDS (Correlated Double Sampling) and AD conversion for removing fixed pattern noise peculiar to pixels.
  • the horizontal drive circuit 55 is composed of, for example, a shift register, and by sequentially outputting horizontal scanning pulses, each of the column signal processing circuits 54 is sequentially selected, and a pixel signal is output from each of the column signal processing circuits 54 as a horizontal signal line. Output to 59.
  • the output circuit 56 performs signal processing on the signals sequentially supplied from each of the column signal processing circuits 54 through the horizontal signal line 59 and outputs the signals.
  • the output circuit 56 may, for example, only buffer, or may perform black level adjustment, column variation correction, various digital signal processing, and the like.
  • the input / output terminal 58 exchanges signals with the outside.
  • the solid-state image sensor 22 configured as described above is a CMOS image sensor called a column AD method in which a column signal processing circuit 54 that performs CDS processing and AD conversion processing is arranged for each pixel string.
  • FIG. 5 shows an equivalent circuit of the pixel 51.
  • the pixel 51 shown in FIG. 5 shows a configuration that realizes an electronic global shutter function.
  • the pixel 51 includes a photodiode 61 as a photoelectric conversion element, a first transfer transistor 62, a memory unit (MEM) 63, a second transfer transistor 64, an FD (floating diffusion region) 65, a reset transistor 66, an amplification transistor 67, and a selection transistor. It has 68 and an emission transistor 69.
  • the photodiode 61 is a photoelectric conversion unit that generates and stores an electric charge (signal charge) according to the amount of received light.
  • the anode terminal of the photodiode 61 is grounded, and the cathode terminal is connected to the memory unit 63 via the first transfer transistor 62. Further, the cathode terminal of the photodiode 61 is also connected to a discharge transistor 69 for discharging unnecessary electric charges.
  • the memory unit 63 is a charge holding unit that temporarily holds the charge until the charge is transferred to the FD 65.
  • the second transfer transistor 64 When the second transfer transistor 64 is turned on by the transfer signal TRG, it reads out the electric charge held in the memory unit 63 and transfers it to the FD65.
  • the FD65 is a charge holding unit that holds the electric charge read from the memory unit 63 to read it as a signal.
  • the reset transistor 66 is turned on by the reset signal RST, the electric charge stored in the FD65 is discharged to the constant voltage source VDD to reset the potential of the FD65.
  • the amplification transistor 67 outputs a pixel signal according to the potential of the FD65. That is, the amplification transistor 67 constitutes a load MOS 70 as a constant current source and a source follower circuit, and a pixel signal indicating a level corresponding to the electric charge stored in the FD 65 is a column signal from the amplification transistor 67 via the selection transistor 68. It is output to the processing circuit 54 (FIG. 4).
  • the load MOS 70 is arranged in, for example, the column signal processing circuit 54.
  • the selection transistor 68 is turned on when the pixel 51 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 51 to the column signal processing circuit 54 via the vertical signal line VL.
  • the discharge transistor 69 When the discharge transistor 69 is turned on by the discharge signal OFG, the discharge transistor 69 discharges the unnecessary charge stored in the photodiode 61 to the constant voltage source VDD.
  • the transfer signals TRX and TRG, the reset signal RST, the discharge signal OFG, and the selection signal SEL are supplied from the vertical drive circuit 53 via the pixel drive wiring HL.
  • the high-level emission signal OFG is supplied to the emission transistor 69 to turn on the emission transistor 69, and the electric charge stored in the photodiode 61 is discharged to the constant voltage source VDD to all the pixels. Photodiode 61 is reset.
  • the first transfer transistor 62 When a predetermined exposure time elapses, the first transfer transistor 62 is turned on by the transfer signal TRX in all the pixels of the pixel array unit 52, and the electric charge accumulated in the photodiode 61 is transferred to the memory unit 63. Will be done.
  • the electric charges held in the memory unit 63 of each pixel 51 are sequentially read out to the column signal processing circuit 54 row by row.
  • the second transfer transistor 64 of the pixel 51 of the read line is turned on by the transfer signal TRG, and the electric charge held in the memory unit 63 is transferred to the FD65.
  • the selection transistor 68 is turned on by the selection signal SEL, a signal indicating the level corresponding to the electric charge stored in the FD 65 is output from the amplification transistor 67 to the column signal processing circuit 54 via the selection transistor 68.
  • the exposure time is set to be the same for all the pixels of the pixel array unit 52, and after the exposure is completed, the electric charge is temporarily held in the memory unit 63. , It is possible to operate the global shutter method in which charges are sequentially read from the memory unit 63 in line units.
  • the circuit configuration of the pixel 51 is not limited to the configuration shown in FIG. 5, and for example, a circuit configuration that does not have the memory unit 63 and operates by the so-called rolling shutter method can be adopted.
  • FIG. 6 is an enlarged cross-sectional view showing a part of the solid-state image sensor 22.
  • a multilayer wiring layer 82 is formed on the upper side (pixel sensor substrate 22b side) of the semiconductor substrate 81 (hereinafter referred to as the silicon substrate 81) made of silicon (Si).
  • the multi-layer wiring layer 82 constitutes the control circuit 42 and the logic circuit 43 of FIG.
  • the multilayer wiring layer 82 includes a plurality of wiring layers 83 including an uppermost wiring layer 83a closest to the pixel sensor substrate 22b, an intermediate wiring layer 83b, and a lowermost wiring layer 83c closest to the silicon substrate 81. It is composed of an interlayer insulating film 84 formed between the wiring layers 83.
  • the plurality of wiring layers 83 are formed of, for example, copper (Cu), aluminum (Al), tungsten (W), etc.
  • the interlayer insulating film 84 is formed of, for example, a silicon oxide film, a silicon nitride film, or the like. ..
  • Each of the plurality of wiring layers 83 and the interlayer insulating film 84 may be formed of the same material in all layers, or two or more materials may be used properly depending on the layer.
  • a silicon through hole 85 penetrating the silicon substrate 81 is formed at a predetermined position of the silicon substrate 81, and silicon is formed by embedding a connecting conductor 87 in the inner wall of the silicon through hole 85 via an insulating film 86.
  • a through electrode (TSV: Through Silicon Via) 88 is formed.
  • the insulating film 86 can be formed of, for example, a SiO2 film or a SiN film.
  • an insulating film 86 and a connecting conductor 87 are formed along the inner wall surface, and the inside of the silicon through hole 85 is hollow.
  • the silicon through hole 85 The entire interior may be embedded with a connecting conductor 87. In other words, it does not matter whether the inside of the through hole is embedded with a conductor or a part of the through hole is hollow. This also applies to the through silicon via (TCV: Through Chip Via) 105, which will be described later.
  • the connecting conductor 87 of the through silicon via 88 is connected to the rewiring 90 formed on the lower surface side of the silicon substrate 81, and the rewiring 90 is connected to the solder balls 22e.
  • the connecting conductor 87 and the rewiring 90 can be formed of, for example, copper (Cu), tungsten (W), tungsten (W), polysilicon, or the like.
  • solder mask (solder resist) 91 is formed so as to cover the rewiring 90 and the insulating film 86, except for the region where the solder balls 22e are formed.
  • a multilayer wiring layer 102 is formed on the lower side (logic substrate 22a side) of the semiconductor substrate 101 (hereinafter referred to as silicon substrate 101) made of silicon (Si).
  • the multilayer wiring layer 102 constitutes the pixel circuit of the pixel region 41 of FIG.
  • the multilayer wiring layer 102 includes a plurality of wiring layers 103 including an uppermost wiring layer 103a closest to the silicon substrate 101, an intermediate wiring layer 103b, and a lowermost wiring layer 103c closest to the logic substrate 22a. It is composed of an interlayer insulating film 104 formed between the wiring layers 103.
  • the same material as the materials of the wiring layer 83 and the interlayer insulating film 84 described above can be adopted. Further, the same as the wiring layer 83 and the interlayer insulating film 84 described above, the plurality of wiring layers 103 and the interlayer insulating film 104 may be formed by using one or more materials properly.
  • the multilayer wiring layer 102 of the pixel sensor substrate 22b is composed of the three-layer wiring layer 103
  • the multilayer wiring layer 82 of the logic substrate 22a is composed of the four-layer wiring layer 83.
  • the total number of wiring layers is not limited to this, and can be formed by any number of layers.
  • a photodiode 61 formed by a PN junction is formed for each pixel 51.
  • the multilayer wiring layer 102 and the silicon substrate 101 are also formed with a plurality of pixel transistors such as the first transfer transistor 62 and the second transfer transistor 64, a memory unit (MEM) 63, and the like. ing.
  • the through silicon via 109 connected to the wiring layer 103a of the pixel sensor substrate 22b and the wiring layer 83a of the logic substrate 22a A connected through silicon via 105 is formed.
  • the through silicon via 105 and the through silicon via 109 are connected by a connection wiring 106 formed on the upper surface of the silicon substrate 101. Further, an insulating film 107 is formed between each of the through silicon via 109 and the through silicon via 105 and the silicon substrate 101. Further, a color filter 22c and an on-chip lens 22d are formed on the upper surface of the silicon substrate 101 via a flattening film (insulating film) 108.
  • the solid-state image sensor 22 shown in FIG. 2 has a laminated structure in which the multilayer wiring layer 102 side of the logic substrate 22a and the multilayer wiring layer 82 side of the pixel sensor substrate 22b are bonded together.
  • FIG. 6 the surface where the multilayer wiring layer 102 side of the logic substrate 22a and the multilayer wiring layer 82 side of the pixel sensor substrate 22b are bonded to each other is shown by a broken line.
  • the wiring layer 103 of the pixel sensor substrate 22b and the wiring layer 83 of the logic substrate 22a are connected by two through electrodes, a through silicon via 109 and a through silicon via 105, and logic.
  • the wiring layer 83 of the substrate 22a and the solder ball (back surface electrode) 22e are connected to the through silicon via 88 by the rewiring 90.
  • the height direction can also be lowered.
  • the image pickup device 1 is configured such that the solid-state image pickup element 22 is sealed by a circuit board 21, a sensor package board 25, and a sensor package holding component 27.
  • the distance between the sensor package substrate 25 and the solid-state image sensor 22 will be considered based on the viewpoint of stains caused by dust generated in the AF drive unit 33.
  • the focal length of the image pickup apparatus 1 is X
  • the distance from the focal point to the upper surface of the sensor package substrate 25 is Y
  • the effective lens diameter of the lens group 31 is D
  • the allowable dust diameter 151 Let A be, and let B be the diameter of the incident light on the sensor package substrate 25.
  • the aperture diaphragm 38 is omitted in FIG. 1, the effective aperture D of the lens group 31 is determined by the size of the aperture diaphragm 38.
  • the size of the dust 151 which is assumed to be circular as a standard at the time of shipment, is 2% or less of the area of the incident light on the sensor package substrate 25, the diameter of the incident light on the sensor package substrate 25.
  • the distance Y from the focal point to the upper surface of the sensor package substrate 25 is Y> ⁇ (. It is necessary to design so that X ⁇ ⁇ (A 2 / 0.02)) / D ⁇ .
  • the lens power is increased by arranging the wafer level lens in the vacant space by utilizing the space generated between the sensor package substrate 25 and the solid-state image sensor 22. It can be provided to improve the optical characteristics.
  • the lens is placed on the glass substrate 24 integrated with the solid-state image sensor 22 as shown in FIG. 8A.
  • a method of forming the 28A and a method of forming the lens 28 on the lower surface of the sensor package substrate 25 as shown in FIG. 8B can be considered.
  • the structure in which the lens 28 is formed on the lower surface of the sensor package substrate 25 is the structure adopted in the image pickup apparatus 1 of FIG.
  • the structure in which the lens 28A is formed on the glass substrate 24 shown in FIG. 8A is a structure of an imaging device as a comparative example to be compared with the imaging device 1 in FIG.
  • the structures other than the arrangement of the lens 28 and the lens 28A are the same, and the lens group 31 is simplified.
  • the sensitivity decreases due to the oblique incidence of the main ray toward the edge from the center of the image plane. This is called shading.
  • the sensitivity decreases due to the oblique incidence of the main ray toward the edge from the center of the image plane. This is called shading.
  • the reflected light F1 in which the incident light is reflected on the surface of the solid-state imaging device 22 is the lens 28A as shown in A of FIG. Since it is incident on the surface of the lens at a large incident angle, it is totally reflected on the surface of the lens 28A, resulting in ring flare.
  • the reflected light F2 in which the incident light is reflected on the surface of the solid-state imaging element 22 is B in FIG.
  • the total reflection condition is not met and the surface of the lens 28 does not totally reflect.
  • the reflected light F2 reflected on the surface of the solid-state image sensor 22 can also be suppressed by the antireflection film 26 formed on the surface of the lens 28.
  • the image pickup apparatus 1 of FIG. 1 which is a space between the sensor package substrate 25 and the solid-state image sensor 22 and the lens 28 is arranged on the lower surface of the sensor package substrate 25, the size and height can be reduced. At the same time, it is possible to suppress the occurrence of flare.
  • flare generated by the lens 28A can be suppressed while maintaining the same optical characteristics as A in FIG.
  • the method of forming the lens 28 will be described later with reference to FIG. 9, but if a defect occurs in the lens 28 forming step (wafer level lens process), the glass substrate 24 is as shown in FIG. 8A.
  • the yield of the lens 28A is the yield of the CSP solid-state image sensor.
  • the yield of the lens 28 is the yield of the sensor package substrate 25. Comparing the cost of each component of the sensor package substrate 25 and the CSP solid-state image sensor, the sensor package substrate 25 is cheaper, so that the loss of the lens 28 when a defect occurs can be suppressed.
  • Wafer level lens forming method> Next, with reference to FIG. 9, a lens forming method for forming the lens 28, which is a wafer level lens, on the sensor package holding component 27 will be described.
  • FIG. 9 describes a lens forming method for forming one lens 28, but the same applies to the wafer level lens process in which a plurality of lenses 28 are simultaneously formed in the plane direction of the sensor package holding component 27.
  • a sensor package substrate 25 having antireflection films 26 formed on both the upper surface and the lower surface is prepared, and a predetermined opening is provided on one surface of the sensor package substrate 25.
  • the sensor package holding component 27 on which the is formed is fixed so as to be in contact with the sensor package holding component 27.
  • the lens material 171 is dropped (filled) into the opening of the sensor package holding component 27.
  • the dropping position of the lens material 171 can be controlled with high accuracy with reference to the alignment mark formed at a predetermined position of the sensor package holding component 27.
  • the lens material 171 is composed of, for example, a resin material that is cured by ultraviolet rays.
  • thermosetting or thermoplastic resin material or glass-based material can be used instead of the ultraviolet curable material.
  • a metal-based material may be used.
  • a mold 172 having an uneven shape of the lens 28 attached to the imprint device is pressed against the sensor package holding component 27 at a predetermined speed and load.
  • the uneven shape of the mold 172 is transferred to the lens material 171 dropped on the opening of the sensor package holding component 27.
  • the distance (height) between the mold 172 and the sensor package holding component 27 is controlled with high accuracy.
  • the position of the mold 172 in the plane direction is controlled with high accuracy with reference to the alignment mark formed at a predetermined position on the sensor package holding component 27, similarly to the dropping position of the lens material 171.
  • the surface of the mold 172 that comes into contact with the lens material 171 may be subjected to a mold release treatment in advance so that the mold 172 can be easily peeled off from the cured lens material 171.
  • the lens material 171 is cured and the lens 28 is formed.
  • a light-shielding film (mask) 173 that does not transmit ultraviolet rays is formed on the outer peripheral portion of the mold 172 in the plane direction, and the lens material 171 protruding from the mold 172 is not irradiated with ultraviolet rays. Therefore, the lens material 171 outside the mold 172 can be removed without being cured. After the lens material 171 is cured and the lens 28 is formed, the mold 172 is peeled off.
  • an antireflection film 29 is formed on the surface of the lens 28 from which the mold 172 has been peeled off.
  • the sensor package substrate 25 and the sensor package holding component 27 can be simultaneously bonded at the time of forming the lens 28, so that the sensor package substrate can be bonded in one bonding (adhesion) step. 25, the sensor package holding component 27, and the lens 28 can be joined.
  • Deformation example of sensor package> 10A to 10H are other structures of the sensor package 11 having a structure capable of simultaneously joining the sensor package substrate 25, the sensor package holding component 27, and the lens 28 by one joining step as described in FIG. An example is shown.
  • FIGS. 10A to 10H only the peripheral portions of the sensor package substrate 25 and the lens 28 are shown, and other configurations (for example, the circuit board 21, the solid-state image sensor 22, and the outer peripheral side of the sensor package holding component 27) are shown. ) Is omitted.
  • a in FIG. 10 shows a first modification of the sensor package 11.
  • FIG. 10A an example is shown in which the antireflection film 29 formed on the lower surface of the lens 28 on the solid-state image sensor 22 side is omitted in the image pickup device 1 of FIG. There is.
  • the antireflection film 29 formed on the surface of the lens 28 can be omitted.
  • FIG. 10 shows a second modification of the sensor package 11.
  • the direction of inclination of the side surface of the opening of the sensor package holding component 27 is formed so as to be wider on the solid-state image pickup device 22 side.
  • the direction of inclination of the side surface of the opening of the sensor package holding component 27 is formed so as to be wider on the sensor package substrate 25 side.
  • FIG. 10 shows a third modification of the sensor package 11.
  • the antireflection film 26 formed on the upper surface and the lower surface of the sensor package substrate 25 in the image pickup apparatus 1 of FIG. 1 is omitted, and the film is formed on the surface of the lens 28.
  • An example is shown in which the antireflection film 29 that has been used is also omitted.
  • the antireflection film 26 and the antireflection film 29 can be omitted, and in particular, the antireflection film 26 on the lower surface of the sensor package substrate 25 can be omitted most.
  • FIG. 10 shows a fourth modification of the sensor package 11.
  • the fourth modification of D in FIG. 10 has a configuration in which the light-shielding films 202 and 203 are added to the second modification of B in FIG.
  • the light-shielding film 202 is formed on the outer peripheral portion of the upper surface of the sensor package substrate 25.
  • the light-shielding film 203 is formed on the antireflection film 29 formed on the surface of the lens 28 and on the outer peripheral portion of the lens 28.
  • E in FIG. 10 shows a fifth modification of the sensor package 11.
  • FIG. 10 shows a sixth modification of the sensor package 11.
  • the contact surface between the sensor package holding component 27 and the sensor package substrate 25 and the contact surface between the sensor package holding component 27 and the lens 28 have a chevron shape (triangular pyramid shape).
  • the uneven portion 204 in which the convex portion is formed at a fixed cycle is formed.
  • G in FIG. 10 shows a seventh modification of the sensor package 11.
  • the contact surface between the sensor package holding component 27 and the sensor package substrate 25 and the contact surface between the sensor package holding component 27 and the lens 28 are dug perpendicular to the surface.
  • An uneven portion 205 is formed in which concave portions are formed at regular intervals.
  • the inclination of the side surface of the opening of the sensor package holding component 27 is widened on the sensor package substrate 25 side. Since it is formed, it is necessary to prevent reflection of incident light.
  • the uneven portions 204 and 205 are a type of antireflection structure that prevents reflection of incident light. Further, by inserting the material of the lens 28 into the uneven portions 204 and 205, the adhesion between the lens 28 and the sensor package holding component 27 can be strengthened.
  • the concave-convex structure formed on the contact surface between the sensor package holding component 27 and the sensor package substrate 25 and the contact surface between the sensor package holding component 27 and the lens 28 has a concave-convex portion 204 that is a repeating chevron shape and a concave-convex portion 204. It may have a moth-eye structure other than the uneven portion 205, which is a repetition of the concave portion.
  • FIG. 10 shows an eighth modification of the sensor package 11.
  • the sensor package holding component 27 in the image pickup apparatus 1 in FIG. 1 is formed of a ceramic or organic circuit board 206.
  • the size of the opening of the circuit board 206 is the same on the solid-state image sensor 22 side and the sensor package board 25 side.
  • FIG. 11 shows a plan view of the sensor package holding component 27 on which the lens 28 is formed.
  • the opening of the sensor package holding component 27 and the planar shape of the lens 28 can be quadrangular as shown in A of FIG. 11 or circular as shown in B of FIG. .. Alternatively, the opening of the sensor package holding component 27 and the planar shape of the lens 28 may be elliptical.
  • the solid line of the outer frame of the lens 28 represents the outer circumference of the lens 28 on the same surface as the upper surface of the sensor package holding component 27, and the broken line of the inner frame of the lens 28 is the sensor package holding component 27. It represents the outer circumference of the lens 28 on the same surface as the lower surface.
  • FIG. 11 shows a plan view of a state in which the lens 28 is formed on the sensor package holding component 27 provided with the plurality of groove portions 211.
  • FIG. 12 is a cross-sectional view of the entire image pickup apparatus 1 using the sensor package 11 according to the second modification shown in FIG. 10B. Similarly, for each of the modified examples of A in FIG. 10 and C to G in FIG. 10, the image pickup apparatus 1 is configured by replacing a part of the sensor package 11.
  • FIG. 13 is a cross-sectional view of the entire image pickup apparatus 1 using the sensor package 11 according to the eighth modification shown in H of FIG.
  • the circuit board 21 is arranged under the solid-state image sensor 22 as shown in FIG. Can be omitted. Further, in FIG. 13, the adhesive 23 and the glass substrate 24 formed on the upper surface of the solid-state image sensor 22 are also omitted.
  • the space between the sensor package substrate 25 and the solid-state image sensor 22 is provided, and the lens 28 is arranged on the lower surface of the sensor package substrate 25.
  • the lens 28 is arranged on the lower surface of the sensor package substrate 25.
  • FIG. 14 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the second embodiment of the present disclosure.
  • the side surface of the opening of the sensor package holding component 27 is inclined so as to be wider on the sensor package substrate 25 side, and the light-shielding film 201 is formed on the side surface of the lens 28. Is formed, which is common to the image pickup apparatus 1 according to the second modification shown in FIG. 12 (B in FIG. 10).
  • the side surface of the lens 28 on which the light-shielding film 201 is formed is in contact with the side surface of the opening of the sensor package holding component 27.
  • the side surface of the lens 28 and the side surface of the opening of the sensor package holding component 27 are separated by a predetermined distance, and a space is formed between the lens 28 and the sensor package holding component 27. ing.
  • the lower surface of the sensor package substrate 25 including the antireflection film 26 and the upper surface of the sensor package holding component 27 are adhesives. It is fixed at 221.
  • the configuration of the sensor package substrate 25, the sensor package holding component 27, and the lens 28 is not the simultaneous bonding described in FIG. 9, but first, the lens 28 is formed on the sensor package substrate 25 by a wafer level lens process.
  • the sensor package substrate 25 on which the lens 28 is formed is formed by adhering the sensor package substrate 25 to the sensor package holding component 27 with an adhesive 221.
  • FIG. 15 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the third embodiment of the present disclosure.
  • the third embodiment of FIG. 15 has a configuration in which the image pickup apparatus 1 according to the eighth modification shown in FIG. 13 (H in FIG. 10) is further modified.
  • the side surface of the lens 28 is joined to the ceramic or organic circuit board 206, and the plane size of the lens 28 is a solid-state image sensor.
  • the size of the 22 side and the 25 side of the sensor package board were the same.
  • the side surface of the lens 28 and the side surface of the opening of the circuit board 206 are separated by a predetermined distance, and a space is formed between the lens 28 and the circuit board 206. ..
  • the side surface of the lens 28 is inclined so as to be wider on the sensor package substrate 25 side, and the light-shielding film 201 is formed on the side surface of the lens 28. Then, the lower surface of the sensor package substrate 25 including the antireflection film 26 and the upper surface of the circuit board 206 are fixed with the adhesive 221.
  • the configuration of the sensor package substrate 25, the circuit board 206, and the lens 28 is similar to that of the second embodiment described with reference to FIG. 14, first, the lens 28 is placed on the sensor package substrate 25 by a wafer level lens process.
  • the sensor package substrate 25 on which the lens 28 is formed is formed by adhering the sensor package substrate 25 on which the lens 28 is formed to the circuit board 206 with an adhesive 221.
  • FIG. 16 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the fourth embodiment of the present disclosure.
  • the sensor package holding component 27 is replaced with the sensor package holding component 241 as compared with the first embodiment shown in FIG.
  • the image pickup device 1 of FIG. 16 assuming that the device size of the upper lens unit 12 is the same in FIGS. 1 and 16, the chip size of the solid-state image sensor 22 of the lower sensor package 11 is shown in FIG. The configuration is larger than that of the first embodiment.
  • the sensor package holding component 241 has a convex portion 242 protruding inward in which the solid-state image sensor 22 is arranged, and has a lower surface of the sensor package substrate 25 including an antireflection film 26 and a sensor package holding component 241 in a cross-sectional view.
  • the upper surface of the convex portion 242 of the above is fixed with the adhesive 221.
  • the sensor package substrate 25 is in contact with the sensor package holding component 241 on the lower surface and the side surface.
  • the sensor package holding component 241 is formed so that the direction of inclination of the side surface of the convex portion 242 is wider on the sensor package substrate 25 side, and the side surface of the lens 28 and the side surface of the convex portion 242 of the sensor package holding component 241. Is separated by a predetermined distance, and a space is formed between the lens 28 and the convex portion 242 of the sensor package holding component 241.
  • the antireflection film 29 formed on the lower surface of the lens 28 is omitted in the second embodiment of FIG. 14, but the antireflection film 29 may be formed.
  • FIG. 17 is a modified example of the fourth embodiment shown in FIG. 16, and shows another example of the sensor package 11.
  • the lens unit 12 is the same as that shown in FIG. 16, and is therefore omitted.
  • FIG. 17A is a cross-sectional view of the sensor package 11 showing a first modification of the fourth embodiment.
  • the sensor package 11 of FIG. 17A is formed so that the side surface of the convex portion 242 of the sensor package holding component 241 is inclined so that the solid-state image sensor 22 side is wider than the sensor package substrate 25 side.
  • Other configurations are the same as those of the fourth embodiment of FIG.
  • FIG. 17B is a cross-sectional view of the sensor package 11 showing a second modification of the fourth embodiment.
  • the sensor package holding component 241 of FIG. 16 is replaced with the sensor package holding component 251.
  • the sensor package holding component 251 is provided with an inwardly projecting convex portion 252 on which the solid-state image sensor 22 is arranged, and is in contact with the upper surface of the sensor package substrate 25 including the antireflection film 26 on the lower surface of the convex portion 252.
  • the sensor package substrate 25 is fixed with the adhesive 221.
  • Antireflection films 250 are formed on the lower surface and the side surfaces of the lens 28.
  • FIG. 17C is a cross-sectional view of the sensor package 11 showing a third modification of the fourth embodiment.
  • a light-shielding film 253 is formed on the outer peripheral portion of the upper surface of the sensor package substrate 25 including the antireflection film 26, and the outer peripheral portion of the lower surface of the sensor package substrate 25 and the lower surface of the lens 28.
  • the antireflection film 254 is additionally formed on a part (outer peripheral portion) and the side surface of the above, which is different from the fourth embodiment of FIG. Other configurations are the same as those of the fourth embodiment of FIG.
  • FIG. 18 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the fifth embodiment of the present disclosure.
  • the lens unit 12 is configured as an image pickup device 1 including an AF drive unit 33 that moves the lens barrel 32 in the optical axis direction.
  • the image pickup device 1 according to the fifth embodiment of FIG. 18 has a fixed focus type configuration in which the lens unit 12 is fixed.
  • the lens barrel 281 in which the functions of the lens barrel (lens holder) 32, the fixing unit 34, and the sensor package holding component 27 in the first embodiment of FIG. 1 are integrated. Is provided.
  • the lens barrel 281 houses a lens group 31 composed of a plurality of lenses, and is fixed to the circuit board 21 with an adhesive 30. Further, the lens barrel 281 is connected to the upper surface of the sensor package substrate 25 including the antireflection film 26 with an adhesive 282 to fix the sensor package substrate 25. A lens 28 is formed on the lower surface of the sensor package substrate 25 (the surface on the solid-state image sensor 22 side). Although omitted in FIG. 18, the antireflection film 29 and the light-shielding film 201 shown in FIG. 15 may be formed on the surface of the lens 28.
  • the entire device fixed by the lens barrel 281 constitutes the lens unit 291 and is below the lens group 31 (solid-state image sensor 22 side), the antireflection film 26.
  • the sensor package board 25 to the circuit board 21 including the above form the sensor package function unit 292 corresponding to the sensor package 11 in FIG.
  • the structure of the lens barrel 281 is not limited to the structure shown in FIG. 18, and is between the sensor package substrate 25 and the solid-state image sensor 22. Other structures may be used as long as the space is such that the lens 28 is arranged on the lower surface of the sensor package substrate 25.
  • FIG. 19 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the sixth embodiment of the present disclosure.
  • the solid-state image sensor 22 has a CSP structure, and the pixel signal, power supply, and the like are exchanged with the circuit board 21 via the solder balls 22e on the back surface of the solid-state image sensor 22. I decided to do it between.
  • the CSP structure is complicated to process because it needs to be bonded to the glass substrate 24 and the input / output terminals of the solid-state image sensor 22 need to be wired on the back side of the light receiving surface.
  • the input / output terminals (electrodes) of the solid-state image sensor 22 are provided on the same surface as the light receiving surface, and are electrically connected to the circuit board 21 using bonding wires to exchange pixel signals, power supplies, and the like. onBoard) structure can also be adopted.
  • the sixth embodiment of FIG. 19 has a configuration in which the imaging device 1 according to the first embodiment of FIG. 1 adopting the CSP structure is transformed into a COB structure using a bonding wire.
  • the solid-state image sensor 22, the adhesive 23, and the glass substrate 24 in FIG. 1 are changed to the solid-state image sensor 22X.
  • the solid-state image sensor 22X is electrically connected to the circuit board 21 by a bonding wire 301, and exchanges pixel signals, a power source, and the like via the bonding wire 301.
  • the COB structure that is electrically connected to the circuit board 21 using the bonding wire 301 can also be applied to the fixed focus type imaging device 1 shown in FIG. 18 as the fifth embodiment.
  • FIG. 20 is a modification of the sixth embodiment, in which the solid-state image sensor 22 of the fixed-focus image pickup device 1 shown in FIG. 18 has a COB structure using a bonding wire 301 similar to that in FIG. A configuration example modified into the solid-state image sensor 22X is shown.
  • FIG. 20 shows an example in which the on-chip lens of the solid-state image sensor 22X is omitted, the on-chip lens may be formed or not formed.
  • the space between the sensor package substrate 25 and the solid-state image sensor 22X has a configuration in which the lens 28 is arranged on the lower surface of the sensor package substrate 25. Therefore, refer to FIG. As explained above, it is possible to realize miniaturization and low profile, and to suppress the occurrence of flare.
  • the connection to the circuit board 21 can be facilitated, so that the processing can be simplified and the cost can be reduced.
  • FIG. 21 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the seventh embodiment of the present disclosure.
  • the sensor package holding component 27 is formed of a ceramic or organic circuit board 206, and the sensor package substrate 25 is a circuit board on the lower surface of the sensor package substrate 25 by the adhesive 221.
  • the configuration fixed to 206 is shown. Further, the circuit board 206 was in contact with the upper surface of the solid-state image sensor 22, and fixed the solid-state image sensor 22.
  • the circuit board 206 in FIG. 15 is changed to the circuit board 206A having a cavity structure.
  • the circuit board 206A having a cavity structure has an opening at a position above the solid-state image sensor 22X, and the size of the opening is larger than the size of the solid-state image sensor 22X.
  • the solid-state image sensor 22X has a COB structure and is electrically connected to the circuit board 206A by using a bonding wire 301.
  • the circuit board 206A fixes the lower surface of the sensor package substrate 25 with an adhesive 221.
  • circuit board 206A having a cavity structure can be used as the sensor package holding component 27.
  • FIG. 21 is an example in which the solid-state image sensor arranged on the circuit board 206A having a cavity structure is a solid-state image sensor 22X having a COB structure, but it goes without saying that the solid-state image sensor 22 having a CSP structure may also be used. ..
  • the image pickup device 1 described above can be applied to various electronic devices such as an image pickup device such as a digital still camera or a digital video camera, a mobile phone having an image pickup function, or another device having an image pickup function. ..
  • FIG. 22 is a block diagram showing a configuration example of an imaging device as an electronic device to which the present disclosure is applied.
  • the image pickup device 1001 shown in FIG. 22 includes an optical system 1002, a shutter device 1003, a solid-state image sensor 1004, a drive circuit 1005, a signal processing circuit 1006, a monitor 1007, and a memory 1008, and displays still images and moving images. It is possible to take an image.
  • the optical system 1002 is configured to have one or a plurality of lenses, and guides the light (incident light) from the subject to the solid-state image sensor 1004 to form an image on the light receiving surface of the solid-state image sensor 1004.
  • the shutter device 1003 is arranged between the optical system 1002 and the solid-state image sensor 1004, and controls the light irradiation period and the light-shielding period of the solid-state image sensor 1004 according to the control of the drive circuit 1005.
  • the solid-state image sensor 1004 is configured by a package including the above-mentioned solid-state image sensor.
  • the solid-state image sensor 1004 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 1002 and the shutter device 1003.
  • the signal charge accumulated in the solid-state image sensor 1004 is transferred according to the drive signal (timing signal) supplied from the drive circuit 1005.
  • the drive circuit 1005 outputs a drive signal for controlling the transfer operation of the solid-state image sensor 1004 and the shutter operation of the shutter device 1003 to drive the solid-state image sensor 1004 and the shutter device 1003.
  • the signal processing circuit 1006 performs various signal processing on the signal charge output from the solid-state image sensor 1004.
  • the image (image data) obtained by the signal processing circuit 1006 performing signal processing is supplied to the monitor 1007 and displayed, or supplied to the memory 1008 and stored (recorded).
  • the image pickup device 1001 configured in this way can also be miniaturized by applying the image pickup device 1 according to each embodiment such as FIG. 1 instead of the optical system 1002 and the solid-state image pickup device 1004 described above. It is possible to reduce the height and suppress the occurrence of flare.
  • FIG. 23 is a diagram showing a usage example using the above-mentioned imaging device 1.
  • the image pickup device 1 described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • Devices used for traffic such as in-vehicle sensors that photograph the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measurement sensors that measure distance between vehicles, etc.
  • Equipment used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare ⁇ Equipment used for security such as surveillance cameras for crime prevention and cameras for person authentication ⁇ Skin measuring instruments for taking pictures of the skin and taking pictures of the scalp Equipment used for beauty such as microscopes ⁇ Equipment used for sports such as action cameras and wearable cameras for sports applications ⁇ Camera etc. for monitoring the condition of fields and crops , Equipment used for agriculture
  • FIG. 24 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 24 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as texts, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 25 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 24.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100, the camera head 11102 (imaging unit 11402), the CCU 11201 (image processing unit 11412), and the like among the configurations described above.
  • the imaging device 1 according to each of the above-described embodiments can be applied to the lens unit 11401 and the imaging unit 10402.
  • the technique according to the present disclosure to the lens unit 11401 and the imaging unit 10402, it is possible to realize miniaturization and reduction in height and suppress the occurrence of flare.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 26 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the vehicle. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 27 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as imaging units 12031.
  • FIG. 27 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is used via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and a pattern matching process for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the image pickup apparatus 1 according to each of the above-described embodiments can be applied to the image pickup unit 12031.
  • the present technology can also have the following configurations.
  • a solid-state image sensor that generates a pixel signal by photoelectric conversion according to the amount of incident light
  • a circuit board that is electrically connected to the solid-state image sensor
  • a sensor package substrate arranged on the incident light side of the solid-state image sensor and sealing the solid-state image sensor, and a sensor package substrate.
  • a sensor package including a lens formed on the lower surface of the sensor package substrate on the solid-state image sensor side.
  • the distance Y from the focal point to the upper surface of the sensor package substrate is The sensor package according to (1) above, which is configured to satisfy Y> ⁇ (X ⁇ ⁇ (A 2 / 0.02)) / D ⁇ .
  • the material of the sensor package substrate is any of a glass-based material, a resin-based material, and a metal-based material.
  • the solid-state image sensor is a sensor that receives single-wavelength incident light or a sensor that receives multi-wavelength incident light.
  • the lens material is any of a resin material, a glass-based material, and a metal-based material.
  • the sensor package holding component has an opening at a position above the solid-state image sensor.
  • the sensor package according to (7), wherein the side surface of the opening is inclined so that either the solid-state image sensor side or the sensor package substrate side is widened.
  • the sensor package holding component is a circuit board having an opening at a position above the solid-state image sensor.
  • the sensor package holding component has an opening at a position above the solid-state image sensor.
  • the sensor package holding component has an opening at a position above the solid-state image sensor.
  • the sensor package holding component is a circuit board having an opening at a position above the solid-state image sensor.
  • the sensor package according to (7), wherein the size of the opening is larger than the size of the solid-state image sensor.
  • a lens group that focuses the incident light on the light receiving surface of the solid-state image sensor and The sensor package according to any one of (1) to (16), further comprising a drive unit for moving the lens group in the optical axis direction.
  • a solid-state image sensor that generates a pixel signal by photoelectric conversion according to the amount of incident light
  • a circuit board that is electrically connected to the solid-state image sensor
  • a sensor package substrate arranged on the incident light side of the solid-state image sensor and sealing the solid-state image sensor, and a sensor package substrate.
  • a sensor package having a lens formed on the lower surface of the sensor package substrate on the solid-state image sensor side, and a sensor package.
  • An image pickup apparatus including a lens unit having a lens group for focusing the incident light on a light receiving surface of the solid-state image pickup device.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示は、小型化や低背化を実現するとともに、フレアの発生を抑制できるようにするセンサパッケージおよびその製造方法、並びに撮像装置に関する。 センサパッケージは、入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、固体撮像素子と電気的に接続される回路基板と、固体撮像素子の入射光側に配置され、固体撮像素子を封止状態とするセンサパッケージ基板と、センサパッケージ基板の固体撮像素子側である下面に形成されたレンズとを備える。本開示は、例えば、撮像装置等に適用できる。

Description

センサパッケージおよびその製造方法、並びに撮像装置
 本開示は、センサパッケージおよびその製造方法、並びに撮像装置に関し、特に、小型化や低背化を実現するとともに、フレアの発生を抑制できるようにしたセンサパッケージおよびその製造方法、並びに撮像装置に関する。
 近年、カメラ付き移動体端末装置や、デジタルスチルカメラなどで用いられる固体撮像素子において、高画素化および小型化、並びに低背化が進んでいる。
 カメラの高画素化および小型化にともない、レンズと固体撮像素子が光軸上で近くなり、赤外光カットフィルタがレンズ付近に配置されることが一般的となっている。
 例えば、複数のレンズからなるレンズ群のうち、最下位層となるレンズを、固体撮像素子上に構成することにより、固体撮像素子の小型化を実現する技術が提案されている。
国際公開第2019/235247号
 しかしながら、固体撮像素子上に最下位層のレンズを構成するようにした場合、装置構成の小型化や低背化には貢献するものの、固体撮像素子上に配置した最下位層のレンズの全反射に起因したフレアが生じてしまう。
 本開示は、このような状況に鑑みてなされたものであり、小型化や低背化を実現するとともに、フレアの発生を抑制できるようにするものである。
 本開示の第1の側面のセンサパッケージは、入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、前記固体撮像素子と電気的に接続される回路基板と、前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズとを備える。
 本開示の第2の側面のセンサパッケージの製造方法は、センサパッケージ基板の片側の面に、所定の開口部が形成されたセンサパッケージ保持部品が接するように固定された状態で、前記所定の開口部にレンズ材料を充填し、レンズの金型により前記レンズ材料を成形して硬化させることで、前記センサパッケージ基板、前記センサパッケージ保持部品、および、前記レンズを同時接合する。
 本開示の第3の側面の撮像装置は、入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、前記固体撮像素子と電気的に接続される回路基板と、前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズとを有するセンサパッケージと、前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群を有するレンズユニットとを備える。
 本開示の第1および第3の側面においては、入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、前記固体撮像素子と電気的に接続される回路基板と、前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズとが設けられる。
 本開示の第2の側面においては、センサパッケージ基板の片側の面に、所定の開口部が形成されたセンサパッケージ保持部品が接するように固定された状態で、前記所定の開口部にレンズ材料が充填され、レンズの金型により前記レンズ材料を成形して硬化させることで、前記センサパッケージ基板、前記センサパッケージ保持部品、および、前記レンズが同時接合される。
 センサパッケージ及び撮像装置は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本開示の第1の実施の形態に係る撮像装置の構成例を示す断面図である。 図1の撮像装置の一部であるCSP固体撮像素子の外観概略図である。 固体撮像素子の基板構成を説明する図である。 固体撮像素子の回路構成例を示す図である。 画素の等価回路を示す図である。 固体撮像素子の詳細構造を示す断面図である。 ダストによるシミの観点に基づくセンサパッケージ基板と固体撮像素子との距離を説明する図である。 図1の撮像装置の効果を説明する図である。 ウエハレベルレンズの形成方法を説明する図である。 センサパッケージの変形例を示す断面図である。 センサパッケージ保持部品の平面図である。 第2変形例に係るセンサパッケージを用いた撮像装置の断面図である。 第8変形例に係るセンサパッケージを用いた撮像装置の断面図である。 本開示の第2の実施の形態に係る撮像装置の構成例を示す断面図である。 本開示の第3の実施の形態に係る撮像装置の構成例を示す断面図である。 本開示の第4の実施の形態に係る撮像装置の構成例を示す断面図である。 第4の実施の形態の変形例を示す断面図である。 本開示の第5の実施の形態に係る撮像装置の構成例を示す断面図である。 本開示の第6の実施の形態に係る撮像装置の構成例を示す断面図である。 本開示の第6の実施の形態の変形例を示す断面図である。 本開示の第7の実施の形態に係る撮像装置の構成例を示す断面図である。 本開示の技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 本開示の技術を適用した撮像装置の使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.撮像装置の第1の実施の形態
2.ウエハレベルレンズの形成方法
3.センサパッケージの変形例
4.撮像装置の第2の実施の形態
5.撮像装置の第3の実施の形態
6.撮像装置の第4の実施の形態
7.撮像装置の第5の実施の形態
8.撮像装置の第6の実施の形態
9.撮像装置の第7の実施の形態
10.電子機器への適用例
11.撮像装置の使用例
12.内視鏡手術システムへの応用例
13.移動体への応用例
 なお、以下の説明で参照する図面において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は実際のものとは異なる。また、図面相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれる。
<1.撮像装置の第1の実施の形態>
 <撮像装置の構成例>
 図1は、装置の小型化と低背化とを実現しつつ、フレアの発生を抑制できるようにした、本開示の第1の実施の形態に係る撮像装置の構成例を示す断面図である。
 図1の撮像装置1は、センサパッケージ11とレンズユニット12とを組み付けて構成されたモジュールカメラである。
 センサパッケージ11は、回路基板21上に配置された固体撮像素子22を含み、回路基板21と、センサパッケージ基板25、および、センサパッケージ保持部品27とにより、固体撮像素子22が封止状態とされて構成されている。センサパッケージ基板25を保持するセンサパッケージ保持部品27は、回路基板21に接着剤30で固定されている。
 固体撮像素子22は、いわゆるCMOS(Complementary Metal Oxide Semiconductor)センサや、CCD(Charge Coupled Device)などからなる撮像センサであり、回路基板21と電気的に接続された状態で固定されている。固体撮像素子22は、赤外線等の単波長の入射光を受光するセンサであってもよし、R,G,B等の多波長の入射光を受光するセンサであってもよい。固体撮像素子22は、図4を参照して後述するように、アレイ状に配置された複数の画素より構成され、画素単位で、図中上方よりレンズ群31を介して集光されて入射される入射光の光量に応じた画素信号を生成し、画像信号として回路基板21に出力する。固体撮像素子22は、ボロメータ、pnダイオード、サーモパイル、カーボンナノチューブなどを使用したセンサとしてもよい。
 固体撮像素子22は、接着剤23でガラス基板24と一体化したCSP(Chip Size Package)構造の固体撮像素子(以下、CSP固体撮像素子とも称する。)とされている。接着剤23の屈折率は、ガラス基板24と略同一のものが採用されている。
 センサパッケージ基板25は、固体撮像素子22の入射光側に配置され、赤外光をカットするIRCF(赤外光カットフィルタ)の機能を有する。センサパッケージ基板25は、例えば、青板ガラス等のガラス系材料や、樹脂系材料から構成されており、センサパッケージ基板25の上面と下面には、反射防止膜26が成膜されている。センサパッケージ基板25の材料は、入射光が遠赤外線である場合には、Si基板やGe基板等の金属系材料とすることもできる。
 センサパッケージ保持部品27は、センサパッケージ基板25の下面と接してセンサパッケージ基板25を固定するとともに、固体撮像素子22の上方となる位置に設けた開口部に形成されたレンズ28も保持している。センサパッケージ保持部品27は、例えば、樹脂系材料を用いて、固体撮像素子22の上方となる位置に、開口部を設けるように成型して製造される。
 センサパッケージ保持部品27の開口部に形成されたレンズ28は、ウエハレベルレンズプロセスで製造されたウエハレベルレンズである。ウエハレベルレンズプロセスは、ウエハ基板の平面方向に複数の開口部を形成し、複数の開口部に滴下した樹脂に金型を押し付けて金型形状を転写する製造方法である。レンズ28の下面にも、反射防止膜29が成膜されている。
 反射防止膜26および29は、例えば、低屈折膜と高屈折膜を交互に合計4層積層して構成することができる。低屈折膜は、例えば、SiOx(1≦x≦2)、SiOC、SiOFなどの酸化膜、高屈折膜は、例えば、TiO、TaO、Nb2O5などの金属酸化膜で構成される。反射防止膜26および29は、別の例として、酸化物もしくは窒化物あるいはその他の絶縁物を含む単層膜であっても良く、そのなかでも無機物の膜であっても良い。
 一方、センサパッケージ11の上側に組み付けられたレンズユニット12は、複数のレンズで構成されるレンズ群31と、レンズ群31を収納するレンズバレル(レンズホルダ)32と、AF駆動部33と、AF駆動部33を固定する固定ユニット34とを含んで構成される。レンズユニット12は、固定ユニット34の下面とセンサパッケージ保持部品27の上面とが接着剤35により接続されることにより、センサパッケージ11と固定されている。
 AF駆動部33は、対向して配置されたAF用コイル36とAF用マグネット37とで構成される。AF用コイル36は、レンズバレル32の外側の側壁に固定され、永久磁石であるAF用マグネット37は、固定ユニット34の内周の側壁に固定されている。AF駆動部33は、AF用コイル36に電流が流れることによりレンズバレル32を光軸方向に移動させて、レンズ群31と固体撮像素子22との間の距離を調整することでオートフォーカスを実現する。AF駆動部33のオートフォーカス機能により、レンズ群31は、入射光を固体撮像素子22の受光面に合焦させる。
 撮像装置1は、以上のように、赤外光をカット(除去)するセンサパッケージ基板25と、レンズ28とをセンサパッケージ保持部品27と一体化して設けることにより、装置構成の小型化と低背化とを実現しつつ、フレアの発生を抑制する構成とされている。
 なお、図1では、センサパッケージ基板25の上面と下面に反射防止膜26を形成するとともに、レンズ28の下面にも反射防止膜29を形成するようにしたが、反射防止膜26および29の一方または両方は省略されてもよい。また、センサパッケージ基板25の上面または下面のいずれか一方のみに、反射防止膜26が形成されていてもよい。さらには、反射防止機能の代わり、もしくは機能追加する形で、その他のフィルタ機能、例えば、赤外光カットフィルタ、バンドパスフィルタなどのフィルタ機能を有する膜を形成してもよい。
 <CSP固体撮像素子の構成>
 次に、図2乃至図6を参照して、CSP固体撮像素子の構成につい説明する。図2は、CSP固体撮像素子の外観概略図を示している。
 図2に示されるCSP固体撮像素子は、下側基板22aと上側基板22bとが積層されて構成されている積層基板からなる固体撮像素子22がパッケージ化された半導体パッケージである。
 固体撮像素子22を構成する積層基板の下側基板22aには、図1の回路基板21と電気的に接続するための裏面電極であるはんだボール22eが、複数、形成されている。
 上側基板22bの上面には、R(赤)、G(緑)、またはB(青)のカラーフィルタ22cとオンチップレンズ22dが形成されている。また、上側基板22bは、オンチップレンズ22dを保護するためのガラス基板24と、ガラスシール樹脂からなる接着剤23を介してキャビティレス構造で接続されている。
 例えば、上側基板22bには、図3のAに示されるように、光電変換を行う画素部がアレイ状に2次元配列された画素領域41と、画素部の制御を行う制御回路42が形成されており、下側基板22aには、画素部から出力された画素信号を処理する信号処理回路などのロジック回路43が形成されている。
 あるいはまた、図3のBに示されるように、上側基板22bには、画素領域41のみが形成され、下側基板22aに、制御回路42とロジック回路43が形成される構成でもよい。
 以上のように、ロジック回路43または制御回路42及びロジック回路43の両方を、画素領域41の上側基板22bとは別の下側基板22aに形成して積層させることで、1枚の半導体基板に、画素領域41、制御回路42、およびロジック回路43を平面方向に配置した場合と比較して、撮像装置1としてのサイズを小型化することができる。
 以下では、少なくとも画素領域41が形成される上側基板22bを、画素センサ基板22bと称し、少なくともロジック回路43が形成される下側基板22aを、ロジック基板22aと称して説明を行う。
 <固体撮像素子の構成例>
 図4は、固体撮像素子22の回路構成例を示している。
 固体撮像素子22は、画素51が2次元アレイ状に配列された画素アレイ部52と、垂直駆動回路53、カラム信号処理回路54、水平駆動回路55、出力回路56、制御回路57、および入出力端子58を含む。
 画素51は、光電変換素子としてのフォトダイオードと、複数の画素トランジスタを有して成る。画素51の回路構成例については、図5を参照して後述する。
 また、画素51は、共有画素構造とすることもできる。この画素共有構造は、複数のフォトダイオードと、複数の転送トランジスタと、共有される1つのフローティングディフージョン(浮遊拡散領域)と、共有される1つずつの他の画素トランジスタとから構成される。すなわち、共有画素では、複数の単位画素を構成するフォトダイオード及び転送トランジスタが、他の1つずつの画素トランジスタを共有して構成される。
 制御回路57は、入力クロックと、動作モードなどを指令するデータを受け取り、また固体撮像素子22の内部情報などのデータを出力する。すなわち、制御回路57は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路53、カラム信号処理回路54及び水平駆動回路55などの動作の基準となるクロック信号や制御信号を生成する。そして、制御回路57は、生成したクロック信号や制御信号を、垂直駆動回路53、カラム信号処理回路54及び水平駆動回路55等に出力する。
 垂直駆動回路53は、例えばシフトレジスタによって構成され、所定の画素駆動配線HLを選択し、選択された画素駆動配線HLに画素51を駆動するためのパルスを供給し、行単位で画素51を駆動する。すなわち、垂直駆動回路53は、画素アレイ部52の各画素51を行単位で順次垂直方向に選択走査し、各画素51の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線VLを通してカラム信号処理回路54に供給する。
 カラム信号処理回路54は、画素51の列ごとに配置されており、1行分の画素51から出力される信号を画素列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路54は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)およびAD変換等の信号処理を行う。
 水平駆動回路55は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路54の各々を順番に選択し、カラム信号処理回路54の各々から画素信号を水平信号線59に出力させる。
 出力回路56は、カラム信号処理回路54の各々から水平信号線59を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路56は、例えば、バファリングだけする場合もあるし、黒レベル調整、列ばらつき補正、各種デジタル信号処理などが行われる場合もある。入出力端子58は、外部と信号のやりとりをする。
 以上のように構成される固体撮像素子22は、CDS処理とAD変換処理を行うカラム信号処理回路54が画素列ごとに配置されたカラムAD方式と呼ばれるCMOSイメージセンサである。
 <画素の回路構成例>
 図5は、画素51の等価回路を示している。
 図5に示される画素51は、電子式のグローバルシャッタ機能を実現する構成を示している。
 画素51は、光電変換素子としてのフォトダイオード61、第1転送トランジスタ62、メモリ部(MEM)63、第2転送トランジスタ64、FD(フローティング拡散領域)65、リセットトランジスタ66、増幅トランジスタ67、選択トランジスタ68、及び排出トランジスタ69を有する。
 フォトダイオード61は、受光量に応じた電荷(信号電荷)を生成し、蓄積する光電変換部である。フォトダイオード61のアノード端子が接地されているとともに、カソード端子が第1転送トランジスタ62を介してメモリ部63に接続されている。また、フォトダイオード61のカソード端子は、不要な電荷を排出するための排出トランジスタ69とも接続されている。
 第1転送トランジスタ62は、転送信号TRXによりオンされたとき、フォトダイオード61で生成された電荷を読み出し、メモリ部63に転送する。メモリ部63は、FD65に電荷を転送するまでの間、一時的に電荷を保持する電荷保持部である。
 第2転送トランジスタ64は、転送信号TRGによりオンされたとき、メモリ部63に保持されている電荷を読み出し、FD65に転送する。
 FD65は、メモリ部63から読み出された電荷を信号として読み出すために保持する電荷保持部である。リセットトランジスタ66は、リセット信号RSTによりオンされたとき、FD65に蓄積されている電荷が定電圧源VDDに排出されることで、FD65の電位をリセットする。
 増幅トランジスタ67は、FD65の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ67は定電流源としての負荷MOS70とソースフォロワ回路を構成し、FD65に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ67から選択トランジスタ68を介してカラム信号処理回路54(図4)に出力される。負荷MOS70は、例えば、カラム信号処理回路54内に配置されている。
 選択トランジスタ68は、選択信号SELにより画素51が選択されたときオンされ、画素51の画素信号を、垂直信号線VLを介してカラム信号処理回路54に出力する。
 排出トランジスタ69は、排出信号OFGによりオンされたとき、フォトダイオード61に蓄積されている不要電荷を定電圧源VDDに排出する。
 転送信号TRX及びTRG、リセット信号RST、排出信号OFG、並びに選択信号SELは、画素駆動配線HLを介して垂直駆動回路53から供給される。
 画素51の動作について簡単に説明する。
 まず、露光開始前に、Highレベルの排出信号OFGが排出トランジスタ69に供給されることにより排出トランジスタ69がオンされ、フォトダイオード61に蓄積されている電荷が定電圧源VDDに排出され、全画素のフォトダイオード61がリセットされる。
 フォトダイオード61のリセット後、排出トランジスタ69が、Lowレベルの排出信号OFGによりオフされると、画素アレイ部52の全画素で露光が開始される。
 予め定められた所定の露光時間が経過すると、画素アレイ部52の全画素において、転送信号TRXにより第1転送トランジスタ62がオンされ、フォトダイオード61に蓄積されていた電荷が、メモリ部63に転送される。
 第1転送トランジスタ62がオフされた後、各画素51のメモリ部63に保持されている電荷が、行単位に、順次、カラム信号処理回路54に読み出される。読み出し動作は、読出し行の画素51の第2転送トランジスタ64が転送信号TRGによりオンされ、メモリ部63に保持されている電荷が、FD65に転送される。そして、選択トランジスタ68が選択信号SELによりオンされることで、FD65に蓄積されている電荷に応じたレベルを示す信号が、増幅トランジスタ67から選択トランジスタ68を介してカラム信号処理回路54に出力される。
 以上のように、図5の画素回路を有する画素51は、露光時間を画素アレイ部52の全画素で同一に設定し、露光終了後はメモリ部63に電荷を一時的に保持しておいて、メモリ部63から行単位に順次電荷を読み出すグローバルシャッタ方式の動作が可能である。
 なお、画素51の回路構成としては、図5に示した構成に限定されるものではなく、例えば、メモリ部63を持たず、いわゆるローリングシャッタ方式による動作を行う回路構成を採用することもできる。
 <固体撮像素子の基本構造例>
 次に、図6を参照して、固体撮像素子22の詳細構造について説明する。図6は、固体撮像素子22の一部分を拡大して示した断面図である。
 ロジック基板22aには、例えばシリコン(Si)で構成された半導体基板81(以下、シリコン基板81という。)の上側(画素センサ基板22b側)に、多層配線層82が形成されている。この多層配線層82により、図3の制御回路42やロジック回路43が構成されている。
 多層配線層82は、画素センサ基板22bに最も近い最上層の配線層83a、中間の配線層83b、及び、シリコン基板81に最も近い最下層の配線層83cなどからなる複数の配線層83と、各配線層83の間に形成された層間絶縁膜84とで構成される。
 複数の配線層83は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜84は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層83及び層間絶縁膜84のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 シリコン基板81の所定の位置には、シリコン基板81を貫通するシリコン貫通孔85が形成されており、シリコン貫通孔85の内壁に、絶縁膜86を介して接続導体87が埋め込まれることにより、シリコン貫通電極(TSV:Through Silicon Via)88が形成されている。絶縁膜86は、例えば、SiO2膜やSiN膜などで形成することができる。
 なお、図6に示されるシリコン貫通電極88では、内壁面に沿って絶縁膜86と接続導体87が成膜され、シリコン貫通孔85内部が空洞となっているが、内径によってはシリコン貫通孔85内部全体が接続導体87で埋め込まれることもある。換言すれば、貫通孔の内部が導体で埋め込まれていても、一部が空洞となっていてもどちらでもよい。このことは、後述するチップ貫通電極(TCV:Through Chip Via)105などについても同様である。
 シリコン貫通電極88の接続導体87は、シリコン基板81の下面側に形成された再配線90と接続されており、再配線90は、はんだボール22eと接続されている。接続導体87及び再配線90は、例えば、銅(Cu)、タングステン(W)、タングステン(W)、ポリシリコンなどで形成することができる。
 また、シリコン基板81の下面側には、はんだボール22eが形成されている領域を除いて、再配線90と絶縁膜86を覆うように、ソルダマスク(ソルダレジスト)91が形成されている。
 一方、画素センサ基板22bには、シリコン(Si)で構成された半導体基板101(以下、シリコン基板101という。)の下側(ロジック基板22a側)に、多層配線層102が形成されている。この多層配線層102により、図3の画素領域41の画素回路が構成されている。
 多層配線層102は、シリコン基板101に最も近い最上層の配線層103a、中間の配線層103b、及び、ロジック基板22aに最も近い最下層の配線層103cなどからなる複数の配線層103と、各配線層103の間に形成された層間絶縁膜104とで構成される。
 複数の配線層103及び層間絶縁膜104として使用される材料は、上述した配線層83及び層間絶縁膜84の材料と同種のものを採用することができる。また、複数の配線層103や層間絶縁膜104が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層83及び層間絶縁膜84と同様である。
 なお、図6の例では、画素センサ基板22bの多層配線層102は3層の配線層103で構成され、ロジック基板22aの多層配線層82は4層の配線層83で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 シリコン基板101内には、PN接合により形成されたフォトダイオード61が、画素51ごとに形成されている。
 また、図示は省略されているが、多層配線層102とシリコン基板101には、第1転送トランジスタ62、第2転送トランジスタ64などの複数の画素トランジスタや、メモリ部(MEM)63なども形成されている。
 カラーフィルタ22cとオンチップレンズ22dが形成されていないシリコン基板101の所定の位置には、画素センサ基板22bの配線層103aと接続されているシリコン貫通電極109と、ロジック基板22aの配線層83aと接続されているチップ貫通電極105が、形成されている。
 チップ貫通電極105とシリコン貫通電極109は、シリコン基板101上面に形成された接続用配線106で接続されている。また、シリコン貫通電極109及びチップ貫通電極105のそれぞれとシリコン基板101との間には、絶縁膜107が形成されている。さらに、シリコン基板101の上面には、平坦化膜(絶縁膜)108を介して、カラーフィルタ22cやオンチップレンズ22dが形成されている。
 以上のように、図2に示される固体撮像素子22は、ロジック基板22aの多層配線層102側と、画素センサ基板22bの多層配線層82側とを貼り合わせた積層構造となっている。図6では、ロジック基板22aの多層配線層102側と、画素センサ基板22bの多層配線層82側とを貼り合わせ面が、破線で示されている。
 また、撮像装置1の固体撮像素子22では、画素センサ基板22bの配線層103とロジック基板22aの配線層83が、シリコン貫通電極109とチップ貫通電極105の2本の貫通電極により接続され、ロジック基板22aの配線層83とはんだボール(裏面電極)22eが、シリコン貫通電極88と再配線90により接続されている。これにより、撮像装置1の平面積を、極限まで小さくすることができる。
 さらに、固体撮像素子22とガラス基板24との間を、キャビティレス構造にして、接着剤23により貼り合わせることにより、高さ方向についても低くすることができる。
 したがって、図1に示される撮像装置1によれば、より小型化した半導体装置(半導体パッケージ)を実現することができる。
 撮像装置1は、図1を参照して説明したように、固体撮像素子22が、回路基板21と、センサパッケージ基板25、および、センサパッケージ保持部品27とにより封止されて構成されている。
 この封止状態において、AF駆動部33で発生するダストによるシミの影響を抑えるため、センサパッケージ基板25と固体撮像素子22との光軸方向の距離を、一定程度離す必要がある。
 図7を参照して、AF駆動部33で発生するダストによるシミの観点に基づく、センサパッケージ基板25と固体撮像素子22との間の距離について考察する。
 図7に示されるように、AF駆動部33によりレンズバレル32が駆動することにより、AF駆動部33においてダスト151が発生し、センサパッケージ基板25上の入射光の光路内に到達すると、シミ不良の原因となる。センサパッケージ基板25と固体撮像素子22との距離を離せば、ダスト151のサイズが大きい場合でもシミとはならないため、シミの観点では、センサパッケージ基板25と固体撮像素子22との距離を大きく設定した方がよいが、そのようにすると装置サイズが大きくなるため、小型化および低背化とのトレードオフになっている。
 そこで、ダストによるシミの観点から、最低限必要とされるセンサパッケージ基板25と固体撮像素子22との距離を計算する必要がある。
 ここで、図7に示されるように、撮像装置1の焦点距離をX、焦点からセンサパッケージ基板25上面までの距離をY、レンズ群31のレンズ有効口径をD、許容されるダスト151の直径をA、センサパッケージ基板25上の入射光の直径をBとする。なお、図1では、開口絞り38が省略されているが、レンズ群31のレンズ有効口径Dは、開口絞り38の大きさにより決定される。
 例えば、出荷時の規格として、円形と仮定するダスト151のサイズが、センサパッケージ基板25上の入射光の面積に対して2%以下となることとすると、センサパッケージ基板25上の入射光の直径Bは、ダスト151の直径Aを用いて、以下のように表すことができる。
 0.02×(B/2)×π=(A/2)×π
 B=√(A/0.02)
 そして、センサパッケージ基板25上の入射光の直径Bとレンズ有効口径Dとの関係は、焦点距離Xと、焦点からセンサパッケージ基板25上面までの距離Yとの距離と対応するから、焦点からセンサパッケージ基板25上面までの距離Yは、焦点距離X、ダスト151の直径A、および、レンズ有効口径Dを用いて、次式で表すことができる。
 B:D=Y:X
 √(A/0.02):D=Y:X
 Y=(X×√(A/0.02))/D
 したがって、ダスト151のサイズが、センサパッケージ基板25上の入射光の面積に対して2%以下となるようにするためには、焦点からセンサパッケージ基板25上面までの距離Yが、Y>{(X×√(A/0.02))/D}となるように設計する必要がある。
 例えば、A=23μm、D=2.2mm、X=4.4mmとすると、
 Y>{(X×√(A/0.02))/D}=0.325
となり、焦点からセンサパッケージ基板25上面までの距離Yを、0.325mm以上離す必要がある。
 以上のように、ダストによるシミの観点から、焦点からセンサパッケージ基板25上面までの距離Yを、一定程度確保する必要があるため、図7に示されるように、センサパッケージ基板25と固体撮像素子22との間には、所定のスペース(空間)が発生する。
 そこで、図8に示されるように、センサパッケージ基板25と固体撮像素子22との間に発生したスペース(空間)を活用して、空いたスペースに、ウエハレベルレンズを配置することでレンズパワーを持たせ、光学特性を改善することができる。
 センサパッケージ基板25と固体撮像素子22との間のスペースに、ウエハレベルレンズを配置する方法としては、図8のAのように、固体撮像素子22と一体化されたガラス基板24上に、レンズ28Aを形成する方法と、図8のBのように、センサパッケージ基板25の下面に、レンズ28を形成する方法とが考えられる。
 図8のBに示されるようにセンサパッケージ基板25の下面にレンズ28を形成する構造は、図1の撮像装置1で採用した構造である。一方、図8のAに示されるガラス基板24上にレンズ28Aを形成する構造は、図1の撮像装置1と比較する比較例としての撮像装置の構造である。図8のAおよびBにおいて、レンズ28とレンズ28Aの配置以外の構造は同一であり、レンズ群31は簡略化されている。
 カメラ光学において、像面の中心から端に行くほど、主光線が斜め入射することによって、感度低下が発生することが知られている。このことは、シェーディングと称される。カメラ光学において、像面の中心から端に行くほど、主光線が斜め入射することによって、感度低下が発生することが知られている。このことはシェーディングと称される。センサパッケージ基板25と固体撮像素子22との間の空いたスペースに、0.5枚(片面レンズ)相当のレンズ28Aまたはレンズ28を形成し、レンズパワーを持たせることで、主光線の斜め入射を垂直入射角度に近くなるように変化させてシェーディング特性を改善することができる。レンズ28Aとレンズ28は、像面湾曲を補正する必要があるため、非球面凹レンズとなる。
 図8のAのようにガラス基板24上にレンズ28Aが形成される場合、入射光が固体撮像素子22の表面で反射された反射光F1は、図8のAに示されるように、レンズ28Aの表面に対して大きな入射角で入射されるので、レンズ28Aの表面で全反射してしまい、リングフレアとなってしまう。
 これに対して、図8のBのように、センサパッケージ基板25の下面にレンズ28が形成される場合、入射光が固体撮像素子22の表面で反射された反射光F2は、図8のBに示されるように、空気層を介し、レンズ28の表面に対して垂直に近い小さな入射角で入射されるので、全反射条件に当てはまらなくなり、レンズ28の表面で全反射しない。これにより、リングフレアの発生を抑制することができる。また、固体撮像素子22の表面で反射された反射光F2は、レンズ28の表面に形成された反射防止膜26によっても抑制することができる。
 以上より、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した図1の撮像装置1によれば、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。換言すれば、レンズ28の構成によれば、図8のAと光学的特性はそのままで、レンズ28Aで発生するフレアを抑制することができる。
 なお、レンズ28の形成方法については、図9を参照して後述するが、仮に、レンズ28の形成工程(ウエハレベルレンズプロセス)において不良が発生した場合、図8のAのようにガラス基板24上にレンズ28Aを配置する方法では、レンズ28Aの歩留まりはCSP固体撮像素子の歩留まりとなる。
 一方、図8のBのようにセンサパッケージ基板25の下面にレンズ28を配置する方法では、レンズ28の歩留まりはセンサパッケージ基板25の歩留まりとなる。センサパッケージ基板25とCSP固体撮像素子の部品単位のコストを比較すると、センサパッケージ基板25の方が安いので、レンズ28の不良発生時の損失を抑えることができる。
<2.ウエハレベルレンズの形成方法>
 次に、図9を参照して、ウエハレベルレンズであるレンズ28をセンサパッケージ保持部品27に形成するレンズ形成方法について説明する。
 なお、図9では、1個のレンズ28を形成するレンズ形成方法について説明するが、センサパッケージ保持部品27の平面方向に複数個のレンズ28を同時に形成するウエハレベルレンズプロセスにおいても同様である。
 初めに、図9のAに示されるように、上面および下面の両面に反射防止膜26が成膜されたセンサパッケージ基板25が用意され、センサパッケージ基板25の片側の面に、所定の開口部が形成されたセンサパッケージ保持部品27が接するように固定される。
 次に、図9のBに示されるように、センサパッケージ保持部品27の開口部に、レンズ材料171が滴下(充填)される。レンズ材料171の滴下位置は、センサパッケージ保持部品27の所定の位置に形成されたアライメントマークを基準にして、高精度に制御することができる。レンズ材料171は、例えば、紫外線で硬化する樹脂材料で構成される。
 なお、レンズ材料171には、紫外線硬化性ではなく、熱硬化性または熱可塑性の樹脂材料やガラス系材料を用いることができる。また、入射光として検出する光の波長が赤外領域などの場合は金属系材料であってもよい。
 次に、図9のCに示されるように、インプリント装置に取り付けられた、レンズ28の凹凸形状を有する金型172が、所定の速度及び荷重でセンサパッケージ保持部品27に押し付けられる。これにより、センサパッケージ保持部品27の開口部に滴下されたレンズ材料171に、金型172の凹凸形状が転写される。このとき、金型172がセンサパッケージ保持部品27に突き当たることで、金型172とセンサパッケージ保持部品27との距離(高さ)が高精度に制御される。金型172の平面方向の位置については、レンズ材料171の滴下位置と同様に、センサパッケージ保持部品27上の所定の位置に形成されたアライメントマークを基準にして、高精度に制御される。レンズ材料171と接触する金型172の表面には、硬化後のレンズ材料171から金型172を剥離しやすいように離型処理を予め施してもよい。
 そして、金型172がレンズ材料171に押し付けられた状態で、金型172の上側から、紫外線を照射することにより、レンズ材料171が硬化され、レンズ28が形成される。金型172の平面方向の外周部分には、紫外線を透過しない遮光膜(マスク)173が成膜されており、金型172からはみ出たレンズ材料171には紫外線が照射されない。したがって、金型172より外側のレンズ材料171については、硬化されずに、除去することができる。レンズ材料171が硬化し、レンズ28が形成された後、金型172が剥離される。
 そして、図9のDに示されるように、金型172が剥離されたレンズ28の表面に、反射防止膜29が成膜される。
 以上のようにレンズ28を形成することにより、レンズ28の形成時に、センサパッケージ基板25とセンサパッケージ保持部品27を同時接合することができるので、1回の接合(接着)工程で、センサパッケージ基板25、センサパッケージ保持部品27、および、レンズ28を接合することができる。
<3.センサパッケージの変形例>
 図10のA乃至Hは、図9で説明したような1回の接合工程によりセンサパッケージ基板25、センサパッケージ保持部品27、および、レンズ28を同時接合できる構造を有するセンサパッケージ11のその他の構造例を示している。
 図10のA乃至Hの説明では、図1の第1の実施の形態に係る撮像装置1と共通する部分についての説明は適宜省略し、図1の撮像装置1と異なる部分について、図1の撮像装置1と対比して説明する。
 なお、図10のA乃至Hでは、センサパッケージ基板25とレンズ28の周辺部分のみを図示しており、その他の構成(例えば、回路基板21、固体撮像素子22、センサパッケージ保持部品27の外周側)は省略されている。
 図10のAは、センサパッケージ11の第1変形例を示している。
 図10のAの第1変形例では、図1の撮像装置1においてレンズ28の固体撮像素子22側となる下側の表面に成膜されていた反射防止膜29が省略された例を示している。この例のように、レンズ28の表面に成膜されていた反射防止膜29は省略することができる。
 図10のBは、センサパッケージ11の第2変形例を示している。
 図1の撮像装置1では、センサパッケージ保持部品27の開口部の側面の傾斜の向きが、固体撮像素子22側が広くなるように形成されていた。これに対して、図10のBの第2変形例では、センサパッケージ保持部品27の開口部の側面の傾斜の向きが、センサパッケージ基板25側が広くなるように形成されている。これにより、入射光がレンズ28の側面に当たるようになるため、レンズ28の側面に、遮光膜201が形成されている。
 図10のCは、センサパッケージ11の第3変形例を示している。
 図10のCの第3変形例では、図1の撮像装置1においてセンサパッケージ基板25の上面と下面に成膜されていた反射防止膜26が省略されるとともに、レンズ28の表面に成膜されていた反射防止膜29も省略された例を示している。この例のように、反射防止膜26と反射防止膜29は省略することができ、特にセンサパッケージ基板25の下面の反射防止膜26は最も省略することができる。
 図10のDは、センサパッケージ11の第4変形例を示している。
 図10のDの第4変形例は、図10のBの第2の変形例に、遮光膜202および203を追加した構成とされている。遮光膜202は、センサパッケージ基板25の上面の外周部に形成されている。遮光膜203は、レンズ28の表面に成膜されていた反射防止膜29の上で、かつ、レンズ28の外周部に形成されている。遮光膜202および203を形成することにより、不要な入射光が固体撮像素子22の受光面に入射されるのを防止することができる。なお、遮光膜202または203のいずれか一方のみを形成してもよい。
 図10のEは、センサパッケージ11の第5変形例を示している。
 図10のEの第5変形例は、センサパッケージ保持部品27がセンサパッケージ基板25と接触する接触面の一部が掘り込まれ、その掘り込まれた空間にレンズ28の材料が挿入されることで、レンズ28とセンサパッケージ基板25との接触面、および、センサパッケージ保持部品27とレンズ28との接触面の両方を拡大した構成とされている。レンズ28とセンサパッケージ基板25およびセンサパッケージ保持部品27との接触面を拡大したことで、固着を強化することができる。
 図10のFは、センサパッケージ11の第6変形例を示している。
 図10のFの第6変形例は、センサパッケージ保持部品27とセンサパッケージ基板25との接触面、および、センサパッケージ保持部品27とレンズ28との接触面に、山形形状(三角錐形状)の凸部が一定周期で形成された凹凸部204が形成されている。
 図10のGは、センサパッケージ11の第7変形例を示している。
 図10のGの第7変形例は、センサパッケージ保持部品27とセンサパッケージ基板25との接触面、および、センサパッケージ保持部品27とレンズ28との接触面に、表面に対して垂直に掘り込んだ凹部が一定周期で形成された凹凸部205が形成されている。
 図10のFの第6変形例と、図10のGの第7変形例は、いずれも、センサパッケージ保持部品27の開口部の側面の傾斜の向きが、センサパッケージ基板25側が広くなるように形成されているため、入射光の反射を防止する必要がある。凹凸部204および205は、入射光の反射を防止する反射防止構造の一種である。また、凹凸部204および205に、レンズ28の材料が挿入されることで、レンズ28とセンサパッケージ保持部品27との固着を強化することができる。
 なお、センサパッケージ保持部品27とセンサパッケージ基板25との接触面、および、センサパッケージ保持部品27とレンズ28との接触面に形成される凹凸構造は、山形形状の繰り返しである凹凸部204や、凹部の繰り返しである凹凸部205以外のその他のモスアイ構造であってもよい。
 図10のHは、センサパッケージ11の第8変形例を示している。
 図10のHの第8変形例では、図1の撮像装置1におけるセンサパッケージ保持部品27が、セラミックまたは有機の回路基板206で形成されている。回路基板206の開口部の大きさは、固体撮像素子22側とセンサパッケージ基板25側とが同じ大きさである。
 図11は、レンズ28が形成されたセンサパッケージ保持部品27の平面図を示している。
 センサパッケージ保持部品27の開口部およびレンズ28の平面形状は、図11のAに示されるように、四角形とすることもできるし、図11のBに示されるように、円形とすることもできる。あるいはまた、センサパッケージ保持部品27の開口部およびレンズ28の平面形状は、楕円形としてもよい。図11のAおよびBにおいて、レンズ28の外枠の実線は、センサパッケージ保持部品27の上面と同一面におけるレンズ28の外周を表し、レンズ28の内枠の破線は、センサパッケージ保持部品27の下面と同一面におけるレンズ28の外周を表す。
 また、図10のEに示した第5変形例のように、センサパッケージ保持部品27がセンサパッケージ基板25と接触する上側の接触面にもレンズ28の材料が配置される場合には、図11のCに示されるように、センサパッケージ保持部品27のセンサパッケージ基板25側である上面の開口部近傍に、凹形状の溝部211を複数備えることができる。センサパッケージ保持部品27のセンサパッケージ基板25側となる上面に、溝部211を複数設けることで、レンズ28の材料が溝部211に浸透し、レンズ28とセンサパッケージ保持部品27との固着が強化される。図11のDは、複数の溝部211を設けたセンサパッケージ保持部品27に、レンズ28を形成した状態の平面図を示している。
 図12は、図10のBに示した第2変形例に係るセンサパッケージ11を用いた撮像装置1全体の断面図である。図10のAおよび図10のC乃至Gの各変形例についても同様に、センサパッケージ11の一部を置き換えて、撮像装置1が構成される。
 図13は、図10のHに示した第8変形例に係るセンサパッケージ11を用いた撮像装置1全体の断面図である。
 第8変形例のように、センサパッケージ保持部品27が、セラミックまたは有機の回路基板206で形成される場合、図13に示されるように、固体撮像素子22の下側に配置される回路基板21は省略することができる。また、図13では、固体撮像素子22の上面に形成されていた接着剤23とガラス基板24も省略されている。
 以上の第1の実施の形態の各変形例においても、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
<4.撮像装置の第2の実施の形態>
 図14は、本開示の第2の実施の形態に係る撮像装置の構成例を示す断面図である。
 図14の第2の実施の形態においては、上述した第1の実施の形態およびその変形例と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。図15以降で説明する他の実施の形態についても同様とする。
 図14の第2の実施の形態においては、センサパッケージ保持部品27の開口部の側面の傾斜の向きが、センサパッケージ基板25側が広くなるように形成されており、レンズ28の側面に遮光膜201が形成されている点で、図12(図10のB)に示した第2変形例に係る撮像装置1と共通する。
 一方、図12に示した第2変形例に係る撮像装置1では、遮光膜201が形成されたレンズ28の側面が、センサパッケージ保持部品27の開口部の側面と接しているのに対して、図14の第2の実施の形態では、レンズ28の側面と、センサパッケージ保持部品27の開口部の側面とが所定距離離され、レンズ28とセンサパッケージ保持部品27との間にスペースが形成されている。
 第2の実施の形態では、レンズ28とセンサパッケージ保持部品27が接合されていない代わりに、反射防止膜26を含むセンサパッケージ基板25の下面と、センサパッケージ保持部品27の上面とが、接着剤221で固定されている。
 このようなセンサパッケージ基板25、センサパッケージ保持部品27、および、レンズ28の構成は、図9で説明した同時接合ではなく、まず、ウエハレベルレンズプロセスによりセンサパッケージ基板25上にレンズ28を形成し、レンズ28が形成されたセンサパッケージ基板25を、接着剤221でセンサパッケージ保持部品27と接着して形成される。
 以上の第2の実施の形態においても、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
<5.撮像装置の第3の実施の形態>
 図15は、本開示の第3の実施の形態に係る撮像装置の構成例を示す断面図である。
 図15の第3の実施の形態は、図13(図10のH)に示した第8変形例に係る撮像装置1をさらに変形した構成を有している。
 図13(図10のH)に示した第8変形例に係る撮像装置1においては、レンズ28の側面が、セラミックまたは有機の回路基板206と接合され、レンズ28の平面サイズが、固体撮像素子22側とセンサパッケージ基板25側とで同じ大きさとされていた。
 一方、図15の第3の実施の形態では、レンズ28の側面と、回路基板206の開口部の側面とが所定距離離され、レンズ28と回路基板206との間にスペースが形成されている。レンズ28の側面の傾斜の向きが、センサパッケージ基板25側が広くなるように形成されており、レンズ28の側面に遮光膜201が形成されている。そして、反射防止膜26を含むセンサパッケージ基板25の下面と、回路基板206の上面とが、接着剤221で固定されている。
 このようなセンサパッケージ基板25、回路基板206、および、レンズ28の構成は、図14で説明した第2の実施の形態と同様に、まず、ウエハレベルレンズプロセスによりセンサパッケージ基板25上にレンズ28を形成し、レンズ28が形成されたセンサパッケージ基板25を、接着剤221で回路基板206と接着して形成される。
 以上の第3の実施の形態においても、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
<6.撮像装置の第4の実施の形態>
 図16は、本開示の第4の実施の形態に係る撮像装置の構成例を示す断面図である。
 図16の第4の実施の形態は、図1に示した第1の実施の形態と比較すると、センサパッケージ保持部品27が、センサパッケージ保持部品241に置き換えられている。図16の撮像装置1は、上側のレンズユニット12の装置サイズが図1と図16とで同一であるとすると、下側のセンサパッケージ11の固体撮像素子22のチップサイズが、図1に示した第1の実施の形態と比較して大きい構成とされている。
 センサパッケージ保持部品241は、断面視で、固体撮像素子22が配置される内側方向に張り出した凸部242を有し、反射防止膜26を含むセンサパッケージ基板25の下面と、センサパッケージ保持部品241の凸部242の上面とが、接着剤221で固定されている。センサパッケージ基板25は、下面と側面でセンサパッケージ保持部品241と接している。
 センサパッケージ保持部品241は、凸部242の側面の傾斜の向きが、センサパッケージ基板25側が広くなるように形成されており、レンズ28の側面と、センサパッケージ保持部品241の凸部242の側面とが所定距離離され、レンズ28とセンサパッケージ保持部品241の凸部242との間にスペースが形成されている。
 図16の例では、図14の第2の実施の形態においてレンズ28の下面に形成されていた反射防止膜29が省略されているが、反射防止膜29は形成してもよい。
 図17は、図16に示した第4の実施の形態の変形例であり、センサパッケージ11のその他の例を示している。なお、レンズユニット12は、図16と同様であるので省略されている。
 図17のAは、第4の実施の形態の第1の変形例を示すセンサパッケージ11の断面図である。
 図17のAのセンサパッケージ11は、センサパッケージ保持部品241の凸部242の側面の傾斜の向きが、センサパッケージ基板25側ではなく、固体撮像素子22側が広くなるように形成されている点が、図16の第4の実施の形態と異なる。その他の構成は、図16の第4の実施の形態と同様である。
 図17のBは、第4の実施の形態の第2の変形例を示すセンサパッケージ11の断面図である。
 図17のBのセンサパッケージ11は、図16のセンサパッケージ保持部品241が、センサパッケージ保持部品251に置き換えられている。センサパッケージ保持部品251は、固体撮像素子22が配置される内側方向に張り出した凸部252を最上部に備え、凸部252の下面で、反射防止膜26を含むセンサパッケージ基板25の上面と接し、接着剤221でセンサパッケージ基板25を固定している。レンズ28の下面と側面には、反射防止膜250が形成されている。
 図17のCは、第4の実施の形態の第3の変形例を示すセンサパッケージ11の断面図である。
 図17のCのセンサパッケージ11は、反射防止膜26を含むセンサパッケージ基板25の上面の外周部に遮光膜253が形成されるとともに、センサパッケージ基板25の下面の外周部と、レンズ28の下面の一部(外周部)と側面に、反射防止膜254が、さらに追加形成されている点が、図16の第4の実施の形態と異なる。その他の構成は、図16の第4の実施の形態と同様である。
 以上の第4の実施の形態およびその変形例においても、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
<7.撮像装置の第5の実施の形態>
 図18は、本開示の第5の実施の形態に係る撮像装置の構成例を示す断面図である。
 上述した第1乃至第4の実施の形態は、レンズユニット12が、レンズバレル32を光軸方向に移動させるAF駆動部33を備える撮像装置1の構成とされていた。
 図18の第5の実施の形態に係る撮像装置1は、レンズユニット12が固定された固定焦点型の構成である。
 図18の第5の実施の形態では、図1の第1の実施の形態におけるレンズバレル(レンズホルダ)32、固定ユニット34、および、センサパッケージ保持部品27の機能が一体となったレンズバレル281が設けられている。
 レンズバレル281は、複数のレンズで構成されるレンズ群31を収納し、かつ、回路基板21に接着剤30で固定されている。また、レンズバレル281は、反射防止膜26を含むセンサパッケージ基板25の上面と接着剤282で接続され、センサパッケージ基板25を固定している。センサパッケージ基板25の下面(固体撮像素子22側の面)には、レンズ28が形成されている。図18では省略されているが、レンズ28の表面には、図15に示した反射防止膜29や遮光膜201が形成されてもよい。
 このような固定焦点型の撮像装置1では、レンズバレル281で固定されている装置全体がレンズユニット291を構成し、レンズ群31より下側(固体撮像素子22側)である、反射防止膜26を含むセンサパッケージ基板25から回路基板21までが、図1のセンサパッケージ11に対応するセンサパッケージ機能部292を構成する。
 以上の第5の実施の形態においても、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
 なお、レンズユニット12が固定された固定焦点型の構成において、レンズバレル281の構造は、図18に示した構造に限定されるものではなく、センサパッケージ基板25と固体撮像素子22との間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成であれば、その他の構造であってもよい。
<8.撮像装置の第6の実施の形態>
 図19は、本開示の第6の実施の形態に係る撮像装置の構成例を示す断面図である。
 上述した第1乃至第5の実施の形態では、固体撮像素子22が、CSP構造であり、固体撮像素子22の裏面のはんだボール22eを介して、画素信号や電源等のやりとりを回路基板21との間で行うこととした。
 しかしながら、CSP構造は、ガラス基板24との貼り合わせや、固体撮像素子22の入出力端子を受光面の裏側に配線する必要があるなど、加工が複雑になる。
 そこで、固体撮像素子22の入出力端子(電極)を、受光面と同じ面に設け、ボンディングワイヤを用いて回路基板21と電気的に接続し、画素信号や電源等のやりとりを行うCOB(Chip on Board)構造を採用することもできる。
 図19の第6の実施の形態は、CSP構造を採用した図1の第1の実施の形態に係る撮像装置1を、ボンディングワイヤを用いたCOB構造に変形した構成を有している。
 図19の第6の実施の形態では、図1における固体撮像素子22、接着剤23、および、ガラス基板24が、固体撮像素子22Xに変更されている。固体撮像素子22Xは、ボンディングワイヤ301で回路基板21と電気的に接続されており、ボンディングワイヤ301を介して画素信号や電源等のやりとりを行う。
 ボンディングワイヤ301を用いて回路基板21と電気的に接続するCOB構造は、第5の実施の形態として図18に示した固定焦点型の撮像装置1にも適用することができる。
 図20は、第6の実施の形態の変形例であり、図18に示した固定焦点型の撮像装置1の固体撮像素子22を、図19と同様の、ボンディングワイヤ301を用いたCOB構造の固体撮像素子22Xに変形した構成例を示している。
 図20では、固体撮像素子22Xのオンチップレンズが省略された例が示されているが、オンチップレンズは、形成される場合と形成されない場合の両方があり得る。
 以上の第6の実施の形態においても、センサパッケージ基板25と固体撮像素子22Xとの間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
 COB構造の固体撮像素子22Xを用いることにより、回路基板21への接続を容易なものとすることができるので、加工をシンプルにすることが可能となり、コストを低減させることができる。
<9.撮像装置の第7の実施の形態>
 図21は、本開示の第7の実施の形態に係る撮像装置の構成例を示す断面図である。
 図15に示した第3の実施の形態において、センサパッケージ保持部品27が、セラミックまたは有機の回路基板206で形成され、センサパッケージ基板25が、接着剤221によりセンサパッケージ基板25の下面で回路基板206と固定される構成を示した。また、回路基板206は、固体撮像素子22の上面と接して、固体撮像素子22を固定していた。
 これに対して、図21の第7の実施の形態では、図15における回路基板206が、キャビティ構造の回路基板206Aに変更されている。キャビティ構造の回路基板206Aは、固体撮像素子22Xの上方となる位置に開口部を有し、その開口部の大きさは、固体撮像素子22Xのサイズより大きい。固体撮像素子22Xは、COB構造であり、ボンディングワイヤ301を用いて回路基板206Aと電気的に接続されている。回路基板206Aは、接着剤221によりセンサパッケージ基板25の下面を固定している。
 このように、キャビティ構造の回路基板206Aを、センサパッケージ保持部品27とする構成も可能である。
 以上の第7の実施の形態においても、センサパッケージ基板25と固体撮像素子22Xとの間のスペースであって、センサパッケージ基板25の下面にレンズ28を配置した構成を有するので、図8を参照して説明したように、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
 なお、図21の例は、キャビティ構造の回路基板206A上に配置する固体撮像素子を、COB構造の固体撮像素子22Xとした例であるが、CSP構造の固体撮像素子22でもよいことは言うまでもない。
<10.電子機器への適用例>
 上述した撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図22は、本開示を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図22に示される撮像装置1001は、光学系1002、シャッタ装置1003、固体撮像素子1004、駆動回路1005、信号処理回路1006、モニタ1007、およびメモリ1008を備えて構成され、静止画像および動画像を撮像可能である。
 光学系1002は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子1004に導き、固体撮像素子1004の受光面に結像させる。
 シャッタ装置1003は、光学系1002および固体撮像素子1004の間に配置され、駆動回路1005の制御に従って、固体撮像素子1004への光照射期間および遮光期間を制御する。
 固体撮像素子1004は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子1004は、光学系1002およびシャッタ装置1003を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子1004に蓄積された信号電荷は、駆動回路1005から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路1005は、固体撮像素子1004の転送動作、および、シャッタ装置1003のシャッタ動作を制御する駆動信号を出力して、固体撮像素子1004およびシャッタ装置1003を駆動する。
 信号処理回路1006は、固体撮像素子1004から出力された信号電荷に対して各種の信号処理を施す。信号処理回路1006が信号処理を施すことにより得られた画像(画像データ)は、モニタ1007に供給されて表示されたり、メモリ1008に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置1001においても、上述した光学系1002、および固体撮像素子1004に代えて、図1等の各実施の形態に係る撮像装置1を適用することにより、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
<11.撮像装置の使用例>
 図23は、上述の撮像装置1を使用する使用例を示す図である。
 上述した撮像装置1は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<12.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図24は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図24では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図25は、図24に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等に適用され得る。具体的には、例えば、上述した各実施の形態に係る撮像装置1を、レンズユニット11401および撮像部10402に適用することができる。レンズユニット11401および撮像部10402に本開示に係る技術を適用することにより、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<13.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図26は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図26に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図26の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図27は、撮像部12031の設置位置の例を示す図である。
 図27では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図27には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、上述した各実施の形態に係る撮像装置1を、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、小型化や低背化を実現するとともに、フレアの発生を抑制することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下のような構成も取ることができる。
(1)
 入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、
 前記固体撮像素子と電気的に接続される回路基板と、
 前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、
 前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズと
 を備えるセンサパッケージ。
(2)
 レンズ有効口径D、焦点距離X、許容されるダストの直径Aとして、焦点から前記センサパッケージ基板の上面までの距離Yは、
  Y>{(X×√(A/0.02))/D}を満たすように構成される
 前記(1)に記載のセンサパッケージ。
(3)
 前記レンズの下面、または、前記センサパッケージ基板の上面もしくは下面の少なくとも一つには、フィルタ機能を有する膜が形成されている
 前記(1)または(2)に記載のセンサパッケージ。
(4)
 前記センサパッケージ基板の材料は、ガラス系材料、樹脂系材料、または、金属系材料のいずれかである
 前記(1)乃至(3)のいずれかに記載のセンサパッケージ。
(5)
 前記固体撮像素子は、単波長の入射光を受光するセンサ、または、多波長の入射光を受光するセンサである
 前記(1)乃至(4)のいずれかに記載のセンサパッケージ。
(6)
 前記レンズの材料は、樹脂材料、ガラス系材料、または、金属系材料のいずれかである
 前記(1)乃至(5)のいずれかに記載のセンサパッケージ。
(7)
 前記センサパッケージ基板を保持するセンサパッケージ保持部品をさらに備える
 前記(1)乃至(6)のいずれかに記載のセンサパッケージ。
(8)
 前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
 前記開口部の側面の傾斜の向きが、前記固体撮像素子側または前記センサパッケージ基板側の一方が広くなるように形成されている
 前記(7)に記載のセンサパッケージ。
(9)
 前記センサパッケージ保持部品は、前記センサパッケージ基板の上面または下面と接して前記センサパッケージ基板を固定する
 前記(7)または(8)に記載のセンサパッケージ。
(10)
 前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有する回路基板であり、
 前記開口部の大きさは、前記固体撮像素子側と前記センサパッケージ基板側とが同じ大きさである
 前記(7)乃至(9)のいずれかに記載のセンサパッケージ。
(11)
 前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
 前記開口部の平面形状は、四角形または円形である
 前記(7)乃至(10)のいずれかに記載のセンサパッケージ。
(12)
 前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
 前記レンズは、前記レンズの側面が前記開口部の側面と接することで、前記センサパッケージ保持部品に保持されている
 前記(7)乃至(11)のいずれかに記載のセンサパッケージ。
(13)
 前記センサパッケージ保持部品と前記レンズとの接触面に凹凸構造を有する
 前記(7)乃至(12)のいずれかに記載のセンサパッケージ。
(14)
 前記センサパッケージ保持部品の前記センサパッケージ基板側である上面に、凹形状の溝部を複数備える
 前記(7)乃至(13)のいずれかに記載のセンサパッケージ。
(15)
 前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有する回路基板であり、
 前記開口部の大きさは、前記固体撮像素子のサイズより大きい
 前記(7)に記載のセンサパッケージ。
(16)
 前記センサパッケージ基板の一部または前記レンズの一部に、遮光膜を有する
 前記(1)乃至(15)のいずれかに記載のセンサパッケージ。
(17)
 前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群と、
 前記レンズ群を光軸方向に移動させる駆動部と
 をさらに備える
 前記(1)乃至(16)のいずれかに記載のセンサパッケージ。
(18)
 前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群と、
 前記レンズ群を固定するレンズホルダと
 をさらに備え、
 前記レンズホルダは、前記センサパッケージ基板の上面と接して前記センサパッケージ基板を固定する
 前記(1)乃至(17)のいずれかに記載のセンサパッケージ。
(19)
 前記固体撮像素子と前記回路基板とは、ワイヤボンディングにより電気的に接続されている
 前記(1)乃至(18)のいずれかに記載のセンサパッケージ。
(20)
 センサパッケージ基板の片側の面に、所定の開口部が形成されたセンサパッケージ保持部品が接するように固定された状態で、前記所定の開口部にレンズ材料を充填し、レンズの金型により前記レンズ材料を成形して硬化させることで、前記センサパッケージ基板、前記センサパッケージ保持部品、および、前記レンズを同時接合する
 センサパッケージの製造方法。
(21)
 入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、
 前記固体撮像素子と電気的に接続される回路基板と、
 前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、
 前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズと
 を有するセンサパッケージと、
 前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群を有するレンズユニットと
 を備える撮像装置。
 1 撮像装置, 11 センサパッケージ, 12 レンズユニット, 22,22X 固体撮像素子, 22a 下側基板(ロジック基板), 22b 上側基板(画素センサ基板), 22c カラーフィルタ, 22d オンチップレンズ, 25 センサパッケージ基板, 26 反射防止膜, 27 センサパッケージ保持部品, 28 レンズ, 29 反射防止膜, 31 レンズ群, 32 レンズバレル(レンズホルダ), 33 AF駆動部, 34 固定ユニット, 201,202 遮光膜, 204,205 凹凸部, 206 回路基板, 211 溝部, 241,251 センサパッケージ保持部品, 250 反射防止膜, 253 遮光膜, 254 反射防止膜, 281 レンズバレル, 291 レンズユニット, 292 センサパッケージ機能部, 301 ボンディングワイヤ, 1001 撮像装置, 1002 光学系, 1004 固体撮像素子

Claims (21)

  1.  入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、
     前記固体撮像素子と電気的に接続される回路基板と、
     前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、
     前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズと
     を備えるセンサパッケージ。
  2.  レンズ有効口径D、焦点距離X、許容されるダストの直径Aとして、焦点から前記センサパッケージ基板の上面までの距離Yは、
      Y>{(X×√(A/0.02))/D}を満たすように構成される
     請求項1に記載のセンサパッケージ。
  3.  前記レンズの下面、または、前記センサパッケージ基板の上面もしくは下面の少なくとも一つには、フィルタ機能を有する膜が形成されている
     請求項1に記載のセンサパッケージ。
  4.  前記センサパッケージ基板の材料は、ガラス系材料、樹脂系材料、または、金属系材料のいずれかである
     請求項1に記載のセンサパッケージ。
  5.  前記固体撮像素子は、単波長の入射光を受光するセンサ、または、多波長の入射光を受光するセンサである
     請求項1に記載のセンサパッケージ。
  6.  前記レンズの材料は、樹脂材料、ガラス系材料、または、金属系材料のいずれかである
     請求項1に記載のセンサパッケージ。
  7.  前記センサパッケージ基板を保持するセンサパッケージ保持部品をさらに備える
     請求項1に記載のセンサパッケージ。
  8.  前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
     前記開口部の側面の傾斜の向きが、前記固体撮像素子側または前記センサパッケージ基板側の一方が広くなるように形成されている
     請求項7に記載のセンサパッケージ。
  9.  前記センサパッケージ保持部品は、前記センサパッケージ基板の上面または下面と接して前記センサパッケージ基板を固定する
     請求項7に記載のセンサパッケージ。
  10.  前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有する回路基板であり、
     前記開口部の大きさは、前記固体撮像素子側と前記センサパッケージ基板側とが同じ大きさである
     請求項7に記載のセンサパッケージ。
  11.  前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
     前記開口部の平面形状は、四角形または円形である
     請求項7に記載のセンサパッケージ。
  12.  前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有し、
     前記レンズは、前記レンズの側面が前記開口部の側面と接することで、前記センサパッケージ保持部品に保持されている
     請求項7に記載のセンサパッケージ。
  13.  前記センサパッケージ保持部品と前記レンズとの接触面に凹凸構造を有する
     請求項7に記載のセンサパッケージ。
  14.  前記センサパッケージ保持部品の前記センサパッケージ基板側である上面に、凹形状の溝部を複数備える
     請求項7に記載のセンサパッケージ。
  15.  前記センサパッケージ保持部品は、前記固体撮像素子の上方となる位置に開口部を有する回路基板であり、
     前記開口部の大きさは、前記固体撮像素子のサイズより大きい
     請求項7に記載のセンサパッケージ。
  16.  前記センサパッケージ基板の一部または前記レンズの一部に、遮光膜を有する
     請求項1に記載のセンサパッケージ。
  17.  前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群と、
     前記レンズ群を光軸方向に移動させる駆動部と
     をさらに備える
     請求項1に記載のセンサパッケージ。
  18.  前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群と、
     前記レンズ群を固定するレンズホルダと
     をさらに備え、
     前記レンズホルダは、前記センサパッケージ基板の上面と接して前記センサパッケージ基板を固定する
     請求項1に記載のセンサパッケージ。
  19.  前記固体撮像素子と前記回路基板とは、ワイヤボンディングにより電気的に接続されている
     請求項1に記載のセンサパッケージ。
  20.  センサパッケージ基板の片側の面に、所定の開口部が形成されたセンサパッケージ保持部品が接するように固定された状態で、前記所定の開口部にレンズ材料を充填し、レンズの金型により前記レンズ材料を成形して硬化させることで、前記センサパッケージ基板、前記センサパッケージ保持部品、および、前記レンズを同時接合する
     センサパッケージの製造方法。
  21.  入射光の光量に応じて光電変換により画素信号を生成する固体撮像素子と、
     前記固体撮像素子と電気的に接続される回路基板と、
     前記固体撮像素子の入射光側に配置され、前記固体撮像素子を封止状態とするセンサパッケージ基板と、
     前記センサパッケージ基板の前記固体撮像素子側である下面に形成されたレンズと
     を有するセンサパッケージと、
     前記入射光を前記固体撮像素子の受光面に合焦させるレンズ群を有するレンズユニットと
     を備える撮像装置。
PCT/JP2021/008044 2020-03-17 2021-03-03 センサパッケージおよびその製造方法、並びに撮像装置 WO2021187091A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21772386.5A EP4124010A4 (en) 2020-03-17 2021-03-03 SENSOR ASSEMBLY, ITS MANUFACTURING METHOD AND IMAGING DEVICE
JP2022508190A JPWO2021187091A1 (ja) 2020-03-17 2021-03-03
US17/905,910 US20230117904A1 (en) 2020-03-17 2021-03-03 Sensor package, method of manufacturing the same, and imaging device
CN202180010653.6A CN115004679A (zh) 2020-03-17 2021-03-03 传感器封装、其制造方法和成像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-046657 2020-03-17
JP2020046657 2020-03-17

Publications (1)

Publication Number Publication Date
WO2021187091A1 true WO2021187091A1 (ja) 2021-09-23

Family

ID=77770856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/008044 WO2021187091A1 (ja) 2020-03-17 2021-03-03 センサパッケージおよびその製造方法、並びに撮像装置

Country Status (5)

Country Link
US (1) US20230117904A1 (ja)
EP (1) EP4124010A4 (ja)
JP (1) JPWO2021187091A1 (ja)
CN (1) CN115004679A (ja)
WO (1) WO2021187091A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI817910B (zh) * 2023-03-08 2023-10-01 百辰光電股份有限公司 降低高度之影像模組

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110156187A1 (en) * 2009-12-31 2011-06-30 Kingpak Technology Inc. Image sensor packaging structure with predetermined focal length
JP2019047237A (ja) * 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器、並びに撮像装置の製造方法
WO2019235247A1 (ja) 2018-06-08 2019-12-12 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106164731B (zh) * 2014-04-04 2019-08-20 夏普株式会社 透镜元件和摄像装置
DE102015213575A1 (de) * 2015-02-10 2016-08-11 Robert Bosch Gmbh Bildaufnahmesystem und ein Kraftfahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110156187A1 (en) * 2009-12-31 2011-06-30 Kingpak Technology Inc. Image sensor packaging structure with predetermined focal length
JP2019047237A (ja) * 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および電子機器、並びに撮像装置の製造方法
WO2019235247A1 (ja) 2018-06-08 2019-12-12 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI817910B (zh) * 2023-03-08 2023-10-01 百辰光電股份有限公司 降低高度之影像模組

Also Published As

Publication number Publication date
EP4124010A1 (en) 2023-01-25
CN115004679A (zh) 2022-09-02
US20230117904A1 (en) 2023-04-20
JPWO2021187091A1 (ja) 2021-09-23
EP4124010A4 (en) 2023-09-06

Similar Documents

Publication Publication Date Title
JPWO2018043654A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
JP7237956B2 (ja) 撮像装置
JP2019047237A (ja) 撮像装置、および電子機器、並びに撮像装置の製造方法
US20220066309A1 (en) Imaging device and electronic apparatus
WO2021241019A1 (ja) 撮像素子および撮像装置
WO2019235246A1 (ja) 撮像装置
WO2019235249A1 (ja) 撮像装置
TW201947779A (zh) 固體攝像元件及固體攝像元件之製造方法
JPWO2019131488A1 (ja) カメラパッケージ、カメラパッケージの製造方法、および、電子機器
JP6938249B2 (ja) 半導体装置の製造方法、および、金型
WO2022009693A1 (ja) 固体撮像装置およびその製造方法
WO2019235248A1 (ja) 撮像装置
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
WO2021187091A1 (ja) センサパッケージおよびその製造方法、並びに撮像装置
JP2019067937A (ja) 半導体装置、半導体装置の製造方法、及び、電子機器
WO2022009674A1 (ja) 半導体パッケージ及び半導体パッケージの製造方法
WO2021186907A1 (ja) 固体撮像装置及びその製造方法、並びに電子機器
WO2020246293A1 (ja) 撮像装置
WO2019235247A1 (ja) 撮像装置
WO2021192584A1 (ja) 撮像装置およびその製造方法
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2021215299A1 (ja) 撮像素子および撮像装置
WO2021166672A1 (ja) 撮像装置、電子機器
WO2021095562A1 (ja) 撮像装置および電子機器
JP2023096630A (ja) 光検出装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21772386

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022508190

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021772386

Country of ref document: EP

Effective date: 20221017