WO2020012860A1 - 撮像素子および撮像素子の製造方法 - Google Patents

撮像素子および撮像素子の製造方法 Download PDF

Info

Publication number
WO2020012860A1
WO2020012860A1 PCT/JP2019/023301 JP2019023301W WO2020012860A1 WO 2020012860 A1 WO2020012860 A1 WO 2020012860A1 JP 2019023301 W JP2019023301 W JP 2019023301W WO 2020012860 A1 WO2020012860 A1 WO 2020012860A1
Authority
WO
WIPO (PCT)
Prior art keywords
adjacent
chip lens
pixel
common
phase difference
Prior art date
Application number
PCT/JP2019/023301
Other languages
English (en)
French (fr)
Inventor
祥生 西
博信 深川
加藤 英明
秋光 佐藤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202211460563.XA priority Critical patent/CN115767295B/zh
Priority to US17/250,307 priority patent/US11477403B2/en
Priority to CN201980044542.XA priority patent/CN112368837A/zh
Publication of WO2020012860A1 publication Critical patent/WO2020012860A1/ja
Priority to US17/943,052 priority patent/US11765476B2/en
Priority to US18/356,384 priority patent/US12022217B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/16Viewfinders combined with focusing aids
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/14685Process for coatings or optical elements

Definitions

  • the present disclosure relates to an imaging device and a method for manufacturing the imaging device. More specifically, the present invention relates to an image sensor for detecting an image plane phase difference and a method for manufacturing the image sensor.
  • an image sensor that performs autofocus has been used.
  • an image sensor that performs autofocus by arranging a phase difference pixel for detecting an image plane phase difference, detecting a focus position of a subject, and adjusting a position of a photographing lens according to the detected focus position is used.
  • the phase difference pixel is constituted by a pair of pixels.
  • Light transmitted through different positions of the photographing lens, for example, right and left sides of the photographing lens is incident on each of a pair of phase difference pixels to perform imaging, thereby generating image signals.
  • the focus position can be detected by detecting the phase difference of the image based on each of the generated image signals.
  • Such a method of dividing the light transmitted through the taking lens into two is called pupil division.
  • an image sensor that forms a phase difference pixel by disposing a common on-chip lens for two adjacent pixels and performs pupil division is used.
  • a common on-chip lens for two adjacent pixels and performs pupil division.
  • an imaging element has been proposed in which a first microlens and a film covering the first microlens are formed for each pixel, and a second microlens is formed on the surface of the film of the focus detection pixel (for example, an imaging device has been proposed).
  • Patent Document 1. Patent Document 1.
  • a micro lens and a focus detection pixel correspond to an on-chip lens and a phase difference pixel, respectively.
  • the film on the surface of the first microlens is used as an etching stopper when the second microlens is formed by etching.
  • the focus point is adjusted in order to improve the performance of the autofocus of the focus detection pixel.
  • the focusing point is adjusted by forming an on-chip lens and a film on the phase difference pixel and then forming a second on-chip lens that covers the on-chip lenses of the two phase difference pixels in common.
  • the on-chip lens of the phase difference pixel is formed by performing the on-chip lens twice, there is a problem that the forming process of the on-chip lens becomes complicated.
  • the present disclosure has been made in view of the above-described problems, and has as its object to simplify a process of forming an on-chip lens of a phase difference pixel.
  • the present disclosure has been made in order to solve the above-described problems, and a first aspect of the present disclosure is that a pixel that performs photoelectric conversion in accordance with incident light and a pixel that is disposed adjacent to and detects a phase difference is provided.
  • a plurality of phase difference pixels that are pixels, and a pixel array portion in which the phase difference pixel adjacent pixel that is the pixel adjacent to the phase difference pixel is two-dimensionally arranged; and the incident light that is arranged for each pixel and
  • An individual on-chip lens that individually condenses the pixels, a common on-chip lens that is arranged in common for the plurality of phase difference pixels and condenses the incident light in common, and is arranged for each pixel adjacent to the phase difference pixel Then, the incident light is individually focused on the pixel adjacent to the phase difference pixel, and an adjacent on-chip lens having a size different from that of the individual on-chip lens in order to adjust the shape of the common on-chip lens.
  • Preparation That is an image pickup device.
  • the adjacent on-chip lens may be configured to be larger in size than the individual on-chip lens.
  • the adjacent on-chip lens may be configured to have a larger bottom width than the individual on-chip lens.
  • the adjacent on-chip lens adjacent to the common on-chip lens at the vertex may be configured to have a larger size than the adjacent on-chip lens adjacent to the common on-chip lens at a side. .
  • the individual on-chip lens is arranged such that a position with respect to the pixel is shifted in accordance with an incident angle of the incident light. Position is shifted in accordance with the incident angle of the incident light, and the common on-chip lens is arranged such that the position with respect to the phase difference pixel is shifted in accordance with the incident angle of the incident light. Good.
  • the peripheral edge adjacent on-chip lenses that are adjacent on-chip lenses that are adjacent to the peripheral edge common on-chip lens that is the common on-chip lens that is disposed on the peripheral edge of the pixel array unit may be different.
  • the peripheral edge adjacent on-chip lens that is close to the optical center of the pixel array unit is symmetrical with respect to the peripheral edge common on-chip lens. It may be configured to be smaller in size than the on-chip lens adjacent to the peripheral portion adjacent to the end of the pixel array portion to be arranged.
  • the peripheral portion adjacent on-chip lens which is the peripheral portion adjacent on-chip lens disposed between the peripheral portion common on-chip lens and the optical center of the pixel array portion
  • the peripheral part adjacent on-chip lens which is the peripheral part adjacent on-chip lens symmetrically disposed with respect to the peripheral part common on-chip lens, may be configured to be smaller in size than the peripheral part remote adjacent on-chip lens.
  • the on-chip lens adjacent to the peripheral portion may be configured to have a smaller size than the individual on-chip lens adjacent to the on-chip lens adjacent to the peripheral portion.
  • the peripheral portion far-adjacent on-chip lens may be configured to be larger in size than the individual on-chip lens adjacent to the peripheral portion far-adjacent on-chip lens.
  • the adjacent on-chip lens may be formed at a different height from a bottom of a region adjacent to the common on-chip lens and a bottom of a region adjacent to the individual on-chip lens.
  • the adjacent on-chip lens may be configured to have a shape of a bottom surface different from that of the phase difference pixel adjacent pixel.
  • the common on-chip lens may collect the incident light in common to the two phase difference pixels.
  • the common on-chip lens may collect the incident light in common to the four phase difference pixels.
  • the plurality of phase difference pixels may detect a phase difference by pupil-dividing the incident light.
  • a second aspect of the present disclosure is directed to a pixel that performs photoelectric conversion in accordance with incident light, a plurality of phase difference pixels that are arranged adjacently and are pixels that detect a phase difference, and the phase difference pixel.
  • a step of forming a pixel array section in which adjacent pixels, which are phase difference pixels and adjacent pixels, are two-dimensionally arranged; and individual on-chip arranged for each pixel and individually condensing the incident light on the pixel Forming a lens, forming a common on-chip lens that is arranged in common to the plurality of phase difference pixels and collects the incident light in common, and that is arranged for each pixel adjacent to the phase difference pixel.
  • the adjacent on-chip lens by configuring the adjacent on-chip lens to have a size different from that of the individual on-chip lens, an effect of adjusting the shape of the common on-chip lens is provided. It is envisioned that individual on-chip lenses, adjacent on-chip lenses, and common on-chip lenses will be manufactured by a common process.
  • FIG. 1 is a diagram illustrating a configuration example of an imaging element according to an embodiment of the present disclosure.
  • FIG. 1 is a diagram illustrating a configuration example of an on-chip lens according to a first embodiment of the present disclosure.
  • FIG. 1 is a cross-sectional view illustrating a configuration example of an imaging device according to a first embodiment of the present disclosure.
  • 1 is a diagram illustrating a configuration example of a color filter according to an embodiment of the present disclosure.
  • 1 is a diagram illustrating a configuration example of a color filter according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating another configuration example of the color filter according to the embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a method for manufacturing an imaging device according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a method for manufacturing an imaging device according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating an example of a method for manufacturing an on-chip lens according to the first embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view illustrating a configuration example of an imaging element according to a modification example of the first embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view illustrating another configuration example of an imaging element according to a modification example of the first embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a configuration example of an on-chip lens according to a second embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view illustrating a configuration example of an imaging device according to a second embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a configuration example of an on-chip lens according to a second embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view illustrating a configuration example of an imaging device according to a second embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating a configuration example of an on-chip lens according to a second embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating a configuration example of an on-chip lens according to a third embodiment of the present disclosure.
  • FIG. 13 is a cross-sectional view illustrating a configuration example of an imaging device according to a third embodiment of the present disclosure.
  • 1 is a block diagram illustrating a schematic configuration example of a camera that is an example of an imaging device to which the present disclosure can be applied.
  • FIG. 1 is a cross-sectional view illustrating a configuration example of an imaging device according to an embodiment of the present disclosure. 1 includes a pixel array unit 10, a vertical drive unit 20, a column signal processing unit 30, and a control unit 40.
  • the pixel array unit 10 is configured by arranging the pixels 100 in a two-dimensional lattice.
  • the pixel 100 generates an image signal corresponding to the irradiated light.
  • the pixel 100 has a photoelectric conversion unit that generates a charge according to the emitted light.
  • the pixel 100 further includes a pixel circuit. This pixel circuit generates an image signal based on the charge generated by the photoelectric conversion unit. The generation of the image signal is controlled by a control signal generated by a vertical drive unit 20 described later.
  • signal lines 11 and 12 are arranged in an XY matrix.
  • the signal line 11 is a signal line for transmitting a control signal of a pixel circuit in the pixel 100, is arranged for each row of the pixel array unit 10, and is commonly wired to the pixels 100 arranged in each row.
  • the signal line 12 is a signal line that transmits an image signal generated by the pixel circuit of the pixel 100, is arranged for each column of the pixel array unit 10, and is wired in common to the pixels 100 arranged in each column. You. These photoelectric conversion units and pixel circuits are formed on a semiconductor substrate.
  • the vertical drive section 20 generates a control signal for the pixel circuit of the pixel 100.
  • the vertical drive section 20 transmits the generated control signal to the pixel 100 via the signal line 11 in FIG.
  • the column signal processing unit 30 processes an image signal generated by the pixel 100.
  • the column signal processing unit 30 processes an image signal transmitted from the pixel 100 via the signal line 12 in FIG.
  • the processing in the column signal processing unit 30 corresponds to, for example, analog-to-digital conversion for converting an analog image signal generated in the pixel 100 into a digital image signal.
  • the image signal processed by the column signal processing unit 30 is output as an image signal of the image sensor 1.
  • the control unit 40 controls the entire image sensor 1.
  • the control unit 40 controls the image sensor 1 by generating and outputting control signals for controlling the vertical drive unit 20 and the column signal processing unit 30.
  • the control signal generated by the control unit 40 is transmitted to the vertical drive unit 20 and the column signal processing unit 30 via signal lines 41 and 42, respectively.
  • phase difference pixel 300 is a pixel for detecting an image plane phase difference.
  • the phase difference pixels 300 are, for example, arranged adjacently on the left and right to perform pupil division. A plurality of such left and right adjacent phase difference pixels 300 are linearly arranged in the pixel array unit 10.
  • the image signals generated by the plurality of phase difference pixels 300 are output from the image sensor 1 and processed by a device such as a camera using the image sensor 1.
  • an image is generated by light transmitted through the right and left sides of the photographing lens, based on the image signals generated by the phase difference pixels 300 adjacent to the left and right.
  • the focus position of the subject is detected by detecting the phase difference between these images, the position of the taking lens is adjusted based on the detected focus position, and auto focus is performed.
  • the phase difference pixel adjacent pixel 200 is a pixel that is arranged adjacent to and surrounds the two phase difference pixels 300.
  • a photoelectric conversion unit and a pixel circuit having the same configuration as the pixel 100 are arranged in the phase difference pixel 300 and the phase difference pixel adjacent pixel 200. That is, the phase difference pixel 300 and the phase difference pixel adjacent pixel 200 can have the same configuration as the pixel 100 such as the diffusion region of the semiconductor substrate.
  • on-chip lenses having different shapes are arranged in each of the pixel 100, the phase difference pixel 300, and the pixel 200 adjacent to the phase difference pixel.
  • the on-chip lens is a lens that collects light from a subject on a photoelectric conversion unit such as the pixel 100.
  • FIG. 2 is a diagram illustrating a configuration example of the on-chip lens according to the first embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a configuration example of the pixel array unit 10, and is a diagram illustrating a configuration example of on-chip lenses in the pixel 100, the phase difference pixel adjacent pixel 200, and the phase difference pixel 300.
  • the pixel array unit 10 is configured by arranging the phase difference pixel adjacent pixels 200 and the phase difference pixels 300 in the plurality of pixels 100.
  • the solid square represents the on-chip lens 110 of the pixel 100.
  • a solid-line hexagon hatched with hatching indicates an on-chip lens (hereinafter, referred to as a common on-chip lens) 310 that is commonly arranged in the two phase difference pixels 300.
  • Other solid squares hatched with oblique lines represent on-chip lenses of the adjacent pixels 200 of the phase difference pixels.
  • the on-chip lens of the pixel 200 adjacent to the phase difference pixel is referred to as an adjacent on-chip lens.
  • adjacent on-chip lenses 210 to 219 are arranged around a common on-chip lens 310.
  • the on-chip lens 110 is an example of an individual on-chip lens described in the claims.
  • the on-chip lens 110 is formed in substantially the same shape as the pixel 100 in a plan view, and has a rectangular bottom surface. A curved surface is formed in a convex shape from the bottom surface to form a lens shape, and collects incident light.
  • the phase difference pixel 300 and the pixel 200 adjacent to the phase difference pixel have substantially the same shape as the pixel 100. Dotted lines in the figure represent the phase difference pixel adjacent pixel 200 and the phase difference pixel 300.
  • the common on-chip lens 310 is configured to have a smaller area than the total area of the two phase difference pixels 300.
  • the common on-chip lens 310 has a hexagonal shape that divides a long side into two parts and narrows in a tapered shape toward a short side with respect to a rectangular shape formed by two phase difference pixels 300, and has an elliptical shape. Is formed on the bottom surface approximating. Further, the common on-chip lens 310 is configured in a shape in which the size in the long side direction described above is reduced. By configuring the common on-chip lens 310 to have such a shape, the separation accuracy of pupil division in the phase difference pixel 300 can be improved, and the phase difference detection accuracy can be improved. Details of the shape of the common on-chip lens 310 will be described later.
  • the adjacent on-chip lenses 210 to 219 disposed around the common on-chip lens 310 have a different shape and size from the on-chip lens 110.
  • each of the adjacent on-chip lenses 210 to 219 has a shape in which a region adjacent to the phase difference pixel 300 projects to the phase difference pixel 300, and has a larger size than the on-chip lens 110.
  • the adjacent on-chip lenses 211, 214, 216 and 219 adjacent to the common on-chip lens 310 at the vertices are adjacent on-chip lenses 210 adjacent to the common on-chip lens 310 at the sides. , 212, 213, 215, 217 and 218.
  • the adjacent on-chip lenses 210 to 219 are configured such that a region adjacent to the vicinity of the above-described short side of the common on-chip lens 310 projects toward the phase difference pixel 300.
  • the shape of the common on-chip lens 310 is adjusted by extending the adjacent on-chip lenses. By configuring the adjacent on-chip lenses 210 to 219 to be larger in size than the on-chip lens 110, the shape of the common on-chip lens 310 can be adjusted.
  • FIG. 3 is a cross-sectional view illustrating a configuration example of the imaging element according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a cross-sectional configuration of the image sensor 1 (pixel array unit 10) along the line AA ′ in FIG.
  • the imaging device 1 shown in FIG. 1 includes a semiconductor substrate 150, a wiring region 160, a color filter 141, a light shielding film 142, a flattening film 130, an on-chip lens 110, and a support substrate 170.
  • a common on-chip lens 310 is disposed instead of the on-chip lens 110.
  • adjacent on-chip lenses 210 and 215 are arranged instead of the on-chip lens 110.
  • the semiconductor substrate 150 is a semiconductor substrate on which a photoelectric conversion portion such as the pixel 100 and a semiconductor element portion of a pixel circuit are formed. Further, on the semiconductor substrate 150, semiconductor elements such as the vertical drive unit 20 described with reference to FIG. 1 are further formed. In the figure, a photoelectric conversion unit among these semiconductor elements is shown. An element such as a photoelectric conversion unit is formed in a well region 151 formed in the semiconductor substrate 150. For the sake of convenience, it is assumed that the semiconductor substrate 150 shown in the figure forms a p-type well region 151. In the p-type well region 151, an n-type semiconductor region 152 is formed for each pixel.
  • a pn junction formed at the interface between the n-type semiconductor region 152 and the p-type well region 151 around the n-type semiconductor region 152 forms a photodiode.
  • This photodiode corresponds to the photoelectric conversion unit.
  • a separating portion 153 is arranged at a boundary between the pixels 100 and the like.
  • the separation section 153 is made of an insulating film or the like, and electrically separates the pixels 100 and the like.
  • the wiring area 160 is an area where wiring such as a pixel circuit is formed. This wiring region is constituted by a wiring layer 162 and an insulating layer 161.
  • the wiring layer 162 is a wiring made of metal or the like and transmitting a signal such as an image signal.
  • the insulating layer 161 insulates the wiring layer 162.
  • the wiring layer 162 and the insulating layer 161 can be configured in multiple layers.
  • the support substrate 170 is a substrate that supports the image sensor 1. By disposing the support substrate 170, the strength of the image sensor 1 can be improved in the manufacturing process of the image sensor 1.
  • the color filter 141 is an optical filter that transmits light having a predetermined wavelength among incident light.
  • a color filter 141 that transmits red light, green light and blue light can be used.
  • the light-shielding film 142 is disposed on the boundary between the adjacent color filters 141 and shields incident light that passes through the color filters 141 at an angle. By arranging the light shielding film 142, color mixing can be prevented.
  • the light-shielding film 142 can be formed of a material having a light-shielding property, for example, a metal such as aluminum or tungsten.
  • the flattening film 130 is a film that flattens the surface of the pixel 100 or the like.
  • the flattening film 130 can be made of a resin or the like, and can be made of the same material as an on-chip lens 110 described later.
  • the on-chip lens 110, the adjacent on-chip lenses 210 and 215, and the common on-chip lens 310 are lenses that condense incident light to the pixels 100 and the like as described above.
  • the on-chip lens 110 condenses incident light near the surface of the n-type semiconductor region 152 of the pixel 100.
  • the adjacent on-chip lenses 210 and 215 collect incident light near the surface of the n-type semiconductor region 152 of the pixel 200 adjacent to the phase difference pixel.
  • the on-chip lens 110, the adjacent on-chip lenses 210 and 215, and the common on-chip lens 310 are made of, for example, an organic material such as a styrene resin, an acrylic resin, a styrene-acryl copolymer resin, and a siloxane resin. Can be. Further, it can be made of an inorganic material such as silicon nitride or silicon oxynitride. Note that the image sensor 1 shown in the figure corresponds to a back-illuminated image sensor in which incident light is applied to a back surface, which is a surface different from the surface on which the wiring region 160 of the semiconductor substrate 150 is arranged.
  • the common on-chip lens 310 is disposed over the two phase difference pixels 300. Therefore, light transmitted mainly through the right side of the photographing lens enters the n-type semiconductor region 152a of the phase difference pixel 300 on the left side in FIG. Light transmitted mainly through the left side of the photographing lens enters the n-type semiconductor region 152b of the phase difference pixel 300 on the right side of FIG. Thereby, pupil division in the left-right direction can be performed.
  • the defocus amount can be measured, and the focal position of the photographing lens can be detected.
  • the common on-chip lens 310 is configured to have a smaller size than a region where the two phase difference pixels 300 are combined, and the curvature of the common on-chip lens 310 is increased to form a hemispherical shape.
  • the curvature of the common on-chip lens 310 can be increased.
  • the adjacent on-chip lenses 210 and 215 in the same figure are formed so that the ends adjacent to the common on-chip lens 310 project in the direction of the common on-chip lens 310 and have a larger bottom surface width than the on-chip lens 110.
  • the adjacent on-chip lenses 210 and 215 are formed at the same depth as the end 301 of the common on-chip lens 310. Thereby, the shape of the common on-chip lens 310 can be adjusted as described above.
  • FIG. 4 is a cross-sectional view illustrating a configuration example of the imaging element according to the first embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a configuration of a cross section of the imaging device 1 along a line B-B ′ in FIG. 2, and is a diagram illustrating a configuration near a boundary between two phase difference pixels 300.
  • the on-chip lens 110 corresponds to a cross section of a region where the two on-chip lenses 110 are in contact with each other, the on-chip lens 110 has a smaller thickness than that of FIG.
  • the common on-chip lens 310 has the same thickness as the common on-chip lens 310 of FIG.
  • the adjacent on-chip lenses 213 and 217 have substantially the same width as the adjacent pixels 200 of the phase difference pixels, and have a shape in contact with the common on-chip lens 310.
  • FIG. 5 is a diagram illustrating a configuration example of the color filter according to the embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating an example of the arrangement of the color filters 141 in the pixel array unit 10 described in FIG. In this figure, the description of the same reference numerals as those in FIG. 2 is omitted.
  • the characters described in the drawing represent the type of the color filter 141 to be arranged. “R”, “G”, and “B” in the figure represent the color filters 141 corresponding to red light, green light, and blue light, respectively.
  • four pixels 100 in two rows and two columns in which the same type of color filters 141 are arranged are arranged in a Bayer array.
  • the Bayer arrangement is an arrangement in which color filters 141 corresponding to green light are arranged in a checkered pattern, and color filters 141 corresponding to red light and blue light are arranged between color filters corresponding to green light. .
  • ⁇ Circle around (a) ⁇ in the figure shows an example in which the phase difference pixel 300 is arranged at the position of the pixel where the color filter 141 corresponding to green is arranged according to the Bayer arrangement.
  • the phase difference pixels 300 can be arranged without disturbing the arrangement of the color filters 141 in the pixel array unit 10.
  • ⁇ Circle over (b) ⁇ in the figure represents an example in which a color filter 141 corresponding to green light is arranged in the phase difference pixel 300.
  • the pixel array unit 10 can be formed by giving priority to the arrangement of the phase difference pixels 300.
  • ⁇ Circle around (c) ⁇ in the figure represents an example in which the arrangement of the color filters 141 in the phase difference pixels 300 is omitted.
  • a thickened flattening film 130 can be arranged in the region where the color filter 141 is arranged in the phase difference pixel 300.
  • FIG. 6 is a diagram illustrating another configuration example of the color filter according to the embodiment of the present disclosure.
  • FIG. 3 shows an example in which pixels 100 arranged in two rows and two columns are arranged in a Bayer array.
  • “a” represents an example in which different color filters 141 are arranged in two phase difference pixels 300, respectively.
  • “B” in FIG. 3 illustrates an example in which a color filter 141 corresponding to green light is disposed in the phase difference pixel 300.
  • FIG. 3C shows an example in which the arrangement of the color filters 141 in the phase difference pixels 300 is omitted.
  • FIGS. 7 and 8 are diagrams illustrating an example of a method for manufacturing an imaging device according to the first embodiment of the present disclosure.
  • 7 and 8 are diagrams illustrating an example of a manufacturing process of the imaging device 1.
  • a p-type well region 151 is formed in a semiconductor substrate 150, and an n-type semiconductor region 152 is formed.
  • a wiring region 160 is formed on the semiconductor substrate 150, and the support substrate 170 is bonded.
  • the back surface of the semiconductor substrate 150 is ground and thinned.
  • a p-type isolation region is formed between the pixels 100. This can be done by ion implantation.
  • a trench is formed in the isolation region, and the isolation portion 153 is arranged in the trench.
  • the light-shielding film 142 and the color filter 141 are arranged on the back surface of the semiconductor substrate 150 (a in FIG. 7). Thereby, the pixel array unit 10 can be formed.
  • This step is an example of the pixel array section forming step described in the claims.
  • an on-chip lens material 401 serving as a material for the on-chip lens 110 and the like is arranged on the surface of the color filter 141 (b in FIG. 7).
  • a resist 402 is arranged on the surface of the on-chip lens material 401 (c in FIG. 7).
  • the resist 402 is patterned to form resists 403 and 404. This patterning can be performed by exposing and developing the resist 402 into a quadrangular prism shape.
  • a resist 403 having a bottom surface smaller than the pixel 100 is arranged in a region where the on-chip lens 110 and the adjacent on-chip lenses 210 to 219 are formed.
  • a resist 404 configured to be longer than the resist 403 is arranged (d in FIG. 8).
  • the image sensor 1 is heated to a temperature equal to or higher than the softening point of the resists 403 and 404.
  • This heating can be performed by a reflow furnace.
  • the resists 403 and 404 are softened to form a curved surface, and the ends of the adjacent resists 403 adhere to each other to form the resist 405 (e in FIG. 8).
  • the resist 405 and the on-chip lens material 401 are etched. This etching can be performed by dry etching (f in FIG. 8). Thereby, the shape of the resist 405 can be transferred to the on-chip lens material 401, and the on-chip lens 110, the adjacent on-chip lenses 210 to 219, and the common on-chip lens 310 can be formed simultaneously.
  • the step of forming the common on-chip lens 310 is an example of the common on-chip lens forming step described in the claims.
  • the step of forming the adjacent on-chip lenses 210 to 219 is an example of the adjacent on-chip lens forming step described in the claims.
  • the step of forming the on-chip lens 110 is an example of the individual on-chip lens forming step described in the claims.
  • FIG. 9 is a diagram illustrating an example of a method for manufacturing an on-chip lens according to the first embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration example of the resists 403 and 404 described in d in FIG.
  • a gap 406 is formed between the adjacent resists 403.
  • the resist 404 has a shorter side having the same width as the resist 403, and has a longer side having a relatively short length.
  • a gap 407 wider than the gap 406 is formed between the short side and the adjacent resist 403. That is, a relatively wide gap 407 is formed between the resist 403 disposed at a position corresponding to the adjacent on-chip lenses 210 to 219 and the resist 404 corresponding to the common on-chip lens 310.
  • the resists 403 and 404 are softened by performing reflow heating, the corners of the resist 403 and the like are eluted in the region of the gap 406 to form the curved surface of the on-chip lens 110. Thereby, the resist 405 of e in FIG. 8 can be generated. Some of the softened resists 403 and 404 also flow into the gap 407. However, since the gap 407 is wider than the gap 406, the shape of the resist after flowing in is different from that of the resist 403 adjacent to the gap 406. The arrows in the figure represent the flow of the resists 403 and 404 into the gap 407.
  • the resist 403 corresponding to the adjacent on-chip lenses 210 to 219 flows into a position protruding in the direction of the phase difference pixel 300.
  • the shape of the resist 404 near the short side is adjusted by the inflow of the adjacent resist 403.
  • the resist 405 described with reference to e in FIG. 8 can be formed.
  • the light-shielding film 142 is omitted and the separation unit 153 is arranged between the phase difference pixels 300.
  • the separation unit 153 is arranged between the phase difference pixels 300.
  • another configuration may be adopted.
  • FIG. 10 is a cross-sectional view illustrating a configuration example of an imaging element according to a modification of the first embodiment of the present disclosure.
  • “A” in FIG. 7 shows an example in which the light shielding film 142 is arranged between the phase difference pixels 300.
  • “b” in FIG. 9 illustrates an example in which the separation unit 153 between the phase difference pixels 300 is omitted and only the separation region 154 is arranged. Note that, in the image sensor 1 of b in the same drawing, a configuration in which the light-shielding film 142 is disposed may be adopted.
  • FIG. 11 is a cross-sectional view illustrating another configuration example of the imaging element according to the modified example of the first embodiment of the present disclosure.
  • FIG. 11 illustrates an example in which a gap 155 is formed in the separation section 152 disposed in the phase difference pixel 300.
  • the separation unit 152 is arranged to separate the two phase difference pixels 300.
  • the light incident on the phase difference pixel 300 may be scattered by the separation unit 152, and the pupil division accuracy may be reduced.
  • by forming the gap 155 scattering of incident light can be reduced.
  • the configuration of the imaging device 1 according to the first embodiment of the present disclosure is not limited to this example.
  • the common on-chip lens 310 described with reference to FIG. 2 is commonly arranged in the two phase difference pixels 300, but a common on-chip lens commonly arranged in the four phase difference pixels 300 may be used. it can.
  • the imaging device 1 may be a surface-illuminated imaging device that irradiates incident light from the wiring region 160 side of the semiconductor substrate 150.
  • the image sensor 1 according to the first embodiment of the present disclosure is configured such that the adjacent on-chip lenses 210 to 219 are configured to have a different size from the on-chip lens 110 so that the shape of the common on-chip lens 310 is different. To adjust. This makes it possible to simplify the manufacturing process of the common on-chip lens 310 and the like while improving the separation accuracy in the pupil division of the phase difference pixel 300.
  • the on-chip lens 110 and the like of the pixel array unit 10 are arranged at the same position with respect to the pixel 100 and the like.
  • the imaging device 1 according to the second embodiment of the present disclosure is different from the above-described first embodiment in that the on-chip lens 110 and the like are displaced according to the incident angle of incident light to the pixel 100 and the like. This is different from the first embodiment.
  • the image sensor 1 is arranged in a camera or the like, and is irradiated with light from a subject via a photographing lens.
  • the camera lens including this photographing lens is arranged at a position where its own optical axis coincides with the optical center of the pixel array unit 10.
  • the optical center is the center of the region of the image sensor 1 (pixel array unit 10) to which light from the subject is irradiated.
  • the pixel array section 10 of the image sensor 1 is configured to be flat, light from a subject is obliquely incident on an end of the pixel array section 10. For this reason, the light condensing position by the on-chip lens 110 or the like is shifted.
  • the on-chip lenses 110 and the like are arranged so as to be shifted from the center of the pixels 100 in accordance with the incident angle of the incident light, and the light-condensing position is shifted. Is corrected.
  • Such correction of displacing the on-chip lens in accordance with the incident angle of the incident light is called pupil correction.
  • FIG. 12 is a diagram illustrating a configuration example of an on-chip lens according to the second embodiment of the present disclosure.
  • the figure shows a configuration example of the on-chip lens 110 and the like of the pixel 100 and the like arranged near the left end side among the pixels 100 and the like arranged at the peripheral portion of the pixel array unit 10 described in FIG. FIG. 2 differs from the pixel array unit 10 described in FIG. 2 in the following points.
  • the pixel 100 shown in the figure includes an on-chip lens 112 instead of the on-chip lens 110.
  • the adjacent pixel 200 of the phase difference pixel in FIG. 9 includes adjacent on-chip lenses 220 to 229 instead of the adjacent on-chip lenses 210 to 219.
  • the phase difference pixel 300 of FIG. 10 includes a common on-chip lens 320 instead of the common on-chip lens 310.
  • the on-chip lens 112, the adjacent on-chip lenses 220 to 229, and the common on-chip lens 320 of FIG. 3 are arranged such that the on-chip lens 110 and the like are shifted from the center of the pixel 100 and the like according to the incident angle of incident light. .
  • the on-chip lens 112, the adjacent on-chip lenses 220 to 229, and the common on-chip lens 320 are arranged so as to be shifted rightward, which is the direction of the optical center of the pixel array unit 10.
  • the adjacent on-chip lenses 224 to 226 near the optical center of the pixel array unit 10 and the adjacent on-chip lenses 220, 221 and 229 near the end of the pixel array unit 10 Is configured in a different size.
  • the adjacent on-chip lenses 224 to 226 are configured to be smaller in size than the adjacent on-chip lenses 220, 221 and 229 that are arranged symmetrically with respect to the common on-chip lens 320.
  • the adjacent on-chip lens 224 is configured to have a smaller size than the adjacent on-chip lens 229.
  • the adjacent on-chip lens 225 has a smaller size than the adjacent on-chip lens 220
  • the adjacent on-chip lens 226 has a smaller size than the adjacent on-chip lens 221.
  • the common on-chip lens 320 is an example of the peripheral common on-chip lens described in the claims.
  • the adjacent on-chip lenses 220 to 229 are examples of a peripheral edge adjacent on-chip lens described in the claims.
  • the on-chip lens 112 is an example of an individual on-chip lens described in the claims.
  • the adjacent on-chip lens 225 disposed between the common on-chip lens 320 and the optical center of the pixel array unit 10 is smaller than the adjacent on-chip lens 220 symmetrically disposed with respect to the common on-chip lens 320. Configured to size. Further, the adjacent on-chip lens 225 is configured to have a smaller size than the on-chip lens 112 adjacent to the adjacent on-chip lens 225. Further, the adjacent on-chip lens 220 is configured to have a larger size than the on-chip lens 112 adjacent to the adjacent on-chip lens 220. Note that the adjacent on-chip lens 225 is an example of an on-chip lens near the peripheral portion described in the claims. The adjacent on-chip lens 220 is an example of an on-chip lens far from the peripheral portion described in the claims.
  • the adjacent on-chip lens arranged closer to the optical center of the pixel array section 10 is closer to the end of the pixel array section 10 than the adjacent on-chip lens arranged.
  • Composed of small size the adjacent on-chip lens 225 disposed between the common on-chip lens 320 and the optical center of the pixel array unit 10 is configured to have the smallest size, and is disposed at the adjacent on-chip lens 112 or at an opposing position. It is configured to be smaller in size than the adjacent on-chip lens 220.
  • the adjacent on-chip lenses 220 to 229 are respectively adjusted to have asymmetric shapes. This is to level the sensitivity of the adjacent on-chip lenses 220 to 229 to the incident light.
  • the adjacent on-chip lenses 220 to 229 are arranged so as to be shifted in the direction of the optical center of the pixel array unit 10 for pupil correction.
  • the adjacent on-chip lenses 220 to 229 have the same shape as the adjacent on-chip lenses 210 to 219 described in FIG. 2, the adjacent on-chip lenses and the pixel array arranged near the optical center of the pixel array unit 10 are arranged. It has a different sensitivity characteristic from the adjacent on-chip lens arranged near the end of the part 10. For example, an adjacent on-chip lens 225 that does not perform the above adjustment has a higher sensitivity than an adjacent on-chip lens 220 that does not perform the same adjustment.
  • the effect of the pupil correction differs depending on the position of the adjacent on-chip lens over the common on-chip lens 320 since the adjacent on-chip lens is formed to protrude in the region of the phase difference pixel 300. Further, as described with reference to FIG. 3, the adjacent on-chip lenses have different pupil correction effects due to the difference in depth between the end adjacent to the common on-chip lens 320 and the end adjacent to the on-chip lens 112. Cause.
  • the sensitivity can be leveled by adjusting the shape like the adjacent on-chip lenses 220 to 229 described above.
  • the common on-chip lens 320 and the adjacent on-chip lenses 220 to 229 can be formed by changing the shapes and positions of the resists 403 and 404 described in FIG.
  • FIG. 13 is a cross-sectional view illustrating a configuration example of an imaging device according to the second embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration of a cross section of the image sensor 1 along the line C-C ′ in FIG. As shown in the figure, adjacent on-chip lenses 220 and 225 are configured in different shapes.
  • FIG. 14 is a diagram illustrating a configuration example of an on-chip lens according to the second embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a configuration example of an on-chip lens of the pixel 100 and the like arranged near the upper edge of the pixels 100 and the like arranged in the peripheral portion of the pixel array unit 10 described in FIG. is there. 2 differs from the pixel array unit 10 described in FIG. 2 in the following points.
  • the pixel 100 shown in the figure includes an on-chip lens 113 instead of the on-chip lens 110.
  • the phase difference pixel adjacent pixel 200 of FIG. 9 includes adjacent on-chip lenses 230 to 239 instead of the adjacent on-chip lenses 210 to 219.
  • the phase difference pixel 300 of FIG. 9 includes a common on-chip lens 330 instead of the common on-chip lens 310.
  • the on-chip lens 113, the adjacent on-chip lenses 230 to 239, and the common on-chip lens 330 shown in the same drawing are arranged to be shifted downward in the direction of the optical center of the pixel array unit 10. Also, of the adjacent on-chip lenses 230 to 239, the adjacent on-chip lenses 236 to 239 near the optical center of the pixel array unit 10 and the adjacent on-chip lenses 231 to 234 near the end of the pixel array unit 10 Configured in different sizes. For example, the adjacent on-chip lenses 236 to 239 are configured to have a smaller size than the adjacent on-chip lenses 231 to 234 arranged symmetrically with respect to the common on-chip lens 330.
  • adjacent on-chip lenses 236 and 239 are configured to be smaller in size than the adjacent on-chip lenses 231 and 234, respectively.
  • adjacent on-chip lenses 237 and 238 are configured to be smaller in size than adjacent on-chip lenses 232 and 233, respectively.
  • the common on-chip lens 330 is an example of the peripheral common on-chip lens described in the claims.
  • the adjacent on-chip lenses 230 to 239 are examples of the peripheral-edge adjacent on-chip lenses described in the claims.
  • the on-chip lens 113 is an example of the individual on-chip lens described in the claims.
  • the adjacent on-chip lenses 237 and 238 disposed between the common on-chip lens 330 and the optical center of the pixel array section 10 are adjacent on-chip lenses symmetrically disposed with respect to the common on-chip lens 330, respectively. It is configured to be smaller than 232 and 233. Further, the adjacent on-chip lenses 237 and 238 are configured to be smaller in size than the adjacent on-chip lens 113. Further, the adjacent on-chip lenses 232 and 233 are configured to be larger in size than the adjacent on-chip lens 113. Note that the adjacent on-chip lenses 237 and 238 are examples of an on-chip lens near the peripheral portion described in the claims. The adjacent on-chip lenses 232 and 233 are examples of the peripheral edge far-neighboring on-chip lenses described in the claims.
  • the adjacent on-chip lens arranged closer to the optical center of the pixel array unit 10 is closer than the adjacent on-chip lens arranged closer to the end of the pixel array unit 10. Composed of small size.
  • the adjacent on-chip lenses 237 and 238 disposed between the common on-chip lens 330 and the optical center of the pixel array unit 10 are configured to have the smallest size, and are disposed at the adjacent on-chip lens 113 or at a position facing the same.
  • the adjacent on-chip lenses 232 and 233 are smaller in size. As in the case of the adjacent on-chip lenses 220 to 229 described in FIG.
  • the sensitivity of the adjacent on-chip lenses 230 to 239 to the incident light can be leveled by forming the adjacent on-chip lenses 230 to 239 in an asymmetric shape. Can be.
  • FIG. 15 is a cross-sectional view illustrating a configuration example of an imaging element according to the second embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating a cross-sectional configuration of the imaging device 1 along the line D-D ′ in FIG. As shown in the figure, adjacent on-chip lenses 233 and 237 are configured in different shapes.
  • FIG. 16 is a diagram illustrating a configuration example of an on-chip lens according to the second embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a configuration example of an on-chip lens of the pixel 100 and the like arranged near the upper left corner among the pixels 100 and the like arranged in the peripheral portion of the pixel array unit 10 described in FIG. . 2 differs from the pixel array unit 10 described in FIG. 2 in the following points.
  • the pixel 100 shown in the figure includes an on-chip lens 114 instead of the on-chip lens 110.
  • the adjacent pixel 200 of the phase difference pixel in FIG. 9 includes adjacent on-chip lenses 240 to 249 instead of the adjacent on-chip lenses 210 to 219.
  • the phase difference pixel 300 of FIG. 9 includes a common on-chip lens 340 instead of the common on-chip lens 310.
  • the on-chip lens 114, the adjacent on-chip lenses 240 to 249, and the common on-chip lens 340 are shifted from the optical center of the pixel array unit 10 to the lower right direction.
  • the adjacent on-chip lenses 240 to 249, the adjacent on-chip lenses 245 to 247 near the optical center of the pixel array unit 10 and the adjacent on-chip lenses 240 to 242 near the end of the pixel array unit 10 Configured in different sizes.
  • the adjacent on-chip lenses 245 to 247 have a smaller size than the adjacent on-chip lenses 240 to 242 arranged symmetrically with respect to the common on-chip lens 340.
  • the adjacent on-chip lens 245 has a smaller size than the adjacent on-chip lens 240.
  • the adjacent on-chip lens 246 has a smaller size than the adjacent on-chip lens 241.
  • the adjacent on-chip lens 247 has a smaller size than the adjacent on-chip lens 242.
  • the common on-chip lens 340 is an example of the peripheral common on-chip lens described in the claims.
  • the adjacent on-chip lenses 240 to 249 are examples of a peripheral edge adjacent on-chip lens described in the claims.
  • the on-chip lens 114 is an example of an individual on-chip lens described in the claims.
  • the adjacent on-chip lens 246 arranged between the common on-chip lens 340 and the optical center of the pixel array unit 10 is smaller than the adjacent on-chip lens 241 arranged symmetrically with respect to the common on-chip lens 340. Configured to size. Further, the adjacent on-chip lens 246 is configured to be smaller in size than the adjacent on-chip lens 114. Further, the adjacent on-chip lens 241 is configured to be larger in size than the adjacent on-chip lens 114. Note that the adjacent on-chip lens 246 is an example of an on-chip lens near the peripheral portion described in the claims. The adjacent on-chip lens 241 is an example of an on-chip lens adjacent to the peripheral edge portion described in the claims.
  • the adjacent on-chip lens arranged closer to the optical center of the pixel array unit 10 is closer than the adjacent on-chip lens arranged closer to the end of the pixel array unit 10. Composed of small size.
  • the adjacent on-chip lens 246 disposed between the common on-chip lens 340 and the optical center of the pixel array unit 10 is configured to have the smallest size, and the adjacent on-chip lens 114 or the adjacent on-chip lens disposed at the opposing position. The size is smaller than the on-chip lens 241. As in the case of the adjacent on-chip lenses 220 to 229 described in FIG.
  • the sensitivity to incident light can be leveled by forming the adjacent on-chip lenses 240 to 249 in an asymmetric shape. Note that, at the corners of the pixel array unit 10 other than the vicinity of the upper left corner, an on-chip lens or the like in which the on-chip lens 114 or the like in FIG.
  • the configuration of the image sensor 1 other than the above is the same as the configuration of the image sensor 1 described in the first embodiment of the present disclosure, and a description thereof will not be repeated.
  • the image sensor 1 when performing pupil correction, adjusts the shapes of the common on-chip lens and the adjacent on-chip lens to adjust the shape of the adjacent on-chip lens. Sensitivity can be leveled. Thus, it is possible to prevent the image quality from deteriorating.
  • the adjacent on-chip lenses 210 to 219 have a larger size than the on-chip lens 110.
  • the image sensor 1 according to the third embodiment of the present disclosure has the above-described configuration in which some of the adjacent on-chip lenses 210 to 219 have a larger size than the on-chip lens 110. This is different from the first embodiment.
  • FIG. 17 is a diagram illustrating a configuration example of an on-chip lens according to the third embodiment of the present disclosure. 2 differs from the pixel array unit 10 described in FIG. 2 in the following points.
  • the phase difference pixel adjacent pixel 200 of FIG. 9 includes adjacent on-chip lenses 250 to 259 instead of the adjacent on-chip lenses 210 to 219.
  • the phase difference pixel 300 of FIG. 9 includes a common on-chip lens 350 instead of the common on-chip lens 310.
  • the common on-chip lens 350 has a longer side shorter and a shorter side shorter than the rectangular shape of the two phase difference pixels 300. It is composed of a long hexagon. For this reason, the common on-chip lens 350 can have a bottom shape close to a circle, and can improve the separation accuracy of pupil division.
  • Such a shape of the common on-chip lens 350 can be configured by making the sizes of the adjacent on-chip lenses 252, 253, 257, and 258 smaller than that of the on-chip lens 110.
  • the adjacent on-chip lenses 250, 251, 254 to 256, and 259 are configured to be larger in size than the on-chip lens 110, like the adjacent on-chip lens 210 in FIG. It is formed.
  • the adjacent on-chip lenses 252, 253, 257, and 258 are configured to have a small size, the common on-chip lens 350 protrudes into the region of the phase difference pixel adjacent pixel 200 corresponding to these adjacent on-chip lenses. It is formed. Therefore, the shape of the bottom surface of the common on-chip lens 350 can be approximated to a circular shape.
  • FIG. 18 is a cross-sectional view illustrating a configuration example of an imaging element according to the third embodiment of the present disclosure.
  • 17A is a diagram illustrating a configuration of a cross section of the imaging device 1 along the line EE ′ in FIG.
  • adjacent on-chip lenses 250 and 255 are configured to have a larger size than on-chip lens 110.
  • 17B is a diagram illustrating a cross-sectional configuration of the imaging device along the line FF ′ in FIG.
  • the adjacent on-chip lenses 252 and 257 are configured to be smaller in size than the on-chip lens 110.
  • ⁇ Circle around (c) ⁇ is a diagram illustrating a cross-sectional configuration of the image sensor along line G-G ′ in FIG. 17, and illustrates a cross-sectional configuration of the common on-chip lens 350 in an oblique direction.
  • the common on-chip lens 350 extends over the region of the phase difference pixel adjacent pixel 200.
  • the common on-chip lens 350 and the adjacent on-chip lenses 251 and 256 are configured in such a shape that their ends do not contact.
  • the shape of the bottom surface of the common on-chip lens 350 can be approximated to a circular shape.
  • the configuration of the image sensor 1 other than the above is the same as the configuration of the image sensor 1 described in the first embodiment of the present disclosure, and a description thereof will not be repeated.
  • the image sensor 1 according to the third embodiment of the present disclosure is configured such that some of the adjacent on-chip lenses 250 to 259 have a larger size than the on-chip lens 110. Then, the other adjacent on-chip lenses are configured to have a small size. Accordingly, the shape of the common on-chip lens 350 can be adjusted to improve the separation accuracy of the pupil-divided phase difference pixels 300, and the focus detection accuracy can be improved.
  • the technology according to the present disclosure can be applied to various products.
  • the present technology may be realized as an imaging device mounted on an imaging device such as a camera.
  • FIG. 19 is a block diagram illustrating a schematic configuration example of a camera that is an example of an imaging device to which the present technology can be applied.
  • the camera 1000 shown in the figure includes a lens 1001, an imaging element 1002, an imaging control unit 1003, a lens driving unit 1004, an image processing unit 1005, an operation input unit 1006, a frame memory 1007, a display unit 1008, A recording unit 1009.
  • the lens 1001 is a photographing lens of the camera 1000.
  • the lens 1001 collects light from a subject and makes it incident on an image sensor 1002 described later to form an image of the subject.
  • the image sensor 1002 is a semiconductor device that captures light from a subject collected by the lens 1001.
  • the image sensor 1002 generates an analog image signal corresponding to the emitted light, converts the image signal into a digital image signal, and outputs the digital image signal.
  • the imaging control unit 1003 controls imaging by the imaging device 1002.
  • the imaging control unit 1003 controls the image sensor 1002 by generating a control signal and outputting the control signal to the image sensor 1002. Further, the imaging control unit 1003 can perform autofocus in the camera 1000 based on the image signal output from the imaging element 1002.
  • the auto focus is a system that detects the focal position of the lens 1001 and automatically adjusts it.
  • a method of detecting a focus position by detecting an image plane phase difference by a phase difference pixel arranged in the image sensor 1002 (image plane phase difference autofocus) can be used. Further, a method of detecting the position where the contrast of the image becomes the highest as the focal position (contrast autofocus) can be applied.
  • the imaging control unit 1003 adjusts the position of the lens 1001 via the lens driving unit 1004 based on the detected focal position, and performs autofocus.
  • the imaging control unit 1003 can be configured by, for example, a DSP (Digital Signal Processor) equipped with firmware.
  • DSP Digital Signal Processor
  • the lens driving unit 1004 drives the lens 1001 based on the control of the imaging control unit 1003.
  • the lens driving unit 1004 can drive the lens 1001 by changing the position of the lens 1001 using a built-in motor.
  • the image processing unit 1005 processes an image signal generated by the image sensor 1002. This processing includes, for example, demosaicing for generating an image signal of a missing color among image signals corresponding to red, green, and blue for each pixel, noise reduction for removing noise of the image signal, and encoding of the image signal. Applicable.
  • the image processing unit 1005 can be configured by, for example, a microcomputer equipped with firmware.
  • the operation input unit 1006 receives an operation input from a user of the camera 1000.
  • a push button or a touch panel can be used for the operation input unit 1006 .
  • the operation input received by the operation input unit 1006 is transmitted to the imaging control unit 1003 and the image processing unit 1005. Thereafter, a process corresponding to the operation input, for example, a process such as imaging of a subject is started.
  • the frame memory 1007 is a memory for storing a frame which is an image signal for one screen.
  • the frame memory 1007 is controlled by the image processing unit 1005, and holds frames in the course of image processing.
  • the display unit 1008 displays an image processed by the image processing unit 1005.
  • a liquid crystal panel can be used for the display portion 1008, for example.
  • the recording unit 1009 records an image processed by the image processing unit 1005.
  • a memory card or a hard disk can be used for the recording unit 1009.
  • the camera to which the present invention can be applied has been described above.
  • the present technology can be applied to the image sensor 1002 among the configurations described above.
  • the imaging device 1 described in FIG. 1 can be applied to the imaging device 1002.
  • autofocus using the phase difference pixel 300 of the image sensor 1 can be performed.
  • the technology according to the present invention may be applied to, for example, a monitoring device or the like.
  • the present technology may have the following configurations.
  • a pixel that performs photoelectric conversion according to incident light a plurality of phase difference pixels that are arranged adjacent to each other and that detects the phase difference, and a phase difference that is the pixel adjacent to the phase difference pixel
  • a pixel array section in which pixel adjacent pixels are two-dimensionally arranged An individual on-chip lens arranged for each pixel and individually condensing the incident light on the pixel, A common on-chip lens that is arranged in common to the plurality of phase difference pixels and collects the incident light in common;
  • the incident light is arranged for each of the phase-difference pixel adjacent pixels and individually focused on the phase-difference pixel adjacent pixel.
  • An imaging device comprising an adjacent on-chip lens configured.
  • the individual on-chip lens is arranged such that a position with respect to the pixel is shifted according to an incident angle of the incident light
  • the adjacent on-chip lens, the position with respect to the phase difference pixel adjacent pixel is arranged to be shifted according to the incident angle of the incident light
  • the imaging device according to any one of (1) to (4), wherein the common on-chip lens is arranged such that a position with respect to the phase difference pixel is shifted according to an incident angle of the incident light.
  • the pixel array unit includes The imaging device according to (5), wherein the peripheral portion adjacent on-chip lens that is close to an optical center and the peripheral portion adjacent on-chip lens that is close to an end of the pixel array unit have different sizes.
  • the imaging device according to (6) which is configured to have a size smaller than that of the on-chip lens adjacent to the peripheral portion adjacent to the end of the portion.
  • the peripheral portion adjacent on-chip lens which is the peripheral portion adjacent on-chip lens disposed between the peripheral portion common on-chip lens and the optical center of the pixel array section, is the peripheral portion common on-chip lens.
  • the imaging device according to (6) which is configured to be smaller in size than the peripheral portion adjacent on-chip lens, which is the peripheral portion adjacent on-chip lens symmetrically disposed with respect to the lens.
  • the imaging device according to (8), wherein the on-chip lens adjacent to the peripheral portion is smaller in size than the individual on-chip lens adjacent to the on-chip lens adjacent to the peripheral portion.
  • the imaging device according to any one of (1) to (12), wherein the common on-chip lens collects the incident light commonly to the two phase difference pixels.
  • the imaging device according to any one of (1) to (12), wherein the common on-chip lens collects the incident light commonly to the four phase difference pixels.
  • the plurality of phase difference pixels detect a phase difference by pupil-dividing the incident light.
  • a pixel that performs photoelectric conversion in accordance with incident light a plurality of phase difference pixels that are arranged adjacent to each other and that detects the phase difference, and a phase difference that is the pixel adjacent to the phase difference pixel
  • the incident light is arranged for each of the phase-difference pixel adjacent pixels and individually focused on the phase-difference pixel adjacent pixel. Forming an adjacent on-chip lens to be configured.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Focusing (AREA)

Abstract

位相差画素のオンチップレンズの形成工程を簡略化する。 撮像素子は、画素アレイ部、個別オンチップレンズ、共通オンチップレンズおよび隣接オンチップレンズを具備する。画素アレイ部は、入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する画素である複数の位相差画素と、位相差画素に隣接する画素である位相差画素隣接画素とが2次元に配置される。個別オンチップレンズは、画素毎に配置されて入射光を画素に個別に集光する。共通オンチップレンズは、複数の位相差画素に共通に配置されて入射光を共通に集光する。隣接オンチップレンズは、位相差画素隣接画素毎に配置されて入射光を位相差画素隣接画素に個別に集光するとともに共通オンチップレンズの形状を調整するために個別オンチップレンズとは異なるサイズに構成される。

Description

撮像素子および撮像素子の製造方法
 本開示は、撮像素子および撮像素子の製造方法に関する。詳しくは、像面位相差を検出する撮像素子および当該撮像素子の製造方法に関する。
 従来、オートフォーカスを行う撮像素子が使用されている。例えば、像面位相差を検出する位相差画素を配置して被写体の焦点位置を検出し、検出した焦点位置に応じて撮影レンズの位置を調整することによりオートフォーカスを行う撮像素子が使用されている。この際、位相差画素は、一対の画素により構成される。撮影レンズの異なる位置、例えば、撮影レンズの右側および左側を透過した光を一対の位相差画素にそれぞれ入射させて撮像を行い、それぞれ画像信号を生成する。この生成されたそれぞれの画像信号に基づく画像の位相差を検出することにより、焦点位置を検出することができる。このように撮影レンズを透過した光を2つに分割する方式は、瞳分割と称される。
 このような撮像素子として、隣接する2つの画素に共通のオンチップレンズを配置することにより位相差画素を構成し、瞳分割を行う撮像素子が使用されている。共通に配置されたオンチップレンズを介して被写体からの光を2つの画素に集光することにより、これらの画素に対して撮影レンズの異なる位置を透過した光を照射させることができる。例えば、画素毎に第1のマイクロレンズと当該第1のマイクロレンズを被覆する膜を形成し、焦点検出画素の膜の表面に第2のマイクロレンズを形成する撮像素子が提案されている(例えば、特許文献1参照。)。この従来技術において、マイクロレンズおよび焦点検出画素は、それぞれオンチップレンズおよび位相差画素に対応する。また、第1のマイクロレンズの表面の膜は第2のマイクロレンズをエッチングにより形成する際のエッチングストッパとして使用される。
特開2016-001682号公報
 上述の従来技術は、焦点検出画素のオートフォーカスの性能を向上させるため、集光ポイントの調整を行う。この集光ポイントの調整は、位相差画素にオンチップレンズおよび膜を形成した後、2つの位相差画素のオンチップレンズを共通に被覆する第2のオンチップレンズを形成することにより行われる。このように上述の従来技術では、2度のオンチップレンズ形成工程により位相差画素のオンチップレンズを形成するため、オンチップレンズの形成工程が複雑になるという問題がある。
 本開示は、上述した問題点に鑑みてなされたものであり、位相差画素のオンチップレンズの形成工程を簡略化することを目的としている。
 本開示は、上述の問題点を解消するためになされたものであり、その第1の態様は、入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する上記画素である複数の位相差画素と、上記位相差画素に隣接する上記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部と、上記画素毎に配置されて上記入射光を上記画素に個別に集光する個別オンチップレンズと、上記複数の位相差画素に共通に配置されて上記入射光を共通に集光する共通オンチップレンズと、上記位相差画素隣接画素毎に配置されて上記入射光を上記位相差画素隣接画素に個別に集光するとともに上記共通オンチップレンズの形状を調整するために上記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズとを具備する撮像素子である。
 また、この第1の態様において、上記隣接オンチップレンズは、上記個別オンチップレンズより大きなサイズに構成されてもよい。
 また、この第1の態様において、上記隣接オンチップレンズは、上記個別オンチップレンズより大きな底部の幅に構成されてもよい。
 また、この第1の態様において、頂点において上記共通オンチップレンズに隣接する上記隣接オンチップレンズは、辺において上記共通オンチップレンズに隣接する上記隣接オンチップレンズより大きなサイズに構成されてもよい。
 また、この第1の態様において、上記個別オンチップレンズは、上記画素に対する位置が上記入射光の入射角度に応じて偏移して配置され、上記隣接オンチップレンズは、上記位相差画素隣接画素に対する位置が上記入射光の入射角度に応じて偏移して配置され、上記共通オンチップレンズは、上記位相差画素に対する位置が上記入射光の入射角度に応じて偏移して配置されてもよい。
 また、この第1の態様において、上記画素アレイ部の周縁部に配置される上記共通オンチップレンズである周縁部共通オンチップレンズに隣接する隣接オンチップレンズである周縁部隣接オンチップレンズのうち、上記画素アレイ部の光学的中心に近接する上記周縁部隣接オンチップレンズと上記画素アレイ部の端部に近接する上記周縁部隣接オンチップレンズとは異なるサイズに構成されてもよい。
 また、この第1の態様において、上記周縁部隣接オンチップレンズのうち上記画素アレイ部の光学的中心に近接する上記周縁部隣接オンチップレンズは、上記周縁部共通オンチップレンズに対して対称に配置される上記画素アレイ部の端部に近接する上記周縁部隣接オンチップレンズより小さなサイズに構成されてもよい。
 また、この第1の態様において、上記周縁部共通オンチップレンズと上記画素アレイ部の光学的中心との間に配置される上記周縁部隣接オンチップレンズである周縁部近隣接オンチップレンズは、上記周縁部共通オンチップレンズに対して対称に配置される上記周縁部隣接オンチップレンズである周縁部遠隣接オンチップレンズより小さなサイズに構成されてもよい。
 また、この第1の態様において、上記周縁部近隣接オンチップレンズは、当該周縁部近隣接オンチップレンズに隣接する上記個別オンチップレンズより小さなサイズに構成されてもよい。
 また、この第1の態様において、上記周縁部遠隣接オンチップレンズは、当該周縁部遠隣接オンチップレンズに隣接する上記個別オンチップレンズより大きなサイズに構成されてもよい。
 また、この第1の態様において、上記隣接オンチップレンズは、上記共通オンチップレンズに隣接する領域の底部と上記個別オンチップレンズに隣接する領域の底部とが異なる高さに形成されてもよい。
また、この第1の態様において、上記隣接オンチップレンズは、底面の形状が上記位相差画素隣接画素とは異なる形状に構成されてもよい。
 また、この第1の態様において、上記共通オンチップレンズは、2つの上記位相差画素に対して共通に上記入射光を集光してもよい。
 また、この第1の態様において、上記共通オンチップレンズは、4つの上記位相差画素に対して共通に上記入射光を集光してもよい。
 また、この第1の態様において、上記複数の位相差画素は、上記入射光を瞳分割して位相差を検出してもよい。
 また、本開示の第2の態様は、入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する上記画素である複数の位相差画素と、上記位相差画素に隣接する上記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部を形成する工程と、上記画素毎に配置されて上記入射光を上記画素に個別に集光する個別オンチップレンズを形成する工程と、上記複数の位相差画素に共通に配置されて上記入射光を共通に集光する共通オンチップレンズを形成する工程と、上記位相差画素隣接画素毎に配置されて上記入射光を上記位相差画素隣接画素に個別に集光するとともに上記共通オンチップレンズの形状を調整するために上記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズを形成する工程とを具備する撮像素子の製造方法である。
 上述の態様においては、隣接オンチップレンズを個別オンチップレンズとは異なるサイズに構成することにより、共通オンチップレンズの形状を調整するという作用をもたらす。個別オンチップレンズ、隣接オンチップレンズおよび共通オンチップレンズの共通の工程による製造が想定される。
 本開示によれば、位相差画素のオンチップレンズの形成工程を簡略化するという優れた効果を奏する。
本開示の実施の形態に係る撮像素子の構成例を示す図である。 本開示の第1の実施の形態に係るオンチップレンズの構成例を示す図である。 本開示の第1の実施の形態に係る撮像素子の構成例を示す断面図である。 本開示の実施の形態に係るカラーフィルタの構成例を示す図である。 本開示の実施の形態に係るカラーフィルタの構成例を示す図である。 本開示の実施の形態に係るカラーフィルタの他の構成例を示す図である。 本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。 本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。 本開示の第1の実施の形態に係るオンチップレンズの製造方法の一例を示す図である。 本開示の第1の実施の形態の変形例に係る撮像素子の構成例を示す断面図である。 本開示の第1の実施の形態の変形例に係る撮像素子の他の構成例を示す断面図である。 本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。 本開示の第2の実施の形態に係る撮像素子の構成例を示す断面図である。 本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。 本開示の第2の実施の形態に係る撮像素子の構成例を示す断面図である。 本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。 本開示の第3の実施の形態に係るオンチップレンズの構成例を示す図である。 本開示の第3の実施の形態に係る撮像素子の構成例を示す断面図である。 本開示が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。
 次に、図面を参照して、本開示を実施するための形態(以下、実施の形態と称する)を説明する。以下の図面において、同一または類似の部分には同一または類似の符号を付している。ただし、図面は、模式的なものであり、各部の寸法の比率等は現実のものとは必ずしも一致しない。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれることは勿論である。また、以下の順序で実施の形態の説明を行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.カメラへの応用例
 <1.第1の実施の形態>
 [撮像素子の構成]
 図1は、本開示の実施の形態に係る撮像素子の構成例を示す断面図である。同図の撮像素子1は、画素アレイ部10と、垂直駆動部20と、カラム信号処理部30と、制御部40とを備える。
 画素アレイ部10は、画素100が2次元格子状に配置されて構成されたものである。ここで、画素100は、照射された光に応じた画像信号を生成するものである。この画素100は、照射された光に応じた電荷を生成する光電変換部を有する。また画素100は、画素回路をさらに有する。この画素回路は、光電変換部により生成された電荷に基づく画像信号を生成する。画像信号の生成は、後述する垂直駆動部20により生成された制御信号により制御される。画素アレイ部10には、信号線11および12がXYマトリクス状に配置される。信号線11は、画素100における画素回路の制御信号を伝達する信号線であり、画素アレイ部10の行毎に配置され、各行に配置される画素100に対して共通に配線される。信号線12は、画素100の画素回路により生成された画像信号を伝達する信号線であり、画素アレイ部10の列毎に配置され、各列に配置される画素100に対して共通に配線される。これら光電変換部および画素回路は、半導体基板に形成される。
 垂直駆動部20は、画素100の画素回路の制御信号を生成するものである。この垂直駆動部20は、生成した制御信号を同図の信号線11を介して画素100に伝達する。カラム信号処理部30は、画素100により生成された画像信号を処理するものである。このカラム信号処理部30は、同図の信号線12を介して画素100から伝達された画像信号の処理を行う。カラム信号処理部30における処理には、例えば、画素100において生成されたアナログの画像信号をデジタルの画像信号に変換するアナログデジタル変換が該当する。カラム信号処理部30により処理された画像信号は、撮像素子1の画像信号として出力される。制御部40は、撮像素子1の全体を制御するものである。この制御部40は、垂直駆動部20およびカラム信号処理部30を制御する制御信号を生成して出力することにより、撮像素子1の制御を行う。制御部40により生成された制御信号は、信号線41および42により垂直駆動部20およびカラム信号処理部30に対してそれぞれ伝達される。
 上述の画素アレイ部10には、画素100のほかに位相差画素300および位相差画素隣接画素200がさらに配置される。同図において、網掛けによるハッチングが付された画素および斜線によるハッチングが付された画素がそれぞれ位相差画素300および位相差画素隣接画素200に該当する。位相差画素300は、像面位相差を検出するための画素である。この位相差画素300は、例えば、左右に隣接して配置されて瞳分割を行う。画素アレイ部10には、このような左右に隣接する位相差画素300が、線状に複数配置される。これら複数の位相差画素300により生成された画像信号が撮像素子1から出力され、撮像素子1を使用するカメラ等の機器において処理される。具体的には、左右に隣接する位相差画素300により生成された画像信号により、撮影レンズの右側および左側を透過した光による画像が生成される。これらの画像の位相差を検出することにより被写体の焦点位置が検出され、検出された焦点位置に基づいて撮影レンズの位置が調整されて、オートフォーカスが実行される。
 また、位相差画素隣接画素200は、2つの位相差画素300の周囲を囲うように隣接して配置される画素である。これら、位相差画素300および位相差画素隣接画素200には、画素100と同じ構成の光電変換部および画素回路が配置される。すなわち、位相差画素300および位相差画素隣接画素200は、半導体基板の拡散領域等を画素100と同じ構成にすることができる。後述するように、画素100、位相差画素300および位相差画素隣接画素200には、それぞれ異なる形状のオンチップレンズが配置される。ここで、オンチップレンズとは、画素100等の光電変換部に被写体からの光を集光するレンズである。
 [オンチップレンズの構成]
 図2は、本開示の第1の実施の形態に係るオンチップレンズの構成例を示す図である。同図は、画素アレイ部10の構成例を表す図であり、画素100、位相差画素隣接画素200および位相差画素300におけるオンチップレンズの構成例を表す図である。図1において説明したように、画素アレイ部10は、位相差画素隣接画素200および位相差画素300が複数の画素100の中に配置されて構成される。同図において、実線の正方形は、画素100のオンチップレンズ110を表す。網掛けのハッチングが付された実線の六角形は、2つの位相差画素300に共通に配置されるオンチップレンズ(以下、共通オンチップレンズと称する。)310を表す。これ以外の斜線のハッチングが付された実線の四角は、位相差画素隣接画素200のオンチップレンズを表す。この位相差画素隣接画素200のオンチップレンズを隣接オンチップレンズと称する。同図においては、隣接オンチップレンズ210乃至219が共通オンチップレンズ310の周囲に配置される。なお、オンチップレンズ110は、請求の範囲に記載の個別オンチップレンズの一例である。
 オンチップレンズ110は、平面視において画素100と略同じ形状に構成され、矩形形状の底面を有する。この底面から凸状に曲面が形成されてレンズ形状に構成され、入射光を集光する。また、位相差画素300および位相差画素隣接画素200は、画素100と略同じ形状に構成される。同図の点線は、位相差画素隣接画素200および位相差画素300を表す。同図に表したように、共通オンチップレンズ310は、2つ分の位相差画素300の面積の合計より小さな面積の形状に構成される。また、共通オンチップレンズ310は、2つ分の位相差画素300による長方形の形状に対し、長辺を2分割するとともに短辺に向かってテーパ状にすぼまった六角形に構成され、楕円に近似した底面に構成される。また、共通オンチップレンズ310は、上述の長辺方向のサイズを縮小した形状に構成される。共通オンチップレンズ310をこのような形状に構成することにより、位相差画素300における瞳分割の分離精度を向上させ、位相差の検出精度を向上させることができる。共通オンチップレンズ310の形状の詳細については後述する。
 この共通オンチップレンズ310の周囲に配置される隣接オンチップレンズ210乃至219は、オンチップレンズ110とは異なる形状およびサイズに構成される。具体的には、隣接オンチップレンズ210乃至219は、位相差画素300に隣接する領域が位相差画素300に張り出す形状に構成され、オンチップレンズ110より大きなサイズに構成される。また、隣接オンチップレンズ210乃至219のうち、頂点において共通オンチップレンズ310に隣接する隣接オンチップレンズ211、214、216および219は、辺において共通オンチップレンズ310に隣接する隣接オンチップレンズ210、212、213、215、217および218より大きなサイズに構成される。これらにより、隣接オンチップレンズ210乃至219は、共通オンチップレンズ310における上述の短辺近傍に隣接する領域が位相差画素300側に張り出す形状に構成される。この隣接オンチップレンズの張出しにより、共通オンチップレンズ310の形状が調整される。隣接オンチップレンズ210乃至219をオンチップレンズ110より大きなサイズに構成することにより、共通オンチップレンズ310の形状の調整が可能となる。
 [撮像素子の構成]
 図3は、本開示の第1の実施の形態に係る撮像素子の構成例を示す断面図である。同図は、図2におけるA-A’線に沿った撮像素子1(画素アレイ部10)の断面の構成を表す図である。同図の撮像素子1は、半導体基板150と、配線領域160と、カラーフィルタ141と、遮光膜142と、平坦化膜130と、オンチップレンズ110と、支持基板170とにより構成される。なお、位相差画素300においては、オンチップレンズ110の代わりに共通オンチップレンズ310が配置される。位相差画素隣接画素200においては、オンチップレンズ110の代わりに隣接オンチップレンズ210および215が配置される。
 半導体基板150は、画素100等の光電変換部や画素回路の半導体素子部分が形成される半導体の基板である。また、半導体基板150には、図1において説明した垂直駆動部20等の半導体素子がさらに形成される。同図においては、これらの半導体素子のうち光電変換部を記載した。光電変換部等の素子は、半導体基板150に形成されたウェル領域151に形成される。便宜上、同図の半導体基板150はp型のウェル領域151を構成するものと想定する。このp型のウェル領域151にn型半導体領域152が画素毎に形成される。このn型半導体領域152とn型半導体領域152の周囲のp型のウェル領域151との界面に形成されたpn接合によりフォトダイオードが構成される。このフォトダイオードが光電変換部に該当する。半導体基板150には、画素100等の境界に分離部153が配置される。この分離部153は、絶縁膜等により構成され、画素100等の間を電気的に分離するものである。
 配線領域160は、画素回路等の配線が形成される領域である。この配線領域は、配線層162および絶縁層161により構成される。配線層162は、金属等により構成され、画像信号等の信号を伝達する配線である。絶縁層161は、配線層162を絶縁するものである。この配線層162および絶縁層161は、多層に構成することができる。
 支持基板170は、撮像素子1を支持する基板である。この支持基板170を配置することにより、撮像素子1の製造工程において、撮像素子1の強度を向上させることができる。 
 カラーフィルタ141は、入射光のうち所定の波長の光を透過する光学的なフィルタである。このカラーフィルタ141として赤色光、緑色光および青色光を透過するカラーフィルタ141を使用することができる。遮光膜142は、隣接するカラーフィルタ141の境界に配置されて、カラーフィルタ141を斜めに透過する入射光を遮光するものである。この遮光膜142を配置することにより、混色を防止することができる。遮光膜142は、遮光性を有する材料、例えば、アルミニウムやタングステン等の金属により構成することができる。
 平坦化膜130は、画素100等の表面を平坦化する膜である。この平坦化膜130は、樹脂等により構成することができ、後述するオンチップレンズ110等と同じ材料により構成することができる。
 オンチップレンズ110、隣接オンチップレンズ210および215ならびに共通オンチップレンズ310は、前述のように画素100等に入射光を集光するレンズである。オンチップレンズ110は、画素100のn型半導体領域152の表面近傍に入射光を集光する。同様に、隣接オンチップレンズ210および215は、位相差画素隣接画素200のn型半導体領域152の表面近傍に入射光を集光する。これらオンチップレンズ110、隣接オンチップレンズ210および215ならびに共通オンチップレンズ310は、例えば、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂およびシロサン系樹脂等の有機材料により構成することができる。また、窒化シリコンや酸窒化シリコン等の無機材料により構成することもできる。なお、同図の撮像素子1は、半導体基板150における配線領域160が配置される面である表面とは異なる面である裏面に入射光が照射される裏面照射型の撮像素子に該当する。
 共通オンチップレンズ310は、2つの位相差画素300にまたがって配置される。このため、同図の左側の位相差画素300のn型半導体領域152aには、撮影レンズの主に右側を透過した光が入射する。同図の右側の位相差画素300のn型半導体領域152bには、撮影レンズの主に左側を透過した光が入射する。これにより、左右方向の瞳分割を実行することができる。これら2つの位相差画素300の画像信号による画像の位相差を検出することにより、デフォーカス量を計測することができ、撮影レンズの焦点位置を検出することができる。
 焦点位置を精密に検出するためには、瞳分割された位相差画素300の分離精度を向上させる必要がある。このためには、共通オンチップレンズ310の集光位置を2つの位相差画素300の中央に配置するとともに集光される領域を円形状の領域に縮小する必要がある。そこで、2つの位相差画素300を合わせた領域より小さなサイズに共通オンチップレンズ310を構成するとともに共通オンチップレンズ310の曲率を高くし、半球形状に構成する。同図に表したように共通オンチップレンズ310の端部301をオンチップレンズ110の端部101より深い位置に構成することにより、共通オンチップレンズ310の曲率を高くすることができる。このように共通オンチップレンズ310の形状を調整することにより、点形状の集光領域を構成することができ、瞳分割の分離精度を向上させることができる。
 同図の隣接オンチップレンズ210および215は、共通オンチップレンズ310に隣接する端部が共通オンチップレンズ310の方向に張り出して形成され、オンチップレンズ110より大きな底面の幅に構成される。また、隣接オンチップレンズ210および215は、共通オンチップレンズ310の端部301と同じ深さに構成される。これにより、共通オンチップレンズ310の形状を上述のように調整することができる。
図4は、本開示の第1の実施の形態に係る撮像素子の構成例を示す断面図である。同図は、図2におけるB-B’線に沿った撮像素子1の断面の構成を表す図であり、2つの位相差画素300の境界の近傍の構成を表す図である。2つのオンチップレンズ110が接する領域の断面に相当するため、オンチップレンズ110は、図3と比較して薄い厚さになる。これに対し、共通オンチップレンズ310は、図3の共通オンチップレンズ310と同じ厚さに構成される。隣接オンチップレンズ213および217は、位相差画素隣接画素200と略同じ幅に構成され、共通オンチップレンズ310と接する形状に構成される。
 [カラーフィルタの構成]
 図5は、本開示の実施の形態に係るカラーフィルタの構成例を示す図である。同図は、図2において説明した画素アレイ部10におけるカラーフィルタ141の配置の一例を表した図である。同図においては、図2と同一となる部分の符号の記載を省略した。同図に記載された文字は、配置されるカラーフィルタ141の種類を表す。同図の「R」、「G」および「B」は、それぞれ赤色光、緑色光および青色光に対応するカラーフィルタ141を表す。また、同図は、同じ種類のカラーフィルタ141が配置された2行2列の4つの画素100がベイヤー配列に構成されたものである。ここでベイヤー配列とは、緑色光に対応するカラーフィルタ141が市松形状に配置され、赤色光および青色光に対応するカラーフィルタ141が緑色光に対応するカラーフィルタの間に配置される配列である。
 同図におけるaは、ベイヤー配列に従って緑色に対応するカラーフィルタ141が配置された画素の位置に位相差画素300を配置する場合の例を表したものである。画素アレイ部10におけるカラーフィルタ141の配列を乱すことなく位相差画素300を配置することができる。
 同図におけるbは、位相差画素300に緑色光に対応するカラーフィルタ141を配置する場合の例を表したものである。位相差画素300の配置を優先して画素アレイ部10を形成することができる。
 同図におけるcは、位相差画素300におけるカラーフィルタ141の配置を省略する場合の例を表したものである。この場合、位相差画素300におけるカラーフィルタ141を配置する領域には、例えば、厚膜化した平坦化膜130を配置することができる。
 図6は、本開示の実施の形態に係るカラーフィルタの他の構成例を示す図である。同図は、ベイヤー配列に構成された2行2列の画素100が配列される場合の例を表したものである。同図におけるaは、2つの位相差画素300にそれぞれ異なるカラーフィルタ141を配置する場合の例を表したものである。同図におけるbは、位相差画素300に緑色光に対応するカラーフィルタ141を配置する場合の例を表したものである。同図におけるcは、位相差画素300におけるカラーフィルタ141の配置を省略する場合の例を表したものである。
 [撮像素子の製造方法]
 図7および8は、本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。この図7および8は、撮像素子1の製造工程の一例を表す図である。まず、半導体基板150にp型のウェル領域151を形成し、n型半導体領域152を形成する。次に半導体基板150に配線領域160を形成し、支持基板170を接着する。次に、半導体基板150の裏面を研削して薄肉化する。次に、画素100の間にp型の分離領域を形成する。これはイオン打込みにより行うことができる。次に、分離領域にトレンチを形成し、このトレンチに分離部153を配置する。次に、半導体基板150の裏面に遮光膜142およびカラーフィルタ141を配置する(図7におけるa)。これにより、画素アレイ部10を形成することができる。なお、当該工程は、請求の範囲に記載の画素アレイ部形成工程の一例である。
 次に、カラーフィルタ141の表面にオンチップレンズ110等の材料となるオンチップレンズ材401を配置する(図7におけるb)。次に、オンチップレンズ材401の表面にレジスト402を配置する(図7におけるc)。次に、レジスト402をパターニングしてレジスト403および404を形成する。このパターニングは、レジスト402を四角柱の形状に露光および現像することにより行うことができる。この際、オンチップレンズ110および隣接オンチップレンズ210乃至219を形成する領域には、画素100より小さな底面を有するレジスト403を配置する。一方、共通オンチップレンズ310を形成する領域には、レジスト403より横長に構成されたレジスト404を配置する(図8におけるd)。
 次に、レジスト403および404の軟化点以上の温度に撮像素子1を加熱する。この加熱は、リフロー炉により行うことができる。これにより、レジスト403および404が軟化して曲面が形成されるとともに隣接するレジスト403の端部同士が付着してレジスト405が形成される(図8におけるe)。次に、レジスト405およびオンチップレンズ材401をエッチングする。このエッチングは、ドライエッチングにより行うことができる(図8におけるf)。これにより、オンチップレンズ材401にレジスト405の形状を転写することができ、オンチップレンズ110、隣接オンチップレンズ210乃至219および共通オンチップレンズ310を同時に形成することができる。
 なお、共通オンチップレンズ310を形成する工程は、請求の範囲に記載の共通オンチップレンズ形成工程の一例である。隣接オンチップレンズ210乃至219を形成する工程は、請求の範囲に記載の隣接オンチップレンズ形成工程の一例である。オンチップレンズ110を形成する工程は、請求の範囲に記載の個別オンチップレンズ形成工程の一例である。
 [オンチップレンズの製造方法]
 図9は、本開示の第1の実施の形態に係るオンチップレンズの製造方法の一例を示す図である。同図は、図8におけるdにおいて説明した、レジスト403および404の構成例を表す図である。同図に表したように、隣接するレジスト403の間には、隙間406が形成される。レジスト404は、レジスト403と同じ幅の短辺に構成されるとともに長辺側を比較的短い長さに構成する。これにより、短辺において隣接するレジスト403との間に隙間406より広い隙間407が形成される。すなわち、隣接オンチップレンズ210乃至219に対応する位置に配置されるレジスト403と共通オンチップレンズ310に対応するレジスト404との間は比較的広い隙間407が形成される。
 次に、リフロー加熱を行ってレジスト403および404を軟化させると、レジスト403等の角部が隙間406の領域に溶出してオンチップレンズ110の曲面が形成される。これにより、図8におけるeのレジスト405を生成することができる。隙間407においても軟化したレジスト403および404の一部が流入する。しかし、隙間407は隙間406より広いため、流入後のレジストの形状が隙間406に隣接するレジスト403とは異なる形状となる。同図の矢印は、隙間407におけるレジスト403および404の流入の様子を表したものである。隣接オンチップレンズ210乃至219に対応するレジスト403は、位相差画素300の方向に張り出した位置に流入する。一方、レジスト404は、隣接するレジスト403の流入により短辺の近傍の形状が調整される。これにより、図8におけるeにおいて説明したレジスト405を形成することができる。
 [変形例] 上述の撮像素子1は、位相差画素300の間において、遮光膜142を省略するとともに分離部153を配置していたが、他の構成にすることもできる。
 図10は、本開示の第1の実施の形態の変形例に係る撮像素子の構成例を示す断面図である。同図におけるaは、位相差画素300の間に遮光膜142を配置した場合の例を表したものである。また、同図におけるbは、位相差画素300の間の分離部153を省略し、分離領域154のみを配置した場合の例を表したものである。なお、同図におけるbの撮像素子1において、遮光膜142を配置する構成にすることもできる。
 図11は、本開示の第1の実施の形態の変形例に係る撮像素子の他の構成例を示す断面図である。同図は、位相差画素300に配置された分離部152に隙間155を形成した場合の例を表したものである。図4において説明した位相差画素300は、分離部152が配置されて2つの位相差画素300が分離される。しかし、この分離部152により位相差画素300の入射光が散乱されて瞳分割の精度が低下する場合がある。このような場合には、隙間155を形成することにより、入射光の散乱を低減することができる。
 なお、本開示の第1の実施の形態の撮像素子1の構成は、この例に限定されない。例えば、図2において説明した共通オンチップレンズ310は、2つの位相差画素300に共通に配置されていたが、4つの位相差画素300に共通に配置される共通オンチップレンズを使用することもできる。また、撮像素子1を半導体基板150の配線領域160の側から入射光を照射する表面照射型の撮像素子にすることもできる。
 以上説明したように、本開示の第1の実施の形態の撮像素子1は、隣接オンチップレンズ210乃至219をオンチップレンズ110とは異なるサイズに構成することにより、共通オンチップレンズ310の形状を調整する。これにより、位相差画素300の瞳分割における分離精度を向上しつつ共通オンチップレンズ310等の製造工程を簡略化することができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態の撮像素子1は、画素アレイ部10のオンチップレンズ110等が画素100等に対して同じ位置に配置されていた。これに対し、本開示の第2の実施の形態の撮像素子1は、入射光の画素100等への入射角度に応じてオンチップレンズ110等を偏移させて配置する点で、上述の第1の実施の形態と異なる。
 前述のように、撮像素子1は、カメラ等に配置され、撮影レンズを介して被写体からの光が照射される。この撮影レンズを含むカメラレンズは、自身の光軸が画素アレイ部10の光学的中心と一致する位置に配置されることとなる。ここで、光学的中心とは、被写体からの光が照射される撮像素子1(画素アレイ部10)の領域の中心である。しかし、撮像素子1の画素アレイ部10は平面に構成されるため、画素アレイ部10の端部においては、被写体からの光が斜めに入射する。このため、オンチップレンズ110等による集光位置がずれることとなる。そこで、画素アレイ部10の周辺部に配置される画素100等においては、入射光の入射角度に応じてオンチップレンズ110等を画素100の中心から偏移させて配置し、集光位置のずれを補正する。このような、入射光の入射角度に応じてオンチップレンズをずらして配置する補正は、瞳補正と称される。
 [画素アレイ部の左端近傍におけるオンチップレンズの構成]
 図12は、本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。同図は、図1において説明した画素アレイ部10の周縁部に配置された画素100等のうち、左端の辺の近傍に配置される画素100等のオンチップレンズ110等の構成例を表した図である。同図の画素アレイ部10は、次の点で、図2において説明した画素アレイ部10と異なる。同図の画素100は、オンチップレンズ110の代わりにオンチップレンズ112を備える。同図の位相差画素隣接画素200は、隣接オンチップレンズ210乃至219の代わりに、隣接オンチップレンズ220乃至229を備える。同図の位相差画素300は、共通オンチップレンズ310の代わりに共通オンチップレンズ320を備える。
 同図のオンチップレンズ112、隣接オンチップレンズ220乃至229および共通オンチップレンズ320は、入射光の入射角度に応じてオンチップレンズ110等を画素100等の中心から偏移させて配置される。具体的には、オンチップレンズ112、隣接オンチップレンズ220乃至229および共通オンチップレンズ320は、画素アレイ部10の光学的中心の方向である右方向に偏移して配置される。また、隣接オンチップレンズ220乃至229のうち、画素アレイ部10の光学的中心に近接する隣接オンチップレンズ224乃至226と画素アレイ部10の端部に近接する隣接オンチップレンズ220、221および229とは異なるサイズに構成される。例えば、隣接オンチップレンズ224乃至226は、共通オンチップレンズ320に対して対称に配置される隣接オンチップレンズ220、221および229より小さなサイズに構成される。具体的には、隣接オンチップレンズ224は隣接オンチップレンズ229より小さなサイズに構成される。同様に、隣接オンチップレンズ225は隣接オンチップレンズ220より小さなサイズに構成され、隣接オンチップレンズ226は隣接オンチップレンズ221より小さなサイズに構成される。
 なお、共通オンチップレンズ320は、請求の範囲に記載の周縁部共通オンチップレンズの一例である。隣接オンチップレンズ220乃至229は、請求の範囲に記載の周縁部隣接オンチップレンズの一例である。オンチップレンズ112は、請求の範囲に記載の個別オンチップレンズの一例である。
 また、共通オンチップレンズ320と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ225は、共通オンチップレンズ320に対して対称に配置される隣接オンチップレンズ220より小さなサイズに構成される。また、隣接オンチップレンズ225は、隣接オンチップレンズ225に隣接するオンチップレンズ112より小さなサイズに構成される。また、隣接オンチップレンズ220は、隣接オンチップレンズ220に隣接するオンチップレンズ112より大きなサイズに構成される。なお、隣接オンチップレンズ225は、請求の範囲に記載の周縁部近隣接オンチップレンズの一例である。隣接オンチップレンズ220は、請求の範囲に記載の周縁部遠隣接オンチップレンズの一例である。
 このように、隣接オンチップレンズ220乃至229のうち、画素アレイ部10の光学的中心寄りに配置される隣接オンチップレンズは、画素アレイ部10の端部寄りに配置される隣接オンチップレンズより小さなサイズに構成される。特に、共通オンチップレンズ320と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ225は、最も小さなサイズに構成され、隣接するオンチップレンズ112や対向する位置に配置される隣接オンチップレンズ220より小さなサイズに構成される。このように、隣接オンチップレンズ220乃至229は、それぞれ非対称な形状に調整される。これは、隣接オンチップレンズ220乃至229の入射光に対する感度を平準化するためである。
 前述のように、瞳補正のため、隣接オンチップレンズ220乃至229は、画素アレイ部10の光学的中心の方向に偏移して配置される。この際、隣接オンチップレンズ220乃至229を図2において説明した隣接オンチップレンズ210乃至219と同様の形状にすると、画素アレイ部10の光学的中心寄りに配置された隣接オンチップレンズと画素アレイ部10の端部寄りに配置された隣接オンチップレンズとは異なる感度特性を有する。例えば、上述の調整を行わない隣接オンチップレンズ225は、同様に調整を行わない隣接オンチップレンズ220より高い感度となる。隣接オンチップレンズは、位相差画素300の領域に張り出して形成されるため、共通オンチップレンズ320に対する位置に応じて瞳補正の効果が異なるためである。また、図3において説明したように、隣接オンチップレンズは、共通オンチップレンズ320に隣接する端部とオンチップレンズ112に隣接する端部との深さが異なることも瞳補正の効果が異なる原因となる。
 そこで、上述の隣接オンチップレンズ220乃至229のように形状を調整することにより、感度を平準化することができる。なお、画素アレイ部10の右端近傍においては、同図のオンチップレンズ112等を左右反転した形状のオンチップレンズ等にすることができる。共通オンチップレンズ320および隣接オンチップレンズ220乃至229は、図9において説明したレジスト403および404の形状および位置を変更することにより形成することができる。
 図13は、本開示の第2の実施の形態に係る撮像素子の構成例を示す断面図である。同図は、図12におけるC-C’線に沿った撮像素子1の断面の構成を表す図である。同図に表したように、隣接オンチップレンズ220および225は、異なる形状に構成される。
 [画素アレイ部の上端近傍におけるオンチップレンズの構成]
 図14は、本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。同図は、図1において説明した画素アレイ部10の周縁部に配置された画素100等のうち、上端の辺の近傍に配置される画素100等のオンチップレンズの構成例を表した図である。同図の画素アレイ部10は、次の点で、図2において説明した画素アレイ部10と異なる。同図の画素100は、オンチップレンズ110の代わりにオンチップレンズ113を備える。同図の位相差画素隣接画素200は、隣接オンチップレンズ210乃至219の代わりに、隣接オンチップレンズ230乃至239を備える。同図の位相差画素300は、共通オンチップレンズ310の代わりに共通オンチップレンズ330を備える。
 同図のオンチップレンズ113、隣接オンチップレンズ230乃至239および共通オンチップレンズ330は、画素アレイ部10の光学的中心の方向である下方向に偏移して配置される。また、隣接オンチップレンズ230乃至239のうち、画素アレイ部10の光学的中心に近接する隣接オンチップレンズ236乃至239と画素アレイ部10の端部に近接する隣接オンチップレンズ231乃至234とは異なるサイズに構成される。例えば、隣接オンチップレンズ236乃至239は、共通オンチップレンズ330に対して対称に配置される隣接オンチップレンズ231乃至234より小さなサイズに構成される。具体的には、隣接オンチップレンズ236および239は、それぞれ隣接オンチップレンズ231および234より小さなサイズに構成される。同様に、隣接オンチップレンズ237および238は、それぞれ隣接オンチップレンズ232および233より小さなサイズに構成される。
 なお、共通オンチップレンズ330は、請求の範囲に記載の周縁部共通オンチップレンズの一例である。隣接オンチップレンズ230乃至239は、請求の範囲に記載の周縁部隣接オンチップレンズの一例である。オンチップレンズ113は、請求の範囲に記載の個別オンチップレンズの一例である。
 また、共通オンチップレンズ330と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ237および238は、共通オンチップレンズ330に対してそれぞれ対称に配置される隣接オンチップレンズ232および233より小さなサイズに構成される。また、隣接オンチップレンズ237および238は、隣接するオンチップレンズ113より小さなサイズに構成される。また、隣接オンチップレンズ232および233は、隣接するオンチップレンズ113より大きなサイズに構成される。なお、隣接オンチップレンズ237および238は、請求の範囲に記載の周縁部近隣接オンチップレンズの一例である。隣接オンチップレンズ232および233は、請求の範囲に記載の周縁部遠隣接オンチップレンズの一例である。
 このように、隣接オンチップレンズ230乃至239のうち、画素アレイ部10の光学的中心寄りに配置される隣接オンチップレンズは、画素アレイ部10の端部寄りに配置される隣接オンチップレンズより小さなサイズに構成される。共通オンチップレンズ330と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ237および238は、最も小さなサイズに構成され、隣接するオンチップレンズ113や対向する位置に配置される隣接オンチップレンズ232および233より小さなサイズに構成される。図12において説明した隣接オンチップレンズ220乃至229と同様に、隣接オンチップレンズ230乃至239を非対称な形状に構成することにより、隣接オンチップレンズ230乃至239の入射光に対する感度を平準化することができる。なお、画素アレイ部10の下端近傍においては、同図のオンチップレンズ113等を上下反転した形状のオンチップレンズ等にすることができる。
 図15は、本開示の第2の実施の形態に係る撮像素子の構成例を示す断面図である。同図は、図14におけるD-D’線に沿った撮像素子1の断面の構成を表す図である。同図に表したように、隣接オンチップレンズ233および237は、異なる形状に構成される。
 [画素アレイ部の左上隅近傍におけるオンチップレンズの構成]
 図16は、本開示の第2の実施の形態に係るオンチップレンズの構成例を示す図である。同図は、図1において説明した画素アレイ部10の周縁部に配置された画素100等のうち、左上隅の近傍に配置される画素100等のオンチップレンズの構成例を表した図である。同図の画素アレイ部10は、次の点で、図2において説明した画素アレイ部10と異なる。同図の画素100は、オンチップレンズ110の代わりにオンチップレンズ114を備える。同図の位相差画素隣接画素200は、隣接オンチップレンズ210乃至219の代わりに、隣接オンチップレンズ240乃至249を備える。同図の位相差画素300は、共通オンチップレンズ310の代わりに共通オンチップレンズ340を備える。
 同図のオンチップレンズ114、隣接オンチップレンズ240乃至249および共通オンチップレンズ340は、画素アレイ部10の光学的中心の方向である右下方向に偏移して配置される。また、隣接オンチップレンズ240乃至249のうち、画素アレイ部10の光学的中心に近接する隣接オンチップレンズ245乃至247と画素アレイ部10の端部に近接する隣接オンチップレンズ240乃至242とは異なるサイズに構成される。例えば、隣接オンチップレンズ245乃至247は、共通オンチップレンズ340に対して対称に配置される隣接オンチップレンズ240乃至242より小さなサイズに構成される。具体的には、隣接オンチップレンズ245は、隣接オンチップレンズ240より小さなサイズに構成される。同様に、隣接オンチップレンズ246は、隣接オンチップレンズ241より小さなサイズに構成される。隣接オンチップレンズ247は、隣接オンチップレンズ242より小さなサイズに構成される。
 なお、共通オンチップレンズ340は、請求の範囲に記載の周縁部共通オンチップレンズの一例である。隣接オンチップレンズ240乃至249は、請求の範囲に記載の周縁部隣接オンチップレンズの一例である。オンチップレンズ114は、請求の範囲に記載の個別オンチップレンズの一例である。
また、共通オンチップレンズ340と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ246は、共通オンチップレンズ340に対して対称に配置される隣接オンチップレンズ241より小さなサイズに構成される。また、隣接オンチップレンズ246は、隣接するオンチップレンズ114より小さなサイズに構成される。また、隣接オンチップレンズ241は、隣接するオンチップレンズ114より大きなサイズに構成される。なお、隣接オンチップレンズ246は、請求の範囲に記載の周縁部近隣接オンチップレンズの一例である。隣接オンチップレンズ241は、請求の範囲に記載の周縁部遠隣接オンチップレンズの一例である。
 このように、隣接オンチップレンズ240乃至249のうち、画素アレイ部10の光学的中心寄りに配置される隣接オンチップレンズは、画素アレイ部10の端部寄りに配置される隣接オンチップレンズより小さなサイズに構成される。共通オンチップレンズ340と画素アレイ部10の光学的中心との間に配置される隣接オンチップレンズ246は、最も小さなサイズに構成され、隣接するオンチップレンズ114や対向する位置に配置される隣接オンチップレンズ241より小さなサイズに構成される。図12において説明した隣接オンチップレンズ220乃至229と同様に、隣接オンチップレンズ240乃至249を非対称な形状に構成することにより、入射光に対する感度を平準化することができる。なお、左上隅近傍以外の画素アレイ部10の隅部においては、同図のオンチップレンズ114等を対称に反転した形状のオンチップレンズ等にすることができる。
 これ以外の撮像素子1の構成は本開示の第1の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第2の実施の形態の撮像素子1は、瞳補正を行う場合において、共通オンチップレンズおよび隣接オンチップレンズの形状を調整することにより、隣接オンチップレンズの感度を平準化することができる。これにより、画質の劣化を防止することができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態の撮像素子1は、隣接オンチップレンズ210乃至219をオンチップレンズ110より大きなサイズに構成していた。これに対し、本開示の第3の実施の形態の撮像素子1は、隣接オンチップレンズ210乃至219の一部の隣接オンチップレンズをオンチップレンズ110より大きなサイズに構成する点で、上述の第1の実施の形態と異なる。
 [オンチップレンズの構成]
 図17は、本開示の第3の実施の形態に係るオンチップレンズの構成例を示す図である。同図の画素アレイ部10は、次の点で、図2において説明した画素アレイ部10と異なる。同図の位相差画素隣接画素200は、隣接オンチップレンズ210乃至219の代わりに、隣接オンチップレンズ250乃至259を備える。同図の位相差画素300は、共通オンチップレンズ310の代わりに共通オンチップレンズ350を備える。
 図2において説明した隣接オンチップレンズ210乃至219と同様に、同図の隣接オンチップレンズ250乃至259は、オンチップレンズ110とは異なるサイズに構成される。一方、図2において説明した共通オンチップレンズ310と比較して、共通オンチップレンズ350は、2つ分の位相差画素300による長方形の形状に対して長辺側を短くするとともに短辺側を長くした六角形に構成される。このため、共通オンチップレンズ350は、底面の形状を円に近い形状にすることができ、瞳分割の分離精度を向上させることができる。このような、共通オンチップレンズ350の形状は、隣接オンチップレンズ252、253、257および258のサイズをオンチップレンズ110より小さくすることにより構成することができる。
 隣接オンチップレンズ250、251、254乃至256および259は、図2の隣接オンチップレンズ210等と同様に、オンチップレンズ110より大きなサイズに構成されるため、位相差画素300の領域に張り出して形成される。これに対し、隣接オンチップレンズ252、253、257および258は小さなサイズに構成されるため、共通オンチップレンズ350がこれらの隣接オンチップレンズに対応する位相差画素隣接画素200の領域に張り出して形成される。このため、共通オンチップレンズ350の底面の形状を円形状に近似させることができる。
 [撮像素子の構成]
 図18は、本開示の第3の実施の形態に係る撮像素子の構成例を示す断面図である。同図におけるaは、図17におけるE-E’線に沿った撮像素子1の断面の構成を表す図である。同図におけるaにおいて、隣接オンチップレンズ250および255は、オンチップレンズ110より大きなサイズに構成される。また、同図におけるbは、図17におけるF-F’線に沿った撮像素子の断面の構成を表す図である。同図におけるbにおいて、隣接オンチップレンズ252および257はオンチップレンズ110より小さなサイズに構成される。
 また、同図におけるcは、図17におけるG-G’線に沿った撮像素子の断面の構成を表す図であり、共通オンチップレンズ350の斜め方向の断面の構成を表したものである。上述のように、隣接オンチップレンズ252および257はオンチップレンズ110より小さなサイズに構成されるため、共通オンチップレンズ350が位相差画素隣接画素200の領域に張り出すこととなる。同図おけるcに表したように、共通オンチップレンズ350と隣接オンチップレンズ251および256とは、端部が接触しない形状に構成される。このように、隣接オンチップレンズ250乃至259の形状を調整することにより、共通オンチップレンズ350の底面の形状を円形状に近似させることができる。
 これ以外の撮像素子1の構成は本開示の第1の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第3の実施の形態の撮像素子1は、オンチップレンズ110に対して、隣接オンチップレンズ250乃至259の一部の隣接オンチップレンズをより大きなサイズに構成し、他の隣接オンチップレンズを小さなサイズに構成する。これにより、共通オンチップレンズ350の形状を調整して瞳分割された位相差画素300の分離精度を向上させることができ、焦点検出精度を向上させることができる。
 <4.カメラへの応用例>
 本開示に係る技術(本技術)は、様々な製品に応用することができる。例えば、本技術は、カメラ等の撮像装置に搭載される撮像素子として実現されてもよい。
 図19は、本技術が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。同図のカメラ1000は、レンズ1001と、撮像素子1002と、撮像制御部1003と、レンズ駆動部1004と、画像処理部1005と、操作入力部1006と、フレームメモリ1007と、表示部1008と、記録部1009とを備える。
 レンズ1001は、カメラ1000の撮影レンズである。このレンズ1001は、被写体からの光を集光し、後述する撮像素子1002に入射させて被写体を結像させる。
 撮像素子1002は、レンズ1001により集光された被写体からの光を撮像する半導体素子である。この撮像素子1002は、照射された光に応じたアナログの画像信号を生成し、デジタルの画像信号に変換して出力する。
 撮像制御部1003は、撮像素子1002における撮像を制御するものである。この撮像制御部1003は、制御信号を生成して撮像素子1002に対して出力することにより、撮像素子1002の制御を行う。また、撮像制御部1003は、撮像素子1002から出力された画像信号に基づいてカメラ1000におけるオートフォーカスを行うことができる。ここでオートフォーカスとは、レンズ1001の焦点位置を検出して、自動的に調整するシステムである。このオートフォーカスとして、撮像素子1002に配置された位相差画素により像面位相差を検出して焦点位置を検出する方式(像面位相差オートフォーカス)を使用することができる。また、画像のコントラストが最も高くなる位置を焦点位置として検出する方式(コントラストオートフォーカス)を適用することもできる。撮像制御部1003は、検出した焦点位置に基づいてレンズ駆動部1004を介してレンズ1001の位置を調整し、オートフォーカスを行う。なお、撮像制御部1003は、例えば、ファームウェアを搭載したDSP(Digital Signal Processor)により構成することができる。
 レンズ駆動部1004は、撮像制御部1003の制御に基づいて、レンズ1001を駆動するものである。このレンズ駆動部1004は、内蔵するモータを使用してレンズ1001の位置を変更することによりレンズ1001を駆動することができる。
 画像処理部1005は、撮像素子1002により生成された画像信号を処理するものである。この処理には、例えば、画素毎の赤色、緑色および青色に対応する画像信号のうち不足する色の画像信号を生成するデモザイク、画像信号のノイズを除去するノイズリダクションおよび画像信号の符号化等が該当する。画像処理部1005は、例えば、ファームウェアを搭載したマイコンにより構成することができる。
 操作入力部1006は、カメラ1000の使用者からの操作入力を受け付けるものである。この操作入力部1006には、例えば、押しボタンやタッチパネルを使用することができる。操作入力部1006により受け付けられた操作入力は、撮像制御部1003や画像処理部1005に伝達される。その後、操作入力に応じた処理、例えば、被写体の撮像等の処理が起動される。
 フレームメモリ1007は、1画面分の画像信号であるフレームを記憶するメモリである。このフレームメモリ1007は、画像処理部1005により制御され、画像処理の過程におけるフレームの保持を行う。
 表示部1008は、画像処理部1005により処理された画像を表示するものである。この表示部1008には、例えば、液晶パネルを使用することができる。
 記録部1009は、画像処理部1005により処理された画像を記録するものである。この記録部1009には、例えば、メモリカードやハードディスクを使用することができる。
 以上、本発明が適用され得るカメラについて説明した。本技術は以上において説明した構成のうち、撮像素子1002に適用され得る。具体的には、図1において説明した撮像素子1は、撮像素子1002に適用することができる。撮像素子1002に撮像素子1を適用することにより、撮像素子1の位相差画素300を使用したオートフォーカスを行うことができる。
なお、ここでは、一例としてカメラについて説明したが、本発明に係る技術は、その他、例えば監視装置等に適用されてもよい。
 最後に、上述した各実施の形態の説明は本開示の一例であり、本開示は上述の実施の形態に限定されることはない。このため、上述した各実施の形態以外であっても、本開示に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
 なお、本技術は以下のような構成もとることができる。
(1)入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する前記画素である複数の位相差画素と、前記位相差画素に隣接する前記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部と、
 前記画素毎に配置されて前記入射光を前記画素に個別に集光する個別オンチップレンズと、
 前記複数の位相差画素に共通に配置されて前記入射光を共通に集光する共通オンチップレンズと、
 前記位相差画素隣接画素毎に配置されて前記入射光を前記位相差画素隣接画素に個別に集光するとともに前記共通オンチップレンズの形状を調整するために前記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズと
を具備する撮像素子。
(2)前記隣接オンチップレンズは、前記個別オンチップレンズより大きなサイズに構成される前記(1)に記載の撮像素子。
(3)前記隣接オンチップレンズは、前記個別オンチップレンズより大きな底部の幅に構成される前記(2)に記載の撮像素子。
(4)頂点において前記共通オンチップレンズに隣接する前記隣接オンチップレンズは、辺において前記共通オンチップレンズに隣接する前記隣接オンチップレンズより大きなサイズに構成される前記(2)に記載の撮像素子。
(5)前記個別オンチップレンズは、前記画素に対する位置が前記入射光の入射角度に応じて偏移して配置され、
 前記隣接オンチップレンズは、前記位相差画素隣接画素に対する位置が前記入射光の入射角度に応じて偏移して配置され、
 前記共通オンチップレンズは、前記位相差画素に対する位置が前記入射光の入射角度に応じて偏移して配置される
前記(1)から(4)の何れかに記載の撮像素子。
(6)前記画素アレイ部の周縁部に配置される前記共通オンチップレンズである周縁部共通オンチップレンズに隣接する隣接オンチップレンズである周縁部隣接オンチップレンズのうち、前記画素アレイ部の光学的中心に近接する前記周縁部隣接オンチップレンズと前記画素アレイ部の端部に近接する前記周縁部隣接オンチップレンズとは異なるサイズに構成される前記(5)に記載の撮像素子。
(7)前記周縁部隣接オンチップレンズのうち前記画素アレイ部の光学的中心に近接する前記周縁部隣接オンチップレンズは、前記周縁部共通オンチップレンズに対して対称に配置される前記画素アレイ部の端部に近接する前記周縁部隣接オンチップレンズより小さなサイズに構成される前記(6)に記載の撮像素子。
(8)前記周縁部共通オンチップレンズと前記画素アレイ部の光学的中心との間に配置される前記周縁部隣接オンチップレンズである周縁部近隣接オンチップレンズは、前記周縁部共通オンチップレンズに対して対称に配置される前記周縁部隣接オンチップレンズである周縁部遠隣接オンチップレンズより小さなサイズに構成される前記(6)に記載の撮像素子。
(9)前記周縁部近隣接オンチップレンズは、当該周縁部近隣接オンチップレンズに隣接する前記個別オンチップレンズより小さなサイズに構成される前記(8)に記載の撮像素子。
(10)前記周縁部遠隣接オンチップレンズは、当該周縁部遠隣接オンチップレンズに隣接する前記個別オンチップレンズより大きなサイズに構成される前記(8)に記載の撮像素子。
(11)前記隣接オンチップレンズは、前記共通オンチップレンズに隣接する領域の底部と前記個別オンチップレンズに隣接する領域の底部とが異なる高さに形成される前記(1)から(10)の何れかに記載の撮像素子。
(12)前記隣接オンチップレンズは、底面の形状が前記位相差画素隣接画素とは異なる形状に構成される前記(1)から(11)の何れかに記載の撮像素子。
(13)前記共通オンチップレンズは、2つの前記位相差画素に対して共通に前記入射光を集光する前記(1)から(12)の何れかに記載の撮像素子。
(14)前記共通オンチップレンズは、4つの前記位相差画素に対して共通に前記入射光を集光する前記(1)から(12)の何れかに記載の撮像素子。
(15)前記複数の位相差画素は、前記入射光を瞳分割して位相差を検出する前記(1)から(14)の何れかに記載の撮像素子。
(16)入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する前記画素である複数の位相差画素と、前記位相差画素に隣接する前記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部を形成する工程と、
 前記画素毎に配置されて前記入射光を前記画素に個別に集光する個別オンチップレンズを形成する工程と、
 前記複数の位相差画素に共通に配置されて前記入射光を共通に集光する共通オンチップレンズを形成する工程と、
 前記位相差画素隣接画素毎に配置されて前記入射光を前記位相差画素隣接画素に個別に集光するとともに前記共通オンチップレンズの形状を調整するために前記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズを形成する工程と
を具備する撮像素子の製造方法。
 1 撮像素子
 10 画素アレイ部
 100 画素
 101、301 端部
 110、112~114 オンチップレンズ
 141 カラーフィルタ
 142 遮光膜
 152 分離部
 154 分離領域
 155、406、407 隙間
 200 位相差画素隣接画素
 210~259 隣接オンチップレンズ
 300 位相差画素
 310、320、330、340、350 共通オンチップレンズ
 403~405 レジスト
 1002 撮像素子
 1005 画像処理部

Claims (16)

  1.  入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する前記画素である複数の位相差画素と、前記位相差画素に隣接する前記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部と、
     前記画素毎に配置されて前記入射光を前記画素に個別に集光する個別オンチップレンズと、
     前記複数の位相差画素に共通に配置されて前記入射光を共通に集光する共通オンチップレンズと、
     前記位相差画素隣接画素毎に配置されて前記入射光を前記位相差画素隣接画素に個別に集光するとともに前記共通オンチップレンズの形状を調整するために前記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズと
    を具備する撮像素子。
  2.  前記隣接オンチップレンズは、前記個別オンチップレンズより大きなサイズに構成される請求項1記載の撮像素子。
  3.  前記隣接オンチップレンズは、前記個別オンチップレンズより大きな底部の幅に構成される請求項2記載の撮像素子。
  4.  頂点において前記共通オンチップレンズに隣接する前記隣接オンチップレンズは、辺において前記共通オンチップレンズに隣接する前記隣接オンチップレンズより大きなサイズに構成される請求項2記載の撮像素子。
  5.  前記個別オンチップレンズは、前記画素に対する位置が前記入射光の入射角度に応じて偏移して配置され、
     前記隣接オンチップレンズは、前記位相差画素隣接画素に対する位置が前記入射光の入射角度に応じて偏移して配置され、
     前記共通オンチップレンズは、前記位相差画素に対する位置が前記入射光の入射角度に応じて偏移して配置される
    請求項1記載の撮像素子。
  6.  前記画素アレイ部の周縁部に配置される前記共通オンチップレンズである周縁部共通オンチップレンズに隣接する隣接オンチップレンズである周縁部隣接オンチップレンズのうち、前記画素アレイ部の光学的中心に近接する前記周縁部隣接オンチップレンズと前記画素アレイ部の端部に近接する前記周縁部隣接オンチップレンズとは異なるサイズに構成される請求項5記載の撮像素子。
  7.  前記周縁部隣接オンチップレンズのうち前記画素アレイ部の光学的中心に近接する前記周縁部隣接オンチップレンズは、前記周縁部共通オンチップレンズに対して対称に配置される前記画素アレイ部の端部に近接する前記周縁部隣接オンチップレンズより小さなサイズに構成される請求項6記載の撮像素子。
  8.  前記周縁部共通オンチップレンズと前記画素アレイ部の光学的中心との間に配置される前記周縁部隣接オンチップレンズである周縁部近隣接オンチップレンズは、前記周縁部共通オンチップレンズに対して対称に配置される前記周縁部隣接オンチップレンズである周縁部遠隣接オンチップレンズより小さなサイズに構成される請求項6記載の撮像素子。
  9.  前記周縁部近隣接オンチップレンズは、当該周縁部近隣接オンチップレンズに隣接する前記個別オンチップレンズより小さなサイズに構成される請求項8記載の撮像素子。
  10.  前記周縁部遠隣接オンチップレンズは、当該周縁部遠隣接オンチップレンズに隣接する前記個別オンチップレンズより大きなサイズに構成される請求項8記載の撮像素子。
  11.  前記隣接オンチップレンズは、前記共通オンチップレンズに隣接する領域の底部と前記個別オンチップレンズに隣接する領域の底部とが異なる高さに形成される請求項1記載の撮像素子。
  12.  前記隣接オンチップレンズは、底面の形状が前記位相差画素隣接画素とは異なる形状に構成される請求項1記載の撮像素子。
  13.  前記共通オンチップレンズは、2つの前記位相差画素に対して共通に前記入射光を集光する請求項1記載の撮像素子。
  14.  前記共通オンチップレンズは、4つの前記位相差画素に対して共通に前記入射光を集光する請求項1記載の撮像素子。
  15.  前記複数の位相差画素は、前記入射光を瞳分割して位相差を検出する請求項1記載の撮像素子。
  16.  入射光に応じて光電変換を行う画素と、隣接して配置されて位相差を検出する前記画素である複数の位相差画素と、前記位相差画素に隣接する前記画素である位相差画素隣接画素とが2次元に配置される画素アレイ部を形成する工程と、
     前記画素毎に配置されて前記入射光を前記画素に個別に集光する個別オンチップレンズを形成する工程と、
     前記複数の位相差画素に共通に配置されて前記入射光を共通に集光する共通オンチップレンズを形成する工程と、
     前記位相差画素隣接画素毎に配置されて前記入射光を前記位相差画素隣接画素に個別に集光するとともに前記共通オンチップレンズの形状を調整するために前記個別オンチップレンズとは異なるサイズに構成される隣接オンチップレンズを形成する工程と
    を具備する撮像素子の製造方法。
PCT/JP2019/023301 2018-07-09 2019-06-12 撮像素子および撮像素子の製造方法 WO2020012860A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202211460563.XA CN115767295B (zh) 2018-07-09 2019-06-12 摄像元件和相机
US17/250,307 US11477403B2 (en) 2018-07-09 2019-06-12 Imaging element and method for manufacturing imaging element
CN201980044542.XA CN112368837A (zh) 2018-07-09 2019-06-12 摄像元件和摄像元件的制造方法
US17/943,052 US11765476B2 (en) 2018-07-09 2022-09-12 Imaging element and method for manufacturing imaging element
US18/356,384 US12022217B2 (en) 2018-07-09 2023-07-21 Imaging element and method for manufacturing imaging element

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018129652 2018-07-09
JP2018-129652 2018-07-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/250,307 A-371-Of-International US11477403B2 (en) 2018-07-09 2019-06-12 Imaging element and method for manufacturing imaging element
US17/943,052 Continuation US11765476B2 (en) 2018-07-09 2022-09-12 Imaging element and method for manufacturing imaging element

Publications (1)

Publication Number Publication Date
WO2020012860A1 true WO2020012860A1 (ja) 2020-01-16

Family

ID=69141998

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023301 WO2020012860A1 (ja) 2018-07-09 2019-06-12 撮像素子および撮像素子の製造方法

Country Status (4)

Country Link
US (2) US11477403B2 (ja)
CN (2) CN112368837A (ja)
TW (1) TW202016578A (ja)
WO (1) WO2020012860A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162496A1 (ja) * 2022-02-28 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11477403B2 (en) * 2018-07-09 2022-10-18 Sony Semiconductor Solutions Corporation Imaging element and method for manufacturing imaging element
FR3102007B1 (fr) * 2019-10-14 2021-10-29 Commissariat Energie Atomique Capteur d’images
KR20210056754A (ko) * 2019-11-11 2021-05-20 에스케이하이닉스 주식회사 이미지 센서

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349268A (ja) * 1999-06-02 2000-12-15 Sharp Corp 固体撮像装置およびその製造方法並びにマスク作製方法
WO2014097884A1 (ja) * 2012-12-18 2014-06-26 富士フイルム株式会社 固体撮像装置
WO2016098640A1 (ja) * 2014-12-18 2016-06-23 ソニー株式会社 固体撮像素子、および電子装置
WO2018008408A1 (ja) * 2016-07-06 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、補正方法、および電子装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5451111B2 (ja) * 2008-03-11 2014-03-26 キヤノン株式会社 焦点検出装置およびそれを有する撮像装置
KR100993165B1 (ko) * 2008-05-26 2010-11-10 엘지전자 주식회사 광학 시트, 이를 포함하는 백라이트 유닛 및 액정표시장치
JP2015012127A (ja) * 2013-06-28 2015-01-19 ソニー株式会社 固体撮像素子および電子機器
JP2015060855A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP6233188B2 (ja) * 2013-12-12 2017-11-22 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
JP2016001682A (ja) 2014-06-12 2016-01-07 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP5974136B2 (ja) * 2015-05-01 2016-08-23 キヤノン株式会社 固体撮像装置およびカメラ
US11477403B2 (en) * 2018-07-09 2022-10-18 Sony Semiconductor Solutions Corporation Imaging element and method for manufacturing imaging element

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349268A (ja) * 1999-06-02 2000-12-15 Sharp Corp 固体撮像装置およびその製造方法並びにマスク作製方法
WO2014097884A1 (ja) * 2012-12-18 2014-06-26 富士フイルム株式会社 固体撮像装置
WO2016098640A1 (ja) * 2014-12-18 2016-06-23 ソニー株式会社 固体撮像素子、および電子装置
WO2018008408A1 (ja) * 2016-07-06 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、補正方法、および電子装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162496A1 (ja) * 2022-02-28 2023-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Also Published As

Publication number Publication date
US11765476B2 (en) 2023-09-19
US20230007199A1 (en) 2023-01-05
CN115767295B (zh) 2023-09-15
US20230362509A1 (en) 2023-11-09
CN115767295A (zh) 2023-03-07
US11477403B2 (en) 2022-10-18
CN112368837A (zh) 2021-02-12
US20210368117A1 (en) 2021-11-25
TW202016578A (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
WO2020012860A1 (ja) 撮像素子および撮像素子の製造方法
JP5422889B2 (ja) 固体撮像素子及びこれを用いた撮像装置
KR102537009B1 (ko) 고체 촬상 소자, 촬상 장치, 및, 고체 촬상 소자의 제조 방법
JP5157436B2 (ja) 固体撮像素子および撮像装置
JP5159700B2 (ja) 光学装置及び焦点検出方法
JP5421207B2 (ja) 固体撮像装置
EP1903608B1 (en) Solid-state image sensor
JP2014089432A (ja) 固体撮像装置、固体撮像装置におけるマイクロレンズの形成方法、及び、電子機器
KR20100005732A (ko) 시프트된 포토다이오드 위치를 픽셀 그룹 내에서 조정하기 위해 더 큰 렌즈의 어레이 위에 형성된 마이크로렌즈
TW201436186A (zh) 固體攝像裝置及其製造方法、以及電子機器
US20210126033A1 (en) Image sensor with shared microlens between multiple subpixels
JP2008547064A (ja) 傾きのあるマイクロレンズの製造方法
JP4920839B2 (ja) 撮像装置
JP2006502588A (ja) マイクロレンズ付き固体イメージセンサ及び非テレセントリック撮像レンズを備えた光学系
JP2015153975A (ja) 固体撮像素子、固体撮像素子の製造方法および電子機器
TW202134695A (zh) 具有共享微透鏡及極化像素之影像感測器
JP2002170944A (ja) 固体撮像装置
JP2023057136A (ja) 撮像素子および撮像装置
TW202133457A (zh) 攝像元件及攝像裝置
JP2004158686A (ja) 固体撮像素子
WO2021005961A1 (ja) 撮像素子および撮像装置
US20190268543A1 (en) Image sensor and focus adjustment device
US12022217B2 (en) Imaging element and method for manufacturing imaging element
JP2020161648A (ja) 撮像素子および撮像装置
JP2018046563A (ja) 撮像素子

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19834263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19834263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP