WO2020149181A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2020149181A1
WO2020149181A1 PCT/JP2020/000237 JP2020000237W WO2020149181A1 WO 2020149181 A1 WO2020149181 A1 WO 2020149181A1 JP 2020000237 W JP2020000237 W JP 2020000237W WO 2020149181 A1 WO2020149181 A1 WO 2020149181A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging device
pixel
pixel region
region
Prior art date
Application number
PCT/JP2020/000237
Other languages
English (en)
French (fr)
Inventor
至通 熊谷
阿部 高志
遼人 吉田
雅史 坂東
尚幸 大澤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/421,569 priority Critical patent/US12003878B2/en
Publication of WO2020149181A1 publication Critical patent/WO2020149181A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14654Blooming suppression
    • H01L27/14656Overflow drain structures

Definitions

  • the present technology relates to an imaging device having a global shutter function.
  • CMOS Complementary Metal Oxide Semiconductor
  • imaging devices having a global shutter function
  • CMOS Complementary Metal Oxide Semiconductor
  • Such an image sensor has a charge holding unit for each pixel region. The signal charge transferred from the photoelectric conversion unit is temporarily held in this charge holding unit.
  • the image pickup device has, for example, a color filter layer.
  • the color filter layer includes a red filter that selectively transmits light in the red wavelength range, a green filter that selectively transmits light in the green wavelength range, and a blue filter that selectively transmits light in the blue wavelength range.
  • This color filter layer has, for example, a Bayer array (see, for example, Patent Document 2).
  • An imaging device is provided with a plurality of shared portions including at least two pixel regions adjacent to each other in a first direction, and is provided at a position closest to a second direction intersecting the first direction.
  • the shared unit is arranged so as to be displaced by one pixel region in the first direction, and holds the image capturing unit, the photoelectric conversion unit provided for each pixel region, and the signal charges generated by the photoelectric conversion unit.
  • a charge-voltage conversion unit to which signal charges are transferred from the charge-retention unit, and a pixel transistor electrically connected to the charge-voltage conversion unit and provided for each sharing unit. is there.
  • the shared portion provided at the closest position in the second direction is displaced by one pixel area in the first direction, light of the same color is emitted. It becomes easy to arrange the configurations of the plurality of pixel regions that receive light.
  • FIG. 2 is a schematic plan view showing an example of the configuration of the image pickup section shown in FIG. 1.
  • FIG. 3 is a schematic plan view showing an example of a configuration of a red pixel area, a green pixel area, and a blue pixel area shown in FIG. 1.
  • FIG. 4 is a diagram illustrating an example of a circuit configuration of each sharing unit illustrated in FIG. 3.
  • FIG. 5 is a schematic diagram showing a cross-sectional configuration along the line VV′ shown in FIG. 3. It is a plane schematic diagram showing the structure of the light-shielding part shown in FIG.
  • FIG. 8 is a schematic plan view showing a configuration of a red pixel area, a green pixel area, and a blue pixel area shown in FIG. 7.
  • 9 is a schematic plan view illustrating a configuration of a main part of an image pickup apparatus according to Modification Example 1.
  • FIG. 10 is a diagram illustrating an example of a circuit configuration of each shared unit illustrated in FIG. 9.
  • FIG. 11 is a diagram illustrating another example of the circuit configuration illustrated in FIG. 10.
  • FIG. 9 is a schematic plan view illustrating the configuration of a main part of an imaging device according to modification 2.
  • FIG. 12B is a schematic diagram showing a cross-sectional configuration along the line B-B′ shown in FIG. 12A.
  • FIG. 11 is a schematic cross-sectional view showing the configuration of a main part of an image pickup apparatus according to Modification 3.
  • FIG. 13 is a schematic plan view illustrating the configuration of a main part of an imaging device according to modification 4.
  • FIG. 15 is a schematic plan view showing an example of a configuration of a red pixel area, a green pixel area, and a blue pixel area shown in FIG. 14.
  • FIG. 16 is a schematic plan view showing the configuration of a main part of an imaging device according to modification example 5.
  • FIG. 11 is a schematic cross-sectional view showing the configuration of a main part of an image pickup apparatus according to Modification 3.
  • FIG. 13 is a schematic plan view illustrating the configuration of a main part of an imaging device according to modification 4.
  • FIG. 15 is a schematic plan view showing an example of a configuration of a red pixel area, a green
  • FIG. 17 is a schematic plan view showing an example of a configuration of a red pixel area, a green pixel area, and a blue pixel area shown in FIG. 16.
  • FIG. 18 is a diagram illustrating an example of a circuit configuration of a sharing unit illustrated in FIG. 17.
  • FIG. 18 is a schematic diagram illustrating another example of the planar configuration of the shared unit illustrated in FIG. 17.
  • FIG. 20 is a diagram illustrating an example of a circuit configuration of a shared unit illustrated in FIG. 19. It is a functional block diagram showing an example of an electronic device (camera) using the imaging device shown in FIG. 1 and the like. It is a block diagram showing an example of a schematic structure of a vehicle control system.
  • FIG. 19 is a diagram illustrating another example of the circuit configuration of the sharing unit illustrated in FIG. 18 and the like.
  • FIG. 6 is a schematic plan view showing another example of the planar configuration of the red pixel area, the green pixel area, and the blue pixel area shown in FIG. 3 and the like.
  • Embodiment (example of an imaging device having a shared portion including two pixel regions adjacent to each other in the X direction) 2.
  • Modification 1 (example having an FD transistor) 3.
  • Modification 2 (example in which the light shielding part has a through region) 4.
  • Modification 3 (example having embedded gate electrode) 5.
  • Modification 4 (example having a shared portion including two pixel regions adjacent to each other in the Y direction) 6.
  • Modification 5 (example having a shared portion including four pixel regions) 7.
  • Application example 8 Application example
  • FIG. 1 is a block diagram showing a functional configuration example of an imaging device 1 according to an embodiment of the present technology.
  • the image pickup apparatus 1 is a backside illumination type image sensor of a global shutter type including a CMOS image sensor or the like. In the image pickup apparatus 1, an image is picked up by receiving light from a subject, photoelectrically converting it, and generating an image signal.
  • the present technology is not limited to the application to the CMOS image sensor.
  • the image pickup apparatus 1 may have a structure in which a plurality of semiconductor chips are stacked, or may be composed of a single semiconductor chip.
  • the global shutter method is a method that basically starts exposure at the same time for all pixels and ends exposure at the same time for all pixels.
  • all the pixels mean all the pixels of the portion appearing in the image, and dummy pixels and the like are excluded.
  • a method of moving the area to be globally exposed while performing global exposure in units of multiple rows (for example, several tens of rows) instead of simultaneously performing all pixels is also possible.
  • the global shutter method also includes a method of performing global exposure on not only all the pixels of the portion appearing in the image but the pixels of a predetermined area.
  • the image pickup apparatus 1 is configured to include an image pickup section 111, a vertical drive section 112, a ramp wave module 113, a clock module 114, a data storage section 115, a horizontal drive section 116, a system control section 117, and a signal processing section 118. It
  • FIG. 2 schematically shows a plane configuration of the image pickup unit 111.
  • the imaging unit 111 is provided in the center of the imaging device 1 (FIG. 1).
  • the planar shape of the imaging unit 111 (the shape of the XY plane) is, for example, a rectangle.
  • the imaging unit 111 includes a plurality of pixel regions (red pixel region 10R, green pixel region 10G, blue pixel region 10B) arranged in a matrix, for example.
  • the red pixel region 10R receives light in the red wavelength region
  • the green pixel region 10G receives light in the green wavelength region
  • the blue pixel region 10B receives light in the blue wavelength region.
  • the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B are arranged according to the Bayer arrangement of the color filter layers (color filter layer 71 of FIG. 3B described later). That is, two green pixel regions 10G, one red pixel region 10R, and one blue pixel region 10B serve as a repeating unit, and these repeating units are arranged periodically.
  • the green pixel regions 10G are provided side by side in the diagonal direction.
  • a pixel drive line (not shown) is wired along the row direction and arranged in the column direction for each pixel row (pixel area arranged in the X-axis direction) including pixel areas arranged in the row direction.
  • a vertical signal line vertical signal line (vertical signal line VSL in FIG.
  • the green pixel region 10G corresponds to a specific example of the first pixel region of the present disclosure
  • the red pixel region 10R and the green pixel region 10G correspond to specific examples of the second pixel region of the present disclosure.
  • the imaging unit 111 has a plurality of sharing units 11 each including two pixel regions (blue pixel region 10B and green pixel region 10G, or red pixel region 10R and green pixel region 10G) that are adjacent to each other in the X-axis direction. ..
  • the specific configuration of the sharing unit 11 will be described later.
  • the X-axis direction corresponds to the first direction of the present disclosure
  • the Y-axis direction corresponds to the second direction of the present disclosure.
  • the vertical drive unit 112 includes, for example, a shift register and an address decoder.
  • the vertical drive unit 112 drives each pixel of the image pickup unit 111 simultaneously or in units of rows by supplying a signal or the like to each pixel via a plurality of pixel drive lines.
  • the ramp wave module 113 generates a ramp wave signal used for A/D (Analog/Digital) conversion of a pixel signal and supplies it to a column processing unit (not shown).
  • the column processing unit includes, for example, a shift register and an address decoder, and performs noise removal processing, correlated double sampling processing, A/D conversion processing, and the like to generate pixel signals.
  • the column processing unit supplies the generated pixel signal to the signal processing unit 118.
  • the clock module 114 supplies a clock signal for operation to each unit of the image pickup apparatus 1.
  • the horizontal drive unit 116 sequentially selects unit circuits corresponding to the pixel columns of the column processing unit. By the selective scanning by the horizontal drive unit 116, the pixel signals subjected to the signal processing for each unit circuit in the column processing unit are sequentially output to the signal processing unit 118.
  • the system control unit 117 includes a timing generator that generates various timing signals.
  • the system control unit 117 controls the drive of the vertical drive unit 112, the ramp wave module 113, the clock module 114, the horizontal drive unit 116, and the column processing unit based on the timing signal generated by the timing generator.
  • the signal processing unit 118 temporarily stores the data in the data storage unit 115 as necessary, and performs signal processing such as arithmetic processing on the pixel signals supplied from the column processing unit to form each pixel signal. Output an image signal.
  • FIG. 3 shows a planar configuration of the two shared parts 11 arranged at the closest positions in the Y-axis direction.
  • the imaging unit 111 has pixel rows in which blue pixel regions 10B and green pixel regions 10G are alternately provided, and pixel rows in which red pixel regions 10R and green pixel regions 10G are alternately provided ( (Fig. 2).
  • these two types of pixel rows are arranged alternately. That is, the imaging unit 111 has the sharing unit 11 including the blue pixel region 10B and the green pixel region 10G, and the sharing unit 11 including the red pixel region 10R and the green pixel region 10G, and extends in the Y-axis direction. , These two types of shared portions 11 are alternately provided.
  • the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B respectively have a photodiode (PD) 21, a first transfer transistor (TRX) 22, a charge holding portion (MEM) 23, a second transfer transistor (TRG) 24, It has an overflow gate (OFG) 31 and an overflow drain (OFD) 32.
  • the TRX 22 and the MEM 23 are provided at positions overlapping with each other in a plan view (XY plane).
  • the PD 21 and the MEM 23 are arranged side by side in the Y-axis direction (direction orthogonal to the direction in which the two pixel regions that form the shared portion 11 are arranged).
  • the PD 21 corresponds to a specific example of the photoelectric conversion unit of the present disclosure.
  • Each sharing unit 11 has a floating diffusion (FD) 25, a reset transistor (RST) 26, an amplification transistor (AMP) 27, and a selection transistor (SEL) 28.
  • the FD 25, the RST 26, the AMP 27, and the SEL 28 are arranged for each shared unit 11.
  • the FD 25, RST26, AMP27, and SEL28 are shared between the two pixel regions (blue pixel region 10B and green pixel region 10G, or red pixel region 10R and green pixel region 10G), the regions of PD21 and MEM23 are shared. It becomes easier to use it effectively.
  • the FD 25 corresponds to a specific example of the charge-voltage converter of the present disclosure
  • the RST 26, AMP 27, and SEL 28 correspond to a specific example of the pixel transistor of the present disclosure.
  • FIG. 4 shows an example of the configuration of the pixel circuit of the image pickup apparatus 1.
  • the TRX 22-1 is provided between the PD 21-1 and the MEM 23-1
  • the TRG 24-1 is connected to the MEM 23-1. ..
  • the TRX 22-2 is provided between the PD 21-2 and the MEM 23-2
  • the TRG 24-2 is connected to the MEM 23-2. ..
  • the TRGs 24-1 and 24-2 are connected to the FD 25.
  • An RST 26 is connected to the FD 25 together with the TRGs 24-1 and 24-2.
  • the FD 25 is connected to the vertical signal line VSL via the AMP 27 and the SEL 28.
  • OFDs 32-1, 32-2 are connected to the PDs 21-1, PD21-2 via the OFGs 31-1, 31-2 together with the TRXs 22-1, 22-2.
  • the PD 21 (21-1, 21-2) provided for each of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B receives light from the subject and performs photoelectric conversion.
  • the PD 21 generates and accumulates a signal charge according to the amount of received light.
  • TRX22 One of a pair of source/drain electrodes of TRX22 (22-1, 22-2) is connected to PD21 and the other is connected to MEM23.
  • the TRX 22 is turned on when the first transfer signal is input to its gate. As a result, the signal charges generated by the PD 21 are read out and transferred to the MEM 23.
  • MEM23 (23-1, 23-2) is connected to TRX22 and TRG24 (24-1, 24-2).
  • the MEM 23 is a charge holding unit that temporarily holds the signal charge generated by the PD 21. Since the MEM 23 is provided in the image pickup apparatus 1, the global shutter function is realized.
  • One of the pair of source/drain electrodes of the TRG 24 is connected to the MEM 23, and the other is connected to the FD 25.
  • the TRG 24 is turned on when the second transfer signal is input to its gate. As a result, the signal charge once held in the MEM 23 is read out and transferred to the FD 25.
  • TRG24, RST26 and AMP27 are connected to FD25.
  • the FD 25 holds the signal charge read from the MEM 23 and converts the signal charge into a voltage (potential).
  • RST26 is provided between the supply terminal of the constant voltage source VDD and the FD25.
  • the RST 26 is turned on when a reset signal is input to its gate. As a result, the electric charge accumulated in the FD 25 is discharged to the constant voltage source VDD, and the potential of the FD 25 is reset.
  • the AMP 27 has its gate connected to the FD 25, one of a pair of source/drain electrodes connected to the supply terminal of the constant voltage source VDD, and the other connected to the vertical signal line VSL via the SEL 28.
  • the AMP 27 amplifies the potential of the FD 25 and outputs the amplified signal to the SEL 28 as a pixel signal.
  • SEL 28 is provided between AMP 27 and vertical signal line VSL.
  • the SEL 28 is turned on when an address signal is input to its gate.
  • the pixel signal amplified by the AMP 27 is controlled and output to the vertical signal line VSL.
  • the OFG 31 (31-1, 31-2) is provided between the OFD 32 (32-1, 32-2) and the PD 21.
  • the OFG 31 is turned on when an ejection signal is input to its gate. As a result, the unnecessary charges accumulated in the PD 21 are discharged to the OFG 31.
  • FIG. 5 schematically shows a cross-sectional configuration of the main part of the image pickup section 111, and corresponds to the cross-sectional configuration along the line VV′ shown in FIG.
  • the imaging device 1 has a multilayer wiring layer L1 and a semiconductor substrate L2 laminated on the multilayer wiring layer L1.
  • the semiconductor substrate L2 has a first surface L2a and a second surface L2b facing each other.
  • the multilayer wiring layer L1 is provided on the second surface L2b of the semiconductor substrate L2 via the insulating film 50, and the first surface L2a constitutes the light receiving surface.
  • the image pickup apparatus 1 is a backside illumination type image pickup apparatus.
  • TRX22 and TRG24 are provided in the vicinity of the second surface L2b of the semiconductor substrate L2.
  • the RST 26, AMP 27, and SEL 28 (FIG. 3) may be provided near the second surface L2b of the semiconductor substrate L2.
  • the light shielding layer L3, the color filter layer 71, and the on-chip lens 72 are provided in this order.
  • PD21, MEM23, and FD25 are provided in the semiconductor substrate L2.
  • the color filter layer 71 faces the multilayer wiring layer L1 with the semiconductor substrate L2 in between.
  • the multilayer wiring layer L1 is supported by, for example, a support substrate (not shown), and the support substrate and the semiconductor substrate L2 face each other with the multilayer wiring layer L1 in between.
  • the multilayer wiring layer L1 has a plurality of wirings 51 electrically connected to the PD 21 and an interlayer insulating film 52 for separating the plurality of wirings 51 from each other.
  • the plurality of wirings 51 are, for example, for reading out signal charges generated by the PD 21, and the multilayer wiring layer L1 is for driving, for example, the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B.
  • a circuit is provided.
  • the gate electrode 22G of the TRX 22 is provided on the semiconductor substrate L2 side.
  • the gate electrode 22G is arranged, for example, at a position overlapping the MEM 23 in plan view.
  • the insulating film 50 provided between the multilayer wiring layer L1 and the semiconductor substrate L2 is for insulating the second surface L2b of the semiconductor substrate L2, and is formed of, for example, an oxide film such as a silicon oxide film (SiO). It is configured.
  • the semiconductor substrate L2 is made of, for example, silicon (Si).
  • the PD 21 is widely provided in the thickness direction of the semiconductor substrate L2.
  • the PD 21 has, for example, an n-type impurity region.
  • the MEM 23 is provided at a position adjacent to the PD 21 in the Y-axis direction.
  • the MEM 23 has, for example, an n-type impurity region, and is provided at a position facing the gate electrode 22G of the multilayer wiring layer L1.
  • the MEM 23 is electrically connected to the PD 21, and a transfer path of signal charge from the PD 21 to the MEM 23 is provided in the semiconductor substrate L2.
  • a p-type impurity region 41a is provided between PD 21 and MEM 23 and the first surface L2a, and a p-type impurity region 41b is provided between PD 21 and MEM 23 and the second surface L2b.
  • the FD 25 is, for example, an n-type impurity region, and is provided at a position near the second surface L2b in the semiconductor substrate L2.
  • the FD 25 is provided, for example, so as to straddle the two pixel regions forming each of the sharing units 11 (FIG. 3 ).
  • the FD 25 is arranged at the center of each shared unit 11, and the PDs 21 (21-1, 21-2) and the MEM 23 (23-1, 23-2) are arranged outside.
  • the groove formation region 42 is provided in the semiconductor substrate L2.
  • the groove formation region 42 is a region in which a groove having a predetermined size is provided in the thickness direction (Z axis direction) of the semiconductor substrate L2.
  • the groove forming region 42 is provided with a groove having a size that does not penetrate the semiconductor substrate L2.
  • the groove formation region 42 is provided between the PD 21 and the MEM 23 of each of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B, for example.
  • the groove forming region 42 may be provided so as to surround the PD 21 in a plan view.
  • the light shielding layer L3 provided on the first surface L2a of the semiconductor substrate L2 has a light shielding portion 61 and an insulating film 62 that covers the light shielding portion 61.
  • the light shielding portion 61 includes a light shielding portion 61A provided so as to cover the first surface L2a of the semiconductor substrate L2 and a light shielding portion 61B embedded in the groove of the groove formation region 42.
  • the light blocking portion 61A is provided substantially parallel to the first surface L2a, and the light blocking portion 61B is provided substantially perpendicular to the first surface L2a.
  • the light shielding portion 61B corresponds to a first light shielding portion of the present disclosure
  • the light shielding portion 61A corresponds to a specific example of the second light shielding portion of the present disclosure.
  • FIG. 6 shows an example of the planar shape of the light shielding unit 61A.
  • the light shielding portion 61A has an opening 61M in a region facing the PD 21.
  • the opening 61M has, for example, a rectangular planar shape.
  • the long side of the opening 61M is provided in the X-axis direction, and the short side is provided in the Y-axis direction.
  • the direction of the long side of the imaging unit 111 having a rectangular planar shape is the X-axis direction. It is preferable that the direction of the long side of the imaging unit 111 and the direction of the long side of the opening 61M are substantially parallel. Thereby, it becomes possible to secure the oblique incidence characteristic in the image height direction.
  • the planar shape of the opening 61M may be a square or the like.
  • the light shielding portion 61A covers the MEM 23, the FD 25, and the like.
  • the light shielding portion 61B is provided between the PD 21 and the MEM 23 of each of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B.
  • the light shielding portion 61B may be provided so as to surround the PD 21 in a plan view.
  • the insulating film 62 and the light shielding portion 61B are embedded in this order in the groove of the groove forming region 42.
  • the light shielding portion 61 is made of, for example, tungsten (W), aluminum (Al), copper (Cu), or the like, and is connected to the ground potential (GND).
  • the insulating film 62 is made of, for example, silicon oxide (SiO2), hafnium oxide (HfO2), tantalum pentoxide (Ta2O5), zirconium dioxide (ZrO2), or the like.
  • the color filter layer 71 covers the first surface L2a of the semiconductor substrate L2 with the light shielding layer L3 in between.
  • the color filter layer 71 selectively transmits, for example, a red (R) filter that selectively transmits light in the red wavelength range, a green (G) filter that selectively transmits light in the green wavelength range, and a light in the blue wavelength range. It also includes a blue (B) filter that transmits light through.
  • a red filter is provided in the red pixel area 10R
  • a green filter is provided in the green pixel area 10G
  • a blue filter is provided in the blue pixel area 10B.
  • the red filter, the green filter, and the blue filter are provided in a regular color arrangement (for example, Bayer arrangement).
  • the on-chip lens 72 on the color filter layer 71 is provided at a position facing the PD 21 of each of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B.
  • the light incident on the on-chip lens 72 is focused on the PD 21 for each of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B.
  • the lens system of the on-chip lens 72 is set to a value according to the size of the pixel area. Examples of the lens material of the on-chip lens 72 include an organic material and a silicon oxide film (SiO).
  • one and the other of the two pixel regions forming the sharing unit 11 have a substantially mirror image relationship (FIG. 3 ), and the light shielding layer L3, the semiconductor substrate L2, and the multilayer wiring layer are provided.
  • the configurations of L1 are different from each other. That is, the optical characteristics of the light shielding layer L3, the semiconductor substrate L2, and the multilayer wiring layer L1 are different from each other between one and the other of the two pixel regions that form the sharing unit 11.
  • the light-shielding layer L3, the semiconductor substrate L2, and the multilayer wiring layer L1 in the pixel region for example, the blue pixel region 10B and the red pixel region 10R in FIG.
  • the light-shielding layer L3, the semiconductor substrate L2, and the multilayer wiring layer L1 in the pixel region (for example, the green pixel region 10G in FIG. 3) that has the first optical characteristic 11p and is arranged on the other side of the sharing unit 11 have the first optical characteristic 11p. It has a second optical characteristic 11m different from the optical characteristic 11p.
  • the shared portion 11 provided at the closest position in the Y-axis direction is displaced by one pixel region in the X-axis direction.
  • this allows the plurality of red pixel regions 10R and the plurality of blue pixel regions 10B of the image pickup unit 111 to have the first optical characteristic 11p, and the plurality of green pixel regions 10G of the image pickup unit 111 to be the second. Since the optical characteristics are 11 m, the difference in the optical characteristics between the plurality of pixel areas that receive the light of the same color becomes small.
  • FIG. 7 shows a schematic plan configuration of an image pickup apparatus (image pickup apparatus 100) according to a comparative example
  • FIG. 8 shows an enlarged view of the configuration of the sharing unit 11 shown in FIG. 7 and 8 correspond to FIGS. 2 and 3 showing the image pickup apparatus 1, respectively.
  • the image pickup apparatus 100 has a plurality of shared portions 11 configured by two pixel regions adjacent to each other in the X-axis direction, like the image pickup apparatus 1.
  • a plurality of shared portions 11 arranged in the Y-axis direction are arranged in a line. That is, in the imaging device 100, the shared portion 11 provided at the closest position in the Y-axis direction is not displaced. In this respect, the image pickup apparatus 100 is different from the image pickup apparatus 1.
  • the configuration of the green pixel region 10G differs depending on the pixel row.
  • the green pixel region 10G is arranged on one side of the shared portion 11 (on the left side of the paper surface of FIG. 7), and thus has the first optical characteristic 11p. ..
  • the green pixel region 10G and the blue pixel region 10B are alternately provided, the green pixel region 10G is arranged on the other side of the shared portion 11, and thus has the second optical characteristic 11m. That is, the optical characteristics of the green pixel region 10G differ depending on the pixel row. Particularly, in the miniaturized green pixel region 10G, the difference in optical characteristics tends to be large. Such a difference in the optical characteristic between the plurality of green pixel regions 10G causes periodic stripes and the like, which may deteriorate the image quality.
  • the light reflected by the multilayer wiring layer is likely to enter the semiconductor substrate (semiconductor substrate L2 in FIG. 5). Therefore, the difference in optical characteristics between the plurality of green pixel regions 10G greatly affects the image quality, as compared with the front-illuminated image pickup device.
  • the shared portion 11 provided at the closest position in the Y-axis direction is displaced by one pixel area in the X-axis direction, it is arranged in all the pixel rows of the image pickup section 111.
  • the green pixel region 10G is arranged on the other side of the shared portion 11.
  • all the green pixel regions 10G of the image pickup section 111 have substantially the same configuration, and these have the second optical characteristic 11m. Therefore, there is almost no difference in optical characteristics between the plurality of green pixel regions 10G, and deterioration of image quality can be suppressed. Particularly, in the backside illumination type image pickup apparatus 1, deterioration of image quality can be effectively suppressed.
  • the shared portion 11 provided at the closest position in the Y-axis direction is arranged so as to be displaced by one pixel area in the X-axis direction, and thus the same.
  • the difference in optical characteristics between the plurality of pixel regions that receive color light is reduced. Therefore, it is possible to suppress deterioration in image quality due to a difference in optical characteristics between a plurality of pixel regions that receive light of the same color.
  • FIG. 9 illustrates a schematic planar configuration of a main part of an imaging device (imaging device 1A) according to the first modification of the above-described embodiment.
  • FIG. 9 corresponds to FIG. 3 showing the image pickup apparatus 1.
  • an FD transistor (FDG) 29 is provided for each shared unit 11 in addition to the RST 26, AMP 27, and SEL 28.
  • the image pickup apparatus 1A according to Modification 1 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • FIG. 10 shows an example of the configuration of the pixel circuit of the image pickup apparatus 1A.
  • the FDG 29 is a switch transistor for switching the conversion efficiency, and is provided, for example, between the FD 25 and the additional capacitance (C) 25A.
  • C additional capacitance
  • FIG. 11 shows another example of the configuration of the pixel circuit of the image pickup apparatus 1A.
  • the C25A may be connected between the FDG 29 and the AMP 27.
  • FIG. 12A and 12B show a schematic configuration of a main part of an imaging device (imaging device 1B) according to Modification 2 of the above-described embodiment.
  • FIG. 12A shows a planar configuration of one pixel region (for example, blue pixel region 10B) of the image pickup apparatus 1B
  • FIG. 12B shows a cross-sectional configuration taken along the line BB′ shown in FIG. 12A.
  • the light shielding portion 61B has a penetrating region T61 and a non-penetrating region N61.
  • the penetrating region T61 and the non-penetrating region N61 of the light shielding portion 61B are also provided in the red pixel region 10R and the green pixel region 10G. Except for this point, the image pickup apparatus 1B according to Modification 2 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • the groove of the groove forming region 42 penetrates from the first surface L2a to the second surface L2b of the semiconductor substrate L2 (FIG. 12B).
  • the light shielding portion 61B fills the through groove of the semiconductor substrate L2.
  • the light shielding portion 61B is provided over the entire thickness direction of the semiconductor substrate L2. Thereby, the leakage of light into the MEM 23 can be effectively suppressed.
  • the groove of the groove forming region 42 is provided with a depth that does not reach the second surface L2b from the first surface L2a of the semiconductor substrate L2 (see FIG. 5 ).
  • the non-penetrating groove of the semiconductor substrate L2 is filled with the light shielding portion 61B.
  • the light shielding portion 61B is provided in a part of the semiconductor substrate L2 in the thickness direction.
  • a non-penetrating region N61 is provided between the PD 21 and adjacent pixel regions in the X-axis direction (pixel regions adjacent to each other).
  • a penetrating region T61 and a non-penetrating region N61 are provided between the PD 21 and the MEM 23 in one pixel region.
  • the non-penetrating region N61 between the PD21 and the MEM23 is provided on the OFG31 side (the left side of the paper surface of FIG. 12A), and the signal charge is transferred from the PD21 to the MEM23 via the non-penetrating region N61. ..
  • a penetrating region T61 and a non-penetrating region N61 are provided between the MEM 23 and the adjacent pixel regions in the Y-axis direction (the PDs 21 in the adjacent pixel regions).
  • the shared portion 11 provided at the closest position in the Y-axis direction is displaced by one pixel area in the X-axis direction, light of the same color is emitted.
  • the difference in optical characteristics between the plurality of pixel regions that receive light is reduced.
  • the light shielding portion 61B has the penetrating region T61 and the non-penetrating region N61, so that the difference between the first optical characteristic 11p and the second optical characteristic 11m is likely to be large. Therefore, the present technology is suitably used for the imaging device 1B.
  • FIG. 13 illustrates a schematic cross-sectional configuration of a main part of an imaging device (imaging device 1C) according to Modification 3 of the above-described embodiment.
  • FIG. 13 corresponds to FIG. 5 showing the image pickup apparatus 1.
  • the gate electrode 22G of the TRX 22 is embedded in the semiconductor substrate L2 from the multilayer wiring layer L1.
  • the image pickup apparatus 1C according to Modification 3 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • Such an embedded gate electrode 22G is provided, for example, between the PD 21 and the MEM 23.
  • the gate electrode 22G penetrates the insulating film 50 from the multilayer wiring layer L1 and is embedded in the semiconductor substrate L2.
  • transfer of signal charges from the PD 21 to the MEM 23 is assisted. Therefore, it is possible to transfer the signal charges from the PD 21 to the MEM 23 more reliably.
  • the TRX 22 has the buried type gate electrode 22G, so that it is possible to transfer the signal charges from the PD 21 to the MEM 23 more reliably.
  • FIG. 14 shows a schematic plan configuration of a main part of an imaging device (imaging device 1D) according to Modification 4 of the above embodiment.
  • FIG. 14 corresponds to FIG. 2 showing the image pickup apparatus 1.
  • the sharing unit 11 is configured by two pixel regions (green pixel region 10G and red pixel region 10R, or green pixel region 10G and blue pixel region 10B) that are adjacent to each other in the Y-axis direction. Except for this point, the image pickup apparatus 1D according to Modification 4 has the same configuration as the image pickup apparatus 1 according to the above-described embodiment, and has the same operation and effect.
  • FIG. 15 shows a planar configuration of two shared parts 11 provided at the closest positions in the X-axis direction among the plurality of shared parts 11 shown in FIG.
  • This FIG. 15 corresponds to FIG. 3 showing the image pickup apparatus 1.
  • the shared portion 11 provided at the closest position in the X-axis direction is displaced by one pixel area in the Y-axis direction.
  • the plurality of red pixel regions 10R and the plurality of blue pixel regions 10B of the image pickup unit 111 (FIG. 3) have the first optical characteristic 11p
  • the plurality of green pixel regions 10G of the image pickup unit 111 have the second optical characteristic. Since it has the characteristic 11 m, the difference in optical characteristics between the plurality of pixel regions that receive the light of the same color becomes small.
  • the shared portion 11 provided at the closest position in the X-axis direction may be displaced by one pixel area in the Y-axis direction.
  • the difference in optical characteristics between the plurality of pixel regions that receive light of the same color is small.
  • FIG. 16 illustrates a schematic plan configuration of a main part of an imaging device (imaging device 1E) according to Modification 5 of the above-described embodiment.
  • FIG. 16 corresponds to FIG. 2 showing the image pickup apparatus 1.
  • the shared portion 11 is configured by four pixel regions (red pixel region 10R, blue pixel region 10B, and two green pixel regions 10G) that are close to each other in the X-axis direction and the Y-axis direction. Except for this point, the image pickup apparatus 1E according to Modification 5 has the same configuration as the image pickup apparatus 1 of the above-described embodiment, and the operation and effect thereof are also the same.
  • FIG. 17 shows a planar configuration of one sharing unit 11 among the plurality of sharing units 11 shown in FIG.
  • the sharing unit 11 includes two sets of two pixel regions adjacent to each other in the X-axis direction (2 ⁇ 2). The two sets are provided at the closest position in the Y-axis direction and are displaced by one pixel area in the X-axis direction. That is, of the four pixel regions forming the shared portion 11, only two pixel regions (for example, the blue pixel region 10B and the green pixel region 10G) are provided adjacent to each other in the Y-axis direction.
  • the RST 26 and the AMP 27 are provided so as to straddle the blue pixel region 10B and the green pixel region 10G which are adjacent to each other in the X axis direction, and the SEL 28 is provided in the X axis direction. It is provided so as to straddle the red pixel region 10R and the green pixel region 10G adjacent to each other.
  • the FDs 25 in each of the four pixel regions are connected to each other by, for example, a wiring 51F.
  • the two pixel regions adjacent to each other in the X-axis direction have a substantially mirror image relationship with each other.
  • the shared portion 11 provided at the closest position in the Y-axis direction is displaced by one pixel area in the X-axis direction. Accordingly, as described in the above embodiment, the plurality of red pixel regions 10R and the plurality of blue pixel regions 10B of the image pickup unit 111 (FIG. 3) have the first optical characteristic 11p, and the image pickup unit 111.
  • the plurality of green pixel regions 10G having the second optical characteristic 11m have the second optical characteristic 11m, and thus the difference in the optical characteristic between the plurality of pixel regions receiving the light of the same color is small.
  • the shared portion 11 may include two sets of two pixel regions adjacent to each other in the Y-axis direction. At this time, the shared portion 11 provided at the closest position in the X-axis direction is displaced by one pixel region in the Y-axis direction.
  • FIG. 18 shows an example of the configuration of the pixel circuit of the image pickup apparatus 1E.
  • the four pixel regions forming the sharing unit 11 are PD21 (PD21-1, 21-2, 21-3, 21-4) and TRX22 (TRX22-1, 22-2, 22-3, 22-4), respectively.
  • MEM23 MEM23-1,23-2,23-3,23-4)
  • TRG24 TRG24-1,24-2,24-3,24-4.
  • the TRGs 24-1, 24-2, 24-3, 24-4 are connected to the FD 25.
  • An RST 26 is connected to the FD 25 together with TRGs 24-1, 24-2, 24-3, 24-4. Further, the FD 25 is connected to the vertical signal line VSL via the AMP 27 and the SEL 28.
  • the PDs 21-1, 21-2, 21-3, 21-4 have TRGs 22-1, 22-2, 22-3, 22-4 as well as OFGs 31-1, 31-2, 31-3, 31-4.
  • OFDs 32-1, 32-2, 32-3, 32-4 are connected via the.
  • FIG. 19 shows another example of the planar configuration of the sharing unit 11 shown in FIG. 17, and FIG. 20 shows an example of the circuit configuration of the sharing unit 11 shown in FIG.
  • the imaging device 1E may have the FDG 29 in addition to the RST 26, the AMP 27, and the SEL 28 for each shared unit 11, as described in the imaging device 1A.
  • the shared portion 11 may be configured by four pixel regions that are close to each other in the X-axis direction and the Y-axis direction.
  • the difference in optical characteristics between the plurality of pixel regions that receive the light of the same color is small.
  • FIG. 21 shows a schematic configuration of the electronic device 3 (camera) as an example.
  • the electronic device 3 is, for example, a camera capable of shooting a still image or a moving image, and includes the imaging devices 1 and 1A to 1E, an optical system (optical lens) 310, a shutter device 311, and the imaging device 1 and the shutter device 311. It has a driving unit 313 for driving and a signal processing unit 312.
  • the optical system 310 guides image light (incident light) from a subject to the image pickup apparatus 1.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls a light irradiation period and a light shielding period of the image pickup device 1.
  • the drive unit 313 controls the transfer operation of the imaging device 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various kinds of signal processing on the signal output from the imaging device 1.
  • the video signal Dout after the signal processing is stored in a storage medium such as a memory or output to a monitor or the like.
  • image pickup devices 1 and 1A to 1E described in the above embodiments and the like can be applied to the following electronic devices (moving bodies such as vehicles).
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is applicable to any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a device mounted on the body.
  • FIG. 22 is a block diagram showing a schematic configuration example of a vehicle control system which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, a voice image output unit 12052, and an in-vehicle network I/F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 12020 may receive radio waves or signals of various switches transmitted from a portable device that substitutes for a key.
  • the body system control unit 12020 receives these radio waves or signals and controls the vehicle door lock device, power window device, lamp, and the like.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the image capturing unit 12031 to capture an image of the vehicle exterior and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of tiredness or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether or not the driver is asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes functions of ADAS (Advanced Driver Assistance System) including collision avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, a vehicle collision warning, or a vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, thereby It is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the voice image output unit 12052 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to a passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 23 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the image capturing unit 12031 includes image capturing units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image capturing unit 12101 provided on the front nose and the image capturing unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the image capturing unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 23 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in a rear bumper or a back door is shown.
  • a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image capturing units 12101 to 12104 may be a stereo camera including a plurality of image capturing elements or may be an image capturing element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object within the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100). By determining, the closest three-dimensional object on the traveling path of the vehicle 12100, which is traveling in the substantially same direction as the vehicle 12100 at a predetermined speed (for example, 0 km/h or more), can be extracted as the preceding vehicle. it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 uses the distance information obtained from the image capturing units 12101 to 12104 to convert three-dimensional object data regarding a three-dimensional object into another three-dimensional object such as a two-wheeled vehicle, an ordinary vehicle, a large vehicle, a pedestrian, and a utility pole. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, the microcomputer 12051 outputs the audio through the audio speaker 12061 and the display unit 12062. A driver can be assisted for collision avoidance by outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize the pedestrian by determining whether or not the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • a procedure of extracting a feature point in an image captured by the image capturing units 12101 to 12104 as an infrared camera and a pattern matching process on a series of feature points indicating the contour of an object are performed to determine whether the pedestrian is a pedestrian. It is performed by the procedure of determining.
  • the audio image output unit 12052 causes the recognized pedestrian to have a rectangular contour line for emphasis.
  • the display unit 12062 is controlled so as to superimpose and display.
  • the audio image output unit 12052 may control the display unit 12062 to display an icon indicating a pedestrian or the like at a desired position.
  • the above has described an example of the vehicle control system to which the technology according to the present disclosure can be applied.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • By applying the technology according to the present disclosure to the image capturing unit 12031 it is possible to obtain a captured image that is easier to see, and thus it is possible to reduce fatigue of the driver.
  • the present disclosure is not limited to the above-described embodiment and the like, and various modifications can be made.
  • the configuration of the imaging device described in the above-described embodiments and the like is an example, and another layer may be further provided.
  • the material and thickness of each layer are also examples, and the present invention is not limited to the above.
  • the sharing unit 11 is configured by two pixel regions or four pixel regions
  • the number of pixel regions configuring the sharing unit 11 is not limited to these.
  • the sharing unit 11 may be configured by eight pixel regions.
  • FIG. 24 shows an example of a pixel circuit of an image pickup device having a sharing unit 11 composed of eight pixel regions.
  • the eight pixel regions forming the sharing unit 11 are PD21 (PD21-1, 21-2, 21-3, 21-4, 21-5, 21-6, 21-7, 21-8) and TRX22( TRX22-1,22-2,22-3,22-4,22-5,22-6,22-7,22-8), MEM23 (MEM23-1,23-2,23-3,23-4) , 23-5, 23-6, 23-7, 23-8) and TRG24 (TRG24-1,24-2,24-3,24-4,24-5,24-6,24-7,24- 8).
  • the TRGs 24-1, 24-2, 24-3, 24-4, 24-5, 24-6, 24-7, 24-8 are connected to the FD 25.
  • An RST 26 is connected to the FD 25 together with TRGs 24-1, 24-2, 24-3, 24-4, 24-5, 24-6, 24-7, 24-8.
  • the FD 25 is connected to the vertical signal line VSL via the AMP 27 and the SEL 28.
  • PD21-1, 21-2, 21-3, 21-4, 21-5, 21-6, 21-7, 21-8 have TRX22-1, 22-2, 22-3, 22-4, 22-5, 22-6, 22-7, 22-8, and OFG 31-1, 31-2, 31-3, 31-4, 31-5, 31-6, 31-7, 31-8 OFD 32-1, 32-2, 32-3, 32-4, 32-5, 32-6, 32-7, 32-8 are connected.
  • FIG. 3 and the like show an example of the planar configuration of the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B, but the red pixel region 10R, the green pixel region 10G, and the blue pixel region 10B are different from each other. It may have a planar configuration.
  • FIG. 25 shows another example of the planar configuration of the red pixel area 10R, the green pixel area 10G, and the blue pixel area 10B.
  • the TRX22 (MEM23) and the TRG24 may be provided between the PD21 and the FD25 in this order from the PD21 side.
  • the transfer path of the signal charge from the MEM 23 to the FD 25 becomes short.
  • the backside illumination type imaging device has been described, but the present disclosure may be used for the frontside illumination type imaging device.
  • the present disclosure may have the following configurations.
  • the shared portion provided at the closest position in the second direction is arranged so as to be displaced by one pixel region in the first direction, and thus the same color light is received.
  • the difference in optical characteristics between the plurality of pixel regions becomes small. Therefore, it is possible to suppress deterioration in image quality due to a difference in optical characteristics between a plurality of pixel regions that receive light of the same color.
  • a plurality of shared portions including at least two pixel regions adjacent to each other in the first direction are provided, and the shared portion provided at the closest position in the second direction intersecting the first direction is arranged in the first direction.
  • An image pickup unit arranged so as to be displaced by one of the pixel regions; A photoelectric conversion unit provided for each pixel region, A charge holding unit that holds the signal charges generated by the photoelectric conversion unit, A charge-voltage conversion unit to which the signal charges are transferred from the charge holding unit, An image pickup device comprising: a pixel transistor that is electrically connected to the charge-voltage conversion unit and that is provided for each of the sharing units.
  • the pixel region includes a first pixel region in which light in a predetermined wavelength region is incident on the photoelectric conversion unit, and a second pixel region in which light in a wavelength region different from the first pixel region is incident on the photoelectric conversion unit.
  • the second pixel region is arranged in one of the first directions, and the second pixel region is arranged in the other of the first directions. .. (3)
  • the imaging device according to (2) in which light in the green wavelength range is incident on the photoelectric conversion unit in the first pixel region.
  • a semiconductor substrate provided with the photoelectric conversion unit, the charge holding unit, and the charge-voltage conversion unit,
  • a multilayer wiring layer including a wiring that is provided by being stacked on the semiconductor substrate and that is electrically connected to the charge-voltage converter, The imaging device according to (4), further including a color filter layer facing the multilayer wiring layer with the semiconductor substrate interposed therebetween.
  • the first light-shielding portion has a through region provided so as to penetrate the semiconductor substrate in the thickness direction, and a non-penetrating region provided at a part of the semiconductor substrate in the thickness direction (4) or ( The imaging device according to 5).
  • a second light-shielding portion that is provided on the light incident side of the photoelectric conversion portion and that covers the charge holding portion and has an opening in a region facing the photoelectric conversion portion is provided.
  • the imaging device according to any one of (1) to (6), wherein the imaging unit and the opening have a rectangular planar shape having long sides in the first direction.
  • the imaging device according to any one of (1) to (7), wherein the photoelectric conversion unit and the charge holding unit are provided side by side in the second direction.
  • the said shared part is an imaging device as described in any one of said (1) thru
  • a first transfer transistor that transfers the signal charge from the photoelectric conversion unit to the charge holding unit
  • the imaging device according to any one of (1) to (9), further including a second transfer transistor that transfers the signal charge from the charge holding unit to the charge-voltage conversion unit.
  • the pixel transistor includes at least one of a reset transistor, an amplification transistor, and a selection transistor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

少なくとも第1方向に隣り合う2つの画素領域を含む共有部が複数設けられ、かつ、前記第1方向に交差する第2方向の最も近い位置に設けられた前記共有部は、前記第1方向に1つの前記画素領域分ずれて配置されている、撮像部と、前記画素領域毎に設けられた光電変換部と、前記光電変換部で生成された信号電荷が保持される電荷保持部と、前記電荷保持部から前記信号電荷が転送される電荷電圧変換部と、前記電荷電圧変換部に電気的に接続されるとともに、前記共有部毎に設けられた画素トランジスタとを備えた撮像装置。

Description

撮像装置
 本技術は、グローバルシャッター機能を有する撮像装置に関する。
 近年、グローバルシャッター機能を有する裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ(撮像装置)が注目されている(例えば、特許
文献1参照)。このようなイメージセンサは、画素領域毎に電荷保持部を有している。光電変換部から転送された信号電荷が、この電荷保持部に一旦保持される。
 撮像装置は、例えばカラーフィルタ層を有している。カラーフィルタ層は、赤色波長域の光を選択的に透過する赤色フィルタ、緑色波長域の光を選択的に透過する緑色フィルタ、および青色波長域の光を選択的に透過する青色フィルタを含んでいる。このカラーフィルタ層は、例えば、ベイヤー(Bayer)配列を有している(例えば、特許文献2参照)。
特開2015-228510号公報 特開2005-110104号公報
 このような撮像装置では、画質の低下を抑えることが望まれている。
 したがって、画質の低下を抑えることが可能な撮像装置を提供することが望ましい。
 本技術の一実施の形態に係る撮像装置は、少なくとも第1方向に隣り合う2つの画素領域を含む共有部が複数設けられ、かつ、第1方向に交差する第2方向の最も近い位置に設けられた共有部は、第1方向に1つの画素領域分ずれて配置されている、撮像部と、画素領域毎に設けられた光電変換部と、光電変換部で生成された信号電荷が保持される電荷保持部と、電荷保持部から信号電荷が転送される電荷電圧変換部と、電荷電圧変換部に電気的に接続されるとともに、共有部毎に設けられた画素トランジスタとを備えたものである。
 本技術の一実施の形態に係る撮像装置では、第2方向の最も近い位置に設けられた共有部が、第1方向に1つの画素領域分ずれて配置されているので、同じ色の光を受光する複数の画素領域の構成が揃い易くなる。
本技術の一実施の形態に係る撮像装置の機能構成の一例を表すブロック図である。 図1に示した撮像部の構成の一例を表す平面模式図である。 図1に示した赤色画素領域,緑色画素領域,青色画素領域の構成の一例を表す平面模式図である。 図3に示した共有部それぞれの回路構成の一例を表す図である。 図3に示したV-V’線に沿った断面構成を表す模式図である。 図5に示した遮光部の構成を表す平面模式図である。 比較例に係る撮像装置の要部の構成を表す平面模式図である。 図7に示した赤色画素領域,緑色画素領域,青色画素領域の構成を表す平面模式図である。 変形例1に係る撮像装置の要部の構成を表す平面模式図である。 図9に示した共有部それぞれの回路構成の一例を表す図である。 図10に示した回路構成の他の例を表す図である。 変形例2に係る撮像装置の要部の構成を表す平面模式図である。 図12Aに示したB-B’線に沿った断面構成を表す模式図である。 変形例3に係る撮像装置の要部の構成を表す断面模式図である。 変形例4に係る撮像装置の要部の構成を表す平面模式図である。 図14に示した赤色画素領域,緑色画素領域,青色画素領域の構成の一例を表す平面模式図である。 変形例5に係る撮像装置の要部の構成を表す平面模式図である。 図16に示した赤色画素領域,緑色画素領域,青色画素領域の構成の一例を表す平面模式図である。 図17に示した共有部の回路構成の一例を表す図である。 図17に示した共有部の平面構成の他の例を表す模式図である。 図19に示した共有部の回路構成の一例を表す図である。 図1等に示した撮像装置を用いた電子機器(カメラ)の一例を表す機能ブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 図18等に示した共有部の回路構成の他の例を表す図である。 図3等に示した赤色画素領域,緑色画素領域,青色画素領域の平面構成の他の例を表す平面模式図である。
 以下、本技術の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 1.実施の形態(X方向に隣り合う2つの画素領域を含む共有部を有する撮像装置の例)
 2.変形例1(FDトランジスタを有する例)
 3.変形例2(遮光部が貫通領域を有する例)
 4.変形例3(埋込型のゲート電極を有する例)
 5.変形例4(Y方向に隣り合う2つの画素領域を含む共有部を有する例)
 6.変形例5(4つの画素領域を含む共有部を有する例)
 7.適用例
 8.応用例
<実施の形態>
[撮像装置1の構成]
 図1は、本技術の一実施の形態に係る撮像装置1の機能の構成例を示すブロック図である。
 撮像装置1は、例えばCMOSイメージセンサ等からなるグローバルシャッター方式の裏面照射型のイメージセンサである。撮像装置1では、被写体からの光を受光して光電変換し、画像信号を生成することで画像が撮像されるようになっている。なお、本技術はCMOSイメージセンサへの適用に限られるものではない。この撮像装置1は、複数の半導体チップが積層された構造を有していてもよく、あるいは、単一の半導体チップにより構成されていてもよい。
 グローバルシャッター方式とは、基本的には全画素同時に露光を開始し、全画素同時に露光を終了するグローバル露光を行う方式である。ここで、全画素とは、画像に現れる部分の画素の全てということであり、ダミー画素等は除外される。また、時間差や画像の歪みが問題にならない程度に十分小さければ、全画素同時ではなく、複数行(例えば、数十行)単位でグローバル露光を行いながら、グローバル露光を行う領域を移動する方式もグローバルシャッター方式に含まれる。また、画像に表れる部分の画素の全てでなく、所定領域の画素に対してグローバル露光を行う方式もグローバルシャッター方式に含まれる。
 撮像装置1は、撮像部111、垂直駆動部112、ランプ波モジュール113、クロックモジュール114、データ格納部115、水平駆動部116、システム制御部117、及び、信号処理部118を含むように構成される。
 図2は、撮像部111の平面構成を模式的に表したものである。撮像部111は、撮像装置1の中央部に設けられている(図1)。撮像部111の平面形状(XY平面の形状)は、例えば矩形である。この撮像部111は、例えばマトリクス(行列)状に配置された複数の画素領域(赤色画素領域10R,緑色画素領域10G,青色画素領域10B)を含んでいる。赤色画素領域10Rは赤色波長域の光を受光し、緑色画素領域10Gは緑色波長域の光を受光し、青色画素領域10Bは青色波長域の光を受光する。赤色画素領域10R,緑色画素領域10G,青色画素領域10Bは、カラーフィルタ層(後述の図3Bのカラーフィルタ層71)のベイヤー配列に応じて配置されている。即ち、2つの緑色画素領域10Gと、1つの赤色画素領域10Rと、1つの青色画素領域10Bとが繰り返し単位となり、この繰り返し単位が周期的に配置されている。緑色画素領域10Gは、対角方向に並んで設けられている。例えば、撮像部111では、行方向に配列された画素領域からなる画素行(X軸方向に並ぶ画素領域)ごとに、画素駆動線(不図示)が行方向に沿って配線され、列方向に配列された画素領域からなる画素列(Y軸方向に並ぶ画素領域)ごとに、垂直信号線(後述の図4の垂直信号線VSL)が列方向に沿って配線されている。ここでは、緑色画素領域10Gが本開示の第1画素領域、赤色画素領域10Rおよび緑色画素領域10Gが本開示の第2画素領域の一具体例にそれぞれ対応する。
 撮像部111は、X軸方向に隣り合う2つの画素領域(青色画素領域10Bと緑色画素領域10G、または赤色画素領域10Rと緑色画素領域10G)により構成された共有部11を複数有している。共有部11の具体的な構成については、後述する。X軸方向が本開示の第1方向、Y軸方向が本開示の第2方向にそれぞれ対応する。
 垂直駆動部112は、例えば、シフトレジスタやアドレスデコーダなどからなる。この垂直駆動部112は、複数の画素駆動線を介して各画素に信号等を供給することで、撮像部111の各画素を全画素同時に、または行単位等で駆動する。
 ランプ波モジュール113は、画素信号のA/D(Analog/Digital)変換に用いるランプ波信号を生成し、カラム処理部(不図示)に供給する。なお、カラム処理部は、例えば、シフトレジスタやアドレスデコーダなどからなり、ノイズ除去処理、相関二重サンプリング処理、A/D変換処理等を行い、画素信号を生成する。カラム処理部は、生成した画素信号を信号処理部118に供給する。
 クロックモジュール114は、撮像装置1の各部に動作用のクロック信号を供給する。
 水平駆動部116は、カラム処理部の画素列に対応する単位回路を順番に選択する。この水平駆動部116による選択走査により、カラム処理部において単位回路ごとに信号処理された画素信号が順番に信号処理部118に出力される。
 システム制御部117は、各種のタイミング信号を生成するタイミングジェネレータ等からなる。システム制御部117は、タイミングジェネレータで生成されたタイミング信号に基づいて、垂直駆動部112、ランプ波モジュール113、クロックモジュール114、水平駆動部116、及び、カラム処理部の駆動制御を行なう。
 信号処理部118は、必要に応じてデータ格納部115にデータを一時的に格納しながら、カラム処理部から供給された画素信号に対して演算処理等の信号処理を行ない、各画素信号からなる画像信号を出力する。
 次に、共有部11の具体的な構成について説明する。
 図3は、Y軸方向の最も近い位置に配置された2つの共有部11の平面構成を表している。撮像部111は、青色画素領域10Bと緑色画素領域10Gとが交互に設けられた画素行と、赤色画素領域10Rと緑色画素領域10Gとが交互に設けられた画素行とを有している(図2)。撮像部111では、この2種類の画素行が交互に配置されている。即ち、撮像部111は、青色画素領域10Bおよび緑色画素領域10Gを含む共有部11と、赤色画素領域10Rおよび緑色画素領域10Gを含む共有部11とを有しており、Y軸方向に沿って、これらの2種類の共有部11が交互に設けられている。
 赤色画素領域10R、緑色画素領域10Gおよび青色画素領域10Bはそれぞれ、フォトダイオード(PD)21、第1転送トランジスタ(TRX)22、電荷保持部(MEM)23、第2転送トランジスタ(TRG)24、オーバーフローゲート(OFG)31およびオーバーフロードレイン(OFD)32を有している。TRX22およびMEM23は、平面(XY平面)視で重なる位置に設けられている。PD21およびMEM23は、Y軸方向(共有部11を構成する2つの画素領域の並び方向と直交する方向)に並んで配置されている。ここでは、PD21が本開示の光電変換部の一具体例に対応する。
 各共有部11は、フローティングディフュージョン(FD)25、リセットトランジスタ(RST)26、増幅トランジスタ(AMP)27および選択トランジスタ(SEL)28を有している。換言すれば、共有部11毎に、FD25、RST26、AMP27およびSEL28が配置されている。このように、2つの画素領域(青色画素領域10Bと緑色画素領域10G、または赤色画素領域10Rと緑色画素領域10G)でFD25、RST26、AMP27およびSEL28を共有することにより、PD21およびMEM23の領域をより有効活用しやすくなる。ここでは、FD25が、本開示の電荷電圧変換部の一具体例に対応し、RST26、AMP27およびSEL28が本開示の画素トランジスタの一具体例に対応する。
 図4は、撮像装置1の画素回路の構成の一例を表したものである。共有部11を構成する一方の画素領域(例えば、青色画素領域10B)では、PD21-1とMEM23-1との間にTRX22-1が設けられ、MEM23-1にTRG24-1が接続されている。共有部11を構成する他方の画素領域(例えば、緑色画素領域10G)では、PD21-2とMEM23-2との間にTRX22-2が設けられ、MEM23-2にTRG24-2が接続されている。TRG24-1,24-2は、FD25に接続されている。このFD25には、TRG24-1,24-2とともに、RST26が接続されている。また、FD25は、AMP27およびSEL28を介して垂直信号線VSLに接続されている。PD21-1,PD21-2には、TRX22-1,22-2とともに、OFG31-1,31-2を介してOFD32-1,32-2が接続されている。
 赤色画素領域10R、緑色画素領域10G,青色画素領域10B毎に設けられたPD21(21-1,21-2)では、被写体からの光を受光し、光電変換がなされるようになっている。PD21は、受光量に応じた信号電荷を生成し、蓄積する。
 TRX22(22-1,22-2)の一対のソース・ドレイン電極の一方が、PD21に接続され、他方がMEM23に接続されている。TRX22は、そのゲートに第1転送信号が入力された際にオン状態となる。これにより、PD21で生成された信号電荷が読み出され、MEM23に転送される。
 MEM23(23-1,23-2)は、TRX22およびTRG24(24-1,24-2)に接続されている。このMEM23は、PD21で生成された信号電荷を、一旦保持するための電荷保持部である。撮像装置1では、このMEM23が設けられているので、グローバルシャッター機能が実現される。
 TRG24の一対のソース・ドレイン電極の一方が、MEM23に接続され、他方がFD25に接続されている。TRG24は、そのゲートに第2転送信号が入力された際にオン状態となる。これにより、MEM23に一旦保持された信号電荷が読み出され、FD25に転送される。
 FD25には、TRG24、RST26およびAMP27が接続されている。このFD25は、MEM23から読み出された信号電荷を保持するとともに、これを電圧(電位)に変換するものである。
 RST26は、定電圧源VDDの供給端子と、FD25との間に設けられている。RST26は、そのゲートにリセット信号が入力された際にオン状態となる。これにより、FD25に蓄積されている電荷が定電圧源VDDに排出され、FD25の電位がリセットされる。
 AMP27は、そのゲートがFD25に、一対のソース・ドレイン電極の一方が定電圧源VDDの供給端子に、他方がSEL28を介して垂直信号線VSLに、それぞれ接続されている。このAMP27は、FD25の電位を増幅し、その増幅信号を画素信号としてSEL28に出力するものである。
 SEL28は、AMP27と垂直信号線VSLとの間に設けられている。SEL28は、そのゲートにアドレス信号が入力された際にオン状態となる。これにより、AMP27で増幅された画素信号が制御されて、垂直信号線VSLに出力される。
 OFG31(31-1,31-2)は、OFD32(32-1,32-2)と、PD21との間に設けられている。OFG31は、そのゲートに排出信号が入力された際にオン状態となる。これにより、PD21に蓄積されている不要電荷がOFG31に排出される。
 図5は、撮像部111の要部の断面構成を模式的に表したものであり、図3に示したV-V’線に沿った断面構成に対応している。
 撮像装置1は、多層配線層L1と多層配線層L1に積層された半導体基板L2とを有している。半導体基板L2は、対向する第1面L2aおよび第2面L2bを有している。半導体基板L2の第2面L2bに絶縁膜50を介して多層配線層L1が設けられ、第1面L2aが受光面を構成している。この撮像装置1は、裏面照射型の撮像装置である。
 半導体基板L2の第2面L2b近傍には、TRX22およびTRG24が設けられている。半導体基板L2の第2面L2b近傍に、RST26、AMP27およびSEL28(図3)が設けられていてもよい。半導体基板L2の第1面L2a上には、例えば、遮光層L3、カラーフィルタ層71およびオンチップレンズ72がこの順に設けられている。半導体基板L2内には、PD21、MEM23およびFD25(図5には図示せず)が設けられている。カラーフィルタ層71は、半導体基板L2を間にして多層配線層L1に対向している。
 多層配線層L1は例えば支持基板(図示せず)に支持されており、多層配線層L1を間にして支持基板と半導体基板L2とが対向している。多層配線層L1は、PD21に電気的に接続された複数の配線51と、この複数の配線51を互いに分離するための層間絶縁膜52とを有している。複数の配線51は、例えば、PD21で生成した信号電荷を読み出すためのものであり、多層配線層L1には、例えば、赤色画素領域10R,緑色画素領域10G,青色画素領域10Bを駆動するための回路が設けられている。例えば、多層配線層L1のうち、半導体基板L2側にはTRX22のゲート電極22Gが設けられている。ゲート電極22Gは、例えば、平面視でMEM23に重なる位置に配置されている。
 多層配線層L1と半導体基板L2との間に設けられた絶縁膜50は、半導体基板L2の第2面L2bを絶縁するためのものであり、例えば、シリコン酸化膜(SiO)等の酸化膜により構成されている。
 半導体基板L2は、例えばシリコン(Si)により構成されている。PD21は、半導体基板L2の厚み方向にわたって広く設けられている。このPD21は、例えばn型不純物領域を有している。PD21のY軸方向に隣り合う位置に、MEM23が設けられている。このMEM23は、例えば、n型不純物領域を有しており、多層配線層L1のゲート電極22Gに対向する位置に設けられている。MEM23は、PD21に電気的に接続されており、半導体基板L2内には、PD21からMEM23への信号電荷の転送経路が設けられている。PD21およびMEM23と第1面L2aとの間にはp型不純物領域41aが設けられており、PD21およびMEM23と第2面L2bとの間にはp型不純物領域41bが設けられている。FD25は、例えば、n型の不純物領域であり、半導体基板L2内の第2面L2bに近い位置に設けられている。FD25は、例えば、共有部11それぞれを構成する2つの画素領域に跨るように設けられている(図3)。例えば、各共有部11の中央部にFD25が配置され、外側にPD21(21-1,21-2)およびMEM23(23-1,23-2)が配置されている。
 半導体基板L2には、溝形成領域42が設けられている。この溝形成領域42は、半導体基板L2の厚み方向(Z軸方向)に所定の大きさの溝が設けられた領域である。例えば、溝形成領域42には、半導体基板L2を貫通しない程度の大きさの溝が設けられている。溝形成領域42は、例えば、赤色画素領域10R,緑色画素領域10Gおよび青色画素領域10B各々のPD21とMEM23との間に設けられている。平面視でPD21を囲むように溝形成領域42を設けるようにしてもよい。
 半導体基板L2の第1面L2aに設けられた遮光層L3は、遮光部61と、遮光部61を覆う絶縁膜62とを有している。遮光部61は、半導体基板L2の第1面L2aを覆うように設けられた遮光部61Aと、溝形成領域42の溝に埋め込まれた遮光部61Bとを含んでいる。遮光部61Aは第1面L2aに略平行に設けられ、遮光部61Bは第1面L2aに略垂直に設けられている。ここでは、遮光部61Bが本開示の第1遮光部、遮光部61Aが本開示の第2遮光部の一具体例に対応する。
 図6は、遮光部61Aの平面形状の一例を表している。遮光部61Aは、PD21に対向する領域に開口61Mを有している。開口61Mは、例えば矩形の平面形状を有している。例えば、この開口61Mの長辺はX軸方向に設けられ、短辺はY軸方向に設けられている。例えば、矩形の平面形状を有する撮像部111の長辺の方向はX軸方向である。撮像部111の長辺の方向と、開口61Mの長辺の方向とが略平行であることが好ましい。これにより、像高方向での斜入射特性を確保することが可能となる。開口61Mの平面形状は正方形等であってもよい。遮光部61Aは、MEM23およびFD25等を覆っている。
 遮光部61Bは、溝形成領域42と同様に、赤色画素領域10R,緑色画素領域10Gおよび青色画素領域10B各々のPD21とMEM23との間に設けられている。平面視でPD21を囲むように遮光部61Bを設けるようにしてもよい。このように、半導体基板L2に埋め込まれた遮光部61Bを設けることにより、斜め方向からPD21に入射した光が、MEM23へ漏れこみことが抑えられる。よって、MEM23への光の漏れ込みに起因した光学的なノイズの発生を抑えることができる。溝形成領域42の溝には、絶縁膜62および遮光部61Bがこの順に埋め込まれている。
 遮光部61は、例えば、タングステン(W),アルミニウム(Al)または銅(Cu)等により構成されており、接地電位(GND)に接続されている。絶縁膜62は、例えば、酸化シリコン(SiO2),酸化ハフニウム(HfO2),五酸化タンタル(Ta2O5)または二酸化ジルコニウム(ZrO2)等により構成されている。
 カラーフィルタ層71は、遮光層L3を間にして、半導体基板L2の第1面L2aを覆っている。このカラーフィルタ層71は、例えば赤色波長域の光を選択的に透過する赤色(R)フィルタ、緑色波長域の光を選択的に透過する緑色(G)フィルタおよび青色波長域の光を選択的に透過する青色(B)フィルタを含んでいる。例えば、赤色画素領域10Rには赤色フィルタ、緑色画素領域10Gには緑色フィルタ、青色画素領域10Bには青色フィルタが設けられている。この赤色フィルタ、緑色フィルタおよび青色フィルタは、規則的な色配列(例えばベイヤー配列)で設けられている。このようなカラーフィルタ層71を設けることにより、撮像装置1では、その色配列に対応したカラーの受光データが得られる。
 カラーフィルタ層71上のオンチップレンズ72は、赤色画素領域10R,緑色画素領域10G,青色画素領域10B各々のPD21に対向する位置に設けられている。このオンチップレンズ72に入射した光は、赤色画素領域10R,緑色画素領域10G,青色画素領域10B毎にPD21に集光されるようになっている。このオンチップレンズ72のレンズ系は、画素領域のサイズに応じた値に設定されている。オンチップレンズ72のレンズ材料としては、例えば有機材料やシリコン酸化膜(SiO)等が挙げられる。
 このような構成を有する撮像装置1では、共有部11を構成する2つの画素領域の一方と他方とが、ほぼ鏡像の関係にあり(図3)、遮光層L3、半導体基板L2および多層配線層L1の構成が互いに異なっている。即ち、共有部11を構成する2つの画素領域の一方と他方とは、遮光層L3、半導体基板L2および多層配線層L1の光学的特性が互いに異なる。例えば、共有部11の一方(図3の紙面左側)に配置された画素領域(例えば、図3の青色画素領域10B,赤色画素領域10R)の遮光層L3、半導体基板L2および多層配線層L1が第1の光学特性11pを有し、共有部11の他方に配置された画素領域(例えば、図3の緑色画素領域10G)の遮光層L3、半導体基板L2および多層配線層L1が、第1の光学特性11pとは異なる第2の光学特性11mを有している。本実施の形態では、Y軸方向の最も近い位置に設けられた共有部11が、X軸方向に1つの画素領域分ずれて配置されている。詳細は後述するが、これにより、撮像部111の複数の赤色画素領域10Rおよび複数の青色画素領域10Bは第1の光学特性11pを有し、撮像部111の複数の緑色画素領域10Gは第2の光学特性11mを有するので、同じ色の光を受光する複数の画素領域の間での光学的特性の差が小さくなる。
[撮像装置1の動作]
 撮像装置1では、オンチップレンズ72およびカラーフィルタ層71を介して、PD21へ光(例えば可視領域の波長の光)が入射する。これにより、PD21では正孔(ホール)および電子の対が発生する(光電変換される)。TRX22のゲート電極に第1転送信号が入力され、TRX22がオン状態となると、PD21に蓄積された信号電荷がMEM23に転送される。TRG24がオン状態となると、MEM23に蓄積された信号電荷がFD25に転送される。FD25では、信号電荷が電圧信号に変換され、この電圧信号が画素信号として読み出される。
[撮像装置1の作用・効果]
 本実施の形態の撮像装置1では、Y軸方向の最も近い位置に設けられた共有部11が、X軸方向に1つの画素領域分ずれて配置されているので、同じ色の光を受光する複数の画素領域の間で互いの構成が近くなる。以下、この作用について比較例を用いて説明する。
 図7は、比較例に係る撮像装置(撮像装置100)の模式的な平面構成を表し、図8は図7に示した共有部11の構成を拡大して表している。図7,図8はそれぞれ、撮像装置1を表す図2,図3に対応している。この撮像装置100は、撮像装置1と同様にX軸方向に隣り合う2つの画素領域により構成された共有部11を複数有している。撮像装置100では、Y軸方向に並ぶ複数の共有部11が揃って配置されている。即ち、撮像装置100では、Y軸方向の最も近い位置に設けられた共有部11がずれて配置されていない。この点において、撮像装置100は撮像装置1と異なっている。
 このような撮像装置100では、緑色画素領域10Gの構成が画素行によって異なる。緑色画素領域10Gおよび赤色画素領域10Rが交互に設けられた画素行では、緑色画素領域10Gが共有部11の一方(図7の紙面左側)に配置されるので、第1の光学特性11pを有する。これに対し、緑色画素領域10Gおよび青色画素領域10Bが交互に設けられた画素行では、緑色画素領域10Gが共有部11の他方に配置されるので、第2の光学特性11mを有する。即ち、画素行によって、緑色画素領域10Gの光学的特性に差が生じる。特に、微細化された緑色画素領域10Gでは、光学的特性の差が大きくなりやすい。このような複数の緑色画素領域10Gの間での光学的特性の差は、周期筋等となり、画質を低下させるおそれがある。
 また、裏面照射型の撮像装置100では、多層配線層(図5の多層配線層L1参照)で反射された光が半導体基板(図5の半導体基板L2)に入射しやすい。このため、表面照射型の撮像装置に比べて、複数の緑色画素領域10Gの間での光学的特性の差が画質に大きく影響を及ぼす。
 これに対し、撮像装置1では、Y軸方向の最も近い位置に設けられた共有部11がX軸方向に1つの画素領域分ずれて配置されているので、撮像部111の全ての画素行で、緑色画素領域10Gが共有部11の他方に配置される。これにより、撮像部111の全ての緑色画素領域10Gが略同一の構成となり、これらは第2の光学特性11mを有する。したがって、複数の緑色画素領域10Gの間での光学的特性の差がほぼなくなり、画質の低下を抑えることができる。特に、裏面照射型の撮像装置1では、効果的に画質の低下が抑えられる。
 以上説明したように、本実施の形態の撮像装置1では、Y軸方向の最も近い位置に設けられた共有部11をX軸方向に1つの画素領域分ずれて配置するようにしたので、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。したがって、同じ色の光を受光する複数の画素領域間での光学的特性の差に起因した画質の低下を抑えることが可能となる。
 以下、上記実施の形態の変形例および他の実施の形態について説明するが、以降の説明において上記実施の形態と同一構成部分については同一符号を付してその説明は適宜省略する。
<変形例1>
 図9は、上記実施の形態の変形例1に係る撮像装置(撮像装置1A)の要部の模式的な平面構成を表したものである。図9は、撮像装置1を表す図3に対応している。この撮像装置1Aでは、共有部11毎に、RST26、AMP27およびSEL28に加えてFDトランジスタ(FDG)29が設けられている。この点を除き、変形例1に係る撮像装置1Aは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 図10は、撮像装置1Aの画素回路の構成の一例を表している。FDG29は、変換効率切替のためのスイッチトランジスタであり、例えば、FD25と付加容量(C)25Aとの間に設けられている。FDG29をオンすることにより、FD25にC25Aが接続される。これにより、FD25はLG(low gain)状態となる。一方、FDG29をオフすることにより、FD25とC25Aとが非接続となる。これにより、FD25はHG(high gain)状態となる。
 図11は、撮像装置1Aの画素回路の構成の他の例を表している。このようにC25Aを、FDG29とAMP27との間に接続するようにしてもよい。
 本変形例でも、上記実施の形態と同様に、Y軸方向の最も近い位置に設けられた共有部11がX軸方向に1つの画素領域分ずれて配置されているので、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。また、本変形例では、画素回路がFDG29およびC25Aを有しているので、FD25に保持可能な電荷容量の切り替え、即ち、電荷電圧変換効率の切り替えを行うことが可能となる。これにより、ノイズと飽和電荷量とのバランスを考慮した最適な画像を生成することが可能となる。例えば、低照度では、電荷電圧変換効率を高くすることによりノイズを抑え、高照度では、電荷電圧変換効率を低くすることにより十分な飽和電荷量を確保する。
<変形例2>
 図12Aおよび図12Bは、上記実施の形態の変形例2に係る撮像装置(撮像装置1B)の要部の模式的な構成を表したものである。図12Aは、撮像装置1Bの1つの画素領域(例えば青色画素領域10B)の平面構成を表したものであり、図12Bは、図12Aに示したB-B’線に沿った断面構成を表している。この撮像装置1Bでは、遮光部61Bが貫通領域T61および非貫通領域N61を有している。赤色画素領域10Rおよび緑色画素領域10Gにも、同様に遮光部61Bの貫通領域T61および非貫通領域N61が設けられている。この点を除き、変形例2に係る撮像装置1Bは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 貫通領域T61では、溝形成領域42の溝が、半導体基板L2の第1面L2aから第2面L2bまで貫通している(図12B)。この半導体基板L2の貫通溝を遮光部61Bが埋めている。換言すれば、貫通領域T61では、半導体基板L2の厚み方向全部にわたって遮光部61Bが設けられている。これにより、MEM23への光の漏れ込みを、効果的に抑えることができる。非貫通領域N61では、溝形成領域42の溝が、半導体基板L2の第1面L2aから第2面L2bに到達しない程度の深さで設けられている(図5参照)。この半導体基板L2の非貫通溝を遮光部61Bが埋めている。換言すれば、非貫通領域N61では、半導体基板L2の厚み方向の一部に遮光部61Bが設けられている。
 例えば、PD21と、X軸方向の隣り合う画素領域(両隣りの画素領域)との間には非貫通領域N61が設けられている。1つの画素領域のPD21とMEM23との間には、例えば、貫通領域T61および非貫通領域N61が設けられている。例えば、PD21とMEM23との間の非貫通領域N61は、OFG31側(図12Aの紙面左側)に設けられており、この非貫通領域N61を介して、PD21からMEM23へと信号電荷が転送される。MEM23とY軸方向の隣り合う画素領域(隣り合う画素領域のPD21)との間には、例えば、貫通領域T61および非貫通領域N61が設けられている。
 本変形例でも、上記実施の形態と同様に、Y軸方向の最も近い位置に設けられた共有部11がX軸方向に1つの画素領域分ずれて配置されているので、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。また、本変形例のように、遮光部61Bが貫通領域T61および非貫通領域N61を有することにより、第1の光学特性11pと第2の光学特性11mとの差が大きくなりやすい。したがって、本技術は、撮像装置1Bに好適に用いられる。
<変形例3>
 図13は、上記実施の形態の変形例3に係る撮像装置(撮像装置1C)の要部の模式的な断面構成を表したものである。図13は、撮像装置1を表す図5に対応する。この撮像装置1Cでは、TRX22のゲート電極22Gが、多層配線層L1から半導体基板L2に埋め込まれている。この点を除き、変形例3に係る撮像装置1Cは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 このような埋込型のゲート電極22Gは、例えば、PD21とMEM23との間に設けられている。ゲート電極22Gは、多層配線層L1から絶縁膜50を貫通し、半導体基板L2に埋め込まれている。このようなゲート電極22Gを設けることにより、PD21からMEM23への信号電荷の転送が補助される。よって、より確実にPD21からMEM23へ信号電荷を転送することが可能となる。
 本変形例でも、上記実施の形態と同様に、Y軸方向の最も近い位置に設けられた共有部11がX軸方向に1つの画素領域分ずれて配置されているので、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。また、本変形例のように、TRX22が埋込型のゲート電極22Gを有することにより、より確実にPD21からMEM23に信号電荷を転送することが可能となる。
<変形例4>
 図14は、上記実施の形態の変形例4に係る撮像装置(撮像装置1D)の要部の模式的な平面構成を表したものである。図14は、撮像装置1を表す図2に対応している。この撮像装置1Dでは、Y軸方向に隣り合う2つの画素領域(緑色画素領域10Gと赤色画素領域10R、または、緑色画素領域10Gと青色画素領域10B)により共有部11が構成されている。この点を除き、変形例4に係る撮像装置1Dは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 図15は、図14に示した複数の共有部11のうち、X軸方向の最も近い位置に設けられた2つの共有部11の平面構成を表している。この図15は、撮像装置1を表す図3に対応する。撮像装置1Dでは、X軸方向の最も近い位置に設けられた共有部11が、Y軸方向に1つの画素領域分ずれて配置されている。これにより、撮像部111(図3)の複数の赤色画素領域10Rおよび複数の青色画素領域10Bは第1の光学特性11pを有し、撮像部111の複数の緑色画素領域10Gは第2の光学特性11mを有するので、同じ色の光を受光する複数の画素領域の間での光学的特性の差が小さくなる。
 本変形例のように、X軸方向の最も近い位置に設けられた共有部11がY軸方向に1つの画素領域分ずれて配置されていてもよい。このような撮像装置1Dも、撮像装置1と同様に、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。
<変形例5>
 図16は、上記実施の形態の変形例5に係る撮像装置(撮像装置1E)の要部の模式的な平面構成を表したものである。図16は、撮像装置1を表す図2に対応している。この撮像装置1Eでは、X軸方向およびY軸方向の近接する4つの画素領域(赤色画素領域10R、青色画素領域10Bおよび2つの緑色画素領域10G)により共有部11が構成されている。この点を除き、変形例5に係る撮像装置1Eは、上記実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 図17は、図16に示した複数の共有部11のうち、1つの共有部11の平面構成を表している。撮像装置1Eでは、例えば、共有部11が、X軸方向に隣り合う2つの画素領域を二組含んでいる(2×2)。この二組は、Y軸方向の最も近い位置に設けられており、X軸方向に1つの画素領域分ずれて配置されている。即ち、共有部11を構成する4つの画素領域のうち、2つの画素領域(例えば、青色画素領域10Bおよび緑色画素領域10G)のみがY軸方向において隣り合って設けられている。このような4つの画素領域により構成された共有部11では、例えば、RST26およびAMP27がX軸方向に隣り合う青色画素領域10Bと緑色画素領域10Gとに跨るように設けられ、SEL28がX軸方向に隣り合う赤色画素領域10Rと緑色画素領域10Gとに跨るように設けられている。4つの画素領域それぞれのFD25は、例えば配線51Fにより互いに接続されている。このように4つの画素領域により構成された共有部11では、X軸方向に隣り合う2つの画素領域が互いにほぼ鏡像の関係となる。
 撮像装置1Eでは、Y軸方向の最も近い位置に設けられた共有部11が、X軸方向に1つの画素領域分ずれて配置されている。これにより、上記実施の形態で説明したのと同様に、撮像部111(図3)の複数の赤色画素領域10Rおよび複数の青色画素領域10Bは第1の光学特性11pを有し、撮像部111の複数の緑色画素領域10Gは第2の光学特性11mを有するので、同じ色の光を受光する複数の画素領域の間での光学的特性の差が小さくなる。
 図示は省略するが、共有部11が、Y軸方向に隣り合う2つの画素領域を二組含んでいてもよい。このとき、X軸方向の最も近い位置に設けられた共有部11が、Y軸方向に1つの画素領域分ずれて配置される。
 図18は、撮像装置1Eの画素回路の構成の一例を表したものである。共有部11を構成する4つの画素領域は、それぞれPD21(PD21-1,21-2,21-3,21-4)、TRX22(TRX22-1,22-2,22-3,22-4)、MEM23(MEM23-1,23-2,23-3,23-4)およびTRG24(TRG24-1,24-2,24-3,24-4)を有している。TRG24-1,24-2,24-3,24-4は、FD25に接続されている。このFD25には、TRG24-1,24-2,24-3,24-4とともに、RST26が接続されている。また、FD25は、AMP27およびSEL28を介して垂直信号線VSLに接続されている。PD21-1,21-2,21-3,21-4には、TRX22-1,22-2,22-3,22-4とともに、OFG31-1,31-2,31-3,31-4を介してOFD32-1,32-2,32-3,32-4が接続されている。
 図19は、図17に示した共有部11の平面構成の他の例を表し、図20は、図19に示した共有部11の回路構成の一例を表している。撮像装置1Eは、撮像装置1Aで説明したのと同様に、共有部11毎に、RST26、AMP27およびSEL28に加えてFDG29を有していてもよい。
 本変形例のように、共有部11をX軸方向およびY軸方向に近接する4つの画素領域により構成するようにしてもよい。このような撮像装置1Eも、撮像装置1と同様に、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。
<適用例>
 上述の撮像装置1,1A~1Eは、例えばカメラなど、様々なタイプの電子機器に適用することができる。図21に、その一例として、電子機器3(カメラ)の概略構成を示す。この電子機器3は、例えば静止画または動画を撮影可能なカメラであり、撮像装置1,1A~1Eと、光学系(光学レンズ)310と、シャッタ装置311と、撮像装置1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像装置1へ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像装置1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像装置1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像装置1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリなどの記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
 更に、上記実施の形態等において説明した撮像装置1,1A~1Eは、下記電子機器(車両等の移動体)にも適用することが可能である。
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図22は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図22に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図22の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図23は、撮像部12031の設置位置の例を示す図である。
 図23では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図23には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 以上、実施の形態および変形例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態等において説明した撮像装置の構成は一例であり、更に他の層を備えていてもよい。また、各層の材料や厚みも一例であって、上述のものに限定されるものではない。
 例えば、上記実施の形態等では、2つの画素領域または4つの画素領域により共有部11を構成する場合について説明したが、共有部11を構成する画素領域の数はこれらに限定されない。例えば、8つの画素領域により共有部11を構成するようにしてもよい。
 図24は、8つの画素領域により構成された共有部11を有する撮像装置の画素回路の一例を表している。共有部11を構成する8つの画素領域は、それぞれPD21(PD21-1,21-2,21-3,21-4,21-5,21-6,21-7,21-8)、TRX22(TRX22-1,22-2,22-3,22-4,22-5,22-6,22-7,22-8)、MEM23(MEM23-1,23-2,23-3,23-4,23-5,23-6,23-7,23-8)およびTRG24(TRG24-1,24-2,24-3,24-4,24-5,24-6,24-7,24-8)を有している。TRG24-1,24-2,24-3,24-4,24-5,24-6,24-7,24-8は、FD25に接続されている。このFD25には、TRG24-1,24-2,24-3,24-4,24-5,24-6,24-7,24-8とともに、RST26が接続されている。また、FD25は、AMP27およびSEL28を介して垂直信号線VSLに接続されている。PD21-1,21-2,21-3,21-4,21-5,21-6,21-7,21-8には、TRX22-1,22-2,22-3,22-4,22-5,22-6,22-7,22-8とともに、OFG31-1,31-2,31-3,31-4,31-5,31-6,31-7,31-8を介してOFD32-1,32-2,32-3,32-4,32-5,32-6,32-7,32-8が接続されている。
 また、図3等には、赤色画素領域10R,緑色画素領域10G,青色画素領域10Bの平面構成の一例を図示したが、赤色画素領域10R,緑色画素領域10G,青色画素領域10Bは、他の平面構成を有していてもよい。
 図25は、赤色画素領域10R,緑色画素領域10G,青色画素領域10Bの平面構成の他の例を表している。このように、PD21とFD25との間に、PD21側から順にTRX22(MEM23)およびTRG24が設けられていてもよい。赤色画素領域10R,緑色画素領域10G,青色画素領域10Bがこのような平面構成を有するとき、MEM23からFD25への信号電荷の転送経路が短くなる。
 また、上記実施の形態等では、裏面照射型の撮像装置について説明したが、本開示は表面照射型の撮像装置に用いるようにしてもよい。
 なお、上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
 尚、本開示は、以下のような構成であってもよい。以下の構成を有する撮像装置によれば、第2方向の最も近い位置に設けられた共有部を第1方向に1つの画素領域分ずれて配置するようにしたので、同じ色の光を受光する複数の画素領域間で、光学的特性の差が小さくなる。したがって、同じ色の光を受光する複数の画素領域間での光学的特性の差に起因した画質の低下を抑えることが可能となる。
(1)
 少なくとも第1方向に隣り合う2つの画素領域を含む共有部が複数設けられ、かつ、前記第1方向に交差する第2方向の最も近い位置に設けられた前記共有部は、前記第1方向に1つの前記画素領域分ずれて配置されている、撮像部と、
 前記画素領域毎に設けられた光電変換部と、
 前記光電変換部で生成された信号電荷が保持される電荷保持部と、
 前記電荷保持部から前記信号電荷が転送される電荷電圧変換部と、
 前記電荷電圧変換部に電気的に接続されるとともに、前記共有部毎に設けられた画素トランジスタと
 を備えた撮像装置。
(2)
 前記画素領域は、所定の波長域の光が前記光電変換部に入射する第1画素領域と、前記第1画素領域とは異なる波長域の光が前記光電変換部に入射する第2画素領域とを含み、
 複数の前記共有部それぞれでは、前記第1方向の一方に前記第2画素領域が配置され、前記第1方向の他方に前記第2画素領域が配置されている
 前記(1)に記載の撮像装置。
(3)
 前記第1画素領域では、緑色波長域の光が前記光電変換部に入射する
 前記(2)に記載の撮像装置。
(4)
 更に、前記光電変換部、前記電荷保持部および前記電荷電圧変換部が設けられた半導体基板と、
 前記光電変換部と前記電荷保持部との間に設けられた第1遮光部とを有する
 前記(1)ないし(3)のうちいずれか1つに記載の撮像装置。
(5)
 更に、前記半導体基板に積層して設けられるとともに、前記電荷電圧変換部に電気的に接続された配線を含む多層配線層と、
 前記半導体基板を間にして、前記多層配線層に対向するカラーフィルタ層とを含む
 前記(4)に記載の撮像装置。
(6)
 前記第1遮光部は、前記半導体基板を厚み方向に貫通して設けられた貫通領域と、前記半導体基板の前記厚み方向の一部に設けられた非貫通領域とを有する
 前記(4)または(5)に記載の撮像装置。
(7)
 更に、前記光電変換部の光入射側に設けられ、かつ、前記電荷保持部を覆うとともに前記光電変換部に対向する領域に開口を有する第2遮光部を有し、
 前記撮像部および前記開口は、前記第1方向に長辺を有する矩形の平面形状を有する
 前記(1)ないし(6)のうちいずれか1つに記載の撮像装置。
(8)
 前記光電変換部および前記電荷保持部は、前記第2方向に並んで設けられている
 前記(1)ないし(7)のうちいずれか1つに記載の撮像装置。
(9)
 前記共有部は、前記第1方向および前記第2方向の近接する4つの前記画素領域を含む
 前記(1)ないし(8)のうちいずれか1つに記載の撮像装置。
(10)
 更に、前記光電変換部から前記電荷保持部に前記信号電荷を転送する第1転送トランジスタと、
 前記電荷保持部から前記電荷電圧変換部に前記信号電荷を転送する第2転送トランジスタとを有する
 前記(1)ないし(9)のうちいずれか1つに記載の撮像装置。
(11)
 前記画素トランジスタは、リセットトランジスタ、増幅トランジスタおよび選択トランジスタの少なくともいずれか1つを含む
 前記(1)ないし(10)のうちいずれか1つに記載の撮像装置。
 本出願は、日本国特許庁において2019年1月17日に出願された日本特許出願番号2019-006285号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (11)

  1.  少なくとも第1方向に隣り合う2つの画素領域を含む共有部が複数設けられ、かつ、前記第1方向に交差する第2方向の最も近い位置に設けられた前記共有部は、前記第1方向に1つの前記画素領域分ずれて配置されている、撮像部と、
     前記画素領域毎に設けられた光電変換部と、
     前記光電変換部で生成された信号電荷が保持される電荷保持部と、
     前記電荷保持部から前記信号電荷が転送される電荷電圧変換部と、
     前記電荷電圧変換部に電気的に接続されるとともに、前記共有部毎に設けられた画素トランジスタと
     を備えた撮像装置。
  2.  前記画素領域は、所定の波長域の光が前記光電変換部に入射する第1画素領域と、前記第1画素領域とは異なる波長域の光が前記光電変換部に入射する第2画素領域とを含み、
     複数の前記共有部それぞれでは、前記第1方向の一方に前記第2画素領域が配置され、前記第1方向の他方に前記第2画素領域が配置されている
     請求項1に記載の撮像装置。
  3.  前記第1画素領域では、緑色波長域の光が前記光電変換部に入射する
     請求項2に記載の撮像装置。
  4.  更に、前記光電変換部、前記電荷保持部および前記電荷電圧変換部が設けられた半導体基板と、
     前記光電変換部と前記電荷保持部との間に設けられた第1遮光部とを有する
     請求項1に記載の撮像装置。
  5.  更に、前記半導体基板に積層して設けられるとともに、前記電荷電圧変換部に電気的に接続された配線を含む多層配線層と、
     前記半導体基板を間にして、前記多層配線層に対向するカラーフィルタ層とを含む
     請求項4に記載の撮像装置。
  6.  前記第1遮光部は、前記半導体基板を厚み方向に貫通して設けられた貫通領域と、前記半導体基板の前記厚み方向の一部に設けられた非貫通領域とを有する
     請求項4に記載の撮像装置。
  7.  更に、前記光電変換部の光入射側に設けられ、かつ、前記電荷保持部を覆うとともに前記光電変換部に対向する領域に開口を有する第2遮光部を有し、
     前記撮像部および前記開口は、前記第1方向に長辺を有する矩形の平面形状を有する
     請求項1に記載の撮像装置。
  8.  前記光電変換部および前記電荷保持部は、前記第2方向に並んで設けられている
     請求項1に記載の撮像装置。
  9.  前記共有部は、前記第1方向および前記第2方向の近接する4つの前記画素領域を含む
     請求項1に記載の撮像装置。
  10.  更に、前記光電変換部から前記電荷保持部に前記信号電荷を転送する第1転送トランジスタと、
     前記電荷保持部から前記電荷電圧変換部に前記信号電荷を転送する第2転送トランジスタとを有する
     請求項1に記載の撮像装置。
  11.  前記画素トランジスタは、リセットトランジスタ、増幅トランジスタおよび選択トランジスタの少なくともいずれか1つを含む
     請求項1に記載の撮像装置。
PCT/JP2020/000237 2019-01-17 2020-01-08 撮像装置 WO2020149181A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/421,569 US12003878B2 (en) 2019-01-17 2020-01-08 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019006285A JP2020115516A (ja) 2019-01-17 2019-01-17 撮像装置
JP2019-006285 2019-01-17

Publications (1)

Publication Number Publication Date
WO2020149181A1 true WO2020149181A1 (ja) 2020-07-23

Family

ID=71613141

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000237 WO2020149181A1 (ja) 2019-01-17 2020-01-08 撮像装置

Country Status (3)

Country Link
US (1) US12003878B2 (ja)
JP (1) JP2020115516A (ja)
WO (1) WO2020149181A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302970A (ja) * 2005-04-15 2006-11-02 Iwate Toshiba Electronics Co Ltd 固体撮像装置
JP2009026984A (ja) * 2007-07-20 2009-02-05 Nikon Corp 固体撮像素子
JP2009188049A (ja) * 2008-02-04 2009-08-20 Texas Instr Japan Ltd 固体撮像装置
WO2013084406A1 (ja) * 2011-12-08 2013-06-13 パナソニック株式会社 固体撮像装置及び撮像装置
WO2018173788A1 (ja) * 2017-03-22 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4207736B2 (ja) 2003-10-01 2009-01-14 ソニー株式会社 固体撮像装置
JP4457326B2 (ja) * 2007-04-18 2010-04-28 株式会社 Rosnes 固体撮像装置
US8576312B2 (en) * 2009-02-04 2013-11-05 Rosnes Corporation Solid-state image pickup device with particular pixel arrangement
JP6026102B2 (ja) * 2011-12-07 2016-11-16 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器
JP6052353B2 (ja) 2015-07-31 2016-12-27 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
JP2018092976A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302970A (ja) * 2005-04-15 2006-11-02 Iwate Toshiba Electronics Co Ltd 固体撮像装置
JP2009026984A (ja) * 2007-07-20 2009-02-05 Nikon Corp 固体撮像素子
JP2009188049A (ja) * 2008-02-04 2009-08-20 Texas Instr Japan Ltd 固体撮像装置
WO2013084406A1 (ja) * 2011-12-08 2013-06-13 パナソニック株式会社 固体撮像装置及び撮像装置
WO2018173788A1 (ja) * 2017-03-22 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器

Also Published As

Publication number Publication date
US20220103775A1 (en) 2022-03-31
US12003878B2 (en) 2024-06-04
JP2020115516A (ja) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7125345B2 (ja) 撮像素子、撮像素子の製造方法、及び、電子機器
TWI816863B (zh) 固態攝像裝置及電子機器
WO2019093150A1 (ja) 撮像素子、電子機器
US11728361B2 (en) Imaging device and manufacturing method thereof
WO2020195825A1 (ja) 撮像装置および電子機器
KR20210098978A (ko) 고체 촬상 장치 및 전자 기기
WO2020059553A1 (ja) 固体撮像装置および電子機器
US11997400B2 (en) Imaging element and electronic apparatus
WO2020105634A1 (ja) 固体撮像装置および電子機器
WO2020045142A1 (ja) 撮像装置および電子機器
WO2019078291A1 (ja) 撮像装置
WO2021095285A1 (en) Imaging device
WO2020149181A1 (ja) 撮像装置
WO2023079840A1 (ja) 撮像装置および電子機器
WO2023181657A1 (ja) 光検出装置及び電子機器
CN112602320B (zh) 固态成像装置和电子设备
WO2023132151A1 (ja) 撮像素子および電子機器
WO2023127110A1 (ja) 光検出装置及び電子機器
WO2023100547A1 (ja) 撮像装置および電子機器
WO2022249575A1 (ja) 固体撮像素子、固体撮像素子の製造方法および電子機器
US20240014230A1 (en) Solid-state imaging element, method of manufacturing the same, and electronic device
JP2021111762A (ja) 撮像装置及び電子機器
JP2023098007A (ja) 撮像装置、電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20741047

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20741047

Country of ref document: EP

Kind code of ref document: A1