WO2021210060A1 - 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム - Google Patents

固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム Download PDF

Info

Publication number
WO2021210060A1
WO2021210060A1 PCT/JP2020/016407 JP2020016407W WO2021210060A1 WO 2021210060 A1 WO2021210060 A1 WO 2021210060A1 JP 2020016407 W JP2020016407 W JP 2020016407W WO 2021210060 A1 WO2021210060 A1 WO 2021210060A1
Authority
WO
WIPO (PCT)
Prior art keywords
light receiving
receiving element
light
signal
imaging lens
Prior art date
Application number
PCT/JP2020/016407
Other languages
English (en)
French (fr)
Inventor
理 足立
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2020/016407 priority Critical patent/WO2021210060A1/ja
Publication of WO2021210060A1 publication Critical patent/WO2021210060A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor

Definitions

  • the present invention relates to a solid-state image sensor, an image pickup device, an endoscopic device, and a surgical microscope system.
  • AF accuracy is improved by executing AF control using image plane phase difference pixels or the like for detecting parallax on the imaging surface. ing. Distance information can be obtained by using this function. Therefore, it is expected to be applied to the measurement of the uneven shape using the image plane retardation pixel.
  • 13 and 14 show the principle of detecting parallax.
  • the light generated from the subject SB 10 passes through the imaging lens 500 and the microlens 510 provided on the pixel array of the image pickup device.
  • the image of the pupil of the imaging lens 500 is projected onto the light receiving element (PD) of the pixel by the microlens 510.
  • Light generated from the same position on the subject SB10 is incident on the left region or the right region of the light receiving element depending on the position passing through the pupil of the imaging lens 500. If the light incident on the two regions can be separated, it is possible to reproduce two images with parallax as seen from the right half and the left half of the pupil. Therefore, by using one imaging lens 500, the same situation as when stereoscopic viewing is performed with two lenses can be realized. Parallax can be detected based on the signals in the two regions.
  • FIG. 13 shows a case where the F value of the imaging lens 500 is small. In this case, there are many components of light that have passed through the pupil position of the imaging lens 500 away from the center of the imaging lens 500.
  • FIG. 14 shows a case where the F value of the imaging lens 500 is large. In this case, there are many components of light that have passed through the pupil position near the center of the imaging lens 500.
  • the F value shown in FIG. 13 is small, it is more suitable for parallax detection than when the F value shown in FIG. 14 is large.
  • first method a pair of two pixels is used. The right half of one of the two pixels is shaded and the other left half of the two pixels is shaded.
  • second method a microlens straddling two pixels is formed.
  • the F value of the imaging lens is designed to be as large as possible within a range in which a sense of resolution can be obtained.
  • the F value is large, there are many components of light that have passed through a position close to the center of the imaging lens, and the accuracy of the distance information detected based on the image plane phase difference pixels is lowered. Therefore, it is difficult to achieve both a deep depth of field and highly accurate distance measurement.
  • the first method and the second method for realizing the pixels for detecting the image plane phase difference when an imaging lens having a large F value is used, the accuracy of the distance information is lowered in the same manner as described above.
  • the depth of field becomes shallow and it is difficult to perform imaging using pan focus.
  • the present invention is a solid-state imaging device, an imaging device, an endoscopic device, and a surgical microscope capable of performing imaging at a deep depth of field and obtaining a signal charge suitable for highly accurate distance measurement.
  • the purpose is to provide a system.
  • the solid-state image pickup device has a plurality of light receiving elements and a microlens.
  • the plurality of light receiving elements are arranged in a matrix.
  • the microlens is arranged on the plurality of light receiving elements with respect to the light receiving element group.
  • the light receiving element group includes one or more first light receiving elements included in the plurality of light receiving elements and two or more second light receiving elements included in the plurality of light receiving elements.
  • the first light receiving element receives light that has passed through an imaging lens that forms an optical image of a subject on the plurality of light receiving elements, and generates a first signal charge based on the received light.
  • the two or more second light receiving elements receive light that has passed through different pupil regions of the imaging lens, and generate a second signal charge based on the received light.
  • the first light receiving element receives light that has passed through the first region of the imaging lens including the center of the imaging lens.
  • the second light receiving element receives light that has passed through the second region of the imaging lens including a position outside the first region.
  • the solid-state image sensor may further include a light-shielding layer arranged between the microlens and the plurality of light-receiving elements.
  • a first aperture that allows light that has passed through the imaging lens and the microlens to enter the first light receiving element, and light that has passed through the imaging lens and the microlens is incident on the second light receiving element.
  • the second opening may be formed in the light-shielding layer. The second opening may be larger than the first opening.
  • the first light receiving element and the second light receiving element included in the light receiving element group have an arrangement in which the number of rows and the number of columns are two or more. May be formed.
  • the figure formed by the array may include a first diagonal line passing through the first light receiving element and a second diagonal line passing through the second light receiving element.
  • the width of the second opening in the direction parallel to the second diagonal may be larger than the width of the first opening in the direction parallel to the first diagonal.
  • the light receiving element group may have two or more of the first light receiving elements.
  • the solid-state imaging device mixes the first signal charges generated by the two or more first light receiving elements included in the light receiving element group, converts them into a voltage, and includes the light receiving element group. It may have a charge-voltage conversion element that converts the second signal charge generated by the second light-receiving element into a voltage.
  • the first light receiving element and the second light receiving element included in the light receiving element group have one of the number of rows and the number of columns of 3 or more.
  • An array may be formed in which the number of rows and the other of the number of columns are 1 or more.
  • the first light receiving element may be arranged in the central portion of the arrangement, and the second light receiving element may be arranged in the outer peripheral portion of the arrangement.
  • the image pickup apparatus includes the solid-state image pickup device and the image pickup lens.
  • the image pickup apparatus reads a first signal generated based on the first signal charge from the first light receiving element, and the image pickup device reads the first signal.
  • a readout circuit that reads a second signal generated based on the second signal charge from the second light receiving element may be further provided.
  • the first light receiving element and the second light receiving element included in the light receiving element group may form an array having two or more rows and columns.
  • the readout circuit outputs the first signal and the second signal within a period allocated to each row of the array so that the rate of outputting the first signal and the second signal is leveled between the rows of the array.
  • the second signal may be read out.
  • the imaging device is a light source device capable of switching between a first state of generating visible light and a second state of generating infrared light.
  • the solid-state image sensor is arranged between the microlens and the plurality of light receiving elements, transmits the imaging lens and the infrared light that has passed through the microlens, and transmits the imaging lens and the microlens.
  • An infrared transmissive layer containing a material that blocks the passed visible light may be further provided.
  • the light receiving element group may have two or more light receiving elements.
  • An aperture may be formed in the infrared transmissive layer to allow light that has passed through the imaging lens and the microlens to enter the two or more light receiving elements.
  • the two or more light receiving elements function as the first light receiving element and pass through the imaging lens, the microlens, and the aperture.
  • the visible light may be received and the first signal charge may be generated based on the received visible light.
  • the state of the light source device is the second state
  • the two or more light receiving elements function as the second light receiving element, and the imaging lens, the microlens, and the infrared transmitting layer are formed.
  • the transmitted infrared light may be received and the second signal charge may be generated based on the received infrared light.
  • the endoscope device includes a scope in which the solid-state image sensor is arranged at the tip, and a control unit.
  • the control unit receives the first signal generated based on the first signal charge and the second signal generated based on the second signal charge, and the first signal is used. Based on this, a video signal of the subject is generated, and the parallax between the two second signals corresponding to the second signal charges generated by the two different light receiving elements is calculated.
  • the surgical microscope system includes the solid-state image sensor and the control unit.
  • the control unit receives the first signal generated based on the first signal charge and the second signal generated based on the second signal charge, and the first signal is used. Based on this, a video signal of the subject is generated, and the parallax between the two second signals corresponding to the second signal charges generated by the two different light receiving elements is calculated.
  • the solid-state imaging device, imaging device, endoscopic device, and surgical microscope system can perform imaging at a deep depth of field and are suitable for highly accurate distance measurement.
  • a signal charge can be obtained.
  • FIG. 1 is a plan view of the image pickup device 1 (solid-state image pickup device) according to the first embodiment of the present invention.
  • the image pickup device 1 shown in FIG. 1 has a plurality of microlenses 10, a light-shielding layer 20, a plurality of light-receiving elements, and a plurality of charge-voltage conversion elements 40.
  • FIG. 1 shows a state in which the semiconductor substrate constituting the image pickup device 1 is viewed in a plane in a direction perpendicular to the main surface of the semiconductor substrate.
  • the image pickup device 1 has a structure in which a plurality of layers are laminated. The state of the plurality of layers is shown in FIG.
  • the light receiving element group PG1 includes a light receiving element 30r1, a light receiving element 30r2, a light receiving element 30r3, and a light receiving element 30r4.
  • the light receiving element group PG2 includes a light receiving element 30g1, a light receiving element 30g2, a light receiving element 30g3, and a light receiving element 30g4.
  • the light receiving element group PG3 includes a light receiving element 30b1, a light receiving element 30b2, a light receiving element 30b3, and a light receiving element 30b4. Each light receiving element corresponds to a pixel.
  • Each light receiving element group is arranged at a position corresponding to one microlens 10.
  • the four light receiving elements included in each light receiving element group are photodiodes (optical sensors) and are made of a semiconductor material.
  • the four light receiving elements included in the light receiving element group PG1 receive light in the red wavelength band (red light) and generate a signal charge based on the received red light.
  • the four light receiving elements included in the light receiving element group PG2 receive light in the green wavelength band (green light) and generate a signal charge based on the received green light.
  • the four light receiving elements included in the light receiving element group PG3 receive light in the blue wavelength band (blue light) and generate a signal charge based on the received blue light.
  • 16 light receiving elements are arranged in a matrix.
  • the number of rows and columns of the array of 16 light receiving elements is 4.
  • Each light receiving element group has four light receiving elements.
  • the number of rows and columns of the arrangement of the four light receiving elements included in each light receiving element group is 2.
  • Each of the 16 light receiving elements shown in FIG. 1 is included in any one of a plurality of light receiving element groups.
  • the arrangement of the four light receiving elements included in each light receiving element group forms a substantially square shape.
  • the square has a diagonal line L1 passing through the two vertices and a diagonal line L2 passing through the other two vertices.
  • the charge-voltage conversion element 40 is arranged in each light receiving element group.
  • the charge-voltage conversion element 40 converts the signal charge generated by the light-receiving element into a voltage.
  • the four light receiving elements included in each light receiving element group share one charge-voltage conversion element 40.
  • the light-shielding layer 20 is arranged between the plurality of microlenses 10 and the plurality of light-receiving elements.
  • the light-shielding layer 20 is a thin film made of metal.
  • the opening OP1 is formed at a position that overlaps with the microlens 10 and overlaps with each light receiving element group.
  • the four openings OP1 are shown in FIG.
  • the shapes of the four openings OP1 are the same, and the sizes of the four openings OP1 are the same.
  • the width W2 of the opening OP1 in the direction parallel to the diagonal line L2 is larger than the width W1 of the opening OP1 in the direction parallel to the diagonal line L1.
  • the light-shielding layer 20 blocks a part of the light that has passed through the microlens 10. A part of the light that has passed through the microlens 10 passes through the aperture OP1 and is incident on the light receiving element.
  • the plurality of microlenses 10 are arranged between the imaging lens 50 shown in FIG. 2 and the plurality of light receiving elements.
  • the microlens 10 irradiates the light receiving element with a part of the light that has passed through the imaging lens 50.
  • Each light receiving element group has two first light receiving elements and two second light receiving elements.
  • the two first light receiving elements are arranged along the diagonal line L1.
  • the two second light receiving elements are arranged along the diagonal line L2.
  • the two first light receiving elements in the light receiving element group PG2 are a light receiving element 30g1 and a light receiving element 30g3.
  • the two second light receiving elements in the light receiving element group PG2 are a light receiving element 30g2 and a light receiving element 30g4.
  • the image sensor 1 needs to include one or more light receiving element groups.
  • Each light receiving element group needs to have one or more first light receiving elements and two or more second light receiving elements.
  • the number of light receiving element groups and the number of light receiving elements included in the light receiving element group are not limited to the example shown in FIG.
  • the opening OP1 is virtually divided into an opening OP1a, an opening OP1b, an opening OP1c, and an opening OP1d.
  • the opening OP1a and the opening OP1b are arranged along the diagonal line L1.
  • the opening OP1c and the opening OP1d are arranged along the diagonal line L2.
  • the light that has passed through the opening OP1a and the opening OP1b is incident on the first light receiving element.
  • the light that has passed through the openings OP1a and OP1b in the light receiving element group PG2 is incident on the light receiving element 30g1 and the light receiving element 30g3, respectively.
  • the region of the imaging lens 50 through which the light incident on the light receiving element 30g1 passes and the region of the imaging lens 50 through which the light incident on the light receiving element 30g3 passes are different from each other.
  • the light that has passed through the opening OP1c and the opening OP1d is incident on the second light receiving element.
  • the light that has passed through the opening OP1c and the opening OP1d in the light receiving element group PG2 is incident on the light receiving element 30g2 and the light receiving element 30g4, respectively.
  • the region of the imaging lens 50 through which the light incident on the light receiving element 30g2 passes and the region of the imaging lens 50 through which the light incident on the light receiving element 30g4 passes are different from each other.
  • the first opening and the second opening are formed in the light shielding layer 20.
  • the first aperture is the aperture OP1a and the aperture OP1b, and the light that has passed through the imaging lens 50 and the microlens 10 is incident on the first light receiving element.
  • the second aperture is the aperture OP1c and the aperture OP1d, and the light that has passed through the imaging lens 50 and the microlens 10 is incident on the second light receiving element. Since the width W2 of the opening OP1 is larger than the width W1 of the opening OP1, the opening OP1c and the opening OP1d are larger than the opening OP1a and the opening OP1b.
  • the first light receiving element and the second light receiving element included in each light receiving element group form an array having two or more rows and columns.
  • the figures formed by the array are the diagonal line L1 (first diagonal line) passing through the first light receiving element and the diagonal line L2 (second diagonal line) passing through the second light receiving element.
  • the width of the opening OP1c and the opening OP1d (half the width W2) in the direction parallel to the diagonal line L2 is larger than the width of the opening OP1a and the opening OP1b (half the width W1) in the direction parallel to the diagonal line L1.
  • the light passes through the first region of the imaging lens 50 and the microlens 10, and passes through the aperture OP1a and the aperture OP1b. Further, the light passes through the second region of the imaging lens 50 and the microlens 10, and passes through the aperture OP1c and the aperture OP1d.
  • the size (area) of the opening OP1a and the opening OP1b and the size (area) of the opening OP1c and the opening OP1d are different from each other. Therefore, the size of the first region of the imaging lens 50 (pupil diameter) and the size of the second region of the imaging lens 50 (pupil diameter) are different from each other.
  • the second region of the imaging lens 50 is larger than the first region of the imaging lens 50.
  • the first light receiving element receives light that has passed through the openings OP1a and OP1b
  • the second light receiving element receives light that has passed through the openings OP1c and OP1d.
  • Imaging using the first light receiving element is substantially the same as imaging using an imaging lens having a large F value.
  • the signal charge obtained by the first light receiving element is not suitable for high-precision distance measurement, but the depth of field is deep in the imaging using the first light receiving element.
  • the signal charge obtained by the first light receiving element is used to generate a color image.
  • Imaging using the second light receiving element is substantially the same as imaging using an imaging lens having a small F value.
  • the depth of field is shallow, but the signal charge obtained by the second light receiving element is suitable for highly accurate distance measurement.
  • the signal charge obtained by the second light receiving element is used to detect the phase difference.
  • FIG. 2 is a cross-sectional view of the image pickup device 1 at the position of the line AA'shown in FIG.
  • FIG. 2 shows the configuration of the image pickup element 1 in the cross section passing through the light receiving element 30r1, the light receiving element 30r3, the light receiving element 30b1, and the light receiving element 30b3.
  • the imaging lens 50 is shown in FIG.
  • the image pickup lens 50 and the image pickup device 1 are included in the image pickup apparatus.
  • Each light receiving element shown in FIG. 2 is a first light receiving element that generates a first signal charge for generating a color image.
  • An insulating layer IL1 is formed on the surface of each light receiving element.
  • a light-shielding layer 20 is formed inside the insulating layer IL1.
  • the opening OP1 is formed at a position where it partially overlaps with the plurality of light receiving elements.
  • the width of the opening OP1 in the cross section shown in FIG. 2 is W1.
  • a color filter CFr and a color filter CFb are formed on the insulating layer IL1.
  • the color filter CFr and the color filter CFb are arranged between the plurality of microlenses 10 and the light-shielding layer 20.
  • the color filter CFr is arranged at a position where it overlaps with the light receiving element 30r1, the light receiving element 30r2, the light receiving element 30r3, and the light receiving element 30r4.
  • the color filter CFb is arranged at a position where it overlaps with the light receiving element 30b1, the light receiving element 30b2, the light receiving element 30b3, and the light receiving element 30b4.
  • Light that has passed through the imaging lens 50 and the microlens 10 is incident on the color filter CFr and the color filter CFb. Red light passes through the color filter CFr, and blue light passes through the color filter CFb. A part of the light transmitted through the color filter CFr passes through the opening OP1 and is incident on the light receiving element 30r1, the light receiving element 30r2, the light receiving element 30r3, and the light receiving element 30r4. A part of the light transmitted through the color filter CFb passes through the opening OP1 and is incident on the light receiving element 30b1, the light receiving element 30b2, the light receiving element 30b3, and the light receiving element 30b4.
  • the insulating layer IL2 is formed on the color filter CFr and the color filter CFb.
  • a plurality of microlenses 10 are formed on the surface of the insulating layer IL2.
  • An imaging lens 50 is arranged optically in front of the plurality of microlenses 10.
  • the light receiving element 30r1, the light receiving element 30r2, the light receiving element 30r3, and the light receiving element 30r4 are more than the positions P1 and P2 separated from the center C1 of the imaging lens 50 by a distance D1 in the direction perpendicular to the optical axis of the imaging lens 50. It receives the light that has passed through the inner region R1.
  • Each light receiving element (first light receiving element) shown in FIG. 2 receives light that has passed through a position near the center C1 of the imaging lens 50. Therefore, the first light receiving element receives light that has passed through an imaging lens having a substantially large F value. As a result, imaging is performed with a deep depth of field.
  • the charge-voltage conversion element 40 mixes the first signal charges generated by the two or more first light-receiving elements included in the light-receiving element group, and the voltage. Convert to. As a result, the time for reading the signal is shortened, and a high S / N ratio is realized.
  • FIG. 3 is a cross-sectional view of the image pickup device 1 at the position of line BB'shown in FIG.
  • the configuration of the image pickup device 1 in the cross section passing through the two light receiving elements 30g2 and the two light receiving elements 30g4 is shown in FIG. Further, the imaging lens 50 is shown in FIG. The description of the same configuration as that shown in FIG. 2 will be omitted.
  • Each light receiving element shown in FIG. 3 is a second light receiving element that generates a second signal charge for detecting a phase difference.
  • the width of the opening OP1 in the cross section shown in FIG. 3 is W2.
  • a color filter CFg is formed on the insulating layer IL1.
  • the color filter CFg is arranged between the plurality of microlenses 10 and the light shielding layer 20.
  • the color filter CFg is arranged at a position where it overlaps with the light receiving element 30g1, the light receiving element 30g2, the light receiving element 30g3, and the light receiving element 30g4.
  • Light that has passed through the imaging lens 50 and the microlens 10 is incident on the color filter CFg. Green light passes through the color filter CFg. A part of the light transmitted through the color filter CFg passes through the opening OP1 and is incident on the light receiving element 30g1, the light receiving element 30g2, the light receiving element 30g3, and the light receiving element 30g4.
  • the light receiving element 30g1, the light receiving element 30g2, the light receiving element 30g3, and the light receiving element 30g4 are separated from the center C1 of the imaging lens 50 by a distance D2 in the direction perpendicular to the optical axis of the imaging lens 50. It receives the light that has passed through the inner region R2.
  • the region R2 includes the region R1 shown in FIG. 1 and is larger than the region R1.
  • the region R2 includes a position outside the region R1.
  • Each light receiving element (second light receiving element) shown in FIG. 3 receives light that has passed through a position far from the center C1 of the imaging lens 50. Therefore, the second light receiving element receives light that has passed through the imaging lens having a substantially small F value. As a result, a signal charge suitable for highly accurate distance measurement can be obtained.
  • the charge-voltage conversion element 40 individually converts the second signal charge generated by the second light-receiving element included in the light-receiving element group into a voltage. As a result, saturation of the charge-voltage conversion element 40 is avoided, and a signal for performing highly accurate distance measurement can be obtained.
  • FIG. 4 shows a method of reading a signal from each light receiving element.
  • the image pickup apparatus has a readout circuit 60 shown in FIG.
  • the read circuit 60 reads the first signal generated based on the first signal charge from the first light receiving element, and receives the second signal generated based on the second signal charge as the second light receiving element. Read from the element.
  • the reading circuit 60 reads the first signal from the light receiving element 30r1, the light receiving element 30r3, the light receiving element 30g1, the light receiving element 30g3, the light receiving element 30b1, and the light receiving element 30b3.
  • the reading circuit 60 reads the second signal from the light receiving element 30r2, the light receiving element 30r4, the light receiving element 30g2, the light receiving element 30g4, the light receiving element 30b2, and the light receiving element 30b4.
  • the readout circuit 60 outputs the first signal and the second signal within the period assigned to each row of the array of the plurality of light receiving elements so that the rate of outputting the first signal and the second signal is leveled between the rows of the
  • Character strings including numbers are shown on each light receiving element shown in FIG. Each character string indicates a signal generated based on the signal charge in each light receiving element.
  • the light receiving element corresponding to the odd number generates the first signal charge.
  • the charge-voltage conversion element 40 mixes the first signal charges generated by the two or more first light receiving elements included in the light receiving element group and converts them into the first signal.
  • the read circuit 60 reads the first signal. The first signal is used to generate a color image.
  • the light receiving element corresponding to the even number generates a second signal charge.
  • the charge-voltage conversion element 40 converts the second signal charge into a second signal.
  • the read circuit 60 reads out the second signal individually. The second signal is used to detect the phase difference.
  • the read circuit 60 reads the signal G4 of the light receiving element 30g4, the signal (G1 + G3) of the light receiving element 30g1 and the light receiving element 30g3, and the signal B4 of the light receiving element 30b4 in the first period assigned to the first line.
  • the reading circuit 60 reads out the signal G2 of the light receiving element 30g2, the signal (B1 + B3) of the light receiving element 30b1 and the light receiving element 30b3, and the signal B2 of the light receiving element 30b2 in the second period assigned to the second line.
  • the reading circuit 60 reads out the signal R4 of the light receiving element 30r4, the signal (R1 + R3) of the light receiving element 30r1 and the light receiving element 30r3, and the signal G4 of the light receiving element 30g4 in the third period assigned to the third line.
  • the reading circuit 60 reads out the signal R2 of the light receiving element 30r2, the signal of the light receiving element 30g1 and the light receiving element 30g3 (G1 + G3), and the signal G2 of the light receiving element 30g2 in the fourth period assigned to the fourth line.
  • the read circuit 60 reads out three signals in the period assigned to each line. One of the three signals corresponds to the signal charge generated by mixing the signal charges of the two first light receiving elements. Since the number of signals read out in each period is constant, the rate at which the signals are output is leveled.
  • the image pickup element 1 has a plurality of light receiving elements (light receiving element 30r1, light receiving element 30g1, light receiving element 30b1, etc.) and a microlens 10.
  • the plurality of light receiving elements are arranged in a matrix.
  • the microlens 10 is arranged on a plurality of light receiving elements with respect to a light receiving element group (light receiving element group PG1, light receiving element group PG2, and light receiving element group PG3).
  • the light receiving element group includes one or more first light receiving elements (light receiving element 30r1, light receiving element 30r3, etc.) included in the plurality of light receiving elements and two or more second light receiving elements (light receiving elements 30r3) included in the plurality of light receiving elements.
  • the first light receiving element receives light that has passed through an imaging lens 50 that forms an optical image of a subject on a plurality of light receiving elements, and generates a first signal charge based on the received light.
  • the two or more second light receiving elements receive light that has passed through different regions of the imaging lens 50, and generate a second signal charge based on the received light.
  • the first light receiving element receives light that has passed through the first region (region R1) of the imaging lens 50 including the center C1 of the imaging lens 50.
  • the second light receiving element receives light that has passed through the second region (region R2) of the imaging lens 50 including the positions (positions P3 and P4) outside the first region.
  • the image sensor 1 can perform imaging at a deep depth of field and can obtain a signal charge suitable for highly accurate distance measurement.
  • FIG. 5 is a plan view of the image sensor 1a of the first modification of the first embodiment of the present invention.
  • the image pickup device 1a shown in FIG. 5 has a plurality of microlenses 10, a light-shielding layer 20, a plurality of light-receiving elements, and a plurality of charge-voltage conversion elements 40.
  • FIG. 5 shows a state in which the semiconductor substrate constituting the image pickup device 1a is viewed in a plane in a direction perpendicular to the main surface of the semiconductor substrate.
  • the microlens 10 and the light-shielding layer 20 are not shown in FIG.
  • a light receiving element group PG1 a light receiving element group PG2, a light receiving element group PG3, and a light receiving element group PG4 are arranged.
  • the description of the same light receiving element group as the light receiving element group shown in FIG. 1 will be omitted.
  • the light receiving element group PG4 includes a light receiving element 30c1, a light receiving element 30c2, a light receiving element 30c3, and a light receiving element 30c4.
  • the light receiving element group PG4 is arranged at predetermined intervals in the vertical direction and the horizontal direction.
  • the four light receiving elements included in the light receiving element group PG4 receive green light and blue light, and generate a signal charge based on the received green light and blue light.
  • the light receiving element 30c1 and the light receiving element 30c3 are first light receiving elements that generate a first signal charge for generating a color image.
  • the light receiving element 30c2 and the light receiving element 30c4 are second light receiving elements that generate a second signal charge for detecting the phase difference.
  • the plurality of light receiving elements of the image pickup element 1a receive light in a band wider than the band of light received by the plurality of light receiving elements of the image pickup element 1 shown in FIG. Therefore, the image sensor 1a can irradiate the subject with narrow band light different for each frame to obtain the spectral characteristics of the subject, or irradiate the subject with white light to perform high-sensitivity imaging.
  • FIG. 6 is a plan view of the image sensor 1b of the second modification of the first embodiment of the present invention.
  • the image pickup device 1b shown in FIG. 6 has a plurality of microlenses 10, a light-shielding layer 20, a plurality of light-receiving elements, and a plurality of charge-voltage conversion elements 40.
  • FIG. 6 shows a state in which the semiconductor substrate constituting the image pickup device 1b is viewed in a plane in a direction perpendicular to the main surface of the semiconductor substrate.
  • the microlens 10 and the light-shielding layer 20 are not shown in FIG.
  • the light receiving element group PG11 includes a light receiving element 30r1, a light receiving element 30c2, a light receiving element 30r3, and a light receiving element 30c4.
  • the light receiving element group PG12 includes a light receiving element 30g1, a light receiving element 30c2, a light receiving element 30g3, and a light receiving element 30c4.
  • the light receiving element group PG13 includes a light receiving element 30b1, a light receiving element 30c2, a light receiving element 30b3, and a light receiving element 30c4. Each light receiving element is the same as the light receiving element shown in FIG. 1 or FIG.
  • the light receiving element 30r1, the light receiving element 30r3, the light receiving element 30g1, the light receiving element 30g3, the light receiving element 30b1, and the light receiving element 30b3 are first light receiving elements that generate a first signal charge for generating a color image.
  • the light receiving element 30c2 and the light receiving element 30c4 are second light receiving elements that generate a second signal charge for detecting the phase difference.
  • the light receiving element 30c2 and the light receiving element 30c4 may have sensitivity in the entire wavelength region as well as green light and blue light.
  • the charge-voltage conversion element 40 individually converts the signal charge generated by the second light-receiving element into a voltage.
  • the second light receiving element receives light in a wavelength region wider than the wavelength region of the light received by the first light receiving element. Therefore, the signal charge generated by the second light receiving element is relatively large. Therefore, a high S / N ratio is realized and the accuracy of distance measurement is improved.
  • the charge-voltage conversion element 40 mixes the signal charges generated by the two first light-receiving elements included in the light-receiving element group and converts them into a voltage. As a result, a high S / N ratio is realized and the image quality of the color image is improved.
  • NBI Near Band Imaging
  • a blood vessel at a shallow position is detected based on a blue image
  • a blood vessel at a deep position is detected based on a green image.
  • the red color filter is not required in this imaging method, for example, the light receiving element 30r1 and the light receiving element 30r3 may be replaced with a light receiving element 30g1 or a light receiving element similar to the light receiving element 30b1.
  • FIG. 7 is a plan view of the image sensor 1c according to the second embodiment of the present invention.
  • the image pickup device 1c shown in FIG. 7 has a plurality of microlenses 10, a plurality of light receiving elements, and a plurality of charge-voltage conversion elements 40.
  • the image pickup device 1c does not have the light-shielding layer 20 shown in FIG.
  • FIG. 7 shows a state in which the semiconductor substrate constituting the image pickup device 1c is viewed in a plane in a direction perpendicular to the main surface of the semiconductor substrate.
  • the image pickup device 1c has a structure in which a plurality of layers are laminated. The state of the plurality of layers is shown in FIG.
  • the light receiving element group PG21 has nine light receiving elements 30r.
  • the light receiving element group PG22 has nine light receiving elements 30 g.
  • the light receiving element group PG23 has nine light receiving elements 30b.
  • the light receiving element 30rc is at the center of the nine light receiving elements 30r included in the light receiving element group PG21.
  • the light receiving element 30 gc is located at the center of the nine light receiving elements 30 g included in the light receiving element group PG22.
  • the light receiving element 30bc is located at the center of the nine light receiving elements 30b included in the light receiving element group PG23.
  • the light receiving element 30rc, the light receiving element 30 gc, and the light receiving element 30 bc are first light receiving elements that generate a first signal charge for generating a color image.
  • the eight light receiving elements 30r surrounding the light receiving element 30 rc, the eight light receiving elements 30 g surrounding the light receiving element 30 cc, and the eight light receiving elements 30 b surrounding the light receiving element 30 bc have a second signal charge for detecting the phase difference. Is a second light receiving element that produces.
  • the charge-voltage conversion element 40 converts the signal charge generated by the first light-receiving element into a voltage. Since the first light receiving element receives light that has passed through a position close to the center of the imaging lens 50, imaging is performed at a deep depth of field.
  • the charge-voltage conversion element 40 individually converts the signal charge generated by the second light-receiving element into a voltage.
  • the signal is read from the eight second light receiving elements of each light receiving element group and averaged. As a result, a signal suitable for high-precision distance measurement can be obtained.
  • the first light receiving element and the second light receiving element included in each light receiving element group form an array in which one of the number of rows and the number of columns is 3 or more and the other of the number of rows and the number of columns is 1 or more. There is a need.
  • the first light receiving element is arranged at the center of the array, and the second light receiving element is arranged at the outer periphery of the arrangement.
  • the number of light receiving element groups and the number of light receiving elements included in the light receiving element group are not limited to the example shown in FIG.
  • the number of rows in the array of light receiving elements may be 1, and the number of columns in the array may be 3.
  • the three light receiving elements are arranged in a row.
  • One first light receiving element is arranged in the center of the array and two second light receiving elements are arranged on both sides of the first light receiving element.
  • the image sensor 1c can perform imaging at a deep depth of field and can obtain a signal charge suitable for highly accurate distance measurement.
  • FIG. 8 is a plan view of the image sensor 1d according to the third embodiment of the present invention.
  • the image pickup device 1d shown in FIG. 8 has a plurality of microlenses 10, a plurality of light receiving elements, a plurality of charge-voltage conversion elements 40, and an infrared transmission layer 70.
  • FIG. 8 shows a state in which the semiconductor substrate constituting the image pickup device 1d is viewed in a plane in a direction perpendicular to the main surface of the semiconductor substrate.
  • the image pickup device 1d has a structure in which a plurality of layers are laminated. The state of the plurality of layers is shown in FIG.
  • the light receiving element group PG31 includes a light receiving element 30r1, a light receiving element 30g2, a light receiving element 30b3, and a light receiving element 30g4.
  • Each light receiving element functions as a first light receiving element that generates a first signal charge for generating a color image, and a second light receiving element that generates a second signal charge for detecting a phase difference. Functions as.
  • the infrared transmissive layer 70 is arranged between the plurality of microlenses 10 and the plurality of light receiving elements.
  • the infrared transmission layer 70 is a thin film formed of a material that transmits infrared light and blocks visible light.
  • the opening OP2 is formed at a position overlapping the microlens 10 and the light receiving element group PG31.
  • the opening OP2 overlaps the central portion of the light receiving element group PG31.
  • the opening OP2 overlaps a part of each of the four light receiving elements included in the light receiving element group PG31.
  • the infrared transmission layer 70 transmits infrared light that has passed through the microlens 10.
  • the infrared light transmitted through the infrared transmission layer 70 is incident on the four light receiving elements included in each light receiving element group PG31.
  • the infrared transmission layer 70 blocks a part of visible light that has passed through the microlens 10.
  • a part of the light that has passed through the microlens 10 passes through the aperture OP2 and is incident on the four light receiving elements included in each light receiving element group PG31.
  • the imaging lens 50, the imaging element 1d, and the light source device shown in FIG. 2 are included in the imaging device.
  • the light source device is not shown in FIG.
  • the light source device 101 shown in FIG. 10 in the fourth embodiment described later may be used.
  • the light source device can switch between a first state of generating visible light and a second state of generating infrared light.
  • the state of the light source device is one of a first state and a second state.
  • the infrared transmissive layer 70 includes a material that transmits infrared light that has passed through the imaging lens 50 and the microlens 10 and blocks visible light that has passed through the imaging lens 50 and the microlens 10.
  • the light receiving element group PG31 has two or more light receiving elements.
  • An aperture OP2 is formed in the infrared transmissive layer 70 so that light that has passed through the imaging lens 50 and the microlens 10 is incident on two or more light receiving elements.
  • the state of the light source device is the first state
  • the two or more light receiving elements function as the first light receiving element.
  • the two or more light receiving elements receive visible light that has passed through the imaging lens 50, the microlens 10, and the aperture OP2, and generate a first signal charge based on the received visible light.
  • the state of the light source device is the second state
  • the two or more light receiving elements function as the second light receiving element.
  • the two or more light receiving elements receive infrared light that has passed through the imaging lens 50, the microlens 10, and the infrared transmission layer 70, and generate a second signal charge based on the received infrared light.
  • the number of light receiving element groups and the number of light receiving elements included in the light receiving element group are not limited to the example shown in FIG.
  • FIG. 9 shows the respective timings of light emission and signal reading.
  • the state of the light source device is the first state
  • the light source device When the state of the light source device is the first state, the light source device generates visible light. For example, a light source device produces white light.
  • the infrared transmission layer 70 functions as a light-shielding layer. A part of the light that has passed through the imaging lens 50 and the microlens 10 is blocked by the infrared transmission layer 70. A part of the light that has passed through the imaging lens 50 and the microlens 10 passes through the aperture OP2 and is incident on the light receiving element 30r1, the light receiving element 30g2, the light receiving element 30b3, and the light receiving element 30g4. Each light receiving element produces a first signal charge.
  • each light receiving element receives light that has passed through a position near the center of the imaging lens 50. Therefore, each light receiving element receives light that has passed through an imaging lens having a substantially large F value. As a result, imaging is performed with a deep depth of field.
  • the state of the light source device becomes the second state, and the light source device generates infrared light.
  • the light source device generates near-infrared light having a wavelength near 850 nm.
  • the infrared light passes through the imaging lens 50, the microlens 10, and the infrared transmission layer 70, and is incident on the light receiving element 30r1, the light receiving element 30g2, the light receiving element 30b3, and the light receiving element 30g4.
  • Each light receiving element produces a second signal charge.
  • each light receiving element receives light that has passed through a position far from the center of the imaging lens 50. Therefore, each light receiving element receives light that has passed through an imaging lens having a substantially small F value. As a result, a signal charge suitable for highly accurate distance measurement can be obtained.
  • the image sensor 1d can perform imaging at a deep depth of field and can obtain a signal charge suitable for highly accurate distance measurement.
  • FIG. 10 shows the configuration of the endoscope device 2 according to the fourth embodiment of the present invention.
  • the endoscope device 2 shown in FIG. 10 includes a light source unit 100, a scope 110, a control unit 120, and a monitor 130.
  • the light source unit 100 has a light source device 101 and a lens 102.
  • the light source device 101 generates light.
  • the light source device 101 may function as the light source device of the third embodiment that generates visible light and infrared light.
  • the lens 102 causes the light generated from the light source device 101 to enter the scope 110.
  • the scope 110 includes a light guide 111, an illumination lens 112, an imaging lens 113, and an image pickup element 114.
  • the illumination lens 112, the image pickup lens 113, and the image pickup element 114 are arranged at the tip 110a of the scope 110.
  • the light generated from the light source device 101 enters the light guide 111 via the lens 102.
  • the light guide 111 transmits the light generated from the light source device 101 to the tip 110a of the scope 110.
  • the light transmitted by the light guide 111 is applied to the subject SB1 by the illumination lens 112.
  • the imaging lens 113 is arranged adjacent to the illumination lens 112.
  • the light reflected by the subject SB1 is incident on the imaging lens 113.
  • the image pickup lens 113 causes the light from the subject SB1 to enter the image pickup element 114.
  • the image sensor 114 is the same as the image sensor of any one of the first to third embodiments.
  • the image pickup device 114 includes a first light receiving element that generates a first signal charge for generating a color image, and a second light receiving element that generates a second signal charge for detecting a phase difference. ..
  • the image sensor 114 generates a first signal based on the first signal charge and a second signal based on the second signal charge.
  • the control unit 120 has at least one of a processor and a logic circuit.
  • the processor is at least one of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • the logic circuit is at least one of ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array).
  • the control unit 120 can include one or more processors.
  • the control unit 120 may include one or more logic circuits.
  • the control unit 120 receives the first signal and the second signal from the image sensor 114.
  • the control unit 120 generates a video signal of the subject SB1 based on the first signal.
  • the control unit 120 calculates the phase difference (parallax) between the two second signals corresponding to the second signal charges generated by the two second light receiving elements that are different from each other.
  • the control unit 120 calculates the distance to the subject SB1 based on the calculated phase difference, and executes AF control based on the calculated distance.
  • the control unit 120 may measure the shape of the subject SB1 by calculating the distance to the subject SB1.
  • the monitor 130 is a liquid crystal display, an organic EL (Electroluminescence) display, or the like.
  • the monitor 130 displays a color image based on the video signal generated by the control unit 120.
  • the endoscope device 2 has the same image pickup device 114 as any one of the image pickup devices of the first to third embodiments. Therefore, the endoscope device 2 can perform imaging at a deep depth of field and can obtain a signal charge suitable for highly accurate distance measurement.
  • FIG. 11 shows the configuration of the surgical microscope system 3 according to the fifth embodiment of the present invention.
  • the surgical microscope system 3 shown in FIG. 11 includes a mirror body portion 150, a support portion 160, a monitor 170, a monitor arm 180, a control unit 190, and a foot switch 200.
  • the mirror body unit 150 is the main body of the imaging unit for photographing the subject SB2.
  • the support portion 160 supports the mirror body portion 150.
  • the monitor 170 displays a color image of the subject.
  • the monitor arm 180 supports the monitor 170 so that the monitor 170 can move.
  • the foot switch 200 is an operation unit operated by the user U1.
  • FIG. 12 shows the configuration of the mirror body portion 150 and the support portion 160.
  • the mirror body portion 150 includes an imaging lens 151 and an imaging element 152.
  • the image pickup lens 151 causes the light from the subject SB2 to enter the image pickup element 152.
  • the image sensor 152 is the same as the image sensor of any one of the first to third embodiments.
  • the image pickup device 152 includes a first light receiving element that generates a first signal charge for generating a color image, and a second light receiving element that generates a second signal charge for detecting a phase difference. ..
  • the image sensor 152 generates a first signal based on the first signal charge and generates a second signal based on the second signal charge.
  • a grip 210 is attached to the exterior of the mirror body 150 so that the user U1 can easily move the mirror body 150.
  • a push button type grip switch 211 is arranged on the grip 210. The user U1 holds the grip 210 and presses the grip switch 211 in order to move the mirror body portion 150. As a result, the user U1 moves the support portion 160. When the user U1 releases the grip switch 211, the support portion 160 is fixed in the current form. As a result, the mirror body portion 150 is fixed at the position and orientation desired by the user U1.
  • the support portion 160 has a pedestal 161 fixed at a predetermined position, a plurality of arm rods 162, and a plurality of joints 163 that flexibly connect the arm rods 162.
  • the arm rod 162 has an electromagnetic brake not shown in FIG.
  • the state of the electromagnetic brake is set to the operating state or the stopped state.
  • the support portion 160 is fixed.
  • each joint 163 becomes rotatable.
  • the control unit 190 is arranged on the gantry 161.
  • the control unit 190 has at least one of a processor and a logic circuit.
  • the control unit 190 can include one or more processors.
  • the control unit 190 can include one or more logic circuits.
  • the control unit 190 receives the first signal and the second signal from the image sensor 152.
  • the control unit 190 generates a video signal of the subject SB2 based on the first signal.
  • the control unit 190 calculates the phase difference (parallax) between the two second signals corresponding to the second signal charges generated by the two second light receiving elements that are different from each other.
  • the control unit 190 calculates the distance to the subject SB2 based on the calculated phase difference, and executes AF control based on the calculated distance.
  • the control unit 190 may measure the shape of the subject SB2 by calculating the distance to the subject SB2.
  • the surgical microscope system 3 has the same image pickup device 152 as any one of the image pickup devices of the first to third embodiments. Therefore, the surgical microscope system 3 can perform imaging at a deep depth of field and can obtain a signal charge suitable for highly accurate distance measurement.
  • the solid-state image sensor, the image pickup device, the endoscopic device, and the surgical microscope system can perform imaging at a deep depth of field, and can be used for highly accurate distance measurement. A suitable signal charge can be obtained.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

固体撮像素子は、複数の受光素子およびマイクロレンズを有する。受光素子グループは、1つ以上の第1の受光素子および2つ以上の第2の受光素子を有する。前記第1の受光素子は、被写体の光像を前記複数の受光素子上に形成する結像レンズを通過した光を受光する。前記2つ以上の第2の受光素子は、前記結像レンズの互いに異なる領域を通過した光を受光する。前記第1の受光素子は、前記結像レンズの中心を含む前記結像レンズの第1の領域を通過した光を受光する。前記第2の受光素子は、前記第1の領域よりも外側の位置を含む前記結像レンズの第2の領域を通過した光を受光する。

Description

固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム
 本発明は、固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システムに関する。
 特許文献1に開示されているように、市販のデジタルカメラなどでは、撮像面における視差を検出するための像面位相差画素などを用いたAF制御を実行することによりAF精度の向上が図られている。この機能を用いると距離情報が得られる。そのため、像面位相差画素を用いた凹凸形状の計測への応用が期待される。
 図13および図14は、視差を検出する原理を示す。被写体SB10から発生した光は、結像レンズ500を通過し、撮像素子の画素アレイ上に設けられたマイクロレンズ510を通過する。結像レンズ500の瞳の像が、マイクロレンズ510によって画素の受光素子(PD)へ投影される。被写体SB10上の同じ位置から発生した光は、結像レンズ500の瞳を通過する位置に応じて、受光素子の左側の領域または右側の領域に入射する。2つの領域に入射した光を分離できれば、瞳の右半分と左半分とから見た、視差がある2つの像を再生できる。そのため、1つの結像レンズ500を使用することにより、2つのレンズで立体視を実施した場合と同じ状況を実現できる。2つの領域の信号に基づいて視差を検出できる。
 図13は、結像レンズ500のF値が小さい場合を示す。この場合、結像レンズ500の中心から離れた結像レンズ500の瞳位置を通った光の成分が多い。図14は、結像レンズ500のF値が大きい場合を示す。この場合、結像レンズ500の中心に近い瞳位置を通った光の成分が多い。図13に示すF値が小さい場合は、図14に示すF値が大きい場合よりも視差の検出に適している。
 視差を検出するための画素を実現する方法として、例えば2つの方法がある。第1の方法では、2つの画素のペアが使用される。2つの画素の一方の右半分が遮光され、2つの画素の他方の左半分が遮光される。第2の方法では、2つの画素にまたがったマイクロレンズが形成される。
日本国特開2019-152807号公報
 撮像素子の小型化と画質の向上とを実現するために、画素を微細化し、かつチップを積層する技術が開発されている。しかしながら、微細化した画素に合わせて結像レンズのF値が小さくなり、多画素化により高くなる像高に合わせて焦点距離が長くなった場合、一般的に被写界深度は浅くなる。また、画素の微細化に伴い、許容錯乱円径が小さくなる。
 手前側から奥側までの被写体に焦点を合わせるパンフォーカスを用いた撮像が理想的な状況では、浅い被写界深度は好ましくない。一般的に、結像レンズのF値は、解像感が得られる範囲内で、できるだけ大きくなるように設計される。F値が大きい場合、結像レンズの中心に近い位置を通った光の成分が多く、像面位相差画素に基づいて検出される距離情報の精度が低下する。そのため、深い被写界深度と高精度な距離測定とを両立させることが難しい。
 像面位相差を検出するための画素を実現する第1の方法および第2の方法では、大きなF値を持つ結像レンズが使用された場合、上記と同様に距離情報の精度が低下する。一方、小さなF値を持つ結像レンズが使用された場合、被写界深度が浅くなり、パンフォーカスを用いた撮像の実施が難しい。
 本発明は、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システムを提供することを目的とする。
 本発明の第1の態様によれば、固体撮像素子は、複数の受光素子およびマイクロレンズを有する。前記複数の受光素子は、行列状に配置されている。前記マイクロレンズは、前記複数の受光素子上において、受光素子グループに対して配置されている。前記受光素子グループは、前記複数の受光素子に含まれる1つ以上の第1の受光素子および前記複数の受光素子に含まれる2つ以上の第2の受光素子を有する。前記第1の受光素子は、被写体の光像を前記複数の受光素子上に形成する結像レンズを通過した光を受光し、受光した前記光に基づいて第1の信号電荷を生成する。前記2つ以上の第2の受光素子は、前記結像レンズの互いに異なる瞳領域を通過した光を受光し、受光した前記光に基づいて第2の信号電荷を生成する。前記第1の受光素子は、前記結像レンズの中心を含む前記結像レンズの第1の領域を通過した光を受光する。前記第2の受光素子は、前記第1の領域よりも外側の位置を含む前記結像レンズの第2の領域を通過した光を受光する。
 本発明の第2の態様によれば、第1の態様において、前記固体撮像素子は、前記マイクロレンズと前記複数の受光素子との間に配置された遮光層をさらに備えてもよい。前記結像レンズおよび前記マイクロレンズを通過した光を前記第1の受光素子に入射させる第1の開口と、前記結像レンズおよび前記マイクロレンズを通過した光を前記第2の受光素子に入射させる第2の開口とが前記遮光層に形成されてもよい。前記第2の開口は前記第1の開口よりも大きくてもよい。
 本発明の第3の態様によれば、第2の態様において、前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数が2以上である配列を形成してもよい。前記配列を平面的に見たときに、前記配列が形成する図形は、前記第1の受光素子を通る第1の対角線および前記第2の受光素子を通る第2の対角線を含んでもよい。前記第2の対角線と平行な方向における前記第2の開口の幅は、前記第1の対角線と平行な方向における前記第1の開口の幅よりも大きくてもよい。
 本発明の第4の態様によれば、第1の態様において、前記受光素子グループは、2つ以上の前記第1の受光素子を有してもよい。前記固体撮像素子は、前記受光素子グループに含まれる2つ以上の前記第1の受光素子によって生成された前記第1の信号電荷を混合し、かつ電圧に変換し、前記受光素子グループに含まれる前記第2の受光素子によって生成された前記第2の信号電荷を電圧に変換する電荷電圧変換素子を有してもよい。
 本発明の第5の態様によれば、第1の態様において、前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数の一方が3以上であり、かつ前記行数および前記列数の他方が1以上である配列を形成してもよい。前記第1の受光素子は前記配列の中心部に配置され、前記第2の受光素子は前記配列の外周部に配置されてもよい。
 本発明の第6の態様によれば、撮像装置は、前記固体撮像素子および前記結像レンズを有する。
 本発明の第7の態様によれば、第6の態様において、前記撮像装置は、前記第1の信号電荷に基づいて生成された第1の信号を前記第1の受光素子から読み出し、かつ前記第2の信号電荷に基づいて生成された第2の信号を前記第2の受光素子から読み出す読み出し回路をさらに備えてもよい。前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数が2以上である配列を形成してもよい。前記読み出し回路は、前記配列の各行に割り当てられた期間内で前記第1の信号および前記第2の信号を出力するレートが前記配列の行間で平準化されるように前記第1の信号および前記第2の信号を読み出してもよい。
 本発明の第8の態様によれば、第6の態様において、前記撮像装置は、可視光を発生する第1の状態と、赤外光を発生する第2の状態とを切り替え可能な光源装置をさらに備えてもよい。前記固体撮像素子は、前記マイクロレンズと前記複数の受光素子との間に配置され、前記結像レンズおよび前記マイクロレンズを通過した前記赤外光を透過させ、前記結像レンズおよび前記マイクロレンズを通過した前記可視光を遮光する材料を含む赤外透過層をさらに備えてもよい。前記受光素子グループは、2つ以上の受光素子を有してもよい。前記結像レンズおよび前記マイクロレンズを通過した光を前記2つ以上の受光素子に入射させる開口が前記赤外透過層に形成されてもよい。前記光源装置の状態が前記第1の状態であるとき、前記2つ以上の受光素子は、前記第1の受光素子として機能し、前記結像レンズ、前記マイクロレンズ、および前記開口を通過した前記可視光を受光し、受光した前記可視光に基づいて前記第1の信号電荷を生成してもよい。前記光源装置の状態が前記第2の状態であるとき、前記2つ以上の受光素子は、前記第2の受光素子として機能し、前記結像レンズ、前記マイクロレンズ、および前記赤外透過層を通過した前記赤外光を受光し、受光した前記赤外光に基づいて前記第2の信号電荷を生成してもよい。
 本発明の第9の態様によれば、内視鏡装置は、前記固体撮像素子が先端に配置されたスコープと、コントロールユニットとを備える。前記コントロールユニットは、前記第1の信号電荷に基づいて生成された第1の信号と、前記第2の信号電荷に基づいて生成された第2の信号とを受信し、前記第1の信号に基づいて前記被写体の映像信号を生成し、互いに異なる2つの前記第2の受光素子によって生成された前記第2の信号電荷に対応する2つの前記第2の信号間の視差を算出する。
 本発明の第10の態様によれば、手術用顕微鏡システムは、前記固体撮像素子およびコントロールユニットを備える。前記コントロールユニットは、前記第1の信号電荷に基づいて生成された第1の信号と、前記第2の信号電荷に基づいて生成された第2の信号とを受信し、前記第1の信号に基づいて前記被写体の映像信号を生成し、互いに異なる2つの前記第2の受光素子によって生成された前記第2の信号電荷に対応する2つの前記第2の信号間の視差を算出する。
 上記の各態様によれば、固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システムは、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
本発明の第1の実施形態の撮像素子の平面図である。 本発明の第1の実施形態の撮像素子の断面図である。 本発明の第1の実施形態の撮像素子の断面図である。 本発明の第1の実施形態における受光素子から信号を読み出す方法を示す図である。 本発明の第1の実施形態の第1の変形例の撮像素子の平面図である。 本発明の第1の実施形態の第2の変形例の撮像素子の平面図である。 本発明の第2の実施形態の撮像素子の平面図である。 本発明の第3の実施形態の撮像素子の平面図である。 本発明の第3の実施形態における発光と信号の読み出しとの各々のタイミングを示す図である。 本発明の第4の実施形態の内視鏡装置の構成を示すブロック図である。 本発明の第5の実施形態の手術用顕微鏡システムの構成を示す図である。 本発明の第5の実施形態の手術用顕微鏡システムが有する鏡体部および支持部の構成を示す図である。 視差を検出する原理を示す図である。 視差を検出する原理を示す図である。
 図面を参照し、本発明の実施形態を説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の撮像素子1(固体撮像素子)の平面図である。図1に示す撮像素子1は、複数のマイクロレンズ10、遮光層20、複数の受光素子、および複数の電荷電圧変換素子40を有する。撮像素子1を構成する半導体基板をその半導体基板の主面に垂直な方向に平面的に見たときの状態が図1に示されている。撮像素子1は、複数の層が積層された構造を有する。その複数の層の状態が図1に示されている。
 複数の受光素子グループが配置されている。図1に示す例では、受光素子グループPG1、受光素子グループPG2、および受光素子グループPG3が配置されている。受光素子グループPG1は、受光素子30r1、受光素子30r2、受光素子30r3、および受光素子30r4を有する。受光素子グループPG2は、受光素子30g1、受光素子30g2、受光素子30g3、および受光素子30g4を有する。受光素子グループPG3は、受光素子30b1、受光素子30b2、受光素子30b3、および受光素子30b4を有する。各受光素子は、画素に対応する。各受光素子グループは、1つのマイクロレンズ10と対応する位置に配置されている。
 各受光素子グループに含まれる4つの受光素子は、フォトダイオード(光センサ)であり、半導体材料で形成されている。受光素子グループPG1に含まれる4つの受光素子は、赤の波長帯域の光(赤色光)を受光し、受光した赤色光に基づいて信号電荷を生成する。受光素子グループPG2に含まれる4つの受光素子は、緑の波長帯域の光(緑色光)を受光し、受光した緑色光に基づいて信号電荷を生成する。受光素子グループPG3に含まれる4つの受光素子は、青の波長帯域の光(青色光)を受光し、受光した青色光に基づいて信号電荷を生成する。
 16個の受光素子が行列状に配置されている。16個の受光素子の配列の行数および列数は4である。各受光素子グループは、4つの受光素子を有する。各受光素子グループに含まれる4つの受光素子の配列の行数および列数は2である。図1に示す16個の受光素子の各々は、複数の受光素子グループのいずれか1つに含まれる。
 各受光素子グループに含まれる4つの受光素子の配列は、ほぼ正方形を形成する。その正方形は、2つの頂点を通る対角線L1と、他の2つの頂点を通る対角線L2とを有する。
 4つの電荷電圧変換素子40が配置されている。電荷電圧変換素子40は、各受光素子グループに配置されている。電荷電圧変換素子40は、受光素子によって生成された信号電荷を電圧に変換する。各受光素子グループに含まれる4つの受光素子は、1つの電荷電圧変換素子40を共有する。
 遮光層20は、複数のマイクロレンズ10と複数の受光素子との間に配置されている。例えば、遮光層20は、金属で形成された薄膜である。マイクロレンズ10と重なり、かつ各受光素子グループと重なる位置に開口OP1が形成されている。4つの開口OP1が図1に示されている。4つの開口OP1の形状は同じであり、4つの開口OP1の大きさは同じである。対角線L2と平行な方向における開口OP1の幅W2は、対角線L1と平行な方向における開口OP1の幅W1よりも大きい。遮光層20は、マイクロレンズ10を通過した光の一部を遮光する。マイクロレンズ10を通過した光の一部は、開口OP1を通過し、受光素子に入射する。
 複数のマイクロレンズ10は、図2に示す結像レンズ50と複数の受光素子との間に配置されている。マイクロレンズ10は、結像レンズ50を通過した光の一部を受光素子に照射する。
 各受光素子グループは、2つの第1の受光素子および2つの第2の受光素子を有する。2つの第1の受光素子は、対角線L1に沿って配置されている。2つの第2の受光素子は、対角線L2に沿って配置されている。例えば、受光素子グループPG2における2つの第1の受光素子は受光素子30g1および受光素子30g3である。受光素子グループPG2における2つの第2の受光素子は受光素子30g2および受光素子30g4である。
 撮像素子1は、1つ以上の受光素子グループを含む必要がある。各受光素子グループは、1つ以上の第1の受光素子および2つ以上の第2の受光素子を有する必要がある。受光素子グループの数および受光素子グループに含まれる受光素子の数は、図1に示す例に限らない。
 開口OP1は、仮想的に開口OP1a、開口OP1b、開口OP1c、および開口OP1dに分割される。開口OP1aおよび開口OP1bは、対角線L1に沿って配置されている。開口OP1cおよび開口OP1dは、対角線L2に沿って配置されている。
 開口OP1aおよび開口OP1bを通過した光は、第1の受光素子に入射する。例えば、受光素子グループPG2における開口OP1aおよび開口OP1bを通過した光は、受光素子30g1および受光素子30g3にそれぞれ入射する。受光素子30g1に入射した光が通過する結像レンズ50の領域と、受光素子30g3に入射した光が通過する結像レンズ50の領域とは、互いに異なる。開口OP1cおよび開口OP1dを通過した光は、第2の受光素子に入射する。例えば、受光素子グループPG2における開口OP1cおよび開口OP1dを通過した光は、受光素子30g2および受光素子30g4にそれぞれ入射する。受光素子30g2に入射した光が通過する結像レンズ50の領域と、受光素子30g4に入射した光が通過する結像レンズ50の領域とは、互いに異なる。
 第1の開口および第2の開口が遮光層20に形成されている。第1の開口は、開口OP1aおよび開口OP1bであり、結像レンズ50およびマイクロレンズ10を通過した光を第1の受光素子に入射させる。第2の開口は、開口OP1cおよび開口OP1dであり、結像レンズ50およびマイクロレンズ10を通過した光を第2の受光素子に入射させる。開口OP1の幅W2が開口OP1の幅W1よりも大きいため、開口OP1cおよび開口OP1dは、開口OP1aおよび開口OP1bよりも大きい。
 各受光素子グループに含まれる第1の受光素子および第2の受光素子は、行数および列数が2以上である配列を形成する。その配列を平面的に見たときに、その配列が形成する図形は、第1の受光素子を通る対角線L1(第1の対角線)および第2の受光素子を通る対角線L2(第2の対角線)を含む。対角線L2と平行な方向における開口OP1cおよび開口OP1dの幅(幅W2の半分)は、対角線L1と平行な方向における開口OP1aおよび開口OP1bの幅(幅W1の半分)よりも大きい。
 光は、結像レンズ50の第1の領域およびマイクロレンズ10を通過し、開口OP1aおよび開口OP1bを通過する。また、光は、結像レンズ50の第2の領域およびマイクロレンズ10を通過し、開口OP1cおよび開口OP1dを通過する。開口OP1aおよび開口OP1bの大きさ(面積)と開口OP1cおよび開口OP1dの大きさ(面積)とが互いに異なる。そのため、結像レンズ50の第1の領域の大きさ(瞳径)と結像レンズ50の第2の領域の大きさ(瞳径)とが互いに異なる。
 開口OP1cおよび開口OP1dが開口OP1aおよび開口OP1bよりも大きいため、結像レンズ50の第2の領域は結像レンズ50の第1の領域よりも大きい。第1の受光素子は、開口OP1aおよび開口OP1bを通過した光を受光し、第2の受光素子は、開口OP1cおよび開口OP1dを通過した光を受光する。
 第1の受光素子を使用する撮像は、実質的に大きなF値を持つ結像レンズを使用する撮像と同じである。第1の受光素子で得られた信号電荷は、高精度な距離測定に適していないが、第1の受光素子を使用する撮像では被写界深度が深い。例えば、第1の受光素子で得られた信号電荷は、カラー画像を生成するために使用される。
 第2の受光素子を使用する撮像は、実質的に小さなF値を持つ結像レンズを使用する撮像と同じである。第2の受光素子を使用する撮像では、被写界深度は浅くなるが、第2の受光素子で得られた信号電荷は、高精度な距離測定に適している。例えば、第2の受光素子で得られた信号電荷は、位相差を検出するために使用される。
 図2は、図1に示す線A-A’の位置における撮像素子1の断面図である。受光素子30r1、受光素子30r3、受光素子30b1、および受光素子30b3を通る断面における撮像素子1の構成が図2に示されている。また、結像レンズ50が図2に示されている。結像レンズ50および撮像素子1は、撮像装置に含まれる。
 図2に示す各受光素子は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子である。各受光素子の表面上に絶縁層IL1が形成されている。絶縁層IL1の内部に遮光層20が形成されている。複数の受光素子と部分的に重なる位置に開口OP1が形成されている。図2に示す断面における開口OP1の幅はW1である。
 絶縁層IL1上にカラーフィルタCFrおよびカラーフィルタCFbが形成されている。カラーフィルタCFrおよびカラーフィルタCFbは、複数のマイクロレンズ10と遮光層20との間に配置されている。カラーフィルタCFrは、受光素子30r1、受光素子30r2、受光素子30r3、および受光素子30r4と重なる位置に配置されている。カラーフィルタCFbは、受光素子30b1、受光素子30b2、受光素子30b3、および受光素子30b4と重なる位置に配置されている。
 結像レンズ50およびマイクロレンズ10を通過した光がカラーフィルタCFrおよびカラーフィルタCFbに入射する。赤色光がカラーフィルタCFrを透過し、青色光がカラーフィルタCFbを透過する。カラーフィルタCFrを透過した光の一部は、開口OP1を通過し、受光素子30r1、受光素子30r2、受光素子30r3、および受光素子30r4に入射する。カラーフィルタCFbを透過した光の一部は、開口OP1を通過し、受光素子30b1、受光素子30b2、受光素子30b3、および受光素子30b4に入射する。
 カラーフィルタCFrおよびカラーフィルタCFb上に絶縁層IL2が形成されている。絶縁層IL2の表面に複数のマイクロレンズ10が形成されている。複数のマイクロレンズ10の光学的に前方に結像レンズ50が配置されている。受光素子30r1、受光素子30r2、受光素子30r3、および受光素子30r4は、結像レンズ50の光軸に垂直な方向に結像レンズ50の中心C1から距離D1だけ離れた位置P1および位置P2よりも内側の領域R1を通過した光を受光する。
 図2に示す各受光素子(第1の受光素子)は、結像レンズ50の中心C1に近い位置を通過した光を受光する。そのため、第1の受光素子は、実質的に大きなF値を持つ結像レンズを通過した光を受光する。これにより、深い被写界深度で撮像が実施される。
 大きなF値を持つ結像レンズを通過した光は相対的に暗いため、第1の受光素子で生成される信号電荷は相対的に少ない。その信号電荷は位相差の検出に使用されないため、電荷電圧変換素子40は、受光素子グループに含まれる2つ以上の第1の受光素子によって生成された第1の信号電荷を混合し、かつ電圧に変換する。これにより、信号を読み出す時間が短縮され、高いS/N比が実現される。
 図3は、図1に示す線B-B’の位置における撮像素子1の断面図である。2つの受光素子30g2および2つの受光素子30g4を通る断面における撮像素子1の構成が図3に示されている。また、結像レンズ50が図3に示されている。図2に示す構成と同じ構成の説明を省略する。
 図3に示す各受光素子は、位相差を検出するための第2の信号電荷を生成する第2の受光素子である。図3に示す断面における開口OP1の幅はW2である。絶縁層IL1上にカラーフィルタCFgが形成されている。カラーフィルタCFgは、複数のマイクロレンズ10と遮光層20との間に配置されている。カラーフィルタCFgは、受光素子30g1、受光素子30g2、受光素子30g3、および受光素子30g4と重なる位置に配置されている。
 結像レンズ50およびマイクロレンズ10を通過した光がカラーフィルタCFgに入射する。緑色光がカラーフィルタCFgを透過する。カラーフィルタCFgを透過した光の一部は、開口OP1を通過し、受光素子30g1、受光素子30g2、受光素子30g3、および受光素子30g4に入射する。受光素子30g1、受光素子30g2、受光素子30g3、および受光素子30g4は、結像レンズ50の光軸に垂直な方向に結像レンズ50の中心C1から距離D2だけ離れた位置P3および位置P4よりも内側の領域R2を通過した光を受光する。
 位置P3(位置P4)と中心C1との間の距離D2は、図2に示す位置P1(位置P2)と中心C1との間の距離D1よりも大きい。そのため、領域R2は、図1に示す領域R1を含み、領域R1よりも大きい。領域R2は、領域R1よりも外側の位置を含む。
 図3に示す各受光素子(第2の受光素子)は、結像レンズ50の中心C1から遠い位置を通過した光を受光する。そのため、第2の受光素子は、実質的に小さなF値を持つ結像レンズを通過した光を受光する。これにより、高精度な距離測定に適した信号電荷が得られる。
 小さなF値を持つ結像レンズを通過した光は相対的に明るいため、第2の受光素子で生成される信号電荷は相対的に多い。電荷電圧変換素子40は、受光素子グループに含まれる第2の受光素子によって生成された第2の信号電荷を個別に電圧に変換する。これにより、電荷電圧変換素子40の飽和が回避され、高精度な距離測定を実施するための信号が得られる。
 図4は、各受光素子から信号を読み出す方法を示す。撮像装置は、図4に示す読み出し回路60を有する。読み出し回路60は、第1の信号電荷に基づいて生成された第1の信号を第1の受光素子から読み出し、かつ第2の信号電荷に基づいて生成された第2の信号を第2の受光素子から読み出す。読み出し回路60は、第1の信号を受光素子30r1、受光素子30r3、受光素子30g1、受光素子30g3、受光素子30b1、および受光素子30b3から読み出す。読み出し回路60は、第2の信号を受光素子30r2、受光素子30r4、受光素子30g2、受光素子30g4、受光素子30b2、および受光素子30b4から読み出す。読み出し回路60は、複数の受光素子の配列の各行に割り当てられた期間内で第1の信号および第2の信号を出力するレートがその配列の行間で平準化されるように第1の信号および第2の信号を読み出す。
 数字を含む文字列(R1、G1、B1等)が図4に示す各受光素子上に示されている。各文字列は、各受光素子において信号電荷に基づいて生成された信号を示す。
 奇数に対応する受光素子は第1の信号電荷を生成する。電荷電圧変換素子40は、受光素子グループに含まれる2つ以上の第1の受光素子によって生成された第1の信号電荷を混合し、かつ第1の信号に変換する。読み出し回路60は、第1の信号を読み出す。第1の信号はカラー画像の生成に使用される。偶数に対応する受光素子は第2の信号電荷を生成する。電荷電圧変換素子40は、第2の信号電荷を第2の信号に変換する。読み出し回路60は、第2の信号を個別に読み出す。第2の信号は位相差の検出に使用される。
 例えば、読み出し回路60は、第1行に割り当てられた第1の期間において、受光素子30g4の信号G4、受光素子30g1および受光素子30g3の信号(G1+G3)、および受光素子30b4の信号B4を読み出す。読み出し回路60は、第2行に割り当てられた第2の期間において、受光素子30g2の信号G2、受光素子30b1および受光素子30b3の信号(B1+B3)、および受光素子30b2の信号B2を読み出す。
 読み出し回路60は、第3行に割り当てられた第3の期間において、受光素子30r4の信号R4、受光素子30r1および受光素子30r3の信号(R1+R3)、および受光素子30g4の信号G4を読み出す。読み出し回路60は、第4行に割り当てられた第4の期間において、受光素子30r2の信号R2、受光素子30g1および受光素子30g3の信号(G1+G3)、および受光素子30g2の信号G2を読み出す。
 読み出し回路60は、各行に割り当てられた期間において、3つの信号を読み出す。その3つの信号のうちの1つは、2つの第1の受光素子の信号電荷を混合することにより生成された信号電荷に対応する。各期間において読み出される信号の数が一定であるため、信号を出力するレートが平準化される。
 上記のように、撮像素子1は、複数の受光素子(受光素子30r1、受光素子30g1、受光素子30b1等)およびマイクロレンズ10を有する。複数の受光素子は、行列状に配置されている。マイクロレンズ10は、複数の受光素子上において、受光素子グループ(受光素子グループPG1、受光素子グループPG2、および受光素子グループPG3)に対して配置されている。受光素子グループは、複数の受光素子に含まれる1つ以上の第1の受光素子(受光素子30r1、受光素子30r3等)および複数の受光素子に含まれる2つ以上の第2の受光素子(受光素子30r2、受光素子30r4等)を有する。第1の受光素子は、被写体の光像を複数の受光素子上に形成する結像レンズ50を通過した光を受光し、受光した光に基づいて第1の信号電荷を生成する。2つ以上の第2の受光素子は、結像レンズ50の互いに異なる領域を通過した光を受光し、受光した光に基づいて第2の信号電荷を生成する。第1の受光素子は、結像レンズ50の中心C1を含む結像レンズ50の第1の領域(領域R1)を通過した光を受光する。第2の受光素子は、第1の領域よりも外側の位置(位置P3および位置P4)を含む結像レンズ50の第2の領域(領域R2)を通過した光を受光する。
 第1の受光素子を使用することにより、深い被写界深度で撮像が実施され、第1の信号電荷が得られる。これと同時に、第2の信号電荷が第2の受光素子において得られる。第2の信号電荷は、高精度な距離測定に適している。そのため、撮像素子1は、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 (第1の実施形態の第1の変形例)
 図5は、本発明の第1の実施形態の第1の変形例の撮像素子1aの平面図である。図5に示す撮像素子1aは、複数のマイクロレンズ10、遮光層20、複数の受光素子、および複数の電荷電圧変換素子40を有する。撮像素子1aを構成する半導体基板をその半導体基板の主面に垂直な方向に平面的に見たときの状態が図5に示されている。マイクロレンズ10および遮光層20は図5に示されていない。
 複数の受光素子グループが配置されている。図5に示す例では、受光素子グループPG1、受光素子グループPG2、受光素子グループPG3、および受光素子グループPG4が配置されている。図1に示す受光素子グループと同じ受光素子グループの説明を省略する。
 受光素子グループPG4は、受光素子30c1、受光素子30c2、受光素子30c3、および受光素子30c4を有する。受光素子グループPG4は、縦方向および横方向に所定の間隔で配置されている。受光素子グループPG4に含まれる4つの受光素子は、緑色光および青色光を受光し、受光した緑色光および青色光に基づいて信号電荷を生成する。
 受光素子30c1および受光素子30c3は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子である。受光素子30c2および受光素子30c4は、位相差を検出するための第2の信号電荷を生成する第2の受光素子である。
 撮像素子1aの複数の受光素子は、図1に示す撮像素子1の複数の受光素子が受光する光の帯域よりも広い帯域の光を受光する。そのため、撮像素子1aは、フレーム毎に異なる狭帯域光を被写体に照射して被写体の分光特性を得たり、白色光を被写体に照射して高感度撮像を実施したりすることができる。
 (第1の実施形態の第2の変形例)
 図6は、本発明の第1の実施形態の第2の変形例の撮像素子1bの平面図である。図6に示す撮像素子1bは、複数のマイクロレンズ10、遮光層20、複数の受光素子、および複数の電荷電圧変換素子40を有する。撮像素子1bを構成する半導体基板をその半導体基板の主面に垂直な方向に平面的に見たときの状態が図6に示されている。マイクロレンズ10および遮光層20は図6に示されていない。
 複数の受光素子グループが配置されている。図6に示す例では、受光素子グループPG11、受光素子グループPG12、および受光素子グループPG13が配置されている。受光素子グループPG11は、受光素子30r1、受光素子30c2、受光素子30r3、および受光素子30c4を有する。受光素子グループPG12は、受光素子30g1、受光素子30c2、受光素子30g3、および受光素子30c4を有する。受光素子グループPG13は、受光素子30b1、受光素子30c2、受光素子30b3、および受光素子30c4を有する。各受光素子は、図1または図5に示す受光素子と同じである。
 受光素子30r1、受光素子30r3、受光素子30g1、受光素子30g3、受光素子30b1、および受光素子30b3は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子である。受光素子30c2および受光素子30c4は、位相差を検出するための第2の信号電荷を生成する第2の受光素子である。受光素子30c2および受光素子30c4は、緑色光および青色光だけでなく、全波長領域に感度を持っていてもよい。
 電荷電圧変換素子40は、第2の受光素子によって生成された信号電荷を個別に電圧に変換する。第2の受光素子は、第1の受光素子が受光する光の波長領域よりも広い波長領域の光を受光する。そのため、第2の受光素子で生成される信号電荷は相対的に多い。したがって、高いS/N比が実現され、距離測定の精度が向上する。
 電荷電圧変換素子40は、受光素子グループに含まれる2つの第1の受光素子によって生成された信号電荷を混合し、かつ電圧に変換する。これにより、高いS/N比が実現され、カラー画像の画質が向上する。
 NBI(Narrow Band Imaging)と呼ばれる撮像方法では、青の画像に基づいて浅い位置の血管が検出され、緑の画像に基づいて深い位置の血管が検出される。この撮像方法では赤のカラーフィルタは不要であるため、例えば受光素子30r1および受光素子30r3は受光素子30g1または受光素子30b1と同様の受光素子で置き換えられてもよい。
 (第2の実施形態)
 図7は、本発明の第2の実施形態の撮像素子1cの平面図である。図7に示す撮像素子1cは、複数のマイクロレンズ10、複数の受光素子、および複数の電荷電圧変換素子40を有する。撮像素子1cは、図1に示す遮光層20を有していない。撮像素子1cを構成する半導体基板をその半導体基板の主面に垂直な方向に平面的に見たときの状態が図7に示されている。撮像素子1cは、複数の層が積層された構造を有する。その複数の層の状態が図7に示されている。
 複数の受光素子グループが配置されている。図7に示す例では、受光素子グループPG21、受光素子グループPG22、および受光素子グループPG23が配置されている。受光素子グループPG21は、9個の受光素子30rを有する。受光素子グループPG22は、9個の受光素子30gを有する。受光素子グループPG23は、9個の受光素子30bを有する。
 受光素子30rcが、受光素子グループPG21に含まれる9個の受光素子30rの中心にある。受光素子30gcが、受光素子グループPG22に含まれる9個の受光素子30gの中心にある。受光素子30bcが、受光素子グループPG23に含まれる9個の受光素子30bの中心にある。受光素子30rc、受光素子30gc、および受光素子30bcは、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子である。受光素子30rcを囲む8個の受光素子30r、受光素子30gcを囲む8個の受光素子30g、および受光素子30bcを囲む8個の受光素子30bは、位相差を検出するための第2の信号電荷を生成する第2の受光素子である。
 電荷電圧変換素子40は、第1の受光素子によって生成された信号電荷を電圧に変換する。第1の受光素子は、結像レンズ50の中心に近い位置を通過した光を受光するため、深い被写界深度で撮像が実施される。
 電荷電圧変換素子40は、第2の受光素子によって生成された信号電荷を個別に電圧に変換する。信号が各受光素子グループの8個の第2の受光素子から読み出され、平均化される。これにより、高精度な距離測定に適した信号が得られる。
 各受光素子グループに含まれる第1の受光素子および第2の受光素子は、行数および列数の一方が3以上であり、かつ行数および列数の他方が1以上である配列を形成する必要がある。第1の受光素子はその配列の中心部に配置され、第2の受光素子はその配列の外周部に配置されている。
 受光素子グループの数および受光素子グループに含まれる受光素子の数は、図7に示す例に限らない。受光素子の配列の行数が1であり、その配列の列数が3であってもよい。この場合、3つの受光素子が一列に配置される。1つの第1の受光素子が配列の中心に配置され、2つの第2の受光素子が第1の受光素子の両側に配置される。
 第1の受光素子を使用することにより、深い被写界深度で撮像が実施され、第1の信号電荷が得られる。これと同時に、第2の信号電荷が第2の受光素子において得られる。第2の信号電荷は、高精度な距離測定に適している。そのため、撮像素子1cは、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 (第3の実施形態)
 図8は、本発明の第3の実施形態の撮像素子1dの平面図である。図8に示す撮像素子1dは、複数のマイクロレンズ10、複数の受光素子、複数の電荷電圧変換素子40、および赤外透過層70を有する。撮像素子1dを構成する半導体基板をその半導体基板の主面に垂直な方向に平面的に見たときの状態が図8に示されている。撮像素子1dは、複数の層が積層された構造を有する。その複数の層の状態が図8に示されている。
 複数の受光素子グループが配置されている。図8に示す例では、4つの受光素子グループPG31が配置されている。受光素子グループPG31は、受光素子30r1、受光素子30g2、受光素子30b3、および受光素子30g4を有する。各受光素子は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子として機能し、かつ位相差を検出するための第2の信号電荷を生成する第2の受光素子として機能する。
 赤外透過層70は、複数のマイクロレンズ10と複数の受光素子との間に配置されている。例えば、赤外透過層70は、赤外光を透過させ、可視光を遮光する材料で形成された薄膜である。マイクロレンズ10と重なり、かつ受光素子グループPG31と重なる位置に開口OP2が形成されている。開口OP2は、受光素子グループPG31の中心部と重なる。開口OP2は、受光素子グループPG31に含まれる4つの受光素子の各々の一部と重なる。赤外透過層70は、マイクロレンズ10を通過した赤外光を透過させる。赤外透過層70を透過した赤外光は、各受光素子グループPG31に含まれる4つの受光素子に入射する。赤外透過層70は、マイクロレンズ10を通過した可視光の一部を遮光する。マイクロレンズ10を通過した光の一部は、開口OP2を通過し、各受光素子グループPG31に含まれる4つの受光素子に入射する。
 図2に示す結像レンズ50、撮像素子1d、および光源装置が撮像装置に含まれる。光源装置は図8に示されていない。後述する第4の実施形態における図10に示す光源装置101が使用されてもよい。光源装置は、可視光を発生する第1の状態と、赤外光を発生する第2の状態とを切り替え可能である。光源装置の状態は、第1の状態と第2の状態とのいずれか1つになる。赤外透過層70は、結像レンズ50およびマイクロレンズ10を通過した赤外光を透過させ、結像レンズ50およびマイクロレンズ10を通過した可視光を遮光する材料を含む。
 受光素子グループPG31は、2つ以上の受光素子を有する。結像レンズ50およびマイクロレンズ10を通過した光を2つ以上の受光素子に入射させる開口OP2が赤外透過層70に形成されている。光源装置の状態が第1の状態であるとき、2つ以上の受光素子は第1の受光素子として機能する。2つ以上の受光素子は、結像レンズ50、マイクロレンズ10、および開口OP2を通過した可視光を受光し、受光した可視光に基づいて第1の信号電荷を生成する。光源装置の状態が第2の状態であるとき、2つ以上の受光素子は第2の受光素子として機能する。2つ以上の受光素子は、結像レンズ50、マイクロレンズ10、および赤外透過層70を通過した赤外光を受光し、受光した赤外光に基づいて第2の信号電荷を生成する。受光素子グループの数および受光素子グループに含まれる受光素子の数は、図8に示す例に限らない。
 図9は、発光と信号の読み出しとの各々のタイミングを示す。光源装置の状態が第1の状態であるとき、光源装置は可視光を発生する。例えば、光源装置は白色光を発生する。このとき、赤外透過層70は遮光層として機能する。結像レンズ50およびマイクロレンズ10を通過した光の一部は赤外透過層70によって遮光される。結像レンズ50およびマイクロレンズ10を通過した光の一部は、開口OP2を通過し、受光素子30r1、受光素子30g2、受光素子30b3、および受光素子30g4に入射する。各受光素子は、第1の信号電荷を生成する。
 光源装置が可視光を発生した後、第1の信号電荷に基づいて生成された第1の信号が読み出される。各受光素子は、結像レンズ50の中心に近い位置を通過した光を受光する。そのため、各受光素子は、実質的に大きなF値を持つ結像レンズを通過した光を受光する。これにより、深い被写界深度で撮像が実施される。
 第1の信号が読み出された後、光源装置の状態が第2の状態になり、光源装置は赤外光を発生する。例えば、光源装置は、850nm付近の波長を持つ近赤外光を発生する。赤外光は、結像レンズ50、マイクロレンズ10、および赤外透過層70を通過し、受光素子30r1、受光素子30g2、受光素子30b3、および受光素子30g4に入射する。各受光素子は、第2の信号電荷を生成する。
 光源装置が赤外光を発生した後、第2の信号電荷に基づいて生成された第2の信号が読み出される。各受光素子は、結像レンズ50の中心から遠い位置を通過した光を受光する。そのため、各受光素子は、実質的に小さなF値を持つ結像レンズを通過した光を受光する。これにより、高精度な距離測定に適した信号電荷が得られる。
 第1の受光素子を使用することにより、深い被写界深度で撮像が実施され、第1の信号電荷が得られる。これと同時に、第2の信号電荷が第2の受光素子において得られる。第2の信号電荷は、高精度な距離測定に適している。そのため、撮像素子1dは、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 (第4の実施形態)
 図10は、本発明の第4の実施形態の内視鏡装置2の構成を示す。図10に示す内視鏡装置2は、光源部100、スコープ110、コントロールユニット120、およびモニタ130を有する。
 光源部100は、光源装置101およびレンズ102を有する。光源装置101は、光を発生する。光源装置101は、可視光および赤外光を発生する第3の実施形態の光源装置として機能してもよい。レンズ102は、光源装置101から発生した光をスコープ110に入射させる。
 スコープ110は、ライトガイド111、照明レンズ112、結像レンズ113、および撮像素子114を有する。照明レンズ112、結像レンズ113、および撮像素子114は、スコープ110の先端110aに配置されている。光源装置101から発生した光は、レンズ102を経由して、ライトガイド111に入射する。ライトガイド111は、光源装置101から発生した光をスコープ110の先端110aに伝送する。ライトガイド111によって伝送された光は、照明レンズ112により被写体SB1に照射される。
 スコープ110の先端110aにおいて、照明レンズ112に隣接して結像レンズ113が配置されている。被写体SB1によって反射された光が結像レンズ113に入射する。結像レンズ113は、被写体SB1からの光を撮像素子114に入射させる。
 撮像素子114は、第1から第3の実施形態のいずれか1つの撮像素子と同じである。撮像素子114は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子と、位相差を検出するための第2の信号電荷を生成する第2の受光素子とを有する。撮像素子114は、第1の信号電荷に基づいて第1の信号を生成し、第2の信号電荷に基づいて第2の信号を生成する。
 コントロールユニット120は、プロセッサおよび論理回路の少なくとも1つを有する。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。コントロールユニット120は、1つまたは複数のプロセッサを含むことができる。コントロールユニット120は、1つまたは複数の論理回路を含むことができる。
 コントロールユニット120は、第1の信号および第2の信号を撮像素子114から受信する。コントロールユニット120は、第1の信号に基づいて被写体SB1の映像信号を生成する。コントロールユニット120は、互いに異なる2つの第2の受光素子によって生成された第2の信号電荷に対応する2つの第2の信号間の位相差(視差)を算出する。コントロールユニット120は、算出された位相差に基づいて被写体SB1までの距離を算出し、算出された距離に基づいてAF制御を実行する。コントロールユニット120は、被写体SB1までの距離を算出することにより被写体SB1の形状を計測してもよい。
 モニタ130は、液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイ等である。モニタ130は、コントロールユニット120によって生成された映像信号に基づいてカラー画像を表示する。
 内視鏡装置2は、第1から第3の実施形態のいずれか1つの撮像素子と同じ撮像素子114を有する。そのため、内視鏡装置2は、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 (第5の実施形態)
 図11は、本発明の第5の実施形態の手術用顕微鏡システム3の構成を示す。図11に示す手術用顕微鏡システム3は、鏡体部150、支持部160、モニタ170、モニタアーム180、コントロールユニット190、およびフットスイッチ200を有する。
 鏡体部150は、被写体SB2を撮像するための撮像部の本体である。支持部160は、鏡体部150を支持する。モニタ170は、被写体のカラー画像を表示する。モニタアーム180は、モニタ170が移動できるようにモニタ170を支持する。フットスイッチ200は、ユーザU1によって操作される操作部である。
 図12は、鏡体部150および支持部160の構成を示す。鏡体部150は、結像レンズ151および撮像素子152を有する。結像レンズ151は、被写体SB2からの光を撮像素子152に入射させる。撮像素子152は、第1から第3の実施形態のいずれか1つの撮像素子と同じである。撮像素子152は、カラー画像を生成するための第1の信号電荷を生成する第1の受光素子と、位相差を検出するための第2の信号電荷を生成する第2の受光素子とを有する。撮像素子152は、第1の信号電荷に基づいて第1の信号を生成し、第2の信号電荷に基づいて第2の信号を生成する。
 鏡体部150の外装には、ユーザU1が鏡体部150を移動しやすくするためのグリップ210が取り付けられている。押しボタン式のグリップスイッチ211がグリップ210に配置されている。ユーザU1は、鏡体部150を移動させるために、グリップ210を保持し、グリップスイッチ211を押下する。これにより、ユーザU1は、支持部160を移動させる。ユーザU1がグリップスイッチ211を離したとき、支持部160がその時点の形態で固定される。これにより、ユーザU1が所望する位置および向きで鏡体部150が固定される。
 支持部160は、所定位置に固定される架台161と、複数のアームロッド162と、アームロッド162を屈曲自在に連結する複数の関節163とを有する。アームロッド162は、図12に示されていない電磁ブレーキを有する。グリップスイッチ211のオン状態とオフ状態との切り替えにより、電磁ブレーキの状態が動作状態または停止状態に設定される。電磁ブレーキの状態が動作状態であるとき、支持部160は固定される。電磁ブレーキの状態が停止状態であるとき、各関節163は回転可能となる。
 コントロールユニット190が架台161に配置されている。コントロールユニット190は、プロセッサおよび論理回路の少なくとも1つを有する。コントロールユニット190は、1つまたは複数のプロセッサを含むことができる。コントロールユニット190は、1つまたは複数の論理回路を含むことができる。
 コントロールユニット190は、第1の信号および第2の信号を撮像素子152から受信する。コントロールユニット190は、第1の信号に基づいて被写体SB2の映像信号を生成する。コントロールユニット190は、互いに異なる2つの第2の受光素子によって生成された第2の信号電荷に対応する2つの第2の信号間の位相差(視差)を算出する。コントロールユニット190は、算出された位相差に基づいて被写体SB2までの距離を算出し、算出された距離に基づいてAF制御を実行する。コントロールユニット190は、被写体SB2までの距離を算出することにより被写体SB2の形状を計測してもよい。
 手術用顕微鏡システム3は、第1から第3の実施形態のいずれか1つの撮像素子と同じ撮像素子152を有する。そのため、手術用顕微鏡システム3は、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
 本発明の各実施形態によれば、固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システムは、深い被写界深度で撮像を実施することができ、かつ高精度な距離測定に適した信号電荷を得ることができる。
 1,1a,1b,1c,1d,114,152 撮像素子
 2 内視鏡装置
 3 手術用顕微鏡システム
 10 マイクロレンズ
 20 遮光層
 30r,30rc,30r1,30r2,30r3,30r4,30g,30gc,30g1,30g2,30g3,30g4,30b,30bc,30b1,30b2,30b3,30b4,30c1,30c2,30c3,30c4 受光素子
 40 電荷電圧変換素子
 50,113,151 結像レンズ
 60 読み出し回路
 70 赤外透過層
 100 光源部
 101 光源装置
 102 レンズ
 110 スコープ
 111 ライトガイド
 112 照明レンズ
 120,190 コントロールユニット
 130,170 モニタ
 150 鏡体部
 160 支持部
 161 架台
 162 アームロッド
 163 関節
 180 モニタアーム
 200 フットスイッチ
 210 グリップ
 211 グリップスイッチ

Claims (10)

  1.  行列状に配置された複数の受光素子と、
     前記複数の受光素子上において、受光素子グループに対して配置されたマイクロレンズと、
     を備え、
     前記受光素子グループは、前記複数の受光素子に含まれる1つ以上の第1の受光素子および前記複数の受光素子に含まれる2つ以上の第2の受光素子を有し、
     前記第1の受光素子は、被写体の光像を前記複数の受光素子上に形成する結像レンズを通過した光を受光し、受光した前記光に基づいて第1の信号電荷を生成し、
     前記2つ以上の第2の受光素子は、前記結像レンズの互いに異なる領域を通過した光を受光し、受光した前記光に基づいて第2の信号電荷を生成し、
     前記第1の受光素子は、前記結像レンズの中心を含む前記結像レンズの第1の領域を通過した光を受光し、
     前記第2の受光素子は、前記第1の領域よりも外側の位置を含む前記結像レンズの第2の領域を通過した光を受光する
     固体撮像素子。
  2.  前記マイクロレンズと前記複数の受光素子との間に配置された遮光層をさらに備え、
     前記結像レンズおよび前記マイクロレンズを通過した光を前記第1の受光素子に入射させる第1の開口と、前記結像レンズおよび前記マイクロレンズを通過した光を前記第2の受光素子に入射させる第2の開口とが前記遮光層に形成され、
     前記第2の開口は前記第1の開口よりも大きい
     請求項1に記載の固体撮像素子。
  3.  前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数が2以上である配列を形成し、
     前記配列を平面的に見たときに、前記配列が形成する図形は、前記第1の受光素子を通る第1の対角線および前記第2の受光素子を通る第2の対角線を含み、
     前記第2の対角線と平行な方向における前記第2の開口の幅は、前記第1の対角線と平行な方向における前記第1の開口の幅よりも大きい
     請求項2に記載の固体撮像素子。
  4.  前記受光素子グループは、2つ以上の前記第1の受光素子を有し、
     前記固体撮像素子は、前記受光素子グループに含まれる2つ以上の前記第1の受光素子によって生成された前記第1の信号電荷を混合し、かつ電圧に変換し、前記受光素子グループに含まれる前記第2の受光素子によって生成された前記第2の信号電荷を電圧に変換する電荷電圧変換素子を有する
     請求項1に記載の固体撮像素子。
  5.  前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数の一方が3以上であり、かつ前記行数および前記列数の他方が1以上である配列を形成し、
     前記第1の受光素子は前記配列の中心部に配置され、前記第2の受光素子は前記配列の外周部に配置されている
     請求項1に記載の固体撮像素子。
  6.  請求項1に記載の固体撮像素子と、
     前記結像レンズと、
     を備える撮像装置。
  7.  前記撮像装置は、前記第1の信号電荷に基づいて生成された第1の信号を前記第1の受光素子から読み出し、かつ前記第2の信号電荷に基づいて生成された第2の信号を前記第2の受光素子から読み出す読み出し回路をさらに備え、
     前記受光素子グループに含まれる前記第1の受光素子および前記第2の受光素子は、行数および列数が2以上である配列を形成し、
     前記読み出し回路は、前記配列の各行に割り当てられた期間内で前記第1の信号および前記第2の信号を出力するレートが前記配列の行間で平準化されるように前記第1の信号および前記第2の信号を読み出す
     請求項6に記載の撮像装置。
  8.  可視光を発生する第1の状態と、赤外光を発生する第2の状態とを切り替え可能な光源装置をさらに備え、
     前記固体撮像素子は、前記マイクロレンズと前記複数の受光素子との間に配置され、前記結像レンズおよび前記マイクロレンズを通過した前記赤外光を透過させ、前記結像レンズおよび前記マイクロレンズを通過した前記可視光を遮光する材料を含む赤外透過層をさらに備え、
     前記受光素子グループは、2つ以上の受光素子を有し、
     前記結像レンズおよび前記マイクロレンズを通過した光を前記2つ以上の受光素子に入射させる開口が前記赤外透過層に形成され、
     前記光源装置の状態が前記第1の状態であるとき、前記2つ以上の受光素子は、前記第1の受光素子として機能し、前記結像レンズ、前記マイクロレンズ、および前記開口を通過した前記可視光を受光し、受光した前記可視光に基づいて前記第1の信号電荷を生成し、
     前記光源装置の状態が前記第2の状態であるとき、前記2つ以上の受光素子は、前記第2の受光素子として機能し、前記結像レンズ、前記マイクロレンズ、および前記赤外透過層を通過した前記赤外光を受光し、受光した前記赤外光に基づいて前記第2の信号電荷を生成する
     請求項6に記載の撮像装置。
  9.  請求項1に記載の固体撮像素子が先端に配置されたスコープと、
     前記第1の信号電荷に基づいて生成された第1の信号と、前記第2の信号電荷に基づいて生成された第2の信号とを受信し、前記第1の信号に基づいて前記被写体の映像信号を生成し、互いに異なる2つの前記第2の受光素子によって生成された前記第2の信号電荷に対応する2つの前記第2の信号間の位相差を算出するコントロールユニットと、
     を備える内視鏡装置。
  10.  請求項1に記載の固体撮像素子と、
     前記第1の信号電荷に基づいて生成された第1の信号と、前記第2の信号電荷に基づいて生成された第2の信号とを受信し、前記第1の信号に基づいて前記被写体の映像信号を生成し、互いに異なる2つの前記第2の受光素子によって生成された前記第2の信号電荷に対応する2つの前記第2の信号間の位相差を算出するコントロールユニットと、
     を備える手術用顕微鏡システム。
PCT/JP2020/016407 2020-04-14 2020-04-14 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム WO2021210060A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/016407 WO2021210060A1 (ja) 2020-04-14 2020-04-14 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/016407 WO2021210060A1 (ja) 2020-04-14 2020-04-14 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム

Publications (1)

Publication Number Publication Date
WO2021210060A1 true WO2021210060A1 (ja) 2021-10-21

Family

ID=78085271

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/016407 WO2021210060A1 (ja) 2020-04-14 2020-04-14 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム

Country Status (1)

Country Link
WO (1) WO2021210060A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268972A (ja) * 2009-05-21 2010-12-02 Hoya Corp 医療用観察システムおよびプロセッサ
JP2013145314A (ja) * 2012-01-13 2013-07-25 Canon Inc 画像処理装置、撮像装置、制御方法、及びプログラム
JP2017161512A (ja) * 2016-03-04 2017-09-14 キヤノン株式会社 測距装置及び移動体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010268972A (ja) * 2009-05-21 2010-12-02 Hoya Corp 医療用観察システムおよびプロセッサ
JP2013145314A (ja) * 2012-01-13 2013-07-25 Canon Inc 画像処理装置、撮像装置、制御方法、及びプログラム
JP2017161512A (ja) * 2016-03-04 2017-09-14 キヤノン株式会社 測距装置及び移動体

Similar Documents

Publication Publication Date Title
US9490281B2 (en) Image sensor and image capturing apparatus
JP4967296B2 (ja) 撮像素子、焦点検出装置、および、撮像システム
JP6172982B2 (ja) 撮像装置及びカメラシステム
JP5513326B2 (ja) 撮像素子及び撮像装置
US6958862B1 (en) Use of a lenslet array with a vertically stacked pixel array
US20150358593A1 (en) Imaging apparatus and image sensor
JP5176959B2 (ja) 撮像素子および撮像装置
JP5159700B2 (ja) 光学装置及び焦点検出方法
JP4720508B2 (ja) 撮像素子および撮像装置
JP2011176715A (ja) 裏面照射型撮像素子および撮像装置
JP5421207B2 (ja) 固体撮像装置
US20120206620A1 (en) Multi-channel image sensors
JP5591851B2 (ja) 固体撮像装置および携帯情報端末
JP2007317951A (ja) 光検出素子および撮像装置
JP2013157442A (ja) 撮像素子および焦点検出装置
JP5211590B2 (ja) 撮像素子および焦点検出装置
JP2012212878A (ja) 撮像素子および撮像装置
JP2009145527A (ja) 撮像素子、焦点検出装置および撮像装置
JP2008085159A (ja) 撮像素子及び内視鏡装置
WO2017195613A1 (ja) 固体撮像素子、および電子機器
JP2017152658A (ja) 撮像素子および撮像装置
WO2021210060A1 (ja) 固体撮像素子、撮像装置、内視鏡装置、および手術用顕微鏡システム
JP2010243772A (ja) 撮像装置
JP2022189971A (ja) 撮像素子
TW201525533A (zh) 彩色濾光器陣列及固態影像感測器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20931036

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20931036

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP