WO2018131240A1 - 分岐光学系、撮像装置、及び撮像システム - Google Patents

分岐光学系、撮像装置、及び撮像システム Download PDF

Info

Publication number
WO2018131240A1
WO2018131240A1 PCT/JP2017/037452 JP2017037452W WO2018131240A1 WO 2018131240 A1 WO2018131240 A1 WO 2018131240A1 JP 2017037452 W JP2017037452 W JP 2017037452W WO 2018131240 A1 WO2018131240 A1 WO 2018131240A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical system
imaging
branching optical
incident
Prior art date
Application number
PCT/JP2017/037452
Other languages
English (en)
French (fr)
Inventor
聡史 長江
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780071318.0A priority Critical patent/CN109963490B/zh
Priority to US16/461,794 priority patent/US10788676B2/en
Priority to EP17890971.9A priority patent/EP3569135A4/en
Priority to JP2018561812A priority patent/JP6996518B2/ja
Publication of WO2018131240A1 publication Critical patent/WO2018131240A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/12Beam splitting or combining systems operating by refraction only
    • G02B27/126The splitting element being a prism or prismatic array, including systems based on total internal reflection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/141Beam splitting or combining systems operating by reflection only using dichroic mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/16Optical arrangements associated therewith, e.g. for beam-splitting or for colour correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present disclosure relates to a branching optical system, an imaging apparatus, and an imaging system.
  • an image of an affected area acquired by an optical system unit such as an endoscope or a surgical microscope is captured by an imaging device so that an electronic image of the affected area is displayed on a display device such as a monitor.
  • a so-called medical observation apparatus is also proposed which is presented to a user (for example, a doctor).
  • Patent Document 1 discloses a configuration in which light from an object is separated into a plurality of spectral components by a so-called color separation optical system, and each of the separated spectral components is imaged on different image sensors.
  • An example of an endoscope system that can further improve the image quality of a captured image is disclosed.
  • an image pickup apparatus using a color separation optical system a plurality of image pickup elements that pick up images of each spectral component separated by the color separation optical system are arranged in a limited space without interfering with each other. There is a need. For this reason, as the number of arranged image pickup elements increases, the space for arranging the color separation optical system and the image pickup elements is further restricted.
  • various medical devices are required to be miniaturized so as not to interfere with medical practice, and imaging devices are no exception. That is, as the image pickup apparatus is downsized, the space for installing the color separation optical system and the image pickup element is further limited.
  • the plurality of imaging elements can be efficiently arranged in a limited space, and the branching optical system and imaging An apparatus and an imaging system are proposed.
  • the first direction which is the plane direction of the plane including the optical axis corresponding to the normal direction of the incident surface on which the incident light is incident is the first light belonging to the predetermined wavelength band from the incident light.
  • a first branching optical system that separates the first light and a second light that is separated from the incident light and is separated from the incident light.
  • a branch optical system comprising: a second branch optical system that separates the third light that is a part in a second direction intersecting the plane.
  • the first light that belongs to the predetermined wavelength band from the incident light is the first surface direction that includes the optical axis corresponding to the normal direction of the incident surface on which the incident light is incident.
  • a first branching optical system that separates the first light from the incident light and a second light that is separated from the incident light.
  • a third branching optical system that separates the third light, which is a part of the first branching optical system, in a second direction that intersects the plane, and a stage subsequent to the first branching optical system.
  • a first imaging element that images, a second imaging element that is provided at a subsequent stage of the second branching optical system and forms an image of at least a part of the third light, and the second branching optical system
  • a third imaging that is provided in a subsequent stage and forms an image of at least a part of the fourth light in which the third light is separated from the second light; Comprising a child, an imaging apparatus is provided.
  • an optical system unit and an imaging device that captures an image acquired by the optical system unit are provided, and the imaging device emits first light belonging to a predetermined wavelength band from incident light.
  • a first branching optical system that separates the first branching optical system in a first direction that is a plane direction of a plane that includes an optical axis corresponding to a normal direction of the incident surface on which the incident light is incident, and a subsequent stage of the first branching optical system And separating the third light, which is a part of the second light, in the second direction intersecting the plane from the second light from which the first light is separated from the incident light.
  • a second branching optical system a first imaging element that is provided at a subsequent stage of the first branching optical system; and an image of the first light; and a latter stage of the second branching optical system;
  • Vignetting having a third imaging device at least partially forms an image of the fourth light said third light from the second light is separated, the imaging system is provided.
  • the plurality of imaging elements can be efficiently arranged in a limited space.
  • a branching optical system, an imaging device, and an imaging system are provided.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic imaging system according to an embodiment of the present disclosure. It is a block diagram which shows an example of a function structure of the camera head and CCU shown in FIG.
  • FIG. 11 is an explanatory diagram for describing an example of a configuration of an imaging apparatus according to a comparative example.
  • FIG. 16 is an explanatory diagram for describing an example of a configuration of an imaging apparatus according to an embodiment of the present disclosure.
  • FIG. 16 is an explanatory diagram for describing an example of a configuration of an imaging apparatus according to an embodiment of the present disclosure. It is the figure shown about an example of the spectral characteristic of the dichroic film
  • FIG. 6 is an explanatory diagram for describing an example of a configuration of an imaging apparatus according to a second embodiment.
  • FIG. 6 is an explanatory diagram for describing an example of a configuration of an imaging apparatus according to a second embodiment. It is explanatory drawing for demonstrating an example of a structure of the imaging device which concerns on a modification.
  • FIG. 16 is an explanatory diagram for describing an application example of an imaging system according to an embodiment of the present disclosure.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic imaging system to which the technology according to the present disclosure can be applied, and the endoscopic imaging system is configured as a so-called endoscopic surgical system.
  • An example is shown.
  • FIG. 1 a state in which an operator (doctor) 167 is performing an operation on a patient 171 on a patient bed 169 using the endoscopic operation system 100 is illustrated.
  • an endoscopic surgery system 100 includes an endoscope 101, other surgical tools 117, a support arm device 127 that supports the endoscope 101, and various devices for endoscopic surgery. And a cart 137 on which is mounted.
  • trocars 125a to 125d are punctured into the abdominal wall. Then, the lens barrel 103 of the endoscope 101 and other surgical tools 117 are inserted into the body cavity of the patient 171 from the trocars 125a to 125d.
  • an insufflation tube 119, an energy treatment tool 121, and forceps 123 are inserted into the body cavity of the patient 171.
  • the energy treatment device 121 is a treatment device that performs incision and peeling of a tissue, sealing of a blood vessel, or the like by a high-frequency current or ultrasonic vibration.
  • the illustrated surgical tool 117 is merely an example, and as the surgical tool 117, various surgical tools generally used in endoscopic surgery, such as a lever and a retractor, may be used.
  • the image of the surgical site in the body cavity of the patient 171 captured by the endoscope 101 is displayed on the display device 141.
  • the surgeon 167 performs a treatment such as excision of the affected part using the energy treatment tool 121 and the forceps 123 while viewing the image of the surgical part displayed on the display device 141 in real time.
  • the pneumoperitoneum tube 119, the energy treatment device 121, and the forceps 123 are supported by an operator 167 or an assistant during the operation.
  • the support arm device 127 includes an arm portion 131 extending from the base portion 129.
  • the arm unit 131 includes joint units 133a, 133b, and 133c and links 135a and 135b, and is driven by control from the arm control device 145.
  • the endoscope 101 is supported by the arm part 131, and its position and posture are controlled. Thereby, the stable position fixing of the endoscope 101 can be realized.
  • the endoscope 101 includes a lens barrel 103 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 171, and a camera head 105 connected to the proximal end of the lens barrel 103.
  • a lens barrel 103 in which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 171, and a camera head 105 connected to the proximal end of the lens barrel 103.
  • an endoscope 101 configured as a so-called rigid mirror having a rigid barrel 103 is illustrated, but the endoscope 101 is configured as a so-called flexible mirror having a flexible barrel 103. Also good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 103.
  • a light source device 143 is connected to the endoscope 101, and light generated by the light source device 143 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 103, and the objective 101 Irradiation is performed toward the observation target (in other words, the imaging target) in the body cavity of the patient 171 through the lens.
  • the endoscope 101 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 105, and reflected light (observation light) from the observation target is condensed on the image sensor by the optical system. Observation light is photoelectrically converted by the imaging element, and an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 139 as RAW data.
  • the camera head 105 has a function of adjusting the magnification and the focal length by appropriately driving the optical system.
  • a plurality of image sensors may be provided in the camera head 105 in order to cope with, for example, stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 103 in order to guide the observation light to each of the plurality of imaging elements.
  • the CCU 139 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls operations of the endoscope 101 and the display device 141. Specifically, the CCU 139 performs various types of image processing for displaying an image based on the image signal, such as development processing (demosaic processing), for example, on the image signal received from the camera head 105. The CCU 139 provides the display device 141 with the image signal subjected to the image processing. Further, the CCU 139 transmits a control signal to the camera head 105 to control the driving thereof.
  • the control signal can include information regarding imaging conditions such as magnification and focal length.
  • the display device 141 displays an image based on an image signal subjected to image processing by the CCU 139 under the control of the CCU 139.
  • the endoscope 101 is compatible with high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320), and / or 3D display
  • high-resolution imaging such as 4K (horizontal pixel number 3840 ⁇ vertical pixel number 2160) or 8K (horizontal pixel number 7680 ⁇ vertical pixel number 4320)
  • a display device 141 capable of high-resolution display and / or 3D display can be used.
  • a more immersive feeling can be obtained by using a display device 141 having a size of 55 inches or more.
  • a plurality of display devices 141 having different resolutions and sizes may be provided depending on applications.
  • the light source device 143 includes a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope 101 when photographing a surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 145 is configured by a processor such as a CPU, for example, and operates according to a predetermined program to control driving of the arm portion 131 of the support arm device 127 according to a predetermined control method.
  • the input device 147 is an input interface for the endoscopic surgery system 100.
  • the user can input various information and instructions to the endoscopic surgery system 100 via the input device 147.
  • the user inputs various types of information related to the operation, such as the patient's physical information and information about the surgical technique, via the input device 147.
  • the user instructs to drive the arm unit 131 via the input device 147, or to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 101.
  • An instruction or the like for driving the energy treatment device 121 is input.
  • the type of the input device 147 is not limited, and the input device 147 may be various known input devices.
  • the input device 147 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 157, and / or a lever can be applied.
  • the touch panel may be provided on the display surface of the display device 141.
  • the input device 147 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), for example, and various inputs according to the user's gesture and line of sight detected by these devices. Is done.
  • the input device 147 includes a camera capable of detecting a user's movement, and various inputs are performed according to a user's gesture and line of sight detected from an image captured by the camera.
  • the input device 147 includes a microphone capable of collecting a user's voice, and various inputs are performed by voice through the microphone.
  • the input device 147 is configured to be able to input various kinds of information without contact, so that a user belonging to the clean area (for example, the operator 167) operates the device belonging to the unclean area in a non-contact manner. Is possible.
  • the user since the user can operate the device without releasing his / her hand from the surgical tool he / she has, the convenience for the user is improved.
  • the treatment instrument control device 149 controls driving of the energy treatment instrument 121 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the insufflation apparatus 151 supplies gas into the body cavity through the insufflation tube 119.
  • the recorder 153 is a device that can record various types of information related to surgery.
  • the printer 155 is a device that can print various types of information related to surgery in various formats such as text, images, or graphs.
  • the support arm device 127 includes a base portion 129 that is a base, and an arm portion 131 that extends from the base portion 129.
  • the arm part 131 is composed of a plurality of joint parts 133a, 133b, 133c and a plurality of links 135a, 135b connected by the joint part 133b.
  • FIG. The structure of the arm part 131 is simplified and shown. Actually, the shape, number and arrangement of the joint portions 133a to 133c and the links 135a and 135b, the direction of the rotation axis of the joint portions 133a to 133c, and the like are appropriately set so that the arm portion 131 has a desired degree of freedom. obtain.
  • the arm part 131 can be preferably configured to have a degree of freedom of 6 degrees or more.
  • the endoscope 101 can be freely moved within the movable range of the arm portion 131, so that the barrel 103 of the endoscope 101 can be inserted into the body cavity of the patient 171 from a desired direction. It becomes possible.
  • the joints 133a to 133c are provided with actuators, and the joints 133a to 133c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the drive of the actuator is controlled by the arm control device 145
  • the rotation angle of each joint part 133a to 133c is controlled, and the drive of the arm part 131 is controlled.
  • the arm control device 145 can control the driving of the arm unit 131 by various known control methods such as force control or position control.
  • the arm control device 145 appropriately controls the driving of the arm unit 131 according to the operation input.
  • the position and posture of the endoscope 101 may be controlled. With this control, the endoscope 101 at the tip of the arm portion 131 can be moved from an arbitrary position to an arbitrary position and then fixedly supported at the position after the movement.
  • the arm part 131 may be operated by what is called a master slave system. In this case, the arm unit 131 can be remotely operated by the user via the input device 147 installed at a location away from the operating room.
  • the arm control device 145 When force control is applied, the arm control device 145 receives the external force from the user, and moves the actuators of the joint portions 133a to 133c so that the arm portion 131 moves smoothly according to the external force. You may perform what is called power assist control to drive. Thereby, when the user moves the arm unit 131 while directly touching the arm unit 131, the arm unit 131 can be moved with a relatively light force. Therefore, the endoscope 101 can be moved more intuitively and with a simpler operation, and the convenience for the user can be improved.
  • the endoscope 101 is supported by a doctor called a scopist.
  • the position of the endoscope 101 can be more reliably fixed without relying on human hands, so that an image of the surgical site can be stably obtained. It becomes possible to perform the operation smoothly.
  • the arm control device 145 is not necessarily provided in the cart 137. Further, the arm control device 145 is not necessarily a single device. For example, the arm control device 145 may be provided in each joint portion 133a to 133c of the arm portion 131 of the support arm device 127, and the arm control device 145 cooperates with each other to drive the arm portion 131. Control may be realized.
  • the light source device 143 supplies irradiation light to the endoscope 101 when photographing a surgical site.
  • the light source device 143 includes a white light source configured by, for example, an LED, a laser light source, or a combination thereof.
  • a white light source configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color can be controlled with high accuracy. Adjustments can be made.
  • laser light from each of the RGB laser light sources is irradiated onto the observation target in a time-sharing manner, and the drive of the image sensor of the camera head 105 is controlled in synchronization with the irradiation timing, thereby corresponding to each RGB. It is also possible to take the images that have been taken in time division. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 143 may be controlled so as to change the intensity of light to be output every predetermined time. Synchronously with the timing of changing the intensity of the light, the drive of the image sensor of the camera head 105 is controlled to acquire images in a time-sharing manner, and the images are synthesized, so that high dynamics without so-called blackout and overexposure are obtained. A range image can be generated.
  • the light source device 143 may be configured to be able to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface of the mucous membrane is irradiated by irradiating light in a narrow band compared to irradiation light (ie, white light) during normal observation.
  • narrow band imaging is performed in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally administered to the body tissue and applied to the body tissue.
  • a reagent such as indocyanine green (ICG)
  • ICG indocyanine green
  • the light source device 143 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 2 is a block diagram illustrating an example of functional configurations of the camera head 105 and the CCU 139 illustrated in FIG.
  • the camera head 105 includes a lens unit 107, an imaging unit 109, a driving unit 111, a communication unit 113, and a camera head control unit 115 as functions thereof.
  • the CCU 139 includes a communication unit 159, an image processing unit 161, and a control unit 163 as its functions.
  • the camera head 105 and the CCU 139 are connected to each other via a transmission cable 165 so that they can communicate with each other.
  • the lens unit 107 is an optical system provided at a connection portion with the lens barrel 103. Observation light taken from the tip of the lens barrel 103 is guided to the camera head 105 and enters the lens unit 107.
  • the lens unit 107 is configured by combining a plurality of lenses including a zoom lens and a focus lens. The optical characteristics of the lens unit 107 are adjusted so that the observation light is condensed on the light receiving surface of the image sensor of the imaging unit 109. Further, the zoom lens and the focus lens are configured such that their positions on the optical axis are movable in order to adjust the magnification and focus of the captured image.
  • the image pickup unit 109 is configured by an image pickup device, and is arranged at the rear stage of the lens unit 107.
  • the observation light that has passed through the lens unit 107 is collected on the light receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 109 is provided to the communication unit 113.
  • CMOS Complementary Metal Oxide Semiconductor
  • the imaging element for example, an element capable of capturing a high-resolution image of 4K or more may be used.
  • the image sensor that configures the image capturing unit 109 is configured to include a pair of image sensors for acquiring right-eye and left-eye image signals corresponding to 3D display. By performing the 3D display, the operator 167 can more accurately grasp the depth of the living tissue in the surgical site.
  • the imaging unit 109 is configured as a multi-plate type, a plurality of lens units 107 are also provided corresponding to each imaging element.
  • the imaging unit 109 is not necessarily provided in the camera head 105.
  • the imaging unit 109 may be provided inside the lens barrel 103 immediately after the objective lens.
  • the driving unit 111 is constituted by an actuator, and moves the zoom lens and the focus lens of the lens unit 107 by a predetermined distance along the optical axis under the control of the camera head control unit 115. Thereby, the magnification and the focus of the image captured by the imaging unit 109 can be adjusted as appropriate.
  • the communication unit 113 includes a communication device for transmitting and receiving various types of information to and from the CCU 139.
  • the communication unit 113 transmits the image signal obtained from the imaging unit 109 as RAW data to the CCU 139 via the transmission cable 165.
  • the image signal is preferably transmitted by optical communication.
  • the operator 167 performs the operation while observing the state of the affected part with the captured image, so that a moving image of the operated part is displayed in real time as much as possible for a safer and more reliable operation. Because it is required.
  • the communication unit 113 is provided with a photoelectric conversion module that converts an electrical signal into an optical signal.
  • the image signal is converted into an optical signal by the photoelectric conversion module, and then transmitted to the CCU 139 via the transmission cable 165.
  • the communication unit 113 receives a control signal for controlling the driving of the camera head 105 from the CCU 139.
  • the control signal includes, for example, information for designating the frame rate of the captured image, information for designating the exposure value at the time of imaging, and / or information for designating the magnification and focus of the captured image. Contains information about the condition.
  • the communication unit 113 provides the received control signal to the camera head control unit 115.
  • the control signal from the CCU 139 may also be transmitted by optical communication.
  • the communication unit 113 is provided with a photoelectric conversion module that converts an optical signal into an electrical signal.
  • the control signal is converted into an electrical signal by the photoelectric conversion module, and then provided to the camera head control unit 115.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus are automatically set by the control unit 163 of the CCU 139 based on the acquired image signal. That is, a so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 101.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the camera head control unit 115 controls driving of the camera head 105 based on a control signal from the CCU 139 received via the communication unit 113. For example, the camera head control unit 115 controls driving of the imaging element of the imaging unit 109 based on information indicating that the frame rate of the captured image is specified and / or information indicating that the exposure at the time of imaging is specified. For example, the camera head control unit 115 appropriately moves the zoom lens and the focus lens of the lens unit 107 via the driving unit 111 based on information indicating that the magnification and the focus of the captured image are designated.
  • the camera head control unit 115 may further have a function of storing information for identifying the lens barrel 103 and the camera head 105.
  • the camera head 105 can be resistant to autoclave sterilization by arranging the lens unit 107, the imaging unit 109, and the like in a sealed structure with high airtightness and waterproofness.
  • the communication unit 159 is configured by a communication device for transmitting and receiving various types of information to and from the camera head 105.
  • the communication unit 159 receives an image signal transmitted from the camera head 105 via the transmission cable 165.
  • the image signal can be suitably transmitted by optical communication.
  • the communication unit 159 is provided with a photoelectric conversion module that converts an optical signal into an electric signal.
  • the communication unit 159 provides the image processing unit 161 with the image signal converted into an electrical signal.
  • the communication unit 159 transmits a control signal for controlling the driving of the camera head 105 to the camera head 105.
  • the control signal may also be transmitted by optical communication.
  • the image processing unit 161 performs various types of image processing on the image signal that is RAW data transmitted from the camera head 105. Examples of the image processing include development processing, high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing (electronic zoom processing). Various known signal processing is included.
  • the image processing unit 161 performs detection processing on the image signal for performing AE, AF, and AWB.
  • the image processing unit 161 is configured by a processor such as a CPU or a GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program.
  • the image processing unit 161 is configured by a plurality of GPUs, the image processing unit 161 appropriately divides information related to the image signal, and performs image processing in parallel by the plurality of GPUs.
  • the control unit 163 performs various controls related to imaging of the surgical site by the endoscope 101 and display of the captured image. For example, the control unit 163 generates a control signal for controlling the driving of the camera head 105. At this time, when the imaging condition is input by the user, the control unit 163 generates a control signal based on the input by the user. Alternatively, when the endoscope 101 is equipped with the AE function, the AF function, and the AWB function, the control unit 163 determines the optimal exposure value, focal length, and the distance according to the detection processing result by the image processing unit 161. A white balance is appropriately calculated and a control signal is generated.
  • control unit 163 causes the display device 141 to display an image of the surgical unit based on the image signal subjected to the image processing by the image processing unit 161.
  • the control unit 163 recognizes various objects in the surgical unit image using various image recognition techniques. For example, the control unit 163 detects the shape or color of the edge of the object included in the surgical site image, thereby removing surgical tools such as forceps, specific biological parts, bleeding, mist when using the energy treatment tool 121, and the like. Can be recognized.
  • the control unit 163 displays various types of surgery support information on the image of the surgical site using the recognition result. The surgery support information is displayed in a superimposed manner and presented to the operator 167, so that the surgery can be performed more safely and reliably.
  • the transmission cable 165 connecting the camera head 105 and the CCU 139 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 165, but communication between the camera head 105 and the CCU 139 may be performed wirelessly.
  • communication between the two is performed wirelessly, there is no need to lay the transmission cable 165 in the operating room, so that the situation where the movement of the medical staff in the operating room is hindered by the transmission cable 165 can be solved.
  • the endoscopic surgery system 100 to which the technology according to the present disclosure can be applied has been described.
  • the endoscopic surgery system 100 has been described as an example, a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the technology according to the present disclosure may be applied to a testing flexible endoscope system or a microscope operation system.
  • an image of an object to be a subject has higher color reproducibility and resolution.
  • a color separation optical system for example, a color separation prism
  • An image pickup apparatus that has been selected. Specifically, in the imaging device, the light from the object is separated into a plurality of spectral components by the color separation optical system, and each separated spectral component is imaged on a different imaging device, thereby each imaging device. A captured image of the object is generated based on the image captured by.
  • Examples of the imaging device using the color separation optical system as described above include an imaging device using a three-color separation optical system that separates light from an object into an R component, a G component, and a B component.
  • an imaging apparatus using a four-color separation optical system has also been proposed. Therefore, as a comparative example, with reference to FIG. 3, an example of a schematic configuration of an imaging device using a four-color separation optical system, in particular, until light incident on the imaging device is imaged on the imaging device. The description will be given focusing on the configuration.
  • FIG. 3 is an explanatory diagram for explaining an example of the configuration of the imaging apparatus according to the comparative example, and shows an example of an imaging apparatus applicable as the camera head 105 of the endoscopic surgery system 100 described above.
  • the imaging device shown in FIG. 3 may be referred to as “imaging device 105 a” in order to explicitly distinguish it from other imaging devices applicable as the camera head 105.
  • the z direction corresponds to the optical axis direction of light incident on the imaging device 105a (ie, incident light), and the x direction and the y direction are directions orthogonal to the z direction.
  • the x direction and the y direction are orthogonal to each other. That is, in FIG. 3, the horizontal direction of the drawing corresponds to the z direction.
  • the depth direction of the drawing corresponds to the x direction, and the vertical direction of the drawing corresponds to the y direction.
  • the x direction corresponds to the horizontal direction of the imaging device 105a
  • the y direction corresponds to the vertical direction of the imaging device 105a.
  • the imaging device 105a includes a branching optical system 300, a first imaging element 211 to a fourth imaging element 214, and substrates 201 to 204.
  • the first image sensor 211 to the fourth image sensor 214 are held by the substrates 201 to 204, respectively.
  • the branching optical system 300 is an optical member that separates light incident on the imaging device 105a (that is, incident light) into a plurality of spectral components having different wavelength bands.
  • the branching optical system 300 separates incident light into light of three primary colors of an R component, a G component, and a B component, and light of a near infrared (IR) component.
  • the branching optical system 300 includes a first prism 311 to a fourth prism 314 that are sequentially assembled in the optical axis direction (z direction) of incident light.
  • the first prism 311 is a prism that functions as an optical path for guiding light belonging to the near-infrared wavelength band out of the light incident on the first prism 311 to the first image sensor 211.
  • Incident light that has entered the imaging device 105 a enters the first prism 311 from the incident surface 322 of the first prism 311.
  • incident light that has entered the first prism 311 travels straight through the first prism 311, and light that belongs to the visible light wavelength band on a surface 321 provided obliquely on the optical axis, and near-red light. And light belonging to the outer wavelength band.
  • the surface 321 may be provided with an optical film (for example, a dichroic film) that separates incident light into light belonging to the visible light wavelength band and light belonging to the near-infrared wavelength band.
  • Light belonging to the near-infrared wavelength band is reflected by the surface 321 and guided through the first prism 311.
  • the reflected and separated light belonging to the near-infrared wavelength band (that is, near-infrared light) is totally reflected once by the incident surface 322 and transmitted to the outside of the first prism 311.
  • light belonging to the near-infrared wavelength band is reflected on the surface 321 in the surface direction of the yz plane. Then, the near infrared light transmitted through the first prism 311 is guided to the first image sensor 211.
  • the first image sensor 211 has a light receiving surface with respect to the optical axis of light (that is, near-infrared light) that is transmitted through the first prism 311 and guided to the first image sensor 211. It is arranged to be vertical.
  • the first image sensor 211 for example, a person who is not provided with a color filter and has high sensitivity to near-infrared wavelengths is preferably used.
  • the second prism 312 is a prism that functions as an optical path for guiding light belonging to the wavelength band including the B component out of the light incident on the second prism 312 to the second imaging element 212.
  • Light that has entered the second prism 312 (that is, light that belongs to the visible light wavelength band) travels straight through the second prism 312 and has a B component that is obliquely provided on the optical axis.
  • the light is separated into the light belonging to the wavelength band on the short wavelength side including the light and the light belonging to the wavelength band on the long wavelength side including the R component and the G component.
  • the surface 324 has an optical film that separates incident light into light belonging to a short wavelength band including a B component and light belonging to a long wavelength including a R component and a G component ( For example, a dichroic film) may be provided.
  • the light belonging to the wavelength band including the B component is reflected by the surface 324 and guided through the second prism 312.
  • an air gap is provided between the surface 321 of the first prism 311 and the incident surface 323 of the second prism 312 as indicated by reference numeral 327. Therefore, the light belonging to the wavelength band including the B component reflected and separated by the surface 324 is totally reflected once by the incident surface 323 and transmitted to the outside of the second prism 312.
  • the light belonging to the wavelength band including the B component is reflected on the surface 324 in the surface direction of the yz plane.
  • the light belonging to the wavelength band including the B component transmitted through the second prism 312 is guided to the second image sensor 212.
  • the second image sensor 212 passes through the second prism 312 and is guided to the second image sensor 212 (that is, light belonging to a wavelength band including the B component).
  • the light receiving surface is arranged so as to be vertical.
  • the third prism 313 is a prism that functions as an optical path for guiding light belonging to the wavelength band including the R component out of the light incident on the third prism 313 to the third image sensor 213.
  • the light incident on the third prism 313 (that is, light belonging to a wavelength band including the R component and G component) travels straight through the third prism 313 and is obliquely provided on the optical axis.
  • the interface 326 with the prism 314 the light is separated into light belonging to the wavelength band including the R component and light belonging to the wavelength band including the G component.
  • the interface 326 may be provided with an optical film (for example, a dichroic film) that separates incident light into light belonging to a wavelength band including an R component and light belonging to a wavelength band including a G component. Good.
  • the light belonging to the wavelength band including the R component is reflected by the interface 326 and guided through the third prism 313.
  • an air gap is provided between the surface 324 of the second prism 312 and the incident surface 325 of the third prism 313 as indicated by reference numeral 328. Therefore, the light belonging to the wavelength band including the R component reflected and separated at the interface 326 is totally reflected once by the incident surface 325 and transmitted to the outside of the third prism 313.
  • the light belonging to the wavelength band including the R component is reflected at the interface 326 in the surface direction of the yz plane.
  • the light belonging to the wavelength band including the R component transmitted through the third prism 313 is guided to the third image sensor 213.
  • the third image sensor 213 transmits light through the third prism 313 and is guided to the third image sensor 213 (that is, light belonging to a wavelength band including the R component).
  • the light receiving surface is arranged so as to be vertical.
  • the fourth prism 314 is a prism that functions as an optical path for guiding light incident on the fourth prism 314 (that is, light belonging to a wavelength band including the R component) to the fourth image sensor 214. That is, the light incident on the fourth prism 314 travels straight through the fourth prism 314 and is guided to the fourth image sensor 214.
  • the fourth imaging element 214 is relative to the optical axis of light that is transmitted through the fourth prism 314 and guided to the fourth imaging element 214 (that is, light that belongs to a wavelength band including the G component).
  • the light receiving surface is arranged so as to be vertical.
  • the imaging device 105a separates incident light into light of three primary colors of R component, G component, and B component, and light of IR component, and the light of each component is different from each other.
  • an image based on the light of each component is individually captured.
  • the imaging device 105a does not need to be provided with a color filter in each imaging element and can improve the light use efficiency. Therefore, an imaging device that does not use a color separation optical system (that is, one imaging device). It is possible to capture an image with improved color reproducibility and resolution as compared to an imaging device that captures an image with an element.
  • the imaging device 105a forms an image on the imaging element in which the light of the three primary colors of the R component, the G component, and the B component and the light of the IR component are different from each other. Images can be individually captured at the same timing.
  • Narrow Band Imaging Narrow Band Imaging
  • AFI Fluorescence Observation
  • IRI Infra-Red Imaging
  • a fluorescent substance having affinity for a lesion such as cancer is administered to a subject (patient) in advance, and irradiation with excitation light for exciting the fluorescent substance is performed.
  • the lesion is observed with a fluorescence image of fluorescence emitted from the fluorescent material accumulated in the region (that is, an observation image based on the fluorescence detection result).
  • a typical example of a fluorescent material used for fluorescence observation is indocyanine green (ICG).
  • the ICG emits fluorescence having a wavelength around 820 nm (that is, light in the near-infrared band) by using light having a wavelength near 808 nm as excitation light.
  • a fluorescent image of an object is captured by an imaging element on which IR component light forms an image, and further, by another imaging element. It is possible to capture a visible light image of an object with high resolution.
  • the fluorescent image and the visible light image of the object can be individually captured at the same timing, for example, the fluorescent image captured in synchronization with the visible light image is superimposed on the visible light image. It is also possible.
  • an image pickup apparatus using a color separation optical system has the color separation optical system so that physical interference does not occur between a plurality of image pickup elements that form images of light separated by the color separation optical system. It is necessary to dispose each imaging device. Therefore, an image pickup apparatus using a color separation optical system has a larger size of the color separation optical system as the number of image pickup elements increases (that is, as the number of spectral components to be separated (for example, the number of colors) increases). As a result, the flange back length tends to be longer.
  • flange back length indicates the optical distance from the lens mount surface to the image sensor in the interchangeable lens type image pickup apparatus.
  • the optical distance from the incident surface of the branching optical system 300 to each imaging device corresponds to the flange back length.
  • the “optical distance” corresponds to an optical distance calculated from the traveling speed of light, and is calculated from the physical distance of the light path and the refractive index in the path.
  • an image pickup apparatus using a four-color separation optical system such as the image pickup apparatus 105a according to the comparative example, is smaller in size than the image pickup apparatus using a three-color separation optical system. May be larger and the flange back length may be longer. For this reason, in an interchangeable lens type imaging apparatus using a four-color separation optical system, usable lenses are sometimes limited to those having a relatively long flange back length.
  • C-mount As a lens applied to an endoscope, a surgical microscope, etc., a standard called “C-mount” is mainly used. It is specified as 17.526 mm. In the medical field, various medical devices are required to be miniaturized so as not to interfere with medical practice, and imaging devices are no exception. As an image pickup apparatus satisfying such conditions, for example, an apparatus using a three-color separation optical system is provided. However, for an imaging device using a four-color separation optical system, due to restrictions on the size and flange back length as described above, instead of an existing imaging device (for example, an imaging device using a three-color separation optical system), It is difficult to apply to endoscopes and surgical microscopes.
  • the plurality of imaging elements are efficiently arranged in a limited space.
  • FIGS. 4 and 5 are explanatory views for explaining an example of the configuration of the imaging apparatus according to the present embodiment, and shows an example of the imaging apparatus applicable as the camera head 105 of the endoscopic surgery system 100 described above. ing.
  • the imaging apparatus according to the present embodiment will be described as being configured as an imaging apparatus based on the C-mount standard.
  • the imaging device shown in FIGS. 4 and 5 may be referred to as an “imaging device 105 b” in order to explicitly distinguish it from other imaging devices applicable as the camera head 105.
  • the imaging apparatus 105b includes a mount base 240, a branching optical system 400, first to fourth imaging elements 231 to 234, and substrates 221 to 224. Including. The first image sensor 231 to the fourth image sensor 234 are held by the substrates 221 to 224, respectively.
  • the imaging device 105b may include an opening mask 250 and may include cover glasses 425 and 427 to 429.
  • the z direction corresponds to the optical axis direction of the light incident on the imaging device 105b (that is, incident light), in other words, the method of the incident surface of the branching optical system 400 described later in detail. Corresponds to the line direction. Further, both the x direction and the y direction are directions orthogonal to the z direction, and the x direction and the y direction are orthogonal to each other. 4 and 5, the x direction corresponds to the horizontal direction of the imaging device 105b, and the y direction corresponds to the vertical direction of the imaging device 105b. FIG.
  • FIG. 4 schematically illustrates the configuration of the imaging device 105b when the imaging device 105b is cut along a horizontal plane (xz plane) including the optical axis (z axis) of incident light.
  • the optical path of the light incident on 105b is also shown. That is, in FIG. 4, the horizontal direction, the vertical direction, and the depth direction in the drawing correspond to the z direction, the x direction, and the y direction, respectively.
  • FIG. 5 schematically illustrates the configuration of the imaging device 105b when the imaging device 105b is cut along a vertical plane (yz plane) including the optical axis (z axis) of incident light.
  • the optical path of the light incident on the device 105b is also shown. That is, in FIG. 5, the horizontal direction, the vertical direction, and the depth direction in the drawing correspond to the z direction, the y direction, and the x direction, respectively.
  • the mount table 240 is configured to attach an optical system such as an interchangeable lens, a microscope, or an endoscope to the imaging device 105b.
  • the mount base 240 is formed with an opening through which light from an object incident from an optical system attached to the mount base 240 passes. That is, the light from the object collected by the optical system attached to the mount base 240 enters the imaging device 105 b from the opening of the mount base 240.
  • the opening mask 250 is provided with an opening of a predetermined shape, and light flux of light (that is, incident light) incident on the imaging device 105b through the optical system attached to the mount table 240 through the opening. Limit.
  • the opening provided in the opening mask 250 is formed in, for example, a rectangular shape having a dimension corresponding to the size of the light receiving surface of each image sensor (that is, the first image sensor 231 to the fourth image sensor 234). . That is, the F number is determined according to the size of the opening provided in the opening mask 250.
  • the opening mask 250 may be provided with a so-called “aperture” mechanism that controls the size of the opening by changing the diameter of the opening around the optical axis of incident light, for example.
  • the aperture mask 250 is provided so as to be interposed between the mount base 240 and the branching optical system 400.
  • an imaging lens for example, an interchangeable lens, a microscope, an endoscope, or the like
  • the F number of the entire imaging system is determined by the configuration of the installed optical system (for example, glass material, thickness, air interval, etc.).
  • the branching optical system 400 includes a first branching optical system 401, a second branching optical system 402, and an IR cut filter 426. Further, the branching optical system 400 may include a band pass filter 424.
  • the first branching optical system 401 separates the light incident on the first branching optical system 401 into light belonging to the near infrared wavelength band and light belonging to the visible light wavelength band.
  • the first branching optical system 401 is a prism in which a first prism 411 and a second prism 412 are connected to each other via a dichroic film 421. That is, the dichroic film 421 is provided at the interface between the first prism 411 and the second prism 412.
  • the dichroic film 421 is incident on the first branching optical system 401, and includes incident light including light belonging to the visible light wavelength band and light belonging to the near-infrared wavelength band, light belonging to the visible light wavelength band, and It is an optical film that separates light belonging to the near-infrared wavelength band. Specifically, the dichroic film 421 has characteristics of reflecting light belonging to the near-infrared wavelength band and transmitting light belonging to the visible light wavelength band.
  • FIG. 6 is a diagram showing an example of spectral characteristics of the dichroic film 421 applied to the imaging apparatus according to the present embodiment.
  • the horizontal axis indicates the wavelength (nm), and the vertical axis indicates the spectral transmittance (%).
  • the dichroic film 421 transmits most of the light on the short wavelength side (for example, 90% or more) with the wavelength near 700 nm as a boundary, and most of the light on the long wavelength side (for example, for example, 90% or more).
  • the first prism 411 receives light belonging to the visible wavelength band and light belonging to the near-infrared wavelength band (that is, incident light) and guides light belonging to the near-infrared wavelength band to the near-infrared. It is a prism that functions as an optical path for light.
  • the second prism 412 is a prism that functions as an optical path for visible light through which light belonging to the visible light wavelength band is guided.
  • Incident light that has entered the first prism 411 from the incident surface 433 travels straight through the first prism 411, and the dichroic film 421 provided obliquely on the optical axis causes light incident on the visible light wavelength band to And light belonging to the infrared wavelength band.
  • the light belonging to the near-infrared wavelength band is reflected by the dichroic film 421 and guided through the first prism 411. More specifically, in the example shown in FIG. 4, the light belonging to the near-infrared wavelength band has an optical axis corresponding to the normal direction of the surface 433 on which the incident light to the branching optical system 400 is incident by the dichroic film 421. Reflected in the plane direction of the plane (that is, the xz plane) including (that is, the z axis). The light reflected by the dichroic film 421 corresponds to an example of “first light”, and the reflection direction corresponds to an example of “first direction”.
  • the reflected and separated light belonging to the near-infrared wavelength band (hereinafter also referred to as “near-infrared ray”) is totally reflected once at the incident surface 433 as shown in FIG. 411 is transmitted to the outside.
  • membrane 421 can be closely approached.
  • the installation angle of the dichroic film 421 according to this embodiment on the optical axis is set so that the above-described total reflection condition is satisfied.
  • the dichroic film 421 By disposing the dichroic film 421 in this way, even when a light beam having a bright F value is incident on the first prism 411, the spectral characteristics of the dichroic film 421 due to the difference in incident angle between the left light beam and the right light beam. Therefore, wavelength separation can be performed with high accuracy.
  • a band pass filter 424 may be provided in the optical path of the light separated by the dichroic film 421 and imaged on the first image sensor 231.
  • the bandpass filter 424 has a characteristic of transmitting light in a predetermined wavelength band in the near infrared wavelength band and blocking light in other wavelength bands.
  • the bandpass filter 424 assumes the situation where the imaging device 105b is used in fluorescence observation using a fluorescent substance that emits fluorescence in a predetermined wavelength band in the near-infrared wavelength band. You may arrange
  • the bandpass filter 424 when focusing on the fluorescence emitted by the ICG, the bandpass filter 424 emits light in a wavelength band around 820 nm (for example, a wavelength band of 820 nm to 850 nm) that is the wavelength band of the fluorescence emitted by the ICG. It only needs to have a characteristic of transmitting and blocking light in other wavelength bands.
  • FIG. 7 is a diagram illustrating an example of spectral characteristics of the bandpass filter 424 applied to the imaging apparatus according to the present embodiment.
  • the horizontal axis indicates the wavelength (nm) and the vertical axis indicates the spectral transmittance (%).
  • the bandpass filter 424 transmits most of light in the wavelength band near 820 nm to 850 nm (for example, 90% or more) and transmits most of light in other wavelength bands (for example, 90%). And the like).
  • the first image sensor 231 has a light receiving surface perpendicular to the optical axis of light (ie, near-infrared rays) that is transmitted through the first prism 411 and guided to the first image sensor 231. It is arranged to become.
  • a cover glass 425 for protecting the light receiving surface of the first image sensor 231 may be interposed between the first prism 411 and the first image sensor 231.
  • a glass using a glass material generally known as BK7 is applied.
  • the first imaging element 231 for example, a color filter is not provided, and a sensor having high sensitivity to near infrared wavelengths is applied.
  • light belonging to the visible light wavelength band that has passed through the dichroic film 421 enters the second prism 412 and travels straight in the second prism 412.
  • the end surface of the second prism 312 opposite to the side on which the dichroic film 421 is provided is perpendicular to the optical axis.
  • the light belonging to the visible light wavelength band is transmitted to the outside of the second prism 412 while maintaining a state perpendicular to the emission surface of the second prism 412.
  • the light transmitted through the dichroic film 421 corresponds to an example of “second light”.
  • the second branch optical system 402 is connected to the emission surface of the second prism 412 via the IR cut filter 426. That is, an IR cut filter 426 is provided at the interface between the second prism 412 of the first branch optical system 401 and the second branch optical system 402.
  • the IR cut filter 426 is a filter that cuts infrared light.
  • FIG. 8 is a diagram illustrating an example of spectral characteristics of the IR cut filter 426 applied to the imaging apparatus according to the present embodiment.
  • the horizontal axis indicates the wavelength (nm), and the vertical axis indicates the spectral transmittance (%).
  • the IR cut filter 426 absorbs most of the light in the wavelength band longer than 700 nm (for example, 90% or more) and transmits light in other wavelength bands. is doing.
  • the IR cut filter 426 may be formed, for example, by depositing an infrared cut coat on a glass material equivalent to BK7.
  • the IR cut filter 426 may be made of infrared absorbing glass.
  • the IR cut filter 426 for example, C5000 manufactured by HOYA Corporation can be used.
  • an air gap is formed at the interface between the IR cut filter 426 and the second branch optical system 402 as indicated by reference numeral 431. Is provided.
  • each unit located at a stage subsequent to the IR cut filter 426 will be described.
  • the light belonging to the visible light wavelength band emitted from the second prism 412 of the first branching optical system 401 is incident on the second branching optical system 402 after the infrared light is cut by the IR cut filter 426.
  • the second branching optical system 402 separates light belonging to the visible light wavelength band incident on the second branching optical system 402 into light belonging to wavelength bands including the R component, the G component, and the B component.
  • the third prism 413 and the fourth prism 414 are connected to each other via the dichroic film 422, and the fourth prism 414 and the fifth prism are connected.
  • 415 is a prism connected to each other via a dichroic film 423. That is, a dichroic film 422 is provided at the interface between the third prism 413 and the fourth prism 414, and a dichroic film 423 is provided at the interface between the fourth prism 414 and the fifth prism 415. Yes.
  • the dichroic film 422 is incident on the second branching optical system 402 and includes incident light including light belonging to the visible light wavelength band into light belonging to the wavelength band including the G component and wavelength bands including the R component and the B component. It is an optical film that separates light belonging to it. Specifically, the dichroic film 422 has a characteristic of reflecting light belonging to a wavelength band including the G component and transmitting light belonging to a short wavelength band including the R component and the B component.
  • the dichroic film 423 transmits incident light that has passed through the dichroic film 422 and includes light belonging to a wavelength band including an R component and a B component into light belonging to a wavelength band including an R component and a wavelength band including a B component. It is an optical film that separates light belonging to it. Specifically, the dichroic film 423 has characteristics of reflecting light belonging to the wavelength band including the B component and transmitting light belonging to the wavelength band including the R component.
  • the third prism 413 is a prism that functions as an optical path for green light through which light belonging to the visible light wavelength band is incident and light belonging to the wavelength band including the G component is guided.
  • the fourth prism 414 is a prism that functions as an optical path for blue light through which light belonging to the wavelength band including the R component and B component is incident and light belonging to the wavelength band including the B component is guided.
  • the fifth prism 415 is a prism that functions as an optical path for red light through which light belonging to a wavelength band including the R component is guided.
  • the light belonging to the visible light wavelength band incident on the third prism 413 from the incident surface 435 travels straight in the third prism 413 and is a wavelength including the G component by the dichroic film 422 provided obliquely on the optical axis. It is separated into light belonging to the band and light belonging to the wavelength band including the R component and the B component.
  • the light belonging to the wavelength band including the G component is reflected by the dichroic film 422 and guided through the third prism 413.
  • the dichroic film 422 is directed to the direction in which the dichroic film 421 described above reflects light belonging to the near-infrared wavelength band with the optical axis (that is, the z axis) of the incident light to the branching optical system 400 as an axis.
  • the light belonging to the wavelength band including the G component is reflected in the relatively twisted direction. That is, as shown in FIG.
  • the dichroic film 422 when the dichroic film 421 reflects light belonging to the near-infrared wavelength band in the plane direction of the xz plane, the dichroic film 422 has a G component in a direction intersecting the xz plane. Reflects light that belongs to the included wavelength band.
  • the dichroic film 422 has a long wavelength containing a G component in the plane direction of the horizontal plane including the z direction (that is, the yz plane whose normal direction is perpendicular to the xz plane). The light belonging to the side wavelength band is reflected.
  • the dichroic film 422 has a long wavelength containing a G component in the plane direction of the horizontal plane including the z direction (that is, the yz plane whose normal direction is perpendicular to the xz plane). The light belonging to the side wavelength band is reflected.
  • the dichroic film 422 is approximately in each of the optical axis of the incident light to the branching optical system 400 and the direction in which the dichroic film 421 reflects light belonging to the near-infrared wavelength band. Light belonging to the wavelength band on the long wavelength side including the G component is reflected in the vertical direction.
  • the light reflected by the dichroic film 422 corresponds to an example of “third light”, and the reflection direction corresponds to an example of “second direction”.
  • the light belonging to the wavelength band including the G component separated by reflection (hereinafter, also referred to as “green light”) reaches the incident surface 435 as shown in FIG. Further, as described above, an air gap is provided between the incident surface 435 and the IR cut filter 426 as indicated by reference numeral 431. Therefore, the green light is totally reflected once by the incident surface 435 and is transmitted to the outside of the third prism 413. Thereby, the angle with respect to the optical axis of the film-forming surface of the dichroic film
  • the dichroic film 422 By disposing the dichroic film 422 in this way, even when a light beam having a bright F value is incident on the third prism 413, the spectral characteristics of the dichroic film 422 due to the difference in incident angle between the upper light beam and the lower light beam. Therefore, wavelength separation can be performed with high accuracy.
  • the green light beam transmitted through the third prism 413 is guided to the second image sensor 232.
  • the second image sensor 232 is disposed such that the light receiving surface is perpendicular to the optical axis of light that is transmitted through the third prism 413 and guided to the second image sensor 232.
  • a cover glass 427 for protecting the light receiving surface of the second imaging element 232 may be interposed between the third prism 413 and the second imaging element 232.
  • the cover glass 427 the same cover glass 425 as described above can be used.
  • the second imaging element 232 for example, a color filter is not provided, and a sensor having high sensitivity in a wavelength band including a G component is preferably applied.
  • the light belonging to the wavelength band including the R component and the B component transmitted through the dichroic film 422 enters the fourth prism 414. Then, the light incident on the fourth prism 414 travels straight through the fourth prism 414, and the light belonging to the wavelength band including the R component is reflected by the dichroic film 423 provided obliquely on the optical axis. And light belonging to a wavelength band including components.
  • the light transmitted through the dichroic film 422 corresponds to an example of “fourth light”.
  • the light belonging to the wavelength band including the B component is reflected by the dichroic film 423 and guided through the fourth prism 414.
  • the dichroic film 423 is directed to the direction in which the above-described dichroic film 421 reflects light belonging to the near-infrared wavelength band with the optical axis (that is, the z axis) of the incident light to the branching optical system 400 as an axis.
  • the light belonging to the wavelength band including the B component is reflected in the relatively twisted direction. That is, as shown in FIG.
  • the dichroic film 422 when the dichroic film 421 reflects light belonging to the near-infrared wavelength band in the plane direction of the xz plane, the dichroic film 422 has a B component in a direction intersecting the xz plane. Reflects light that belongs to the included wavelength band.
  • the dichroic film 423 is a surface direction of a horizontal plane including the z direction (that is, a yz plane whose normal direction is orthogonal to the xz plane) and the dichroic film 422. Reflects light belonging to the wavelength band including the B component in a direction different from the direction in which the green light is reflected.
  • the light reflected by the dichroic film 423 corresponds to an example of “fifth light”, and the reflection direction corresponds to an example of “third direction”.
  • the xz plane corresponds to an example of a “first surface”
  • the yz plane corresponds to an example of a “second surface”.
  • the light belonging to the wavelength band including the B component separated by reflection (hereinafter also referred to as “blue light beam”) is guided through the fourth prism 414. Further, the blue light beam transmitted through the fourth prism 414 is guided to the third image sensor 233.
  • the third image sensor 233 is disposed such that the light receiving surface is perpendicular to the optical axis of the light that is transmitted through the fourth prism 414 and guided to the third image sensor 233.
  • a cover glass 428 for protecting the light receiving surface of the third imaging element 233 may be interposed between the fourth prism 414 and the third imaging element 233.
  • the cover glass 428 the same cover glass 425 as described above can be used.
  • the third image sensor 233 for example, a color filter is not provided, and a device having high sensitivity in a wavelength band including the B component is preferably applied.
  • red light beam light belonging to a wavelength band including the R component transmitted through the dichroic film 423 enters the fifth prism 415 and travels straight inside the fifth prism 415.
  • the end surface of the fifth prism 415 opposite to the side on which the dichroic film 423 is provided is perpendicular to the optical axis.
  • the red light ray is transmitted to the outside of the fifth prism 415 while maintaining a state perpendicular to the emission surface of the fifth prism 415. Then, the red light beam transmitted through the fifth prism 415 is guided to the fourth image sensor 234.
  • the fourth image sensor 234 is disposed so that the light receiving surface is perpendicular to the optical axis of the light that is transmitted through the fifth prism 415 and guided to the fourth image sensor 234. .
  • a cover glass 429 that protects the light receiving surface of the fourth imaging element 234 may be interposed between the fifth prism 415 and the fourth imaging element 234.
  • the cover glass 429 the same cover glass 425 as described above can be used.
  • the fourth imaging element 234 for example, a color filter is not provided, and a device having high sensitivity in a wavelength band including the R component is preferably applied.
  • FIG. 9 is a diagram illustrating an example of wavelength characteristics of each light separated from light belonging to the visible light wavelength band by the branching optical system 400 according to the present embodiment, and includes red light (R), green light ( G) shows an example of wavelength characteristics of blue light (B).
  • R red light
  • G green light
  • B blue light
  • the horizontal axis indicates the wavelength (nm)
  • the vertical axis indicates the wavelength component included in each light after the spectrum as a relative value (%) with respect to the incident light.
  • light that is, green light, blue light, and red light
  • the dichroic films 422 and 423 light (that is, green light, blue light, and red light) that forms an image on each of the second image sensor 232 to the fourth image sensor 234 has characteristics as shown in FIG. As shown, it is sufficient to use one having a spectral characteristic for separating each light from the incident light.
  • the imaging apparatus 105 b includes the branch optical system 400 including the first branch optical system 401 and the second branch optical system 402.
  • the incident light is separated into a plurality of lights, and each light is imaged on different image sensors.
  • the first branch optical system 401 and the second branch optical system 402 are twisted with respect to each other about the optical axis corresponding to the normal direction of the incident surface 433 on which light enters the branch optical system 400.
  • a part of the light is separated from the incident light.
  • the imaging apparatus 105b according to the present embodiment includes, for example, the substrate 221 that supports the first imaging element 231 and the substrate 222 that supports each of the second imaging element 232 to the fourth imaging element 234. It is possible to avoid physical interference between ⁇ 224. That is, the imaging apparatus 105b according to the present embodiment can efficiently arrange the first imaging element 231 to the fourth imaging element 234 (in other words, the substrates 221 to 224) in a limited space. .
  • the imaging device 105b according to the present embodiment can reduce the number of places where an air gap is formed, as compared with the imaging device 105a according to the comparative example illustrated in FIG.
  • the formation of the air gap may cause a defect due to dust or the like mixed in the air gap. For this reason, a design with fewer air gaps is desirable. That is, the imaging apparatus 105b according to the present embodiment can further reduce the possibility of occurrence of a defect due to the formation of the air gap, as compared with the imaging apparatus 105a according to the comparative example.
  • the configuration described above is merely an example, and the configuration of the imaging device 105b according to the present embodiment is not necessarily limited to the example described above.
  • the imaging element and the imaging element are imaged.
  • the correspondence relationship with light is not limited.
  • a configuration for separating a part of light from incident light for example, an optical film such as dichroic films 421 to 423) according to the correspondence between the image sensor and the light imaged on the image sensor. Needless to say, it may be selected appropriately.
  • the configuration for separating a part of the light from the incident light is not limited to the optical film that separates the incident light according to the wavelength characteristics such as the dichroic film, but other structures such as a half mirror film, for example, It is also possible to apply an optical film. An example in which the half mirror film is applied will be separately described later as a modified example.
  • the imaging device 105b according to the present embodiment can be configured as an imaging device using a three-color separation optical system.
  • the optical path of the incident light is changed to two optical paths instead of the branching optical system that branches the optical path of the incident light into three optical paths as shown in FIGS.
  • a branching optical system for branching may be applied.
  • the first branching optical system 401 may be configured to branch the optical path of incident light into three optical paths in the same manner as the second branching optical system 402.
  • Example 1 First, as Example 1, an example of a more detailed configuration of the imaging device 105b illustrated in FIGS. 4 and 5 will be described.
  • the imaging device 105b according to the present embodiment is configured as an imaging device based on the C-mount standard will be described. That is, in Example 1, in order to satisfy the flange back length condition (17.526 mm) defined by the C-mount standard, the imaging element positioned at the rear stage of the branching optical system 400 from at least the incident surface of the branching optical system 400
  • An example of the configuration of the imaging device 105b in which the optical distance between the two is 17.526 mm or less will be described.
  • the size of the image formed on each imaging element (that is, the first imaging element 231 to the fourth imaging element 234) (that is, the first imaging element 231).
  • the image height is 3.14 mm in the vertical direction and 5.56 mm in the horizontal direction.
  • FIG. 4 shows the optical paths of light that forms an image at the center, -2.78 mm, and +2.78 mm in the horizontal direction of the light receiving surface of each image sensor.
  • FIG. 5 shows optical paths of light that forms an image at positions of the center, ⁇ 1.57 mm, and +1.57 mm in the vertical direction of the light receiving surface of each image sensor.
  • the opening provided in the opening mask 250 is formed in a rectangular shape having a horizontal dimension (x direction) of 8.2 mm and a vertical direction (y direction) of 7.2 mm.
  • a glass material that satisfies the condition of refractive index Nd ⁇ 1.80 is applied as the glass material that forms the first prism 411 to the fifth prism 415 that form the branching optical system 400. is doing.
  • An example of the glass material that satisfies the same condition is TAF3 manufactured by HOYA Corporation.
  • cover glass 425, 427 to 429 for example, a glass having a thickness of 1.2 mm using BK7 as a glass material is used.
  • Each of the bandpass filter 424 and the IR cut filter 426 has a thickness in the optical axis direction of 1.09 mm. Further, the refractive indexes Nd of the band pass filter 424 and the IR cut filter 426 are equivalent to BK7.
  • the angle indicated by reference sign ⁇ 11 that is, the angle between the incident surface 433 of the first prism 411 and the surface on which the dichroic film 421 is formed on the xz plane is 30 °. .
  • the angle indicated by the reference sign ⁇ 13 in FIG. 5 that is, the angle between the incident surface 435 of the third prism 413 and the surface on which the dichroic film 422 is formed on the yz plane is 25.75 °. It has become.
  • the angle indicated by the reference sign ⁇ 15 in FIG. 5, that is, the angle between the surface on which the dichroic film 422 is formed and the surface on which the dichroic film 423 is formed on the yz plane is 60.75 °. It has become.
  • the glass thickness of the branching optical system 400 is defined as the width (physical distance) in the z direction of the branching optical system 400
  • the glass thickness d1 of the branching optical system 400. 18.844 mm. That is, in the imaging device 105b according to the first embodiment, the glass thickness d1 of the branching optical system 400 is thicker than 17.526 mm while satisfying the flange back length condition (17.526 mm) defined by the C-mount standard. It is possible to form as follows.
  • optical path length (optical distance) of light that forms an image on each image sensor is determined by the refractive index of an optical system (for example, the branching optical system 400) disposed in the light path and the optical system. This depends on the length of the light path guided through the light.
  • the glass thickness of the branch optical system 400 can be increased while satisfying the flange back length condition. Therefore, according to the imaging apparatus 105b according to the first embodiment, physical interference between the first imaging element 231 to the fourth imaging element 234 (and thus the substrates 221 to 224) can be avoided, and each imaging element It becomes possible to further improve the degree of freedom related to the arrangement.
  • the imaging device 105b according to the first embodiment achieves a relatively bright F number. Therefore, according to the imaging apparatus 105b according to the first embodiment, various optical systems can be used, from an optical system with a relatively F number such as a surgical microscope to an optical system with a relatively low F number such as an endoscope. It is possible to use the system widely.
  • Example 2 another example of a more detailed configuration of the imaging apparatus according to the present embodiment will be described.
  • the glass thickness of the branching optical system 400 can be increased while satisfying the flange back length condition defined by a predetermined mount standard. Is possible. Therefore, in the second embodiment, the glass material constituting each of the prisms constituting the branching optical system 400 (that is, the first prism 411 to the fifth prism 415) has a refractive index higher than that of the glass material applied in the first embodiment. An example where a high glass material is applied will be described.
  • FIGS. 10 and 11 are explanatory diagrams for describing an example of the configuration of the imaging apparatus according to Example 2 of the present embodiment, and are applicable as the camera head 105 of the endoscopic surgery system 100 described above.
  • 3 shows another example of an imaging apparatus.
  • the imaging apparatus according to the second embodiment may be referred to as “imaging apparatus 105c” in order to explicitly distinguish it from other imaging apparatuses applicable as the camera head 105.
  • the imaging device 105c according to the second embodiment is different from the imaging device 105b according to the first embodiment described above in the glass material constituting the first prism 411 to the fifth prism 415. Therefore, the imaging device 105c according to the second embodiment differs from the imaging device 105b according to the first embodiment in the dimensions of the first prism 411 to the fifth prism 415 due to the difference in the glass material. On the other hand, the imaging device 105c according to the second embodiment is the same as the imaging device 105b according to the first embodiment in other configurations.
  • the imaging device 105c according to the second embodiment will be described by focusing attention on portions that are different from the imaging device 105b according to the first embodiment, and the portions that are substantially similar to the imaging device 105b will be described in detail. The detailed explanation is omitted. 10 and 11, the components denoted by the same reference numerals as those in FIGS. 4 and 5 are substantially the same as the examples illustrated in FIGS. 4 and 5.
  • a glass material that satisfies the condition of refractive index Nd ⁇ 1.90 is applied as the glass material that forms the first prism 411 to the fifth prism 415 that form the branching optical system 400.
  • TAFD25 by HOYA Corporation is mentioned, for example.
  • the size of the image formed on each imaging element (that is, the image height), the size and shape of the opening provided in the aperture mask 250, and the size of each imaging element.
  • the F number at the center of the light receiving surface is the same as that of the imaging device 105b according to the first embodiment described with reference to FIGS. 10 and FIG. 11 are the same as the angles indicated by the reference numerals ⁇ 11, ⁇ 13, and ⁇ 15 in FIG. 4 and FIG.
  • the glass thickness d2 of the branching optical system 400 is 19.847 mm.
  • the refractive index of the glass material that forms the first prism 411 to the fifth prism 415 constituting the branching optical system 400 is higher than that of the example described as the first embodiment.
  • High glass material is applied.
  • the glass thickness of the branch optical system 400 can be formed thicker than that of the imaging device 105b according to the first embodiment. That is, according to the image pickup apparatus 105c according to the second embodiment, the arrangement of the image pickup elements (that is, the first image pickup element 231 to the fourth image pickup element 234) is larger than that of the image pickup apparatus 105b according to the first embodiment. Such a degree of freedom can be further improved.
  • the imaging device 105c according to the second embodiment for example, a larger clearance between the light beam and the prism side surface, the chamfered portion, and the prism apex can be secured. Therefore, it is possible to further reduce the risk of occurrence of flare caused by these parts.
  • the glass material having a higher refractive index tends to have a larger dispersion (that is, a smaller Abbe number).
  • such a glass material often contains an oxide component having absorption in the near ultraviolet region, and in such a case, the transmittance in a short wavelength region near 400 nm tends to be lower.
  • the glass thickness tends to be thicker.
  • the glass pressure of the branching optical system 400 is 19.847 mm, and the influence due to the decrease in transmittance is apparent. There is a case.
  • each prism of the branching optical system 400 that is, the first prism 411 to the fifth prism 415
  • Example 2 As described above, as Example 2, another example of a more detailed configuration of the imaging apparatus according to the present embodiment will be described with reference to FIGS. 10 and 11.
  • the first and second embodiments are merely examples, and can satisfy various conditions defined by a predetermined standard (for example, C mount standard) and color reproducibility conditions according to applications.
  • a predetermined standard for example, C mount standard
  • the glass material constituting each prism of the branching optical system 400 is not necessarily limited to the example described above.
  • glass materials applicable as the branching optical system 400 include TAFD5F, TAFD30, TAFD33, TAFD37, TAFD35, TAFD45 and the like manufactured by HOYA Corporation.
  • the upper limit of each of the refractive index Nd and the Abbe number ⁇ d of each prism of the branching optical system 400 is substantially determined according to the choice of glass material applicable to each prism.
  • the imaging apparatus according to the present embodiment is not necessarily limited to the case where it is configured as an imaging apparatus based on the above-described C-mount standard.
  • the imaging apparatus is configured as an imaging apparatus based on another mount standard. Is also possible. Even in such a case, based on various conditions (for example, flange back length, etc.) defined in the corresponding standard, based on the same design concept as described above, the dimensions (particularly, the parts of the imaging device according to the present embodiment).
  • the dimensions of each part of the branching optical system 400) and the glass material constituting each prism of the branching optical system 400 may be appropriately determined.
  • the light belonging to the visible light wavelength band is separated into red light, green light, and blue light, and each after the separation.
  • An example of the configuration of an imaging apparatus that focuses light rays on each of the four imaging elements will be described.
  • 12 and 13 are explanatory diagrams for explaining an example of the configuration of the imaging apparatus according to the modification, and another example of the imaging apparatus applicable as the camera head 105 of the endoscopic surgery system 100 described above. Show.
  • the imaging apparatus according to the present embodiment will be described as being configured as an imaging apparatus based on the C-mount standard.
  • the imaging device shown in FIGS. 12 and 13 may be referred to as an “imaging device 105d” in order to explicitly distinguish it from other imaging devices applicable as the camera head 105.
  • the imaging apparatus 105 d includes a mount base 240, a branch optical system 500, a first imaging element 235 to a fourth imaging element 238, and substrates 225 to 228. Including. The first image sensor 235 to the fourth image sensor 238 are held by the substrates 225 to 228, respectively. Further, the imaging device 105d may include an opening mask 250 and may include cover glasses 525 to 528. The configurations of the mount table 240 and the opening mask 250 are the same as those of the mount table 240 and the opening mask 250 in the imaging device 105b according to the embodiment described above with reference to FIGS.
  • the configuration of the imaging apparatus 105d according to the modified example will be described by focusing on the different parts from the imaging apparatus 105b according to the above-described embodiment, and the parts substantially similar to the imaging apparatus 105b will be described in detail. The detailed explanation is omitted.
  • the z direction corresponds to the optical axis direction of the light incident on the imaging device 105 d (that is, incident light), in other words, the method of the incident surface of the branching optical system 500 described later in detail. Corresponds to the line direction. Further, both the x direction and the y direction are directions orthogonal to the z direction, and the x direction and the y direction are orthogonal to each other. In FIGS. 12 and 13, the x direction corresponds to the horizontal direction of the imaging device 105d, and the y direction corresponds to the vertical direction of the imaging device 105d. FIG.
  • FIG. 12 schematically illustrates the configuration of the imaging device 105d when the imaging device 105d is cut along a horizontal plane (xz plane) including the optical axis (z-axis) of incident light.
  • the optical path of the light incident on 105d is also shown. That is, in FIG. 12, the horizontal direction, the vertical direction, and the depth direction in the drawing correspond to the z direction, the x direction, and the y direction, respectively.
  • FIG. 13 schematically illustrates the configuration of the imaging device 105d when the imaging device 105d is cut along a vertical plane (yz plane) including the optical axis (z-axis) of incident light.
  • the optical path of the light incident on the device 105d is also shown. That is, in FIG. 13, the horizontal direction, the vertical direction, and the depth direction in the drawing correspond to the z direction, the y direction, and the x direction, respectively.
  • the branching optical system 500 includes a first branching optical system 501, a second branching optical system 502, and an IR cut filter 524.
  • the first branching optical system 501 is a prism in which a first prism 511 and a second prism 512 are connected to each other via a dichroic film 521. That is, a dichroic film 521 is provided at the interface between the first prism 511 and the second prism 512.
  • an IR cut filter 524 is provided between the mount base 240 and the incident surface 535 of the first prism 511. 12 and 13, detailed illustration is omitted, but an interface between the IR cut filter 524 and the incident surface 535 of the first prism 511 is indicated by reference numeral 531. An air gap is provided.
  • the IR cut filter 524 is a filter that cuts infrared light.
  • the IR cut filter 524 for example, the same filter as the IR cut filter 426 described above with reference to FIG. 8 can be applied. That is, light belonging to the visible light wavelength band and light belonging to the near-infrared wavelength band (that is, incident light) that entered the imaging device 105 d through the opening of the mount base 240 have passed through the IR cut filter 524. Later, the light enters the first prism 511 from the incident surface 534.
  • the first prism 511 is a prism that functions as an optical path for blue light through which light belonging to the visible light wavelength band is incident and light belonging to the wavelength band on the short wavelength side including the B component is guided.
  • the second prism 512 is a prism that functions as an optical path for red light and green light through which light belonging to the wavelength band on the long wave side including the R component and G component of the light belonging to the visible light wavelength band is guided. is there.
  • Visible light that has entered the first prism 511 from the incident surface 535 travels straight through the first prism 511, and the wavelength band on the short wavelength side including the B component by the dichroic film 521 provided obliquely on the optical axis. And light belonging to the wavelength band on the long wave side including the R component and the G component.
  • the light (that is, the blue light) belonging to the short wavelength band including the B component separated by reflection reaches the incident surface 535 as shown in FIG. Further, as described above, an air gap is provided between the incident surface 535 and the IR cut filter 524 as indicated by reference numeral 531. Therefore, the blue light is totally reflected once by the incident surface 535 and is transmitted to the outside of the first prism 511. Thereby, the angle with respect to the optical axis of the film-forming surface of the dichroic film
  • the dichroic film 521 By disposing the dichroic film 521 in this way, even when a light beam having a bright F value is incident on the first prism 511, the spectral characteristics of the dichroic film 521 due to the difference in incident angle between the left light beam and the right light beam. Therefore, wavelength separation can be performed with high accuracy.
  • Blue light transmitted through the first prism 511 is guided to the first image sensor 235.
  • the first imaging element 235 has a light receiving surface perpendicular to the optical axis of light (that is, blue light) that is transmitted through the first prism 511 and guided to the first imaging element 235. It is arranged.
  • a cover glass 525 that protects the light receiving surface of the first imaging element 235 may be interposed between the first prism 511 and the first imaging element 235.
  • a cover glass 525 for example, a glass using a glass material generally known as BK7 is used.
  • the first image sensor 235 for example, a color filter is not provided, and a device having high sensitivity in a wavelength band including the B component is preferably applied.
  • the light belonging to the wavelength band on the long wave side including the R component and the G component transmitted through the dichroic film 521 enters the second prism 512 and travels straight inside the second prism 512.
  • the end surface of the second prism 512 opposite to the side on which the dichroic film 421 is provided (in other words, the exit surface on the downstream side of the optical axis of the second prism 512) is perpendicular to the optical axis. It is provided as follows. Therefore, the light belonging to the wavelength band on the long wave side guided through the inside of the second prism 512 is kept perpendicular to the emission surface of the second prism 512, and the second prism 512 is maintained. Permeates outside.
  • the second branch optical system 502 is connected to the exit surface of the second prism 512. 12 and 13, detailed illustration is omitted, but an air interface between the first branching optical system 501 and the second branching optical system 502 is shown as a reference numeral 533 at the interface between the first branching optical system 501 and the second branching optical system 502. A gap is provided.
  • each unit located in the subsequent stage of the second prism 512 of the first branching optical system 501 will be described.
  • the light belonging to the wavelength band on the long wave side including the R component and the G component emitted from the second prism 512 of the first branching optical system 501 enters the second branching optical system 502.
  • the second branching optical system 502 includes light that belongs to the wavelength band on the long wave side including the R component and G component incident on the second branching optical system 502, light that belongs to the wavelength band including the R component, and G component. Are separated into light belonging to a wavelength band including.
  • the second branch optical system 502 includes a third prism 513 and a fourth prism 514 connected to each other via a dichroic film 522, and the fourth prism 514 and the fifth prism.
  • 515 is a prism connected to each other through a half mirror film 523. That is, a dichroic film 522 is provided at the interface between the third prism 513 and the fourth prism 514, and a half mirror film 523 is provided at the interface between the fourth prism 514 and the fifth prism 515. ing.
  • the dichroic film 522 includes light that belongs to the wavelength band including the R component and G component that is incident on the second branch optical system 502 and includes light belonging to the wavelength band on the long wave side including the R component and the G component. It is an optical film which isolate
  • the half mirror film 523 is an optical film that branches an optical path of incident light including light belonging to a wavelength band including a G component transmitted through the dichroic film 522 into two optical paths. Specifically, the half mirror film 523 has a characteristic of reflecting a part of incident light and transmitting another part of light.
  • the third prism 513 is a prism that functions as an optical path for red light through which light belonging to the wavelength band on the long wave side including the R component and G component is incident and light belonging to the wavelength band including the R component is guided. is there.
  • the fourth prism 514 receives light belonging to a wavelength band including the G component, and a part of the light belonging to the wavelength band including the G component is guided for the first green light. It is a prism that functions as an optical path.
  • the fifth prism 515 is a prism that functions as a second optical path for green light through which another part of light belonging to the wavelength band including the G component is guided.
  • Light belonging to the wavelength band on the long wave side including the R component and G component incident on the third prism 513 from the incident surface 537 travels straight through the third prism 513 and is obliquely provided on the optical axis.
  • light belonging to the wavelength band including the R component that is, red light
  • light belonging to the wavelength band including the G component that is, green light
  • the red light is reflected by the dichroic film 522 and guided through the third prism 513.
  • the dichroic film 522 is twisted relatively with respect to the direction in which the dichroic film 521 reflects blue light with the optical axis (that is, the z axis) of the incident light to the branching optical system 500 as an axis. Reflect red light in the direction. That is, as shown in FIG. 12, when the dichroic film 521 reflects blue light in the plane direction of the xz plane, the dichroic film 522 reflects red light in the direction intersecting the xz plane. As a specific example, in the example shown in FIG.
  • the dichroic film 522 reflects red light rays in the plane direction of the horizontal plane including the z direction (that is, the yz plane whose normal direction is perpendicular to the xz plane). Yes.
  • the dichroic film 522 is red in a direction substantially perpendicular to the optical axis of the incident light to the branching optical system 500 and the direction in which the dichroic film 521 reflects the blue light. Reflects light rays.
  • the reflected and separated red light beam reaches the incident surface 537 as shown in FIG. Further, as described above, an air gap is provided between the incident surface 537 and the exit surface of the second prism 512 as indicated by reference numeral 533. Therefore, the red light is totally reflected once by the incident surface 537 and is transmitted to the outside of the third prism 513. Thereby, the angle with respect to the optical axis of the film-forming surface of the dichroic film
  • the dichroic film 522 By disposing the dichroic film 522 in this way, even when a light beam having a bright F value is incident on the third prism 513, the spectral characteristics of the dichroic film 522 due to the difference in incident angle between the upper light beam and the lower light beam. Therefore, wavelength separation can be performed with high accuracy.
  • the red light beam transmitted through the third prism 513 is guided to the second image sensor 236.
  • the second image sensor 236 is disposed such that the light receiving surface is perpendicular to the optical axis of the light that is transmitted through the third prism 513 and guided to the second image sensor 236.
  • a cover glass 526 that protects the light receiving surface of the second imaging element 236 may be interposed between the third prism 513 and the second imaging element 236.
  • the cover glass 526 the same cover glass 525 as described above can be used.
  • the green light beam transmitted through the dichroic film 522 is incident on the fourth prism 514. Then, the green light beam incident on the fourth prism 514 travels straight through the fourth prism 514, and a part of light and another part of light by the half mirror film 523 provided obliquely on the optical axis. (That is, the optical path of the incident green light beam is split into two optical paths).
  • the half mirror film 523 is twisted relatively with respect to the direction in which the dichroic film 521 reflects blue light with the optical axis (that is, the z axis) of the incident light to the branching optical system 500 as an axis.
  • a part of the green light is reflected in the selected direction. That is, as shown in FIG. 12, when the dichroic film 521 reflects blue light in the plane direction of the xz plane, the half mirror film 523 has a portion of the green light in the direction intersecting the xz plane. To reflect.
  • the dichroic film 521 reflects blue light in the plane direction of the xz plane
  • the half mirror film 523 is a surface direction of a horizontal plane including the z direction (that is, a yz plane whose normal direction is perpendicular to the xz plane) and is a dichroic film. 522 reflects a part of the green light in a direction different from the direction in which the red light is reflected.
  • a part of the reflected and separated green light is guided through the fourth prism 514.
  • part of the green light transmitted through the fourth prism 514 is guided to the third image sensor 237.
  • the third image sensor 237 is disposed such that the light receiving surface is perpendicular to the optical axis of the light that is transmitted through the fourth prism 514 and guided to the third image sensor 237.
  • a cover glass 527 that protects the light receiving surface of the third imaging element 237 may be interposed between the fourth prism 514 and the third imaging element 237.
  • a cover glass similar to the cover glass 525 described above can be used.
  • the third image sensor 237 for example, a color filter is not provided, and a device having high sensitivity in a wavelength band including a G component is preferably applied.
  • another part of the green light transmitted through the half mirror film 523 is incident on the fifth prism 515 and travels straight inside the fifth prism 515.
  • the end surface of the fifth prism 515 opposite to the side on which the half mirror film 523 is provided (in other words, the exit surface on the downstream side of the optical axis of the fifth prism 515) is perpendicular to the optical axis. It is provided to become. Therefore, the other part of the green light beam guided through the fifth prism 515 is maintained in a state that is perpendicular to the emission surface of the fifth prism 515, and the fifth prism 415 is transmitted to the outside. The other part of the green light transmitted through the fifth prism 515 is guided to the fourth image sensor 238.
  • the fourth image sensor 238 is disposed so that the light receiving surface is perpendicular to the optical axis of the light that is transmitted through the fifth prism 515 and guided to the fourth image sensor 238.
  • a cover glass 528 for protecting the light receiving surface of the fourth imaging element 238 may be interposed between the fifth prism 515 and the fourth imaging element 238.
  • the cover glass 528 the same cover glass 525 as described above can be used.
  • the fourth image sensor 238 for example, a color filter is not provided, and a device having high sensitivity in a wavelength band including the G component is preferably used.
  • the imaging device 105d according to the modification the visible light included in the incident light is separated into red light, green light, and blue light, and each image is formed on different image sensors.
  • the imaging device 105d separates part of the green light separated from the incident light, and couples the separated part of light and the other part of light to different image sensors. Let me image. Then, the imaging device 105d according to the modification individually captures images based on light (that is, red light, green light, and blue light) formed on each image sensor.
  • the imaging apparatus 105d according to the modified example does not need to be provided with a color filter in each imaging element and improves the light use efficiency. Therefore, compared with an imaging apparatus that does not use a color separation optical system, color reproduction is achieved. It is possible to capture an image with improved performance and resolution.
  • FIG. 14 is an explanatory diagram for describing an aspect of the imaging apparatus 105d according to the modification, and an example of a relative positional relationship between the third imaging element 237 and the fourth imaging element 238. Shows about.
  • reference numeral 2371 indicates one pixel of the third image sensor 237.
  • Reference numeral 2381 indicates one pixel of the fourth image sensor 238.
  • the reference symbol L11 indicates the horizontal width of the pixel 2371 of the third image sensor 237
  • the reference symbol L21 indicates the vertical width of the pixel 2371.
  • the width L13 corresponds to 1 ⁇ 2 of the width L11, that is, corresponds to a distance corresponding to 1 ⁇ 2 pixel in the horizontal direction of the pixel 2371.
  • the width L23 corresponds to 1 ⁇ 2 of the width L21, that is, corresponds to a distance corresponding to 1 ⁇ 2 pixel in the vertical direction of the pixel 2371.
  • the pixel 2371 and the pixel 2381 have the same size in the vertical direction and the horizontal direction.
  • the fourth image sensor 238 is relative to the third image sensor 237 with reference to the optical axis of the light imaged on the third image sensor 237 and the fourth image sensor 238. Therefore, the pixel 2381 is disposed at a position shifted by 1/2 pixel in both the horizontal direction and the vertical direction. That is, each pixel 2381 of the fourth image sensor 238 is relatively each of the third image sensor in both the horizontal direction and the vertical direction in which each pixel 2371 of the third image sensor 237 is disposed. It is located between the positions where the pixels 2371 are disposed.
  • the third imaging element 237 and the fourth imaging element are arranged so that the optical axes of the light images formed on the third imaging element 237 and the fourth imaging element 238 substantially coincide with each other.
  • a captured image may be generated by combining the imaging results of the respective elements 238.
  • the human eye tends to strongly feel the resolution of light belonging to the G component among the R component, the G component, and the B component. Therefore, for example, based on the configuration described with reference to FIG. 14, the imaging of each of the first imaging element 235 to the fourth imaging element 238 is further improved by further improving the resolution of the image based on the green light beam imaging result. As a visible light image based on the result, an image with a higher resolution feeling can be presented to the user.
  • light belonging to the visible light wavelength band is separated into red light, green light, and blue light, and each light after separation.
  • An example of the configuration of the imaging device that images each of the four imaging elements has been described.
  • Example 3 an example of a more detailed configuration of the imaging device 105d described with reference to FIGS. 12 and 13 will be described.
  • the imaging device 105d according to the modification is configured as an imaging device based on the C-mount standard. That is, in Example 3, in order to satisfy the flange back length condition (17.526 mm) defined by the C-mount standard, an image pickup element positioned at the rear stage of the branch optical system 500 at least from the incident surface of the branch optical system 500
  • An example of the configuration of the imaging device 105b in which the optical distance between the two is 17.526 mm or less will be described.
  • An example of a glass material that satisfies the same condition is TAFD5F manufactured by HOYA Corporation.
  • cover glasses 525 to 528 for example, those having a thickness of 1.2 mm using BK7 as a glass material are used.
  • the IR cut filter 524 has a thickness of 1.09 mm in the optical axis direction.
  • the size of the image formed on each imaging element (that is, the image height), the size and shape of the opening provided in the opening mask 250, and the size of each imaging element.
  • the F number at the center of the light receiving surface is the same as that of the imaging device 105b according to the first embodiment described with reference to FIGS.
  • the angles of the portions denoted by reference numerals ⁇ 11, ⁇ 13, and ⁇ 15 in FIGS. 12 and 13 are the same as the angles of the portions denoted by the same reference numerals in FIGS.
  • the glass thickness d3 of the branching optical system 500 is 18.060 mm.
  • the imaging device 105d according to the third embodiment realizes a relatively bright F number. Therefore, according to the imaging apparatus 105d according to the third embodiment, various optical systems from a relatively bright F-number optical system like a surgical microscope to a relatively dark F-number optical system like an endoscope. It is possible to use the system widely.
  • each prism of the branching optical system 500 is not necessarily limited to the example described above.
  • glass materials applicable as the branching optical system 500 include TAFD5F, TAFD30, TAFD33, TAFD37, TAFD35, TAFD45 and the like manufactured by HOYA Corporation.
  • the upper limit of each of the refractive index Nd and the Abbe number ⁇ d of each prism of the branching optical system 500 is substantially determined according to the glass material applicable to each prism.
  • Example 3 an example of a more detailed configuration of the imaging device 105d illustrated in FIGS. 12 and 13 has been described.
  • FIG. 15 is a functional block diagram illustrating a configuration example of the hardware configuration of the information processing apparatus that configures the endoscope imaging system according to an embodiment of the present disclosure.
  • the information processing apparatus 900 constituting the endoscope imaging system mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the information processing apparatus 900 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. And a communication device 925.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls all or a part of the operation in the information processing apparatus 900 according to various programs recorded in the ROM 903, the RAM 905, the storage apparatus 919, or the removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925 are connected to the external bus 911 via an interface 913.
  • the input device 915 is an operation means operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, a lever, and a pedal. Further, the input device 915 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or an external connection device such as a mobile phone or a PDA corresponding to the operation of the information processing device 900. 929 may be used. Furthermore, the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. A user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 915.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as lamps, audio output devices such as speakers and headphones, printer devices, and the like.
  • the output device 917 outputs results obtained by various processes performed by the information processing apparatus 900. Specifically, the display device displays results obtained by various processes performed by the information processing device 900 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901 and various data.
  • the drive 921 is a reader / writer for a recording medium, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 921 can also write a record to a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory that is mounted.
  • the removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 927 may be a compact flash (registered trademark) (CF: CompactFlash), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • CF CompactFlash
  • SD memory card Secure Digital memory card
  • the connection port 923 is a port for directly connecting to the information processing apparatus 900.
  • Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • As another example of the connection port 923 there are an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to a communication network (network) 931.
  • the communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like.
  • the communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.
  • various configurations corresponding to the information processing apparatus 900 configuring the endoscope imaging system are naturally provided.
  • a computer program for realizing each function of the information processing apparatus 900 constituting the endoscope imaging system according to the present embodiment as described above can be produced and mounted on a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the number of computers that execute the computer program is not particularly limited.
  • the computer program may be executed by a plurality of computers (for example, a plurality of servers) in cooperation with each other.
  • FIG. 16 is an explanatory diagram for describing an application example of an imaging system according to an embodiment of the present disclosure, and illustrates an example of a schematic configuration of a microscope imaging system. Specifically, FIG. 16 illustrates an example in which a surgical video microscope apparatus including an arm is used as an application example when the microscope imaging system according to an embodiment of the present disclosure is used. Yes.
  • FIG. 16 schematically shows a state of treatment using a surgical video microscope apparatus.
  • a doctor who is a practitioner (user) 820 uses a surgical instrument 821 such as a scalpel, a scissors, or a forceps to perform a treatment target (patient) on the treatment table 830.
  • a state in which an operation is performed on the 840 is illustrated.
  • the treatment is a general term for various medical treatments performed on a patient who is a treatment target 840 by a doctor who is a user 820, such as surgery and examination.
  • the state of the operation is illustrated as an example of the operation, but the operation using the surgical video microscope apparatus 810 is not limited to the operation, and may be various other operations. .
  • a surgical video microscope apparatus 810 is provided on the side of the treatment table 830.
  • the surgical video microscope apparatus 810 includes a base portion 811 that is a base, an arm portion 812 that extends from the base portion 811, and an imaging unit 815 that is connected to the tip of the arm portion 812 as a tip unit.
  • the arm portion 812 includes a plurality of joint portions 813a, 813b, and 813c, a plurality of links 814a and 814b connected by the joint portions 813a and 813b, and an imaging unit 815 provided at the tip of the arm portion 812.
  • the arm portion 812 has three joint portions 813a to 813c and two links 814a and 814b.
  • the positions of the arm portion 812 and the imaging unit 815 and In consideration of the degree of freedom of the posture, the number and shape of the joint portions 813a to 813c and the links 814a and 814b, the direction of the drive shaft of the joint portions 813a to 813c, etc. may be appropriately set so as to realize the desired degree of freedom. Good.
  • the joint portions 813a to 813c have a function of connecting the links 814a and 814b so as to be rotatable with each other, and the rotation of the joint portions 813a to 813c is driven to control the drive of the arm portion 812.
  • the position of each constituent member of the surgical video microscope apparatus 810 means a position (coordinates) in a space defined for drive control, and the posture of each constituent member. Means the direction (angle) with respect to an arbitrary axis in the space defined for drive control.
  • driving (or drive control) of the arm portion 812 refers to driving (or drive control) of the joint portions 813a to 813c and drive (or drive control) of the joint portions 813a to 813c. This means that the position and posture of each component of the arm portion 812 are changed (change is controlled).
  • An imaging unit 815 is connected to the tip of the arm unit 812 as a tip unit.
  • the imaging unit 815 is a unit that acquires an image of an imaging target, and is, for example, a camera that can capture a moving image or a still image.
  • the posture of the arm unit 812 and the imaging unit 815 is operated by the surgical video microscope apparatus 810 so that the imaging unit 815 provided at the distal end of the arm unit 812 images the state of the surgical site of the surgical target 840. And the position is controlled.
  • the configuration of the imaging unit 815 connected as the tip unit to the tip of the arm unit 812 is not particularly limited.
  • the imaging unit 815 is configured as a microscope that acquires an enlarged image of the imaging target.
  • the imaging unit 815 may be configured to be detachable from the arm portion 812. With such a configuration, for example, the imaging unit 815 corresponding to the usage application may be appropriately connected to the tip of the arm unit 812 as a tip unit.
  • the imaging unit 815 for example, an imaging apparatus to which the branching optical system according to the above-described embodiment is applied can be applied. In this description, the case where the imaging unit 815 is applied as the tip unit has been described. However, the tip unit connected to the tip of the arm unit 812 is not necessarily limited to the imaging unit 815.
  • a display device 850 such as a monitor or a display is installed at a position facing the user 820.
  • the image of the treatment site imaged by the imaging unit 815 is displayed on the display screen of the display device 850 as an electronic image.
  • the user 820 performs various treatments while viewing the electronic image of the treatment site displayed on the display screen of the display device 850.
  • the branching optical system applied to the imaging apparatus includes the first branching optical system and the second branching optical system.
  • the first branching optical system is a first plane direction including a plane of light including an optical axis corresponding to a normal direction of an incident surface on which incident light enters the first light belonging to a predetermined wavelength band from the incident light. Separate in the direction of.
  • the second branch optical system is provided at a stage subsequent to the first branch optical system, and is a part of the second light from the second light obtained by separating the first light from the incident light.
  • the third light is separated in a second direction that intersects the plane.
  • the imaging apparatus includes a plurality of imaging elements (and thus each substrate that supports each of the plurality of imaging elements) on which each light separated by the branching optical system forms an image, It becomes possible to arrange efficiently in the limited space. Therefore, for example, according to the imaging apparatus according to the present embodiment, it is possible to avoid physical interference between a plurality of imaging elements (and consequently, physical interference between substrates indicating each imaging element).
  • the first branching optical system constituting the branching optical system and The second branching optical system preferably satisfies the condition of refractive index Nd ⁇ 1.80.
  • the first branching optical system and the second branching optical system satisfy the conditions of refractive index Nd ⁇ 1.90 and Abbe number ⁇ d ⁇ 30.
  • the second branching optical system intersects the fifth light, which is a part of the fourth light, with the plane from the fourth light obtained by separating the third light from the second light.
  • Branching optical system (1) to (4), wherein an air gap is provided between an exit surface of the first branch optical system from which the second light exits and an entrance surface of the second branch optical system.
  • the branching optical system according to any one of the above.
  • the third light is separated from the second light, then reflected by the incident surface of the second branch optical system, and emitted to the outside of the second branch optical system.
  • Branching optical system (7) (1) to (1) including a first filter disposed so as to be interposed between the first branching optical system and the second branching optical system and blocking light belonging to the predetermined wavelength band.
  • the branching optical system according to any one of (6).
  • a second filter disposed before the first branching optical system and blocking light belonging to the first wavelength band;
  • the first light is light belonging to a second wavelength band different from the first wavelength band among the light transmitted through the second filter.
  • the branching optical system according to any one of (1) to (6).
  • the second branching optical system includes a dichroic film that separates light belonging to another wavelength band different from the predetermined wavelength band from at least a part of the second light.
  • the branching optical system according to any one of 9).
  • a second branching optical system that separates in a second direction that intersects with A first imaging device provided at a subsequent stage of the first branching optical system, on which the first light is imaged;
  • a second imaging element provided at a subsequent stage of the second branching optical system and on which at least a part of the third light forms an image;
  • a third imaging element provided at a subsequent stage of the second branching optical system and forming an image of at least a part of the fourth light obtained by separating the third light from the second light;
  • An imaging apparatus comprising: (15) Some of the plurality of imaging elements on which each of the plurality of lights separated by the second branching optical system forms an image, the other imaging of the plurality of imaging elements based on the optical axis
  • An optical distance between the incident surface of the first branch optical system and at least one of the first to third imaging elements is a flange back length determined by a predetermined mount standard.
  • the predetermined mount standard is a C mount, The optical distance is 17.526 mm or less.
  • An optical system unit An imaging device that captures an image acquired by the optical system unit; With The imaging device A first light that separates first light belonging to a predetermined wavelength band from incident light in a first direction that is a plane direction of a plane including an optical axis corresponding to a normal direction of an incident surface on which the incident light is incident.
  • a branching optical system Third light, which is a part of the second light, is provided on the plane from the second light, which is provided at the subsequent stage of the first branching optical system and from which the first light is separated from the incident light.
  • a second branching optical system that separates in a second direction that intersects with A first imaging device provided at a subsequent stage of the first branching optical system, on which the first light is imaged;
  • a second imaging element provided at a subsequent stage of the second branching optical system and on which at least a part of the third light forms an image;
  • a third imaging element provided at a subsequent stage of the second branching optical system and forming an image of at least a part of the fourth light obtained by separating the third light from the second light; Having Imaging system.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Analytical Chemistry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Optical Elements Other Than Lenses (AREA)

Abstract

【課題】対象物の画像を複数の撮像素子を用いて撮像する構成において、当該複数の撮像素子を限られた空間内に効率よく配設可能とする。 【解決手段】入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、を備える、分岐光学系。

Description

分岐光学系、撮像装置、及び撮像システム
 本開示は、分岐光学系、撮像装置、及び撮像システムに関する。
 近年、所謂デジタルカメラのような撮像装置の高性能化や小型化に伴い、当該撮像装置の利用用途も多様化してきている。例えば、医療の分野においては、内視鏡や手術用顕微鏡等のような光学系ユニットにより取得された患部の像を撮像装置に撮像させることで、当該患部の電子画像をモニタなどの表示装置を介してユーザ(例えば、医師)に提示する、所謂医療用の観察装置も提案されている。
 特に医療の分野においては、色再現性や解像度をより向上させた画像を撮像することが可能な撮像装置や撮像システムが求められており、このような要求に対応した撮像装置や撮像システムも各種提案されている。例えば、特許文献1には、所謂色分解光学系により対象物からの光を複数の分光成分に分離し、分離された複数の分光成分それぞれを互いに異なる撮像素子に結像させる構成とすることで、撮像画像の画質をより向上させることが可能な内視鏡システムの一例が開示されている。
特開2016-178995号公報
 一方で、色分解光学系を利用した撮像装置においては、当該色分解光学系により分離された各分光成分を撮像する複数の撮像素子を、限られた空間内に互いに干渉することなく配設する必要がある。そのため、配設される撮像素子の数が増えるほど、色分解光学系や当該撮像素子を配設するための空間がより制限されることとなる。また、医療の分野においては、医療行為の妨げにならないように、各種医療機器の小型化が求められており、撮像装置もその例外ではない。即ち、撮像装置の小型化に伴い、色分解光学系や当該撮像素子を配設するための空間はさらに制限されることとなる。
 そこで、本開示では、対象物の画像を複数の撮像素子を用いて撮像する構成において、当該複数の撮像素子を限られた空間内に効率よく配設することが可能な、分岐光学系、撮像装置、及び撮像システムを提案する。
 本開示によれば、入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、を備える、分岐光学系が提供される。
 また、本開示によれば、入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、を備える、撮像装置が提供される。
 また、本開示によれば、光学系ユニットと、前記光学系ユニットにより取得された像を撮像する撮像装置と、を備え、前記撮像装置は、射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、を有する、撮像システムが提供される。
 以上説明したように本開示によれば、対象物の画像を複数の撮像素子を用いて撮像する構成において、当該複数の撮像素子を限られた空間内に効率よく配設することが可能な、分岐光学系、撮像装置、及び撮像システムが提供される。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る内視撮像システムの概略的な構成の一例を示す図である。 図1に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。 比較例に係る撮像装置の構成の一例について説明するための説明図である。 本開示の一実施形態に係る撮像装置の構成の一例について説明するための説明図である。 本開示の一実施形態に係る撮像装置の構成の一例について説明するための説明図である。 同実施形態に係る撮像装置に適用されるダイクロイック膜の分光特性の一例について示した図である。 同実施形態に係る撮像装置に適用されるバンドパスフィルタの分光特性の一例について示した図である。 同実施形態に係る撮像装置に適用されるIRカットフィルタの分光特性の一例について示した図である。 同実施形態に係る分岐光学系により可視光波長帯域に属する光から分離された各光の波長特性の一例を示した図である。 実施例2に係る撮像装置の構成の一例について説明するための説明図である。 実施例2に係る撮像装置の構成の一例について説明するための説明図である。 変形例に係る撮像装置の構成の一例について説明するための説明図である。 変形例に係る撮像装置の構成の一例について説明するための説明図である。 変形例に係る撮像装置の一態様について説明するための説明図である。 本開示の一実施形態に係る内視鏡撮像システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。 本開示の一実施形態に係る撮像システムの応用例について説明するための説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.撮像システムの構成例
 2.分岐光学系を利用した撮像装置に関する検討
 3.技術的特徴
  3.1.撮像装置の構成例
  3.2.撮像装置の実施例
  3.3.撮像装置の変形例
 4.ハードウェア構成の一例
 5.応用例
 6.むすび
 <<1.撮像システムの構成例>>
 まず、図1及び図2を参照して、本開示の一実施形態に係る撮像システムの概略的な構成の一例として、当該撮像システムを内視鏡撮像システムとして構成した場合の一例について説明する。
 例えば、図1は、本開示に係る技術が適用され得る内視鏡撮像システムの概略的な構成の一例を示す図であり、当該内視鏡撮像システムを所謂内視鏡手術システムとして構成した場合の一例を示している。図1では、術者(医師)167が、内視鏡手術システム100を用いて、患者ベッド169上の患者171に手術を行っている様子が図示されている。図示するように、内視鏡手術システム100は、内視鏡101と、その他の術具117と、内視鏡101を支持する支持アーム装置127と、内視鏡下手術のための各種の装置が搭載されたカート137と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ125a~125dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ125a~125dから、内視鏡101の鏡筒103や、その他の術具117が患者171の体腔内に挿入される。図示する例では、その他の術具117として、気腹チューブ119、エネルギー処置具121及び鉗子123が、患者171の体腔内に挿入されている。また、エネルギー処置具121は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具117はあくまで一例であり、術具117としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡101によって撮影された患者171の体腔内の術部の画像が、表示装置141に表示される。術者167は、表示装置141に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具121や鉗子123を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ119、エネルギー処置具121及び鉗子123は、手術中に、術者167又は助手等によって支持される。
 (支持アーム装置)
 支持アーム装置127は、ベース部129から延伸するアーム部131を備える。図示する例では、アーム部131は、関節部133a、133b、133c、及びリンク135a、135bから構成されており、アーム制御装置145からの制御により駆動される。アーム部131によって内視鏡101が支持され、その位置及び姿勢が制御される。これにより、内視鏡101の安定的な位置の固定が実現され得る。
 (内視鏡)
 内視鏡101は、先端から所定の長さの領域が患者171の体腔内に挿入される鏡筒103と、鏡筒103の基端に接続されるカメラヘッド105と、から構成される。図示する例では、硬性の鏡筒103を有するいわゆる硬性鏡として構成される内視鏡101を図示しているが、内視鏡101は、軟性の鏡筒103を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒103の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡101には光源装置143が接続されており、当該光源装置143によって生成された光が、鏡筒103の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者171の体腔内の観察対象(換言すると、撮像対象物)に向かって照射される。なお、内視鏡101は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド105の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)139に送信される。なお、カメラヘッド105には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド105には撮像素子が複数設けられてもよい。この場合、鏡筒103の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。
 (カートに搭載される各種の装置)
 CCU139は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡101及び表示装置141の動作を統括的に制御する。具体的には、CCU139は、カメラヘッド105から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU139は、当該画像処理を施した画像信号を表示装置141に提供する。また、CCU139は、カメラヘッド105に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置141は、CCU139からの制御により、当該CCU139によって画像処理が施された画像信号に基づく画像を表示する。内視鏡101が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置141としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置141として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置141が設けられてもよい。
 光源装置143は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡101に供給する。
 アーム制御装置145は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置127のアーム部131の駆動を制御する。
 入力装置147は、内視鏡手術システム100に対する入力インタフェースである。ユーザは、入力装置147を介して、内視鏡手術システム100に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置147を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置147を介して、アーム部131を駆動させる旨の指示や、内視鏡101による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具121を駆動させる旨の指示等を入力する。
 入力装置147の種類は限定されず、入力装置147は各種の公知の入力装置であってよい。入力装置147としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ157及び/又はレバー等が適用され得る。入力装置147としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置141の表示面上に設けられてもよい。
 あるいは、入力装置147は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置147は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置147は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置147が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者167)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置149は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具121の駆動を制御する。気腹装置151は、内視鏡101による視野の確保及び術者の作業空間の確保の目的で、患者171の体腔を膨らめるために、気腹チューブ119を介して当該体腔内にガスを送り込む。レコーダ153は、手術に関する各種の情報を記録可能な装置である。プリンタ155は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 以下、内視鏡手術システム100において特に特徴的な構成について、更に詳細に説明する。
 (支持アーム装置)
 支持アーム装置127は、基台であるベース部129と、ベース部129から延伸するアーム部131と、を備える。図示する例では、アーム部131は、複数の関節部133a、133b、133cと、関節部133bによって連結される複数のリンク135a、135bと、から構成されているが、図1では、簡単のため、アーム部131の構成を簡略化して図示している。実際には、アーム部131が所望の自由度を有するように、関節部133a~133c及びリンク135a、135bの形状、数及び配置、並びに関節部133a~133cの回転軸の方向等が適宜設定され得る。例えば、アーム部131は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部131の可動範囲内において内視鏡101を自由に移動させることが可能になるため、所望の方向から内視鏡101の鏡筒103を患者171の体腔内に挿入することが可能になる。
 関節部133a~133cにはアクチュエータが設けられており、関節部133a~133cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置145によって制御されることにより、各関節部133a~133cの回転角度が制御され、アーム部131の駆動が制御される。これにより、内視鏡101の位置及び姿勢の制御が実現され得る。この際、アーム制御装置145は、力制御又は位置制御等、各種の公知の制御方式によってアーム部131の駆動を制御することができる。
 例えば、術者167が、入力装置147(フットスイッチ157を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置145によってアーム部131の駆動が適宜制御され、内視鏡101の位置及び姿勢が制御されてよい。当該制御により、アーム部131の先端の内視鏡101を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部131は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部131は、手術室から離れた場所に設置される入力装置147を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置145は、ユーザからの外力を受け、その外力にならってスムーズにアーム部131が移動するように、各関節部133a~133cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部131に触れながらアーム部131を移動させる際に、比較的軽い力で当該アーム部131を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡101を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡101が支持されていた。これに対して、支持アーム装置127を用いることにより、人手によらずに内視鏡101の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置145は必ずしもカート137に設けられなくてもよい。また、アーム制御装置145は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置145は、支持アーム装置127のアーム部131の各関節部133a~133cにそれぞれ設けられてもよく、複数のアーム制御装置145が互いに協働することにより、アーム部131の駆動制御が実現されてもよい。
 (光源装置)
 光源装置143は、内視鏡101に術部を撮影する際の照射光を供給する。光源装置143は、例えばLED、レーザー光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザー光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置143において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザー光源それぞれからのレーザー光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド105の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置143は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド105の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置143は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置143は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 (カメラヘッド及びCCU)
 図2を参照して、内視鏡101のカメラヘッド105及びCCU139の機能についてより詳細に説明する。図2は、図1に示すカメラヘッド105及びCCU139の機能構成の一例を示すブロック図である。
 図2を参照すると、カメラヘッド105は、その機能として、レンズユニット107と、撮像部109と、駆動部111と、通信部113と、カメラヘッド制御部115と、を有する。また、CCU139は、その機能として、通信部159と、画像処理部161と、制御部163と、を有する。カメラヘッド105とCCU139とは、伝送ケーブル165によって双方向に通信可能に接続されている。
 まず、カメラヘッド105の機能構成について説明する。レンズユニット107は、鏡筒103との接続部に設けられる光学系である。鏡筒103の先端から取り込まれた観察光は、カメラヘッド105まで導光され、当該レンズユニット107に入射する。レンズユニット107は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット107は、撮像部109の撮像素子の受光面上に観察光を集光するように、その光学特性が調整されている。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部109は撮像素子によって構成され、レンズユニット107の後段に配置される。レンズユニット107を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部109によって生成された画像信号は、通信部113に提供される。
 撮像部109を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者167は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 また、撮像部109を構成する撮像素子は、3D表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成される。3D表示が行われることにより、術者167は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部109が多板式で構成される場合には、各撮像素子に対応して、レンズユニット107も複数系統設けられる。
 また、撮像部109は、必ずしもカメラヘッド105に設けられなくてもよい。例えば、撮像部109は、鏡筒103の内部に、対物レンズの直後に設けられてもよい。
 駆動部111は、アクチュエータによって構成され、カメラヘッド制御部115からの制御により、レンズユニット107のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部109による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部113は、CCU139との間で各種の情報を送受信するための通信装置によって構成される。通信部113は、撮像部109から得た画像信号をRAWデータとして伝送ケーブル165を介してCCU139に送信する。この際、術部の撮像画像を低レイテンシで表示するために、当該画像信号は光通信によって送信されることが好ましい。手術の際には、術者167が撮像画像によって患部の状態を観察しながら手術を行うため、より安全で確実な手術のためには、術部の動画像が可能な限りリアルタイムに表示されることが求められるからである。光通信が行われる場合には、通信部113には、電気信号を光信号に変換する光電変換モジュールが設けられる。画像信号は当該光電変換モジュールによって光信号に変換された後、伝送ケーブル165を介してCCU139に送信される。
 また、通信部113は、CCU139から、カメラヘッド105の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部113は、受信した制御信号をカメラヘッド制御部115に提供する。なお、CCU139からの制御信号も、光通信によって伝送されてもよい。この場合、通信部113には、光信号を電気信号に変換する光電変換モジュールが設けられ、制御信号は当該光電変換モジュールによって電気信号に変換された後、カメラヘッド制御部115に提供される。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU139の制御部163によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡101に搭載される。
 カメラヘッド制御部115は、通信部113を介して受信したCCU139からの制御信号に基づいて、カメラヘッド105の駆動を制御する。例えば、カメラヘッド制御部115は、撮像画像のフレームレートを指定する旨の情報及び/又は撮像時の露光を指定する旨の情報に基づいて、撮像部109の撮像素子の駆動を制御する。また、例えば、カメラヘッド制御部115は、撮像画像の倍率及び焦点を指定する旨の情報に基づいて、駆動部111を介してレンズユニット107のズームレンズ及びフォーカスレンズを適宜移動させる。カメラヘッド制御部115は、更に、鏡筒103やカメラヘッド105を識別するための情報を記憶する機能を備えてもよい。
 なお、レンズユニット107や撮像部109等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド105について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 次に、CCU139の機能構成について説明する。通信部159は、カメラヘッド105との間で各種の情報を送受信するための通信装置によって構成される。通信部159は、カメラヘッド105から、伝送ケーブル165を介して送信される画像信号を受信する。この際、上記のように、当該画像信号は好適に光通信によって送信され得る。この場合、光通信に対応して、通信部159には、光信号を電気信号に変換する光電変換モジュールが設けられる。通信部159は、電気信号に変換した画像信号を画像処理部161に提供する。
 また、通信部159は、カメラヘッド105に対して、カメラヘッド105の駆動を制御するための制御信号を送信する。当該制御信号も光通信によって送信されてよい。
 画像処理部161は、カメラヘッド105から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部161は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部161は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部161が複数のGPUによって構成される場合には、画像処理部161は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部163は、内視鏡101による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部163は、カメラヘッド105の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部163は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡101にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部163は、画像処理部161による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部163は、画像処理部161によって画像処理が施された画像信号に基づいて、術部の画像を表示装置141に表示させる。この際、制御部163は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部163は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具121使用時のミスト等を認識することができる。制御部163は、表示装置141に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者167に提示されることにより、より安全かつ確実に手術を進めることが可能になる。
 カメラヘッド105及びCCU139を接続する伝送ケーブル165は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル165を用いて有線で通信が行われていたが、カメラヘッド105とCCU139との間の通信は無線で行われてもよい。両者の間の通信が無線で行われる場合には、伝送ケーブル165を手術室内に敷設する必要がなくなるため、手術室内における医療スタッフの移動が当該伝送ケーブル165によって妨げられる事態が解消され得る。
 以上、本開示に係る技術が適用され得る内視鏡手術システム100の一例について説明した。なお、ここでは、一例として内視鏡手術システム100について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、検査用軟性内視鏡システムや顕微鏡手術システムに適用されてもよい。
 <<2.分岐光学系を利用した撮像装置に関する検討>>
 続いて、図1及び図2を参照して説明した内視鏡手術システム100のような撮像システムに適用される撮像装置の一例として、分岐光学系を利用した撮像装置の構成の一例について説明したうえで、本実施形態に係る撮像装置の課題について整理する。
 図1及び図2を参照して説明した内視鏡手術システム100のような医療用の撮像システムが適用される分野においては、被写体となる対象物の画像として、色再現性や解像度のより高い画像を撮像することが可能な仕組みが求められている。このように、色再現性や解像度のより高い画像を撮像することが可能な撮像装置の一例として、色分解光学系(例えば、色分解プリズム)を利用することで、光の利用効率をより向上させた撮像装置が挙げられる。具体的には、当該撮像装置では、色分解光学系により対象物からの光を複数の分光成分に分離し、分離された分光成分それぞれを互いに異なる撮像素子に結像させることで、各撮像素子により撮像された画像に基づき、対象物の撮像画像を生成する。このような構成により、例えば、カラーフィルタ等を適用する必要がなくなるため、光の利用効率がより向上し、色再現性や解像度の高い画像を得ることが可能となる。
 上記のような色分解光学系を利用した撮像装置としては、例えば、対象物からの光をR成分、G成分、及びB成分に分離する3色分解光学系を利用した撮像装置が挙げられる。また、近年では、4色分解光学系を利用した撮像装置も提案されている。そこで、比較例として、図3を参照して、4色分解光学系を利用した撮像装置の概略的な構成の一例について、特に、撮像装置内に入射した光が撮像素子に結像するまでの構成に着目して説明する。図3は、比較例に係る撮像装置の構成の一例について説明するための説明図であり、前述した内視鏡手術システム100のカメラヘッド105として適用可能な撮像装置の一例を示している。なお、以降の説明では、図3に示す撮像装置を、カメラヘッド105として適用可能な他の撮像装置と明示的に区別するために、「撮像装置105a」と称する場合がある。
 なお、図3において、z方向は、撮像装置105aに入射する光(即ち、入射光)の光軸方向に相当し、x方向及びy方向は、当該z方向に直交する方向である。また、x方向とy方向とは互いに直交するものとする。即ち、図3において、図面の横方向がz方向に対応している。また、図3において、図面の奥行き方向がx方向に対応しており、図面の縦方向がy方向に対応している。なお、図3においては、x方向は、撮像装置105aの水平方向に相当し、y方向は、当該撮像装置105aの垂直方向に相当する。
 図3に示すように、撮像装置105aは、分岐光学系300と、第1の撮像素子211~第4の撮像素子214と、基板201~204とを含む。第1の撮像素子211~第4の撮像素子214は、基板201~204によりそれぞれ保持される。
 分岐光学系300は、撮像装置105aに入射した光(即ち、入射光)を、波長帯域が互いい異なる複数の分光成分に分離する光学部材である。例えば、図3に示す例では、分岐光学系300は、入射光を、R成分、G成分、及びB成分の3原色の光と、近赤外(IR)成分の光とに分離する。具体低には、図3に示すように、分岐光学系300は、第1のプリズム311~第4のプリズム314が、入射光の光軸方向(z方向)に順次組み付けられて構成される。
 第1のプリズム311は、当該第1のプリズム311に入射した光のうち、近赤外波長帯域に属する光を、第1の撮像素子211に導光する光路として機能するプリズムである。撮像装置105aに入射した入射光は、第1のプリズム311の入射面322から当該第1のプリズム311内に入射する。また、第1のプリズム311内に入射した入射光は、当該第1のプリズム311内を直進し、光軸上に斜めに設けられた面321において、可視光波長帯域に属する光と、近赤外波長帯域に属する光と、に分離される。なお、面321には、入射光を、可視光波長帯域に属する光と、近赤外波長帯域に属する光と、に分離する光学膜(例えば、ダイクロイック膜)が設けられていてもよい。
 近赤外波長帯域に属する光は、面321で反射されて第1のプリズム311を導光される。ここで、反射分離された近赤外波長帯域に属する光(即ち、近赤外光)は、入射面322で一度だけ全反射して、第1のプリズム311の外部へと透過する。例えば、図3に示す例では、近赤外波長帯域に属する光は、面321において、yz平面の面方向に反射されている。そして、第1のプリズム311を透過した近赤外光は、第1の撮像素子211へと導光される。なお、第1の撮像素子211は、第1のプリズム311を透過して当該第1の撮像素子211に導光される光(即ち、近赤外光)の光軸に対して、受光面が垂直になるように配設されている。また、第1の撮像素子211としては、例えば、カラーフィルタが設けられておらず、近赤外波長に高い感度を有する者が適用されるとなお良い。
 また、第1のプリズム311の面321を透過した可視光波長帯域に属する光は、第2のプリズム312の入射面323から当該第2のプリズム312に入射する。第2のプリズム312は、当該第2のプリズム312に入射した光のうち、B成分を含む波長帯域に属する光を、第2の撮像素子212に導光する光路として機能するプリズムである。第2のプリズム312内に入射した光(即ち、可視光波長帯域に属する光)は、当該第2のプリズム312の内部を直進し、光軸上に斜め設けられた面324において、B成分を含む短波長側の波長帯域に属する光と、R成分及びG成分を含む長波長側の波長帯域に属する光と、に分離される。なお、面324には、入射光を、B成分を含む短波長側の波長帯域に属する光と、R成分及びG成分を含む長波長側の波長帯域に属する光と、に分離する光学膜(例えば、ダイクロイック膜)が設けられていてもよい。
 B成分を含む波長帯域に属する光は、面324で反射されて第2のプリズム312内を導光される。ここで、図3に示すように、第1のプリズム311の面321と、第2のプリズム312の入射面323との間には、参照符号327として示すようにエアギャップが設けられている。そのため、面324で反射分離されたB成分を含む波長帯域に属する光は、入射面323で一度だけ全反射して、第2のプリズム312の外部へと透過する。例えば、図3に示す例では、B成分を含む波長帯域に属する光は、面324において、yz平面の面方向に反射されている。そして、第2のプリズム312を透過したB成分を含む波長帯域に属する光は、第2の撮像素子212へと導光される。なお、第2の撮像素子212は、第2のプリズム312を透過して当該第2の撮像素子212に導光される光(即ち、B成分を含む波長帯域に属する光)の光軸に対して、受光面が垂直になるように配設されている。
 また、第2のプリズム312の面323を透過したR成分及びG成分を含む波長帯域に属する光は、第3のプリズム313の入射面325から当該第3のプリズム313に入射する。第3のプリズム313は、当該第3のプリズム313に入射した光のうち、R成分を含む波長帯域に属する光を、第3の撮像素子213に導光する光路として機能するプリズムである。第3のプリズム313内に入射した光(即ち、R成分及びG成分を含む波長帯域に属する光)は、当該第3のプリズム313の内部を直進し、光軸上に斜め設けられた第4のプリズム314との界面326において、R成分を含む波長帯域に属する光と、G成分を含む波長帯域に属する光と、に分離される。なお、界面326には、入射光を、R成分を含む波長帯域に属する光と、G成分を含む波長帯域に属する光と、に分離する光学膜(例えば、ダイクロイック膜)が設けられていてもよい。
 R成分を含む波長帯域に属する光は、界面326で反射されて第3のプリズム313内を導光される。ここで、図3に示すように、第2のプリズム312の面324と、第3のプリズム313の入射面325との間には、参照符号328として示すようにエアギャップが設けられている。そのため、界面326で反射分離されたR成分を含む波長帯域に属する光は、入射面325で一度だけ全反射して、第3のプリズム313の外部へと透過する。例えば、図3に示す例では、R成分を含む波長帯域に属する光は、界面326において、yz平面の面方向に反射されている。そして、第3のプリズム313を透過したR成分を含む波長帯域に属する光は、第3の撮像素子213へと導光される。なお、第3の撮像素子213は、第3のプリズム313を透過して当該第3の撮像素子213に導光される光(即ち、R成分を含む波長帯域に属する光)の光軸に対して、受光面が垂直になるように配設されている。
 また、第3のプリズム313と第4のプリズム314との界面326を透過したG成分を含む波長帯域に属する光は、当該界面326から当該第4のプリズム314に入射する。第4のプリズム314は、当該第4のプリズム314に入射した光(即ち、R成分を含む波長帯域に属する光)を、第4の撮像素子214に導光する光路として機能するプリズムである。即ち、第4のプリズム314内に入射した光は、当該第4のプリズム314の内部を直進し、第4の撮像素子214へと導光される。なお、第4の撮像素子214は、第4のプリズム314を透過して当該第4の撮像素子214に導光される光(即ち、G成分を含む波長帯域に属する光)の光軸に対して、受光面が垂直になるように配設されている。
 以上のように、比較例に係る撮像装置105aは、入射光を、R成分、G成分、及びB成分の3原色の光と、IR成分の光とに分離し、各成分の光を互いに異なる撮像素子(即ち、第1の撮像素子211~第4の撮像素子214)に結像させることで、各成分の光に基づく画像を個別に撮像する。このような構成により、撮像装置105aは、各撮像素子にカラーフィルタを設ける必要がなく光の利用効率が向上させることが可能なため、色分解光学系を利用しない撮像装置(即ち、1つの撮像素子により画像を撮像する撮像装置)に比べて、色再現性や解像度をより向上させた画像を撮像することが可能である。
 また、比較例に係る撮像装置105aは、R成分、G成分、及びB成分の3原色の光と、IR成分の光とが互いに異なる撮像素子に結像するため、近赤外画像と可視光画像とを同じタイミングで個別に撮像することが可能である。このような構成は、医療の分野において、狭帯域光観察(NBI:Narrow Band Imaging)、蛍光観察(AFI:Auto Fluorescence Imaging)、及び赤外光観察(IRI:Infra-Red Imaging)等のような所謂特殊光観察と呼ばれる観察手法への応用が期待されている。
 具体的な一例として、蛍光観察では、癌等の病巣に親和性を有する蛍光物質を予め検査対象者(患者)に投与し、当該蛍光物質を励起するための励起光を照射することにより、病巣部に集積した蛍光物質から発せられる蛍光の蛍光像(即ち、蛍光の検出結果に基づく観察像)により、当該病巣部を観察する。蛍光観察に使用される蛍光物質の代表的な一例として、インドシアニングリーン(ICG)が挙げられる。ICGは、励起光として808nm近傍の波長を有する光を使用することで、820nm前後の波長を有する蛍光(即ち、近赤外帯域の光)を発する。
 そのため、例えば、4色分解光学系を利用した撮像装置を蛍光観察に適用することで、IR成分の光が結像する撮像素子により対象物の蛍光画像を撮像し、さらに、他の撮像素子により対象物の可視光画像を高い解像度で撮像することが可能となる。また、対象物の蛍光画像と可視光画像とを同じタイミングで個別に撮像することが可能なため、例えば、可視光画像に対して当該可視光画像と同期して撮像された蛍光画像を重畳させることも可能となる。
 一方で、色分解光学系を利用した撮像装置は、当該色分解光学系により分離された光それぞれを結像させる複数の撮像素子間において物理的な干渉が生じないように、当該色分解光学系と各撮像素子とを配設する必要がある。そのため、色分解光学系を利用した撮像装置は、撮像素子の数が増えるほど(即ち、分離する分光成分の数(例えば、色の数)が増えるほど)、色分解光学系のサイズがより大きくなり、結果としてフランジバック長がより長くなる傾向にある。
 なお、本説明において、「フランジバック長」とは、レンズ交換式の撮像装置において当該レンズのマウント面から撮像素子までの光学的距離を示している。具体的な一例として、図3に示す例の場合には、分岐光学系300の入射面から各撮像素子までの光学的距離が、フランジバック長に相当する。また、「光学的距離」とは、光の進む速さから算出される光学的な距離に相当し、光の経路の物理的距離と当該経路における屈折率とにより算出される。
 このような特性から、例えば、比較例に係る撮像装置105aのように4色分解光学系を利用した撮像装置は、3色分解光学系を利用した撮像装置に比べて、色分解光学系のサイズがより大きくなり、フランジバック長もより長くなる場合がある。そのため、4色分解光学系を利用したレンズ交換式の撮像装置においては、使用可能なレンズが、フランジバック長の比較的長いものに限られる場合があった。
 これに対して、医療の分野において内視鏡や手術用顕微鏡等に適用されるレンズとしては、「Cマウント」と呼ばれる規格のものが主流となっており、当該規格においては、フランジバック長が17.526mmと規定されている。また、医療の分野においては、医療行為の妨げにならないように、各種医療機器の小型化が求められており、撮像装置もその例外ではない。このような条件を満たす撮像装置として、例えば、3色分解光学系を利用したものは提供されている。しかしながら、4色分解光学系を利用した撮像装置については、上述したようなサイズやフランジバック長の制約により、既存の撮像装置(例えば、3色分解光学系を利用した撮像装置)に替えて、内視鏡や手術用顕微鏡に適用することが困難である。
 このような状況を鑑み、本開示では、色分解光学系を利用することで対象物の画像を複数の撮像素子を用いて撮像する構成において、当該複数の撮像素子を限られた空間内に効率よく配設することで、筐体のサイズやフランジバック長の拡大を抑制する仕組みの一例について提案する。
 <<3.技術的特徴>>
 以下に、本実施形態に係る撮像装置の技術的特徴について説明する。
  <3.1.撮像装置の構成例>
 まず、図4及び図5を参照して、本実施形態に係る撮像装置の概略的な構成の一例について、特に、撮像装置内に入射した光が撮像素子に結像するまでの構成に着目して説明する。図4及び図5は、本実施形態に係る撮像装置の構成の一例について説明するための説明図であり、前述した内視鏡手術システム100のカメラヘッド105として適用可能な撮像装置の一例を示している。なお、本説明では、本実施形態に係る撮像装置が、Cマウントの規格に基づく撮像装置として構成されているものとして説明する。また、以降の説明では、図4及び図5に示す撮像装置を、カメラヘッド105として適用可能な他の撮像装置と明示的に区別するために、「撮像装置105b」と称する場合がある。
 図4及び図5に示すように、本実施形態に係る撮像装置105bは、マウント台240と、分岐光学系400と、第1の撮像素子231~第4の撮像素子234と、基板221~224とを含む。第1の撮像素子231~第4の撮像素子234は、基板221~224によりそれぞれ保持される。また、撮像装置105bは、開口マスク250を含んでもよく、カバーガラス425、427~429を含んでもよい。
 なお、図4及び図5において、z方向は、撮像装置105bに入射する光(即ち、入射光)の光軸方向に相当し、換言すると、詳細を後述する分岐光学系400の入射面の法線方向に相当する。また、x方向及びy方向は、双方ともに当該z方向に直交する方向であり、x方向とy方向とは互いに直交するものとする。なお、図4及び図5においては、x方向は、撮像装置105bの水平方向に相当し、y方向は、当該撮像装置105bの垂直方向に相当する。また、図4は、撮像装置105bを、入射光の光軸(z軸)を含む水平面(xz平面)で切断した場合における、当該撮像装置105bの構成を模式的に示しており、当該撮像装置105bに入射した光の光路をあわせて提示している。即ち、図4において、図面の横方向、縦方向、及び奥行き方向は、それぞれz方向、x方向、及びy方向に対応している。また、図5は、撮像装置105bを、入射光の光軸(z軸)を含む垂直面(yz平面)で切断した場合における、当該撮像装置105bの構成を模式的に示しており、当該撮像装置105bに入射した光の光路をあわせて提示している。即ち、図5において、図面の横方向、縦方向、及び奥行き方向は、それぞれz方向、y方向、及びx方向に対応している。
 マウント台240は、撮像装置105bに対して、交換式レンズ、顕微鏡、または内視鏡等のような光学系を取り付けるため構成である。マウント台240には、当該マウント台240に取り付けられた光学系から入射した対象物からの光が通過する開口部が形成されている。即ち、マウント台240に取り付けられた光学系により集光された対象物からの光は、当該マウント台240の開口部から撮像装置105b内に入射する。
 開口マスク250は、所定の形状の開口部が設けられており、当該開口部により、マウント台240に取り付けられた光学系を介して撮像装置105b内に入射する光(即ち、入射光)の光束を制限する。開口マスク250に設けられた開口部は、例えば、各撮像素子(即ち、第1の撮像素子231~第4の撮像素子234)の受光面のサイズに応じた寸法を有する矩形状に形成される。即ち、開口マスク250に設けられた開口部の寸法に応じてFナンバーが決定される。また、開口マスク250は、例えば、入射光の光軸を中心として開口部の径を変化させることで当該開口部の寸法を制御する、所謂「絞り」と呼ばれる機構が設けられていてもよい。開口マスク250は、例えば、図4及び図5に示すように、マウント台240と分岐光学系400との間に介在するように設けられる
 なお、撮像装置105bに取り付けられる撮像レンズ(例えば、交換式レンズ、顕微鏡、内視鏡等)は、像側テレセントリックに光学設計されるため、開口マスク250の寸法と、当該開口マスク250以降に配設された光学系の構成(例えば、硝材、厚さ、空気間隔等)と、により撮像システム全体のFナンバーが決定される。
 続いて、分岐光学系400について説明する。図4及び図5に示すように、分岐光学系400は、第1の分岐光学系401と、第2の分岐光学系402と、IRカットフィルタ426とを含む。また、分岐光学系400は、バンドパスフィルタ424を含んでもよい。
 第1の分岐光学系401は、当該第1の分岐光学系401に入射した光を、近赤外波長帯域に属する光と、可視光波長帯域に属する光とに分離する。具体的には、図4に示すように、第1の分岐光学系401は、第1のプリズム411と第2のプリズム412とが、ダイクロイック膜421を介して互いに接続されたプリズムである。即ち、第1のプリズム411と第2のプリズム412との界面に、ダイクロイック膜421が設けられている。
 ダイクロイック膜421は、第1の分岐光学系401に入射した、可視光波長帯域に属する光と、近赤外波長帯域に属する光と、を含む入射光について、可視光波長帯域に属する光と、近赤外波長帯域に属する光と、を分離する光学膜である。具体的には、ダイクロイック膜421は、近赤外波長帯域に属する光を反射するとともに、可視光波長帯域に属する光を透過する特性を有する。
 例えば、図6は、本実施形態に係る撮像装置に適用されるダイクロイック膜421の分光特性の一例について示した図である。図6において、横軸は波長(nm)を示しており、縦軸は分光透過率(%)を示している。図6に示すように、ダイクロイック膜421は、700nm近傍の波長を境界として、短波長側の光の大部分(例えば、90%以上)を透過させ、長波長側の光の大部分(例えば、90%以上)を反射する特性を有している。
 第1のプリズム411は、可視光波長帯域に属する光及び近赤外波長帯域に属する光(すなわち、入射光)が入射するとともに、近赤外波長帯域に属する光が導光される近赤外光用光路として機能するプリズムである。また、第2のプリズム412は、可視光波長帯域に属する光が導光される可視光用光路として機能するプリズムである。
 入射面433から第1のプリズム411に入射した入射光は、第1のプリズム411内を直進し、光軸上に斜めに設けられたダイクロイック膜421によって、可視光波長帯域に属する光と、近赤外波長帯域に属する光と、に分離される。
 近赤外波長帯域に属する光は、ダイクロイック膜421によって反射されて、第1のプリズム411内を導光される。より具体的には、図4に示す例では、近赤外波長帯域に属する光は、ダイクロイック膜421によって、分岐光学系400への入射光が入射する面433の法線方向に対応する光軸(即ち、z軸)を含む平面(即ち、xz平面)の面方向に反射される。なお、ダイクロイック膜421によって反射される光が「第1の光」の一例に相当し、当該反射方向が「第1の方向」の一例に相当する。
 ここで、反射分離された近赤外波長帯域に属する光(以下、「近赤外光線」とも称する)は、図4に示すように、入射面433で一度だけ全反射して第1のプリズム411の外部へと透過する。これにより、ダイクロイック膜421の成膜面の光軸に対する角度を垂直に近づけることができる。逆に言えば、本実施形態に係るダイクロイック膜421の光軸上への設置角度は、上述した全反射の条件が成立するように設定されている。このようにダイクロイック膜421を配置することで、F値の明るい光線が第1のプリズム411に入射した場合であっても、左光線と右光線との入射角度の違いによるダイクロイック膜421の分光特性の変化を抑制することが可能となり、精度良く波長分離を行うことが可能となる。
 第1のプリズム411を透過した近赤外光線は、第1の撮像素子231へと導光される。この際、ダイクロイック膜421により分離され、第1の撮像素子231に結像する光の光路中には、バンドパスフィルタ424が設けられていてもよい。バンドパスフィルタ424は、近赤外波長帯域中の所定の波長帯域の光を透過し、その他の波長帯域の光を阻止する特性を有する。当該バンドパスフィルタ424は、例えば、近赤外波長帯域中の所定の波長帯域の蛍光を発する蛍光物質を使用した蛍光観察において撮像装置105bが使用される状況を想定し、当該蛍光物質の特性にあわせて配設されてもよい。
 具体的な一例として、ICGが発する蛍光に着目する場合には、バンドパスフィルタ424は、ICGが発する蛍光の波長帯域である820nm前後の波長帯域(例えば、820nm~850nmの波長帯域)の光を透過し、その他の波長帯域の光を阻止する特性を有していればよい。例えば、図7は、本実施形態に係る撮像装置に適用されるバンドパスフィルタ424の分光特性の一例について示した図である。図7において、横軸は波長(nm)を示しており、縦軸は分光透過率(%)を示している。図7に示すように、バンドパスフィルタ424は、820nm~850nm近傍の波長帯域の光の大部分(例えば、90%以上)を透過させ、その他の波長帯域の光の大部分(例えば、90%以上)を反射する特性を有している。
 第1の撮像素子231は、第1のプリズム411を透過して当該第1の撮像素子231に導光される光(即ち、近赤外光線)の光軸に対して、受光面が垂直になるように配設されている。なお、第1のプリズム411と第1の撮像素子231との間には、当該第1の撮像素子231の受光面を保護するカバーガラス425が介在してもよい。カバーガラス425としては、例えば、BK7として一般的に知られている硝材を使用したものが適用される。また、第1の撮像素子231としては、例えば、カラーフィルタが設けられておらず、近赤外波長に高い感度を有するものが適用されるとなお良い。
 一方、ダイクロイック膜421を透過した可視光波長帯域に属する光は、第2のプリズム412に入射して、当該第2のプリズム412の内部を直進する。第2のプリズム312におけるダイクロイック膜421が設けられている側とは逆側の端面(換言すれば、第2のプリズム412の光軸下流側の出射面)は、光軸に対して垂直となるように設けられており、可視光波長帯域に属する光は、第2のプリズム412の出射面に対して垂直となる状態を維持したまま、第2のプリズム412の外部に透過する。なお、ダイクロイック膜421を透過した光が「第2の光」の一例に相当する。
 第2のプリズム412の出射面には、IRカットフィルタ426を介して第2の分岐光学系402が接続されている。即ち、第1の分岐光学系401の第2のプリズム412と、第2の分岐光学系402と、の界面に、IRカットフィルタ426が設けられている。
 IRカットフィルタ426は、赤外光をカットするフィルタである。例えば、図8は、本実施形態に係る撮像装置に適用されるIRカットフィルタ426の分光特性の一例について示した図である。図8において、横軸は波長(nm)を示しており、縦軸は分光透過率(%)を示している。図8に示すように、IRカットフィルタ426は、700nmよりも長波長側の波長帯域の光の大部分(例えば、90%以上)を吸収し、その他の波長帯域の光を透過する特性を有している。なお、IRカットフィルタ426は、例えば、BK7相当の硝材に赤外カットコートを蒸着製膜することで形成されてもよい。また、他の一例として、IRカットフィルタ426は、赤外吸収ガラスにより構成されていてもよい。なお、IRカットフィルタ426としては、例えば、HOYA株式会社製C5000等を利用することが可能である。
 なお、図4及び図5では、詳細な図示は省略しているが、IRカットフィルタ426と、第2の分岐光学系402との間の界面には、参照符号431として示すようにエアギャップが設けられている。
 続いて、主に図5を参照して、IRカットフィルタ426よりも後段に位置する各部の構成について説明する。第1の分岐光学系401の第2のプリズム412から出射した可視光波長帯域に属する光は、IRカットフィルタ426により赤外光がカットされた後、第2の分岐光学系402に入射する。
 第2の分岐光学系402は、当該第2の分岐光学系402に入射した可視光波長帯域に属する光を、R成分、G成分、及びB成分それぞれを含む波長帯域に属する光に分離する。具体的には、第2の分岐光学系402は、第3のプリズム413と第4のプリズム414とがダイクロイック膜422を介して互いに接続され、かつ、当該第4のプリズム414と第5のプリズム415とがダイクロイック膜423を介して互いに接続されたプリズムである。即ち、第3のプリズム413と第4のプリズム414との界面に、ダイクロイック膜422が設けられており、当該第4のプリズム414と第5のプリズム415の界面に、ダイクロイック膜423が設けられている。
 ダイクロイック膜422は、第2の分岐光学系402に入射した、可視光波長帯域に属する光を含む入射光について、G成分を含む波長帯域に属する光と、R成分及びB成分を含む波長帯域に属する光と、を分離する光学膜である。具体的には、ダイクロイック膜422は、G成分を含む波長帯域に属する光を反射するとともに、R成分及びB成分を含む短波長側の波長帯域に属する光を透過する特性を有する。
 また、ダイクロイック膜423は、ダイクロイック膜422を透過した、R成分及びB成分を含む波長帯域に属する光を含む入射光について、R成分を含む波長帯域に属する光と、B成分を含む波長帯域に属する光と、を分離する光学膜である。具体的には、ダイクロイック膜423は、B成分を含む波長帯域に属する光を反射するとともに、R成分を含む波長帯域に属する光を透過する特性を有する。
 第3のプリズム413は、可視光波長帯域に属する光が入射するとともに、G成分を含む波長帯域に属する光が導光される緑色光用光路として機能するプリズムである。また、第4のプリズム414は、R成分及びB成分を含む波長帯域に属する光が入射するとともに、B成分を含む波長帯域に属する光が導光される青色光用光路として機能するプリズムである。また、第5のプリズム415は、R成分を含む波長帯域に属する光が導光される赤色光用光路として機能するプリズムである。
 入射面435から第3のプリズム413に入射した可視光波長帯域に属する光は、第3のプリズム413内を直進し、光軸上に斜めに設けられたダイクロイック膜422によって、G成分を含む波長帯域に属する光と、R成分及びB成分を含む波長帯域に属する光と、に分離される。
 G成分を含む波長帯域に属する光は、ダイクロイック膜422によって反射され、第3のプリズム413内を導光される。このとき、ダイクロイック膜422は、分岐光学系400への入射光の光軸(即ち、z軸)を軸として、前述したダイクロイック膜421が近赤外波長帯域に属する光を反射する方向に対して、相対的にねじれた方向に、G成分を含む波長帯域に属する光を反射させる。即ち、図4に示すように、ダイクロイック膜421が近赤外波長帯域に属する光をxz平面の面方向に反射させる場合に、ダイクロイック膜422は、当該xz平面に交差する方向に、G成分を含む波長帯域に属する光を反射させる。具体的な一例として、図5に示す例では、ダイクロイック膜422は、z方向を含む水平面(即ち、xz平面と法線方向が互いに直交するyz平面)の面方向に、G成分を含む長波長側の波長帯域に属する光を反射させている。換言すると、図5に示す例では、ダイクロイック膜422は、分岐光学系400への入射光の光軸と、ダイクロイック膜421が近赤外波長帯域に属する光を反射させる方向と、のそれぞれに略垂直な方向に、G成分を含む長波長側の波長帯域に属する光を反射させている。なお、ダイクロイック膜422によって反射される光が「第3の光」の一例に相当し、当該反射方向が「第2の方向」の一例に相当する。
 ここで、反射分離されたG成分を含む波長帯域に属する光(以下、「緑色光線」とも称する)は、図5に示すように、入射面435に達する。また、前述したように、入射面435とIRカットフィルタ426との間には、参照符号431で示すようにエアギャップが設けられている。そのため、緑色光線は、入射面435で一度だけ全反射して第3のプリズム413の外部へと透過する。これにより、ダイクロイック膜422の成膜面の光軸に対する角度を垂直に近づけることができる。逆に言えば、本実施形態に係るダイクロイック膜422の光軸上への設置角度は、上述した全反射の条件が成立するように設定されている。このようにダイクロイック膜422を配置することで、F値の明るい光線が第3のプリズム413に入射した場合であっても、上光線と下光線との入射角度の違いによるダイクロイック膜422の分光特性の変化を抑制することが可能となり、精度良く波長分離を行うことが可能となる。
 第3のプリズム413を透過した緑色光線は、第2の撮像素子232へと導光される。第2の撮像素子232は、第3のプリズム413を透過して当該第2の撮像素子232に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第3のプリズム413と第2の撮像素子232との間には、当該第2の撮像素子232の受光面を保護するカバーガラス427が介在してもよい。カバーガラス427としては、前述したカバーガラス425と同様のものを適用することが可能である。また、第2の撮像素子232としては、例えば、カラーフィルタが設けられておらず、G成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 一方、ダイクロイック膜422を透過したR成分及びB成分を含む波長帯域に属する光は、第4のプリズム414に入射する。そして、第4のプリズム414に入射した当該光は、当該第4のプリズム414を直進し、光軸上に斜めに設けられたダイクロイック膜423によって、R成分を含む波長帯域に属する光と、B成分を含む波長帯域に属する光と、に分離される。なお、ダイクロイック膜422を透過した光が「第4の光」の一例に相当する。
 B成分を含む波長帯域に属する光は、ダイクロイック膜423によって反射され、第4のプリズム414内を導光される。このとき、ダイクロイック膜423は、分岐光学系400への入射光の光軸(即ち、z軸)を軸として、前述したダイクロイック膜421が近赤外波長帯域に属する光を反射する方向に対して、相対的にねじれた方向に、B成分を含む波長帯域に属する光を反射させる。即ち、図4に示すように、ダイクロイック膜421が近赤外波長帯域に属する光をxz平面の面方向に反射させる場合に、ダイクロイック膜422は、当該xz平面に交差する方向に、B成分を含む波長帯域に属する光を反射させる。具体的な一例として、図5に示す例では、ダイクロイック膜423は、z方向を含む水平面(即ち、xz平面と法線方向が互いに直交するyz平面)の面方向であり、かつ、ダイクロイック膜422が緑色光線を反射させる方向とは異なる方向に、B成分を含む波長帯域に属する光を反射させている。なお、ダイクロイック膜423によって反射される光が「第5の光」の一例に相当し、当該反射方向が「第3の方向」の一例に相当する。また、上記に説明した例において、xz平面が「第1の面」の一例に相当し、yz平面が「第2の面」の一例に相当する。
 反射分離されたB成分を含む波長帯域に属する光(以下、「青色光線」とも称する)は、第4のプリズム414内を導光される。また、第4のプリズム414を透過した青色光線は、第3の撮像素子233へと導光される。第3の撮像素子233は、第4のプリズム414を透過して当該第3の撮像素子233に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第4のプリズム414と第3の撮像素子233との間には、当該第3の撮像素子233の受光面を保護するカバーガラス428が介在してもよい。カバーガラス428としては、前述したカバーガラス425と同様のものを適用することが可能である。また、第3の撮像素子233としては、例えば、カラーフィルタが設けられておらず、B成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 また、ダイクロイック膜423を透過したR成分を含む波長帯域に属する光(以下、「赤色光線」とも称する)は、第5のプリズム415に入射して、当該第5のプリズム415の内部を直進する。第5のプリズム415におけるダイクロイック膜423が設けられている側とは逆側の端面(換言すれば、第5のプリズム415の光軸下流側の出射面)は、光軸に対して垂直となるように設けられており、赤色光線は、第5のプリズム415の出射面に対して垂直となる状態を維持したまま、第5のプリズム415の外部に透過する。そして、第5のプリズム415を透過した赤色光線は、第4の撮像素子234へと導光される。第4の撮像素子234は、第5のプリズム415を透過して当該第4の撮像素子234に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第5のプリズム415と第4の撮像素子234との間には、当該第4の撮像素子234の受光面を保護するカバーガラス429が介在してもよい。カバーガラス429としては、前述したカバーガラス425と同様のものを適用することが可能である。また、第4の撮像素子234としては、例えば、カラーフィルタが設けられておらず、R成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 以上のような構成により、第2の分岐光学系402に入射した可視光線は、当該第2の分岐光学系402により赤色光線、緑色光線、及び青色光線に分離され、第4の撮像素子234、第2の撮像素子232、及び第3の撮像素子233にそれぞれ結像する。例えば、図9は、本実施形態に係る分岐光学系400により可視光波長帯域に属する光から分離された各光の波長特性の一例を示した図であり、赤色光線(R)、緑色光線(G)、及び青色光線(B)の波長特性の一例を示している。図9において、横軸は波長(nm)を示しており、縦軸は分光後の各光に含まれる波長成分を入射光に対する相対値(%)で示している。即ち、ダイクロイック膜422及び423としては、第2の撮像素子232~第4の撮像素子234それぞれに結像する光(即ち、緑色光線、青色光線、及び赤色光線)が図9に示すような特性を示すように、入射光から各光を分離する分光特性を有するものが適用されればよい。
 以上、図4及び図5を参照して説明したように、本実施形態に係る撮像装置105bは、第1の分岐光学系401と第2の分岐光学系402とを含む分岐光学系400により、入射光を複数の光に分離し、各光を互いに異なる撮像素子に結像させる。このとき、第1の分岐光学系401と第2の分岐光学系402とは、分岐光学系400に光が入射する入射面433の法線方向に対応する光軸を軸として互いにねじれた方向に入射光の一部を反射させることで、入射光から一部の光を分離する。
 このような構成により、本実施形態に係る撮像装置105bは、例えば、第1の撮像素子231を支持する基板221と、第2の撮像素子232~第4の撮像素子234それぞれを支持する基板222~224と、の間の物理的干渉を回避することが可能となる。即ち、本実施形態に係る撮像装置105bは、第1の撮像素子231~第4の撮像素子234(換言すると、基板221~224)を限られた空間に効率よく配設することが可能となる。
 また、本実施形態に係る撮像装置105bは、図3に示した比較例に係る撮像装置105aに比べて、エアギャップが形成される箇所を削減することが可能である。エアギャップの形成は、当該エアギャップ内にゴミ等が混入することによる不良の発生の要因となる場合もある。そのため、エアギャップが形成される箇所がより少ない設計が望ましい。即ち、本実施形態に係る撮像装置105bは、比較例に係る撮像装置105aに比べて、エアギャップの形成に起因する不良が発生する可能性をより低く抑えることが可能となる。
 なお、上記に説明した構成はあくまで一例であり、本実施形態に係る撮像装置105bの構成は、必ずしも上記に説明した例には限定されない。具体的な一例として、第1の撮像素子231~第4の撮像素子234に入射光のうちの一部の光を結像させることが可能であれば、撮像素子と当該撮像素子に結像させる光との間の対応関係は限定されない。また、撮像素子と当該撮像素子に結像させる光との間の対応関係に応じて、入射光から一部の光を分離するための構成(例えば、ダイクロイック膜421~423等の光学膜)を適宜選択すればよいことは言うまでもない。また、入射光から一部の光を分離するための構成としては、ダイクロイック膜のような波長特性に応じて入射光を分離する光学膜に限らず、例えば、ハーフミラー膜等のような他の光学膜を適用することも可能である。なお、ハーフミラー膜を適用した例については、変形例として別途後述する。
 また、上記では、本実施形態に係る撮像装置105bとして、4色分解光学系を利用した撮像装置の構成の一例について、特に分岐光学系400の構成に着目して説明した。一方で、上記に説明した例はあくまで一例であり、第1の分岐光学系401と第2の分岐光学系402とが、分岐光学系400への入射光の光軸を軸として互いにねじれた方向に入射光の一部を反射させる構成であれば、分岐光学系400の構成は必ずしも上述した例には限定されない。例えば、本実施形態に係る撮像装置105bを、3色分解光学系を利用した撮像装置として構成することも可能である。この場合には、第2の分岐光学系402として、図4及び図5に示すような入射光の光路を3つの光路に分岐させる分岐光学系に替えて、入射光の光路を2つの光路に分岐させる分岐光学系を適用すればよい。また、他の一例として、第1の分岐光学系401を、第2の分岐光学系402と同様に、入射光の光路を3つの光路に分岐させる構成としてもよい。
 以上、図4及び図5を参照して、本実施形態に係る撮像装置の概略的な構成の一例について、特に、撮像装置内に入射した光が撮像素子に結像するまでの構成に着目して説明した。
  <3.2.撮像装置の実施例>
 続いて、本実施形態に係る撮像装置の実施例について説明する。
  (実施例1)
 まず、実施例1として、図4及び図5に示す撮像装置105bのより詳細な構成の一例について説明する。なお、本実施例では、本実施形態に係る撮像装置105bを、Cマウントの規格に基づく撮像装置として構成する場合の一例について説明する。即ち、実施例1では、Cマウントの規格で規定するフランジバック長の条件(17.526mm)を満たすために、少なくとも分岐光学系400の入射面から、分岐光学系400の後段に位置する撮像素子までの間の光学的距離が17.526mm以下となる、撮像装置105bの構成の一例について説明する。
 図4及び図5に示すように、実施例1に係る撮像装置105bにおいては、各撮像素子(即ち、第1の撮像素子231~第4の撮像素子234)に結像する像のサイズ(即ち、像高)は、垂直方向に3.14mm、水平方向に5.56mmとなっている。そのため、図4においては、各撮像素子の受光面の水平方向における、中心、-2.78mm、+2.78mmそれぞれの位置に結像する光の光路が示されている。同様に、図5においては、各撮像素子の受光面の垂直方向における、中心、-1.57mm、+1.57mmそれぞれの位置に結像する光の光路が示されている。各撮像素子の受光面の中心におけるFナンバーは、水平方向のFナンバーをFno_H=1.57であり、垂直方向のFナンバーをFno_V=1.78である。また、開口マスク250に設けられた開口部は、水平方向(x方向)の寸法が8.2mm、垂直方向(y方向)の寸法が7.2mmの矩形状に形成されている。
 また、実施例1に係る撮像装置105bでは、分岐光学系400を構成する第1のプリズム411~第5のプリズム415を構成する硝材として、屈折率Nd≧1.80の条件を満たす硝材を適用している。具体的な一例として、第1のプリズム411~第5のプリズム415を構成する硝材としては、屈折率Nd=1.804200、アッベ数νd=46.5025の条件を満たす硝材を使用する場合について説明する。なお、同条件を満たす硝材としては、例えば、HOYA株式会社製のTAF3が挙げられる。
 また、カバーガラス425、427~429としては、例えば、硝材としてBK7を利用した、厚さ1.2mmのものを使用している。また、バンドパスフィルタ424とIRカットフィルタ426とのそれぞれは、光軸方向の厚さが1.09mmとなっている。また、バンドパスフィルタ424とIRカットフィルタ426とのそれぞれの屈折率Ndは、BK7相当である。
 図4において参照符号θ11で示した角度、即ち、xz平面上において、第1のプリズム411の入射面433と、ダイクロイック膜421が形成された面と、の間の角度は30°となっている。また、図5において参照符号θ13で示した角度、即ち、yz平面上において、第3のプリズム413の入射面435と、ダイクロイック膜422が形成された面と、の間の角度は25.75°となっている。また、図5において参照符号θ15で示した角度、即ち、yz平面上において、ダイクロイック膜422が形成された面と、ダイクロイック膜423が形成された面と、の間の角度は60.75°となっている。
 ここで、分岐光学系400のガラス厚を、当該分岐光学系400のz方向の幅(物理的距離)として規定すると、実施例1に係る撮像装置105bにおいては、分岐光学系400のガラス厚d1=18.844mmとなる。即ち、実施例1に係る撮像装置105bにおいては、Cマウントの規格で規定されたフランジバック長の条件(17.526mm)を満たしながら、分岐光学系400のガラス厚d1を17.526mmより厚くなるように形成することが可能である。これは、各撮像素子に結像する光の光路長(光学的距離)が、当該光の経路中に配設された光学系(例えば、分岐光学系400)の屈折率と、当該光学系中を導光される当該光の経路の長さと、に依存することに起因する。
 このように、分岐光学系400の屈折率をより高めることにより、フランジバック長の条件を満たしながら、当該分岐光学系400のガラス厚をより厚く形成することが可能となる。そのため、実施例1に係る撮像装置105bに依れば、第1の撮像素子231~第4の撮像素子234(ひいては、基板221~224)間における物理的干渉を回避し、かつ各撮像素子の配置に係る自由度をより向上させることが可能となる。
 また、前述の通り、実施例1に係る撮像装置105bは、比較的明るいFナンバーを実現している。そのため、実施例1に係る撮像装置105bに依れば、手術用顕微鏡のように比較的Fナンバーの明るい光学系から、内視鏡のように比較的Fナンバーの暗い光学系まで、多様な光学系を幅広く使用することが可能である。
 以上、実施例1として、図4及び図5に示す撮像装置105bのより詳細な構成の一例について説明した。
  (実施例2)
 続いて、実施例2として、本実施形態に係る撮像装置のより詳細の構成の他の一例について説明する。前述したように、分岐光学系400の屈折率をより高めることにより、所定のマウント規格で規定されたフランジバック長の条件を満たしながら、当該分岐光学系400のガラス厚をより厚く形成することが可能である。そこで、実施例2では、分岐光学系400を構成する各プリズム(即ち、第1のプリズム411~第5のプリズム415)を構成する硝材として、実施例1で適用された硝材よりも屈折率の高い硝材を適用した場合の一例について説明する。
 例えば、図10及び図11は、本実施形態の実施例2に係る撮像装置の構成の一例について説明するための説明図であり、前述した内視鏡手術システム100のカメラヘッド105として適用可能な撮像装置の他の一例を示している。なお、以降の説明では、実施例2に係る撮像装置を、カメラヘッド105として適用可能な他の撮像装置と明示的に区別するために、「撮像装置105c」と称する場合がある。
 実施例2に係る撮像装置105cは、第1のプリズム411~第5のプリズム415を構成する硝材が、前述した実施例1に係る撮像装置105bとは異なる。そのため、実施例2に係る撮像装置105cは、当該硝材の違いにより、第1のプリズム411~第5のプリズム415の寸法が、実施例1に係る撮像装置105bとは異なる。一方で、実施例2に係る撮像装置105cは、その他の構成については、実施例1に係る撮像装置105bと同様である。
 そこで、本説明では、実施例2に係る撮像装置105cについて、前述した実施例1に係る撮像装置105bと異なる部分に着目して説明し、当該撮像装置105bと実質的に同様の部分については詳細な説明は省略する。なお、図10及び図11においては、図4及び図5と同様の参照符号が付された構成は、図4及び図5に示す例と実質的に同様の構成を示しているものとする。
 実施例2に係る撮像装置105cにおいて、分岐光学系400を構成する第1のプリズム411~第5のプリズム415を構成する硝材としては、屈折率Nd≧1.90の条件を満たす硝材を適用している。具体的な一例として、第1のプリズム411~第5のプリズム415を構成する硝材として、屈折率Nd=1.903658、アッベ数νd=31.3150の条件を満たす硝材を使用する場合について説明する。なお、同条件を満たす硝材としては、例えば、HOYA株式会社製のTAFD25が挙げられる。
 また、実施例2に係る撮像装置105cにおいては、各撮像素子に結像する像のサイズ(即ち、像高)、開口マスク250に設けられた開口部の寸法及び形状、並びに、各撮像素子の受光面の中心におけるFナンバーは、図3及び図4を参照して説明した実施例1に係る撮像装置105bと同様である。また、図10及び図11において参照符号θ11、θ13、及びθ15で示された部分の角度は、図4及び図5において同様の参照符号が付された部分の角度と同様である。
 以上のような条件に基づき、実施例2に係る撮像装置105cにおいては、分岐光学系400のガラス厚d2=19.847mmとなる。
 このように、実施例2に係る撮像装置105cにおいては、分岐光学系400を構成する第1のプリズム411~第5のプリズム415を構成する硝材として、実施例1として説明した例よりも屈折率の高い硝材を適用している。これにより、実施例2に係る撮像装置105cにおいては、実施例1に係る撮像装置105bに比べて、分岐光学系400のガラス厚をより厚く形成することが可能となる。即ち、実施例2に係る撮像装置105cに依れば、実施例1に係る撮像装置105bに比べて、各撮像素子(即ち、第1の撮像素子231~第4の撮像素子234)の配置に係る自由度をさらに向上させることが可能となる。
 また、実施例2に係る撮像装置105cに依れば、例えば、光線と、プリズム側面、面取り部、及びプリズム頂点と、の間のクリアランスをより大きく確保することが可能となる。そのため、これらの部位に起因するフレア発生のリスクをより低減することも可能となる。
 なお、屈折率のより高い硝材ほど、分散がより大きくなる(即ち、アッベ数がより小さくなる)傾向にある。また、このような硝材は、近紫外領域に吸収をもつ酸化物成分を含有している場合が多く、このような場合には、400nm近傍の短波長領域における透過率がより低くなる傾向にある。特に、プリズム光学系においては、ガラス厚がより厚くなる傾向にあり、本実施例に係る撮像装置105cにおいては、分岐光学系400のガラス圧は19.847mmとなり、透過率低下に伴う影響が顕在化する場合がある。このような状況を鑑みると、特に医療の分野への適用を想定した場合には、分岐光学系400の各プリズム(即ち、第1のプリズム411~第5のプリズム415)を構成する硝材として、前述した屈折率の条件に加えて、アッベ数νd≧30.0の条件を満たす硝材を適用することが、色再現性と、光学系の小型化と、を両立するうえでより望ましいと言える。
 以上、実施例2として、図10及び図11を参照して、本実施形態に係る撮像装置のより詳細の構成の他の一例について説明する。
 なお、上記実施例1及び2はあくまで一例であり、所定の規格(例えば、Cマウントの規格)で定められた各種条件と、用途に応じた色再現性の条件と、を満たすことが可能であれば、分岐光学系400の各プリズムを構成する硝材は、必ずしも上記に説明した例には限定されない。具体的な一例として、分岐光学系400として適用可能な硝材としては、HOYA株式会社製のTAFD5F、TAFD30、TAFD33、TAFD37、TAFD35、TAFD45等が挙げられる。一方で、分岐光学系400の各プリズムの屈折率Nd及びアッベ数νdそれぞれの上限については、当該各プリズムに適用可能な硝材の選択肢に応じて実質的に決定されることとなる。
 また、本実施形態に係る撮像装置を、必ずしも、上記に説明したCマウントの規格に基づく撮像装置として構成する場合のみには限定されず、例えば、他のマウント規格に基づく撮像装置として構成することも可能である。このような場合においても、対応する規格で定められた各種条件(例えば、フランジバック長等)に基づき、上記と同様の設計思想に基づき、本実施形態に係る撮像装置の各部の寸法(特に、分岐光学系400の各部の寸法)や、分岐光学系400の各プリズムを構成する硝材を適宜決定すればよい。
  <3.3.撮像装置の変形例>
 続いて、図12及び図13を参照して、本実施形態に係る撮像装置の変形例として、可視光波長帯域に属する光を赤色光線、緑色光線、及び青色光線に分離し、分離後の各光線を4つの撮像素子それぞれに結像させる撮像装置の構成の一例について説明する。図12及び図13は、変形例に係る撮像装置の構成の一例について説明するための説明図であり、前述した内視鏡手術システム100のカメラヘッド105として適用可能な撮像装置の他の一例を示している。なお、本説明では、本実施形態に係る撮像装置が、Cマウントの規格に基づく撮像装置として構成されているものとして説明する。また、以降の説明では、図12及び図13に示す撮像装置を、カメラヘッド105として適用可能な他の撮像装置と明示的に区別するために、「撮像装置105d」と称する場合がある。
 図12及び図13に示すように、本実施形態に係る撮像装置105dは、マウント台240と、分岐光学系500と、第1の撮像素子235~第4の撮像素子238と、基板225~228とを含む。第1の撮像素子235~第4の撮像素子238は、基板225~228によりそれぞれ保持される。また、撮像装置105dは、開口マスク250を含んでもよく、カバーガラス525~528を含んでもよい。なお、マウント台240及び開口マスク250の構成は、図3及び図4を参照して前述した実施形態に係る撮像装置105bにマウント台240及び開口マスク250と同様である。そこで、以降では、変形例に係る撮像装置105dの構成について、前述した実施形態に係る撮像装置105bと異なる部分に着目して説明し、当該撮像装置105bと実質的に同様の部分については、詳細な説明は省略する。
 なお、図12及び図13において、z方向は、撮像装置105dに入射する光(即ち、入射光)の光軸方向に相当し、換言すると、詳細を後述する分岐光学系500の入射面の法線方向に相当する。また、x方向及びy方向は、双方ともに当該z方向に直交する方向であり、x方向とy方向とは互いに直交するものとする。なお、図12及び図13においては、x方向は、撮像装置105dの水平方向に相当し、y方向は、当該撮像装置105dの垂直方向に相当する。また、図12は、撮像装置105dを、入射光の光軸(z軸)を含む水平面(xz平面)で切断した場合における、当該撮像装置105dの構成を模式的に示しており、当該撮像装置105dに入射した光の光路をあわせて提示している。即ち、図12において、図面の横方向、縦方向、及び奥行き方向は、それぞれz方向、x方向、及びy方向に対応している。また、図13は、撮像装置105dを、入射光の光軸(z軸)を含む垂直面(yz平面)で切断した場合における、当該撮像装置105dの構成を模式的に示しており、当該撮像装置105dに入射した光の光路をあわせて提示している。即ち、図13において、図面の横方向、縦方向、及び奥行き方向は、それぞれz方向、y方向、及びx方向に対応している。
 図12及び図13に示すように、分岐光学系500は、第1の分岐光学系501と、第2の分岐光学系502と、IRカットフィルタ524とを含む。
 第1の分岐光学系501は、第1のプリズム511と第2のプリズム512とが、ダイクロイック膜521を介して互いに接続されたプリズムである。即ち、第1のプリズム511と第2のプリズム512との界面には、ダイクロイック膜521が設けられている。また、マウント台240と、第1のプリズム511の入射面535と、の間にはIRカットフィルタ524が設けられている。なお、図12及び図13では、詳細な図示は省略しているが、IRカットフィルタ524と、第1のプリズム511の入射面535と、の間の界面には、参照符号531として示すようにエアギャップが設けられている。
 IRカットフィルタ524は、赤外光をカットするフィルタである。IRカットフィルタ524としては、例えば、図8を参照して前述したIRカットフィルタ426と同様のものを適用することが可能である。即ち、マウント台240の開口部を介して撮像装置105d内に入射した、可視光波長帯域に属する光及び近赤外波長帯域に属する光(即ち、入射光)は、IRカットフィルタ524を透過した後に、入射面534から第1のプリズム511に入射する。このとき、入射光のうち、近赤外波長帯域に属する光はIRカットフィルタ524により遮蔽され、可視光波長帯域に属する光(即ち、可視光線)が入射面535から第1のプリズム511に入射することとなる。
 第1のプリズム511は、可視光波長帯域に属する光が入射するとともに、B成分を含む短波長側の波長帯域に属する光が導光される青色光用光路として機能するプリズムである。また、第2のプリズム512は、可視光波長帯域に属する光のうちR成分及びG成分を含む長波側の波長帯域に属する光が導光される赤色光及び緑色光用光路として機能するプリズムである。
 入射面535から第1のプリズム511に入射した可視光線は、第1のプリズム511内を直進し、光軸上に斜めに設けられたダイクロイック膜521によって、B成分を含む短波長側の波長帯域に属する光と、R成分及びG成分を含む長波側の波長帯域に属する光と、に分離される。
 ここで、反射分離されたB成分を含む短波長側の波長帯域に属する光(即ち、青色光線)は、図12に示すように、入射面535に達する。また、前述したように、入射面535とIRカットフィルタ524との間には、参照符号531で示すようにエアギャップが設けられている。そのため、青色光線は、入射面535で一度だけ全反射して第1のプリズム511の外部へと透過する。これにより、ダイクロイック膜521の成膜面の光軸に対する角度を垂直に近づけることができる。逆に言えば、本実施形態に係るダイクロイック膜521の光軸上への設置角度は、上述した全反射の条件が成立するように設定されている。このようにダイクロイック膜521を配置することで、F値の明るい光線が第1のプリズム511に入射した場合であっても、左光線と右光線との入射角度の違いによるダイクロイック膜521の分光特性の変化を抑制することが可能となり、精度良く波長分離を行うことが可能となる。
 第1のプリズム511を透過した青色光線は、第1の撮像素子235へと導光される。第1の撮像素子235は、第1のプリズム511を透過して当該第1の撮像素子235に導光される光(即ち、青色光線)の光軸に対して、受光面が垂直になるように配設されている。なお、第1のプリズム511と第1の撮像素子235との間には、当該第1の撮像素子235の受光面を保護するカバーガラス525が介在してもよい。カバーガラス525としては、例えば、BK7として一般的に知られている硝材を使用したものが適用される。また、第1の撮像素子235としては、例えば、カラーフィルタが設けられておらず、B成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 一方、ダイクロイック膜521を透過したR成分及びG成分を含む長波側の波長帯域に属する光は、第2のプリズム512に入射して、当該第2のプリズム512の内部を直進する。第2のプリズム512におけるダイクロイック膜421が設けられている側とは逆側の端面(換言すれば、第2のプリズム512の光軸下流側の出射面)は、光軸に対して垂直となるように設けられている。そのため、第2のプリズム512の内部を導光される当該長波側の波長帯域に属する光は、第2のプリズム512の出射面に対して垂直となる状態を維持したまま、第2のプリズム512の外部に透過する。
 第2のプリズム512の出射面には、第2の分岐光学系502が接続されている。なお、図12及び図13では、詳細な図示は省略しているが、第1の分岐光学系501と第2の分岐光学系502との間の界面には、参照符号533として示すようにエアギャップが設けられている。
 続いて、主に図13を参照して、第1の分岐光学系501の第2のプリズム512よりも後段に位置する各部の構成について説明する。第1の分岐光学系501の第2のプリズム512から出射したR成分及びG成分を含む長波側の波長帯域に属する光は、第2の分岐光学系502に入射する。
 第2の分岐光学系502は、当該第2の分岐光学系502に入射したR成分及びG成分を含む長波側の波長帯域に属する光を、R成分を含む波長帯域に属する光と、G成分を含む波長帯域に属する光とに分離する。具体的には、第2の分岐光学系502は、第3のプリズム513と第4のプリズム514とがダイクロイック膜522を介して互いに接続され、かつ、当該第4のプリズム514と第5のプリズム515とがハーフミラー膜523を介して互いに接続されたプリズムである。即ち、第3のプリズム513と第4のプリズム514との界面に、ダイクロイック膜522が設けられており、当該第4のプリズム514と第5のプリズム515の界面に、ハーフミラー膜523が設けられている。
 ダイクロイック膜522は、第2の分岐光学系502に入射した、R成分及びG成分を含む長波側の波長帯域に属する光を含む入射光について、R成分を含む波長帯域に属する光と、G成分を含む波長帯域に属する光と、を分離する光学膜である。具体的には、ダイクロイック膜522は、R成分を含む波長帯域に属する光を反射するとともに、G成分を含の波長帯域に属する光を透過する特性を有する。
 また、ハーフミラー膜523は、ダイクロイック膜522を透過したG成分を含む波長帯域に属する光を含む入射光の光路を、2つの光路に分岐させる光学膜である。具体的には、ハーフミラー膜523は、入射光の一部の光を反射するとともに、他の一部の光を透過する特性を有する。
 第3のプリズム513は、R成分及びG成分を含む長波側の波長帯域に属する光が入射するとともに、R成分を含む波長帯域に属する光が導光される赤色光用光路として機能するプリズムである。また、第4のプリズム514は、G成分を含む波長帯域に属する光が入射するとともに、当該G成分を含む波長帯域に属する光のうち一部の光が導光される第1の緑色光用光路として機能するプリズムである。また、第5のプリズム515は、G成分を含む波長帯域に属する光のうち他の一部の光が導光される第2の緑色光用光路として機能するプリズムである。
 入射面537から第3のプリズム513に入射したR成分及びG成分を含む長波側の波長帯域に属する光は、第3のプリズム513内を直進し、光軸上に斜めに設けられたダイクロイック膜522によって、R成分を含む波長帯域に属する光(即ち、赤色光線)と、G成分を含む波長帯域に属する光(即ち、緑色光線)と、に分離される。
 赤色光線は、ダイクロイック膜522によって反射され、第3のプリズム513内を導光される。このとき、ダイクロイック膜522は、分岐光学系500への入射光の光軸(即ち、z軸)を軸として、前述したダイクロイック膜521が青色光線を反射する方向に対して、相対的にねじれた方向に、赤色光線を反射させる。即ち、図12に示すように、ダイクロイック膜521が青色光線をxz平面の面方向に反射させる場合に、ダイクロイック膜522は、当該xz平面に交差する方向に、赤色光線を反射させる。具体的な一例として、図13に示す例では、ダイクロイック膜522は、z方向を含む水平面(即ち、xz平面と法線方向が互いに直交するyz平面)の面方向に、赤色光線を反射させている。換言すると、図13に示す例では、ダイクロイック膜522は、分岐光学系500への入射光の光軸と、ダイクロイック膜521が青色光線を反射させる方向と、のそれぞれに略垂直な方向に、赤色光線を反射させている。
 ここで、反射分離された赤色光線は、図13に示すように、入射面537に達する。また、前述したように、入射面537と、第2のプリズム512の出射面と、の間には、参照符号533で示すようにエアギャップが設けられている。そのため、赤色光線は、入射面537で一度だけ全反射して第3のプリズム513の外部へと透過する。これにより、ダイクロイック膜522の成膜面の光軸に対する角度を垂直に近づけることができる。逆に言えば、本実施形態に係るダイクロイック膜522の光軸上への設置角度は、上述した全反射の条件が成立するように設定されている。このようにダイクロイック膜522を配置することで、F値の明るい光線が第3のプリズム513に入射した場合であっても、上光線と下光線との入射角度の違いによるダイクロイック膜522の分光特性の変化を抑制することが可能となり、精度良く波長分離を行うことが可能となる。
 第3のプリズム513を透過した赤色光線は、第2の撮像素子236へと導光される。第2の撮像素子236は、第3のプリズム513を透過して当該第2の撮像素子236に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第3のプリズム513と第2の撮像素子236との間には、当該第2の撮像素子236の受光面を保護するカバーガラス526が介在してもよい。カバーガラス526としては、前述したカバーガラス525と同様のものを適用することが可能である。また、第2の撮像素子236としては、例えば、カラーフィルタが設けられておらず、R成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 一方、ダイクロイック膜522を透過した緑色光線は、第4のプリズム514に入射する。そして、第4のプリズム514に入射した緑色光線は、当該第4のプリズム514を直進し、光軸上に斜めに設けられたハーフミラー膜523によって、一部の光と他の一部の光とに分離される(即ち、入射した緑色光線の光路が2つの光路に分岐される)。
 緑色光線のうち一部の光は、ハーフミラー膜523によって反射され、第4のプリズム514内を導光される。このとき、ハーフミラー膜523は、分岐光学系500への入射光の光軸(即ち、z軸)を軸として、前述したダイクロイック膜521が青色光線を反射する方向に対して、相対的にねじれた方向に、緑色光線のうち一部の光を反射させる。即ち、図12に示すように、ダイクロイック膜521が青色光線をxz平面の面方向に反射させる場合に、ハーフミラー膜523は、当該xz平面に交差する方向に、緑色光線のうち一部の光を反射させる。具体的な一例として、図13に示す例では、ハーフミラー膜523は、z方向を含む水平面(即ち、xz平面と法線方向が互いに直交するyz平面)の面方向であり、かつ、ダイクロイック膜522が赤色光線を反射させる方向とは異なる方向に、緑色光線のうち一部の光を反射させている。
 反射分離された緑色光線のうち一部の光は、第4のプリズム514内を導光される。また、第4のプリズム514を透過した緑色光線のうち一部の光は、第3の撮像素子237へと導光される。第3の撮像素子237は、第4のプリズム514を透過して当該第3の撮像素子237に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第4のプリズム514と第3の撮像素子237との間には、当該第3の撮像素子237の受光面を保護するカバーガラス527が介在してもよい。カバーガラス527としては、前述したカバーガラス525と同様のものを適用することが可能である。また、第3の撮像素子237としては、例えば、カラーフィルタが設けられておらず、G成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 また、ハーフミラー膜523を透過した緑色光線のうちの他の一部の光は、第5のプリズム515に入射して、当該第5のプリズム515の内部を直進する。第5のプリズム515におけるハーフミラー膜523が設けられている側とは逆側の端面(換言すれば、第5のプリズム515の光軸下流側の出射面)は、光軸に対して垂直となるように設けられている。そのため、第5のプリズム515内を導光された緑色光線のうちの他の一部の光は、第5のプリズム515の出射面に対して垂直となる状態を維持したまま、第5のプリズム415の外部に透過する。そして、第5のプリズム515を透過した緑色光線うちの他の一部の光は、第4の撮像素子238へと導光される。第4の撮像素子238は、第5のプリズム515を透過して当該第4の撮像素子238に導光される光の光軸に対して、受光面が垂直になるように配設されている。なお、第5のプリズム515と第4の撮像素子238との間には、当該第4の撮像素子238の受光面を保護するカバーガラス528が介在してもよい。カバーガラス528としては、前述したカバーガラス525と同様のものを適用することが可能である。また、第4の撮像素子238としては、例えば、カラーフィルタが設けられておらず、G成分を含む波長帯域に高い感度を有するものが適用されるとなお良い。
 このように、変形例に係る撮像装置105dにおいては、入射光に含まれる可視光線を、赤色光線、緑色光線、及び青色光線に分離し、それぞれを互いに異なる撮像素子に結像させる。また、このとき撮像装置105dは、入射光から分離された緑色光線のうち一部の光を分離し、分離された当該一部の光と他の一部の光とを互いに異なる撮像素子に結像させる。そして、変形例に係る撮像装置105dは、各撮像素子に結像される光(即ち、赤色光線、緑色光線、及び青色光線)それぞれに基づく画像を個別に撮像する。このような構成により、変形例に係る撮像装置105dは、各撮像素子にカラーフィルタを設ける必要がなく光の利用効率が向上するため、色分解光学系を利用しない撮像装置に比べて、色再現性や解像度をより向上させた画像を撮像することが可能である。
 また、変形例に係る撮像装置105dは、入射光が分離された各光が結像する各撮像素子のうち、一部の撮像素子が、光軸を基準として他の撮像素子に対して相対的に、画素が配列された水平方向及び垂直方向の双方に1/2画素分ずれた位置に配設されるように構成されてもよい。例えば、図14は、変形例に係る撮像装置105dの一態様について説明するための説明図であり、第3の撮像素子237と第4の撮像素子238との間の相対的な位置関係の一例について示している。
 図14において、参照符号2371は、第3の撮像素子237の一画素を示している。また、参照符号2381は、第4の撮像素子238の一画素を示している。また、参照符号L11は、第3の撮像素子237の画素2371の水平方向の幅を示しており、参照符号L21は、当該画素2371の垂直方向の幅を示している。また、幅L13は、幅L11の1/2に相当し、即ち、画素2371の水平方向における1/2画素分の距離に相当する。同様に、幅L23は、幅L21の1/2に相当し、即ち、画素2371の垂直方向における1/2画素分の距離に相当する。また、画素2371と画素2381とは、垂直方向及び水平方向のサイズが同様であるものとする。
 図14に示すように、第4の撮像素子238は、第3の撮像素子237及び第4の撮像素子238に結像する光の光軸を基準として、第3の撮像素子237に対して相対的に、画素2381が配列された水平方向及び垂直方向の双方に1/2画素分ずれた位置に配設される。即ち、第4の撮像素子238の各画素2381は、第3の撮像素子237の各画素2371が配設された水平方向及び垂直方向の双方において、相対的に、当該第3の撮像素子の各画素2371が配設された位置の間に位置することとなる。このような構成に基づき、例えば、第3の撮像素子237及び第4の撮像素子238それぞれに結像する光の光軸が略一致するように、当該第3の撮像素子237及び第4の撮像素子238それぞれによる撮像結果を合成することで、撮像画像が生成されてもよい。以上のような構成により、一方の撮像素子による撮像結果が、他方の撮像素子における画素間の情報を補間することが可能となるため、1つの撮像素子による撮像結果に基づく撮像画像に比べて、生成される撮像画像の解像度をより向上させることが可能となる。
 一般的に、人間の眼は、R成分、G成分、及びB成分のうち、G成分に属する光の解像感を強く感じる傾向にあることがわかっている。そのため、例えば、図14を参照して説明した構成に基づき、緑色光線の結像結果に基づく画像の解像度をより向上させることで、第1の撮像素子235~第4の撮像素子238それぞれの撮像結果に基づく可視光画像として、より解像感の高い画像をユーザに提示することが可能となる。
 以上、図12及び図13を参照して、本実施形態に係る撮像装置の変形例として、可視光波長帯域に属する光を赤色光線、緑色光線、及び青色光線に分離し、分離後の各光線を4つの撮像素子それぞれに結像させる撮像装置の構成の一例について説明した。
  (実施例3)
 続いて、実施例3として、図12及び図13を参照して説明した撮像装置105dのより詳細な構成の一例について説明する。なお、本実施例では、変形例に係る撮像装置105dを、Cマウントの規格に基づく撮像装置として構成する場合の一例について説明する。即ち、実施例3では、Cマウントの規格で規定するフランジバック長の条件(17.526mm)を満たすために、少なくとも分岐光学系500の入射面から、分岐光学系500の後段に位置する撮像素子までの間の光学的距離が17.526mm以下となる、撮像装置105bの構成の一例について説明する。
 分岐光学系500を構成する第1のプリズム511~第5のプリズム515を構成する硝材としては、屈折率Nd=1.834805、アッベ数νd=42.7218の条件を満たす硝材を使用するものとする。なお、同条件を満たす硝材としては、例えば、HOYA株式会社製のTAFD5Fが挙げられる。
 また、カバーガラス525~528としては、例えば、硝材としてBK7を利用した、厚さ1.2mmのものを使用している。また、IRカットフィルタ524は、光軸方向の厚さが1.09mmとなっている。
 なお、実施例3に係る撮像装置105dにおいては、各撮像素子に結像する像のサイズ(即ち、像高)、開口マスク250に設けられた開口部の寸法及び形状、並びに、各撮像素子の受光面の中心におけるFナンバーは、図3及び図4を参照して説明した実施例1に係る撮像装置105bと同様である。また、図12及び図13において参照符号θ11、θ13、及びθ15で示された部分の角度は、図4及び図5において同様の参照符号が付された部分の角度と同様である。
 以上のような条件に基づき、実施例3に係る撮像装置105dにおいては、分岐光学系500のガラス厚d3=18.060mmとなる。このように、実施例3に係る撮像装置105dにおいても、フランジバック長の条件を満たしながら、分岐光学系500のガラス厚をより厚く形成することが可能となる。そのため、実施例3に係る撮像装置105dに依れば、第1の撮像素子235~第4の撮像素子238(ひいては、基板225~228)間における物理的干渉を回避し、かつ各撮像素子の配置に係る自由度をより向上させることが可能となる。
 また、実施例3に係る撮像装置105dは、比較的明るいFナンバーを実現している。そのため、実施例3に係る撮像装置105dに依れば、手術用顕微鏡のように比較的Fナンバーの明るい光学系から、内視鏡のように比較的Fナンバーの暗い光学系まで、多様な光学系を幅広く使用することが可能である。
 なお、上記実施例3はあくまで一例であり、所定の規格(例えば、Cマウントの規格)で定められた各種条件と、用途に応じた色再現性の条件と、を満たすことが可能であれば、分岐光学系500の各プリズムを構成する硝材は、必ずしも上記に説明した例には限定されない。具体的な一例として、分岐光学系500として適用可能な硝材としては、HOYA株式会社製のTAFD5F、TAFD30、TAFD33、TAFD37、TAFD35、TAFD45等が挙げられる。一方で、分岐光学系500の各プリズムの屈折率Nd及びアッベ数νdそれぞれの上限については、当該各プリズムに適用可能な硝材に応じて実質的に決定されることとなる。
 以上、実施例3として、図12及び図13に示す撮像装置105dのより詳細な構成の一例について説明した。
 <<4.ハードウェア構成の一例>>
 続いて、図15を参照しながら、前述した内視鏡撮像システム(即ち、内視鏡手術システム)におけるCCUのように、各種処理を実行する所謂情報処理装置のハードウェア構成の一例について、詳細に説明する。図15は、本開示の一実施形態に係る内視鏡撮像システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
 本実施形態に係る内視鏡撮像システムを構成する情報処理装置900は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
 CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インターフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。
 ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
 通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本開示の実施形態に係る内視鏡撮像システムを構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図15では図示しないが、内視鏡撮像システムを構成する情報処理装置900に対応する各種の構成を当然備える。
 なお、上述のような本実施形態に係る内視鏡撮像システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
 <<5.応用例>>
 続いて、本開示の一実施形態に係る撮像システムの応用例として、図16を参照して、当該撮像システムを、顕微鏡ユニットを備えた顕微鏡撮像システムとして構成した場合の一例について説明する。
 図16は、本開示の一実施形態に係る撮像システムの応用例について説明するための説明図であり、顕微鏡撮像システムの概略的な構成の一例について示している。具体的には、図16には、本開示の一実施形態に係る顕微鏡撮像システムが用いられる場合の一適用例として、アームを備えた手術用ビデオ顕微鏡装置が用いられる場合の一例について示されている。
 例えば、図16は、手術用ビデオ顕微鏡装置を用いた施術の様子を模式的に表している。具体的には、図16を参照すると、施術者(ユーザ)820である医師が、例えばメス、鑷子、鉗子等の手術用の器具821を使用して、施術台830上の施術対象(患者)840に対して手術を行っている様子が図示されている。なお、以下の説明においては、施術とは、手術や検査等、ユーザ820である医師が施術対象840である患者に対して行う各種の医療的な処置の総称であるものとする。また、図16に示す例では、施術の一例として手術の様子を図示しているが、手術用ビデオ顕微鏡装置810が用いられる施術は手術に限定されず、他の各種の施術であってもよい。
 施術台830の脇には手術用ビデオ顕微鏡装置810が設けられる。手術用ビデオ顕微鏡装置810は、基台であるベース部811と、ベース部811から延伸するアーム部812と、アーム部812の先端に先端ユニットとして接続される撮像ユニット815とを備える。アーム部812は、複数の関節部813a、813b、813cと、関節部813a、813bによって連結される複数のリンク814a、814bと、アーム部812の先端に設けられる撮像ユニット815を有する。図16に示す例では、簡単のため、アーム部812は3つの関節部813a~813c及び2つのリンク814a、814bを有しているが、実際には、アーム部812及び撮像ユニット815の位置及び姿勢の自由度を考慮して、所望の自由度を実現するように関節部813a~813c及びリンク814a、814bの数や形状、関節部813a~813cの駆動軸の方向等が適宜設定されてもよい。
 関節部813a~813cは、リンク814a、814bを互いに回動可能に連結する機能を有し、関節部813a~813cの回転が駆動されることにより、アーム部812の駆動が制御される。ここで、以下の説明においては、手術用ビデオ顕微鏡装置810の各構成部材の位置とは、駆動制御のために規定している空間における位置(座標)を意味し、各構成部材の姿勢とは、駆動制御のために規定している空間における任意の軸に対する向き(角度)を意味する。また、以下の説明では、アーム部812の駆動(又は駆動制御)とは、関節部813a~813cの駆動(又は駆動制御)、及び、関節部813a~813cの駆動(又は駆動制御)を行うことによりアーム部812の各構成部材の位置及び姿勢が変化される(変化が制御される)ことをいう。
 アーム部812の先端には、先端ユニットとして撮像ユニット815が接続されている。撮像ユニット815は、撮像対象物の画像を取得するユニットであり、例えば動画や静止画を撮像できるカメラ等である。図16に示すように、アーム部812の先端に設けられた撮像ユニット815が施術対象840の施術部位の様子を撮像するように、手術用ビデオ顕微鏡装置810によってアーム部812及び撮像ユニット815の姿勢や位置が制御される。なお、アーム部812の先端に先端ユニットとして接続される撮像ユニット815の構成は特に限定されず、例えば、撮像ユニット815は、撮像対象物の拡大像を取得する顕微鏡として構成されている。また、撮像ユニット815は、当該アーム部812に対して着脱可能に構成されていてもよい。このような構成により、例えば、利用用途に応じた撮像ユニット815が、アーム部812の先端に先端ユニットとして適宜接続されてもよい。なお、当該撮像ユニット815として、例えば、前述した実施形態に係る分岐光学系が適用された撮像装置を適用することが可能である。また本説明では、先端ユニットとして撮像ユニット815が適用されている場合に着目して説明したが、アーム部812の先端に接続される先端ユニットは、必ずしも撮像ユニット815に限定されない。
 また、ユーザ820と対向する位置には、モニタやディスプレイ等の表示装置850が設置される。撮像ユニット815によって撮像された施術部位の画像は、表示装置850の表示画面に電子画像として表示される。ユーザ820は、表示装置850の表示画面に表示される施術部位の電子画像を見ながら各種の処置を行う。
 以上のような構成により、手術用ビデオ顕微鏡装置810によって施術部位の撮像を行いながら手術を行うことが可能となる。
 <<6.むすび>>
 以上説明したように、本実施形態に係る撮像装置に適用される分岐光学系は、第1の分岐光学系と第2の分岐光学系とを含む。第1の分岐光学系は、入射光から所定の波長帯域に属する第1の光を、当該入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する。また、第2の分岐光学系は、第1の分岐光学系の後段に設けられ、入射光から上記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、上記平面と交わる第2の方向に分離する。
 以上のような構成により、本実施形態に係る撮像装置は、上記分岐光学系により分離された各光が結像する複数の撮像素子(ひいては、複数の撮像素子それぞれを支持する各基板)を、限られた空間に効率よく配設することが可能となる。そのため、例えば、本実施形態に係る撮像装置に依れば、複数の撮像素子間における物理的干渉(ひいては、各撮像素子を指示する基板間における物理的干渉)を回避することが可能となる。
 また、本実施形態に係る撮像装置を、医療の分野での利用を想定し、Cマウントの規格に基づく撮像装置として構成する場合には、上記分岐光学系を構成する第1の分岐光学系及び第2の分岐光学系が、屈折率Nd≧1.80の条件を満たすとよい。また、この場合においては、当該第1の分岐光学系及び第2の分岐光学系が、屈折率Nd≧1.90、かつアッベ数νd≧30の条件を満たすとなお良い。このような構成とすることで、医療の分野において求められる色再現性の条件を満たし、かつ、Cマウントの規格で規定した各種条件を満たすように光学系を小型化することが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
 前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
 を備える、分岐光学系。
(2)
 前記第2の分岐光学系は、前記第2の光から前記第3の光が分離された第4の光から、当該第4の光の一部である第5の光を、前記平面と交わり、かつ前記第2の方向とは異なる第3の方向に分離する、前記(1)に記載の分岐光学系。
(3)
 前記第2の方向と前記第3の方向とは、前記平面である第1の平面とは法線方向が異なる第2の平面の面方向である、前記(2)に記載の分岐光学系。
(4)
 前記第2の方向は、前記光軸と前記第1の方向とのそれぞれに対して略垂直な方向である、前記(1)~(3)のいずれか一項に記載の分岐光学系。
(5)
 前記第2の光が出射する前記第1の分岐光学系の出射面と、前記第2の分岐光学系の入射面と、の間にエアギャップが設けられた、前記(1)~(4)のいずれか一項に記載の分岐光学系。
(6)
 前記第3の光は、前記第2の光から分離された後に、前記第2の分岐光学系の入射面で反射されて、当該前記第2の分岐光学系の外部に出射する、前記(5)に記載の分岐光学系。
(7)
 前記第1の分岐光学系と前記第2の分岐光学系との間に介在するように配設され、前記所定の波長帯域に属する光を阻止する第1のフィルタを備える、前記(1)~(6)のいずれか一項に記載の分岐光学系。
(8)
 前記第1の分岐光学系の前段に配設され、第1の波長帯域に属する光を阻止する第2のフィルタを備え、
 前記第1の光は、前記第2のフィルタを透過した光のうち、前記第1の波長帯域とは異なる第2の波長帯域に属する光である、
 前記(1)~(6)のいずれか一項に記載の分岐光学系。
(9)
 前記第1の分岐光学系は、前記入射光から前記第1の光を分離するダイクロイック膜を有する、前記(1)~(8)のいずれか一項に記載の分岐光学系。
(10)
 前記第2の分岐光学系は、前記第2の光のうち少なくとも一部から、前記所定の波長帯域とは異なる他の波長帯域に属する光を分離するダイクロイック膜を有する、前記(1)~(9)のいずれか一項に記載の分岐光学系。
(11)
 前記第2の分岐光学系は、前記第2の光のうち少なくとも一部の光路を複数の光路に分岐させるハーフミラーを有する、前記(1)~(10)のいずれか一項に記載の分岐光学系。
(12)
 前記第1の分岐光学系及び前記第2の分岐光学系は、屈折率Nd≧1.80の条件を満たす、前記(1)~(11)のいずれか一項に記載の分岐光学系。
(13)
 前記第1の分岐光学系及び前記第2の分岐光学系は、屈折率Nd≧1.90、かつアッベ数νd≧30.0の条件を満たす、前記(12)に記載の分岐光学系。
(14)
 入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
 前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
 前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、
 前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、
 前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、
 を備える、撮像装置。
(15)
 前記第2の分岐光学系により分離された複数の光それぞれが結像する複数の撮像素子のうちの一部の撮像素子は、光軸を基準として、当該複数の撮像素子のうちの他の撮像素子に対して相対的に、画素が配列された水平方向及び垂直方向の双方に1/2画素分ずれた位置に配設される、前記(14)に記載の撮像装置。
(16)
 前記第1の分岐光学系の入射面と、前記第1の撮像素子~前記第3の撮像素子の少なくともいずれかと、の間の光学的距離が、所定のマウント規格で定められたフランジバック長の条件を満たす、前記(14)または(15)に記載の撮像装置。
(17)
 前記所定のマウント規格はCマウントであり、
 前記光学的距離は、17.526mm以下である、
 前記(16)に記載の撮像装置。
(18)
 光学系ユニットと、
 前記光学系ユニットにより取得された像を撮像する撮像装置と、
 を備え、
 前記撮像装置は、
入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
 前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
 前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、
 前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、
 前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、
 を有する、
 撮像システム。
(19)
 前記光学系ユニットとして、被検体の体腔内に挿入される鏡筒を含む内視鏡部を備える、前記(18)に記載の撮像システム。
(20)
 前記光学系ユニットとして、撮像対象物の拡大像を取得する顕微鏡部を備える、前記(18)に記載の撮像システム。
 100 内視鏡手術システム
 105 カメラヘッド
 221~228 基板
 231、235 第1の撮像素子
 232、236 第2の撮像素子
 233、237 第3の撮像素子
 234、238 第4の撮像素子
 240 マウント台
 250 開口マスク
 400 分岐光学系
 401、501 第1の分岐光学系
 402、502 第2の分岐光学系
 411、511 第1のプリズム
 412、512 第2のプリズム
 413、513 第3のプリズム
 414、514 第4のプリズム
 415、515 第5のプリズム
 421、521 ダイクロイック膜
 422、522 ダイクロイック膜
 423 ダイクロイック膜
 424 バンドパスフィルタ
 425、427~429、525~528 カバーガラス
 426 IRカットフィルタ
 434 バンドパスフィルタ
 523 ハーフミラー膜
 524 IRカットフィルタ

Claims (20)

  1.  入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
     前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
     を備える、分岐光学系。
  2.  前記第2の分岐光学系は、前記第2の光から前記第3の光が分離された第4の光から、当該第4の光の一部である第5の光を、前記平面と交わり、かつ前記第2の方向とは異なる第3の方向に分離する、請求項1に記載の分岐光学系。
  3.  前記第2の方向と前記第3の方向とは、前記平面である第1の平面とは法線方向が異なる第2の平面の面方向である、請求項2に記載の分岐光学系。
  4.  前記第2の方向は、前記光軸と前記第1の方向とのそれぞれに対して略垂直な方向である、請求項1に記載の分岐光学系。
  5.  前記第2の光が出射する前記第1の分岐光学系の出射面と、前記第2の分岐光学系の入射面と、の間にエアギャップが設けられた、請求項1に記載の分岐光学系。
  6.  前記第3の光は、前記第2の光から分離された後に、前記第2の分岐光学系の入射面で反射されて、当該前記第2の分岐光学系の外部に出射する、請求項5に記載の分岐光学系。
  7.  前記第1の分岐光学系と前記第2の分岐光学系との間に介在するように配設され、前記所定の波長帯域に属する光を阻止する第1のフィルタを備える、請求項1に記載の分岐光学系。
  8.  前記第1の分岐光学系の前段に配設され、第1の波長帯域に属する光を阻止する第2のフィルタを備え、
     前記第1の光は、前記第2のフィルタを透過した光のうち、前記第1の波長帯域とは異なる第2の波長帯域に属する光である、
     請求項1に記載の分岐光学系。
  9.  前記第1の分岐光学系は、前記入射光から前記第1の光を分離するダイクロイック膜を有する、請求項1に記載の分岐光学系。
  10.  前記第2の分岐光学系は、前記第2の光のうち少なくとも一部から、前記所定の波長帯域とは異なる他の波長帯域に属する光を分離するダイクロイック膜を有する、請求項1に記載の分岐光学系。
  11.  前記第2の分岐光学系は、前記第2の光のうち少なくとも一部の光路を複数の光路に分岐させるハーフミラーを有する、請求項1に記載の分岐光学系。
  12.  前記第1の分岐光学系及び前記第2の分岐光学系は、屈折率Nd≧1.80の条件を満たす、請求項1に記載の分岐光学系。
  13.  前記第1の分岐光学系及び前記第2の分岐光学系は、屈折率Nd≧1.90、かつアッベ数νd≧30.0の条件を満たす、請求項12に記載の分岐光学系。
  14.  入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
     前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
     前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、
     前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、
     前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、
     を備える、撮像装置。
  15.  前記第2の分岐光学系により分離された複数の光それぞれが結像する複数の撮像素子のうちの一部の撮像素子は、光軸を基準として、当該複数の撮像素子のうちの他の撮像素子に対して相対的に、画素が配列された水平方向及び垂直方向の双方に1/2画素分ずれた位置に配設される、請求項14に記載の撮像装置。
  16.  前記第1の分岐光学系の入射面と、前記第1の撮像素子~前記第3の撮像素子の少なくともいずれかと、の間の光学的距離が、所定のマウント規格で定められたフランジバック長の条件を満たす、請求項14に記載の撮像装置。
  17.  前記所定のマウント規格はCマウントであり、
     前記光学的距離は、17.526mm以下である、
     請求項16に記載の撮像装置。
  18.  光学系ユニットと、
     前記光学系ユニットにより取得された像を撮像する撮像装置と、
     を備え、
     前記撮像装置は、
    入射光から所定の波長帯域に属する第1の光を、前記入射光が入射する入射面の法線方向に対応する光軸を含む平面の面方向である第1の方向に分離する第1の分岐光学系と、
     前記第1の分岐光学系の後段に設けられ、前記入射光から前記第1の光が分離された第2の光から、当該第2の光の一部である第3の光を、前記平面と交わる第2の方向に分離する第2の分岐光学系と、
     前記第1の分岐光学系の後段に設けられ、前記第1の光が結像する第1の撮像素子と、
     前記第2の分岐光学系の後段に設けられ、前記第3の光のうち少なくとも一部が結像する第2の撮像素子と、
     前記第2の分岐光学系の後段に設けられ、前記第2の光から前記第3の光が分離された第4の光のうち少なくとも一部が結像する第3の撮像素子と、
     を有する、
     撮像システム。
  19.  前記光学系ユニットとして、被検体の体腔内に挿入される鏡筒を含む内視鏡部を備える、請求項18に記載の撮像システム。
  20.  前記光学系ユニットとして、撮像対象物の拡大像を取得する顕微鏡部を備える、請求項18に記載の撮像システム。
PCT/JP2017/037452 2017-01-16 2017-10-17 分岐光学系、撮像装置、及び撮像システム WO2018131240A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780071318.0A CN109963490B (zh) 2017-01-16 2017-10-17 分支光学***、成像装置及成像***
US16/461,794 US10788676B2 (en) 2017-01-16 2017-10-17 Branching optical system, imaging apparatus, and imaging system
EP17890971.9A EP3569135A4 (en) 2017-01-16 2017-10-17 OPTICAL BYPASS SYSTEM, IMAGING DEVICE AND IMAGING SYSTEM
JP2018561812A JP6996518B2 (ja) 2017-01-16 2017-10-17 分岐光学系、撮像装置、及び撮像システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017005249 2017-01-16
JP2017-005249 2017-01-16

Publications (1)

Publication Number Publication Date
WO2018131240A1 true WO2018131240A1 (ja) 2018-07-19

Family

ID=62839664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/037452 WO2018131240A1 (ja) 2017-01-16 2017-10-17 分岐光学系、撮像装置、及び撮像システム

Country Status (5)

Country Link
US (1) US10788676B2 (ja)
EP (1) EP3569135A4 (ja)
JP (1) JP6996518B2 (ja)
CN (1) CN109963490B (ja)
WO (1) WO2018131240A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021044790A (ja) * 2019-09-10 2021-03-18 株式会社三井光機製作所 小型化光束分離光学系および光学機器
JP7397953B2 (ja) 2018-07-27 2023-12-13 京セラ株式会社 電磁波検出装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244478B2 (en) * 2016-03-03 2022-02-08 Sony Corporation Medical image processing device, system, method, and program
EP3682202A4 (en) * 2017-09-15 2021-07-14 Kent Imaging HYBRID IMAGING IN THE VISIBLE AND NEAR INFRARED AREA WITH AN RGB COLOR FILTER ARRAY SENSOR
JP6765494B1 (ja) 2019-10-31 2020-10-07 パナソニックi−PROセンシングソリューションズ株式会社 3板式カメラ
JP7287676B2 (ja) * 2020-04-17 2023-06-06 i-PRO株式会社 3板式カメラおよび4板式カメラ
US11602267B2 (en) * 2020-08-28 2023-03-14 Karl Storz Imaging, Inc. Endoscopic system incorporating multiple image sensors for increased resolution
CN117768793B (zh) * 2024-02-22 2024-05-17 长春市榣顺科技有限公司 一种大视场、长焦距、高分辨率的探测仪器及探测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341110A (ja) * 1992-06-10 1993-12-24 Matsushita Electric Ind Co Ltd 3色分解プリズム
WO2013084434A1 (ja) * 2011-12-09 2013-06-13 パナソニック株式会社 三板カメラ装置
JP2016178995A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5640206A (en) * 1994-05-31 1997-06-17 Victor Company Of Japan, Ltd. Imaging apparatus including offset pixels for generating vertical high frequency component
JP4839632B2 (ja) * 2005-02-25 2011-12-21 ソニー株式会社 撮像装置
CN100449334C (zh) * 2006-08-14 2009-01-07 上海飞锐光电科技有限公司 三色光等腰梯形合色组合棱镜
JP2008250122A (ja) * 2007-03-30 2008-10-16 Fujinon Corp 色分解光学系および撮像装置
JP5942041B2 (ja) * 2013-08-29 2016-06-29 富士フイルム株式会社 色分解光学系及び撮像装置
EP3081974B1 (en) * 2013-12-09 2020-06-03 Nikon Corporation Optical apparatus, measuring apparatus, measuring method, screening apparatus, and screening method
AU2014373656B2 (en) * 2013-12-31 2019-12-05 Cornell University Systems, methods, and apparatus for multichannel imaging of fluorescent sources in real time
JP2016075825A (ja) * 2014-10-07 2016-05-12 パナソニックIpマネジメント株式会社 色分解プリズム及び撮像装置
JP6377181B2 (ja) * 2015-01-22 2018-08-22 オリンパス株式会社 撮像装置
US10091478B2 (en) * 2015-04-30 2018-10-02 Sony Corporation Projection display apparatus
US11988854B2 (en) * 2015-08-24 2024-05-21 Akonia Holographics Llc Wide field-of-view holographic skew mirrors
CN105737733A (zh) * 2016-02-04 2016-07-06 浙江理工大学 一种大范围绝对距离测量中空气折射率的修正方法
KR102568789B1 (ko) * 2016-03-10 2023-08-21 삼성전자주식회사 무기 컬러 필터를 포함하는 컬러 필터 어레이, 상기 컬러 필터 어레이를 포함하는 이미지 센서 및 디스플레이 장치
CN108885301B (zh) * 2016-04-04 2021-04-09 阿康尼亚全像有限责任公司 光瞳均衡
JP6738070B2 (ja) * 2016-07-12 2020-08-12 国立研究開発法人産業技術総合研究所 光学的検出装置及び光学的検出方法
JP2018027272A (ja) * 2016-08-19 2018-02-22 ソニー株式会社 撮像システム
CN109792132B (zh) * 2016-11-29 2021-05-11 极光先进雷射株式会社 激光加工***以及激光加工方法
US10663732B2 (en) * 2016-12-23 2020-05-26 North Inc. Systems, devices, and methods for beam combining in wearable heads-up displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05341110A (ja) * 1992-06-10 1993-12-24 Matsushita Electric Ind Co Ltd 3色分解プリズム
WO2013084434A1 (ja) * 2011-12-09 2013-06-13 パナソニック株式会社 三板カメラ装置
JP2016178995A (ja) 2015-03-23 2016-10-13 パナソニックIpマネジメント株式会社 内視鏡及び内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3569135A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7397953B2 (ja) 2018-07-27 2023-12-13 京セラ株式会社 電磁波検出装置
JP2021044790A (ja) * 2019-09-10 2021-03-18 株式会社三井光機製作所 小型化光束分離光学系および光学機器

Also Published As

Publication number Publication date
CN109963490B (zh) 2022-07-12
JPWO2018131240A1 (ja) 2019-11-07
US20190361252A1 (en) 2019-11-28
EP3569135A1 (en) 2019-11-20
EP3569135A4 (en) 2020-09-16
US10788676B2 (en) 2020-09-29
JP6996518B2 (ja) 2022-02-04
CN109963490A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
US11788966B2 (en) Imaging system
WO2018131240A1 (ja) 分岐光学系、撮像装置、及び撮像システム
JP7095693B2 (ja) 医療用観察システム
JP2019185002A (ja) 顕微鏡システム及び医療用光源装置
WO2019181154A1 (ja) 信号処理装置、信号処理方法、撮像装置および医療用撮像装置
WO2022044897A1 (ja) 医療撮像システム、医療撮像装置、および動作方法
WO2019239942A1 (ja) 手術用観察装置、手術用観察方法、手術用光源装置、及び手術用の光照射方法
WO2019198553A1 (en) Microscope system and medical light source apparatus
JP7230807B2 (ja) 信号処理装置、撮像装置、信号処理方法及びプログラム
WO2018221068A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2018230510A1 (ja) 画像処理装置、画像処理方法および撮像システム
WO2018088237A1 (ja) 画像処理装置および設定方法、並びにプログラム
WO2019198293A1 (ja) 顕微鏡システム及び医療用光源装置
WO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2022044898A1 (ja) 医療撮像システム、医療撮像装置、および動作方法
WO2018088238A1 (ja) 画像処理装置および制御方法、並びにプログラム
JPWO2019244442A1 (ja) 交換レンズ、撮像装置及び回転検出装置
WO2018088236A1 (ja) 画像処理装置および方法、並びにプログラム
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP7420141B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
WO2024070754A1 (ja) 光学系、撮像装置及び内視鏡システム
WO2014054742A1 (ja) 内視鏡システムおよびその制御方法
WO2019202860A1 (ja) 医療用システム、接続構造、及び接続方法
WO2019003752A2 (en) SYSTEM, METHOD, AND COMPUTER PROGRAM PRODUCT FOR MEDICAL IMAGING

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17890971

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018561812

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017890971

Country of ref document: EP