WO2013054835A1 - 内視鏡システム及び画像生成方法 - Google Patents

内視鏡システム及び画像生成方法 Download PDF

Info

Publication number
WO2013054835A1
WO2013054835A1 PCT/JP2012/076291 JP2012076291W WO2013054835A1 WO 2013054835 A1 WO2013054835 A1 WO 2013054835A1 JP 2012076291 W JP2012076291 W JP 2012076291W WO 2013054835 A1 WO2013054835 A1 WO 2013054835A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
high absorption
subject
wavelength range
Prior art date
Application number
PCT/JP2012/076291
Other languages
English (en)
French (fr)
Inventor
山口 博司
小澤 聡
飯田 孝之
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP12839296.6A priority Critical patent/EP2767210A4/en
Priority to CN201280049613.3A priority patent/CN103857321B/zh
Publication of WO2013054835A1 publication Critical patent/WO2013054835A1/ja
Priority to US14/251,043 priority patent/US20140221794A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F04POSITIVE - DISPLACEMENT MACHINES FOR LIQUIDS; PUMPS FOR LIQUIDS OR ELASTIC FLUIDS
    • F04CROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT MACHINES FOR LIQUIDS; ROTARY-PISTON, OR OSCILLATING-PISTON, POSITIVE-DISPLACEMENT PUMPS
    • F04C2270/00Control; Monitoring or safety arrangements
    • F04C2270/04Force
    • F04C2270/041Controlled or regulated

Definitions

  • the present invention relates to an endoscope system and an image generation method capable of clearly observing a fine structure such as a pit pattern formed on a living tissue and an uneven pattern such as thickening.
  • Patent Document 1 it is formed in the surface layer of a living tissue by blue narrow band light of short wavelength, utilizing the fact that the depth of penetration of living tissue in the depth direction and the absorption characteristics of blood hemoglobin have wavelength dependency. While clarifying fine structures such as fine blood vessels and pit patterns, thick narrow blood vessels located in the middle and deep layers of living tissue are clarified with green narrow band light longer in wavelength than blue narrow band light. These superficial and middle deep blood vessels and superficial fine structures are important clues in cancer discrimination and deep-seated diagnosis, so differentiation is achieved by clarifying with blue narrow band light or green narrow band light. Accuracy can be dramatically improved.
  • Patent Document 2 when living tissue is irradiated with excitation light for exciting autofluorescence, autofluorescence emitted from a lesion site that is thickened by a lesion such as cancer is from a normal site that is not thickened.
  • the boundary between the lesion site and the normal site is intended to be clarified by utilizing the characteristic that the light intensity is reduced rather than the autofluorescence.
  • diagnosis may be carried out focusing on only the uneven patterns.
  • diagnosis may be carried out focusing on only the concavo-convex pattern.
  • Patent Document 1 does not describe or suggest the clarification of only the uneven pattern. Moreover, according to Patent Document 2, it is possible to clarify thickening among the concavo-convex patterns. However, since autofluorescence used for detection of thickening is weak, a high sensitivity imaging device such as EMCCD is separately required to capture the fluorescence with high sensitivity.
  • An object of the present invention is to provide an endoscope system and an image generation method capable of improving the visibility of irregularities on a living tissue such as a surface layer microstructure and thickening.
  • the endoscope system of the present invention is based on an illumination means for illuminating the subject with illumination light, an image signal acquisition means for acquiring an image signal by imaging the image light of the reflected light from the subject, and the image signal. And a concavo-convex image generation unit configured to generate a concavo-convex image in which the visibility of the concavities and convexities on the living tissue is relatively improved by suppressing the display of the blood vessel in the subject.
  • the concavo-convex image generation means relatively suppresses the display of the blood vessel based on the signal from which the component of the first high absorption wavelength range having a high absorption coefficient of blood hemoglobin is removed in the blue wavelength range of the image signal. It is preferable to have the fine structure image generation part which produces
  • the first high absorption wavelength range is preferably 400 to 450 nm.
  • the concavo-convex image generation means relatively suppresses the display of the blood vessel based on the signal from which the component of the second high absorption wavelength range having a high absorption coefficient of blood hemoglobin is removed in the green wavelength range of the image signal. It is preferable to have a microstructure image generation unit that generates a microstructure image in which the visibility of thickening is improved.
  • the second high absorption wavelength range is preferably 520 to 580 nm.
  • the illumination means further includes a high absorption wavelength removal filter for removing a high absorption wavelength range component having a high absorption coefficient of blood hemoglobin in the illumination light, and the image signal acquisition means removes the high absorption wavelength It is preferable to image the image light of the reflected light of the subject from which the component of the high absorption wavelength range has been removed by the filter.
  • imaging of the subject is performed by a color imaging element having pixels of a plurality of colors provided with a color separation filter.
  • the illumination unit performs imaging of the subject with a monochrome imaging element each time the light of a plurality of colors is sequentially irradiated to the subject and the light of the plurality of colors is sequentially irradiated to the subject.
  • the illumination means includes surface illumination light from which the first high absorption wavelength component having high absorption coefficient of blood hemoglobin is removed in the blue wavelength range, and the first absorption light having high absorption coefficient of blood hemoglobin in the green wavelength range. It is preferable to sequentially irradiate the medium depth illumination light from which components in the high absorption wavelength range have been removed, and to perform imaging of the subject each time irradiation is sequentially performed by the illumination means.
  • the concavo-convex image generation means acquires a spectral image of a wavelength component other than the wavelength component having a high light absorption coefficient of blood hemoglobin in the reflected light by spectral estimation based on the image signal, and generates a concavo-convex image based on the spectral image It is preferable to have an image generation unit. Furthermore, it is preferable to provide a display means for displaying an uneven image.
  • an image signal is acquired by the image signal acquisition unit by irradiating the object with illumination light by the illumination unit and capturing an image of reflected light from the object, and based on the image signal,
  • An unevenness image generation unit generates an unevenness image in which the visibility of the unevenness on the living tissue is relatively improved by suppressing the display of blood vessels in the subject.
  • the unevenness image obtained by the unevenness image generation means relatively improves the visibility of the unevenness on the living tissue by suppressing the display of the blood vessel in the subject.
  • the endoscope system 10 includes an electronic endoscope 11 (one aspect of an image signal acquisition unit) for imaging the inside of a subject and the electronic endoscope 11.
  • a processor unit 12 that performs various image processing on the captured image
  • a light source unit 13 that supplies light illuminating the subject to the electronic endoscope 11, and a monitor that displays the image on which the various image processes have been performed by the processor unit 12.
  • fourteen fourteen.
  • the electronic endoscope 11 includes a flexible insertion portion 16 to be inserted into a subject, an operation portion 17 provided at a proximal end portion of the insertion portion 16, an operation portion 17, a processor device 12, and a light source device 13. And a universal cord 18 connecting the two.
  • the distal end of the insertion portion 16 is formed with a bending portion 19 in which a plurality of bending pieces are connected.
  • the bending portion 19 bends in the vertical and horizontal directions by operating the angle knob 21 of the operation portion 17.
  • a tip portion 16a incorporating an optical system or the like for imaging inside a body cavity is provided at the tip of the bending portion 19.
  • the distal end portion 16 a is directed in a desired direction in the subject by the bending operation of the bending portion 19.
  • the operation unit 17 is provided with a mode switching switch 15 for switching to various modes.
  • the modes are a normal observation mode in which a normal light image obtained by imaging a subject illuminated with white light is displayed on the monitor 14, and a microstructure-emphasized image emphasizing a microstructure formed on the surface of a living tissue.
  • the microstructure observation mode in which the image is displayed on the monitor 14, the thickening observation mode in which a thickness-weighted thickened thickening-emphasized image is displayed in the surface layer to the middle-deep layer in the living tissue, and the microstructure and thickening both in microstructure and thickening A total of four modes, that is, a fine structure / thickening observation mode, in which a highlighted image is displayed on the monitor 14 are configured.
  • a connector 24 is attached to the universal cord 18 on the side of the processor unit 12 and the light source unit 13.
  • the connector 24 is a composite type connector including a communication connector and a light source connector, and the electronic endoscope 11 is detachably connected to the processor device 12 and the light source device 13 via the connector 24.
  • the light source device 13 (one embodiment of the illumination means) includes an excitation light source 30, a fluorescent body 31, a filter insertion and removal unit 32, and a high absorption wavelength removal filter 33.
  • the excitation light source 30 is composed of a semiconductor light source such as a laser diode, and emits excitation light EL having a central wavelength of 445 nm as shown in FIG.
  • the excitation light EL is applied to the phosphor 31 attached to the emission part of the excitation light source 30.
  • fluorescent substance 31 plural kinds of fluorescent substances (for example, YAG fluorescent substances or fluorescent substances such as BAM (BaMgAl 10 O 17 )) which absorb a part of the excitation light EL and excite the green to red fluorescence FL It is comprised including.
  • the fluorescence FL excited and emitted by the phosphor 31 is combined with the excitation light EL that is not absorbed by the phosphor 31 and transmitted, thereby generating white light W.
  • the filter inserting / removing unit 32 inserts the high absorption wavelength removal filter 33 into the optical path Lw of the white light W according to the set mode, and the retraction position for retracting the high absorption wavelength removal filter 33 from the optical path Lw. And the high absorption wavelength removal filter 33 is moved between them.
  • the high absorption wavelength removal filter 33 is set at the retracted position.
  • the white light W is incident on the light guide 43 through the condenser lens 34.
  • the fine structure observation mode, the thickening observation mode, and the fine structure / thickening observation mode are set, the high absorption wavelength removal filter 33 is set at the insertion position.
  • the transmitted high absorption wavelength cut light Wcut is incident on the light guide 43 through the condenser lens 34.
  • the high absorption wavelength removal filter 32 cuts light of a high absorption wavelength range A1 of 400 nm to 450 nm and a high absorption wavelength range A2 of 520 nm to 580 nm (transmittance 0%) while Light in wavelength bands other than the wavelength bands A1 and A2 is transmitted as it is (transmittance 100%).
  • the high absorption wavelength cut light Wcut from which the high absorption wavelengths A1 and A2 are removed from the white light W is emitted from the high absorption wavelength removal filter 32.
  • the reason for cutting the light in the high absorption wavelength ranges A1 and A2 in this way is as follows. As shown in FIG. 4, the light in the high absorption wavelength ranges A1 and A2 exhibits high absorption characteristics for hemoglobin in blood. Therefore, when an image based on the image light in the high absorption wavelength ranges A1 and A2 is displayed on the monitor 14, the blood vessel is highlighted because the contrast between the blood vessel and the other tissues is high. Therefore, when diagnosis is performed by focusing attention not on blood vessels but on surface fine structures such as pit patterns and unevennesses such as thickened thickening from the surface layer to the middle and deep layers of the living tissue, clarification of blood vessels reduces the diagnostic capability.
  • the light with high absorption wavelength range A1 and A2 having high absorption characteristics is cut by the high absorption wavelength removal filter 32 to suppress the display of blood vessels when displayed on the monitor 14 .
  • the visibility of the unevenness on the living tissue such as the surface layer microstructure and thickening other than the blood vessel is improved.
  • the electronic endoscope 11 includes a light guide 43, a CCD 44, an analog processing circuit 45 (AFE: Analog Front End), an imaging control unit 46, and a magnification control unit 47.
  • the light guide 43 is a large-diameter optical fiber, a bundle fiber, or the like, the incident end is connected to the inside of the light source device, and the exit end is directed to the zoom lens 48 a. Therefore, the light guided in the light guide 43 is irradiated into the subject through the irradiation lens 48 b and the illumination window 49.
  • the observation window 50 receives the reflected light from the subject. The received light is incident on the CCD 44 through the condenser lens 51 and the zoom lens 48 a.
  • An actuator 48 c is attached to the zoom lens 48 a for moving the zoom lens 48 a in the optical axis direction.
  • the actuator 48 c is driven and controlled by a magnification control unit 47 connected to the controller 59.
  • the magnification control unit 47 controls the actuator 48 c so that the zoom lens 48 a moves to a position according to the magnification set by the zoom operation unit 20.
  • the zoom lens 48a is set at the wide position, and a non-enlarged image as shown in FIG. 5A is displayed on the monitor 14.
  • the zoom lens 48a is set at the tele position, and the magnified image as shown in FIG. 5B is displayed on the monitor 14. .
  • the zoom lens 48a In the normal observation mode and the thickening observation mode, the zoom lens 48a is often set at the wide position because the general appearance in the subject is often observed. On the other hand, in the fine structure observation mode, since the object to be observed is often enlarged and observed, the zoom lens 48a is often set at the tele position.
  • the CCD 44 includes an imaging surface 44a that receives incident light, and photoelectric conversion is performed on the imaging surface 44a to accumulate signal charges. The accumulated signal charge is read out as an imaging signal and sent to the AFE 45.
  • the CCD 44 is a color CCD, and as shown in FIG. 6A, the imaging surface 44a includes a B pixel provided with a B filter 44b for B, a G pixel provided with a G filter 44g for G, and an R of R A large number of three color pixels of R pixels provided with the filter 44r are arranged.
  • the B filter 44b, the G filter 44g, and the R filter 44r have B, G, R transmission regions 52, 53, 54 as shown in FIG. 6B.
  • the B transmission region 52 occupies a wavelength range of 380 to 560 nm
  • the G transmission region 53 occupies a wavelength range of 450 to 630 nm
  • the R transmission region 54 occupies a wavelength range of 580 to 780 nm.
  • the wavelength components received by the filters 44b, 44g and 44r are also different.
  • white light W is incident on the pixels of each color of the CCD 44. Therefore, the wavelength component of the white light W contained in the B transmission region 52 is incident on the B pixel, the wavelength component of the white light W contained in the G transmission region 53 is incident on the G pixel, and the R transmission is provided to the R pixel.
  • the wavelength component of the white light W contained in the area 54 is incident.
  • the high absorption wavelength cut light Wcut is incident on the pixels of each color of the CCD 44. Therefore, as shown in FIG. 7A, the first transmitted light of 380 to 400 nm and 450 to 500 nm included in the B transmission region 52 is incident on the B pixel of the CCD 44 as shown in FIG. 7A.
  • the first transmitted light has a depth of penetration to the surface of the living tissue, and the absorption characteristic of hemoglobin is lower than the high absorption wavelength range A1 of 400 to 450 nm.
  • the surface micro structure such as a pit pattern is suppressed by suppressing the display of the blood vessels.
  • the second transmitted light of 450 to 520 nm and 580 to 630 nm included in the G transmission region of the high absorption wavelength cut light Wcut is incident on the G pixel of the CCD 44.
  • the second transmitted light has a deep penetration depth to the middle and deep layers of the living tissue, and the absorption characteristic of hemoglobin is lower than that in the high absorption wavelength range A2 of 520 to 580 nm. Therefore, when the captured image of the image light of the second transmitted light is displayed on the monitor 14, while the display of the mid-deep blood vessel is suppressed, the display suppression of the blood vessel causes a thickened thickness from the surface layer to the middle-deep layer Improves the visibility of Then, as shown in FIG. 7C, the third transmitted light of 580 to 780 nm included in the R transmission region of the high absorption wavelength cut light Wcut is incident on the R pixel of the CCD 44.
  • the AFE 45 is composed of a correlated double sampling circuit (CDS), an automatic gain control circuit (AGC), and an analog / digital converter (A / D) (all not shown).
  • the CDS performs correlated double sampling processing on the imaging signal from the CCD 44 and removes noise generated by driving of the CCD 44.
  • the AGC amplifies an imaging signal from which noise has been removed by the CDS.
  • the A / D converts the imaging signal amplified by the AGC into a digital imaging signal of a predetermined number of bits and inputs the digital imaging signal to the processor device 12.
  • the imaging control unit 46 is connected to the controller 59 in the processor unit 12 and sends a drive signal to the CCD 44 when instructed by the controller 59.
  • the CCD 44 outputs an imaging signal to the AFE 45 at a predetermined frame rate based on the drive signal from the imaging control unit 46.
  • the signals output from the B pixel, the G pixel, and the R pixel of the CCD 44 in the normal observation mode are referred to as a blue signal Bc, a green signal Gc, and a red signal Rc, respectively.
  • the image light of high absorption wavelength cut light Wcut is photoelectrically converted within one frame period.
  • the steps of converting and accumulating the signal charge and reading out the accumulated signal charge are performed. This imaging control is repeatedly performed.
  • signals output from the B pixel, G pixel, and R pixel of the CCD 44 in the microstructure observation mode, the thickening observation mode, and the microstructure / thickening observation mode are blue signal Bp, green signal Gp, and red signal Rp, respectively.
  • the processor unit 12 includes a normal light image generation unit 55, a frame memory 56, a special light image generation unit 57 (one aspect of the concavo-convex image generation means), and a display control circuit 58.
  • the controller 59 controls each part.
  • the normal light image generation unit 55 generates a normal light image from the signals Bc, Gc, and Rc obtained in the normal observation mode.
  • the generated normal light image is temporarily stored in the frame memory 56.
  • the special light image generation unit 57 includes a fine structure image generation unit 61, a thick image generation unit 62, and a fine structure / thick image generation unit 63.
  • the microstructure image generation unit 61 generates a microstructure image in which the visibility of the surface microstructure such as the pit pattern is improved based on the blue signal Bp acquired in the microstructure observation mode.
  • the generated fine structure image 68 is displayed on the monitor 14 by the display control circuit 58, as shown in FIG.
  • the display control circuit 58 since the high absorption wavelength cut light Wcut from which the high absorption wavelength range A1 is removed is generated, the display of the surface layer microvessel 70 is suppressed. By the suppression of the display, the visibility of the fine structure 71 is relatively improved.
  • the thickening image generation unit 62 generates a thickening image in which the visibility of the thickening is improved based on the green signal Gp and the red signal Rp acquired in the thickening observation mode.
  • the generated thickened image 78 is displayed on the monitor 14 by the display control circuit 58, as shown in FIG.
  • the display of the middle deep blood vessel 80 is suppressed. By suppressing this display, the visibility of the thickening 81 is relatively improved.
  • the fine structure / thickening image generation unit 63 is a fine structure, in which the visibility of both the fine structure and the thickening is improved based on the blue signal Bp, the green signal Gp, and the red signal Rp acquired in the fine structure / thickening observation mode. Generate a thickening image.
  • the generated fine structure / thickened image is displayed on the monitor 14 by the display control circuit 58.
  • the high absorption wavelength removal filter 33 When the mode is switched to the fine structure observation mode by the mode switching SW 15, the high absorption wavelength removal filter 33 is inserted into the optical path Lw of the white light W. As a result, the high absorption wavelength cut light Wcut from which the wavelength components of the high absorption wavelength regions A1 and A2 are removed from the white light W is emitted from the high absorption wavelength removal filter 33.
  • the transmitted high absorption wavelength cut light Wcut is irradiated to the subject via the condenser lens 34, the light guide 43, and the like.
  • the image light of the return light from the subject is imaged by the color CCD 44.
  • the blue signal Bp, the green signal Gp, and the red signal Rp are output from the B pixel, the G pixel, and the R pixel of the CCD 44.
  • a microstructure image in which the visibility of the surface layer microstructure is improved is generated.
  • the generated fine structure image is displayed on the monitor 14 by the display control circuit 58.
  • the white light W is generated by irradiating the fluorescent light 31 with the excitation light EL to excite the fluorescence FL, but instead, as shown in FIG.
  • white light W having a wavelength range of, for example, 380 to 700 nm may be generated.
  • the light source is not limited to the xenon lamp, and may be a halogen lamp or any other light source capable of emitting light in a wide band ranging from blue to red in the wavelength range.
  • the endoscope system 100 of the second embodiment differs from the first embodiment in which an object is imaged by a simultaneous method using a color CCD 44, and a surface sequential method using a monochrome CCD 144.
  • the subject is imaged at. Therefore, the configuration of the light source device 113 is different from that of the light source device 13 of the first embodiment.
  • the CCD in the electronic endoscope 11 is the monochrome imaging element 144 in which the color filter is not provided, the imaging control method of the CCD 144 is also different from the first embodiment.
  • the other aspects are the same as in the first embodiment, and thus the description will be omitted.
  • the light source device 113 includes an excitation light source 30, a phosphor 31, an RGB rotary filter 134, a filter inserting and removing unit 32, and a high absorption wavelength removal filter 33. Also in the second embodiment, the white light W is generated by the excitation light source 30 and the phosphor 31.
  • the RGB rotary filter 134 has a disk shape as shown in FIG. 14 and is divided into three in the circumferential direction and has a B filter portion 134 b and a G filter portion in a fan-shaped area having a central angle of 120 °. A 134g R filter unit 134r is provided.
  • the rotary filter 134 is rotatably provided such that the B filter portion 134a, the G filter portion 134b, and the R filter portion 134c are selectively inserted into the optical path Lw of the white light W.
  • the B filter section 134b has a B transmission area similar to the B filter 44b of the CCD 44 of the first embodiment.
  • the G filter portion 134g and the R filter portion 134r have the same G transmission region and R transmission region as the G filter 44g and the R filter 44r of the CCD 44, respectively.
  • the high absorption wavelength removing filter 33 is set at the retracted position when the filter inserting and removing unit 32 is set in the normal observation mode.
  • the white light W from the phosphor 31 is incident on the rotating RGB rotary filter 134 without passing through the high absorption wavelength removal filter 33.
  • the RGB rotary filter 134 when the B filter portion 134b is inserted into the light path Lw, B light in the blue band is transmitted from the white light W, and when the G filter portion 134g is inserted into the light path Lw The G light in the band is transmitted, and the R light in the red band is transmitted from the white light W when the R filter portion 134r is inserted into the optical path Lw.
  • the B, G and R lights are sequentially emitted from the RGB rotary filter 134.
  • the sequentially emitted B light, G light, and R light are incident on the light guide 43 through the condenser lens 34 to irradiate the subject.
  • the high absorption wavelength removal filter 33 is set at the insertion position as in the first embodiment.
  • the white light W from the phosphor 31 is incident on the high absorption wavelength removal filter 33.
  • the high absorption wavelength removal filter 33 is the same as that of the first embodiment, and transmits the high absorption wavelength cut light Wcut from which the wavelength components in the high absorption wavelength ranges A1 and A2 of the white light W are removed.
  • the transmitted high absorbance wavelength cut light Wcut is incident on the rotating RGB rotary filter 134.
  • the B filter portion 134 b of the RGB rotary filter 134 When the B filter portion 134 b of the RGB rotary filter 134 is inserted into the light path Lw, the first transmission light included in the B transmission region of the high absorption wavelength cut light Wcut is transmitted. In addition, when the G filter unit 134g is inserted into the light path Lw, the second transmission light included in the G transmission region in the high absorption wavelength cut light Wcut is transmitted. Further, when the R filter portion 134r is inserted into the light path Lw, the third transmission light included in the R transmission region in the high absorption wavelength cut light Wcut is transmitted. As a result, the first transmitted light, the second transmitted light, and the third transmitted light are sequentially emitted from the RGB rotary filter 134. The first transmitted light, the second transmitted light, and the third transmitted light sequentially emitted are incident on the light guide 43 through the condensing lens 34.
  • the imaging control unit 46 of the second embodiment performs imaging control of the monochrome CCD 144 as follows.
  • image light of three colors B, G and R is sequentially imaged to accumulate charges, and field-sequential imaging signals B, G and R are based on the accumulated charges. Output sequentially. This series of operations is repeated while the normal observation mode is set.
  • the plane-sequential imaging signals B, G, and R substantially correspond to Bc, Gc, and Rc in the first embodiment, respectively.
  • the image light of the first transmitted light, the second transmitted light, and the third transmitted light is sequentially imaged and the charge is Are accumulated, and the plane-sequential imaging signals X1, X2, and X3 are sequentially output based on the accumulated charges.
  • This series of operations is repeated while being set in the microstructure observation mode, the thickening observation mode, and the microstructure / thickening observation mode.
  • the plane sequential imaging signals X1, X2, and X3 correspond to Bp, Gp, and Rp in the first embodiment, respectively.
  • the endoscope system 200 of the third embodiment uses a high absorption wavelength removing filter 33 which can be inserted into and removed from the optical path Lw of the white light W to generate the high absorption wavelength cut light Wcut.
  • a special observation rotary filter 234 is used.
  • the use of the special observation rotary filter 234 makes the imaging control method of the color CCD 44 different from that of the first embodiment. Further, the method of generating an image of a fine structure image, a thick image, a fine structure / thick image is different from that of the first embodiment.
  • the other aspects are the same as in the first embodiment, and thus the description will be omitted.
  • the special observation rotary filter 234 transmits the illumination light for surface layer used to improve the visibility of the surface layer microstructure in the opening 234 a for transmitting the white light W as it is and the white light W.
  • a 1 BPF (band pass filter) 234 b and a second BPF (band pass filter) 234 c for transmitting medium-depth illumination light used to improve visibility of thickening of the white light W are provided along the circumferential direction.
  • the special observation rotary filter 234 is rotatably provided so that the opening 234a, the first BPF 234b, and the second BPF 234c are selectively inserted into the optical path Lw of the white light W.
  • the first BPF 234 b cuts (light transmittance 0%) light in the high absorption wavelength range A1 of 400 to 450 nm and light in the wavelength range of 500 nm or more among blue components of the white light W. Other than this, light of 400 nm or less and light of 450 to 500 nm are transmitted as they are (transmittance 100%). Therefore, the surface layer illumination light obtained by the white light W transmitting through the first BPF 234 b is light having a wavelength range of 400 nm or less and 450 to 500 nm. On the other hand, as shown in FIG.
  • the second BPF 234c cuts the light of the high absorption wavelength range A2 of 520 to 580 nm and the light of the wavelength range of 500 nm or less among the green and red components of the white light W,
  • the light in the wavelength range of 500 to 520 nm and the light in the wavelength range of 580 nm or more are directly transmitted. Therefore, the illumination light for the middle deep layer obtained by the white light W transmitting through the second BPF 234 c is light having a wavelength range of 500 to 520 nm and a wavelength range of 580 nm or more.
  • the white light W when the opening 234a is inserted in the light path Lw, the white light W is transmitted as it is, and when the first BPF 234b is inserted in the light path Lw, the surface light for the white light W is transmitted.
  • the second BPF 234 c is inserted into the light path Lw, the illumination light for the middle deep layer in the white light W is transmitted.
  • the white light W, the illumination light for the surface layer, and the illumination light for the middle and deep layers are sequentially emitted from the special observation rotary filter 234.
  • the white light W, the surface illumination light, and the middle deep illumination light, which are sequentially emitted, enter the light guide 43 through the condenser lens 34.
  • the imaging control unit 46 of the third embodiment performs imaging control of the color CCD 44 as follows.
  • image light of white light W is imaged and charges are accumulated, and based on the accumulated charges, imaging signals B1, B pixels, G pixels and R pixels of the CCD 44 are stored. Output G1 and R1.
  • the imaging signals B1, G1, and R1 substantially correspond to Bc, Gc, and Rc in the first embodiment, respectively.
  • the imaging signal B2 corresponds to Bp in the first embodiment.
  • the thickening observation mode as shown in FIG. 21C, accumulation of charge and output of an imaging signal are not performed at the time of irradiation of the white light W and the illumination light for surface layer.
  • the illumination light for middle and deep layers is irradiated, the image light of the light is sequentially imaged to accumulate the charge.
  • imaging signals B3, G3, and R3 are output from the B pixel, the G pixel, and the R pixel of the CCD 44. This series of operations is repeated while the thickening observation mode is set.
  • the imaging signals G3 and R3 correspond to Gp and Rp in the first embodiment.
  • the imaging signal B2 substantially corresponds to Bp in the first embodiment
  • the imaging signals G3 and R3 correspond to Gp and Rp in the second embodiment.
  • the charge accumulation and the imaging signal output are performed even when the white light W is irradiated, and the normal light image is generated based on the imaging signal obtained from the output. May be generated. Then, by adding the pixel value of the imaging signal B2 to the normal light image, a brighter fine structure image can be generated. Further, by adding the pixel values of the imaging signals G3 and R3 to the normal light image, a brighter thickened image can be generated.
  • the endoscope system 300 acquires the first and the second wavelength components obtained by wavelength separation of the wavelength components necessary for generation of a fine structure image and a thick image using a high absorption wavelength removal filter. Unlike the two embodiments, necessary wavelength components are acquired by the spectral estimation technique. Therefore, the light source device 13 of the endoscope system 300 is not provided with the high absorption wavelength removing filter 33 and the filter inserting and removing unit 32 for inserting and removing the filter into the optical path Lw of the white light W. Further, the method of generating an image of a fine structure image, a thick image, and a fine structure / thick image is different from that of the first embodiment. Other than that, it is the same as the first embodiment, so the explanation is omitted.
  • the light source device 313 of the fourth embodiment generates white light W having a wavelength range of 380 to 700 nm by the xenon lamp 314.
  • the xenon lamp 314 is always on. Therefore, the white light W emitted from the xenon lamp 314 is constantly irradiated to the subject via the condenser lens 34 and the light guide 43.
  • the image light of the white light from the subject is imaged by the color CCD 44.
  • the blue signal B is output from the B pixel of the CCD 44
  • the green signal G is output from the G pixel
  • the red signal R is output from the R pixel.
  • the spectral estimation unit 301 in the special light image generation unit 57 generates a spectral image within 380 nm to 700 nm based on the signals B, G, and R. Spectroscopic images are generated at 5 nm intervals, such as 380 nm image, 385 nm image.
  • the spectral estimation unit 301 performs spectral estimation according to the following [Equation 1] using estimated matrix data stored in an internal memory (not shown).
  • pixel values of the signals B, G, and R are represented by B, G, and R, respectively.
  • the method of generating the spectral image is described in detail in Japanese Patent Laid-Open No. 2003-93336.
  • the spectral estimation unit 301 acquires a spectral image of 380 to 400 nm and a spectral image of 450 to 500 nm when the fine structure observation mode is set.
  • a spectral image of 500 to 520 nm and a spectral image of 580 to 700 nm are acquired.
  • a fine structure / thickening observation mode is set, a spectral image of 380 to 400 nm, a spectral image of 450 to 500 nm, a spectral image of 500 to 520 nm, and a spectral image of 580 to 700 nm are acquired.
  • the microstructure image generation unit 61 of the fourth embodiment generates a microstructure image based on the spectral image of 380 to 400 nm and the spectral image of 450 to 500 nm obtained by the spectral estimation unit 301, as shown in FIG. Do. Since this microstructure image has the same wavelength components as the microstructure image of the first embodiment, as in the first embodiment, the display of surface microvessels is suppressed, whereby the microstructure is relatively made. The visibility of is improved.
  • the thickening image generation unit 62 of the fourth embodiment generates a thickening image based on the 500 to 520 nm spectral image and the 580 to 700 nm spectral image obtained by the spectral estimation unit 301. Since this thickened image also has the same wavelength component as the thickened image of the first embodiment, as in the first embodiment, the display of the middle-deep blood vessel is suppressed, thereby relatively visually recognizing the thickened The quality is improved.
  • the fine structure / thickening generation unit 63 includes the spectral image of 380 to 400 nm, the spectral image of 450 to 500 nm, the spectral image of 500 to 520 nm, and the spectral image of 580 to 700 nm obtained by the spectral estimation unit 301. Based on it, a fine structure / thickening image is generated. Since the fine structure / thickened image also has the same wavelength component as the fine structure / thickened image of the first embodiment, the visibility of both the fine structure and the thickened is improved as in the first embodiment. There is.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

表層微細構造や肥厚などの生体組織上の凹凸の視認性を向上させる。励起光ELを蛍光体に当てて白色光Wを励起発光させる。白色光のうち血中ヘモグロビンの吸光係数が高い高吸光波長域A1,A2の成分を、高吸光波長除去フィルタで除去して高吸光波長カット光を生成する。この高吸光波長カット光を被検体に照明し、その反射光の像光をカラーのCCDで撮像する。CCDのB画素から出力される信号Bpに基づき微細構造画像を生成する。この微細構造画像は、表層微細血管の表示が抑制されていることで、相対的にピットパターンなどの表層微細構造の視認性が向上している。

Description

内視鏡システム及び画像生成方法
 本発明は、生体組織上に形成されるピットパターンなどの微細構造や肥厚などの凹凸パターンを明瞭に観察することができる内視鏡システム及び画像生成方法に関する。
 近年の医療においては、内視鏡装置を用いた診断等が広く行われている。この内視鏡診断では、被検体内の照明光として広帯域光の白色光を用いる通常光観察の他、特定波長の特殊光を照明光として用いることによって、ガンなどの病変部を他の部位よりも明瞭化したり、また、病変部の位置や大きさを直感的に把握し易くする特殊光観察も行われるようになってきている。
 例えば、特許文献1では、生体組織の深さ方向への深達度及び血中ヘモグロビンの吸光特性が波長依存性を有すること利用し、短波長の青色狭帯域光で、生体組織表層に形成される微細血管やピットパターンなどの微細構造の明瞭化するとともに、青色狭帯域光よりも長波長の緑色狭帯域光で、生体組織の中深層に位置する太い血管を明瞭化している。これら表層~中深層の血管や表層微細構造は、ガンの鑑別や深達度診断をする際の重要な手がかりとなることから、青色狭帯域光や緑色狭帯域光で明瞭化することによって、鑑別等の精度を飛躍的に向上させることができる。
 また、特許文献2では、自家蛍光を励起するための励起光を生体組織に照射したときには、ガンなどの病変によって肥厚している病変部位から発せられる自家蛍光は、肥厚していない正常部位からの自家蛍光よりも光量が減少するという特性を利用することで、病変部位と正常部位との境界の明確化を図っている。このように病変部位との境界を明確化することで、スクリーニング時のように遠景状態から観察を行う場合に、病変部の位置や大きさの把握が容易になる。
特開2001-170009号公報 特開平8-252218号公報
 近年では、ガンの鑑別方法や深達度診断の方法は多岐にわたっている。したがって、表層微細血管や中深層血管などの血管パターンと、表層微細構造や肥厚などの凹凸パターンの両方から、ガン診断を行う場合の他、凹凸パターンのみに着目して診断を行う場合もある。このように凹凸パターンのみに着目して診断を行う場合には、凹凸パターンの視認性を向上させる一方で、血管パターンの視認性を低下させる必要がある。
 この凹凸パターンのみの明瞭化については、特許文献1には記載及び示唆がない。また、特許文献2によれば、凹凸パターンのうち肥厚の明瞭化を行うことができる。しかしながら、肥厚の検出に用いる自家蛍光は微弱であるため、これを感度良く捉えるためには、EMCCDのような高感度の撮像素子が別途必要となってしまう。
 本発明は、表層微細構造や肥厚などの生体組織上の凹凸の視認性を向上することができる内視鏡システム及び画像生成方法を提供することを目的とする。
 本発明の内視鏡システムは、被検体に照明光を照射する照明手段と、被検体からの反射光の像光を撮像することにより画像信号を取得する画像信号取得手段と、画像信号に基づき、被検体における血管の表示を抑制することにより、相対的に生体組織上の凹凸の視認性を向上させた凹凸画像を生成する凹凸画像生成手段とを備えることを特徴とする。
 凹凸画像生成手段は、画像信号のうち青色波長域内において、血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた信号に基づき、血管の表示を抑制することにより相対的に表層微細構造の視認性を向上させた微細構造画像を生成する微細構造画像生成部を有することが好ましい。第1の高吸光波長域は400~450nmであることが好ましい。
 凹凸画像生成手段は、画像信号のうち緑色波長域内において、血中ヘモグロビンの吸光係数が高い第2の高吸光波長域の成分が除かれた信号に基づき、血管の表示を抑制することにより相対的に肥厚の視認性を向上させた微細構造画像を生成する微細構造画像生成部を有することが好ましい。第2の高吸光波長域は520~580nmであることが好ましい。
 本発明は、更に、前記照明手段は、照明光のうち血中ヘモグロビンの吸光係数が高い高吸光波長域の成分を除去する高吸光波長除去フィルタを備え、画像信号取得手段は、高吸光波長除去フィルタで高吸光波長域の成分が除かれた被検体の反射光の像光を撮像することが好ましい。被検体の撮像は、色分離フィルタが設けられた複数色の画素を有するカラーの撮像素子によって行うことが好ましい。照明手段は、複数色の光を被検体に順次照射し、複数色の光を被検体に順次照射する毎に、モノクロの撮像素子で前記被検体の撮像を行うことが好ましい。
 照明手段は、青色波長域内で血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた表層用照明光と、緑色波長域内で血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた中深層用照明光とを順次照射し、被検体の撮像は、照明手段で順次照射される毎に行うことが好ましい。
 凹凸画像生成手段は、画像信号に基づく分光推定により、反射光のうち血中ヘモグロビンの吸光係数が高い波長成分以外の波長成分の分光画像を取得し、その分光画像に基づいて、凹凸画像を生成する画像生成部とを有することが好ましい。さらに、凹凸画像を表示する表示手段を備えることが好ましい。
 本発明の画像生成方法は、被検体に照明光を照明手段により照射し、被検体からの反射光の像光を撮像することにより画像信号を画像信号取得手段で取得し、画像信号に基づき、被検体における血管の表示を抑制することにより相対的に生体組織上の凹凸の視認性を向上させた凹凸画像を凹凸画像生成手段で生成することを特徴とする。
 本発明によれば、凹凸画像生成手段で得られる凹凸画像は、被検体における血管の表示を抑制することによって、相対的に生体組織上の凹凸の視認性を向上させている。
第1実施形態の内視鏡システムを示す図である。 第1実施形態の内視鏡システムの内部構成を示す図である。 白色光Wの発光スペクトルを示すグラフである。 高吸光波長除去フィルタの分光透過率とヘモグロビンの吸光係数を示すグラフである。 ズームレンズがワイド位置にある場合の被検体内の画像を示す図である。 ズームレンズがテレ位置にある場合の被検体内の画像を示す図である。 CCDのB画素、G画素、R画素を表す図である。 R色、G色、B色のカラーフィルターの分光透過率を示すグラフである。 CCDのB画素が受光する光の波長成分を表すグラフである。 CCDのG画素が受光する光の波長成分を表すグラフである。 CCDのR画素が受光する光の波長成分を表すグラフである。 第1実施形態における通常観察モード時のCCDの撮像制御を説明するための図である。 第1実施形態における微細構造観察モード、肥厚観察モード、微細構造・肥厚モード時のCCDの撮像制御を説明するための図である。 微細構造画像を表す図である。 肥厚画像を表す図である。 微細構造観察モードにおける一連の流れを表したフローチャートである。 キセノンランプで白色光Wを生成する内視鏡システムの内部構成を示す図である。 第2実施形態の内視鏡システムの内部構成を示す図である。 RGBロータリフィルタを示す図である。 RGBロータリフィルタのBフィルタ、Gフィルタ、Rフィルタの分光透過率を示すグラフである。 第2実施形態における通常観察モード時のCCDの撮像制御を説明するための図である。 第2実施形態における微細構造観察モード、肥厚観察モード、微細構造・肥厚モード時のCCDの撮像制御を説明するための図である。 第3実施形態の内視鏡システムの内部構成を示す図である。 特殊観察用ロータリフィルタの図である。 第1BPFの分光透過率を示すグラフである。 第2BPFの分光透過率を示すグラフである。 第3実施形態における通常観察モード時のCCDの撮像制御を説明するための図である。 第3実施形態における微細構造観察モード時のCCDの撮像制御を説明するための図である。 第3実施形態における肥厚観察モード時のCCDの撮像制御を説明するための図である。 第3実施形態における微細構造・肥厚モード時のCCDの撮像制御を説明するための図である。 第4実施形態の内視鏡システムの内部構成を示す図である。 微細構造画像の生成方法を説明するための図である。 肥厚画像の生成方法を説明するための図である。 微細構造・肥厚画像の生成方法を説明するための図である。
 図1及び図2に示すように、第1実施形態の内視鏡システム10は、被検体内を撮像する電子内視鏡11(画像信号取得手段の一態様)と、電子内視鏡11で撮像した画像に各種画像処理を施すプロセッサ装置12と、被検体を照明する光を電子内視鏡11に供給する光源装置13と、プロセッサ装置12で各種画像処理が施された画像を表示するモニタ14とを備えている。
 電子内視鏡11は、被検体内に挿入される可撓性の挿入部16と、挿入部16の基端部分に設けられた操作部17と、操作部17とプロセッサ装置12及び光源装置13との間を連結するユニバーサルコード18とを備えている。挿入部16の先端には、複数の湾曲駒を連結した湾曲部19が形成されている。湾曲部19は、操作部17のアングルノブ21を操作することにより、上下左右方向に湾曲動作する。湾曲部19の先端には、体腔内撮影用の光学系等を内蔵した先端部16aが設けられている。先端部16aは、湾曲部19の湾曲動作によって被検体内の所望の方向に向けられる。
 また、操作部17には、各種モードに切り替えるためのモード切替SW15が設けられている。モードは、白色光で照明された被検体を撮像することで得られる通常光画像をモニタ14に表示する通常観察モードと、生体組織の表層上に形成された微細構造を強調した微細構造強調画像をモニタ14に表示する微細構造観察モードと、生体組織において表層から中深層にかけて厚みを帯びた肥厚を強調した肥厚強調画像を表示する肥厚観察モードと、微細構造及び肥厚の両方を微細構造・肥厚強調画像をモニタ14に表示する微細構造・肥厚観察モードとの合計4つのモードで構成される。
 ユニバーサルコード18には、プロセッサ装置12および光源装置13側にコネクタ24が取り付けられている。コネクタ24は、通信用コネクタと光源用コネクタからなる複合タイプのコネクタであり、電子内視鏡11は、このコネクタ24を介して、プロセッサ装置12および光源装置13に着脱自在に接続される。
 図2に示すように、光源装置13(照明手段の一態様)は、励起光光源30と、蛍光体31と、フィルタ挿脱部32と、高吸光波長除去フィルタ33とを備えている。励起光光源30はレーザーダイオードなどの半導体光源で構成され、図3に示すように、中心波長445nmの励起光ELを発する。この励起光ELは、励起光光源30の出射部に取り付けられた蛍光体31に照射される。蛍光体31では、励起光ELの一部を吸収して緑色~赤色の蛍光FLを励起発光する複数種の蛍光物質(例えばYAG系蛍光物質、或いはBAM(BaMgAl1017)等の蛍光物質)を含んで構成される。蛍光体31で励起発光した蛍光FLは、蛍光体31により吸収されず透過した励起光ELと合波することで、白色光Wが生成される。
 フィルタ挿脱部32は、設定されているモードに応じて、高吸光波長除去フィルタ33を白色光Wの光路Lwに挿入する挿入位置と、高吸光波長除去フィルタ33を光路Lwから退避させる退避位置との間で、高吸光波長除去フィルタ33を移動させる。通常観察モードに設定されている場合には、高吸光波長除去フィルタ33は退避位置にセットされる。これにより、白色光Wは、集光レンズ34を介して、ライトガイド43に入射する。一方、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードに設定されている場合には、高吸光波長除去フィルタ33は挿入位置にセットされる。これにより、白色光Wのうちヘモグロビンの吸光係数が高い波長域(図4参照)の光がカットされた高吸光波長カット光Wcutが、高吸光波長除去フィルタ33を透過する。透過した高吸光波長カット光Wcutは、集光レンズ34を介して、ライトガイド43に入射する。
 高吸光波長除去フィルタ32は、図4に示すように、400nm~450nmの高吸光波長域A1及び520nm~580nmの高吸光波長域A2の光をカット(透過率0%)する一方で、高吸光波長域A1,A2以外の波長域の光をそのまま透過させる(透過率100%)。この高吸光波長除去フィルタ32に白色光Wが入射したときには、白色光Wのうち高吸光波長A1,A2が除去された高吸光波長カット光Wcutが、高吸光波長除去フィルタ32から出射する。
 このように高吸光波長域A1,A2の光をカットするのは、以下の理由からである。高吸光波長域A1,A2の光は、図4に示すように、血中のヘモグロビンに高い吸光特性を示している。そのため、これら高吸光波長域A1,A2の像光に基づく画像をモニタ14に表示したときには、血管とその他の組織とのコントラストが高くなるため、血管が強調表示される。したがって、血管ではなく、ピットパターンなどの表層微細構造や生体組織表層から中深層にかけて厚みを帯びた肥厚などの凹凸にのみ着目して診断を行う場合には、血管の明瞭化は診断能を低下させる一因となる。そこで、白色光Wの反射光のうち吸光特性が高い高吸光波長域A1,A2の光を、高吸光波長除去フィルタ32でカットすることで、モニタ14に表示したときの血管の表示を抑制する。このように血管の明瞭化を抑えることによって、血管以外の表層微細構造や肥厚などの生体組織上の凹凸の視認性は向上する。
 図2に示すように、電子内視鏡11は、ライトガイド43、CCD44、アナログ処理回路45(AFE:Analog Front End)、撮像制御部46、倍率制御部47を備えている。ライトガイド43は大口径光ファイバ、バンドルファイバなどであり、入射端が光源装置内に接続されており、出射端がズームレンズ48aに向けられている。したがって、ライトガイド43内で導光された光は、照射レンズ48b、及び照明窓49を通して、被検体内に照射される。観察窓50は、被検体から反射光を受光する。受光した光は、集光レンズ51及びズームレンズ48aを介して、CCD44に入射する。
 ズームレンズ48aには、このズームレンズ48aを光軸方向に移動させるアクチュエータ48cが取り付けられている。アクチュエータ48cは、コントローラ59に接続された倍率制御部47によって駆動制御される。倍率制御部47は、ズーム操作部20で設定された倍率に応じた位置にズームレンズ48aが移動するように、アクチュエータ48cを制御する。スクリーニング時のように、被検体内の全体的な様子を観察する必要がある場合には、ズームレンズ48aをワイド位置にセットして、図5Aのような非拡大画像をモニタ14に表示させる。一方、癌の鑑別診断時のように、観察部位の詳細構造を観察する必要がある場合には、ズームレンズ48aをテレ位置にセットして、図5Bのような拡大画像をモニタ14に表示させる。
 なお、通常観察モード時、肥厚観察モード時には、被検体内の全体的な様子を観察することが多いことから、ズームレンズ48aをワイド位置にセットすることが多い。一方、微細構造観察モード時には、観察対象を拡大して観察することが多いことから、ズームレンズ48aをテレ位置にセットすることが多い。
 CCD44は入射した光を受光する撮像面44aを備え、この撮像面44aで光電変換して信号電荷を蓄積する。蓄積された信号電荷は撮像信号として読み出され、AFE45に送られる。CCD44はカラーCCDであり、撮像面44aには、図6Aに示すように、B色のBフィルタ44bが設けられたB画素、G色のGフィルタ44gが設けられたG画素、R色のRフィルタ44rが設けられたR画素の3色の画素が多数配列されている。これらBフィルタ44b、Gフィルタ44g、Rフィルタ44rは、図6Bに示すようにB,G、R透過領域52、53、54を有している。B透過領域52は、380~560nmの波長範囲を占めており、G透過領域53は450~630nmの波長範囲を占めており、R透過領域54は580~780nmの波長範囲を占めている。
 CCD44で受光する光は、設定されているモードによって異なるため、各フィルタ44b、44g、44rが受光する波長成分も異なる。通常観察モードに設定されている場合には、白色光WがCCD44の各色の画素に入射する。したがって、B画素にはB透過領域52に含まれる白色光Wの波長成分が入射し、G画素にはG透過領域53に含まれる白色光Wの波長成分が入射し、R画素にはR透過領域54に含まれる白色光Wの波長成分が入射する。
 一方、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードに設定されている場合には、高吸光波長カット光WcutがCCD44の各色の画素に入射する。したがって、CCD44のB画素には、図7Aに示すように、高吸光波長カット光Wcutのうち、B透過領域52に含まれる380~400nm及び450~500nmの第1透過光が入射する。第1透過光は、生体組織表層にまで深達度を有しており、またヘモグロビンの吸光特性が400~450nmの高吸光波長域A1と比較して低い。したがって、この第1透過光の像光の撮像画像をモニタ14に表示したときには、表層微細血管の表示が抑制される一方で、この血管の表示を抑制することによって、ピットパターンなどの表層微細構造の視認性が向上する。
 また、図7Bに示すように、CCD44のG画素には、高吸光波長カット光WcutのうちG透過領域に含まれる450~520nm及び580~630nmの第2透過光が入射する。第2透過光は、生体組織の中深層にまで深達度を有しており、また、ヘモグロビンの吸光特性が520~580nmの高吸光波長域A2と比較して低い。したがって、この第2透過光の像光の撮像画像をモニタ14に表示したときには、中深層血管の表示が抑制される一方で、この血管の表示抑制によって、表層から中深層にかけて厚みを帯びた肥厚の視認性が向上する。そして、図7Cに示すように、CCD44のR画素には、高吸光波長カット光WcutのうちR透過領域に含まれる580~780nmの第3透過光が入射する。
 図2に示すように、AFE45は、相関二重サンプリング回路(CDS)、自動ゲイン制御回路(AGC)、及びアナログ/デジタル変換器(A/D)(いずれも図示省略)から構成されている。CDSは、CCD44からの撮像信号に対して相関二重サンプリング処理を施し、CCD44の駆動により生じたノイズを除去する。AGCは、CDSによりノイズが除去された撮像信号を増幅する。A/Dは、AGCで増幅された撮像信号を、所定のビット数のデジタルな撮像信号に変換してプロセッサ装置12に入力する。
 撮像制御部46は、プロセッサ装置12内のコントローラー59に接続されており、コントローラー59から指示がなされたときにCCD44に対して駆動信号を送る。CCD44は、撮像制御部46からの駆動信号に基づいて、所定のフレームレートで撮像信号をAFE45に出力する。
 通常観察モードに設定されている場合には、図8Aに示すように、1フレーム期間内で、白色光の像光を光電変換して信号電荷を蓄積するステップと、蓄積した信号電荷として読み出すステップとが行なわれる。この撮像制御は、繰り返し行なわれる。なお、通常観察モード時にCCD44のB画素、G画素、R画素から出力される信号を、それぞれ青色信号Bc、緑色信号Gc、赤色信号Rcとする。
 一方、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードに設定されている場合には、図8Bに示すように、1フレーム期間内で、高吸光波長カット光Wcutの像光を光電変換して信号電荷を蓄積するステップと、蓄積した信号電荷として読み出すステップとが行なわれる。この撮像制御は、繰り返し行なわれる。なお、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モード時にCCD44のB画素、G画素、R画素から出力される信号を、それぞれ青色信号Bp、緑色信号Gp、赤色信号Rpとする。
 図2に示すように、プロセッサ装置12は、通常光画像生成部55と、フレームメモリ56と、特殊光画像生成部57(凹凸画像生成手段の一態様)と、表示制御回路58を備えており、コントローラー59が各部を制御している。通常光画像生成部55は、通常観察モード時に得られる信号Bc、Gc、Rcから、通常光画像を作成する。生成された通常光画像はフレームメモリ56に一時的に記憶される。
 特殊光画像生成部57は、微細構造画像生成部61と、肥厚画像生成部62と、微細構造・肥厚画像生成部63とを備えている。微細構造画像生成部61は、微細構造観察モード時に取得した青色信号Bpに基づいて、ピットパターンなどの表層微細構造の視認性を向上させた微細構造画像を生成する。生成された微細構造画像68は、図9に示すように、表示制御回路58によってモニタ14に表示される。この微細構造画像68では、高吸光波長域A1が除去された高吸光波長カット光Wcutを用いて生成しているため、表層微細血管70の表示の抑制がなされている。この表示の抑制によって、相対的に微細構造71の視認性が向上している。
 肥厚画像生成部62は、肥厚観察モード時に取得した緑色信号Gpと赤色信号Rpとに基づいて、肥厚の視認性を向上させた肥厚画像を生成する。生成された肥厚画像78は、図10に示すように、表示制御回路58によってモニタ14に表示される。この肥厚画像78では、高吸光波長域A2が除去された高吸光波長カット光Wcutを用いて生成しているため、中深層血管80の表示の抑制がなされている。この表示の抑制によって、肥厚81の視認性が相対的に向上している。
 微細構造・肥厚画像生成部63は、微細構造・肥厚観察モード時に取得した青色信号Bp、緑色信号Gp、赤色信号Rpに基づいて、微細構造と肥厚の両方の視認性を向上させた微細構造・肥厚画像を生成する。生成された微細構造・肥厚画像は、表示制御回路58によってモニタ14に表示される。
 次に、微細構造観察モードにおける一連の流れを、図11に示すフローチャートを用いて説明する。なお、肥厚観察モード、微細構造観察モード時における一連の流れも略同様であるので、説明を省略する。
 モード切替SW15により微細構造観察モードに切り替えられると、高吸光波長除去フィルタ33が白色光Wの光路Lwに挿入される。これにより、白色光Wのうち高吸光波長域A1,A2の波長成分が除去された高吸光波長カット光Wcutが、高吸光波長除去フィルタ33から出射する。透過した高吸光波長カット光Wcutは、集光レンズ34及びライトガイド43等を介して、被検体に照射される。
 被検体からの戻り光の像光は、カラーのCCD44で撮像される。このとき、CCD44のB画素、G画素、R画素から、青色信号Bp、緑色信号Gp、赤色信号Rpが出力する。これら信号のうち青色信号Bpに基づいて、表層微細構造の視認性を向上させた微細構造画像を生成する。生成した微細構造画像は、表示制御回路58によってモニタ14に表示される。
 なお、第1実施形態では、励起光ELを蛍光体31に照射して蛍光FLを励起発光させることにより白色光Wを生成したが、これに代えて、図12に示すように、キセノンランプ90によって、波長域が、例えば380~700nmにわたるような白色光Wを生成してもよい。なお、キセノンランプに限る必要なく、ハロゲンランプなど波長域が青色~赤色にわたる広帯域の光を発することができる光源であればよい。
 図13に示すように、第2実施形態の内視鏡システム100は、カラーのCCD44を用いた同時方式で被検体の撮像を行う第1実施形態と異なり、モノクロのCCD144を用いた面順次方式で被検体の撮像を行う。したがって、光源装置113の構成が第1実施形態の光源装置13とは異なる。また、電子内視鏡11内のCCDが、カラーフィルタが設けられていないモノクロ撮像素子144であることにより、CCD144の撮像制御方法も第1実施形態と異なる。それ以外については、第1実施形態と同様であるので、説明を省略する。
 光源装置113は、励起光光源30と、蛍光体31と、RGBロータリフィルタ134と、フィルタ挿脱部32と、高吸光波長除去フィルタ33とを備えている。第2実施形態においても、白色光Wの生成は、励起光光源30及び蛍光体31により行う。RGBロータリフィルタ134は、図14に示すように、円板形状をしており、円周方向に3分割されて中心角が120°の扇型の領域に、それぞれBフィルタ部134b、Gフィルタ部134g、Rフィルタ部134rが設けられている。このロータリフィルタ134は、Bフィルタ部134a、Gフィルタ部134b、Rフィルタ部134cが選択的に白色光Wの光路Lwに挿入されるように回転自在に設けられている。
 図15に示すように、Bフィルタ部134bは第1実施形態のCCD44のBフィルタ44bと同様のB透過領域を有している。また、同様にして、Gフィルタ部134g及びRフィルタ部134rは、それぞれCCD44のGフィルタ44g、Rフィルタ44rと同様のG透過領域、R透過領域を有している。
 フィルタ挿脱部32は、第1実施形態と同様、通常観察モード時に設定されているときには、高吸収波長除去フィルタ33が退避位置にセットされる。退避位置にセットされることで、蛍光体31からの白色光Wは、高吸収波長除去フィルタ33を介さずに、回転中のRGBロータリフィルタ134に入射する。このRGBロータリフィルタ134のうち、Bフィルタ部134bが光路Lwに挿入されたときには白色光Wから青色帯域のB光が透過し、Gフィルタ部134gが光路Lwに挿入されたときには白色光Wから緑色帯域のG光が透過し、Rフィルタ部134rが光路Lwに挿入されたときには白色光Wから赤色帯域のR光が透過する。これによって、RGBロータリフィルタ134からはB光、G光、R光が順次出射する。順次出射したB光、G光、R光は、集光レンズ34を介して、ライトガイド43に入射して、被検体に照射する。
 一方、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モード時に設定されているときには、第1実施形態と同様、高吸収波長除去フィルタ33が挿入位置にセットされる。挿入位置にセットされることで、蛍光体31からの白色光Wは、高吸収波長除去フィルタ33に入射する。この高吸光波長除去フィルタ33は第1実施形態と同様であり、白色光Wのうち高吸光波長域A1,A2の波長成分を除去した高吸光波長カット光Wcutを透過させる。透過した高吸光波長カット光Wcutは、回転中のRGBロータリフィルタ134に入射する。
 RGBロータリフィルタ134のBフィルタ部134bが光路Lwに挿入されたときには、高吸光波長カット光WcutのうちB透過領域に含まれる第1透過光が透過する。また、Gフィルタ部134gが光路Lwに挿入されたときには、高吸光波長カット光WcutのうちG透過領域に含まれる第2透過光が透過する。また、Rフィルタ部134rが光路Lwに挿入されたときには高吸光波長カット光WcutのうちR透過領域に含まれる第3透過光が透過する。これによって、RGBロータリフィルタ134からは第1透過光、第2透過光、第3透過光が順次出射する。順次出射した第1透過光、第2透過光、第3透過光は、集光レンズ34を介して、ライトガイド43に入射する。
 第2実施形態の撮像制御部46では、以下のようにして、モノクロのCCD144の撮像制御を行う。通常観察モードにおいては、図16Aに示すように、B、G、Rの三色の像光を順次撮像して電荷を蓄積し、この蓄積した電荷に基づいて面順次撮像信号B、G、Rを順次出力する。この一連の動作は、通常観察モードに設定されている間、繰り返される。なお、面順次撮像信号B、G、Rは、それぞれ第1実施形態のBc、Gc、Rcに略対応している。
 また、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードにおいては、図16Bに示すように、第1透過光、第2透過光、第3透過光の像光を順次撮像して電荷を蓄積し、この蓄積した電荷に基づいて面順次撮像信号X1、X2、X3を順次出力する。この一連の動作は微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードに設定されている間、繰り返される。面順次撮像信号X1、X2、X3は、それぞれ第1実施形態のBp、Gp、Rpに対応している。
 図17に示すように、第3実施形態の内視鏡システム200は、高吸光波長カット光Wcutの生成のために、白色光Wの光路Lwに挿脱自在な高吸光波長除去フィルタ33を使用した第1及び第2実施形態と異なり、特殊観察用ロータリフィルタ234を用いる。この特殊観察用ロータリフィルタ234の使用によって、カラーのCCD44の撮像制御方法が第1実施形態と異なる。また、微細構造画像、肥厚画像、微細構造・肥厚画像の画像生成方法が第1実施形態と異なる。それ以外については、第1実施形態と同様であるので、説明を省略する。
 図18に示すように、特殊観察用ロータリフィルタ234は、白色光Wをそのまま透過させる開口部234aと、白色光Wのうち表層微細構造の視認性向上に用いられる表層用照明光を透過させる第1BPF(バンドパスフィルタ―)234bと、白色光Wのうち肥厚の視認性向上に用いられる中深層用照明光を透過させる第2BPF(バンドパスフィルター)234cが周方向に沿って設けられている。この特殊観察用ロータリフィルタ234は、開口部234a、第1BPF234b、第2BPF234cが選択的に白色光Wの光路Lwに挿入されるように回転自在に設けられている。
 第1BPF234bは、図19に示すように、白色光Wの青色成分うち400~450nmの高吸光波長域A1の光及び500nm以上の波長域の光をカット(透過率0%)する一方で、それ以外の400nm以下の光及び450~500nmの光をそのまま透過させる(透過率100%)。したがって、白色光Wが第1BPF234bを透過して得られる表層用照明光は、400nm以下及び450~500nmの波長域を有する光となる。一方、図20に示すように、第2BPF234cは、白色光Wの緑色成分及び赤色成分うち520~580nmの高吸光波長域A2の光及び500nm以下の波長域の光をカットする一方で、それ以外の500~520nmの波長域の光及び580nm以上の波長域の光をそのまま透過させる。したがって、白色光Wが第2BPF234cを透過して得られる中深層用照明光は、500~520nmの波長域及び580nm以上の波長域を有する光となる。
 特殊観察用ロータリフィルタ234のうち、開口部234aが光路Lwに挿入されたときには白色光Wがそのまま透過し、第1BPF234bが光路Lwに挿入されたときには白色光Wのうち表層用照明光が透過し、第2BPF234cが光路Lwに挿入されたときには白色光Wのうち中深層用照明光が透過する。これによって、特殊観察用ロータリフィルタ234からは白色光W、表層用照明光、中深層用照明光が順次出射する。順次出射した白色光W、表層用照明光、中深層用照明光は、集光レンズ34を介して、ライトガイド43に入射する。
 第3実施形態の撮像制御部46では、以下のようにして、カラーのCCD44の撮像制御を行う。通常観察モードにおいては、図21Aに示すように、白色光Wの像光を撮像して電荷を蓄積し、この蓄積した電荷に基づいてCCD44のB画素、G画素、R画素から撮像信号B1、G1、R1を出力する。一方、表層用照明光及び中深層用照明光が照射されたときには、電荷の蓄積及び撮像信号の出力は行わない。この一連の動作は、通常観察モードに設定されている間、繰り返される。なお、撮像信号B1、G1、R1は、それぞれ第1実施形態のBc、Gc、Rcに略対応している。
 また、微細構造観察モードにおいては、図21Bに示すように、白色光W及び中深層用照明光の照射時には、電荷の蓄積及び撮像信号の出力は行わない。一方、表層用照明光が照射されたときには、それら光の像光を順次撮像して電荷を蓄積する。そして、蓄積した電荷に基づき、CCD44のB画素、G画素、R画素から撮像信号B2、G2、R2を出力する。この一連の動作は微細構造観察モードに設定されている間、繰り返される。なお、撮像信号B2は第1実施形態のBpに対応する。
 また、肥厚観察モードにおいては、図21Cに示すように、白色光W及び表層用照明光の照射時には、電荷の蓄積及び撮像信号の出力は行わない。一方、中深層用照明光が照射されたときには、それら光の像光を順次撮像して電荷を蓄積する。そして、蓄積した電荷に基づき、CCD44のB画素、G画素、R画素から撮像信号B3、G3、R3を出力する。この一連の動作は肥厚観察モードに設定されている間、繰り返される。なお、撮像信号G3、R3は第1実施形態のGp、Rpに対応する。
 また、微細構造・肥厚観察モードにおいては、図21Dに示すように、白色光Wの照射時には、電荷の蓄積及び撮像信号の出力は行わない。一方、表層用照明光及び中深層用照明光が照射されたときには、それら光の像光を順次撮像して電荷を蓄積する。そして、蓄積した電荷に基づき、表層用照明光の照射時にはCCD44のB画素、G画素、R画素から撮像信号B2、G2、R2を出力し、中深層用照明光の照射時にはB画素、G画素、R画素から撮像信号B3、G3、R3を出力する。この一連の動作は微細構造・肥厚観察モードに設定されている間、繰り返される。なお、上記同様、撮像信号B2は第1実施形態のBpに略対応し、撮像信号G3、R3は第2実施形態のGp、Rpに対応する。
 なお、微細構造観察モード、肥厚観察モード、微細構造・肥厚観察モードにおいては、白色光Wの照射時にも電荷の蓄積及び撮像信号の出力を行い、その出力から得られる撮像信号に基づき通常光画像を生成してもよい。そして、その通常光画像に撮像信号B2の画素値を加えることによって、より明るい微細構造画像を生成することができる。また、通常光画像に撮像信号G3、R3の画素値を加えることによって、より明るい肥厚画像を生成することができる。
 図22に示すように、第4実施形態の内視鏡システム300は、微細構造画像や肥厚画像の生成に必要な波長成分を、高吸光波長除去フィルタで波長分離して取得した第1及び第2実施形態と異なり、分光推定技術によって必要な波長成分を取得する。したがって、内視鏡システム300の光源装置13には、高吸光波長除去フィルタ33及びそれを白色光Wの光路Lwに挿脱するためのフィルタ挿脱部32が設けられていない。また、微細構造画像、肥厚画像、微細構造・肥厚画像の画像生成方法が、第1実施形態とは異なる。それ以外は、第1実施形態と同様であるので、説明を省略する。
 第4実施形態の光源装置313は、第1実施形態と異なり、キセノンランプ314によって、380~700nmの波長域を有する白色光Wを生成する。キセノンランプ314は常時点灯している。したがって、キセノンランプ314から発せられる白色光Wは、集光レンズ34、ライトガイド43を介して被検体に常時照射される。そして、第1実施形態と同様、被検体からの白色光の像光は、カラーのCCD44で撮像される。この撮像により、CCD44のB画素からは青色信号Bが出力し、G画素からは緑色信号Gが出力し、R画素からは赤色信号Rが出力する。
 特殊光画像生成部57内の分光推定部301は、信号B,G,Rに基づいて、380nm~700nm内の分光画像を生成する。分光画像は、380nm画像、385nm画像・・・のように、5nm間隔で生成される。分光推定部301内は、内部メモリ(図示省略)に記憶された推定マトリックスデータを用いて、以下の[数1]に従って、分光推定を行う。
Figure JPOXMLDOC01-appb-M000001
 ここで、[数1]において、信号B,G,Rの画素値は、それぞれB,G,Rで表されている。また、推定マトリックスデータは380nmから700nmの波長域を5nm間隔で分けた65セット分の波長域パラメータからなり、各波長域パラメータは、それぞれ、係数knr、kng、knb(n=1~65)から構成されている。これら波長域パラ―メータに信号B,G,Rの画素値を掛け合わせることによって、380nmから700nmまでの分光画像の画素値qn(n=1~65)が得られる。なお、分光画像の生成方法については、特開2003-93336号公報に詳細が記載されている。
 分光推定部301では、微細構造観察モードに設定されている場合、380~400nmの分光画像と、450~500nmの分光画像を取得する。また、肥厚観察モードに設定されている場合には、500~520nmの分光画像と、580~700nmの分光画像を取得する。また、微細構造・肥厚観察モードに設定されている場合には、380~400nmの分光画像、450~500nmの分光画像、500~520nmの分光画像、580~700nmの分光画像を取得する。
 第4実施形態の微細構造画像生成部61は、図23に示すように、分光推定部301で得られた380~400nmの分光画像と450~500nmの分光画像に基づいて、微細構造画像を生成する。この微細構造画像は、第1実施形態の微細構造画像と同様の波長成分を有しているため、第1実施形態と同様、表層微細血管の表示が抑制されることで、相対的に微細構造の視認性が向上している。
 第4実施形態の肥厚画像生成部62は、図24に示すように、分光推定部301で得られた500~520nmの分光画像と580~700nmの分光画像に基づいて、肥厚画像を生成する。この肥厚画像についても、第1実施形態の肥厚画像と同様の波長成分を有しているため、第1実施形態と同様、中深層血管の表示が抑制されることで、相対的に肥厚の視認性が向上している。
 第4実施形態の微細構造・肥厚生成部63は、分光推定部301で得られた380~400nmの分光画像、450~500nmの分光画像、500~520nmの分光画像、580~700nmの分光画像に基づいて、微細構造・肥厚画像を生成する。この微細構造・肥厚画像についても第1実施形態の微細構造・肥厚画像と同様の波長成分を有しているため、第1実施形態と同様、微細構造及び肥厚の両方の視認性が向上している。
10,100,200,300 内視鏡システム
33 高吸光波長除去フィルタ
44 (カラーの)CCD
61 微細構造画像生成部
62 肥厚画像生成部
68 微細構造画像
78 肥厚画像
134 RGBロータリフィルタ
144 (モノクロの)CCD
234 特殊観察用ロータリフィルタ
234b 第1BPF
234c 第2BPF
301 分光推定部

Claims (12)

  1.  被検体に照明光を照射する照明手段と、
     前記被検体からの反射光の像光を撮像することにより画像信号を取得する画像信号取得手段と、
     前記画像信号に基づき、前記被検体における血管の表示を抑制することにより、相対的に前記被検体の生体組織上の凹凸の視認性を向上させた凹凸画像を生成する凹凸画像生成手段とを備えることを特徴とする内視鏡システム。
  2.  前記凹凸画像生成手段は、
     前記画像信号のうち、青色波長域内において血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた信号に基づき、血管の表示を抑制することにより相対的に表層微細構造の視認性を向上させた微細構造画像を生成する微細構造画像生成部を有する請求項1記載の内視鏡システム。
  3.  前記第1の高吸光波長域は400~450nmである請求項2記載の内視鏡システム。
  4.  前記凹凸画像生成手段は、
     前記画像信号のうち、緑色波長域内において血中ヘモグロビンの吸光係数が高い第2の高吸光波長域の成分が除かれた信号に基づき、血管の表示を抑制することにより相対的に肥厚の視認性を向上させた微細構造画像を生成する微細構造画像生成部を有する請求項1ないし3いずれか1項記載の内視鏡システム。
  5.  前記第2の高吸光波長域は520~580nmである請求項4記載の内視鏡システム。
  6.  前記照明手段は、前記照明光のうち血中ヘモグロビンの吸光係数が高い高吸光波長域の成分を除去する高吸光波長除去フィルタを備え、
     前記画像信号取得手段は、前記高吸光波長除去フィルタで前記高吸光波長域の成分が除かれた被検体の反射光の像光を撮像する請求項1ないし5いずれか1項記載の内視鏡システム。
  7.  前記被検体の撮像は、色分離フィルタが設けられた複数色の画素を有するカラーの撮像素子によって行う請求項6項記載の内視鏡システム。
  8.  前記照明手段は、複数色の光を前記被検体に順次照射し、
     前記複数色の光を前記被検体に順次照射する毎に、モノクロの撮像素子で前記被検体の撮像を行う請求項6記載の内視鏡システム。
  9.  前記照明手段は、青色波長域内で血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた表層用照明光と、緑色波長域内で血中ヘモグロビンの吸光係数が高い第1の高吸光波長域の成分が除かれた中深層用照明光とを順次照射し、
     前記被検体の撮像は、前記照明手段で順次照射される毎に行う請求項4または5項記載の内視鏡システム。
  10.  前記凹凸画像生成手段は、前記画像信号に基づく分光推定により、前記反射光のうち血中ヘモグロビンの吸光係数が高い波長成分以外の波長成分の分光画像を取得し、その分光画像に基づいて、前記凹凸画像を生成する画像生成部を有する請求項1ないし5いずれか1項記載の内視鏡システム。
  11.  前記凹凸画像を表示する表示手段をさらに備える請求項1ないし10いずれか1項記載の内視鏡システム。
  12.  被検体に照明光を照明手段により照射し、
     前記被検体からの反射光の像光を撮像することにより画像信号を画像信号取得手段で取得し、
     前記画像信号に基づき、被検体における血管の表示を抑制することにより相対的に生体組織上の凹凸の視認性を向上させた凹凸画像を凹凸画像生成手段で生成することを特徴とする画像生成方法。
PCT/JP2012/076291 2011-10-12 2012-10-11 内視鏡システム及び画像生成方法 WO2013054835A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12839296.6A EP2767210A4 (en) 2011-10-12 2012-10-11 ENDOSCOPY SYSTEM AND PICTURE PRODUCTION PROCESS
CN201280049613.3A CN103857321B (zh) 2011-10-12 2012-10-11 内窥镜***
US14/251,043 US20140221794A1 (en) 2011-10-12 2014-04-11 Endoscope system and image generation method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011225143 2011-10-12
JP2011-225143 2011-10-12
JP2012-193908 2012-09-04
JP2012193908A JP5789232B2 (ja) 2011-10-12 2012-09-04 内視鏡システム及びその作動方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/251,043 Continuation US20140221794A1 (en) 2011-10-12 2014-04-11 Endoscope system and image generation method

Publications (1)

Publication Number Publication Date
WO2013054835A1 true WO2013054835A1 (ja) 2013-04-18

Family

ID=48081888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/076291 WO2013054835A1 (ja) 2011-10-12 2012-10-11 内視鏡システム及び画像生成方法

Country Status (5)

Country Link
US (1) US20140221794A1 (ja)
EP (1) EP2767210A4 (ja)
JP (1) JP5789232B2 (ja)
CN (1) CN103857321B (ja)
WO (1) WO2013054835A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015151703A1 (ja) * 2014-03-31 2015-10-08 富士フイルム株式会社 内視鏡システム及びその作動方法
JP2016067373A (ja) * 2014-09-26 2016-05-09 富士フイルム株式会社 内視鏡用光源装置及び内視鏡システム
JPWO2016059906A1 (ja) * 2014-10-16 2017-04-27 オリンパス株式会社 内視鏡装置及び内視鏡用光源装置
JP6422816B2 (ja) * 2015-04-28 2018-11-14 富士フイルム株式会社 内視鏡システム
JP6640866B2 (ja) * 2015-09-29 2020-02-05 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
JP6585623B2 (ja) * 2015-12-17 2019-10-02 オリンパス株式会社 生体情報計測装置、生体情報計測方法および生体情報計測プログラム
JP2018022781A (ja) * 2016-08-03 2018-02-08 パナソニックIpマネジメント株式会社 光学機器
US10827914B2 (en) * 2016-09-02 2020-11-10 Hoya Corporation Endoscope system and characteristic amount calculation method
US11602277B2 (en) * 2017-01-16 2023-03-14 Hoya Corporation Endoscope system and image display device
JP6858672B2 (ja) * 2017-08-29 2021-04-14 富士フイルム株式会社 医療画像処理システム及び内視鏡システム
JP6467746B1 (ja) * 2018-04-20 2019-02-13 パナソニックIpマネジメント株式会社 内視鏡システムおよび内視鏡システムの作動方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252218A (ja) 1995-03-16 1996-10-01 Olympus Optical Co Ltd 蛍光観察内視鏡装置
JP2001170009A (ja) 1999-12-20 2001-06-26 Olympus Optical Co Ltd 被検体観察装置
JP2003093336A (ja) 2001-09-26 2003-04-02 Toshiba Corp 電子内視鏡装置
JP2008183349A (ja) * 2007-01-31 2008-08-14 Olympus Corp 蛍光観察装置および蛍光観察方法
JP2011098088A (ja) * 2009-11-06 2011-05-19 Fujifilm Corp 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び画像処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3740318A1 (de) * 1986-11-29 1988-07-28 Olympus Optical Co Abbildungseinrichtung und ein diese einrichtung verwendendes endoskop
US5078150A (en) * 1988-05-02 1992-01-07 Olympus Optical Co., Ltd. Spectral diagnosing apparatus with endoscope
US6932762B2 (en) * 2001-09-21 2005-08-23 Fujinon Corporation Endoscope having red component cut filter
JP2006141711A (ja) * 2004-11-19 2006-06-08 Olympus Corp 内視鏡観察光学系
BRPI0608982A2 (pt) * 2005-05-11 2010-01-12 Olympus Medical Systems Corp dispositivo de processamento de sinal para aparelho observação biológica
JP5057675B2 (ja) * 2006-03-03 2012-10-24 オリンパスメディカルシステムズ株式会社 生体観察装置
US8111286B2 (en) * 2006-09-28 2012-02-07 Fujifilm Corporation Image processing apparatus, endoscope, and computer readable medium
JP4931199B2 (ja) * 2006-09-29 2012-05-16 富士フイルム株式会社 電子内視鏡装置
JP5246698B2 (ja) * 2008-12-09 2013-07-24 富士フイルム株式会社 撮像装置
EP2384686B8 (en) * 2009-04-21 2013-01-16 Olympus Medical Systems Corp. Fluorescence image device and fluorescence image acquiring method
JP2011091158A (ja) * 2009-10-21 2011-05-06 Olympus Corp 光源装置、電子画像取得装置、電子画像観察装置、内視鏡装置、カプセル内視鏡装置
JP2011104199A (ja) * 2009-11-19 2011-06-02 Fujifilm Corp 内視鏡装置
JP2013521900A (ja) * 2010-03-17 2013-06-13 ズオン、ハイシャン 高速マルチスペクトルイメージングの方法および装置と癌検出および局在診断への応用
JP5393554B2 (ja) * 2010-03-23 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5606120B2 (ja) * 2010-03-29 2014-10-15 富士フイルム株式会社 内視鏡装置
JP5395725B2 (ja) * 2010-04-05 2014-01-22 富士フイルム株式会社 電子内視鏡システム
JP5587120B2 (ja) * 2010-09-30 2014-09-10 富士フイルム株式会社 内視鏡用光源装置
JP5309120B2 (ja) * 2010-12-20 2013-10-09 富士フイルム株式会社 内視鏡装置
JP5554253B2 (ja) * 2011-01-27 2014-07-23 富士フイルム株式会社 電子内視鏡システム
JP5451802B2 (ja) * 2011-04-01 2014-03-26 富士フイルム株式会社 電子内視鏡システム及び電子内視鏡システムの校正方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08252218A (ja) 1995-03-16 1996-10-01 Olympus Optical Co Ltd 蛍光観察内視鏡装置
JP2001170009A (ja) 1999-12-20 2001-06-26 Olympus Optical Co Ltd 被検体観察装置
JP2003093336A (ja) 2001-09-26 2003-04-02 Toshiba Corp 電子内視鏡装置
JP2008183349A (ja) * 2007-01-31 2008-08-14 Olympus Corp 蛍光観察装置および蛍光観察方法
JP2011098088A (ja) * 2009-11-06 2011-05-19 Fujifilm Corp 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2767210A4

Also Published As

Publication number Publication date
EP2767210A1 (en) 2014-08-20
US20140221794A1 (en) 2014-08-07
CN103857321B (zh) 2016-08-17
JP5789232B2 (ja) 2015-10-07
EP2767210A4 (en) 2015-07-15
CN103857321A (zh) 2014-06-11
JP2013099510A (ja) 2013-05-23

Similar Documents

Publication Publication Date Title
WO2013054835A1 (ja) 内視鏡システム及び画像生成方法
JP5371946B2 (ja) 内視鏡診断装置
JP5309120B2 (ja) 内視鏡装置
JP5395725B2 (ja) 電子内視鏡システム
JP5331904B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
US9596982B2 (en) Endoscope system and composite image generation method
WO2013005533A1 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像表示方法
WO2013111623A1 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP5631764B2 (ja) 内視鏡システム及びその作動方法
JP5789280B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP5667917B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP5385188B2 (ja) 電子内視鏡システム
JP5757891B2 (ja) 電子内視鏡システム、画像処理装置、画像処理装置の作動方法及び画像処理プログラム
WO2013111622A1 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP2012090725A (ja) 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び画像処理方法
JP2009039510A (ja) 撮像装置
US9788709B2 (en) Endoscope system and image generation method to generate images associated with irregularities of a subject
JP5611891B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6017669B2 (ja) 画像処理装置及び内視鏡システムの作動方法
JP6141220B2 (ja) 内視鏡用光源装置及び内視鏡システム
JP5829472B2 (ja) 内視鏡システム及びその作動方法
JP2016067373A (ja) 内視鏡用光源装置及び内視鏡システム
JP2013102898A (ja) 内視鏡診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12839296

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012839296

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE