WO2017130325A1 - 内視鏡観察方法及び内視鏡装置 - Google Patents

内視鏡観察方法及び内視鏡装置 Download PDF

Info

Publication number
WO2017130325A1
WO2017130325A1 PCT/JP2016/052332 JP2016052332W WO2017130325A1 WO 2017130325 A1 WO2017130325 A1 WO 2017130325A1 JP 2016052332 W JP2016052332 W JP 2016052332W WO 2017130325 A1 WO2017130325 A1 WO 2017130325A1
Authority
WO
WIPO (PCT)
Prior art keywords
substance
light
characteristic
luminance image
image
Prior art date
Application number
PCT/JP2016/052332
Other languages
English (en)
French (fr)
Inventor
渡辺 吉彦
伊藤 毅
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2017563456A priority Critical patent/JP6661668B2/ja
Priority to CN201680080415.1A priority patent/CN108601510B/zh
Priority to PCT/JP2016/052332 priority patent/WO2017130325A1/ja
Publication of WO2017130325A1 publication Critical patent/WO2017130325A1/ja
Priority to US16/047,074 priority patent/US11510558B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]

Definitions

  • the present invention relates to an endoscope observation method and an endoscope apparatus for observing a subject.
  • the site of interest in a subject is detected by an endoscope as follows. That is, first, a rough observation is performed by screening for white light. As a result of the observation, the location where the lesion is suspected is related to the lesion by special light such as NBI as disclosed in JP-A-2015-91467 (hereinafter referred to as Patent Document 1). Deep features such as blood hemoglobin are detected. Thus, the detection result of the characteristic substance is useful for finding a lesion such as cancer or tumor.
  • Patent Document 1 Although it is closely related to the lesioned part, as in Patent Document 1, when a lesioned part such as cancer is found from the detection result of one characteristic substance, it is overlooked, or conversely, the normal part is judged to be positive. In some cases, there is a need to improve discovery accuracy.
  • the present invention has been made in view of the above points.
  • An endoscopic observation method and an endoscope that can improve the accuracy of finding a target site in a subject that is a desired observation target, for example, a lesion in a body cavity.
  • An object is to provide a mirror device.
  • the first narrowband light and the second narrowband light having wavelengths different from each other in the absorbance of the first characteristic substance and the second characteristic substance included in a desired observation target are described.
  • a narrow-band light selecting step for selecting the narrow-band light, a narrow-band light irradiating step for irradiating the observation object with the first narrow-band light and the second narrow-band light, and the observation object An imaging step of imaging the reflected light of the first narrowband light and the reflected light of the second narrowband light from the first feature substance based on the imaging data obtained in the imaging step;
  • a feature substance presence image generation step for generating a feature substance presence image representing the presence of the second feature substance; and a display step for displaying the feature substance presence image.
  • the first narrowband light having the wavelength different from each other in the first characteristic substance and the second characteristic substance included in the desired observation target and the first narrowband light A narrow-band light selection unit that selects two narrow-band lights, an illumination unit that irradiates the observation object with the first narrow-band light and the second narrow-band light as illumination light, and the observation target
  • An imaging unit that images the reflected light of the first narrowband light and the reflected light of the second narrowband light from an object, and the first characteristic substance based on imaging data obtained by the imaging unit
  • an image processing unit that generates a feature substance presence image representing the presence of the second feature substance, and a display unit that displays the feature substance presence image.
  • narrow band lights having wavelengths with different absorbances are selected for the respective characteristic substances, and a plurality of narrow band lights are selected.
  • FIG. 1A is a flowchart for explaining an outline of an endoscope observation method according to an embodiment of the present invention.
  • FIG. 1B is a schematic diagram for explaining a region of interest in a subject.
  • FIG. 2 is a flowchart for explaining details of the endoscope observation method according to the embodiment of the present invention.
  • FIG. 3 is a diagram for explaining a difference in absorbance between two characteristic substances.
  • FIG. 4 is a diagram illustrating light absorption spectra of the first characteristic substance and the second characteristic substance for explaining an example of a method for selecting the first narrowband light and the second narrowband light.
  • FIG. 5 is a diagram showing light absorption spectra of the first characteristic substance and the second characteristic substance for explaining another example of the selection method of the first narrowband light and the second narrowband light.
  • FIG. 6 is a diagram illustrating light absorption spectra of the first characteristic substance and the second characteristic substance for explaining still another example of the selection method of the first narrowband light and the second narrowband light. is there.
  • FIG. 7 is a diagram showing a light absorption spectrum of hemoglobin as an example of the first characteristic substance.
  • FIG. 8 is a diagram showing a light absorption spectrum of Indianin Green as an example of the second characteristic substance.
  • FIG. 9 is a diagram showing a light absorption spectrum of indicocarmine as another example of the first characteristic substance.
  • FIG. 10 is a diagram illustrating a first luminance image and a second luminance image.
  • FIG. 11 is a diagram for explaining generation of a composite luminance image from the first luminance image and the second luminance image.
  • FIG. 11 is a diagram for explaining generation of a composite luminance image from the first luminance image and the second luminance image.
  • FIG. 12 is a diagram for explaining an overlapping region between the first characteristic substance and the second characteristic substance.
  • FIG. 13A is a diagram illustrating a first luminance image and a second luminance image when only the first characteristic substance is detected.
  • FIG. 13B shows a state after the contrast increasing process obtained by increasing the contrast with respect to the region of the second luminance image corresponding to the region where the first characteristic substance is detected in the first luminance image of FIG. 13A. It is a figure which shows a 2nd brightness
  • FIG. 14 is a diagram illustrating a feature substance emphasized image.
  • FIG. 15 is a diagram showing a light absorption spectrum of methylene blue as still another example of the first characteristic substance.
  • FIG. 16 is an external view of an endoscope apparatus for carrying out an endoscope observation method according to an embodiment of the present invention.
  • FIG. 17 is a block diagram illustrating an example of a schematic configuration of the endoscope apparatus.
  • FIG. 18 is a block diagram illustrating another example of a schematic configuration of an endoscope apparatus.
  • an endoscope means a medical endoscope (upper gastrointestinal endoscope, large intestine endoscope, ultrasonic endoscope, cystoscope, nephroscopy, bronchoscope, etc.) and industrial use.
  • the present invention is not limited to an endoscope, and generally refers to a device including an insertion portion that is inserted into a subject (for example, a body cavity (lumen)).
  • first, narrowband light is selected (step S1).
  • the subject 10 that is a desired observation target may include an attention site 12, for example, a lesion in a body cavity.
  • the first characteristic substance 14 and A second characteristic substance 16 is included. Therefore, the first narrow band light included in the first wavelength band and the second wavelength band included in the first wavelength band having the wavelengths different in absorbance between the first characteristic substance 14 and the second characteristic substance 16.
  • the second narrowband light is selected. The details of the first and second narrowband light selection methods will be described later.
  • the subject 10 is irradiated with the first narrow-band light and the second narrow-band light thus selected from the irradiation unit arranged at the distal end of the insertion portion of the endoscope (step S2). Then, the reflected light of the first narrowband light and the reflected light of the second narrowband light from the subject 10 are imaged by the imaging unit that is also disposed at the distal end of the insertion portion of the endoscope (step) S3).
  • a feature substance presence image representing the presence of the first feature substance and the second feature substance is generated (step S4). Then, the generated characteristic substance presence image is displayed on a display unit such as a monitor connected to a main body unit (video processor) to which an endoscope is connected (step S5).
  • the subject 10 is irradiated with narrowband light having wavelengths having different absorbances for each of the characteristic substances 14 and 16 that are closely related to the target region 12 that is a desired observation target.
  • narrowband light having wavelengths having different absorbances for each of the characteristic substances 14 and 16 that are closely related to the target region 12 that is a desired observation target.
  • the first characteristic substance 14 and the second characteristic substance 16 are desirably different types of pigments suitable for different applications.
  • the first characteristic substance 14 is hemoglobin, which is a blood vessel enhancement substance that emphasizes blood vessels
  • the second characteristic substance 16 is indigo carmine, which is a structure enhancement substance that emphasizes the structure and bit pattern of cells. is there.
  • the pigments of the first characteristic substance 14 and the second characteristic substance 16 are known to be cancer markers.
  • cancer markers By using a plurality of types of cancer markers, there are effects of preventing erroneous detection of cancer and increasing detection sensitivity.
  • the step S1 for selecting the narrowband light includes a feature substance selection step (step S11), a narrowband light wavelength selection step (step S12), and an irradiation sequence selection step (step S13). And including.
  • the feature substance selection step of step S11 is a step of selecting the first feature substance 14 and the second feature substance 16.
  • the selection of the first and second characteristic substances 14 and 16 can be performed, for example, by the observer arbitrarily selecting from the list of characteristic substances.
  • a list of characteristic substances for example, hemoglobin, which is a pigment that emphasizes the structure of a blood vessel component deeply related to a tumor, and indocyanine green (hereinafter, ICG), which is a pigment that emphasizes a structure such as a pit pattern.
  • ICG indocyanine green
  • a combination of characteristic substances may be selected according to the type of the target region 12.
  • a list of recommended combinations corresponding to the type of the target region 12 is prepared in advance so that the first and second feature substances 14 and 16 can be selected from the list. May be.
  • selection in the characteristic substance selection step, the narrowband light wavelength selection step, and the irradiation sequence selection step in steps S11 to S13 represents “selection” in a broad sense. That is, there are a case where there are a plurality of choices, and a case where a selection is made from among them and a case where there are no other choices and are determined in advance are included.
  • a desired characteristic substance is selected from the list of recommended combinations according to the specific type of the site of interest 12.
  • the narrowband light wavelength selection step of step S12 is a step of selecting the first narrowband light and the second narrowband light according to the selected first and second characteristic substances 14 and 16. Two narrow band lights (first narrow band light and second narrow band light) having different wavelengths that can detect two different characteristic substances (first characteristic substance 14 and second characteristic substance 16). Select as follows:
  • the first narrow-band light and the second narrow-band light in which the difference in absorbance for each wavelength between the first characteristic substance 14 and the second characteristic substance 16 is a predetermined value or more are selected.
  • the first narrowband light including a wavelength at which the difference in absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 becomes the maximum value or the maximum value, and the difference is minimum.
  • the second narrowband light including the wavelength that is the value or the minimum value is selected as the first narrowband light and the second narrowband light.
  • the difference in absorbance is a value obtained by subtracting the absorbance of the second feature substance 16 from the absorbance of the first feature substance 14. Therefore, when the absorbance is reversed as in the light absorption spectrum 18 of the first characteristic substance and the light absorption spectrum 20 of the second characteristic substance shown in FIG. 3, the maximum value 22 or the maximum value is a positive value. However, the minimum value 24 or the minimum value is a negative value. If the absorbance is not reversed, the exception is that the second narrowband light is not at a wavelength at which the difference is the minimum value 24 or the minimum value, but away from a wavelength at which the difference is the maximum value 22 or the maximum value. It is desirable to select a peak wavelength (not in the same wavelength region).
  • a difference in absorbance is calculated for each wavelength from the absorbance of each of the first characteristic substance 14 and the second characteristic substance 16.
  • the difference in absorbance is a value obtained by subtracting the absorbance of the second feature substance 16 from the absorbance of the first feature substance 14.
  • the maximum and minimum values of the calculated absorbance difference are obtained, and the narrowband light having the wavelength at the maximum value is set as the first narrowband light, and the narrowband light having the wavelength at the minimum value is determined.
  • the second narrowband light is assumed. In this case, if there is a wavelength range in which the absorbance of the second feature substance 16 is greater than the absorbance of the first feature substance 14, the minimum value is negative.
  • narrowband light having a wavelength that takes the maximum value 22 of the difference in absorbance is used.
  • the narrow band light 24 is selected, and the narrow band light having a wavelength that takes the minimum value 26 (negative value) of the difference in absorbance is selected as the second narrow band light 28.
  • the two characteristic substances 14 and 16 can be specified by selecting the wavelength at which the difference in absorbance is maximum or maximum, minimum or minimum.
  • the difference in absorbance is actually the maximum value, maximum value, minimum value, or minimum value. Even when the value is not a value, when the absorbance difference is large near the peak wavelength of the absorbance of the first characteristic substance 14 (second characteristic substance 16) and in the vicinity of the peak wavelength, the wavelength may be preferentially selected. In this case, the difference in absorbance is preferably half or more of the maximum value.
  • the first narrowband light 24 and the second narrowband light 28 can be selected based on the absorbance of each wavelength of the first characteristic substance 14 and the second characteristic substance 16. .
  • the absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 includes the narrowband light included in the third wavelength region including the maximum or maximum wavelength, and the respective wavelengths.
  • the narrowband light included in the fourth wavelength region including the wavelength having the minimum value or the minimum value for each absorbance is selected as the first narrowband light 24 and the second narrowband light 28, respectively.
  • the absorbance ratio is not the difference between the first characteristic substance 14 and the second characteristic substance 16 for each wavelength. It is also possible to use. That is, the first characteristic substance 14 and the second characteristic substance 16 have a wavelength at which the absorbance of one characteristic substance is 1/2 or less, preferably 1/5 or less, more preferably 1/10 or less of the other. Narrowband light and narrowband light having a wavelength at which the absorbance of the other characteristic substance is 1 ⁇ 2 or less, preferably 1/5 or less, more preferably 1/10 or less of the other characteristic substance, are used as the first narrowband light. 24 and the second narrowband light 28 may be selected.
  • narrowband light having a wavelength satisfying B / A ⁇ 1/2, preferably B / A ⁇ 1/5, and more preferably B / A ⁇ 1/10 is selected as the first narrowband light 24.
  • the second narrowband light 28 has a wavelength at which A / B ⁇ 1/2, preferably A / B ⁇ 1/5, and more preferably A / B ⁇ 1/10. Select narrowband light with.
  • the two characteristic substances 14 and 16 can be specified. Separation can be performed with higher accuracy.
  • the maximum value and the minimum value as described with reference to FIG. 4 and A / B ⁇ 1/2 and B / A ⁇ 1/2 as described with reference to FIG. It can be expressed that the absorbances of the first characteristic substance 14 and the second characteristic substance 16 are reversed. Therefore, in the selection of the first narrowband light 24 and the second narrowband light 28, the narrowband light in the region where the absorbances of the first characteristic substance 14 and the second characteristic substance 16 are reversed, respectively. You may make it select one by one. That is, in the first characteristic substance 14 and the second characteristic substance 16, two narrowband lights having wavelengths whose absorbances are opposite to each other are selected as the first narrowband light 24 and the second narrowband light 28. To do.
  • the absorbance of the light absorption spectrum 18 of the first characteristic substance is high
  • the first narrowband light 24 is selected in a wavelength region where the absorbance of the light absorption spectrum 20 of the characteristic material is low, and the light absorption spectrum 18 of the first characteristic material is low, and the light absorption of the second characteristic material is low.
  • the second narrowband light 28 is selected in the wavelength region where the absorbance of the spectrum 20 is high.
  • the selection of the first and second narrowband lights 24 and 28 can be automatically determined in accordance with the selection of the first and second characteristic substances 14 and 16. However, based on the absorbance of each wavelength of the first characteristic substance 14 and the second characteristic substance 16, the options of the first and second narrowband lights 24 and 28 are presented, and the observer can select the desired characteristic. It is also possible to select the first narrowband light 24 and the second narrowband light 28, respectively.
  • the light absorption spectrum 18 of the first characteristic substance and the light absorption spectrum 20 of the second characteristic substance are presented to the observer.
  • a desired wavelength may be designated as the first narrowband light 24 and the second narrowband light 28 based on the two light absorption spectra.
  • the first and second information are stored in advance using information on the type of the light source mounted on the endoscope. Two options for narrowband light 24 and 28 may be presented.
  • an endoscope including a wavelength region in which the ratio or difference between the light absorption spectrum 18 of the first characteristic substance and the light absorption spectrum 20 of the second characteristic substance is equal to or greater than a predetermined value.
  • the type of the light source may be automatically selected or provided by an observer for selection.
  • the first narrowband light 24 and the second narrowband light 28 are selected.
  • the two narrow band lights 24 and 28 capable of detecting such two characteristic substances are selected as follows.
  • the hemoglobin as the first characteristic substance 14 has an absorbance peak in the vicinity of 400 nm to 420 nm, and the absorbance exceeds 1000 at 400 nm.
  • the absorbance of ICG, which is the second characteristic substance 16 is sufficiently small around 400 nm as shown in FIG. Accordingly, the difference in absorbance in this case becomes a maximum value, and the narrowband light having a wavelength near 400 nm is selected as the first narrowband light 24.
  • ICG which is the second characteristic substance 16
  • ICG which is the second characteristic substance 16
  • the absorbance peak (about 750) in the vicinity of 790 nm as shown in FIG.
  • the absorbance is sufficiently small in the vicinity of 790 nm of hemoglobin, which is the first characteristic substance 14, and is in the vicinity of the bottom. Accordingly, the difference in absorbance in this case is the minimum value, and the narrowband light having a wavelength near 790 nm is selected as the second narrowband light 28.
  • indicocarmine is selected as the first characteristic substance 14 and ICG is selected as the second characteristic substance 16
  • indicocarmine has an absorbance peak at about 610 nm of about 30.
  • the absorbance of ICG, which is the second characteristic substance 16 is about 0 to 5 around 610 nm as shown in FIG. Therefore, the difference in absorbance in this case becomes a maximum value, and narrowband light having a wavelength near 610 nm is selected as the first narrowband light 24.
  • ICG which is the second characteristic substance 16
  • ICG which is the second characteristic substance 16
  • indicocarmine which is the first characteristic substance 14
  • the difference in absorbance in this case is a minimum value
  • the narrowband light having a wavelength near 790 nm is selected as the second narrowband light 28.
  • two characteristic substances and two narrow-band lights 24 and 28 are specifically selected for the method of finding the attention site 12 (lesioned portion, etc.) in the desired observation site are described.
  • two characteristic substances can be detected at the same time, which helps to improve the detection accuracy of the site of interest 12 (such as a tumor).
  • the irradiation sequence selection step of step S13 is a step of selecting an irradiation sequence for irradiating the selected first and second narrowband lights 24 and 28 in step S2.
  • the first irradiation sequence is a sequence for simultaneously irradiating the first narrowband light 24 and the second narrowband light 28.
  • the second irradiation sequence the first narrow-band light 24 and the second narrow-band light 28 are alternately switched by switching every imaging frame of the imager of the imaging unit or switching within one imaging frame. It is a sequence.
  • the third irradiation sequence is a sequence for irradiating the first narrowband light 24 and the second narrowband light 28 independently.
  • This observation sequence is selected from the list by the observer.
  • a measure such as providing a filter on the imager side is taken, and the first narrowband light 24 and the second narrowband light 24 It is desirable that the wavelength of the light 28 be separable. In other cases, both irradiation sequences can be selected.
  • any one irradiation sequence for example, the second irradiation sequence alone may be omitted, and the irradiation sequence selection step in step S13 may be omitted.
  • the second irradiation mode in which the irradiation sequence of the two narrow-band lights 28 can be arbitrarily changed may be selected.
  • the ratio of the irradiation time of the first narrowband light 24 and the second narrowband light 28 is fixed.
  • the observer can arbitrarily change the ratio of the irradiation time of the first narrowband light 24 and the second narrowband light 28.
  • the ratio of the irradiation time of the first narrowband light 24 and the second narrowband light 28 may be changed within the following two restrictions.
  • the first limitation is that the respective irradiation times of the first narrowband light 24 and the second narrowband light 28 are such that the first narrowband light 24 and the second narrowband light in the imaging step of step S3.
  • the irradiation time must be longer than the required amount of light.
  • the second limitation is that when the irradiation times of the first narrowband light 24 and the second narrowband light 28 generate the first luminance image and the second luminance image in step S41 described later, It is within the irradiation time in which image data having a brightness level that does not overshoot both the first brightness image and the second brightness image is obtained. Since the amount of light increases in proportion to the irradiation time, a brighter luminance image is generated as the amount of light increases. However, if the amount of light increases too much, the luminance image is overexposed. Therefore, in the second irradiation mode, the luminance image on which the weight is placed is brighter than the other, depending on how much weight the observer places on the first feature material 14 and the second feature material 16. Is possible.
  • the insertion portion of the endoscope is inserted into the body cavity that is the subject 10, and the above-described step S2 is performed.
  • the narrowband light irradiation step irradiation with the first narrowband light 24 and the second narrowband light 28 according to the selection is performed.
  • imaging is performed by the imaging unit arranged at the distal end portion of the insertion portion of the endoscope.
  • the imager of the imaging unit is an imaging device having a Bayer array color filter.
  • the feature substance presence image generation step of step S4 is based on the brightness obtained from the imaging data, and the first brightness image as the image information indicating the presence of the first feature substance 14 and the second feature substance 16
  • step S2 when the second irradiation sequence to be alternately irradiated is selected, in step S2, the first narrowband light 24 and the second narrowband light 28 are alternately alternated one by one. Irradiated.
  • Each of the irradiated narrow-band lights 24 and 28 is reflected by the subject 10 (target region 12) and received by the Bayer imager of the imaging unit.
  • the Bayer imager photoelectrically converts each received narrow band light 24, 28 and accumulates signal charges.
  • step S41 the image processing unit included in the video processor of the endoscope apparatus reads out the signal charge accumulated by the Bayer imager as an imaging signal, and uses the first narrowband light 24 as shown in FIG.
  • a first luminance image 30 that is a luminance image related to the first characteristic material 14 and a second luminance image 32 that is a luminance image related to the second characteristic material 16 by the second narrowband light 28 are generated.
  • the read imaging signal is processed.
  • color separation is performed, and the first luminance image 30 and the second luminance image 32 can be generated from any one of the separated imaging signals.
  • Step S4 a feature substance presence / absence determination is further performed for the first luminance image 30 and the second luminance image 32 thus generated based on the contrast in the luminance image.
  • Step (Step S42) is included. That is, when the target region 12 including the first characteristic substance 14 such as a lesion is present in the subject 10, the first narrowband light 24 is absorbed by the first characteristic substance 14 and received by the Bayer imager. The amount of reflected light decreases. Therefore, as shown in FIG. 10, in the first luminance image 30, the region where the first characteristic substance 14 exists has a low luminance and appears as the first characteristic substance image 34.
  • the second narrowband light 28 is absorbed by the second characteristic substance 16 and received by the Bayer imager.
  • the amount of reflected light decreases. Therefore, as shown in FIG. 10, in the second luminance image 32, the region where the second characteristic material 16 exists has a low luminance and appears as the second characteristic material image 36. Therefore, in the feature substance presence / absence determining step in step S42, the presence of the first feature substance 14 is confirmed from the contrast of the first brightness image 30 which is a brightness image related to the first feature substance 14, and The presence of the second characteristic material 16 is confirmed from the contrast of the second luminance image 32 that is a luminance image related to the characteristic material 16.
  • the contrast value may be selected steplessly or stepwise by the observer according to his / her preference, or the observer may be able to select from the values prepared in advance for each application.
  • the presence or absence of a characteristic substance can be easily determined from the contrast in the luminance image.
  • step S5 the following display is performed according to the determination result of the characteristic substance presence / absence determination step of step S42.
  • step S42 when the presence of both the first characteristic substance 14 and the second characteristic substance 16 can be confirmed in the characteristic substance presence / absence determination step in step S42, as shown in FIG. 14 is generated by synthesizing the first luminance image 30 relating to 14 and the second luminance image 32 relating to the second characteristic substance 16, and is displayed on the display unit (step S51).
  • the overlapping existence area 40 including the extracted overlapping area is identified and displayed as a broken-line rectangular area such as red.
  • the first luminance image 30, the second luminance image 32, and the combined luminance image 38 obtained by synthesizing the first luminance image and the second luminance image are stored as image data (step S53). .
  • step S6 the process returns to the narrow band light irradiation step of step S2 and the observation is continued. That is, after the image data is stored, if it is desired to continue to observe the same part, the vicinity, other parts, etc., the process returns to the narrowband light irradiation step in step S2.
  • step S54 when it is determined in the characteristic substance presence / absence determination step in step S42 that either one of the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value, The existence area of the characteristic substance in one luminance image that is equal to or higher than the contrast value is grasped, and the contrast of the same existence area in the other luminance image is increased. For example, as shown in FIG.
  • the first characteristic material image 34 can be confirmed in the first luminance image 30 related to the first characteristic material 14, but in the second luminance image 32 related to the second characteristic material 16.
  • the existence area 34A of the first characteristic material image 34 on the first luminance image 30 as shown by a broken-line rectangle in FIG. 13A is grasped.
  • the second feature material image 36 is extracted by increasing the contrast in the same region as the existence region 34A on the second luminance image 32 related to the second feature material 16. If the second characteristic material image 36 on the second luminance image 32 becomes equal to or higher than a predetermined contrast value due to this increase in contrast, it appears on the second luminance image 32 as shown in FIG. 13B. .
  • the increase in contrast is a method of increasing contrast by general image processing. That is, normally, the luminance change changes to a straight line, but the contrast can be increased by making the slope of the straight line steep.
  • a value below a certain value is the minimum luminance
  • a value above the certain value is the maximum luminance
  • the intermediate slope is steep.
  • a combined luminance image 38 obtained by combining the first luminance image 30 relating to the first characteristic substance 14 and the second luminance image 32 relating to the second characteristic substance 16 is generated and displayed.
  • the synthesized luminance image 38 includes the first characteristic material image 34 and the second characteristic material image 36. It is.
  • the synthesized luminance image 38 includes only the first characteristic material image 34. .
  • step S52 an overlapping region of the two feature materials of the first feature material 14 and the second feature material 16 is extracted from the generated synthesized luminance image 38, and the overlap of the extracted feature materials is extracted.
  • the area is identified and displayed on the synthesized luminance image 38 so that it can be easily distinguished from other areas on the image (step S56).
  • step S53 the first luminance image 30, the second luminance image 32, and the combined luminance image 38 obtained by combining the first luminance image and the second luminance image are used as image data. Save (step S57).
  • step S6 the process returns to the narrow band light irradiation step of step S2 and the observation is continued.
  • step S42 when it is determined that the contrast value of both the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value, that is, two If it is determined that there is no feature substance, the first luminance image 30 and the second luminance image 32 are displayed (step S58). That is, an observation image of the subject 10 where the site of interest 12 does not exist is displayed.
  • step S6 the process returns to the narrow band light irradiation step of step S2 and the observation is continued.
  • Step S6 the insertion part of an endoscope is extracted from the body cavity which is the subject 10, and it moves to a normal endoscope stop operation, and ends.
  • the overlapping existence area 40 including the extracted overlapping area of the feature substance is identified and displayed as a rectangular area of a broken line such as red, but the overlapping area of the characteristic substance is easily displayed on the image with other areas. It is also possible to generate and display a feature substance emphasized image 42 that highlights an overlap region of actual feature substances so that it can be distinguished.
  • the feature substance emphasized image 42 may be an image in which the overlapping area 40A of feature substances is displayed dark and the other areas are displayed lightly. In this case, it is possible to omit the identification display of the rectangular area indicating the overlapping existence area 40.
  • each of the three narrow band lights has a characteristic substance with high absorbance, and two characteristic substances other than the characteristic substance with high absorbance are selected in a sufficiently small combination.
  • the first characteristic substance 14 is hemoglobin
  • the second characteristic substance 16 is ICG
  • the third characteristic substance is indicocarmine
  • hemoglobin as the first characteristic substance 14 has an absorbance peak in the vicinity of 400 nm to 420 nm, and the absorbance exceeds 1000 at 400 nm.
  • ICG as the second characteristic substance 16 and indicocarmine as the third characteristic substance are sufficiently small around 400 nm as shown in FIGS. Accordingly, the difference in absorbance in this case becomes a maximum value, and the narrowband light having a wavelength near 400 nm can be used as the first narrowband light 24.
  • the ICG as the second characteristic substance 16 has an absorbance peak (about 750) in the vicinity of 790 nm.
  • the absorbance is sufficiently small and is near the bottom. Accordingly, in this case, the difference in absorbance becomes a minimum value, and the narrowband light having a wavelength near 790 nm can be used as the second narrowband light 28.
  • indicocarmine which is the third characteristic substance, has a peak of absorption at about 610 nm, which is about 30.
  • ICG which is the second characteristic material 16
  • the difference in absorbance in this case is a maximum value, and the narrowband light having a wavelength near 610 nm can be used as the third narrowband light.
  • step S2 the steps after the narrow-band light irradiation step of step S2 are the same as in the case of two types of characteristic substances with two narrow-band lights.
  • the characteristic substance is not limited to the above-mentioned hemoglobin, ICG and indicocarmine.
  • methylene blue having a light absorption spectrum shown in FIG. 15 can be selected.
  • the wavelength is 670 nm
  • hemoglobin (near 400 nm) and ICG (near 790 nm) are completely distinguishable, and even with indicocarmine (near 610 nm), the difference in absorbance is about double.
  • indicocarmine near 610 nm
  • a combination of methylene blue and 670 nm can be selected as the combination of the fourth characteristic substance and the fourth wavelength.
  • any characteristic substance can be used as long as it is a substance included in the site of interest 12 such as a lesion.
  • the endoscope device 44 includes an endoscope 46, a main body (video processor) 48, an image display unit (monitor) 50, and an input unit 52.
  • the endoscope 46 and the main body 48 are provided with an illumination unit 54 that irradiates the subject 10 that may include the region of interest 12 with the first and second narrowband light 24 and 28 as illumination light IL. Yes.
  • the endoscope 46 includes an imaging unit 56 that detects the reflected light RL of the illumination light IL irradiated to the subject 10 that may include the site of interest 12 and outputs an imaging signal.
  • the input unit 52 is connected to the main body 48 or is disposed on the main body 48 and inputs various observer instructions to the main body 48.
  • the main body 48 includes an image processing unit 58 that generates a display image from an imaging signal of the imaging unit 56 of the endoscope 46, and a narrowband light selection unit 60 that sets the illumination unit 54 in accordance with the selection input to the input unit 52. And have.
  • the image display unit 50 is connected to the main body unit 48 and displays the display image generated by the image processing unit 58 as an observation body image.
  • the endoscope 46 is provided with an elongated insertion portion 62 that is a bending member, and an operation portion 64 that is connected to the proximal end portion of the insertion portion 62.
  • the insertion portion 62 includes a distal end hard portion 66, a bending portion 68 that bends, and a flexible tube portion 70 from the distal end side to the proximal end portion side of the insertion portion 62.
  • the proximal end portion of the distal end hard portion 66 is connected to the distal end portion of the bending portion 68
  • the proximal end portion of the bending portion 68 is connected to the distal end portion of the flexible tube portion 70.
  • the distal end hard portion 66 is a distal end portion of the insertion portion 62 and a distal end portion of the endoscope 46, and is a hard member.
  • the distal end hard portion 66 is provided with an imaging portion 56.
  • the bending portion 68 is bent in a desired direction in accordance with an operation by an observer (physician or the like) of the bending operation portion 72 provided in the operation portion 64.
  • the observer bends the bending portion 68 by operating the bending operation portion 72. Due to the bending of the bending portion 68, the position and orientation of the distal end hard portion 66 are changed, and the observation site of the subject 10 is captured in the observation visual field.
  • the observation site captured in this way is irradiated with illumination light IL from the illumination unit 54, and the observation site is illuminated.
  • the bending portion 68 is configured by connecting a plurality of node rings (not shown) along the longitudinal axis direction of the insertion portion 62.
  • the flexible tube portion 70 has a desired flexibility and is bent by an external force.
  • the flexible tube portion 70 is a tubular member that extends from the main body portion 74 of the operation portion 64.
  • the operation unit 64 includes a main body (scope) 74, a gripping unit 76, and a universal cord 78.
  • the flexible tube portion 70 extends from the tip portion of the main body portion 74.
  • the grip portion 76 is connected to the base end portion of the main body portion 74 and is gripped by an observer who operates the endoscope 46.
  • the universal cord 78 connects between the grip portion 76 and the main body portion 48.
  • a bending operation part 72 for operating a plurality of operation wires (not shown) is provided in order to bend the bending part 68.
  • the bending operation unit 72 includes a left / right bending operation knob for bending the bending unit 68 to the left / right, an up / down bending operation knob for bending the bending unit 68 up / down, a fixing knob for fixing the position of the curved bending unit 68, have.
  • the left / right bending operation knob is connected to a left / right bending operation driving unit (not shown) driven by the left / right bending operation knob.
  • the vertical bending operation knob is connected to a vertical bending operation driving unit (not shown) that is driven by the vertical bending operation knob.
  • the bending operation driving unit in the up and down direction and the bending operation driving unit in the left and right direction are disposed in the grip unit 76, for example.
  • the bending operation drive unit in the left-right direction is connected to one left-right operation wire (not shown) that passes through the operation unit 64, the flexible tube unit 70, and the bending unit 68. It connects with the front-end
  • the vertical bending operation drive unit is connected to a single vertical operation wire (not shown) that passes through the operation unit 64, the flexible tube unit 70, and the bending unit 68.
  • the vertical operation wire is separate from the horizontal operation wire and can move independently of each other. Both ends of the vertical operation wire are connected to the tip of the bending portion 68.
  • the left / right bending operation knob bends the bending portion 68 in the left / right direction via the left / right bending operation driving portion and the left / right direction operation wire. Further, the up / down bending operation knob bends the bending portion 68 in the up / down direction via the up / down bending operation driving unit and the up / down operation wire.
  • Such bending operation unit 72 (left / right bending operation knob and up / down bending operation knob), left / right direction bending operation drive unit, left / right direction operation wire, up / down direction bending operation drive unit, and up / down direction operation wire are: A bending operation mechanism that operates the bending portion 68 in order to bend the bending portion 68.
  • the input unit 52 is for performing the above-described feature substance selection step in step S11 and the irradiation sequence selection step in step S13.
  • the observer can select a characteristic substance and an irradiation sequence via the input unit 52, and selection information indicating the selection result is output to the narrowband light selection unit 60 of the main body unit 48.
  • selection of narrow band light, selection of an irradiation mode, or selection of a contrast value may be performed via the input unit 52.
  • the illumination part 54 is for implementing the narrow-band light irradiation step of step S2 mentioned above.
  • the illumination unit 54 includes a plurality (n) of laser light sources 80-1 to 80-n, a light source driving unit 82, n optical fibers 84-1 to 84-n, and an optical multiplexing unit. 86, an optical fiber 88, and an irradiation unit 90.
  • the laser light sources 80-1 to 80-n, the light source driving unit 82, the optical fibers 84-1 to 84-n, the optical multiplexing unit 86, and a part of the optical fiber 88 are disposed in the main body 48, and the optical fiber The remaining part of 88 and the irradiation unit 90 are arranged in the endoscope 46.
  • the laser light source 80-1 (laser 1) is, for example, a laser light source that emits narrow band light (laser light) having a peak wavelength of 400 nm.
  • the laser light source 80-2 (laser 2) is a laser light source that emits narrowband light (laser light) having a peak wavelength of 590 nm, for example.
  • the laser light source 80-3 (laser 3) is a laser light source that emits narrowband light (laser light) having a peak wavelength of 610 nm, for example.
  • the laser light source 80-4 (laser 4) is a laser light source that emits narrow band light (laser light) having a peak wavelength of 780 nm, for example.
  • Laser light source 80-5 (laser 5) to laser light source 80-n (laser n) are laser light sources that emit other selectable narrow band light (laser light), respectively.
  • the light source driving unit 82 controls driving of the plurality of laser light sources 80-1 to 80-n.
  • the optical fibers 84-1 to 84-n guide the narrowband light emitted from the laser light sources 80-1 to 80-n to the optical multiplexing unit 86.
  • the optical multiplexer 86 is, for example, an optical fiber combiner that combines narrow-band light from the laser light sources 80-1 to 80-n guided through the optical fibers 84-1 to 84-n.
  • the optical fiber 88 guides the narrowband light combined by the optical combining unit 86 to the irradiation unit 90.
  • the irradiation unit 90 is disposed at the distal end hard portion 66 of the insertion unit 62 where the imaging unit 56 is disposed.
  • the irradiating unit 90 has the optical characteristics of the narrowband light guided from the main body unit 48 by the optical fiber 88 inserted through the universal cord 78 of the endoscope 46, the operation unit 64, and the insertion unit 62. After conversion, the subject 10 is irradiated as illumination light IL.
  • the irradiation unit 90 has a function of diffusing narrowband light guided by the optical fiber 88 and converting it to a desired light distribution, for example. The irradiation unit 90 does not convert the wavelength of light.
  • the imaging unit 56 is for performing the imaging step of step S3 described above.
  • the imaging unit 56 detects reflected / scattered light RL from the subject 10 and generates an imaging signal.
  • the imaging signal is output to the image processing unit 58 of the main body unit 48.
  • the imaging unit 56 has three types of light detection elements: an R light detection element that detects a red region using a color filter, a G light detection element that detects a green region, and a B light detection element that detects a blue region.
  • an R light detection element that detects a red region using a color filter
  • a G light detection element that detects a green region
  • a B light detection element that detects a blue region.
  • a Bayer imager Specifically, it is a CCD imager or a CMOS imager.
  • the narrow-band light selection unit 60 is for performing the narrow-band light wavelength selection step in step S12 and the irradiation sequence selection step in step S13.
  • the narrow band light selection unit 60 includes a narrow band light wavelength selection unit 92 and a light source setting unit 94.
  • the narrow-band light wavelength selection unit 92 has a difference in absorbance and / or a ratio of absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 selected via the input unit 52 at a predetermined value or more.
  • the first narrow band light 24 and the second narrow band light 28 are selected.
  • the narrow-band light wavelength selection unit 92 includes a first wavelength including a wavelength at which the difference in absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 is a maximum value or a maximum value.
  • the narrow band light included in the wavelength region and the narrow band light included in the second wavelength region including the wavelength at which the difference becomes the minimum value or the maximum value are referred to as the first narrow band light 24 and the second narrow band. Select as light 28.
  • the narrow-band light wavelength selection unit 92 may use the first characteristic substance 14 and the second characteristic substance 16 so that the absorbance of one characteristic substance is 1 ⁇ 2 or less of the other, desirably 1/5 or less, and more desirably.
  • Narrow-band light having a wavelength of 1/10 or less and Narrow-band light having a wavelength at which the absorbance of the other characteristic substance is 1/2 or less, preferably 1/5 or less, more preferably 1/10 or less of one Are selected as the first narrowband light 24 and the second narrowband light 28.
  • the narrow-band light wavelength selection unit 92 converts the two narrow-band lights having wavelengths whose absorbances are opposite to each other in the first characteristic material 14 and the second characteristic material 16 into the first narrow-band light 24 and The second narrow band light 28 is selected.
  • the light source setting unit 94 selects the laser light source 80-according to the selection information of the first and second narrowband light 24 and 28 from the narrowband light wavelength selection unit 92 and the irradiation sequence selected via the input unit 52.
  • Light source output pattern information indicating the light emission combinations 1 to 80-n and light emission patterns is output to the light source driving unit 82 of the illumination unit 54.
  • the light source driving unit 82 controls lighting of the laser light sources 80-1 to 80-n according to the light source output pattern information.
  • the narrow-band light selection unit 60 may be configured with a hardware circuit or a processor. When configured by a processor, the processor executes the processor in an external memory (not shown) accessible by the processor so that the narrowband light selection unit 60 (narrowband light wavelength selection unit 92 and / or light source setting unit 94). ) Is stored as a program code.
  • the image processing unit 58 includes the luminance image generation step in step S41 described above, the two characteristic substance presence / absence determination steps in step S42, the synthesized luminance image generation and display step in step S51, the overlapping region extraction and display step in step S52, and step S54. This is for carrying out the contrast increase step of the characteristic substance without the step, the synthetic luminance image generation and display step in step S55, the overlapping region extraction and display step in step S56, and the luminance image display step in step S58.
  • the data storage step of step S53 and step S57 may also be performed.
  • the image processing unit 58 includes a luminance image generation unit 96, a characteristic substance presence / absence determination unit 98, a combined luminance image generation unit 100, an overlapping area extraction unit 102, an identification image generation unit 104, and a contrast increase unit 106. .
  • the luminance image generation unit 96 is for performing the luminance image generation step of step S41 described above. That is, the luminance image generation unit 96 determines the presence of the first luminance image 30 as the image information indicating the presence of the first characteristic substance 14 and the presence of the second characteristic substance 16 based on the luminance obtained from the imaging data. A second luminance image 32 as image information to be shown is generated as a feature substance presence image. The generated first and second luminance images 30 and 32 are output to the characteristic substance presence / absence determining unit 98, the synthesized luminance image generating unit 100, and the contrast increasing unit 106.
  • the characteristic substance presence / absence determination unit 98 is for carrying out the two characteristic substance presence / absence determination steps of step S42 described above. That is, the feature substance presence / absence determination unit 98 determines the presence / absence of a feature substance from the contrast in the luminance image for each of the first luminance image 30 and the second luminance image 32 generated by the luminance image generation unit 96. The determination result is output to the composite luminance image generation unit 100 and the contrast increase unit 106.
  • the combined luminance image generation unit 100 is for carrying out the above-described combined luminance image generation and display step of step S51 and step S55 and the luminance image display step of step S58. That is, the composite luminance image generation unit 100, when the characteristic substance presence / absence determination unit 98 determines that two characteristic substances exist, the first luminance image 30 and the second luminance image generated by the luminance image generation unit 96. The two luminance images 32 and 32 are combined to generate a combined luminance image 38. The generated combined luminance image 38 is output to the overlapping area extraction unit 102 and the identification image generation unit 104.
  • the composite luminance image generation unit 100 determines that the first luminance image 30 and the second luminance image generated by the luminance image generation unit 96 when the characteristic substance presence / absence determination unit 98 determines that both of the two characteristic materials do not exist. You may make it output to the image display part 50 as it is, without combining with the luminance image 32.
  • FIG. 1 the composite luminance image generation unit 100 determines that the first luminance image 30 and the second luminance image generated by the luminance image generation unit 96 when the characteristic substance presence / absence determination unit 98 determines that both of the two characteristic materials do not exist. You may make it output to the image display part 50 as it is, without combining with the luminance image 32.
  • the overlapping area extraction unit 102 is for performing the overlapping area extraction and display steps of steps S52 and S56 described above. That is, the overlapping area extraction unit 102 extracts only the overlapping area between the first feature substance 14 and the second feature substance 16 from the synthesized luminance image 38 generated by the synthesized luminance image generation unit 100. The extracted overlapping area information is output to the identification image generation unit 104.
  • the identification image generation unit 104 displays the overlapping area 40A extracted by the overlapping area extraction unit 102 on the synthetic luminance image 38 in order to identify and display the overlapping area 40A on the synthetic luminance image 38 generated by the synthetic luminance image generation unit 100. Processing is performed. As this processing, as shown in FIG. 12, the overlapping existence area 40 including the overlapping area 40A is processed so as to be identified and displayed as a broken-line rectangular area such as red. Alternatively, as shown in FIG. 14, the synthesized luminance image 38 is processed so that the overlapping area 40A is displayed dark and the other areas are displayed light.
  • the contrast increasing unit 106 is for executing the above-described step of increasing the contrast of the characteristic substance in step S54. That is, the contrast increasing unit 106 determines that the contrast value of one of the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value by the characteristic substance presence / absence determining unit 98. In the first luminance image 30 and the second luminance image 32 generated by the luminance image generation unit 96, the existence region of the characteristic substance in one luminance image having a predetermined contrast value or more is grasped, and the other Increase the contrast of the same presence area in the luminance image. The other luminance image with the increased contrast is output to the combined luminance image generation unit 100. Thus, the combined luminance image generation unit 100 combines two luminance images, one luminance image given from the luminance image generation unit 96 and the other luminance image with the contrast increased from the contrast increasing unit 106. Thus, the synthesized luminance image 38 is generated.
  • the image processing unit 58 (at least one of the luminance image generation unit 96, the characteristic substance presence / absence determination unit 98, the combined luminance image generation unit 100, the overlapping region extraction unit 102, the identification image generation unit 104, and the contrast increase unit 106)
  • a hardware circuit may be used, or a processor may be used.
  • the processor executes this processor in an external memory (not shown) that can be accessed by the processor, thereby causing the processor to execute this image processing unit 58 (luminance image generation unit 96, characteristic substance presence / absence determination unit 98, composite luminance image A program code for functioning as at least one of the generating unit 100, the overlapping region extracting unit 102, the identification image generating unit 104, and the contrast increasing unit 106) is stored.
  • the image display unit 50 displays the display image generated by the image processing unit 58.
  • the image display unit 50 is a monitor such as a liquid crystal display.
  • the configuration of the endoscope apparatus 44 shown in FIG. 17 receives the observer's selection operation, and the narrowband light selection step in step S1 described above, that is, the feature substance selection step in step S11 described above, step S12.
  • the narrow-band light wavelength selection step and the irradiation sequence selection step in step S13 are performed.
  • the selection may be performed not by the observer but by the manufacturer of the endoscope apparatus 44.
  • the illuminating unit 54 is based on the first and second characteristic substances 14 and 16 selected in advance. Since the wavelengths of the second narrowband lights 24 and 28 are determined, only two laser light sources 80-1 and 80-2 that emit narrowband light (laser light) of those wavelengths need be mounted. .
  • the input unit 52 is not used for the selection operation but is used to input an instruction to start observation.
  • the number of laser light sources is not limited to two.
  • the first characteristic substance 14 and the second characteristic substance 16 included in the target region 12 that is a desired observation target have different absorbances from each other.
  • a narrow-band light selection step (step S1) for selecting the first narrow-band light 24 and the second narrow-band light 28, and the first narrow-band light 24 and the second narrow-band light 28 are observed.
  • the subject 10 is irradiated with narrowband light having wavelengths having different absorbances for each of the characteristic substances 14 and 16 that are closely related to the target region 12 that is a desired observation target.
  • the narrowband light selection step (step S1) the first narrowband light 24 in which the difference in absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 is equal to or greater than a predetermined value.
  • the second narrowband light 28 can be selected.
  • the narrow-band light selection step (step S1) includes the first wavelength including the wavelength at which the difference in absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 becomes the maximum value or the maximum value.
  • the narrow-band light included in the region and the narrow-band light included in the second wavelength region including the wavelength at which the difference becomes the minimum value or the maximum value are referred to as the first narrow-band light 24 and the second narrow-band light.
  • Narrowband optical wavelength selection step (step S12) to be selected as 28. That is, when selecting the narrowband light 24, 28, instead of specifying one characteristic substance, rather than specifying two characteristic substances 14, 16, simply selecting the peak wavelength of each characteristic substance respectively. When the peak wavelength is close (in the same region), the identification becomes difficult.
  • the wavelength at which the difference in absorbance is maximum or maximum, minimum or minimum is selected so that the two characteristic substances 14 and 16 can be specified. Even if it is not the peak wavelength of each characteristic substance, if this selection condition is satisfied, there are wavelengths that can be used.
  • the absorbance of one characteristic substance is 1 ⁇ 2 or less of the other, preferably 5 or less, Narrow band light having a wavelength that is preferably 1/10 or less and a narrow band light having a wavelength at which the absorbance of the other characteristic substance is 1/2 or less, preferably 1/5 or less, more preferably 1/10 or less of the other characteristic substance.
  • a narrow-band light wavelength selection step (step S12) for selecting the band light as the first narrow-band light 24 and the second narrow-band light 28 can be included. That is, two characteristic substances can be identified by selecting wavelengths having extremely different absorbances (1/2 or less, preferably 1/5 or less, more preferably 1/10 or less with respect to one side).
  • narrowband light selection step (S1) in the first characteristic substance 14 and the second characteristic substance 16, two narrowband lights having wavelengths with which their absorbances are reversed are converted into the first narrowband light 24. And a narrowband light wavelength selection step (step S12) for selecting as the second narrowband light 28. That is, it becomes possible to specify two characteristic substances by selecting a wavelength whose absorbance is reversed.
  • the first narrowband light 24 and the second narrowband light 24 and the second feature light are based on the absorbance of each of the first characteristic substance 14 and the second characteristic substance 16 for each wavelength. It is also possible to select each of the narrow-band lights 28.
  • the narrow-band light selection step (step S1) includes a third wavelength region in which the absorbance of each wavelength of the first characteristic substance 14 and the second characteristic substance 16 includes a wavelength having a maximum value or a maximum value. And the narrow band light included in the fourth wavelength region including the wavelength whose absorbance for each wavelength is the minimum value or the minimum value, and the first narrow band light 24 and the second narrow band light, respectively.
  • a narrow-band light wavelength selection step (step S12) for selecting as the narrow-band light 28 can be included.
  • the narrowband light selection step (step S1) is a feature material selection step (step S11) for selecting the first feature material 14 and the second feature material 16.
  • the narrow-band light wavelength selection step (step S12) may include the first narrow-band light 24 and the second narrow-band light depending on the selected first and second characteristic materials 14 and 16.
  • the band light 28 is selected.
  • the narrowband light selection step (step S1) further includes the first narrowband light 24 and the second narrowband light 28 simultaneously, alternately or independently.
  • this irradiation sequence selection step includes a first irradiation mode for fixing the irradiation sequence of the first narrowband light 24 and the second narrowband light 28, and the first narrowband light 24. And a second irradiation mode in which the irradiation sequence of the second narrow-band light 28 can be arbitrarily changed.
  • the irradiation sequence can be selected according to the preference of the observer.
  • the feature substance presence image generation step (step S4) is performed as image information indicating the presence of the first feature substance 14 based on the luminance obtained from the imaging data.
  • the feature substance presence image generation step (step S4) is further characterized from the contrast in the luminance image for each of the first luminance image 30 and the second luminance image 32 generated in the luminance image generation step (step S41).
  • a characteristic substance presence / absence determination step (step S42) for determining the presence or absence of the substance is included.
  • the presence or absence of a characteristic substance can be easily determined from the contrast in the luminance image.
  • the feature substance presence / absence determination step can include a contrast value setting step of selecting a contrast value from an arbitrary value or a value prepared in advance for each application. This makes it possible to switch the determination criteria for the presence or absence of characteristic substances according to the usage of the observer, the skill level, and the like.
  • the display step (step S5) combines the two luminance images of the first luminance image 30 and the second luminance image 32, generates a combined luminance image 38, and displays it. S51). Thereby, since the position confirmation of each characteristic substance can be performed on one observation image, it is easy for the observer to determine whether or not the target region 12 is a lesioned part or the like.
  • the display step (step S5) further includes the combination generated in the combined luminance image display step (step S51) when it is determined in the characteristic substance presence / absence determination step (step S42) that there are two characteristic substances.
  • An overlapping area extracting step (step S52) for extracting only the overlapping area between the first characteristic substance 14 and the second characteristic substance 16 from the luminance image 38 is included, and the extracted overlapping area is displayed on the synthesized luminance image 38.
  • Identification display In this way, the area information of the luminance images of the respective characteristic substances can be synthesized, and the area where the two characteristic substances overlap can be extracted and presented to the observer. Thereby, the site
  • the contrast value of either one of the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value in the characteristic substance presence / absence determination step (step S42). If it is determined that there is, a contrast increasing step of grasping the presence area of the characteristic substance in one luminance image that is equal to or higher than a predetermined contrast value and increasing the contrast of the same existence area in the other luminance image (step S54). )including. In this way, by applying the contrast increase process only to the same area on the luminance image where the other characteristic substance exists on the luminance image where one characteristic substance does not exist, It is possible to confirm whether or not the characteristic substance exists.
  • step S5 it is further determined in the characteristic substance presence / absence determination step (step S42) that the contrast value of both the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value. If so, a luminance image display step (step S58) for displaying the first luminance image 30 and the second luminance image 32 is included.
  • the feature substance existence image generation step (step S4) further highlights the feature substance overlapping area 40A so that the feature substance overlap area can be easily distinguished from other areas on the image.
  • a feature substance emphasized image generation display step for generating the image 42 may be included.
  • a luminance image data storage step for storing the first luminance image 30, the second luminance image 32, and the combined luminance image 38 obtained by combining the first luminance image and the second luminance image.
  • Step S57 is further included.
  • the first characteristic substance 14 and the second characteristic substance 16 are preferably different types of pigments, which are known as cancer markers, for example, suitable for different applications.
  • the first characteristic substance 14 is hemoglobin, which is a blood vessel enhancement substance that emphasizes blood vessels deeply associated with tumors
  • the second characteristic substance 16 is a structure enhancement substance that emphasizes the structure of cells and the pit pattern. Indigo carmine.
  • using multiple types of cancer markers has the effect of preventing erroneous detection of cancer and increasing detection sensitivity.
  • the endoscope apparatus 44 has the first characteristic substance 14 and the second characteristic substance 16 included in the region of interest 12 that is a desired observation target and have first and second wavelengths having different absorbances.
  • An image processing unit 58 that generates a feature substance presence image that represents the presence of the first feature substance and the second feature substance, and an image display unit 50 that displays the feature substance presence image.
  • the subject 10 is irradiated with narrowband light having wavelengths having different absorbances for each of the characteristic substances 14 and 16 that are closely related to the target region 12 that is a desired observation target.
  • narrowband light having wavelengths having different absorbances for each of the characteristic substances 14 and 16 that are closely related to the target region 12 that is a desired observation target.
  • the narrow-band light selection unit 60 has a first wavelength region including a wavelength at which the difference in absorbance for each wavelength of the first characteristic substance 14 and the second characteristic substance 16 becomes a maximum value or a maximum value.
  • the narrow-band light included and the narrow-band light included in the second wavelength region including the wavelength at which the difference becomes the minimum value or the maximum value are referred to as the first narrow-band light 24 and the second narrow-band light 28.
  • a narrowband optical wavelength selection unit 92 is included. That is, when selecting the narrowband light 24, 28, instead of specifying one characteristic substance, rather than specifying two characteristic substances 14, 16, simply selecting the peak wavelength of each characteristic substance respectively. When the peak wavelength is close (in the same region), the identification becomes difficult.
  • the wavelength at which the difference in absorbance is maximum or maximum, minimum or minimum is selected so that the two characteristic substances 14 and 16 can be specified. Even if it is not the peak wavelength of each characteristic substance, if this selection condition is satisfied, there are wavelengths that can be used.
  • the narrow-band light selection unit 60 has the absorbance of one of the first characteristic substance 14 and the second characteristic substance 16 that is 1/2 or less, preferably 1/5 or less, more preferably 1 of the other.
  • the narrowband light selecting unit 60 converts the first narrowband light 24 and the first narrowband light 24 and the second characteristic material 16 into two narrowband lights having wavelengths whose absorbances are opposite to each other.
  • a narrow-band light wavelength selection unit 92 that selects the second narrow-band light 28 can be included. That is, it becomes possible to specify two characteristic substances by selecting a wavelength whose absorbance is reversed.
  • the image processing unit 58 uses the first luminance image 30 as image information indicating the presence of the first characteristic substance 14 based on the luminance obtained from the imaging data.
  • a luminance image generation unit 96 that generates a second luminance image 32 as image information indicating the presence of the second characteristic substance 16 as a characteristic substance existence image, a first luminance image 30, and a second luminance
  • the image 32 includes a feature substance presence / absence judgment unit 98 that judges the presence / absence of a feature substance from the contrast in the luminance image.
  • the image processing unit 58 further determines that the two characteristic substances are present by the characteristic substance presence / absence determination unit 98, the two luminance images of the first luminance image 30 and the second luminance image 32 are obtained. And a combined luminance image generating unit 100 that generates a combined luminance image 38, and an overlap that extracts only the overlapping region of the first characteristic substance 14 and the second characteristic substance 16 from the generated combined luminance image 38. An area extraction unit 102 and an identification image generation unit 104 for identifying and displaying the extracted overlapping area on the synthesized luminance image 38 are included. In this way, the area information of the luminance images of the respective characteristic substances can be synthesized, and the area where the two characteristic substances overlap can be extracted and presented to the observer. Thereby, the site
  • the image processing unit 58 further determines that one of the contrast values of the first luminance image 30 and the second luminance image 32 is less than a predetermined contrast value by the characteristic substance presence / absence determination unit 98.
  • the image processing apparatus includes a contrast increasing unit 106 that grasps an existing area of a characteristic substance in one luminance image having a predetermined contrast value or more and increases the contrast of the same existing area in the other luminance image. In this way, by applying the contrast increase process only to the same area on the luminance image where the other characteristic substance exists on the luminance image where one characteristic substance does not exist, It is possible to confirm whether or not the characteristic substance exists.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Endoscopes (AREA)

Abstract

まず、所望の観察対象物である注目部位(12)に含まれる第1の特徴物質(14)と第2の特徴物質(16)とで互いに吸光度の異なる波長を持つ第1の狭帯域光(24)と第2の狭帯域光(28)とが、選択される(ステップS1)。これら第1の狭帯域光と第2の狭帯域光とが、観察対象物に照射され(ステップS2)、観察対象物からの第1の狭帯域光の反射光と第2の狭帯域光の反射光とが、撮像される(ステップS3)。そして、これら撮像により得られた撮像データに基づいて、第1の特徴物質と第2の特徴物質の存在を表す特徴物質存在画像が、生成されて(ステップS4)、表示される(ステップS5)。

Description

内視鏡観察方法及び内視鏡装置
 本発明は、被検体を観察する内視鏡観察方法及び内視鏡装置に関する。
  現状、内視鏡による被検体内の注目部位、例えば体腔内の病変部、の発見は、次のようにして行われている。すなわち、まず、白色光のスクリーニングにより、大まかな観察を行う。その観察の結果、病変が疑われる場所に対して、特開2015-91467号公報(以下、特許文献1と記す)に開示されているように、NBI等の特殊光により、病変部に関連が深い特徴物質、例えば血中ヘモグロビンなど、を検出する。このように、特徴物質の検出結果は、癌や腫瘍などの病変部の発見に役立つ。
特開2015-91467号公報
 しかしながら、病変部に関連が深いとは言え、上記特許文献1のように、1つの特徴物質の検出結果から癌などの病変部を発見する場合、見落としたり、逆に正常部位を陽性と判断してしまったりする例もあり、より発見精度の向上が求められている。
 本発明は、上記の点に鑑みてなされたもので、所望の観察対象である被検体内の注目部位、例えば体腔内の病変部、の発見精度を向上し得る内視鏡観察方法及び内視鏡装置を提供することを目的とする。
 本発明の内視鏡観察方法の一態様は、所望の観察対象物に含まれる第1の特徴物質と第2の特徴物質とで互いに吸光度の異なる波長を持つ第1の狭帯域光と第2の狭帯域光とを選択する狭帯域光選択ステップと、前記第1の狭帯域光と前記第2の狭帯域光とを前記観察対象物に照射する狭帯域光照射ステップと、前記観察対象物からの前記第1の狭帯域光の反射光と前記第2の狭帯域光の反射光とを撮像する撮像ステップと、前記撮像ステップで得た撮像データに基づいて、前記第1の特徴物質と前記第2の特徴物質の存在を表す特徴物質存在画像を生成する特徴物質存在画像生成ステップと、前記特徴物質存在画像を表示する表示ステップと、を含む。 
 また、本発明の内視鏡装置の一態様は、所望の観察対象物に含まれる第1の特徴物質と第2の特徴物質とで互いに吸光度の異なる波長を持つ第1の狭帯域光と第2の狭帯域光とを選択する狭帯域光選択部と、前記第1の狭帯域光と前記第2の狭帯域光とを照明光として前記観察対象物に照射する照明部と、前記観察対象物からの前記第1の狭帯域光の反射光と前記第2の狭帯域光の反射光とを撮像する撮像部と、前記撮像部で得た撮像データに基づいて、前記第1の特徴物質と前記第2の特徴物質の存在を表す特徴物質存在画像を生成する画像処理部と、前記特徴物質存在画像を表示する表示部と、を含む。
 本発明によれば、所望の観察対象である注目部位に関連の深い複数の特徴物質に対し、それぞれの特徴物質で吸光度の異なる波長を持つ狭帯域光を選択して、複数の狭帯域光を被検体に照射することで、注目部位に関連性のある複数の特徴物質を検出することができ、その結果、観察対象の発見精度を向上し得る内視鏡観察方法及び内視鏡装置を提供することができる。
図1Aは、本発明の一実施形態に係る内視鏡観察方法の概略を説明するためのフローチャートを示す図である。 図1Bは、被検体内の注目部位を説明するための模式図である。 図2は、本発明の一実施形態に係る内視鏡観察方法の詳細を説明するためのフローチャートを示す図である。 図3は、2つの特徴物質の吸光度の差を説明するための図である。 図4は、第1の狭帯域光と第2の狭帯域光の選択方法の一例を説明するための、第1の特徴物質と第2の特徴物質の光吸収スペクトルを示す図である。 図5は、第1の狭帯域光と第2の狭帯域光の選択方法の別の例を説明するための、第1の特徴物質と第2の特徴物質の光吸収スペクトルを示す図である。 図6は、第1の狭帯域光と第2の狭帯域光の選択方法の更に別の例を説明するための、第1の特徴物質と第2の特徴物質の光吸収スペクトルを示す図である。 図7は、第1の特徴物質の一例としてのヘモグロビンの光吸収スペクトルを示す図である。 図8は、第2の特徴物質の一例としてのインドアニングリーンの光吸収スペクトルを示す図である。 図9は、第1の特徴物質の別の例としてのインジコカルミンの光吸収スペクトルを示す図である。 図10は、第1の輝度画像と第2の輝度画像を示す図である。 図11は、第1の輝度画像と第2の輝度画像からの合成輝度画像の生成を説明するための図である。 図12は、第1の特徴物質と第2の特徴物質の重なり領域を説明するための図である。 図13Aは、第1の特徴物質のみが検出された場合の第1の輝度画像と第2の輝度画像を示す図である。 図13Bは、図13Aの第1の輝度画像において第1の特徴物質が検出された領域に対応する第2の輝度画像の領域に対してコントラストを増加させることで得られる、コントラスト増加処理後の第2の輝度画像を示す図である。 図14は、特徴物質強調画像を示す図である。 図15は、第1の特徴物質の更に別の例としてのメチレンブルーの光吸収スペクトルを示す図である。 図16は、本発明の一実施形態に係る内視鏡観察方法を実施するための内視鏡装置の外観図である。 図17は、内視鏡装置の概略的な構成の一例を示すブロック図である。 図18は、内視鏡装置の概略的な構成の別の例を示すブロック図である。
 以下、本発明を実施するための一実施形態を、図面を参照して説明する。
 なお、本明細書において、内視鏡とは、医療用内視鏡(上部消化管内視鏡、大腸内視鏡、超音波内視鏡、膀胱鏡、腎盂鏡、気管支鏡、等)及び工業用内視鏡に限定するものではなく、被検体(例えば体腔(管腔))に挿入される挿入部を備える機器一般を指している。
 以下、内視鏡として医療用内視鏡を例に説明する。
 まず、図1Aに示すフローチャートを参照して、本発明の一実施形態に係る内視鏡観察方法の概要を説明する。
 すなわち、本実施形態に係る内視鏡観察方法においては、まず、狭帯域光を選択する(ステップS1)。図1Bに示すように、所望の観察対象である被検体10は、注目部位12、例えば体腔内の病変部、を含むかもしれず、そのような注目部位12には、第1の特徴物質14と第2の特徴物質16とが含まれている。そこで、この第1の特徴物質14と第2の特徴物質16とで互いに吸光度の異なる波長を持つ、第1の波長帯域に含まれる第1の狭帯域光と、第2の波長帯域に含まれる第2の狭帯域光と、を選択する。なお、この第1及び第2の狭帯域光の選択方法の詳細については後述する。
 次に、こうして選択した第1の狭帯域光と第2の狭帯域光とを、内視鏡の挿入部の先端部に配置された照射部から、被検体10に照射する(ステップS2)。そして、同じく内視鏡の挿入部の先端部に配置された撮像部により、被検体10からの第1の狭帯域光の反射光と第2の狭帯域光の反射光とを撮像する(ステップS3)。
 次に、この撮像によって得た撮像データに基づいて、第1の特徴物質と第2の特徴物質の存在を表す特徴物質存在画像を生成する(ステップS4)。そして、この生成した特徴物質存在画像を、内視鏡が接続される本体部(ビデオプロセッサ)に接続されたモニタ等の表示部に表示する(ステップS5)。
 このように、所望の観察対象である注目部位12に関連の深い複数の特徴物質14,16に対し、それぞれの特徴物質で吸光度の異なる波長を持つ狭帯域光を、被検体10に照射することで、注目部位12に関連性のある複数の特徴物質14,16を検出することができる。すなわち、従来は、1つの特徴物質の検出結果から観察対象を発見していたのに対し、本実施形態では、複数の特徴物質の検出結果から観察対象を発見するので、観察対象の発見精度を向上することが可能となる。
 なお、第1の特徴物質14と第2の特徴物質16は、各々異なる用途に適した、異なる種類の色素であることが望ましい。例えば、第1の特徴物質14は血管を強調させる、血管強調物質であるヘモグロビンであって、第2の特徴物質16は、細胞の構造やビットパターンを強調させる構造強調物質であるインジコカルミンである。
 望ましくは、第1の特徴物質14と第2の特徴物質16の色素は、癌のマーカと知られているものであると良い。複数種類の癌のマーカを用いることで、癌の誤検出防止や検出感度を上げる効果を奏する。
 以下、本実施形態に係る内視鏡観察方法について、より詳細に説明する。
 図2のフローチャートに示すように、上記狭帯域光を選択するステップS1は、特徴物質選択ステップ(ステップS11)と、狭帯域光波長選択ステップ(ステップS12)と、照射シーケンス選択ステップ(ステップS13)と、を含む。
 例えば、ステップS11の特徴物質選択ステップは、第1の特徴物質14と第2の特徴物質16を選択するステップである。この第1及び第2の特徴物質14,16の選択は、例えば、特徴物質のリストから観察者が任意に選択することにより行われることができる。ここで、特徴物質のリストについては、例えば、腫瘍に関連の深い血管成分の構造を強調させる色素であるであるヘモグロビンと、ピットパターン等の構造を強調させる色素であるインドシアニングリーン(以下、ICGと略記する)の組合せなど、腫瘍や病変部に関連性のある2つの特徴物質の組合せを予めリスト化している。
 また、注目部位12の種類に応じて特徴物質の組み合わせを選択しても良い。あるいは、前述した特徴物質のリストと同様に、注目部位12の種類に応じた推奨組み合わせのリストを予め用意しておき、第1及び第2の特徴物質14,16をそのリストから選択できるようにしても良い。
 なお、上記ステップS11~S13の特徴物質選択ステップ、狭帯域光波長選択ステップ及び照射シーケンス選択ステップにおける「選択」とは、広義の「選択」を表す。つまり、選択肢が複数あって、その中から選択する場合と、他に選択肢がなくて、予め決定されていることも含まれる。
 従って、例えば注目部位12の種類が特定されている専用の内視鏡の場合には、注目部位12のその特定の種類に応じた推奨組み合わせのリストの中から、所望の特徴物質を選択する。
 ステップS12の狭帯域光波長選択ステップは、選択された第1及び第2の特徴物質14,16に応じて、第1の狭帯域光と第2の狭帯域光とを選択するステップである。互いに異なる2つの特徴物質(第1の特徴物質14と第2の特徴物質16)を検知できる互いに異なる波長を持つ2つの狭帯域光(第1の狭帯域光と第2の狭帯域光)を以下のように選択する。
 すなわち、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が所定値以上となる、第1の狭帯域光と第2の狭帯域光とを選択する。
 具体的には、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の狭帯域光と、上記差が最小値または極小値となる波長を含む第2の狭帯域光とを、第1の狭帯域光及び第2の狭帯域光として選択する。
 なお、吸光度の差は、第1の特徴物質14の吸光度から第2の特徴物質16の吸光度を引いた値である。したがって、図3に示す第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20のように、吸光度が逆転する場合は、最大値22または極大値は正の値であるが、最小値24または極小値は負の値となる。また、吸光度が逆転しない場合には、例外として、第2の狭帯域光は、上記差が最小値24または極小値となる波長ではなく、上記差が最大値22または極大値となる波長から離れた(同じ波長領域ではない)ピーク波長を選択することが望ましい。
 すなわち、本実施形態では、1つの特徴物質を特定するのではなく、2つの特徴物質14,16を特定したいため、単純に各特徴物質のピーク波長をそれぞれ選択するのでは、ピーク波長が近い場合(同じ波長領域の場合)は特定が困難になる。
 そこで、まず、第1の特徴物質14と第2の特徴物質16のそれぞれの物質の持つ吸光度から、波長毎に吸光度の差を算出する。吸光度の差は、第1の特徴物質14の吸光度から第2の特徴物質16の吸光度を引いた値である。次に、算出した吸光度の差の最大値と最小値を求め、その最大値のときの波長を持つ狭帯域光を第1の狭帯域光とし、最小値のときの波長を持つ狭帯域光を第2の狭帯域光とする。この場合、第1の特徴物質14の吸光度より第2の特徴物質16の吸光度が大きい波長域があれば、最小値の値は負となる。
 例えば、図4に示すような第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20の場合、吸光度の差の最大値22をとる波長を持つ狭帯域光を第1の狭帯域光24とし、吸光度の差の最小値26(負の値)をとる波長を持つ狭帯域光を第2の狭帯域光28として選択する。
 なお、最大値及び最小値の代わりに、極大値及び極小値を用いても構わない。
 このように、吸光度の差が最大または極大、最小または極小となる波長を選択することで、2つの特徴物質14,16を特定できるようになる。
 但し、特徴物質の吸光度のピークやボトムが顕著な場合は、ピーク、ボトムを使用した方が特徴物質を特定し易いため、実際には、吸光度の差が最大値または極大値あるいは最小値または極小値ではない場合でも、第1の特徴物質14(第2の特徴物質16)の吸光度のピーク波長およびピーク波長近傍で、吸光度の差が大きい場合は、その波長を優先選択しても良い。なお、その場合の吸光度の差は、最大値の半分以上が望ましい。
 すなわち、第1の特徴物質14と第2の特徴物質16とのそれぞれの波長毎の吸光度に基づいて、第1の狭帯域光24と第2の狭帯域光28とをそれぞれ選択することができる。
 この場合、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度が、最大値または極大値の波長を含む第3の波長領域に含まれる狭帯域光と、それぞれの波長毎の吸光度が、最小値または極小値の波長を含む第4の波長領域に含まれる狭帯域光とを、それぞれ第1の狭帯域光24及び第2の狭帯域光28として選択する。
 また、第1の狭帯域光24及び第2の狭帯域光28の選択においては、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差ではなく、吸光度の比を用いることも可能である。すなわち、第1の特徴物質14と第2の特徴物質16において、一方の特徴物質の吸光度が他方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光と、他方の特徴物質の吸光度が一方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択するようにしても良い。
 例えば、図5に示すような第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20の場合、第1の特徴物質14の吸光度Aと第2の特徴物質16の吸光度Bにおいて、B/A≦1/2、望ましくはB/A≦1/5、さらに望ましくはB/A≦1/10となる波長を持つ狭帯域光を第1の狭帯域光24として選択する。第2の狭帯域光28については、図5には示していないが、A/B≦1/2、望ましくはA/B≦1/5、さらに望ましくはA/B≦1/10となる波長を持つ狭帯域光を選択する。
 このように、吸光度が極端に違う波長(片方に対して1/2以下)を選択することで、2つの特徴物質14,16を特定できるようになるが、望ましくは、1/10以下にすると更に高い精度で分離できる。
 なお、図4を参照して説明したような最大値と最小値、図5を参照して説明したようなA/B≦1/2とB/A≦1/2は、別の表現で言い換えると、第1の特徴物質14と第2の特徴物質16の吸光度が逆転していると表現することができる。よって、第1の狭帯域光24及び第2の狭帯域光28の選択においては、第1の特徴物質14と第2の特徴物質16の吸光度が逆転している領域にある狭帯域光をそれぞれ1つずつ選択するようにしても良い。すなわち、第1の特徴物質14と第2の特徴物質16において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、第1の狭帯域光24及び第2の狭帯域光28として選択する。
 例えば、図6に示すような第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20の場合、第1の特徴物質の光吸収スペクトル18の吸光度が高く、第2の特徴物質の光吸収スペクトル20の吸光度が低い波長域で第1の狭帯域光24を選択し、また、第1の特徴物質の光吸収スペクトル18の吸光度が低く、第2の特徴物質の光吸収スペクトル20の吸光度が高い波長域で第2の狭帯域光28を選択する。
 このように、吸光度が逆転している波長を選択することで、2つの特徴物質を特定できるようになる。
 以上の第1及び第2の狭帯域光24,28の選択は、第1及び第2の特徴物質14,16の選択に応じて、自動的に決定し得るものである。しかし、第1の特徴物質14と第2の特徴物質16とのそれぞれの波長毎の吸光度に基づいて、第1及び第2の狭帯域光24,28の選択肢を提示し、観察者が所望の第1の狭帯域光24と第2の狭帯域光28とをそれぞれ選択することも可能である。
 例えば、第1の特徴物質14と第2の特徴物質16の選択に応じて、第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20を観察者に提示する。そして、その2つの光吸収スペクトルに基づいて、第1の狭帯域光24及び第2の狭帯域光28として所望の波長を指定しても良い。第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20に加えて、予め記憶された、内視鏡に搭載された光源の種類の情報を用いて、第1及び第2の狭帯域光24,28の選択肢を提示しても良い。具体的には、第1の特徴物質の光吸収スペクトル18と第2の特徴物質の光吸収スペクトル20の比や差が所定以上になっている波長領域の含まれる、内視鏡に搭載された光源の種類を、自動的に選択する又は観察者に提供して選択してもらっても良い。
 以上のようにして、第1の狭帯域光24と第2の狭帯域光28とが選択される。
 これにより、所望の観察部位において、従来の1つの狭帯域光で腫瘍に関連性の深い1つの特徴物質を検知し、注目部位(病変部など)の発見する方法と比較し、2つの狭帯域光を用い、それぞれ腫瘍に関連性の深い2つの特徴物質を同時に検知することで、より所望の観察対象である被検体10の注目部位12(病変部など)の発見精度の向上に寄与すると考えられる。
 ここで、具体的に2つの特徴物質と2つの狭帯域光24,28を選択した例を記載する。
 (1)第1の特徴物質14としてヘモグロビン、第2の特徴物質16としてICGを選択した例
 ヘモグロビンは血液成分であるため、これを検知することで腫瘍に関連の深い血管の位置を予測するのに効果的である。また、ICGは肝細胞癌組織あるいは腫瘍に圧排された非癌部肝組織にうっ滞する現象を利用し、蛍光法を用いて肺癌を同定することに効果的である。
 このような2つの特徴物質を検出できる2つの狭帯域光24,28は、次のように選択される。
 第1の特徴物質14であるヘモグロビンは、図7に示すように、400nm~420nm近傍に吸光度のピークがあり、400nmで吸光度は1000を越える。一方、第2の特徴物質16であるICGの吸光度は、図8に示されているように、400nm近辺では十分に小さい。従って、この場合の吸光度の差は極大値となり、この400nm近傍の波長を持つ狭帯域光を第1の狭帯域光24として選択する。
 また、第2の特徴物質16であるICGは、図8に示すように、790nm近傍に吸光度のピーク(約750)がある。一方、図7に示すように、第1の特徴物質14であるヘモグロビンの790nm近傍では吸光度は十分に小さく、ボトム近傍となる。従って、この場合の吸光度の差は最小値となり、この790nm近傍の波長を持つ狭帯域光を第2の狭帯域光28として選択する。
 (2)第1の特徴物質14としてインジコカルミン、第2の特徴物質16としてICGを選択した例
 インジコカルミンは、色素内視鏡検査において、色素液の陥凹面へのたまり現象を応用して凹凸を強調させるコントラスト法に使用され、病変部の認識に有用である。図9に示すように、インジコカルミンは、610nm付近が吸光度のピークで約30である。一方、第2の特徴物質16であるICGの吸光度は、図8に示すように、この610nm近辺では0~5程度である。従って、この場合の吸光度の差は極大値となり、この610nm近傍の波長を持つ狭帯域光を第1の狭帯域光24として選択する。
 また、第2の特徴物質16であるICGは、図8に示すように、790nm近傍に吸光度のピーク(約750)がある。一方、第1の特徴物質14であるインジコカルミンは、790nm近傍では吸光度が十分に小さく、ボトム近傍となる。従って、この場合の吸光度の差は極小値となり、この790nm近傍の波長を持つ狭帯域光を第2の狭帯域光28として選択する。
 以上のように、所望の観察部位において、注目部位12(病変部など)を発見する方法について、具体的に2つの特徴物質と2つの狭帯域光24,28を選択した例を2例記載した。いずれの例も同時に2つの特徴物質を同時に検知できることで、注目部位12(腫瘍など)の発見精度向上に役立つ。
 ステップS13の照射シーケンス選択ステップは、選択した第1及び第2の狭帯域光24,28をステップS2で照射する際の照射シーケンスを選択するステップである。
 選択可能な照射シーケンスとしては、3つの照射シーケンスを含む。第1の照射シーケンスは、第1の狭帯域光24と第2の狭帯域光28とを同時に照射するシーケンスである。第2の照射シーケンスは、第1の狭帯域光24と第2の狭帯域光28とを、撮像部のイメージャの撮像フレーム毎に切り替えて、あるいは1撮像フレーム内で切り替えて、交互に照射するシーケンスである。第3の照射シーケンスは、第1の狭帯域光24と第2の狭帯域光28とを独立して照射するシーケンスである。
 従って、以下では、第1又は第2の撮像シーケンスが選択された場合について説明する。
 この照射シーケンスは、観察者がリストから選択する。但し、第1の狭帯域光24と第2の狭帯域光28の波長が近い場合は、イメージャ側にフィルタを設けるなどの対策をして、第1の狭帯域光24と第2の狭帯域光28の波長を分離可能にしておくことが望ましい。それ以外の場合は、どちらの照射シーケンスも選択可能とする。
 なお、何れか1つの照射シーケンス、例えば第2の照射シーケンスのみとして、このステップS13の照射シーケンス選択ステップを省略するようにしても構わないことは勿論である。
 また、このステップS13の照射シーケンス選択ステップでは、第1の狭帯域光24と第2の狭帯域光28の照射シーケンスを固定化する第1の照射モードと、第1の狭帯域光24と第2の狭帯域光28の照射シーケンスを任意で可変できる第2の照射モードと、を選択できるようにしても良い。ここで、第1の照射モードは、第1の狭帯域光24と第2の狭帯域光28の照射時間の比率が固定されている。また、第2の照射モードは、第1の狭帯域光24と第2の狭帯域光28の照射時間の比率を観察者が任意に変更できる。例えば、次のような2つの制限内で第1の狭帯域光24と第2の狭帯域光28の照射時間の比率を変更すると良い。その第1の制限は、第1の狭帯域光24と第2の狭帯域光28のそれぞれの照射時間が、上記ステップS3の撮像ステップにおいて第1の狭帯域光24と第2の狭帯域光28とによる画像を取得する際に、それぞれ必要な光量が確保される照射時間以上であること。第2の制限は、第1の狭帯域光24と第2の狭帯域光28のそれぞれの照射時間が、後述するステップS41において第1の輝度画像と第2の輝度画像を生成する際に、第1の輝度画像と第2の輝度画像のいずれも白とびしない輝度レベルの画像データが得られる照射時間内であること。照射時間に比例して光量が多くなるため、光量が多くなればなるほど、より明るい輝度画像が生成されることになるが、光量が多くなりすぎると、輝度画像が白とびしてしまう。よって、第2の照射モードでは、観察者が第1の特徴物質14と第2の特徴物質16の何れにどれだけ重みを置くかに応じて、重みを置く方の輝度画像を他方よりも明るくすることが可能である。
 こうして第1及び第2の狭帯域光24,28と照射シーケンス(及び照射モード)が選択されたならば、内視鏡の挿入部が被検体10である体腔内に挿入され、上記ステップS2の狭帯域光照射ステップにおいて、その選択に従った第1の狭帯域光24と第2の狭帯域光28との照射が行われる。
 そして、上記ステップS3の撮像ステップにおいて、内視鏡の挿入部の先端部に配置された撮像部によって撮像が行われる。なお、この撮像部のイメージャは、ベイヤー配列のカラーフィルタを持つ撮像素子とする。
 上記ステップS4の特徴物質存在画像生成ステップは、撮像データから得られる輝度に基づいて、第1の特徴物質14の存在を示す画像情報としての第1の輝度画像と、第2の特徴物質16の存在を示す画像情報としての第2の輝度画像と、を生成する輝度画像生成ステップ(ステップS41)を含む。
 すなわち、ステップS13の照射シーケンス選択ステップにおいて、交互に照射する第2の照射シーケンスが選択された場合、ステップS2において、第1の狭帯域光24と第2の狭帯域光28が片方ずつ交互に照射される。これら照射されたそれぞれの狭帯域光24,28は、被検体10(注目部位12)で反射され、撮像部のベイヤーイメージャにより受光される。ステップS3において、ベイヤーイメージャは、それぞれの受光した狭帯域光24,28を光電変換して信号電荷を蓄積する。そして、このステップS41において、内視鏡装置のビデオプロセッサが備える画像処理部は、ベイヤーイメージャが蓄積した信号電荷を撮像信号として読み出だし、図10に示すように、第1の狭帯域光24による第1の特徴物質14に関する輝度画像である第1の輝度画像30と第2の狭帯域光28による第2の特徴物質16に関する輝度画像である第2の輝度画像32とを生成する。
 なお、ステップS13の照射シーケンス選択ステップにおいて、第1の狭帯域光24と第2の狭帯域光28とを同時に照射する第1の照射シーケンスが選択された場合には、読み出した撮像信号に対して色分離を行い、それぞれ分離された何れかの撮像信号から第1の輝度画像30と第2の輝度画像32とを生成することができる。
 上記ステップS4の特徴物質存在画像生成ステップはさらに、これら生成された第1の輝度画像30と第2の輝度画像32について、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う特徴物質有無判断ステップ(ステップS42)を含む。すなわち、被検体10に病変部等の第1の特徴物質14を含む注目部位12が存在すると、第1の狭帯域光24はこの第1の特徴物質14に吸収され、ベイヤーイメージャで受光される反射光の光量が低下する。従って、図10に示すように、第1の輝度画像30には、その第1の特徴物質14が存在する領域が低輝度となり、第1の特徴物質画像34として現れる。同様に、被検体10に病変部等の第2の特徴物質16を含む注目部位12が存在すると、第2の狭帯域光28はこの第2の特徴物質16に吸収され、ベイヤーイメージャで受光される反射光の光量が低下する。従って、図10に示すように、第2の輝度画像32には、その第2の特徴物質16が存在する領域が低輝度となり、第2の特徴物質画像36として現れる。そこで、本ステップS42の特徴物質有無判断ステップでは、第1の特徴物質14に関する輝度画像である第1の輝度画像30のコントラストより第1の特徴物質14の存在を確認し、また、第2の特徴物質16に関する輝度画像である第2の輝度画像32のコントラストより第2の特徴物質16の存在を確認する。
 なおこの場合、コントラストの値を、観察者が好みに応じて無段階あるいは段階的に選択できるようにしても良いし、あるいは予め用途別に用意した値から観察者が選択できるようにしても良い。
 このように、輝度画像内のコントラストから特徴物質の有無を容易に判断することができる。
 そして、上記ステップS5の表示ステップでは、このステップS42の特徴物質有無判断ステップの判断結果に応じて、以下のような表示を行う。
 すなわち、ステップS42の特徴物質有無判断ステップにおいて、第1の特徴物質14と第2の特徴物質16との両方の存在が確認できた場合には、図11に示すように、第1の特徴物質14に関する第1の輝度画像30と第2の特徴物質16に関する第2の輝度画像32とを合成した合成輝度画像38を生成して、表示部に表示する(ステップS51)。
 その後、この生成された合成輝度画像38から、第1の特徴物質14と第2の特徴物質16の2つの特徴物質の重なり領域のみを抽出し、この抽出した特徴物質の重なり領域を、その他の領域と画像上容易に区別が可能となるように、合成輝度画像38上に識別表示する(ステップS52)。例えば、図12に示すように、抽出した重なり領域を含む重なり存在領域40を赤色等の破線の矩形エリアとして識別表示する。
 そして、これら第1の輝度画像30と、第2の輝度画像32と、第1の輝度画像と第2の輝度画像とを合成した合成輝度画像38と、を画像データとして保存する(ステップS53)。
 その後、未だ観察を続ける場合には(ステップS6)、上記ステップS2の狭帯域光照射ステップに戻って、観察を継続する。すなわち、画像データ保存後において、同一部位や近傍、他の部位などについて、引き続き観察したい場合は、再びステップS2の狭帯域光照射ステップに戻る。
 一方、ステップS42の特徴物質有無判断ステップにおいて、第1の特徴物質14と第2の特徴物質16とのどちらかの存在が確認できなかった場合には、確認できなかった方の特徴物質に関する輝度画像のコントラストを増加させる(ステップS54)。すなわち、ステップS42の特徴物質有無判断ステップで第1の輝度画像30と第2の輝度画像32のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させる。例えば、図13Aに示すように、第1の特徴物質14に関する第1の輝度画像30で第1の特徴物質画像34が確認できたが、第2の特徴物質16に関する第2の輝度画像32では第2の特徴物質画像36が確認できなかった場合には、図13Aに破線の矩形で示すような、第1の輝度画像30上の第1の特徴物質画像34の存在領域34Aを把握する。そして、第2の特徴物質16に関する第2の輝度画像32上で、この存在領域34Aと同じ領域についてコントラストを増加させて、第2の特徴物質画像36を抽出する。このコントラスト増加により、第2の輝度画像32上の第2の特徴物質画像36が所定のコントラスト値以上となったならば、図13Bに示すように、それが第2の輝度画像32上に現れる。
 なお、コントラストの増加については、一般的な画像処理によるコントラストの増加法である。すなわち、通常は、輝度変化は直線に変化するが、この直線の傾きを急にすることでコントラストを増加することができる。この場合、一定以下の値は最小輝度として、一定以上の値は最大輝度とし、その中間の傾きを急にする。
 そして、上記ステップS52と同様に、第1の特徴物質14に関する第1の輝度画像30と第2の特徴物質16に関する第2の輝度画像32とを合成した合成輝度画像38を生成して、表示部に表示する(ステップS55)。ここで、上記ステップS54のコントラスト増加ステップにより第2の特徴物質画像36が抽出できた場合は、合成輝度画像38には、第1の特徴物質画像34と第2の特徴物質画像36とが含まれる。これに対して、上記ステップS54のコントラスト増加ステップにより第2の特徴物質画像36が抽出できなかった場合には、合成輝度画像38には、第1の特徴物質画像34のみが含まれることとなる。
 その後、上記ステップS52と同様、この生成された合成輝度画像38から、第1の特徴物質14と第2の特徴物質16の2つの特徴物質の重なり領域を抽出し、この抽出した特徴物質の重なり領域を、その他の領域と画像上容易に区別が可能となるように、合成輝度画像38上に識別表示する(ステップS56)。
 そして、上記ステップS53と同様、これら第1の輝度画像30と、第2の輝度画像32と、第1の輝度画像と第2の輝度画像とを合成した合成輝度画像38と、を画像データとして保存する(ステップS57)。
 その後、未だ観察を続ける場合には(ステップS6)、上記ステップS2の狭帯域光照射ステップに戻って、観察を継続する。
 また、上記ステップS42の特徴物質有無判断ステップにおいて、第1の輝度画像30と第2の輝度画像32の何れもコントラスト値が所定のコントラスト値未満であることが判別された場合、つまり、2つの特徴物質が共に無いと判断された場合には、第1の輝度画像30と第2の輝度画像32とを表示する(ステップS58)。すなわち、注目部位12が存在しない被検体10の観察画像を表示する。
 その後、未だ観察を続ける場合には(ステップS6)、上記ステップS2の狭帯域光照射ステップに戻って、観察を継続する。
 そして、観察を終了する場合は(ステップS6)、被検体10である体腔内から内視鏡の挿入部を抜き、通常の内視鏡停止動作に移り、終了する。
 なお、上記ステップ52及びステップ56では、抽出した特徴物質の重なり領域を含む重なり存在領域40を赤色等の破線の矩形エリアとして識別表示したが、特徴物質の重なり領域をその他の領域と画像上容易に区別が可能となるように、実際の特徴物質の重なり領域を強調表示する特徴物質強調画像42を生成して表示するようにしても良い。この特徴物質強調画像42は、例えば、図14に示すように、特徴物質の重なり領域40Aは濃く表示され、その他の領域は薄く表示されるような画像とすることができる。なお、この場合は、重なり存在領域40を示す矩形エリアを識別表示することを省略することも可能である。
 以上の説明は、異なる2つの狭帯域光24,28で2種の特徴物質を検知する例であるが、3種の特徴物質と3つの狭帯域光を選択しても良い。この場合、3つの狭帯域光でそれぞれ、吸光度が高い特徴物質があり、且つ、吸光度が高い特徴物質以外の2つの特徴物質については、十分に小さくなる組み合わせで選択する。
 例えば、前述した第1の特徴物質14としてヘモグロビン、第2の特徴物質16としてICGとし、また、第3の特徴物質としてインジコカルミンとした場合には、次のような狭帯域光とする。
 まず、第1の特徴物質14であるヘモグロビンは、図7に示すように、400nm~420nm近傍に吸光度のピークがあり、400nmで吸光度は1000を超える。これに対し、第2の特徴物質16であるICGと第3の特徴物質であるインジコカルミンは、図8及び図9に示すように、400nm近辺では十分に小さい。従って、この場合の吸光度の差は極大値となり、この400nm近傍の波長を持つ狭帯域光を第1の狭帯域光24として利用できる。
 次に、第2の特徴物質16であるICGは、図8に示すように、790nm近傍に吸光度のピーク(約750)があり、これに対し、第1の特徴物質14であるヘモグロビンと第3の特徴物質であるインジコカルミンの790nm近傍では、図7及び図9に示すように、吸光度は十分に小さく、ボトム近傍となる。従って、この場合は吸光度の差は極小値となり、この790nm近傍の波長を持つ狭帯域光を第2の狭帯域光28として利用できる。
 最後に、第3の特徴物質であるインジコカルミンは、図9に示すように、610nm付近が吸高度のピークで約30であり、これに対し、第1の特徴物質14であるヘモグロビンと第2の特徴物質16であるICGは、図7及び図8に示すように、610nm近辺では十分に小さい。従って、この場合の吸光度の差は極大値となり、この610nm近傍の波長を持つ狭帯域光を第3の狭帯域光として利用できる。
 なお、ステップS2の狭帯域光照射ステップ以降のステップについては、2つの狭帯域光で2種の特徴物質の場合と同様である。
 また、特徴物質は、上記のヘモグロビン、ICG及びインジコカルミンに限定するものではない。
 例えば、図15に光吸収スペクトルを示すようなメチレンブルーを選択することもできる。同図に示すように、670nmの波長であれば、ヘモグロビン(400nm近辺)及びICG(790nm近傍)とは完全に区別可能であり、インジコカルミン(610nm近傍)でも、倍程度の吸光度の差があるため、区別は可能である。よって、第4の特徴物質、第4の波長の組み合わせとして、それぞれメチレンブルーと670nmの組み合わせが選択できる。
 以上のように、特徴物質としては、病変部等の注目部位12に含まれる物質であれば、どのようなものでも利用可能である。
 ここで、本実施形態に係る内視鏡観察方法を実施するための内視鏡装置について、図16の外観図及び図17のブロック構成図を参照して説明する。
 内視鏡装置44は、内視鏡46と、本体部(ビデオプロセッサ)48と、画像表示部(モニタ)50と、入力部52と、を有している。内視鏡46と本体部48には、注目部位12を含むかもしれない被検体10に、第1及び第2の狭帯域光24,28を照明光ILとして照射する照明部54が設けられている。
 内視鏡46は、注目部位12を含むかもしれない被検体10に照射された照明光ILの反射光RLを検出して撮像信号を出力する撮像部56を有する。入力部52は、本体部48と接続され、あるいは、本体部48上に配置され、各種の観察者指示を本体部48に入力する。本体部48は、内視鏡46の撮像部56の撮像信号から表示画像を生成する画像処理部58と、入力部52に入力された選択に従い、照明部54を設定する狭帯域光選択部60と、を有している。画像表示部50は、本体部48と接続され、画像処理部58によって生成された表示画像を観察体画像として表示する。
 内視鏡46には、湾曲部材である細長い挿入部62と、該挿入部62の基端部と連結した操作部64と、が配設される。
 挿入部62は、挿入部62の先端部側から基端部側に向かって、先端硬質部66と、湾曲する湾曲部68と、可撓管部70と、を有している。ここで、先端硬質部66の基端部は、湾曲部68の先端部と連結し、湾曲部68の基端部は、可撓管部70の先端部と連結している。
 先端硬質部66は、挿入部62の先端部及び内視鏡46の先端部であり、硬い部材となっている。この先端硬質部66には、撮像部56が設けられている。
 湾曲部68は、操作部64に設けられた湾曲操作部72の観察者(医師らの作業者)による操作に応じて、所望の方向に湾曲する。観察者は、この湾曲操作部72を操作することで、湾曲部68を湾曲させる。この湾曲部68の湾曲により、先端硬質部66の位置と向きが変えられ、被検体10の観察部位が観察視野内に捉えられる。こうして捉えられた観察部位に対し、照明部54からの照明光ILが照射されて、観察部位が照明される。湾曲部68は、図示しない複数個の節輪が挿入部62の長手軸方向に沿って連結されることにより、構成される。
 可撓管部70は、所望な可撓性を有しており、外力によって曲がる。可撓管部70は、操作部64の本体部74から延出されている管状部材である。
 操作部64は、本体部(スコープ)74と、把持部76と、ユニバーサルコード78と、を有している。本体部74は、その先端部から可撓管部70が延出している。把持部76は、本体部74の基端部と連結しており、内視鏡46を操作する観察者によって把持される。ユニバーサルコード78は、把持部76と本体部48との間を接続している。
 把持部76には、湾曲部68を湾曲するために、図示しない複数の操作ワイヤを操作する湾曲操作部72が配設されている。湾曲操作部72は、湾曲部68を左右に湾曲操作させる左右湾曲操作ノブと、湾曲部68を上下に湾曲操作させる上下湾曲操作ノブと、湾曲した湾曲部68の位置を固定する固定ノブと、を有している。
 左右湾曲操作ノブには、この左右湾曲操作ノブによって駆動する図示しない左右方向の湾曲操作駆動部が接続している。また、上下湾曲操作ノブには、この上下湾曲操作ノブによって駆動する図示しない上下方向の湾曲操作駆動部が接続している。上下方向の湾曲操作駆動部と左右方向の湾曲操作駆動部とは、例えば把持部76内に配設されている。
 左右方向の湾曲操作駆動部は、操作部64と可撓管部70と湾曲部68とを挿通する図示しない1本の左右方向操作ワイヤと接続しており、この左右方向操作ワイヤの両端は、湾曲部68の先端部と接続している。
 また、上下方向の湾曲操作駆動部は、操作部64と可撓管部70と湾曲部68とを挿通する図示しない1本の上下方向操作ワイヤと接続している。上下方向操作ワイヤは、左右方向操作ワイヤとは別体であり、互いに独立な動きが可能である。上下方向操作ワイヤの両端は、湾曲部68の先端部と接続している。
 左右湾曲操作ノブは、左右方向の湾曲操作駆動部と左右方向操作ワイヤとを介して湾曲部68を左右方向に湾曲する。また、上下湾曲操作ノブは、上下方向の湾曲操作駆動部と上下方向操作ワイヤとを介して湾曲部68を上下方向に湾曲する。
 このような湾曲操作部72(左右湾曲操作ノブと上下湾曲操作ノブ)と、左右方向の湾曲操作駆動部と、左右方向操作ワイヤと、上下方向の湾曲操作駆動部と、上下方向操作ワイヤとは、湾曲部68を湾曲するために、湾曲部68を操作する湾曲操作機構である。
 以下、各部について、更に詳細に説明する。
 <入力部52> 
 入力部52は、前述したステップS11の特徴物質選択ステップ及びステップS13の照射シーケンス選択ステップを実施するためのものである。
 観察者は、入力部52を介して特徴物質の選択及び照射シーケンスの選択を行うことができ、その選択結果を示す選択情報は、本体部48の狭帯域光選択部60へ出力される。また、必要な場合には、入力部52を介して、狭帯域光の選択、照射モードの選択又はコントラスト値の選択についても、行うことができるようにしても良い。
 <照明部54> 
 照明部54は、前述したステップS2の狭帯域光照射ステップを実施するためのものである。
 具体的には、照明部54は、複数(n個)のレーザ光源80-1~80-nと、光源駆動部82と、n本の光ファイバ84-1~84-nと、光合波部86と、光ファイバ88と、照射部90と、を有する。レーザ光源80-1~80-n、光源駆動部82、光ファイバ84-1~84-n、光合波部86、及び光ファイバ88の一部は、本体部48内に配設され、光ファイバ88の残りの部分及び照射部90は、内視鏡46内に配設される。
 ここで、レーザ光源80-1(レーザ1)は、例えば、ピーク波長400nmの狭帯域光(レーザ光)を出射するレーザ光源である。レーザ光源80-2(レーザ2)は、例えば、ピーク波長590nmの狭帯域光(レーザ光)を出射するレーザ光源である。レーザ光源80-3(レーザ3)は、例えば、ピーク波長610nmの狭帯域光(レーザ光)を出射するレーザ光源である。レーザ光源80-4(レーザ4)は、例えば、ピーク波長780nmの狭帯域光(レーザ光)を出射するレーザ光源である。レーザ光源80-5(レーザ5)~レーザ光源80-n(レーザn)は、それぞれ、その他の選択可能な狭帯域光(レーザ光)を出射するレーザ光源である。
 光源駆動部82は、これら複数のレーザ光源80-1~80-nの駆動を制御する。
 光ファイバ84-1~84-nは、これらレーザ光源80-1~80-nから出射された狭帯域光を光合波部86へ導光する。
 光合波部86は、光ファイバ84-1~84-nを導光されるレーザ光源80-1~80-nからの狭帯域光を合波する、例えば光ファイバコンバイナである。
 光ファイバ88は、光合波部86で合波された狭帯域光を照射部90へ導光する。
 照射部90は、上記撮像部56が配置されている挿入部62の先端硬質部66に配置されている。照射部90は、本体部48から、内視鏡46のユニバーサルコード78、操作部64、及び挿入部62内を挿通された光ファイバ88によって導光されてきた狭帯域光の光学的な特性を変換して、照明光ILとして被検体10に照射する。照射部90は、例えば、光ファイバ88によって導光された狭帯域光を拡散し、所望な配光に変換する機能を持つ。照射部90は、光の波長については変換しない。
 <撮像部56> 
 撮像部56は、前述したステップS3の撮像ステップを実施するためのものである。
 撮像部56は、被検体10からの反射散乱光RLを検出し、撮像信号を生成する。撮像信号は、本体部48の画像処理部58に出力される。
 撮像部56は、カラーフィルタにより赤色領域を検出するR光検出要素と、緑色領域を検出するG光検出要素と、青色領域を検出するB光検出要素と、の3種類の光検出要素を有するベイヤーイメージャを含む。具体的には、CCDイメージャやCMOSイメージャである。
 <狭帯域光選択部60> 
 狭帯域光選択部60は、前述したステップS12の狭帯域光波長選択ステップ及びステップS13の照射シーケンス選択ステップを実施するためのものである。
 狭帯域光選択部60は、狭帯域光波長選択部92と光源設定部94とを有する。
 狭帯域光波長選択部92は、入力部52を介して選択された第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差および/または吸光度の比が所定値以上となる、第1の狭帯域光24と第2の狭帯域光28とを選択する。
 具体的には、狭帯域光波長選択部92は、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の波長領域に含まれる狭帯域光と、上記差が最小値または極大値となる波長を含む第2の波長領域に含まれる狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する。
 あるいは、狭帯域光波長選択部92は、第1の特徴物質14と第2の特徴物質16において、一方の特徴物質の吸光度が他方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光と、他方の特徴物質の吸光度が一方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する。
 または、狭帯域光波長選択部92は、第1の特徴物質14と第2の特徴物質16において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、第1の狭帯域光24及び第2の狭帯域光28として選択する。
 光源設定部94は、狭帯域光波長選択部92からの第1及び第2の狭帯域光24,28の選択情報と、入力部52を介して選択された照射シーケンスとに従って、レーザ光源80-1~80-nの発光組み合わせ及び発光パターンを示す光源出力パターン情報を照明部54の光源駆動部82に出力する。
 光源駆動部82は、この光源出力パターン情報に従って、各レーザ光源80-1~80-nの点灯を制御することになる。
 狭帯域光選択部60(狭帯域光波長選択部92及び光源設定部94の一方又は両方)は、ハードウェア回路で構成しても良いし、プロセッサによって構成しても良い。プロセッサで構成する場合には、プロセッサがアクセス可能な図示しない外部メモリに、プロセッサが実行することで当該プロセッサをこの狭帯域光選択部60(狭帯域光波長選択部92及び/または光源設定部94)として機能させるためのプログラムコードを記憶させておく。
 <画像処理部58> 
 画像処理部58は、前述したステップS41の輝度画像生成ステップ、ステップS42の2つの特徴物質有無判断ステップ、ステップS51の合成輝度画像生成及び表示ステップ、ステップS52の重なり領域抽出及び表示ステップ、ステップS54の無し特徴物質のコントラスト増加ステップ、ステップS55の合成輝度画像生成及び表示ステップ、ステップS56の重なり領域抽出及び表示ステップ、及びステップS58の輝度画像表示ステップを実施するためのものである。なお、ステップS53及びステップS57のデータ保存ステップも実施するようにしても良いことは勿論である。
 画像処理部58は、輝度画像生成部96と、特徴物質有無判断部98と、合成輝度画像生成部100と、重なり領域抽出部102と、識別画像生成部104と、コントラスト増加部106とを有する。
 輝度画像生成部96は、前述したステップS41の輝度画像生成ステップを実施するためのものである。すなわち、輝度画像生成部96は、撮像データから得られる輝度に基づいて、第1の特徴物質14の存在を示す画像情報としての第1の輝度画像30と、第2の特徴物質16の存在を示す画像情報としての第2の輝度画像32とを、特徴物質存在画像として生成する。生成した第1及び第2の輝度画像30,32は、特徴物質有無判断部98、合成輝度画像生成部100及びコントラスト増加部106に出力される。
 特徴物質有無判断部98は、前述したステップS42の2つの特徴物質有無判断ステップを実施するためのものである。すなわち、特徴物質有無判断部98は、輝度画像生成部96によって生成した第1の輝度画像30と第2の輝度画像32とについて、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う。判断結果は、合成輝度画像生成部100とコントラスト増加部106に出力される。
 合成輝度画像生成部100は、前述したステップS51及びステップS55の合成輝度画像生成及び表示ステップ、並びに、ステップS58の輝度画像表示ステップを実施するためのものである。すなわち、合成輝度画像生成部100は、特徴物質有無判断部98で2つの特徴物質が存在したと判断された場合、輝度画像生成部96によって生成した第1の輝度画像30と第2の輝度画像32との2つの輝度画像を合成して合成輝度画像38を生成する。生成した合成輝度画像38は、重なり領域抽出部102と識別画像生成部104に出力される。また、合成輝度画像生成部100は、特徴物質有無判断部98で2つの特徴物質が両方共存在しないと判断された場合、輝度画像生成部96によって生成した第1の輝度画像30と第2の輝度画像32とを合成すること無く、そのまま画像表示部50へ出力するようにしても良い。
 重なり領域抽出部102は、前述したステップS52及びステップS56の重なり領域抽出及び表示ステップを実施するためのものである。すなわち、重なり領域抽出部102は、合成輝度画像生成部100によって生成された合成輝度画像38から、第1の特徴物質14と第2の特徴物質16との重なり領域のみを抽出する。抽出した重なり領域の情報は識別画像生成部104に出力される。
 識別画像生成部104は、重なり領域抽出部102によって抽出された重なり領域40Aを、合成輝度画像生成部100によって生成された合成輝度画像38上に識別表示するために、合成輝度画像38に対して加工処理を行う。この加工処理としては、図12に示したように、重なり領域40Aを含む重なり存在領域40が赤色等の破線の矩形エリアとして識別表示されるように加工する。あるいは、図14に示したように、重なり領域40Aは濃く表示され、その他の領域は薄く表示されるように、合成輝度画像38を加工する。
 コントラスト増加部106は、前述したステップS54の無し特徴物質のコントラスト増加ステップを実施するためのものである。すなわちコントラスト増加部106は、特徴物質有無判断部98で第1の輝度画像30と第2の輝度画像32のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、輝度画像生成部96によって生成した第1の輝度画像30と第2の輝度画像32とのうち、所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させる。コントラストを増加させた他方の輝度画像は、合成輝度画像生成部100に出力される。これにより、合成輝度画像生成部100は、輝度画像生成部96から与えられる一方の輝度画像と、このコントラスト増加部106から与えられるコントラストを増加させた他方の輝度画像との2つの輝度画像を合成して合成輝度画像38を生成することになる。
 なお、画像処理部58(輝度画像生成部96、特徴物質有無判断部98、合成輝度画像生成部100、重なり領域抽出部102、識別画像生成部104及びコントラスト増加部106の少なくとも1つ)は、ハードウェア回路で構成しても良いし、プロセッサによって構成しても良い。プロセッサで構成する場合には、プロセッサがアクセス可能な図示しない外部メモリに、プロセッサが実行することで当該プロセッサをこの画像処理部58(輝度画像生成部96、特徴物質有無判断部98、合成輝度画像生成部100、重なり領域抽出部102、識別画像生成部104及びコントラスト増加部106の少なくとも1つ)として機能させるためのプログラムコードを記憶させておく。
 <画像表示部50> 
 画像表示部50は、画像処理部58によって生成された表示画像を表示する。画像表示部50は、例えば液晶ディスプレイ等のモニタである。
 なお、図17に示した内視鏡装置44の構成は、観察者の選択操作を受けて、前述したステップS1の狭帯域光選択ステップ、すなわち、前述したステップS11の特徴物質選択ステップ、ステップS12の狭帯域光波長選択ステップ及びステップS13の照射シーケンス選択ステップを実施する場合の例である。
 しかしながら、観察者の選択操作によらず、特定の種類の注目部位12に限定し、その注目部位12の種類に応じた個数の特徴物質、例えば2つの特徴物質を選定して、専用の内視鏡装置44として構成することも可能である。すなわち、選択は観察者ではなくて、内視鏡装置44の製造者側で実施しても良い。
 例えば2つの特徴物質を選定した専用の内視鏡装置44の場合には、図18に示すように、照明部54は予め選定した第1及び第2の特徴物質14,16に基づいて第1及び第2の狭帯域光24,28の波長が決定されるので、それらの波長の狭帯域光(レーザ光)を出射する2つのレーザ光源80-1,80-2のみを搭載するだけで良い。入力部52は、選択操作には使用されず、観察の開始指示等を入力するのに使用される。
 なお、ここでは2つの特徴物質を選定して、2つのレーザ光源80-1,80-2のみを搭載する内視鏡装置44を説明したが、専用の内視鏡装置44は、特徴物質およびレーザ光源の数として2つに限定されるものでないことは勿論である。
 以上のように、本実施形態に係る内視鏡観察方法は、所望の観察対象物である注目部位12に含まれる第1の特徴物質14と第2の特徴物質16とで互いに吸光度の異なる波長を持つ第1の狭帯域光24と第2の狭帯域光28とを選択する狭帯域光選択ステップ(ステップS1)と、第1の狭帯域光24と第2の狭帯域光28とを観察対象物に照射する狭帯域光照射ステップ(ステップS2)と、観察対象物からの第1の狭帯域光24の反射光と第2の狭帯域光28の反射光とを撮像する撮像ステップ(ステップS3)と、撮像ステップで得た撮像データに基づいて、第1の特徴物質と第2の特徴物質の存在を表す特徴物質存在画像を生成する特徴物質存在画像生成ステップ(ステップS4)と、特徴物質存在画像を表示する表示ステップ(ステップS5)と、を含む。 
 このように、所望の観察対象である注目部位12に関連の深い複数の特徴物質14,16に対し、それぞれの特徴物質で吸光度の異なる波長を持つ狭帯域光を、被検体10に照射することで、注目部位12に関連性のある複数の特徴物質14,16を検出することができ、その結果、観察対象の発見精度を向上することが可能となる。
 ここで、狭帯域光選択ステップ(ステップS1)は、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が所定値以上となる、第1の狭帯域光24と第2の狭帯域光28とを選択することができる。
 例えば、狭帯域光選択ステップ(ステップS1)は、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の波長領域に含まれる狭帯域光と、上記差が最小値または極大値となる波長を含む第2の波長領域に含まれる狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択ステップ(ステップS12)を含む。 
 すなわち、狭帯域光24,28を選択する際、1つの特徴物質を特定するのではなく、2つの特徴物質14,16を特定したいため、単純に各特徴物質のピーク波長をそれぞれ選択するのでは、ピーク波長が近い場合(同じ領域の場合)は特定が困難になる。そこで、2つの特徴物質14,16を特定できるように、吸光度の差が最大または極大、最小または極小となる波長を選択する。それぞれの特徴物質のピーク波長でなくとも、この選択条件を満たせば、使用できる波長が存在する。
 あるいは、狭帯域光選択ステップ(ステップS1)は、第1の特徴物質14と第2の特徴物質16において、一方の特徴物質の吸光度が他方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光と、他方の特徴物質の吸光度が一方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択ステップ(ステップS12)を含むことができる。 
 すなわち、吸光度が極端に違う波長(片方に対して1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下)を選択することで、2つの特徴物質を特定できるようになる。
 あるいは、狭帯域光選択ステップ(S1)は、第1の特徴物質14と第2の特徴物質16において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択ステップ(ステップS12)を含むことができる。 
 すなわち、吸光度が逆転している波長を選択することで、2つの特徴物質を特定できるようになる。
 また、本実施形態に係る内視鏡観察方法においては、第1の特徴物質14と第2の特徴物質16とのそれぞれの波長毎の吸光度に基づいて、第1の狭帯域光24と第2の狭帯域光28とをそれぞれ選択することも可能である。
 この場合、狭帯域光選択ステップ(ステップS1)は、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度が、最大値または極大値の波長を含む第3の波長領域に含まれる狭帯域光と、それぞれの波長毎の吸光度が、最小値または極小値の波長を含む第4の波長領域に含まれる狭帯域光とを、それぞれ第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択ステップ(ステップS12)を含むことができる。
 また、本実施形態に係る内視鏡観察方法においては、狭帯域光選択ステップ(ステップS1)は、第1の特徴物質14と第2の特徴物質16を選択する特徴物質選択ステップ(ステップS11)をさらに含むことができ、狭帯域光波長選択ステップ(ステップS12)は、これら選択された第1及び第2の特徴物質14,16に応じて、第1の狭帯域光24と第2の狭帯域光28とを選択する。
 また、本実施形態に係る内視鏡観察方法においては、狭帯域光選択ステップ(ステップS1)はさらに、第1の狭帯域光24と第2の狭帯域光28とを同時または交互または独立して照射する照射シーケンスを選択する照射シーケンス選択ステップ(ステップS13)を含む。
 ここで、この照射シーケンス選択ステップ(ステップS13)は、第1の狭帯域光24と第2の狭帯域光28の照射シーケンスを固定化する第1の照射モードと、第1の狭帯域光24と第2の狭帯域光28の照射シーケンスを任意で可変できる第2の照射モードと、を選択する照射モード選択ステップを含むことができる。 
 このように、観察者の好みにより、照射シーケンスを選択することができる。
 また、本実施形態に係る内視鏡観察方法においては、特徴物質存在画像生成ステップ(ステップS4)は、撮像データから得られる輝度に基づいて、第1の特徴物質14の存在を示す画像情報としての第1の輝度画像30と、第2の特徴物質16の存在を示す画像情報としての第2の輝度画像32とを、前記特徴物質存在画像として生成する輝度画像生成ステップ(ステップS41)を含む。
 そして、特徴物質存在画像生成ステップ(ステップS4)はさらに、輝度画像生成ステップ(ステップS41)で生成された第1の輝度画像30と第2の輝度画像32について、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う特徴物質有無判断ステップ(ステップS42)を含む。
 このように、輝度画像内のコントラストから特徴物質の有無を容易に判断することができる。
 なお、特徴物質有無判断ステップ(ステップS42)は、コントラストの値を、任意あるいは予め用途別に用意した値から選択するコントラスト値設定ステップを含むことができる。 
 これにより、観察者の使い方や熟練度等に応じて、特徴物質の有無の判断基準を切り替えることが可能となる。
 また、表示ステップ(ステップS5)は、第1の輝度画像30と第2の輝度画像32との2つの輝度画像を合成し、合成輝度画像38を生成して表示する合成輝度画像表示ステップ(ステップS51)を含む。 
 これにより、1つ1つの特徴物質の位置確認が1つの観察画像上で実施できるので、観察者による、病変部等の注目部位12であるか否かの判断が容易になる。
 またこの場合、表示ステップ(ステップS5)はさらに、特徴物質有無判断ステップ(ステップS42)で2つの特徴物質が存在したと判断された場合、合成輝度画像表示ステップ(ステップS51)で生成された合成輝度画像38から、第1の特徴物質14と第2の特徴物質16との重なり領域のみを抽出する重なり領域抽出ステップ(ステップS52)を含み、この抽出された重なり領域を合成輝度画像38上に識別表示する。 
 このように、それぞれの特徴物質の輝度画像の領域情報を合成し、2つの特徴物質の重なった領域を抽出して、観察者に提示することができる。これにより、観察者に、病変部等の注目部位12と想定される部位を提示することができ、観察者による注目部位12の発見をより容易にすることができる。
 また、表示ステップ(ステップS5)はさらに、特徴物質有無判断ステップ(ステップS42)で第1の輝度画像30と第2の輝度画像32のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させるコントラスト増加ステップ(ステップS54)を含む。 
 このように、一方の特徴物質が存在しない輝度画像上で、他方の特徴物質が存在する輝度画像上の領域と同一の領域に対してのみ、コントラスト増加処理を加えることで、本当にその領域に一方の特徴物質が存在しないのかを確認することが可能となる。
 また、表示ステップ(ステップS5)はさらに、特徴物質有無判断ステップ(ステップS42)で第1の輝度画像30と第2の輝度画像32の何れもコントラスト値が所定のコントラスト値未満であることが判別された場合、第1の輝度画像30と第2の輝度画像32とを表示する輝度画像表示ステップ(ステップS58)を含む。
 また、特徴物質存在画像生成ステップ(ステップS4)はさらに、特徴物質の重なり領域をその他の領域と画像上容易に区別が可能となるように、特徴物質の重なり領域40Aを強調表示する特徴物質強調画像42を生成する特徴物質強調画像生成表示ステップを含むこともできる。
 また、第1の輝度画像30と、第2の輝度画像32と、第1の輝度画像と第2の輝度画像とを合成した合成輝度画像38と、を保存する輝度画像データ保存ステップ(ステップS53、ステップS57)をさらに含む。 
 これにより、内視鏡を操作した観察者以外の者に、保存された画像を提示して、病変部等の注目部位12の判断を行わせることが可能となる。
 なお、第1の特徴物質14と第2の特徴物質16は、各々異なる用途に適した、例えば癌のマーカと知られている、異なる種類の色素であることが望ましい。例えば、第1の特徴物質14は、腫瘍に関連の深い血管を強調させる血管強調物質であるヘモグロビンであり、第2の特徴物質16は、細胞の構造やピットパターンを強調させる構造強調物質であるインジコカルミンである。 
 このように、複数種類の癌のマーカを用いることで、癌の誤検出防止や検出感度を上げる効果を奏する。
 また、本実施形態に係る内視鏡装置44は、所望の観察対象物である注目部位12に含まれる第1の特徴物質14と第2の特徴物質16とで互いに吸光度の異なる波長を持つ第1の狭帯域光24と第2の狭帯域光28とを選択する狭帯域光選択部60と、第1の狭帯域光24と第2の狭帯域光28とを照明光ILとして観察対象物に照射する照射部90と、観察対象物からの第1の狭帯域光24の反射光RLと第2の狭帯域光28の反射光RLとを撮像する撮像部56と、撮像部56で得た撮像データに基づいて、第1の特徴物質と第2の特徴物質の存在を表す特徴物質存在画像を生成する画像処理部58と、特徴物質存在画像を表示する画像表示部50と、を含む。 
 このように、所望の観察対象である注目部位12に関連の深い複数の特徴物質14,16に対し、それぞれの特徴物質で吸光度の異なる波長を持つ狭帯域光を、被検体10に照射することで、注目部位12に関連性のある複数の特徴物質14,16を検出することができ、その結果、観察対象の発見精度を向上することが可能となる。
 ここで、狭帯域光選択部60は、第1の特徴物質14と第2の特徴物質16のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の波長領域に含まれる狭帯域光と、上記差が最小値または極大値となる波長を含む第2の波長領域に含まれる狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択部92を含む。 
 すなわち、狭帯域光24,28を選択する際、1つの特徴物質を特定するのではなく、2つの特徴物質14,16を特定したいため、単純に各特徴物質のピーク波長をそれぞれ選択するのでは、ピーク波長が近い場合(同じ領域の場合)は特定が困難になる。そこで、2つの特徴物質14,16を特定できるように、吸光度の差が最大または極大、最小または極小となる波長を選択する。それぞれの特徴物質のピーク波長でなくとも、この選択条件を満たせば、使用できる波長が存在する。
 あるいは、狭帯域光選択部60は、第1の特徴物質14と第2の特徴物質16において、一方の特徴物質の吸光度が他方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光と、他方の特徴物質の吸光度が一方の1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下となる波長を有する狭帯域光とを、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択部92を含むことができる。 
 すなわち、吸光度が極端に違う波長(片方に対して1/2以下、望ましくは1/5以下、さらに望ましくは1/10以下)を選択することで、2つの特徴物質を特定できるようになる。
 あるいは、狭帯域光選択部60は、第1の特徴物質14と第2の特徴物質16において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、第1の狭帯域光24及び第2の狭帯域光28として選択する狭帯域光波長選択部92を含むことができる。 
 すなわち、吸光度が逆転している波長を選択することで、2つの特徴物質を特定できるようになる。
 また、本実施形態に係る内視鏡装置においては、画像処理部58は、撮像データから得られる輝度に基づいて、第1の特徴物質14の存在を示す画像情報としての第1の輝度画像30と、第2の特徴物質16の存在を示す画像情報としての第2の輝度画像32とを、特徴物質存在画像として生成する輝度画像生成部96と、第1の輝度画像30と第2の輝度画像32とについて、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う特徴物質有無判断部98と、を含む。 
 このように、輝度画像内のコントラストから特徴物質の有無を容易に判断することができる。
 またこの場合、画像処理部58はさらに、特徴物質有無判断部98で2つの特徴物質が存在したと判断された場合、第1の輝度画像30と第2の輝度画像32との2つの輝度画像を合成して合成輝度画像38を生成する合成輝度画像生成部100と、生成された合成輝度画像38から、第1の特徴物質14と第2の特徴物質16との重なり領域のみを抽出する重なり領域抽出部102と、抽出された重なり領域を合成輝度画像38上に識別表示する識別画像生成部104と、を含む。 
 このように、それぞれの特徴物質の輝度画像の領域情報を合成し、2つの特徴物質の重なった領域を抽出して、観察者に提示することができる。これにより、観察者に、病変部等の注目部位12と想定される部位を提示することができ、観察者による注目部位12の発見をより容易にすることができる。
 また、画像処理部58はさらに、特徴物質有無判断部98で第1の輝度画像30と第2の輝度画像32のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させるコントラスト増加部106を含む。 
 このように、一方の特徴物質が存在しない輝度画像上で、他方の特徴物質が存在する輝度画像上の領域と同一の領域に対してのみ、コントラスト増加処理を加えることで、本当にその領域に一方の特徴物質が存在しないのかを確認することが可能となる。
 以上、一実施形態に基づいて本発明を説明したが、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
  10…被検体、 12…注目部位、 14…第1の特徴物質、 16…第2の特徴物質、 18…第1の特徴物質の光吸収スペクトル、 20…第2の特徴物質の光吸収スペクトル、 22…吸光度の差の最大値、 24…第1の狭帯域光、 26…吸光度の差の最小値、 28…第2の狭帯域光、 30…第1の輝度画像、 32…第2の輝度画像、 34…第1の特徴物質画像、 34A…存在領域、 36…第2の特徴物質画像、 38…合成輝度画像、 40…重なり存在領域、 40A…重なり領域、 42…特徴物質強調画像、 44…内視鏡装置、 46…内視鏡、 48…本体部(ビデオプロセッサ)、 50…画像表示部(モニタ)、 52…入力部、 54…照明部、 56…撮像部、 58…画像処理部、 60…狭帯域光選択部、 62…挿入部、 64…操作部、 66…先端硬質部、 68…湾曲部、 70…可撓管部、 72…湾曲操作部、 74…本体部(スコープ)、 76…把持部、 78…ユニバーサルコード、 80-1~80-n…レーザ光源、 82…光源駆動部、 84-1~84-n,88…光ファイバ、 86…光合波部、 90…照射部、 92…狭帯域光波長選択部、 94…光源設定部、 96…輝度画像生成部、 98…特徴物質有無判断部、 100…合成輝度画像生成部、 102…重なり領域抽出部、 104…識別画像生成部、 106…コントラスト増加部。

Claims (29)

  1.  所望の観察対象物に含まれる第1の特徴物質と第2の特徴物質とで互いに吸光度の異なる波長を持つ第1の狭帯域光と第2の狭帯域光とを選択する狭帯域光選択ステップと、
     前記第1の狭帯域光と前記第2の狭帯域光とを前記観察対象物に照射する狭帯域光照射ステップと、
     前記観察対象物からの前記第1の狭帯域光の反射光と前記第2の狭帯域光の反射光とを撮像する撮像ステップと、
     前記撮像ステップで得た撮像データに基づいて、前記第1の特徴物質と前記第2の特徴物質の存在を表す特徴物質存在画像を生成する特徴物質存在画像生成ステップと、
     前記特徴物質存在画像を表示する表示ステップと、
     を含む、ことを特徴とする内視鏡観察方法。
  2.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質のそれぞれの波長毎の吸光度の差および/または吸光度の比が所定値以上となる、前記第1の狭帯域光と前記第2の狭帯域光とを選択する、ことを特徴とする請求項1に記載の内視鏡観察方法。
  3.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の波長領域に含まれる狭帯域光と、前記差が最小値または極大値となる波長を含む第2の波長領域に含まれる狭帯域光とを、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択ステップを含む、ことを特徴とする請求項1または2に記載の内視鏡観察方法。
  4.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質において、一方の特徴物質の吸光度が他方の1/2以下となる波長を有する狭帯域光と前記他方の特徴物質の吸光度が前記一方の1/2以下となる波長を有する狭帯域光とを、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択ステップを含む、ことを特徴とする請求項2に記載の内視鏡観察方法。
  5.  前記狭帯域光波長選択ステップは、前記第1の特徴物質と前記第2の特徴物質において、一方の特徴物質の吸光度が他方の1/10以下となる波長を有する狭帯域光と前記他方の特徴物質の吸光度が前記一方の1/10以下となる波長を有する狭帯域光とを、前記第1の狭帯域光及び前記第2の狭帯域光として選択する、ことを特徴とする請求項4に記載の内視鏡観察方法。
  6.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択ステップを含む、ことを特徴とする請求項2に記載の内視鏡観察方法。
  7.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質とのそれぞれの波長毎の吸光度に基づいて、前記第1の狭帯域光と前記第2の狭帯域光とをそれぞれ選択する、ことを特徴とする請求項1に記載の内視鏡観察方法。
  8.  前記狭帯域光選択ステップは、前記第1の特徴物質と前記第2の特徴物質のそれぞれの波長毎の吸光度が、最大値または極大値の波長を含む第3の波長領域に含まれる狭帯域光と、前記それぞれの波長毎の吸光度が、最小値または極小値の波長を含む第4の波長領域に含まれる狭帯域光とを、それぞれ前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択ステップを含む、ことを特徴とする請求項7に記載の内視鏡観察方法。
  9.  前記狭帯域光選択ステップは、
      前記第1の特徴物質と前記第2の特徴物質を選択する特徴物質選択ステップをさらに含み、
      選択された第1及び第2の特徴物質に応じて、前記第1の狭帯域光と前記第2の狭帯域光とを選択する、ことを特徴とする請求項1ないし請求項8の何れかに記載の内視鏡観察方法。
  10.  前記狭帯域光選択ステップはさらに、前記第1の狭帯域光と前記第2の狭帯域光とを同時または交互または独立して照射する照射シーケンスを選択する照射シーケンス選択ステップを含む、ことを特徴とする請求項1ないし請求項9の何れかに記載の内視鏡観察方法。
  11.  前記照射シーケンス選択ステップは、前記第1の狭帯域光と前記第2の狭帯域光の照射シーケンスを固定化する第1の照射モードと、前記第1の狭帯域光と前記第2の狭帯域光の照射シーケンスを任意で可変できる第2の照射モードと、を選択する照射モード選択ステップを含む、ことを特徴とする請求項10に記載の内視鏡観察方法。
  12.  前記特徴物質存在画像生成ステップは、前記撮像データから得られる輝度に基づいて、前記第1の特徴物質の存在を示す画像情報としての第1の輝度画像と、前記第2の特徴物質の存在を示す画像情報としての第2の輝度画像とを、前記特徴物質存在画像として生成する輝度画像生成ステップを含む、ことを特徴とする請求項1に記載の内視鏡観察方法。
  13.  前記特徴物質存在画像生成ステップはさらに、前記輝度画像生成ステップで生成された前記第1の輝度画像と前記第2の輝度画像について、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う特徴物質有無判断ステップを含む、ことを特徴とする請求項12に記載の内視鏡観察方法。
  14.  前記特徴物質有無判断ステップは、前記コントラストの値を、任意あるいは予め用途別に用意した値から選択するコントラスト値設定ステップを含む、ことを特徴とする請求項13に記載の内視鏡観察方法。
  15.  前記表示ステップは、前記第1の輝度画像と前記第2の輝度画像との2つの輝度画像を合成し、合成輝度画像を生成して表示する合成輝度画像表示ステップを含む、ことを特徴とする請求項13に記載の内視鏡観察方法。
  16.  前記表示ステップは、
      前記特徴物質有無判断ステップで2つの特徴物質が存在したと判断された場合、前記合成輝度画像表示ステップで生成された前記合成輝度画像から、前記第1の特徴物質と前記第2の特徴物質との重なり領域のみを抽出する重なり領域抽出ステップをさらに含み、
      前記抽出された重なり領域を前記合成輝度画像上に識別表示することを特徴とする請求項15に記載の内視鏡観察方法。
  17.  前記表示ステップはさらに、前記特徴物質有無判断ステップで前記第1の輝度画像と前記第2の輝度画像のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、前記所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させるコントラスト増加ステップを含む、ことを特徴とする請求項15に記載の内視鏡観察方法。
  18.  前記表示ステップはさらに、前記特徴物質有無判断ステップで前記第1の輝度画像と前記第2の輝度画像の何れもコントラスト値が所定のコントラスト値未満であることが判別された場合、前記第1の輝度画像と前記第2の輝度画像とを表示する輝度画像表示ステップを含む、ことを特徴とする請求項15に記載の内視鏡観察方法。
  19.  前記特徴物質存在画像生成ステップはさらに、前記特徴物質の重なり領域を、その他の領域と画像上容易に区別が可能となるように、前記特徴物質の重なり領域を強調表示する特徴物質強調画像を生成する特徴物質強調画像生成表示ステップを含む、ことを特徴とする、請求項15に記載の内視鏡観察方法。
  20.  前記第1の輝度画像と、前記第2の輝度画像と、前記第1の輝度画像と前記第2の輝度画像とを合成した合成輝度画像と、を保存する輝度画像データ保存ステップをさらに含むことを特徴とする、請求項14ないし請求項17の何れかに記載の内視鏡観察方法。
  21.  前記第1の特徴物質と第2の特徴物質は、各々異なる用途に適した、異なる種類の色素であることを特徴とする、請求項1に記載の内視鏡観察方法。
  22.  前記第1の特徴物質は、血管強調物質であるヘモグロビンであり、
     前記第2の特徴物質は、構造強調物質であるインジコカルミンであることを特徴とする、請求項21に記載の内視鏡観察方法。
  23.  所望の観察対象物に含まれる第1の特徴物質と第2の特徴物質とで互いに吸光度の異なる波長を持つ第1の狭帯域光と第2の狭帯域光とを選択する狭帯域光選択部と、
     前記第1の狭帯域光と前記第2の狭帯域光とを照明光として前記観察対象物に照射する照明部と、
     前記観察対象物からの前記第1の狭帯域光の反射光と前記第2の狭帯域光の反射光とを撮像する撮像部と、
     前記撮像部で得た撮像データに基づいて、前記第1の特徴物質と前記第2の特徴物質の存在を表す特徴物質存在画像を生成する画像処理部と、
     前記特徴物質存在画像を表示する表示部と、
     を含む、ことを特徴とする内視鏡装置。
  24.  前記狭帯域光選択部は、前記第1の特徴物質と前記第2の特徴物質のそれぞれの波長毎の吸光度の差が最大値または極大値となる波長を含む第1の波長領域に含まれる狭帯域光と、前記差が最小値または極大値となる波長を含む第2の波長領域に含まれる狭帯域光とを、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択部を含む、ことを特徴とする請求項23に記載の内視鏡装置。
  25.  前記狭帯域光選択部は、前記第1の特徴物質と前記第2の特徴物質において、一方の特徴物質の吸光度が他方の1/2以下となる波長を有する狭帯域光と前記他方の特徴物質の吸光度が前記一方の1/2以下となる波長を有する狭帯域光とを、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択部を含む、ことを特徴とする請求項23に記載の内視鏡装置。
  26.  前記狭帯域光選択部は、前記第1の特徴物質と前記第2の特徴物質において、互いの吸光度が逆転する波長を有する2つの狭帯域光を、前記第1の狭帯域光及び前記第2の狭帯域光として選択する狭帯域光波長選択部を含む、ことを特徴とする請求項23に記載の内視鏡装置。
  27.  前記画像処理部は、
      前記撮像データから得られる輝度に基づいて、前記第1の特徴物質の存在を示す画像情報としての第1の輝度画像と、前記第2の特徴物質の存在を示す画像情報としての第2の輝度画像と、を生成する輝度画像生成部と、
      前記第1の輝度画像と前記第2の輝度画像とについて、それぞれ輝度画像内のコントラストから特徴物質の有無判断を行う特徴物質有無判断部と、
    を含む、ことを特徴とする請求項23に記載の内視鏡装置。
  28.  前記画像処理部はさらに、
      前記特徴物質有無判断部で2つの特徴物質が存在したと判断された場合、前記第1の輝度画像と前記第2の輝度画像との2つの輝度画像を合成して合成輝度画像を生成する合成輝度画像生成部と、
      前記生成された前記合成輝度画像から、前記第1の特徴物質と前記第2の特徴物質との重なり領域のみを抽出する重なり領域抽出部と、
      前記抽出された前記重なり領域を前記合成輝度画像上に識別表示する識別画像を生成する識別画像生成部と、
    を含む、ことを特徴とする請求項27に記載の内視鏡装置。
  29.  前記画像処理部はさらに、前記特徴物質有無判断部で前記第1の輝度画像と前記第2の輝度画像のうち、どちらか片方のコントラスト値が所定のコントラスト値未満であることが判別された場合、前記所定のコントラスト値以上である一方の輝度画像内の特徴物質の存在領域を把握し、他方の輝度画像内の同じ存在領域のコントラストを増加させるコントラスト増加部を含む、ことを特徴とする請求項27に記載の内視鏡装置。
PCT/JP2016/052332 2016-01-27 2016-01-27 内視鏡観察方法及び内視鏡装置 WO2017130325A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017563456A JP6661668B2 (ja) 2016-01-27 2016-01-27 内視鏡装置の作動方法及び内視鏡装置
CN201680080415.1A CN108601510B (zh) 2016-01-27 2016-01-27 内窥镜观察方法和内窥镜装置
PCT/JP2016/052332 WO2017130325A1 (ja) 2016-01-27 2016-01-27 内視鏡観察方法及び内視鏡装置
US16/047,074 US11510558B2 (en) 2016-01-27 2018-07-27 Endoscope observation method and endoscope apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052332 WO2017130325A1 (ja) 2016-01-27 2016-01-27 内視鏡観察方法及び内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/047,074 Continuation US11510558B2 (en) 2016-01-27 2018-07-27 Endoscope observation method and endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2017130325A1 true WO2017130325A1 (ja) 2017-08-03

Family

ID=59397664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052332 WO2017130325A1 (ja) 2016-01-27 2016-01-27 内視鏡観察方法及び内視鏡装置

Country Status (4)

Country Link
US (1) US11510558B2 (ja)
JP (1) JP6661668B2 (ja)
CN (1) CN108601510B (ja)
WO (1) WO2017130325A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019083019A1 (ja) * 2017-10-26 2019-05-02 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
JP2020014807A (ja) * 2018-07-27 2020-01-30 富士フイルム株式会社 内視鏡装置及びその作動方法並び内視鏡装置用プログラム
WO2020208770A1 (ja) * 2019-04-11 2020-10-15 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6412709B2 (ja) * 2014-04-02 2018-10-24 オリンパス株式会社 観察画像取得システム
EP3533376A4 (en) * 2016-10-27 2019-12-04 Fujifilm Corporation ENDOSCOPIC SYSTEM AND OPERATING METHOD THEREFOR
WO2018098465A1 (en) 2016-11-28 2018-05-31 Inventio, Inc. Endoscope with separable, disposable shaft
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253419A (ja) * 2008-04-02 2009-10-29 Fujifilm Corp 撮像装置、撮像方法、およびプログラム
JP2014023591A (ja) * 2012-07-24 2014-02-06 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡画像の表示制御方法
JP2014171511A (ja) * 2013-03-06 2014-09-22 Olympus Corp 被検体観察システム及びその方法
JP5698878B2 (ja) * 2013-02-12 2015-04-08 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2016002133A (ja) * 2014-06-13 2016-01-12 オリンパス株式会社 内視鏡

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8593513B2 (en) 2008-04-02 2013-11-26 Fujifilm Corporation Image capturing apparatus having first and second light reception sections, image capturing method, and computer-readable medium
JP5631757B2 (ja) * 2011-01-19 2014-11-26 富士フイルム株式会社 電子内視鏡システム
JP5623348B2 (ja) * 2011-07-06 2014-11-12 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
CN103654700B (zh) * 2013-12-31 2016-08-31 中国人民武装警察部队总医院 荧光内窥成像***及成像方法
CN106455979A (zh) * 2013-12-31 2017-02-22 纪念斯隆-凯特琳癌症中心 用于荧光源实时多通道成像的***、方法和设备
JP5789345B2 (ja) 2015-02-12 2015-10-07 富士フイルム株式会社 内視鏡システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253419A (ja) * 2008-04-02 2009-10-29 Fujifilm Corp 撮像装置、撮像方法、およびプログラム
JP2014023591A (ja) * 2012-07-24 2014-02-06 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡画像の表示制御方法
JP5698878B2 (ja) * 2013-02-12 2015-04-08 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP2014171511A (ja) * 2013-03-06 2014-09-22 Olympus Corp 被検体観察システム及びその方法
JP2016002133A (ja) * 2014-06-13 2016-01-12 オリンパス株式会社 内視鏡

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019083019A1 (ja) * 2017-10-26 2019-05-02 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
JPWO2019083019A1 (ja) * 2017-10-26 2020-10-22 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
JP2020014807A (ja) * 2018-07-27 2020-01-30 富士フイルム株式会社 内視鏡装置及びその作動方法並び内視鏡装置用プログラム
JP7029359B2 (ja) 2018-07-27 2022-03-03 富士フイルム株式会社 内視鏡装置及びその作動方法並び内視鏡装置用プログラム
WO2020208770A1 (ja) * 2019-04-11 2020-10-15 オリンパス株式会社 内視鏡装置、制御装置、内視鏡装置の作動方法及びプログラム
JPWO2020208770A1 (ja) * 2019-04-11 2020-10-15
JP7123247B2 (ja) 2019-04-11 2022-08-22 オリンパス株式会社 内視鏡制御装置、内視鏡制御装置による照明光の波長特性の変更方法及びプログラム

Also Published As

Publication number Publication date
JPWO2017130325A1 (ja) 2018-11-15
US11510558B2 (en) 2022-11-29
US20180368670A1 (en) 2018-12-27
JP6661668B2 (ja) 2020-03-11
CN108601510B (zh) 2020-07-24
CN108601510A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
WO2017130325A1 (ja) 内視鏡観察方法及び内視鏡装置
US11033175B2 (en) Endoscope system and operation method therefor
JP5631764B2 (ja) 内視鏡システム及びその作動方法
JP6053673B2 (ja) 蛍光観察装置とその画像表示方法
US10881283B2 (en) Endoscope apparatus
JP5435746B2 (ja) 内視鏡装置
JP5541914B2 (ja) 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
JP5872916B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP6492187B2 (ja) 内視鏡装置
JP6596502B2 (ja) 内視鏡装置
JP4895750B2 (ja) 内視鏡プロセッサ、自家蛍光画像表示プログラム、及び内視鏡システム
WO2017057572A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057573A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
US9596982B2 (en) Endoscope system and composite image generation method
US9788709B2 (en) Endoscope system and image generation method to generate images associated with irregularities of a subject
CN111526773A (zh) 内窥镜图像获取***及方法
JP6461760B2 (ja) 画像処理装置、及び画像処理装置の作動方法、並びに内視鏡システム
JP2003164414A (ja) 蛍光診断画像表示方法および表示装置
KR102112229B1 (ko) 가시광 및 근적외선 광을 모두 가시화할 수 있는 내시경 장치
JPWO2018079116A1 (ja) 内視鏡システム
JP3946985B2 (ja) 蛍光画像撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16887912

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2017563456

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16887912

Country of ref document: EP

Kind code of ref document: A1