WO2019234815A1 - 内視鏡装置、内視鏡装置の作動方法及びプログラム - Google Patents

内視鏡装置、内視鏡装置の作動方法及びプログラム Download PDF

Info

Publication number
WO2019234815A1
WO2019234815A1 PCT/JP2018/021503 JP2018021503W WO2019234815A1 WO 2019234815 A1 WO2019234815 A1 WO 2019234815A1 JP 2018021503 W JP2018021503 W JP 2018021503W WO 2019234815 A1 WO2019234815 A1 WO 2019234815A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
image
wavelength
peak wavelength
processing unit
Prior art date
Application number
PCT/JP2018/021503
Other languages
English (en)
French (fr)
Inventor
恵仁 森田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2020523874A priority Critical patent/JP7019039B2/ja
Priority to PCT/JP2018/021503 priority patent/WO2019234815A1/ja
Publication of WO2019234815A1 publication Critical patent/WO2019234815A1/ja
Priority to US17/093,770 priority patent/US11717144B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3137Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/1459Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters invasive, e.g. introduced into the body by a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels

Definitions

  • the present invention relates to an endoscope apparatus, an operation method of the endoscope apparatus, a program, and the like.
  • gastritis or Skills gastric cancer in inflammatory diseases of the stomach.
  • these diseases are judged from the image findings.
  • a type of gastritis in which the mucous membrane atrophy is determined by confirming a blood vessel image in a white light image.
  • the type of gastritis in which the mucous membrane is thickened is determined by confirming that the stomach wall does not disappear in the state where the stomach is stretched by air supply.
  • Skills gastric cancer is determined by confirming the running shape and density of the gastric wall fold and that the interval between the folds does not expand even when the stomach is stretched by air supply.
  • Patent Documents 1 to 3 disclose a technique for assisting diagnosis by devising the wavelength of a light source or image processing in an endoscope apparatus.
  • an endoscope apparatus capable of presenting an image suitable for the above-mentioned stomach inflammatory disease.
  • Patent Document 1 discloses a technique called NBI (Narrow Band Imaging).
  • NBI Narrow Band Imaging
  • inflammation of the mucous membrane or the like can be observed by using blue narrow band light and green narrow band light as illumination light.
  • information indicating the thickness of the mucous membrane is not acquired.
  • Patent Documents 2 and 3 disclose a technique for observing a blood vessel below the mucous membrane by using illumination light having a center wavelength near 600 nm.
  • the display image does not become a normal white light image, the color tone of the mucous membrane showing inflammation cannot be observed in the white light image.
  • Patent Documents 1 to 3 do not disclose displaying information such as the color tone and thickness of the mucous membrane for comprehensive diagnosis of inflammatory diseases of the stomach.
  • an endoscope apparatus capable of presenting an image suitable for an inflammatory disease of the stomach, an operation method of the endoscope apparatus, a program, and the like.
  • One embodiment of the present invention includes a light source unit that generates first light, second light, and third light as illumination light, and an imaging unit that captures return light from a living tissue irradiated with the illumination light. , An image that is subjected to image processing using the first image, the second light, and the first image, the second image, and the third image corresponding to the third light imaged by the imaging unit.
  • the first light has a peak wavelength in a predetermined wavelength range including a wavelength at which the hemoglobin extinction coefficient is a maximum value
  • the second light has a minimum value of the hemoglobin extinction coefficient.
  • the first light has a peak wavelength in a predetermined wavelength range including a wavelength at which the hemoglobin extinction coefficient is a maximum value
  • the second light has a minimum value of the hemoglobin extinction coefficient.
  • the third light is the first light
  • the first light and the second light The third light is generated as illumination light, the return light from the biological tissue irradiated with the illumination light is imaged, and the captured first light and second light, Using the first image, the second image, and the third image corresponding to the third light Relating to the operation method of the endoscope apparatus that performs image processing.
  • the first light has a peak wavelength in a predetermined wavelength range including a wavelength at which the hemoglobin absorption coefficient is maximum, and the second light has the minimum hemoglobin absorption coefficient.
  • a peak wavelength between a wavelength that is a value and a wavelength that is the first maximum value of the hemoglobin extinction coefficient on the shorter wavelength side than the wavelength that is the minimum value, and the third light is the first light
  • the third light is generated as illumination light
  • the return light from the biological tissue irradiated with the illumination light is imaged, and the captured first light and second light
  • the first image, the second image, and the third image corresponding to the third light The step of performing image processing have, there is provided a program for causing a computer to execute.
  • the structural example of an endoscope apparatus The 1st characteristic example of the illumination light which a light source part generate
  • 3 is a detailed configuration example of an image processing unit.
  • FIG. 1 is a configuration example of the endoscope apparatus 1.
  • the endoscope apparatus 1 includes a main body section 5, an insertion section 2 that can be attached to and detached from the main body section with a connector, a display section 6 that displays an image output from the main body section 5, and an external I / F section 19. Including.
  • the main body 5 is also called a controller, a control device, or a processing device.
  • the insertion unit 2 is also called a scope.
  • the display unit 6 is also called a display device or a display.
  • the insertion unit 2 is inserted into the living body and illuminates the living body or images the living body.
  • the upper digestive tract such as the esophagus and the stomach can be assumed as a living body, but the object observed by the endoscope apparatus 1 is not limited to the upper digestive tract.
  • the insertion unit 2 includes an illumination optical system 7 that irradiates a subject with illumination light, and an imaging unit 10 that captures reflected light from the subject.
  • the imaging unit 10 is also referred to as an imaging optical system or an imaging device.
  • the illumination optical system 7 includes a light guide cable 8 that guides the illumination light, and an illumination lens 9 that diffuses the illumination light guided by the light guide cable 8 toward the subject.
  • the imaging unit 10 includes an objective lens 11 that forms an image of a subject and an imaging element 12 that captures an image formed by the objective lens 11.
  • the image sensor 12 is a monochrome image sensor or a color image sensor, for example, a CMOS image sensor or a CCD image sensor.
  • the main body 5 performs control of the endoscope device 1 and image processing.
  • the main body unit 5 includes a light source unit 3 that generates illumination light and a processing unit 4.
  • the light source unit 3 is also called a light source device.
  • the processing unit 4 is also called a processing circuit or a processing device.
  • the light source unit 3 includes light sources LS1 to LSn and an incident unit 20.
  • n is an integer of 3 or more.
  • Each of the light sources LS1 to LSn emits light having a predetermined spectrum.
  • each of the light sources LS1 to LSn is an LED (Light Emitting Diode) or a laser.
  • the incidence unit 20 causes the light emitted from the light sources LS1 to LSn to enter the light guide cable 8.
  • the incident unit 20 includes a mirror and a dichroic mirror.
  • the processing unit 4 includes a memory 16 that stores an image captured by the image sensor 12, an image processing unit 17 that processes an image input from the memory 16, and a control unit 18 that controls the endoscope apparatus 1. .
  • the image processing unit 17 is also referred to as an image processing circuit or an image processing device.
  • the control unit 18 is also called a control circuit or a control device.
  • the control unit 18 controls the timing at which the imaging device 12 performs imaging, the operation of the image processing unit 17, and the timing at which the light sources LS1 to LSn emit light.
  • the control unit 18 also controls the endoscope apparatus 1 based on operation information input from the external I / F unit 19.
  • the external I / F unit 19 is an operation device for the user to operate the endoscope apparatus 1 and is, for example, a button, a dial, a touch panel, or the like.
  • the external I / F unit 19 can be provided in at least one of the insertion unit 2, the main body unit 5, and the display unit 6.
  • the frame sequential method is a method in which a subject is sequentially irradiated with a plurality of lights and a subject image is captured when each light is irradiated.
  • the control unit 18 sequentially emits the light sources LS1 to LSn one by one, and the image sensor 12 performs imaging at each light emission timing.
  • the number of light sources that emit light at one light emission timing is not limited to one, and two or more light sources may emit light simultaneously at one light emission timing.
  • the memory 16 stores an image captured at each light emission timing. For example, taking as an example a case where the light sources LS1 to LSn are sequentially made to emit light one by one, the memory 16 stores n captured images. The n captured images are images captured when the light sources LS1 to LSn emit light. Each time images are sequentially captured by the frame sequential method, the stored contents of the memory 16 are updated. Note that the number of frames stored in the memory 16 is not limited to n, and the memory 16 may be configured to store as many frames as necessary for image processing.
  • the image processing unit 17 generates a display image from the captured image stored in the memory 16.
  • the display image is basically a white light image.
  • the white light image is an image obtained when the subject is irradiated with white light, or an image that can be regarded as equivalent thereto. For example, a moving image is generated by generating a white light image of one frame every time an image is captured by frame sequential imaging.
  • the image processing unit 17 performs enhancement processing on the display image using the captured image stored in the memory 16.
  • the image processing unit 17 outputs the display image after the enhancement process to the display unit 6.
  • the display unit 6 is a liquid crystal display, for example. Details of the image processing unit 17 will be described later.
  • the frame sequential method has been described as an example, but the light sources LS1 to LSn may emit light simultaneously.
  • an image sensor in which a color filter is provided for each pixel is used as the image sensor 12.
  • the image processing unit 17 extracts an image of each color channel from the captured image, and performs image processing using the image of each color channel. For example, when a certain color filter transmits light from the light source LS1, an image of a color channel corresponding to the color filter can be regarded as a captured image when the subject is irradiated with light from the light source LS1.
  • FIG. 2 is a first characteristic example of illumination light generated by the light source unit 3.
  • HbO 2 represents the absorbance spectrum of oxyhemoglobin
  • Hb represents the absorbance spectrum of hemoglobin
  • SV represents the intensity spectrum of the light emitted from the light source LS1
  • SG represents the intensity spectrum of the light emitted from the light source LS2
  • SA represents the intensity spectrum of the light emitted from the light source LS3.
  • n 3.
  • the absorbance spectrum of oxyhemoglobin will be described as an example, and oxyhemoglobin is simply referred to as hemoglobin.
  • the peak wavelength is a wavelength at which the light intensity is maximum.
  • 415 nm is a wavelength at which the absorbance of hemoglobin is maximized.
  • the spectrum SV is a narrow band. For example, the full width at half maximum is several nm to several tens of nm.
  • the peak wavelength ⁇ v is not limited to 415 nm.
  • ⁇ v is a wavelength belonging to a range of 415 nm ⁇ 20 nm, and preferably ⁇ v is a wavelength belonging to a range of 415 nm ⁇ 10 nm.
  • the spectrum SV is not limited to a narrow band, and may be a spectrum having a peak at the wavelength ⁇ v.
  • the spectrum SG has a green wavelength band. Specifically, the spectrum SG has a wavelength band of 500 nm to 580 nm, and its peak wavelength ⁇ g is around 540 nm.
  • the spectrum SG only needs to have a wavelength band that can be regarded as green, and is not limited to the above-described wavelength band or peak wavelength. Specifically, it is only necessary that the peak wavelength ⁇ g of the spectrum SG exists between the peak wavelength ⁇ v of the spectrum SV and the peak wavelength ⁇ a of the spectrum SA.
  • the spectrum SA is a narrow band. For example, the full width at half maximum is several nm to several tens of nm.
  • the spectrum of hemoglobin has a maximum value near 580 nm and a minimum value near 670 nm. Between the maximum value and the minimum value, the absorbance decreases monotonously.
  • the peak wavelength ⁇ a 600 nm exists between 580 nm at which the spectrum of hemoglobin has a maximum value and 670 nm at which the spectrum has a minimum value.
  • the peak wavelength ⁇ a is not limited to 600 nm.
  • the peak wavelength ⁇ a is farther away from the spectrum SG and that the absorbance of hemoglobin is as high as possible at the peak wavelength ⁇ a.
  • the peak wavelength ⁇ a may be any wavelength that falls within the range of 580 nm to 630 nm.
  • the light sources LS1, LS2, and LS3 sequentially emit light, and the light of the spectra SV, SG, and SA is sequentially irradiated onto the subject.
  • the order of irradiating light of the spectra SV, SG, and SA is not limited to this, and may be any order.
  • the illumination method is not limited to the frame sequential method.
  • FIG. 3 is a second characteristic example of illumination light generated by the light source unit 3.
  • the spectrum described in FIG. 2 is denoted by the same reference numeral, and the description thereof is omitted.
  • SB indicates the intensity spectrum of light emitted from the light source LS4
  • SR indicates the intensity spectrum of light emitted from the light source LS5.
  • n 5.
  • the spectrum SB has a blue wavelength band. Specifically, the spectrum SB has a wavelength band of 430 nm to 500 nm, and its peak wavelength ⁇ b is around 465 nm.
  • the spectrum SB only needs to have a wavelength band that can be regarded as blue, and is not limited to the above-described wavelength band or peak wavelength.
  • the peak wavelength ⁇ b of the spectrum SB only needs to exist between the peak wavelength ⁇ g of the spectrum SG and the peak wavelength ⁇ v of the spectrum SV.
  • the spectrum SR has a red wavelength band. Specifically, the spectrum SR has a wavelength band of 610 nm to 700 nm, and its peak wavelength ⁇ r is around 655 nm.
  • the spectrum SR only needs to have a wavelength band that can be regarded as red, and is not limited to the above wavelength band or peak wavelength. Specifically, it is only necessary that the peak wavelength ⁇ r of the spectrum SR exists on the longer wavelength side than the peak wavelength ⁇ a of the spectrum SA.
  • the light sources LS1, LS2, LS3, LS4, and LS5 emit light sequentially, so that the light of the spectra SV, SG, SA, SB, and SR is sequentially irradiated onto the subject.
  • the order of irradiating light of the spectra SV, SG, SA, SB, SR is not limited to this, and may be any order.
  • the illumination method is not limited to the frame sequential method.
  • An image in each wavelength band can be obtained by irradiating the subject with light as described above and photographing the image.
  • an image processing method using this image will be described.
  • light having the spectrum SV is referred to as SV light.
  • an image captured when the light of the spectrum SV is irradiated is described as an SV image.
  • FIG. 4 is used to explain an image obtained when SV light, SG light, and SA light are irradiated to the normal mucous membrane of the stomach.
  • the shorter the wavelength the stronger the scattering in the living body.
  • the intensity of the light is attenuated due to scattering. Therefore, the deeper the scattering, the shallower the light reaches. That is, the shorter the wavelength, the shallower the living body reaches which light reaches.
  • SV light has a shorter wavelength than SG light and SA light, and therefore reaches only a mucous membrane layer shallower than SG light and SA light.
  • the stomach wall has a lamina basement which is a surface layer and a submucosa which is deeper than the lamina basement.
  • SV light is scattered by the lamina basement and absorbed by hemoglobin present in the lamina basement. Since capillaries are present in the mucosal lamina, the SV image is an image reflecting the degree of redness of the mucosa lamina. That is, the more light the mucosal lamina is congested, the greater the absorption of SV light, and the darker the SV image.
  • SA light Since SA light has a longer wavelength than SV light and SG light, it reaches a mucosal layer deeper than SV light and SG light. Specifically, since SA light reaches the submucosa, it is scattered by the lamina intestinal and submucosa and is absorbed by hemoglobin present in the lamina intestinal and submucosa. Since there are thick blood vessels in the submucosa as compared with capillaries in the lamina basement, the submucosal vessels appear in the SA image. SA light is also affected by scattering and absorption in the mucosa-specific layer, but since it has a long wavelength, the degree of scattering is small, so that a blood vessel image of the submucosa is obtained as the SA image.
  • the SG light has a longer wavelength than the SV light and a shorter wavelength than the SA light, and therefore reaches a portion deeper than the SV light and shallower than the SA light. Specifically, since the SG light reaches a depth between the lamina intestinal and the submucosa, a part of the SG light reaches the submucosa. For this reason, a blood vessel image of the submucosa is obtained as the SG image, but the blood vessel image has a lower contrast than the blood vessel image in the SA image. In other words, the blood vessel image in the submucosal layer is shown in the SG image, but the blood vessel image is thinner than the blood vessel image in the SA image.
  • SV light is absorbed by capillaries in the lamina intestinal.
  • the redness of the mucosa changes depending on the density of capillaries in the lamina basement and the degree of redness of the capillaries. That is, information about the color of the surface mucous membrane is obtained from the SV image.
  • the gastric mucosa appears red in the white light image.
  • the SV image is dark because the absorption of the SV light is large in the mucous membrane specific layer.
  • the SV image is brightened because the absorption of the SV light in the mucous membrane specific layer is small.
  • the brightness of the SV image represents the color tone change of the surface mucous membrane.
  • SG light and SA light reach a deeper part than SV light. At this time, whether or not SG light and SA light reach the submucosal layer is affected by the thickness of the mucosal layer. That is, information on the thickness of the surface mucous membrane is obtained from the SG image and SA image. Specifically, as shown in the left diagram of FIG. 5, when the lamina limbal is thinned by atrophy or the like, SG light and SA light reach the submucosa. For this reason, the blood vessel image in the submucosal layer has high contrast in both the SG image and the SA image. On the other hand, as shown in the right diagram of FIG.
  • information on the color tone change of the surface mucous membrane can be obtained from the SV image.
  • Information about the thickness of the surface mucous membrane can be obtained from the SG image and SA image.
  • the white light image is enhanced using these pieces of information, so that diagnosis support by imaging can be performed when a doctor diagnoses an inflammatory disease of the stomach.
  • the following methods are known as conventional methods for diagnosing stomach diseases using an endoscope apparatus.
  • atrophic gastritis is characterized by thinning of the surface mucosa.
  • a vascular fluoroscopic image is confirmed in a white light image.
  • a blood vessel fluoroscopy image is a blood vessel image seen through a mucous membrane. That is, in atrophic gastritis, since the superficial mucosa is thin, it is confirmed by image findings that blood vessels in the submucosal layer can be seen through from the superficial mucosa.
  • cystic gastritis is characterized by thickening of the mucosal folds. Acupuncture means “wrinkles” and “folds”.
  • the endoscope apparatus 1 includes the light source unit 3 that generates the first light, the second light, and the third light as illumination light, and the return light from the living tissue irradiated with the illumination light.
  • An image using the image pickup unit 10 that picks up the image, the first light and the second light imaged by the image pickup unit 10, the first image, the second image, and the third image corresponding to the third light.
  • an image processing unit 17 that performs processing.
  • the second light has a peak wavelength between the wavelength at which the hemoglobin extinction coefficient is a minimum value and the wavelength at which the hemoglobin extinction coefficient is the first maximum value on the shorter wavelength side than the minimum value wavelength.
  • the second light is SA light, and the peak wavelength ⁇ a of the SA light is 600 nm.
  • the wavelength at which the hemoglobin extinction coefficient is the minimum is around 670 nm.
  • the wavelength at which the first maximum value of the hemoglobin extinction coefficient is shorter than the minimum wavelength is around 580 nm.
  • the third light has a peak wavelength between the peak wavelength of the first light and the peak wavelength of the second light, and has a higher scattering coefficient in the living tissue than the second light. 2 and 3, the third light is SG light, and the peak wavelength ⁇ g of the SG light is around 540 nm.
  • an SV image is obtained as the first image corresponding to the first light
  • an SA image is obtained as the second image corresponding to the second light
  • An SG image is obtained as the third image.
  • information related to the color tone change of the surface mucous membrane is obtained from the SV image
  • information related to the thickness of the surface mucous membrane is obtained from the SG image and the SA image.
  • FIG. 6 is a diagram showing the relationship between the thickness of the surface mucosa and the color change of the surface mucosa and various inflammatory diseases of the stomach.
  • the horizontal axis represents the thickness of the surface mucous membrane
  • the vertical axis represents the color tone change of the surface mucous membrane.
  • the color change of the surface mucosa can be enhanced using the SV image.
  • the thickness of the surface mucous membrane can be enhanced using the SG image and the SA image. Accordingly, it is possible to highlight and display the characteristics of the color change of the surface mucous membrane and the thickness of the surface mucous membrane, and the image can provide diagnosis support for inflammatory diseases of the stomach.
  • diagnosis support using an imaging technique such as image enhancement is used instead of a technique such as observing the extension of wrinkles due to air supply. For this reason, before the diagnosis can be made by a method such as observing the extension of wrinkles due to insufflation, diagnosis can be supported, for example, at a stage where the thickness of the surface mucosa is gradually increasing. That is, by using the method of the present embodiment, it is possible to provide support information for diagnosing the state before or during the progress of the disease.
  • the SV light (first light) has a peak wavelength within a predetermined wavelength range of 415 ⁇ 20 nm.
  • SA light (second light) has a peak wavelength in the range of 600 ⁇ 20 nm.
  • 415 nm is a wavelength at which the hemoglobin extinction coefficient is maximum.
  • SV light is absorbed by hemoglobin with a high extinction coefficient.
  • the brightness of the SV image changes with high sensitivity to the color tone change of the surface mucous membrane, so that the color tone change of the surface mucosa can be effectively emphasized based on the brightness of the SV image.
  • 600 nm exists between the maximum value near 580 nm and the minimum value near 680 nm in the absorbance spectrum of hemoglobin. That is, 600 nm light has a longer wavelength side with a higher scattering coefficient than SG light, and the absorption coefficient of hemoglobin is higher than the minimum value.
  • the peak wavelength of SA light within the range of 600 ⁇ 20 nm
  • SA light reaches a deeper part of the mucosa than SG light
  • the blood vessels under the mucosa can be imaged using SA light. It is possible.
  • the depth at which SG light and SA light reach is different, and blood vessels can be imaged by SG light and SA light, so that information on the thickness of the surface mucous membrane can be obtained from the SG image and SA image. Can be obtained.
  • the SV light and the SA light are narrowband light having a narrower wavelength band than that of the SG light (third light).
  • the wavelength band of narrowband light is several nm to several tens of nm.
  • the scattering coefficient in the living body is determined by the wavelength, the depth at which the light reaches the living body is easier to control in the narrow band light than in the light having a wide wavelength band. For this reason, by using narrow-band light as SV light and SA light, the color tone change of the surface mucosa and the thickness of the surface mucosa can be more accurately emphasized.
  • the image processing unit 17 changes the color tone of the mucous membrane in the living tissue based on the SV image (first image), the SA image (second image), and the SG image (third image).
  • a process of emphasizing and a process of emphasizing blood vessels in the submucosa in the living tissue are performed.
  • the image processing unit 17 performs a process for enhancing the color tone of the mucous membrane of the living tissue based on the SV image on the white light image.
  • the image processing unit 17 performs a process for enhancing the blood vessels in the submucosal layer of the living tissue on the white light image based on the SA image and the SG image.
  • the color tone of the mucous membrane in the living tissue can be enhanced using the SV image whose brightness changes according to the color tone of the surface mucosa.
  • the blood vessels in the submucosa in the living tissue can be emphasized using the SG image and SA image in which the contrast of the blood vessel image changes according to the thickness of the surface mucosa.
  • the image processing unit 17 emphasizes the structure information of the display image based on the SA image and the SG image.
  • the display image is a white light image generated from the captured image.
  • a white light image is generated from the SV image, the SG image, and the SA image.
  • a white light image is generated from the SB image, the SG image, and the SR image.
  • a white light image may be generated from the SV image, SB image, SG image, SA image, and SR image.
  • the thickness of the surface mucosa can be presented as support information by emphasizing the blood vessels in the submucosa.
  • the image processing unit 17 extracts a frequency component of a predetermined frequency band from the SA image as a first frequency component, and extracts a frequency component of the predetermined frequency band from the SG image as a second frequency component.
  • the predetermined frequency band applied to the SA image and the predetermined frequency band applied to the SG image are, for example, the same band, but may be different.
  • the image processing unit 17 sets an enhancement coefficient based on the correlation between the first frequency component and the second frequency component, and enhances the structure information of the display image using the enhancement coefficient.
  • the predetermined frequency band is set to a frequency band where blood vessels in the submucosa can be extracted from the SA image and SG image.
  • the same blood vessel image is shown in the SA image and the SG image, but the contrast changes according to the thickness of the surface mucosa. That is, when the surface mucosa is thin, the contrast of the blood vessel image is high in both images, when the surface mucosa is thick, the contrast is low in both images, and when the surface mucosa is normal thickness, in the SG image The contrast of the blood vessel image is low and the contrast of the blood vessel image is high in the SA image. Using such a correlation between blood vessel images between the SA image and the SG image, an enhancement coefficient in structure enhancement is set.
  • an emphasis coefficient is set such that the thinner the surface mucous membrane is, the more the blood vessels in the submucosa are emphasized. In this way, the thinner the surface mucosa, the more the blood vessels in the submucosa can be emphasized, and the thickness of the surface mucosa can be easily read from the display image.
  • the image processing unit 17 increases the enhancement coefficient as the first frequency component increases, and increases the enhancement coefficient as the second frequency component increases. That is, the enhancement coefficient increases when both the first frequency component and the second frequency component are large, and the enhancement coefficient decreases when both the first frequency component and the second frequency component are small.
  • the enhancement coefficient increases as the contrast of the blood vessel image in the SA image increases, and the enhancement coefficient increases as the contrast of the blood vessel image in the SG image increases.
  • the blood vessels in the submucosa can be emphasized as the surface mucosa is thinner.
  • the image processing unit 17 emphasizes the color information of the display image based on the SV image. Specifically, emphasis is made so that the redness of the mucous membrane looks more red. Also, emphasize the fading of the mucous membrane so that it looks more fading.
  • the color tone of the surface mucous membrane in the living tissue can be emphasized.
  • the density of capillaries in the superficial mucosa and the degree of hyperemia of the capillaries can be presented as support information. These pieces of information indicate inflammation of the superficial mucosa or the state of the capillaries of the superficial mucosa, and by providing support information related to such information, diagnosis of inflammatory diseases of the stomach can be supported.
  • the image processing unit 17 sets an enhancement coefficient based on the signal value of the SV image, and enhances the color information using the enhancement coefficient.
  • the signal value is also called a pixel value.
  • the signal value may be an average pixel value in a local region of the SV image.
  • smoothing processing may be performed on the SV image, and pixel values in the processed image may be used as signal values.
  • the signal value of the SV image changes according to the color tone of the surface mucous membrane. For this reason, the tone of the surface mucous membrane can be enhanced by setting the enhancement coefficient based on the signal value of the SV image.
  • the image processing unit 17 increases the enhancement coefficient as the signal value of the SV image is smaller.
  • the surface mucous membrane when the surface mucous membrane is red, the amount of SV light absorption increases, so the SV image signal value decreases.
  • the surface mucosa When the surface mucosa is discolored, the amount of SV light absorption decreases. As a result, the signal value of the SV image increases.
  • the enhancement coefficient As the signal value of the SV image is smaller, it is possible to enhance the redness of the mucous membrane so that it appears more vividly red. In addition, it can be emphasized so that the fading of the mucous membrane looks more fading.
  • the endoscope apparatus of the present embodiment may be configured as follows. That is, the endoscope apparatus of the present embodiment includes a memory that stores information and a processor that operates based on the information stored in the memory.
  • the information is, for example, a program and various data.
  • the processor includes hardware. The processor performs image processing using the first light, the second light, and the first image, the second image, and the third image that correspond to the first light, the second light, and the third light.
  • the function of each unit may be realized by individual hardware, or the function of each unit may be realized by integrated hardware.
  • the processor may include hardware, and the hardware may include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal.
  • the processor can be composed of one or more circuit devices or one or more circuit elements mounted on a circuit board.
  • the one or more circuit devices are, for example, ICs.
  • the one or more circuit elements are, for example, resistors, capacitors, and the like.
  • the processor may be, for example, a CPU (Central Processing Unit).
  • the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used.
  • the processor may be an ASIC hardware circuit.
  • the processor may include an amplifier circuit, a filter circuit, and the like that process an analog signal.
  • the memory may be a semiconductor memory such as SRAM or DRAM, a register, a magnetic storage device such as a hard disk device, or an optical storage device such as an optical disk device. May be.
  • the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the functions of the respective units of the endoscope apparatus are realized as processing.
  • the instruction here may be an instruction of an instruction set constituting the program, or an instruction for instructing an operation to the hardware circuit of the processor.
  • Each unit of the endoscope apparatus is, for example, a control unit 18 and an image processing unit 17 in FIG.
  • the memory is, for example, the memory 16 in FIG. 1 or a memory (not shown).
  • each unit of the endoscope apparatus of the present embodiment may be realized as a program module that operates on a processor.
  • the image processing unit 17 uses the first light, the second light, the first image corresponding to the third light, the second image, and the third image captured by the image capturing unit 10. This is realized by an image processing module that performs processing.
  • a program that realizes processing performed by each unit of the endoscope apparatus of the present embodiment can be stored in an information storage medium that is a computer-readable medium, for example.
  • the information storage medium can be realized by, for example, an optical disc, a memory card, an HDD, or a semiconductor memory (ROM).
  • the semiconductor memory is, for example, a ROM.
  • the image processing unit 17 and the control unit 18 of the endoscope apparatus perform various processes of this embodiment based on programs and data stored in the information storage medium. That is, the information storage medium stores a program for causing a computer to function as each part of the endoscope apparatus of the present embodiment.
  • the computer is an apparatus including an input device, a processing unit, a storage unit, and an output unit.
  • the program is a program for causing a computer to execute processing of each unit.
  • FIG. 7 is a detailed configuration example of the image processing unit 17.
  • the image processing unit 17 includes an image generation unit 31, a first enhancement processing unit 32, and a second enhancement processing unit 33.
  • the DSP executes the processing of the image generation unit 31, the first enhancement processing unit 32, and the second enhancement processing unit 33 in a time division manner.
  • the image generation unit 31, the first enhancement processing unit 32, and the second enhancement processing unit 33 may be configured by individual circuits.
  • the captured image SIM is input to the image generation unit 31 from the memory 16 of FIG.
  • the image processing unit 17 generates a white light image IWL from the captured image SIM.
  • the image processing unit 17 outputs the SV image IV to the first enhancement processing unit 32 and outputs the SG image IG and the SA image IA to the second enhancement processing unit 33.
  • the image processing unit 17 generates a white light image IWL by combining the SV image, the SG image, and the SA image.
  • the white light image IWL is generated by combining the SB image, the SG image, and the SR image. Or you may use SV image and SA image further.
  • various image processing such as gain processing may be performed on the image of each wavelength.
  • the first emphasis processing unit 32 enhances the color information of the white light image IWL by a calculation using the SV image IV.
  • the first enhancement processing unit 32 enhances the redness of the white light image IWL according to the signal value of the SV image IV.
  • This enhancement processing is performed for each pixel or each local region. That is, the first emphasis processing unit 32 performs an operation for emphasizing the reddishness of the white light image IWL for an area where the signal value is large in the SV image IV.
  • the first enhancement processing unit 32 outputs the processed white light image IWL1.
  • the first enhancement processing unit 32 sets the enhancement coefficient so that the saturation of the white light image IWL is high when the signal value of the SV image IV is small. That is, when the signal value of the SV image is small, the density of the capillaries is high in the surface mucosa, and thus the surface mucosa is reddish in the white light image IWL. For this reason, when the signal value of the SV image is small, the redness is emphasized.
  • the first enhancement processing unit 32 converts the white light image IWL into a YCrCb signal, and multiplies the Cr signal of the YCrCb signal by a gain. This gain is inversely proportional to the signal value of the SV image. This gain corresponds to an enhancement coefficient.
  • the first enhancement processing unit 32 sets the enhancement coefficient so that the saturation of the white light image IWL is low when the signal value of the SV image IV is large. That is, when the signal value of the SV image is large, the density of the capillary blood vessels is low in the surface mucosa, and therefore the surface mucosa is fading in the white light image IWL. For this reason, when the signal value of the SV image is large, the redness of the surface mucous membrane is suppressed and whitened.
  • the first enhancement processing unit 32 converts the white light image IWL into a YCrCb signal, and multiplies the Cr signal of the YCrCb signal by a gain. This gain is inversely proportional to the signal value of the SV image and is 1 or less.
  • the second enhancement processing unit 33 enhances the structure information of the white light image IWL1 by calculation using the SG image IG and the SA image IA. For example, the second enhancement processing unit 33 extracts a blood vessel edge from the SA image IA as a first frequency component using a bandpass filter. Further, the edge of the blood vessel is extracted from the SG image IG as a second frequency component by the band pass filter. The second enhancement processing unit 33 structurally enhances the blood vessel of the white light image IWL1 based on the first frequency component and the second frequency component.
  • the second enhancement processing unit 33 multiplies the first frequency component and the second frequency component, and uses the multiplied value as the enhancement coefficient. This multiplication is performed for each pixel or each local region.
  • the second enhancement processing unit 33 adds this enhancement coefficient to the white light image IWL1. For example, an enhancement coefficient is added to the G pixel value of the white light image IWL1.
  • the second enhancement processing unit 33 may set an enhancement coefficient that changes nonlinearly with respect to the multiplication value of the first frequency component and the second frequency component.
  • an enhancement coefficient that changes in a quadratic function may be set for the multiplication value of the first frequency component and the second frequency component.
  • color enhancement may be performed after structure enhancement, or color enhancement and structure enhancement may be performed in parallel.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡装置1は、第1の光及び第2の光、第3の光を照明光として発生する光源部3と、照明光が照射された生体組織からの戻り光を撮像する撮像部10と、撮像部10により撮像された第1の光及び第2の光、第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う画像処理部17と、を含む。第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有する。第2の光は、ヘモグロビン吸光係数が最小値となる波長と、最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有する。第3の光は、第1の光のピーク波長と、第2の光のピーク波長との間にピーク波長を有する。

Description

内視鏡装置、内視鏡装置の作動方法及びプログラム
 本発明は、内視鏡装置、内視鏡装置の作動方法及びプログラム等に関する。
 胃の炎症性疾患には胃炎又はスキルス胃がん等の種々の疾患がある。内視鏡装置を用いた診断において、これらの疾患は画像所見から判断される。例えば粘膜が萎縮するタイプの胃炎は、白色光画像において血管像を確認することで判断される。或いは粘膜が肥厚するタイプの胃炎は、送気により胃を伸展させた状態において胃壁の襞が消失しないことを確認することで、判断される。或いはスキルス胃がんは、胃壁の襞の走行形状及び密度と、送気により胃を伸展させても襞の間隔が拡がらないこととを確認することで、判断される。
特開2001-170009号公報 特許第5362149号公報 特開2016-67775号公報
 内視鏡装置において、光源の波長又は画像処理を工夫することで診断を支援する手法が例えば特許文献1~3に開示されている。しかし、上述のような胃の炎症性疾患に好適な画像を提示できる内視鏡装置はなかった。
 例えば、特許文献1には、NBI(Narrow Band Imaging)と呼ばれる手法が開示されている。NBIでは、青色の狭帯域光と緑色の狭帯域光を照明光として用いることで、粘膜の炎症等を観察することができる。しかし、NBIでは粘膜の厚さを示す情報等は取得されない。また、特許文献2、3には、中心波長が600nm付近の照明光を用いることで、粘膜よりも下層の血管を観察する手法が開示されている。しかし、特許文献2、3では表示画像が通常の白色光画像にならないため、炎症を示す粘膜の色調等を白色光画像において観察することはできない。以上のように、特許文献1~3には、胃の炎症性疾患を総合的に診断するための粘膜の色調及び厚さ等の情報を表示することについて開示されていない。
 本発明の幾つかの態様によれば、胃の炎症性疾患に好適な画像を提示できる内視鏡装置、内視鏡装置の作動方法及びプログラム等を提供できる。
 本発明の一態様は、第1の光及び第2の光、第3の光を照明光として発生する光源部と、前記照明光が照射された生体組織からの戻り光を撮像する撮像部と、前記撮像部により撮像された前記第1の光及び前記第2の光、前記第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う画像処理部と、を含み、前記第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、前記第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、前記第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも前記生体組織における散乱係数が高い内視鏡装置に関係する。
 また本発明の他の態様は、第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも生体組織における散乱係数が高い場合において、前記第1の光及び前記第2の光、前記第3の光を照明光として発生し、前記照明光が照射された前記生体組織からの戻り光を撮像し、撮像された前記第1の光及び前記第2の光、前記第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う内視鏡装置の作動方法に関係する。
 また本発明の更に他の態様は、第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも生体組織における散乱係数が高い場合において、前記第1の光及び前記第2の光、前記第3の光を照明光として発生し、前記照明光が照射された前記生体組織からの戻り光を撮像し、撮像された前記第1の光及び前記第2の光、前記第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行うステップを、コンピュータに実行させるプログラムに関係する。
内視鏡装置の構成例。 光源部が発生する照明光の第1の特性例。 光源部が発生する照明光の第2の特性例。 照明光を胃の正常粘膜に照射したときに得られる画像について説明する図。 照明光を胃の非正常粘膜に照射したときに得られる画像について説明する図。 表層粘膜の厚み及び表層粘膜の色調変化と、種々の胃の炎症性疾患との関係を示す図。 画像処理部の詳細な構成例。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 1.内視鏡装置
 図1は、内視鏡装置1の構成例である。内視鏡装置1は、本体部5と、コネクターにより本体部に対して着脱可能な挿入部2と、本体部5が出力する画像を表示する表示部6と、外部I/F部19とを含む。なお、本体部5はコントローラー、又は制御装置、処理装置とも呼ぶ。挿入部2はスコープとも呼ぶ。表示部6は表示装置、又はディスプレイとも呼ぶ。
 挿入部2は、生体内に挿入され、生体を照明したり、生体を撮像したりする。本実施形態において、食道と胃等の上部消化管を生体として想定できるが、内視鏡装置1により観察する対象は上部消化管に限定されない。挿入部2は、照明光を被写体へ照射する照明光学系7と、被写体からの反射光を撮像する撮像部10とを含む。なお、撮像部10を撮像光学系、又は撮像装置とも呼ぶ。
 照明光学系7は、照明光を導光するライトガイドケーブル8と、ライトガイドケーブル8が導光した照明光を被写体に向けて拡散させる照明レンズ9と、を含む。撮像部10は、被写体を結像させる対物レンズ11と、対物レンズ11により結像された像を撮影する撮像素子12と、を含む。撮像素子12は、モノクロ撮像素子又はカラー撮像素子であり、例えばCMOSイメージセンサー又はCCDイメージセンサーである。
 本体部5は、内視鏡装置1の制御と、画像処理とを行う。本体部5は、照明光を発生する光源部3と、処理部4とを含む。なお、光源部3は光源装置とも呼ぶ。処理部4は処理回路、又は処理装置とも呼ぶ。
 光源部3は、光源LS1~LSnと、入射部20とを含む。nは3以上の整数である。光源LS1~LSnの各々は、所定スペクトルの光を出射する。例えば、光源LS1~LSnの各々は、LED(Light Emitting Diode)又はレーザーである。入射部20は、光源LS1~LSnが出射した光をライトガイドケーブル8に入射させる。例えば、入射部20はミラー及びダイクロイックミラーで構成される。
 処理部4は、撮像素子12が撮像した画像を記憶するメモリ16と、メモリ16から入力される画像を処理する画像処理部17と、内視鏡装置1を制御する制御部18と、を含む。なお、画像処理部17を画像処理回路、又は画像処理装置とも呼ぶ。制御部18を制御回路、又は制御装置とも呼ぶ。
 制御部18は、撮像素子12が撮像を行うタイミングと、画像処理部17の動作と、光源LS1~LSnが発光するタイミングと、を制御する。また制御部18は、外部I/F部19から入力される操作情報に基づいて、内視鏡装置1を制御する。外部I/F部19は、ユーザーが内視鏡装置1を操作するための操作装置であり、例えばボタン、又はダイヤル、タッチパネル等である。外部I/F部19は挿入部2、及び本体部5、表示部6の少なくとも1つに設けることができる。
 本実施形態では、例えば面順次方式の撮影を行う。面順次方式とは、複数の光を順次に被写体に照射し、その各光が照射されたときの被写体像を撮影する方式である。具体的には、制御部18は、光源LS1~LSnを1つずつ順次に発光させ、撮像素子12は、各発光タイミングで撮像を行う。なお、1回の発光タイミングで発光させる光源の数は1つに限定されず、1回の発光タイミングで2以上の光源を同時に発光させてもよい。
 メモリ16は、各発光タイミングで撮像された画像を記憶する。例えば光源LS1~LSnを1つずつ順次に発光させる場合を例にとると、メモリ16はn枚の撮像画像を記憶する。n枚の撮像画像は、光源LS1~LSnが発光したときに撮像された画像である。面順次方式により順次に画像が撮像される毎に、メモリ16の記憶内容が更新される。なお、メモリ16が記憶するフレーム数はnに限定されず、画像処理に必要なフレーム数だけメモリ16が記憶できるように構成すればよい。
 画像処理部17は、メモリ16に記憶される撮像画像から表示画像を生成する。後述するように、表示画像は基本的には白色光画像である。白色光画像は、白色光を被写体に照射したときに得られる画像、又はそれと同等とみなせる画像である。例えば、面順次方式の撮像により画像が撮像される毎に1フレームの白色光画像が生成されることで、動画像が生成される。また、画像処理部17は、メモリ16に記憶される撮像画像を用いて、表示画像に対して強調処理を行う。画像処理部17は、強調処理後の表示画像を表示部6に出力する。表示部6は、例えば液晶ディスプレイ等である。なお、画像処理部17の詳細については、後述する。
 上記では面順次方式を例に説明したが、光源LS1~LSnを同時に発光させてもよい。この場合、撮像素子12として、各画素にカラーフィルターが設けられた撮像素子を用いる。そして、画像処理部17は、撮像画像から各カラーチャンネルの画像を抽出し、その各カラーチャンネルの画像を用いて画像処理を行う。例えば、あるカラーフィルターが光源LS1の光を透過する場合、そのカラーフィルターに対応したカラーチャンネルの画像は、光源LS1の光を被写体に照射したときの撮像画像とみなすことができる。
 2.光源部
 図2は、光源部3が発生する照明光の第1の特性例である。図2において、HbOは、酸化ヘモグロビンの吸光度スペクトルを示し、Hbは、ヘモグロビンの吸光度スペクトルを示す。SVは、光源LS1が出射する光の強度スペクトルを示し、SGは、光源LS2が出射する光の強度スペクトルを示し、SAは、光源LS3が出射する光の強度スペクトルを示す。この例ではn=3である。なお、以下では酸化ヘモグロビンの吸光度スペクトルを例に説明するものとし、酸化ヘモグロビンを単にヘモグロビンと記載する。
 スペクトルSVは紫色の波長帯域を有する。具体的には、スペクトルSVは、ピーク波長λv=415nmにおいてピークを有する。ピーク波長とは、光の強度が最大となる波長である。415nmはヘモグロビンの吸光度が最大となる波長である。スペクトルSVは狭帯域であり、例えば半値幅は数nm~数10nmである。なお、ピーク波長λvは415nmに限定されず、例えばλvは415nm±20nmの範囲に属する波長であり、望ましくはλvは415nm±10nmの範囲に属する波長である。またスペクトルSVは狭帯域に限定されず、波長λvにピークを有するスペクトルであればよい。
 スペクトルSGは、緑色の波長帯域を有する。具体的には、スペクトルSGは500nm~580nmの波長帯域を有しており、そのピーク波長λgは540nm付近である。なお、スペクトルSGは、緑色とみなせる波長帯域を有していればよく、上記の波長帯域やピーク波長に限定されるものではない。具体的には、スペクトルSVのピーク波長λvとスペクトルSAのピーク波長λaの間に、スペクトルSGのピーク波長λgが存在していればよい。
 スペクトルSAは、アンバー色又は褐色の波長帯域を有する。具体的には、スペクトルSAは、ピーク波長λa=600nmにおいてピークを有する。スペクトルSAは狭帯域であり、例えば半値幅は数nm~数10nmである。ヘモグロビンのスペクトルは、580nm付近において極大値となり、670nm付近において最小値となる。その極大値と極小値の間において吸光度は単調減少している。ピーク波長λa=600nmは、ヘモグロビンのスペクトルが極大値となる580nmと、極小値となる670nmとの間に存在している。なお、ピーク波長λaは600nmに限定されない。具体的には、ピーク波長λaがスペクトルSGよりも長波長側に離れており、且つ、ピーク波長λaにおいて出来るだけヘモグロビンの吸光度が高いことが望ましい。例えば、ピーク波長λaは、580nm~630nmの範囲に属する波長であればよい。
 面順次方式を用いた場合、光源LS1、LS2、LS3が順次に発光することで、スペクトルSV、SG、SAの光が順次に被写体に照射される。なお、スペクトルSV、SG、SAの光を照射する順序は、これに限定されず、任意の順序でよい。また、上述したように照明手法は面順次方式に限定されない。
 図3は、光源部3が発生する照明光の第2の特性例である。図2で説明したスペクトルについては同一の符号を付し、その説明を省略する。図3において、SBは、光源LS4が出射する光の強度スペクトルを示し、SRは、光源LS5が出射する光の強度スペクトルを示す。この例ではn=5である。
 スペクトルSBは、青色の波長帯域を有する。具体的には、スペクトルSBは430nm~500nmの波長帯域を有しており、そのピーク波長λbは465nm付近である。なお、スペクトルSBは、青色とみなせる波長帯域を有していればよく、上記の波長帯域やピーク波長に限定されるものではない。具体的には、スペクトルSGのピーク波長λgとスペクトルSVのピーク波長λvの間に、スペクトルSBのピーク波長λbが存在していればよい。
 スペクトルSRは、赤色の波長帯域を有する。具体的には、スペクトルSRは610nm~700nmの波長帯域を有しており、そのピーク波長λrは655nm付近である。なお、スペクトルSRは、赤色とみなせる波長帯域を有していればよく、上記の波長帯域やピーク波長に限定されるものではない。具体的には、スペクトルSRのピーク波長λrが、スペクトルSAのピーク波長λaよりも長波長側に存在していればよい。
 面順次方式を用いた場合、光源LS1、LS2、LS3、LS4、LS5が順次に発光することで、スペクトルSV、SG、SA、SB、SRの光が順次に被写体に照射される。なお、スペクトルSV、SG、SA、SB、SRの光を照射する順序は、これに限定されず、任意の順序でよい。また、上述したように照明手法は面順次方式に限定されない。
 3.画像処理の手法
 上述したような光を被写体に照射し、その像を撮影することで各波長帯域における画像が得られる。以下では、この画像を用いた画像処理の手法を説明する。以下では、例えばスペクトルSVの光をSV光と記載する。また、例えばスペクトルSVの光を照射したときに撮像した画像をSV画像と記載する。
 図4を用いて、SV光、SG光、SA光を胃の正常粘膜に照射したときに得られる画像について説明する。
 可視光においては、波長が短いほど生体内における散乱が強くなる。光が生体内に入射すると、散乱により光の強度が減衰していくので、散乱が強いほど光が到達する深さは浅くなる。即ち、波長が短いほど光が到達する生体の深さが浅くなる。
 図4に示すように、SV光は、SG光及びSA光よりも波長が短いため、SG光及びSA光よりも浅い粘膜層にしか到達しない。具体的には、胃壁は、表層である粘膜固有層と、粘膜固有層よりも深層である粘膜下層を有している。SV光は、粘膜固有層により散乱されると共に、粘膜固有層に存在するヘモグロビンにより吸収される。粘膜固有層には毛細血管が存在するので、SV画像は粘膜固有層の充血の度合いを反映した画像となる。即ち、粘膜固有層が充血しているほどSV光の吸光が大きくなるため、SV画像が暗くなる。
 SA光は、SV光及びSG光よりも波長が長いため、SV光及びSG光よりも深い粘膜層に到達する。具体的には、SA光は、粘膜下層まで到達するので粘膜固有層及び粘膜下層により散乱されると共に、粘膜固有層及び粘膜下層に存在するヘモグロビンにより吸収される。粘膜下層には、粘膜固有層の毛細血管に比べて太い血管が存在するので、SA画像には粘膜下層の血管が写る。なお、SA光は、粘膜固有層における散乱及び吸収の影響も受けるが、長波長であるため散乱の程度が小さいので、SA画像としては粘膜下層の血管像が得られる。
 SG光は、SV光よりも波長が長く、且つSA光よりも波長が短いため、SV光よりも深く且つSA光よりも浅い部分に到達する。具体的には、SG光は粘膜固有層と粘膜下層の間くらいの深さに到達するので、SG光の一部が粘膜下層に到達する。このため、SG画像としては、粘膜下層の血管像が得られるが、その血管像はSA画像における血管像よりもコントラストが低い。即ち、SG画像には粘膜下層の血管が写っているが、SA画像における血管像よりも薄い血管像となる。
 次に図5を用いて、SV光、SG光、SA光を胃の非正常粘膜に照射したときに得られる画像について説明する。
 図5の上図及び下図に示すように、SV光は粘膜固有層の毛細血管により吸収される。胃の粘膜を白色光画像で見た場合、粘膜固有層における毛細血管の密度、及び毛細血管の充血度合いに応じて、粘膜の赤味が変化する。即ち、SV画像からは、表層粘膜の色味に関する情報が得られる。具体的には、図5の上図に示すように、粘膜固有層が炎症等により充血している場合には、白色光画像において胃の粘膜が発赤した状態に見える。このとき、粘膜固有層におけるSV光の吸収が大きいので、SV画像が暗くなる。一方、図5の下図に示すように、粘膜固有層の毛細血管が減少している場合には、白色光画像において胃の粘膜が退色した状態に見える。このとき、粘膜固有層におけるSV光の吸収が小さいので、SV画像が明るくなる。このように、SV画像の明るさが表層粘膜の色調変化を表している。
 図5の左図及び右図に示すように、SG光及びSA光はSV光よりも深い部分に到達する。このとき、SG光及びSA光が粘膜下層に到達するか否かは、粘膜固有層の厚さから影響を受ける。即ち、SG画像及びSA画像からは、表層粘膜の厚みに関する情報が得られる。具体的には、図5の左図に示すように、粘膜固有層が萎縮等により薄くなっている場合には、SG光及びSA光が粘膜下層に到達する。このため、SG画像及びSA画像の両方において粘膜下層の血管像が高コントラストになる。一方、図5の右図に示すように、粘膜固有層が肥厚している場合には、SG光及びSA光が厚い粘膜固有層により散乱され、粘膜下層まで達する光量が少なくなる。このため、SG画像及びSA画像の両方において粘膜下層の血管像が低コントラストになる。
 以上のように、本実施形態によればSV画像により表層粘膜の色調変化に関する情報が得られる。またSG画像及びSA画像により表層粘膜の厚みに関する情報が得られる。本実施形態では、これらの情報を用いて白色光画像を強調処理することで、胃の炎症性疾患を医師が診断する際に、イメージングによる診断支援を行うことができる。
 さて、内視鏡装置を用いて胃の疾患を診断する従来手法として、以下のような手法が知られている。
 例えば、萎縮性の胃炎は、表層粘膜が薄くなる特徴を有する。この胃炎を診断する際には、白色光画像において血管透見像を確認する。血管透見像とは、粘膜を通して透けて見える血管像である。即ち、萎縮性の胃炎では表層粘膜が薄くなっているため、その表層粘膜から粘膜下層の血管が透けて見えることを、画像所見において確認する。また、皺襞腫大の胃炎は、粘膜の襞が肥厚する特徴を有する。皺襞は、「しわ」及び「ひだ」のことである。この胃炎を診断する際には、送気により胃を伸展させた状態において、胃壁の襞が消失しないことを確認する。また、スキルス胃がんは、がん細胞が粘膜下を伸展しており、且つ線維性組織が豊富に生成されている特徴を有する。この胃がんを診断する際には、蛇行する襞が高い密度で走行していること、及び送気により胃を伸展させた状態において襞の間が拡がらないことを確認する。
 以上のような従来手法を用いて胃の炎症性疾患を診断することができるが、例えば画像強調等のイメージング手法により様々な胃の炎症性疾患を診断支援する適切な手法は、従来にはなかった。また、従来の診断手法により診断可能となる状態まで疾患が進む前に、イメージングにより様々な胃の炎症性疾患を診断支援する手法は、従来にはなかった。
 そこで本実施形態では、内視鏡装置1は、第1の光及び第2の光、第3の光を照明光として発生する光源部3と、照明光が照射された生体組織からの戻り光を撮像する撮像部10と、撮像部10により撮像された第1の光及び第2の光、第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う画像処理部17と、を含む。第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有する。図2及び図3において、第1の光はSV光であり、SV光のピーク波長はλv=415nmである。第2の光は、ヘモグロビン吸光係数が最小値となる波長と、最小値となる波長より短波長側においてヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有する。図2及び図3において、第2の光はSA光であり、SA光のピーク波長λaは600nmである。また、ヘモグロビン吸光係数が最小値となる波長は670nm付近である。また、最小値となる波長より短波長側においてヘモグロビン吸光係数の1つ目の極大値となる波長は、580nm付近である。第3の光は、第1の光のピーク波長と、第2の光のピーク波長との間にピーク波長を有し、第2の光よりも生体組織における散乱係数が高い。図2及び図3において、第3の光はSG光であり、SG光のピーク波長λgは540nm付近である。
 本実施形態によれば、第1の光に対応する第1の画像としてSV画像が得られ、第2の光に対応する第2の画像としてSA画像が得られ、第3の光に対応する第3の画像としてSG画像が得られる。そして、SV画像により表層粘膜の色調変化に関する情報が得られると共に、SG画像及びSA画像により表層粘膜の厚みに関する情報が得られる。これにより、イメージングにより様々な胃の炎症性疾患を診断支援できる。以下、この点について図6を用いて説明する。
 図6は、表層粘膜の厚み及び表層粘膜の色調変化と、種々の胃の炎症性疾患との関係を示す図である。図6において、横軸は表層粘膜の厚みであり、縦軸は表層粘膜の色調変化である。例えば、表層粘膜が厚く、且つ表層粘膜の色調が正常粘膜に近いという画像所見が得られた場合、スキルス胃がんの可能性が示唆される。
 本実施形態によれば、表層粘膜の色調変化を、SV画像を用いて強調できる。また、表層粘膜の厚みを、SG画像及びSA画像を用いて強調できる。これにより、表層粘膜の色調変化及び表層粘膜の厚みという特徴を強調して表示させることが可能となり、その画像によって胃の炎症性疾患における診断支援を提供できる。
 また、本実施形態では送気による襞の伸展を観察する等の手法ではなく、画像強調等によるイメージング手法を用いた診断支援となっている。このため、送気による襞の伸展を観察する等の手法によって診断が可能となる前に、例えば表層粘膜の厚みが徐々に増してきている段階等において、診断支援できる。即ち、本実施形態の手法を用いることで、疾患が進行する前又は途中において、その状態を診断するための支援情報を提供できる。
 また本実施形態では、SV光(第1の光)は、所定の波長範囲である415±20nmの範囲内にピーク波長を有する。SA光(第2の光)は、600±20nmの範囲内にピーク波長を有する。
 図2及び図3で説明したように、415nmはヘモグロビン吸光係数が最大値となる波長である。SV光のピーク波長を415±20nmの範囲内にすることで、SV光が高い吸光係数によりヘモグロビンに吸収される。これにより、表層粘膜の色調変化に対して、SV画像の明るさが高感度に変化するので、そのSV画像の明るさに基づいて表層粘膜の色調変化を効果的に強調できる。
 また図2及び図3で説明したように、600nmは、ヘモグロビンの吸光度スペクトルにおいて580nm付近の極大値と680nm付近の最小値との間に存在する。即ち、600nmの光は、SG光よりも散乱係数が高い長波長側であり、且つヘモグロビンの吸光係数が最小値よりも高くなっている。これにより、SA光のピーク波長を600±20nmの範囲内にすることで、SA光がSG光よりも粘膜の深い部分に到達し、且つSA光を用いて粘膜下層の血管を撮影することが可能となっている。図5で説明したように、SG光とSA光が到達する深さが異なり、且つSG光及びSA光により血管が撮影可能であることで、SG画像及びSA画像から表層粘膜の厚みの情報を得ることができる。
 また本実施形態では、SV光及びSA光は、SG光(第3の光)の波長帯域よりも狭い波長帯域の狭帯域光である。例えば、狭帯域光の波長帯域は数nm~数10nmである。
 生体内における散乱係数は波長によって決まるので、波長帯域が広い光に比べて狭帯域光の方が、生体内において光が到達する深さを制御しやすい。このため、SV光及びSA光として狭帯域光を用いることで、表層粘膜の色調変化及び表層粘膜の厚みを、より正確に強調できる。
 また本実施形態では、画像処理部17は、SV画像(第1の画像)、及びSA画像(第2の画像)、SG画像(第3の画像)に基づいて、生体組織における粘膜の色調を強調する処理と、生体組織における粘膜下層の血管を強調する処理とを行う。具体的には、画像処理部17は、SV画像に基づいて生体組織の粘膜の色調を強調する処理を、白色光画像に対して行う。また画像処理部17は、SA画像及びSG画像に基づいて生体組織の粘膜下層の血管を強調する処理を、白色光画像に対して行う。
 本実施形態によれば、表層粘膜の色調に応じて明るさが変化するSV画像を用いて、生体組織における粘膜の色調を強調できる。また、表層粘膜の厚みに応じて血管像のコントラストが変化するSG画像及びSA画像を用いて、生体組織における粘膜下層の血管を強調できる。これにより、図6で説明したように、表層粘膜の色調変化及び表層粘膜の厚みを指標として胃の炎症性疾患をイメージングにより診断支援できる。
 また本実施形態では、画像処理部17は、SA画像及びSG画像に基づいて表示画像の構造情報を強調する。表示画像は、撮像画像から生成された白色光画像である。図2の例では、SV画像、及びSG画像、SA画像から白色光画像を生成する。図3の例では、SB画像、及びSG画像、SR画像から白色光画像を生成する。或いは、SV画像、及びSB画像、SG画像、SA画像、SR画像から白色光画像を生成してもよい。
 SA画像及びSG画像に基づいて表示画像の構造情報を強調することで、生体組織における粘膜下層の血管を強調できる。粘膜下層の血管は表層粘膜の厚みに応じて見え方が変化するので、粘膜下層の血管を強調することで表層粘膜の厚みを支援情報として提示することができる。
 また本実施形態では、画像処理部17は、SA画像から所定周波数帯域の周波数成分を第1の周波数成分として抽出し、SG画像から所定周波数帯域の周波数成分を第2の周波数成分として抽出する。SA画像に適用する所定周波数帯域と、SG画像に適用する所定周波数帯域は、例えば同じ帯域であるが、異なっていてもよい。画像処理部17は、第1の周波数成分と第2の周波数成分との間の相関に基づいて強調係数を設定し、その強調係数を用いて表示画像の構造情報を強調する。
 所定周波数帯域は、SA画像及びSG画像から粘膜下層の血管を抽出できる周波数帯域に設定しておく。SA画像及びSG画像には同じ血管像が写っているが、表層粘膜の厚みに応じてコントラストが変化する。即ち、表層粘膜が薄い場合には両画像において血管像のコントラストが高くなり、表層粘膜が厚い場合には両画像においてコントラストが低くなり、表層粘膜が正常な厚さである場合にはSG画像において血管像のコントラストが低く且つSA画像において血管像のコントラストが高くなる。このような、SA画像とSG画像の間における血管像の相関を用いて、構造強調における強調係数を設定する。具体的には、表層粘膜が薄いほど粘膜下層の血管が強調される強調係数を設定する。このようにすれば、表層粘膜が薄いほど粘膜下層の血管を強調できるので、表層粘膜の厚みを表示画像から読み取りやすくなる。
 また本実施形態では、画像処理部17は、第1の周波数成分が大きいほど強調係数を大きくし、且つ、第2の周波数成分が大きいほど強調係数を大きくする。即ち、第1の周波数成分及び第2の周波数成分の両方が大きい場合に強調係数が大きくなり、第1の周波数成分及び第2の周波数成分の両方が小さい場合に強調係数が小さくなる。
 このようにすれば、SA画像における血管像のコントラストが高いほど強調係数が大きくなり、且つSG画像における血管像のコントラストが高いほど強調係数が大きくなる。これにより、表層粘膜が薄いほど粘膜下層の血管を強調できる。
 また本実施形態では、画像処理部17は、SV画像に基づいて表示画像の色情報を強調する。具体的には、粘膜の発赤がより鮮明に赤く見えるように強調する。また、粘膜の退色がより退色して見えるように強調する。
 SV画像に基づいて表示画像の色情報を強調することで、生体組織における表層粘膜の色調を強調できる。表層粘膜の色調を強調することで、表層粘膜における毛細血管の密度、及び毛細血管の充血度合いを支援情報として提示できる。これらの情報は、表層粘膜の炎症、又は表層粘膜の毛細血管の状態等を示しており、これらの情報に関する支援情報を提示することで、胃の炎症性疾患に関する診断を支援できる。
 また本実施形態では、画像処理部17は、SV画像の信号値に基づいて強調係数を設定し、その強調係数を用いて色情報を強調する。なお、信号値は画素値とも呼ぶ。或いは、信号値は、SV画像の局所領域における平均画素値であってもよい。或いは、SV画像に対して平滑化処理を行い、その処理後の画像における画素値を信号値としてもよい。
 上述したように、SV画像の信号値は表層粘膜の色調に応じて変化する。このため、SV画像の信号値に基づいて強調係数を設定することで、表層粘膜の色調を強調することができる。
 また本実施形態では、画像処理部17は、SV画像の信号値が小さいほど強調係数を大きくする。
 上述したように、表層粘膜が発赤している場合にはSV光の吸収量が大きくなるのでSV画像の信号値が小さくなり、表層粘膜が退色している場合にはSV光の吸収量が小さくなるのでSV画像の信号値が大きくなる。SV画像の信号値が小さいほど強調係数を大きくすることで、粘膜の発赤がより鮮明に赤く見えるように強調できる。また、粘膜の退色がより退色して見えるように強調できる。
 なお、本実施形態の内視鏡装置は以下のように構成されてもよい。即ち、本実施形態の内視鏡装置は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムと各種のデータ等である。プロセッサは、ハードウェアを含む。プロセッサは、撮像部10により撮像された第1の光及び第2の光、第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う。
 プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子で構成することができる。1又は複数の回路装置は例えばIC等である。1又は複数の回路素子は例えば抵抗、キャパシター等である。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路でもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルタ回路等を含んでもよい。メモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターであってもよいし、ハードディスク装置等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、内視鏡装置の各部の機能が処理として実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。内視鏡装置の各部は、例えば図1において制御部18と画像処理部17である。メモリは、例えば図1においてメモリ16、又は不図示のメモリである。
 また、本実施形態の内視鏡装置の各部は、プロセッサ上で動作するプログラムのモジュールとして実現されてもよい。例えば、画像処理部17は、撮像部10により撮像された第1の光及び第2の光、第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う画像処理モジュールにより実現される。
 また、本実施形態の内視鏡装置の各部が行う処理を実現するプログラムは、例えばコンピュータにより読み取り可能な媒体である情報記憶媒体に格納できる。情報記憶媒体は、例えば光ディスク、メモリーカード、HDD、或いは半導体メモリ(ROM)などにより実現できる。半導体メモリは例えばROMである。内視鏡装置の画像処理部17及び制御部18は、情報記憶媒体に格納されるプログラムとデータに基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体には、本実施形態の内視鏡装置の各部としてコンピュータを機能させるためのプログラムが記憶される。コンピュータは、入力装置、及び処理部、記憶部、出力部を備える装置である。プログラムは、各部の処理をコンピュータに実行させるためのプログラムである。
 4.画像処理部の詳細
 図7は、画像処理部17の詳細な構成例である。画像処理部17は、画像生成部31と第1強調処理部32と第2強調処理部33とを含む。例えば画像処理部17がDSPにより構成される場合、画像生成部31、第1強調処理部32、第2強調処理部33の処理をDSPが時分割に実行する。或いは、画像生成部31、第1強調処理部32、第2強調処理部33が個別の回路により構成されてもよい。
 画像生成部31には、図1のメモリ16から撮像画像SIMが入力される。画像処理部17は、撮像画像SIMから白色光画像IWLを生成する。また画像処理部17は、SV画像IVを第1強調処理部32へ出力し、SG画像IG及びSA画像IAを第2強調処理部33へ出力する。図2の例では、画像処理部17は、SV画像及びSG画像、SA画像を合成することで白色光画像IWLを生成する。図3の例では、SB画像及びSG画像、SR画像を合成することで白色光画像IWLを生成する。或いは、更にSV画像及びSA画像を用いてもよい。白色光画像IWLを合成する際には、各波長の画像に対するゲイン処理等の種々の画像処理を行ってもよい。
 第1強調処理部32は、SV画像IVを用いた演算により、白色光画像IWLの色情報を強調する。即ち、第1強調処理部32は、SV画像IVの信号値に応じて白色光画像IWLの赤味を強調する。この強調処理は、画素毎又は局所領域毎に行う。即ち、第1強調処理部32は、SV画像IVにおいて信号値が大きい領域に対して、白色光画像IWLの赤味を強調する演算を行う。第1強調処理部32は、処理後の白色光画像IWL1を出力する。
 具体的には、第1強調処理部32は、SV画像IVの信号値が小さい場合、白色光画像IWLの彩度が高くなるように強調係数を設定する。即ち、SV画像の信号値が小さい場合には、表層粘膜において毛細血管の密度が高い状態なので、白色光画像IWLにおいて表層粘膜が赤味を帯びている。このため、SV画像の信号値が小さい場合には、その赤味を強調する。例えば、第1強調処理部32は、白色光画像IWLをYCrCb信号に変換し、そのYCrCb信号のCr信号に対してゲインを乗算する。このゲインはSV画像の信号値に反比例する。また、このゲインは強調係数に相当する。
 また第1強調処理部32は、SV画像IVの信号値が大きい場合、白色光画像IWLの彩度が低くなるように強調係数を設定する。即ち、SV画像の信号値が大きい場合には、表層粘膜において毛細血管の密度が低い状態なので、白色光画像IWLにおいて表層粘膜が退色している。このため、SV画像の信号値が大きい場合には、表層粘膜の赤味を抑えて、より白くする。例えば、第1強調処理部32は、白色光画像IWLをYCrCb信号に変換し、そのYCrCb信号のCr信号に対してゲインを乗算する。このゲインはSV画像の信号値に反比例し、且つ1以下である。
 第2強調処理部33は、SG画像IG及びSA画像IAを用いた演算により、白色光画像IWL1の構造情報を強調する。例えば、第2強調処理部33は、バンドパスフィルターによりSA画像IAから血管のエッジを第1の周波数成分として抽出する。また、バンドパスフィルターによりSG画像IGから血管のエッジを第2の周波数成分として抽出する。第2強調処理部33は、第1の周波数成分及び第2の周波数成分に基づいて白色光画像IWL1の血管を構造強調する。
 具体的には、第2強調処理部33は、第1の周波数成分と第2の周波数成分を乗算し、その乗算値を強調係数とする。この乗算は画素毎又は局所領域毎に行う。第2強調処理部33は、この強調係数を白色光画像IWL1に加算処理する。例えば、白色光画像IWL1のG画素値に対して強調係数を加算処理する。
 第1の周波数成分及び第2の周波数成分がともに高い場合には、強調係数は大きくなる。即ち、白色光画像において血管がより強調されて見える。一方、第1の周波数成分及び第2の周波数成分がともに低い場合には、強調係数は小さくなる。即ち、白色光画像において血管がより目立たなくなる。例えば、第2強調処理部33は、第1の周波数成分と第2の周波数成分の乗算値に対して、非線形に変化する強調係数を設定してもよい。例えば、第1の周波数成分と第2の周波数成分の乗算値に対して、2次関数的に変化する強調係数を設定してもよい。
 なお、図7では色強調の後に構造強調を行っているが、これに限定されない。即ち、構造強調の後に色強調を行ってもよいし、或いは色強調と構造強調を並列に行ってもよい。
 以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
1 内視鏡装置、2 挿入部、3 光源部、4 処理部、5 本体部、6 表示部、7 照明光学系、8 ライトガイドケーブル、9 照明レンズ、10 撮像部、11 対物レンズ、12 撮像素子、16 メモリ、17 画像処理部、18 制御部、19 外部I/F部、20 入射部、31 画像生成部、32 第1強調処理部、33 第2強調処理部、LS1 光源、LS2 光源、LS3 光源、LS4 光源、LS5 光源、SA スペクトル(第2の光)、SB スペクトル、SG スペクトル(第3の光)、SR スペクトル、SV スペクトル(第1の光)、λa ピーク波長(第2の光)、λb ピーク波長、λg ピーク波長(第3の光)、λr ピーク波長、λv ピーク波長(第1の光)

Claims (12)

  1.  第1の光及び第2の光、第3の光を照明光として発生する光源部と、
     前記照明光が照射された生体組織からの戻り光を撮像する撮像部と、
     前記撮像部により撮像された前記第1の光及び第2の光、第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行う画像処理部と、
     を含み、
     前記第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、
     前記第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、
     前記第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも前記生体組織における散乱係数が高いことを特徴とする内視鏡装置。
  2.  請求項1において、
     前記第1の光は、前記所定の波長範囲である415±20nmの範囲内にピーク波長を有し、
     前記第2の光は、600±20nmの範囲内にピーク波長を有することを特徴とする内視鏡装置。
  3.  請求項1において、
     前記第1の光及び前記第2の光は、前記第3の光の波長帯域よりも狭い波長帯域の狭帯域光であることを特徴とする内視鏡装置。
  4.  請求項1において、
     前記画像処理部は、
     前記第1の画像及び前記第2の画像、前記第3の画像に基づいて、前記生体組織における粘膜の色調を強調する処理と、前記生体組織における粘膜下層の血管を強調する処理とを行うことを特徴とする内視鏡装置。
  5.  請求項1において、
     前記画像処理部は、
     前記第2の画像及び前記第3の画像に基づいて表示画像の構造情報を強調することを特徴とする内視鏡装置。
  6.  請求項5において、
     前記画像処理部は、
     前記第2の画像から所定周波数帯域の周波数成分を第1の周波数成分として抽出し、前記第3の画像から所定周波数帯域の周波数成分を第2の周波数成分として抽出し、前記第1の周波数成分と前記第2の周波数成分との間の相関に基づいて強調係数を設定し、前記強調係数を用いて前記構造情報を強調することを特徴とする内視鏡装置。
  7.  請求項6において、
     前記画像処理部は、
     前記第1の周波数成分が大きいほど前記強調係数を大きくし、且つ、前記第2の周波数成分が大きいほど前記強調係数を大きくすることを特徴とする内視鏡装置。
  8.  請求項1において、
     前記画像処理部は、
     前記第1の画像に基づいて表示画像の色情報を強調することを特徴とする内視鏡装置。
  9.  請求項8において、
     前記画像処理部は、
     前記第1の画像の信号値に基づいて強調係数を設定し、前記強調係数を用いて前記色情報を強調することを特徴とする内視鏡装置。
  10.  請求項9において、
     前記画像処理部は、
     前記信号値が小さいほど前記強調係数を大きくすることを特徴とする内視鏡装置。
  11.  第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、
     第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、
     第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも生体組織における散乱係数が高い場合において、
     前記第1の光及び前記第2の光、前記第3の光を照明光として発生し、
     前記照明光が照射された前記生体組織からの戻り光を撮像し、
     撮像された前記第1の光及び前記第2の光、前記第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行うことを特徴とする内視鏡装置の作動方法。
  12.  第1の光は、ヘモグロビン吸光係数が最大値となる波長を含む所定の波長範囲にピーク波長を有し、
     第2の光は、前記ヘモグロビン吸光係数が最小値となる波長と、前記最小値となる波長より短波長側において前記ヘモグロビン吸光係数の1つ目の極大値となる波長との間にピーク波長を有し、
     第3の光は、前記第1の光のピーク波長と、前記第2の光のピーク波長との間にピーク波長を有し、前記第2の光よりも生体組織における散乱係数が高い場合において、
     前記第1の光及び前記第2の光、前記第3の光を照明光として発生し、
     前記照明光が照射された前記生体組織からの戻り光を撮像し、
     撮像された前記第1の光及び前記第2の光、前記第3の光に対応する第1の画像及び第2の画像、第3の画像を用いて画像処理を行うステップを、
     コンピュータに実行させることを特徴とするプログラム。
PCT/JP2018/021503 2018-06-05 2018-06-05 内視鏡装置、内視鏡装置の作動方法及びプログラム WO2019234815A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020523874A JP7019039B2 (ja) 2018-06-05 2018-06-05 内視鏡装置、内視鏡装置の作動方法及びプログラム
PCT/JP2018/021503 WO2019234815A1 (ja) 2018-06-05 2018-06-05 内視鏡装置、内視鏡装置の作動方法及びプログラム
US17/093,770 US11717144B2 (en) 2018-06-05 2020-11-10 Endoscope apparatus, operating method of endoscope apparatus, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/021503 WO2019234815A1 (ja) 2018-06-05 2018-06-05 内視鏡装置、内視鏡装置の作動方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/093,770 Continuation US11717144B2 (en) 2018-06-05 2020-11-10 Endoscope apparatus, operating method of endoscope apparatus, and information storage medium

Publications (1)

Publication Number Publication Date
WO2019234815A1 true WO2019234815A1 (ja) 2019-12-12

Family

ID=68770814

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/021503 WO2019234815A1 (ja) 2018-06-05 2018-06-05 内視鏡装置、内視鏡装置の作動方法及びプログラム

Country Status (3)

Country Link
US (1) US11717144B2 (ja)
JP (1) JP7019039B2 (ja)
WO (1) WO2019234815A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042895A1 (ja) * 2022-08-24 2024-02-29 富士フイルム株式会社 画像処理装置、内視鏡、画像処理方法、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053804A1 (ja) * 2017-09-13 2019-03-21 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
WO2019234815A1 (ja) * 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016067706A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 プロセッサ装置、内視鏡システム、プロセッサ装置の作動方法、及びプログラム
JP2017158670A (ja) * 2016-03-08 2017-09-14 富士フイルム株式会社 血管情報取得装置、内視鏡システム及び血管情報取得方法
JP2017192565A (ja) * 2016-04-20 2017-10-26 富士フイルム株式会社 内視鏡システム、画像処理装置、及び画像処理装置の作動方法
JP2018038675A (ja) * 2016-09-08 2018-03-15 富士フイルム株式会社 内視鏡用光源装置及びその作動方法並びに内視鏡システム
JP2018051065A (ja) * 2016-09-29 2018-04-05 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
WO2018079116A1 (ja) * 2016-10-27 2018-05-03 富士フイルム株式会社 内視鏡システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3586157B2 (ja) 1999-12-20 2004-11-10 オリンパス株式会社 被検体観察装置
JP5362149B1 (ja) 2012-03-30 2013-12-11 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP6234350B2 (ja) * 2014-09-30 2017-11-22 富士フイルム株式会社 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
EP3354188A4 (en) * 2015-09-24 2019-04-17 Olympus Corporation ENDOSCOPE DEVICE
JP6759240B2 (ja) * 2015-12-17 2020-09-23 オリンパス株式会社 内視鏡装置
WO2017141417A1 (ja) * 2016-02-19 2017-08-24 Hoya株式会社 内視鏡用光源装置
US10588503B2 (en) * 2016-03-29 2020-03-17 Terumo Kabushiki Kaisha Methods and medical elongate bodies
CN109475283B (zh) * 2016-09-02 2020-06-12 Hoya株式会社 内窥镜***
US10806335B2 (en) * 2016-09-02 2020-10-20 Hoya Corporation Endoscope system
WO2019234815A1 (ja) * 2018-06-05 2019-12-12 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7200393B2 (ja) * 2019-09-27 2023-01-06 Hoya株式会社 内視鏡システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016067706A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 プロセッサ装置、内視鏡システム、プロセッサ装置の作動方法、及びプログラム
JP2017158670A (ja) * 2016-03-08 2017-09-14 富士フイルム株式会社 血管情報取得装置、内視鏡システム及び血管情報取得方法
JP2017192565A (ja) * 2016-04-20 2017-10-26 富士フイルム株式会社 内視鏡システム、画像処理装置、及び画像処理装置の作動方法
JP2018038675A (ja) * 2016-09-08 2018-03-15 富士フイルム株式会社 内視鏡用光源装置及びその作動方法並びに内視鏡システム
JP2018051065A (ja) * 2016-09-29 2018-04-05 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び内視鏡システムの作動方法
WO2018079116A1 (ja) * 2016-10-27 2018-05-03 富士フイルム株式会社 内視鏡システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042895A1 (ja) * 2022-08-24 2024-02-29 富士フイルム株式会社 画像処理装置、内視鏡、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20210052153A1 (en) 2021-02-25
JP7019039B2 (ja) 2022-02-14
JPWO2019234815A1 (ja) 2021-05-13
US11717144B2 (en) 2023-08-08

Similar Documents

Publication Publication Date Title
US20190374096A1 (en) Image capturing system and electronic endoscope system
JP5911496B2 (ja) 内視鏡システム及びそのプロセッサ装置並びに内視鏡システムの作動方法
US11717144B2 (en) Endoscope apparatus, operating method of endoscope apparatus, and information storage medium
WO2017145529A1 (ja) 計算システム
JP5274591B2 (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP2013013656A (ja) 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像表示方法
US10034600B2 (en) Endoscope apparatus with spectral intensity control
CN111989023B (zh) 内窥镜***及使内窥镜***工作的方法
JP2015066132A (ja) 内視鏡システム及びその作動方法
JP5371702B2 (ja) 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び電子内視鏡システムの作動方法
JPWO2018043728A1 (ja) 内視鏡システム及び特徴量算出方法
WO2014156604A1 (ja) 内視鏡システム及びその作動方法並びにプロセッサ装置
US20210088772A1 (en) Endoscope apparatus, operation method of endoscope apparatus, and information storage media
JP2012125462A (ja) 画像処理装置
US20220351350A1 (en) Endoscope processor, method for operating endoscope processor, and storage medium
WO2020035929A1 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
JP7123135B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP2001224549A (ja) 内視鏡画像取得方法および装置
WO2020113466A1 (en) Method and apparatus for determining physiological parameters of a subject, and computer-program product thereof
WO2021152704A1 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
JP7090705B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7090706B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7090699B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
WO2022038803A1 (ja) プロセッサ装置、プロセッサ装置の作動方法
WO2021019663A1 (ja) 内視鏡用光源装置及び内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18921935

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2020523874

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18921935

Country of ref document: EP

Kind code of ref document: A1