WO2018105089A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
WO2018105089A1
WO2018105089A1 PCT/JP2016/086633 JP2016086633W WO2018105089A1 WO 2018105089 A1 WO2018105089 A1 WO 2018105089A1 JP 2016086633 W JP2016086633 W JP 2016086633W WO 2018105089 A1 WO2018105089 A1 WO 2018105089A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
unit
frequency component
image
specific frequency
Prior art date
Application number
PCT/JP2016/086633
Other languages
English (en)
French (fr)
Inventor
井岡 健
渉 鬼城
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018555405A priority Critical patent/JPWO2018105089A1/ja
Priority to PCT/JP2016/086633 priority patent/WO2018105089A1/ja
Publication of WO2018105089A1 publication Critical patent/WO2018105089A1/ja
Priority to US16/391,159 priority patent/US10863149B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/03Circuitry for demodulating colour component signals modulated spatially by colour striped filters by frequency separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and a program for performing image processing on image data generated by an endoscope that captures an in-vivo image of a subject.
  • an endoscope for performing such a narrow-band light observation method by combining information of a special light observation image captured with special light with a normal light observation image captured with white light, a single observation image of a living body can be obtained.
  • a technique for observing capillaries and fine mucosa patterns present on the mucous membrane surface layer is known (see Patent Document 1).
  • feature information such as capillaries and mucous membrane fine patterns is extracted from the special light observation image using a high-pass filter, a band-pass filter, or the like for the special light observation image.
  • a composite image synthesized with the observation image is generated.
  • Patent Document 1 the feature information extracted by the filter is combined with the normal light observation image. Therefore, the luminance information included in the feature information is added to the luminance information of the normal light observation image. There is a problem that the color of the composite image changes from the original normal light observation image.
  • the present invention has been made in view of the above, and even when the feature information of the special light observation image is combined with the normal light observation image, the color of the composite image can be prevented from changing.
  • An object is to provide an image processing apparatus, an image processing method, and a program.
  • an image processing apparatus includes a first pixel that receives light in a red wavelength band, and a second pixel that receives light in a green wavelength band.
  • An acquisition unit that acquires image data generated by the imaging device formed by the image sensor, and a demosaicing process that interpolates a pixel value for the image data acquired by the acquisition unit, and the red wavelength Corresponding to first interpolation image data corresponding to light in the band, second interpolation image data corresponding to light in the green wavelength band, third interpolation image data corresponding to light in the blue wavelength band, and narrowband light 4th interpolation picture
  • An image generation unit that generates data, and a color space conversion unit that performs a color space conversion process of converting each of the first interpolation
  • the image processing method includes a first pixel that receives light in the red wavelength band, a second pixel that receives light in the green wavelength band, and a third pixel that receives light in the blue wavelength band.
  • the image data acquired in the step is subjected to a demosaicing process for interpolating pixel values to obtain first interpolated image data corresponding to the light in the red wavelength band and first light corresponding to the light in the green wavelength band.
  • An image generation step of generating second interpolation image data, third interpolation image data corresponding to the light in the blue wavelength band, and fourth interpolation image data corresponding to the narrowband light, and the first interpolation image data A color space conversion step for performing a color space conversion process for converting each of the second interpolation image data and the third interpolation image data into a luminance component and a color difference component; and a first specific frequency component included in the fourth interpolation image data
  • a color image generation step of generating color image data based on the result and the color difference component A first extraction step for extracting the luminance component, a synthesis step for synthesizing the luminance component converted in the color space conversion step and the first specific frequency component extracted in the first extraction step, and a synthesis synthesized
  • the program according to the present invention receives, in the image processing apparatus, a first pixel that receives light in the red wavelength band, a second pixel that receives light in the green wavelength band, and light in the blue wavelength band.
  • An image sensor is formed by forming a predetermined array pattern using a third pixel that receives light and a fourth pixel that receives at least narrowband light in a wavelength band narrower than any of red, green, and blue.
  • An acquisition step of acquiring the image data, and a first interpolation image data corresponding to the light in the red wavelength band by performing a demosaicing process for interpolating a pixel value on the image data acquired in the acquisition step Generating second interpolation image data corresponding to the light of the green wavelength band, third interpolation image data corresponding to the light of the blue wavelength band, and fourth interpolation image data corresponding to the narrowband light.
  • An image generation step a color space conversion step for performing color space conversion processing for converting each of the first interpolation image data, the second interpolation image data, and the third interpolation image data into a luminance component and a color difference component;
  • a first extraction step for extracting a first specific frequency component included in the interpolated image data, and the luminance component converted in the color space conversion step and the first specific frequency component extracted in the first extraction step are synthesized.
  • a color image generating step of generating color image data based on the combining step, the combining result combined in the combining step, and the color difference component.
  • the present invention even when the characteristic information of the special light observation image is combined with the normal light observation image, it is possible to prevent the color of the composite image from being changed.
  • FIG. 1 is a diagram schematically showing an overall configuration of an endoscope system according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing functions of main parts of the endoscope system according to Embodiment 1 of the present invention.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing the relationship between the transmittance and wavelength of each broadband filter constituting the color filter according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram showing the relationship between the transmittance and wavelength of the narrowband filter NB constituting the color filter according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram schematically showing the characteristics of the filter constituting the extraction unit according to Embodiment 1 of the present invention.
  • FIG. 7 is a flowchart showing an outline of processing executed by the processor according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram schematically showing a configuration of the extraction unit according to the modification of the first embodiment of the present invention.
  • FIG. 9 is a diagram schematically showing the characteristics of the filter constituting the extraction unit according to the modification of the first embodiment of the present invention.
  • FIG. 10 is a block diagram illustrating functions of main parts of the endoscope system according to Embodiment 2 of the present invention.
  • FIG. 11 is a flowchart showing an outline of processing executed by the processor according to Embodiment 2 of the present invention.
  • FIG. 12 is a block diagram illustrating functions of main parts of the endoscope system according to the third embodiment of the present invention.
  • FIG. 13 is a flowchart showing an outline of processing executed by the processor according to Embodiment 3 of the present invention.
  • FIG. 14 is a block diagram showing functions of main parts of the endoscope system according to Embodiment 4 of the present invention.
  • FIG. 15 is a diagram schematically showing a configuration of a color filter according to Embodiment 4 of the present invention.
  • FIG. 16 is a diagram showing the relationship between the transmittance and wavelength of the narrowband filter NB and the narrowband filter NG constituting the color filter according to Embodiment 4 of the present invention.
  • FIG. 17 is a flowchart showing an outline of processing executed by the processor according to Embodiment 4 of the present invention.
  • FIG. 1 is a diagram schematically showing an overall configuration of an endoscope system according to Embodiment 1 of the present invention.
  • An endoscope system 1 shown in FIG. 1 includes an endoscope 2 that images the inside of a subject by being inserted into a body cavity of the subject, and a light source device that generates illumination light emitted from the distal end of the endoscope 2. 3, a display device 4 that displays an image corresponding to the image data that is captured and generated by the endoscope 2, and a display device 4 that performs predetermined image processing on the image data that is captured and generated by the endoscope 2. And a processor 5 that comprehensively controls the operation of the entire endoscope system 1.
  • the endoscope 2 includes an insertion portion 21 having an elongated shape having flexibility, an operation portion 22 that is connected to a proximal end side of the insertion portion 21 and receives input of various operation signals, and an insertion portion from the operation portion 22. And a universal cord 23 that extends in a direction different from the direction in which 21 extends and incorporates various cables connected to the processor 5 and the light source device 3.
  • the insertion portion 21 is connected to a distal end portion 24 incorporating an imaging device (imaging portion) to be described later, a bendable bending portion 25 constituted by a plurality of bending pieces, and a proximal end side of the bending portion 25, and is flexible. And a long flexible tube portion 26 having the property.
  • the operation unit 22 includes a bending knob 221 that bends the bending unit 25 in the vertical direction and the left-right direction, a treatment tool insertion unit 222 that inserts a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity, and the light source device 3.
  • a treatment tool such as a biological forceps, a laser knife, and an inspection probe into the body cavity
  • the light source device 3 In addition to the processor 5, it has a plurality of switches 223 which are operation input units for inputting operation instruction signals of peripheral devices such as air supply means, water supply means, and gas supply means.
  • the treatment instrument inserted from the treatment instrument insertion portion 222 is exposed from an opening (not shown) via the distal end portion 24.
  • the universal cord 23 incorporates at least a light guide and an assembly cable.
  • the universal cord 23 has a connector portion 27 that can be attached to and detached from the light source device 3.
  • the connector part 27 has a coiled coil cable 27a extending, and has an electrical connector part 28 that is detachable from the processor 5 at the extended end of the coil cable 27a.
  • the connector unit 27 is configured using an FPGA (Field Programmable Gate Array) inside.
  • the light source device 3 is configured using, for example, a halogen lamp or a white LED (Light Emitting Diode).
  • the light source device 3 irradiates illumination light from the distal end side of the insertion portion of the endoscope 2 toward the subject under the control of the processor 5.
  • the display device 4 displays, under the control of the processor 5, an image corresponding to the image signal that has been subjected to image processing by the processor 5 and various types of information related to the endoscope system 1.
  • the display device 4 is configured using a display panel such as liquid crystal or organic EL (Electro Luminescence).
  • the processor 5 performs predetermined image processing on the RAW image data input from the endoscope 2 and outputs it to the display device 4.
  • the processor 5 is configured using a CPU (Central Processing Unit) or the like.
  • FIG. 2 is a block diagram illustrating functions of a main part of the endoscope system 1. Details of each part of the endoscope system 1 and a path of an electric signal in the endoscope system 1 will be described with reference to FIG.
  • the endoscope 2 includes an optical system 201 and an imaging unit 202.
  • the optical system 201 receives reflected light of the illumination light emitted from the light source device 3 on the imaging surface of the imaging unit 202 and forms a subject image.
  • the optical system 201 is configured using one or a plurality of lenses, a prism, and the like.
  • the imaging unit 202 receives the subject image formed on the light receiving surface by the optical system 201 and performs photoelectric conversion to generate subject image data (RAW image data).
  • the generated image data is output to the processor 5.
  • the imaging unit 202 images the subject at a reference frame rate, for example, a frame rate of 60 fps, and generates image data of the subject.
  • the imaging unit 202 includes an imaging element 211 and a color filter 212.
  • the image sensor 211 is an image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) that photoelectrically converts light received by a plurality of pixels arranged in a two-dimensional grid, and generates an electrical signal. Constructed using.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the color filter 212 includes a broadband filter R that transmits light in the red wavelength band, a broadband filter G that transmits light in the green wavelength band, a broadband filter B that transmits light in the blue wavelength band, and a blue wavelength. And a narrow band filter NB that transmits light in a wavelength band narrower than the blue wavelength band.
  • the filter unit is arranged in correspondence with the pixels of the image sensor 211. It becomes.
  • FIG. 3 is a diagram schematically showing the configuration of the color filter 212.
  • the color filter 212 includes two broadband filters R that transmit red components, eight broadband filters G that transmit green components, two broadband filters B that transmit blue components, and narrow bands.
  • the filter unit is formed using a predetermined array pattern in which four narrowband filters NB that transmit a certain amount of light are used as one set.
  • the color filter 212 is arranged at a position corresponding to one of the plurality of pixels of the image sensor 211 in which the individual filters forming the above-described arrangement pattern are arranged in a secondary grid pattern.
  • the narrow-band light in the first embodiment is blue narrow-band light (390 to 445 nm) for observation of capillaries on the mucosal surface layer.
  • Image data generated by the image sensor 211 using the color filter 212 configured as described above is converted into a color image by performing predetermined image processing by the processor 5 described later.
  • FIG. 4 is a diagram showing the relationship between the transmittance and the wavelength of each broadband filter constituting the color filter 212.
  • FIG. 5 is a diagram showing the relationship between the transmittance and wavelength of the narrowband filter NB constituting the color filter 212. 4 and 5, the horizontal axis indicates the wavelength (nm), and the vertical axis indicates the transmittance.
  • curve L B represents the relationship between the transmittance and the wavelength of the broadband filter B
  • the curve L G represents the relationship between the transmittance and the wavelength of the broad band filter G
  • the curve L R is the wideband filter R
  • the relationship between transmittance and wavelength is shown.
  • a curve LNB indicates the relationship between the transmittance of the narrowband filter NB and the wavelength. Further, a case where the peak wavelength of the narrowband filter NB is in the range of 390 nm to 445 nm in FIG. 5 will be described.
  • the spectral characteristic of the narrow band filter NB is narrower than that of the wide band filter B and is included in the wavelength band of the wide band filter B.
  • a pixel in which the broadband filter R is disposed is an R pixel (first pixel)
  • a pixel in which the broadband filter G is disposed is a G pixel (second pixel)
  • a broadband filter B is disposed.
  • the pixel is referred to as a B pixel (third pixel)
  • the pixel in which the narrowband filter NB is disposed is referred to as an NB pixel (fourth pixel).
  • the processor 5 includes an image processing unit 51, an input unit 52, a recording unit 53, and a control unit 54.
  • the image processing unit 51 is configured using a GPU (Graphics Processing Unit), an FPGA (Field Programmable Gate Array), or the like.
  • the image processing unit 51 acquires image data from the endoscope 2, performs predetermined image processing on the acquired image data, and outputs the image data to the display device 4.
  • the image processing unit 51 includes an acquisition unit 511, an image generation unit 512, an extraction unit 513, a first color space conversion unit 514, a synthesis unit 515, a second color space conversion unit 516, and a color image generation unit 517. And having.
  • the image processing unit 51 functions as an image processing apparatus.
  • the acquisition unit 511 acquires image data generated by imaging by the endoscope 2 and outputs the acquired image data to the image generation unit 512.
  • the acquisition unit 511 includes pixel values (pixel value R, pixel value G, pixel value R, G pixel, B pixel, and NB pixel) that form an image corresponding to the image data generated by the endoscope 2.
  • Pixel value B and pixel value NB are acquired from the image sensor 211, and the acquired pixel value of each pixel is output to the image generation unit 512.
  • the image generation unit 512 Based on the pixel value of each pixel (each channel) input from the acquisition unit 511, the image generation unit 512 performs a well-known demosaicing process that complements the pixel value of a pixel with a missing pixel value, thereby performing red R image (first interpolation image data) corresponding to light of wavelength band, G image (second interpolation image data) corresponding to light of green wavelength band, B image (third image) corresponding to light of blue wavelength band Interpolated image data) and NB images (fourth interpolated image data) corresponding to narrowband light are generated.
  • the image generation unit 512 outputs the R image, the G image, and the B image to the first color space conversion unit 514 and outputs the NB image to the extraction unit 513.
  • the extraction unit 513 extracts a first specific frequency component from the NB image, which is a narrowband image input from the image generation unit 512, and outputs the extracted first specific frequency component to the synthesis unit 515. Specifically, the extraction unit 513 extracts a high frequency component higher than a predetermined threshold from the NB image. More specifically, as illustrated in FIG. 6, the extraction unit 513 uses, for example, a 3 ⁇ 3 high-pass filter F ⁇ b> 1 for the pixel value of each pixel constituting the NB pixel, and uses the high-frequency component NB_high of the NB image. Is extracted as a feature component of the NB image, and this high frequency component is output to the synthesizer 515.
  • the extraction unit 513 does not have to be a 3 ⁇ 3 high-pass filter, and can be changed as appropriate.
  • the extraction unit 513 may be a 4 ⁇ 4 or 5 ⁇ 5 high-pass filter.
  • the extraction unit 513 may be configured by combining a plurality of filters.
  • the first color space conversion unit 514 performs a known color space conversion process, for example, a YCrCb conversion process, on the R image, the G image, and the B image input from the image generation unit 512, thereby obtaining the luminance component Y and the color difference.
  • the component Cr and the color difference component Cb are respectively converted, the luminance component Y is output to the synthesis unit 515, and the color difference component Cr and the color difference component Cb are output to the second color space conversion unit 516.
  • the second color space conversion unit 516 performs a well-known color space conversion process on the luminance component Y ′ input from the combining unit 515, the color difference component Cr and the color difference component Cb input from the first color space conversion unit 514, For example, by performing RGB conversion processing, each of new observation image R ′, observation image G ′, and observation image B ′ in which the characteristic component of the narrowband image is added to the wideband image is generated.
  • the second color space conversion unit 516 outputs the observation image R ′, the observation image G ′, and the observation image B ′ to the color image generation unit 517.
  • the color image generation unit 517 generates color image data based on the observation image R ′, the observation image G ′, and the observation image B ′ input from the second color space conversion unit 516, and outputs them to the display device 4. Specifically, the color image generation unit 517 combines the pixel value of each pixel constituting the R ′ image, the pixel value of each pixel constituting the G ′ image, and the pixel value of each pixel constituting the B ′ image. Then, a color image is generated, and this color image is output to the display device 4.
  • the input unit 52 is configured using buttons, switches, and the like, and accepts input of instruction signals for instructing various processes executed by the endoscope system 1 and change signals for changing parameters.
  • the recording unit 53 is configured by using a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and the image data generated by the endoscope 2 and the program executed by the endoscope system 1 and information being processed. Record. Further, the recording unit 53 includes a program recording unit 53a that records a program executed by the endoscope system 1.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the control unit 54 is configured using a CPU or the like, and comprehensively controls each unit constituting the endoscope system 1.
  • the control unit 54 controls the emission timing of the illumination light of the light source device 3, the imaging timing of the imaging unit 202 of the endoscope 2, and the like.
  • FIG. 7 is a flowchart showing an outline of processing executed by the processor 5.
  • the acquisition unit 511 first acquires image data from the endoscope 2 (step S101).
  • the image generation unit 512 generates an image of each color by performing a demosaicing process based on the pixel value of each pixel input from the acquisition unit 511 (step S102).
  • the first color space conversion unit 514 performs color space conversion processing on the R image, G image, and B image input from the image generation unit 512 (step S103). Specifically, the first color space conversion unit 514 performs the YCrCb conversion process on the R image, the G image, and the B image input from the image generation unit 512, thereby performing the luminance component Y, the color difference component Cr, and Conversion into each of the color difference components Cb.
  • the extraction unit 513 extracts the first specific frequency component from the NB image that is a narrowband image input from the image generation unit 512 (step S104). Specifically, the extraction unit 513 uses the high-pass filter F1 shown in FIG. 6 described above for the pixel value of each pixel constituting the NB pixel, and uses the high-frequency component NB_high of the NB image as the feature component of the NB image. Extract.
  • the synthesis unit 515 synthesizes the first specific frequency component input from the extraction unit 513 with the luminance component Y input from the first color space conversion unit 514 (step S105). Specifically, the synthesizing unit 515 synthesizes the high frequency component NB_high, which is a characteristic component of the NB image input from the extraction unit 513, with the luminance component Y input from the first color space conversion unit 514.
  • the second color space conversion unit 516 converts the luminance component Y ′ input from the combining unit 515 and the color difference component Cr and color difference component Cb input from the first color space conversion unit 514 into RGB. Color space conversion processing is performed (step S106).
  • the color image generation unit 517 generates a color image based on the observation image R ′, the observation image G ′, and the observation image B ′ input from the second color space conversion unit 516 (step S107).
  • step S108: Yes when an instruction signal instructing the end of the examination by the endoscope system 1 is input (step S108: Yes), the processor 5 ends the present process. On the other hand, when the instruction signal instructing the end of the examination by the endoscope system 1 is not input (step S108: No), the processor 5 returns to step S101 described above.
  • the value obtained by multiplying the high frequency component NB_high of the NB image by the weighting coefficient ⁇ input by the input unit 52 is input from the first color space conversion unit 514 by the combining unit 515.
  • blue narrowband light (390 to 445 nm) has been described as an example, but green narrowband light (530 to 550 nm) is used to emphasize deep blood vessels in the deep part. Also good. *
  • Modification of Embodiment 1 Next, a modification of the first embodiment of the present invention will be described.
  • the modification of the first embodiment is different in configuration from the extraction unit 513 according to the first embodiment described above. Below, only the structure of the extraction part which concerns on the modification of this Embodiment 1 is demonstrated.
  • symbol is attached
  • FIG. 8 is a diagram schematically illustrating the configuration of the extraction unit according to the modification of the first embodiment.
  • the extraction unit 513a illustrated in FIG. 8 includes a low frequency component extraction unit 600 and a calculation unit 601.
  • the low frequency component extraction unit 600 extracts the low frequency component NB_low from the NB image that is a narrow band image.
  • the low-frequency component extraction unit 600 is configured using, for example, a 5 ⁇ 5 low-pass filter F2 shown in FIG.
  • the calculation unit 601 subtracts the low-frequency component NB_low extracted by the low-frequency component extraction unit 600 from the NB image that is a narrow-band image, so that the high-frequency component that is the first specific frequency component from the NB image that is the narrow-band image. NB_high is calculated.
  • the endoscope system according to the second embodiment is different in configuration from the endoscope system 1 according to the first embodiment described above. Specifically, the second embodiment is different in configuration from the processor 5 according to the first embodiment described above. Furthermore, the endoscope system according to the second embodiment is different from the process executed by the processor 5 according to the first embodiment described above. In the following, after describing the configuration of the endoscope system according to the second embodiment, the processing executed by the processor will be described. In addition, the same code
  • FIG. 10 is a block diagram illustrating functions of main parts of the endoscope system according to the second embodiment.
  • An endoscope system 1a shown in FIG. 10 includes a processor 5a instead of the processor 5 of the endoscope system 1 according to the first embodiment described above.
  • a processor 5a illustrated in FIG. 10 includes an image processing unit 51a instead of the image processing unit 51 according to the first embodiment described above.
  • the image processing unit 51a is configured using a GPU, FPGA, or the like, acquires image data from the endoscope 2, performs predetermined image processing on the acquired image data, and outputs the image data to the display device 4.
  • the image processing unit 51a includes an acquisition unit 511, an image generation unit 512, a first extraction unit 513b, a second extraction unit 513c, a first color space conversion unit 514, an addition unit 518, a subtraction unit 519, A synthesis unit 520a, a second color space conversion unit 516, and a color image generation unit 517 are included.
  • the image processing unit 51a functions as an image processing device.
  • the first extraction unit 513b extracts a first specific frequency component from the NB image that is a narrowband image input from the image generation unit 512, and outputs the extracted first specific frequency component to the addition unit 518. . Specifically, the first extraction unit 513b extracts a high frequency component higher than a predetermined first threshold value from the NB image. More specifically, the first extraction unit 513b uses, for example, the 3 ⁇ 3 high-pass filter F1 similar to that of the first embodiment described above for the pixel value of each pixel constituting the NB pixel, to generate an NB image. The high frequency component NB_high is extracted as a feature component of the NB image, and the high frequency component NB_high is output to the adder 518.
  • the second extraction unit 513c extracts a second specific frequency component from the luminance component Y of the broadband image input from the first color space conversion unit 514, and adds the extracted second specific frequency component to the addition unit 518 and The result is output to the subtraction unit 519.
  • the second extraction unit 513c extracts a high frequency component higher than a predetermined second threshold with respect to the luminance component Y of the broadband image. More specifically, the second extraction unit 513c uses, for example, the 3 ⁇ 3 high-pass filter F1 similar to that of the first embodiment described above for the luminance component Y, and thus the high-frequency component of the luminance component Y of the wideband image.
  • Y_high is extracted, and this high frequency component Y_high is output to the adder 518 and the subtractor 519.
  • the characteristics of the high-pass filter used by the first extraction unit 513b and the second extraction unit 513c may be the same or different from each other, but those having similar transmission characteristics are preferable.
  • the weighting coefficient ⁇ is a natural number from 0 to 1.
  • the subtracting unit 519 calculates the low frequency component Y_low based on the luminance component Y input from the first color space conversion unit 514 and the high frequency component Y_high of the luminance component Y of the broadband image input from the second extraction unit 513c.
  • the low frequency component Y_low is calculated and output to the synthesis unit 520a.
  • the subtraction unit 519 subtracts the high frequency component Y_high of the luminance component Y of the broadband image input from the second extraction unit 513c from the luminance component Y input from the first color space conversion unit 514 ( The low frequency component Y_low which is a residual component is calculated. More specifically, the subtraction unit 519 calculates the low frequency component Y_low by the following equation (2).
  • Y_low Y ⁇ Y_high (2)
  • the combining unit 520a calculates the luminance component Y ′ based on the luminance component Y′_high that is the addition component input from the addition unit 518 and the low-frequency component Y_low that is the difference component input from the subtraction unit 519.
  • the luminance component Y ′ is output to the second color space conversion unit 516.
  • FIG. 11 is a flowchart showing an outline of processing executed by the processor 5a.
  • step S201 corresponds to step S101 of FIG. 7 described above.
  • step S202 the first extraction unit 513b extracts a first specific frequency component from the NB image input from the image generation unit 512. Specifically, the first extraction unit 513b extracts the high frequency component NB_high of the NB image.
  • the second extraction unit 513c extracts a second specific frequency component from the luminance component Y of the broadband image input from the first color space conversion unit 514 (step S203). Specifically, the second extraction unit 513c extracts the high frequency component Y_high of the luminance component Y of the broadband image.
  • the adding unit 518 adds the high frequency component NB_high of the NB image input from the first extraction unit 513b and the luminance component of the wideband image input from the second extraction unit 513c according to the weighting coefficient ⁇ input by the input unit 52.
  • the luminance component Y′_high is calculated by adding the high frequency component Y_high of Y (step S204).
  • the subtraction unit 519 calculates a low frequency component Y_low based on the luminance component Y input from the first color space conversion unit 514 and the high frequency component Y_high of the wideband image input from the second extraction unit 513c. (Step S205).
  • the synthesis unit 520a calculates the luminance component Y ′ based on the luminance component Y′_high input from the addition unit 518 and the low frequency component Y_low input from the subtraction unit 519 (step S206).
  • Steps S207 to S209 correspond to steps S106 to S108 in FIG.
  • the addition unit 518 adds the high frequency component NB_high of the NB image input from the first extraction unit 513b and the second extraction unit 513c according to the weighting coefficient ⁇ input by the input unit 52.
  • the high-frequency component Y_high of the luminance component Y of the input broadband image is added to calculate the luminance component Y′_high of the addition component, but the input from the first extraction unit 513b without considering the weighting coefficient ⁇
  • the luminance component Y′_high of the addition component is calculated by simply adding the high frequency component NB_high of the NB image and the high frequency component Y_high of the luminance component Y of the broadband image input from the second extraction unit 513c. Good.
  • the endoscope system according to the third embodiment is different in configuration from the endoscope system 1a according to the second embodiment described above. Specifically, the third embodiment is different in configuration from the processor 5a according to the second embodiment described above. Furthermore, the endoscope system according to the third embodiment is different from the process executed by the processor 5a according to the second embodiment described above. Specifically, in Embodiment 2 described above, the value of the weighting coefficient ⁇ is input via the input unit 52. However, in Embodiment 3, the weighting coefficient ⁇ is automatically calculated. In the following, after describing the configuration of the endoscope system according to the third embodiment, processing executed by the processor will be described. In addition, the same code
  • FIG. 12 is a block diagram illustrating functions of main parts of the endoscope system according to the third embodiment.
  • An endoscope system 1b shown in FIG. 12 includes a processor 5b instead of the processor 5a of the endoscope system 1a according to the second embodiment described above.
  • a processor 5b illustrated in FIG. 12 includes an image processing unit 51b instead of the image processing unit 51a according to the second embodiment described above.
  • the image processing unit 51b is configured using a GPU, FPGA, or the like, acquires image data from the endoscope 2, performs predetermined image processing on the acquired image data, and outputs the image data to the display device 4.
  • the image processing unit 51b further includes a coefficient calculation unit 521 in addition to the configuration of the image processing unit 51a according to Embodiment 2 described above.
  • the coefficient calculation unit 521 has a high-frequency component NB_high (i, j) of each pixel in the narrowband image input from the first extraction unit 513b and a high-frequency component Y_high of each pixel in the wideband image input from the second extraction unit 513c. Based on (i, j), the adding unit 518 calculates a weighting coefficient ⁇ when adding the high frequency component NB_high of the narrowband image and the high frequency component Y_high of the wideband image.
  • FIG. 13 is a flowchart illustrating an outline of processing executed by the processor 5b.
  • steps S301 to S303 correspond to steps S201 to S203 of FIG. 11 described above, respectively.
  • the coefficient calculation unit 521 uses the high-frequency component NB_high (i, j) of each pixel in the narrowband image input from the first extraction unit 513b and each pixel in the wideband image input from the second extraction unit 513c.
  • the weighting coefficient ⁇ for each frame is calculated based on the high-frequency component Y_high (i, j). Specifically, when the sum of the high frequency components NB_high of each pixel in the narrowband image is Wa_NB_high and the sum Wa_Y_high of the high frequency components Y_high of each pixel in the wideband image, the coefficient calculation unit 521 has the following formulas (3) to (3) to ( The weighting coefficient ⁇ is calculated according to 5). (I, j) indicates the position of the pixel.
  • Step S305 to Step S310 correspond to Step S204 to Step S209 of FIG.
  • the coefficient calculation unit 521 receives the high frequency component NB_high (i, j) of each pixel in the narrowband image input from the first extraction unit 513b and the second extraction unit 513c.
  • the weighting coefficient ⁇ for each frame is calculated based on the high-frequency component Y_high (i, j) of each pixel in the wideband image to be performed, for example, the weighting coefficient ⁇ may be calculated for each pixel.
  • the weighting coefficient ⁇ (i, j) is calculated by the following equation (6).
  • the adder 518 adds the high frequency component NB_high (i, j) of the NB image input from the first extractor 513b according to the weighting coefficient ⁇ (i, j) calculated by the coefficient calculator 521 for each pixel, and the second The luminance component Y′_high (i, j) can be calculated by adding the high frequency component Y_high (i, j) of the luminance component Y of the broadband image input from the extraction unit 513c.
  • the endoscope system according to the fourth embodiment has a configuration different from that of the endoscope system 1a according to the second embodiment described above and a process to be executed. Specifically, in Embodiment 2 described above, the color filter transmits one type (one band) of narrowband light, but in Embodiment 4, there are at least two types of color filters (two bands). ) Of narrowband light.
  • processing executed by the processor will be described.
  • symbol is attached
  • FIG. 14 is a block diagram illustrating functions of main parts of the endoscope system according to the fourth embodiment.
  • An endoscope system 1c shown in FIG. 14 includes an endoscope 2c and a processor 5c instead of the endoscope 2 and the processor 5a of the endoscope system 1a according to the second embodiment described above.
  • the endoscope 2c includes an imaging unit 202c instead of the imaging unit 202 of the endoscope according to the second embodiment described above.
  • the imaging unit 202c includes a color filter 212c instead of the color filter 212 according to the second embodiment described above.
  • the color filter 212c includes a broadband filter R that transmits light in the red wavelength band, a broadband filter G that transmits light in the green wavelength band, a broadband filter B that transmits light in the blue wavelength band, and a blue wavelength.
  • a narrowband filter NB that transmits light in a wavelength band narrower than the blue wavelength band, and a narrowband filter that transmits light in a green wavelength band that is narrower than the green wavelength band NG, and the filter unit is arranged in correspondence with the pixels of the image sensor 211.
  • FIG. 15 is a diagram schematically showing the configuration of the color filter 212c.
  • the color filter 212c includes two broadband filters R that transmit red components, eight broadband filters G that transmit green components, two broadband filters B that transmit blue components, and narrow bands.
  • the color filter 212c is arranged at a position corresponding to one of the plurality of pixels of the image sensor 211 in which the individual filters forming the above-described arrangement pattern are arranged in a secondary grid pattern.
  • FIG. 16 is a diagram showing the relationship between the transmittance and the wavelength of the narrowband filter NB and the narrowband filter NG constituting the color filter 212c.
  • the horizontal axis indicates the wavelength (nm) and the vertical axis indicates the transmittance.
  • a curve L NB shows the relationship between the transmittance of the narrow band filter NB and the wavelength
  • a curve L NG shows the relationship between the transmittance of the narrow band filter NG and the wavelength.
  • the peak wavelength of the narrowband filter NB is in the range of 390 nm to 445 nm and the peak wavelength of the narrowband filter NG is in the range of 530 nm to 550 nm will be described.
  • the spectral characteristics of the narrowband filter NB are narrower than those of the wideband filter B and are included in the wavelength band of the wideband filter B.
  • the spectral characteristics of the narrow band filter NG are narrower than those of the wide band filter G and are included in the wavelength band of the wide band filter G.
  • a pixel in which the narrow band filter NG is arranged is referred to as an NG pixel.
  • a processor 5c illustrated in FIG. 14 includes an image processing unit 51c instead of the image processing unit 51a of the processor 5a according to the second embodiment.
  • the image processing unit 51c further includes a third extraction unit 513d in addition to the configuration of the image processing unit 51b.
  • the image generation unit 512c Based on the pixel value of each pixel (each channel) input from the acquisition unit 511, the image generation unit 512c performs a well-known demosaicing process that complements the pixel value of a pixel with a missing pixel value, thereby obtaining a red color.
  • R image first interpolation image data
  • G image second interpolation image data
  • B image third image corresponding to light of blue wavelength band Interpolation image data
  • an NB image corresponding to narrowband light fourth interpolation image data
  • an NG image corresponding to narrowband light fifth interpolation image data
  • the third extraction unit 513d extracts a specific frequency component from the NG image input from the image generation unit 512c, and outputs the extracted specific frequency component to the addition unit 518c. Specifically, the third extraction unit 513d extracts a high frequency component higher than a predetermined threshold from the NG image. More specifically, the third extraction unit 513d uses, for example, a 3 ⁇ 3 high-pass filter for the pixel value of each pixel constituting the NG image, and converts the high frequency component NG_high of the NG image to the feature component of the NG image. And outputs the high-frequency component NG_high to the adder 518c.
  • FIG. 17 is a flowchart showing an outline of processing executed by the processor 5c.
  • steps S401 to S403 correspond to the above-described steps S301 to S303 of FIG.
  • the third extraction unit 513d extracts a third specific frequency component from the NG image input from the image generation unit 512c. Specifically, the third extraction unit 513d uses, for example, a 3 ⁇ 3 high-pass filter for the pixel value of each pixel constituting the NG image, and uses the high frequency component NG_high of the NG image as the feature component of the NG image. The high frequency component NG_high is extracted and output to the adding unit 518c.
  • Steps S405 to S410 correspond to steps S305 to S310 in FIG.
  • the endoscope systems 1 and 1a to 1c are provided with the endoscopes 2 and 2c, the display device 4, the recording unit 53, and the control unit 54, respectively. These components may be deleted without departing from the scope of the invention.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the first to fourth embodiments. For example, some components may be deleted from all the components described in the first to fourth embodiments. Furthermore, the constituent elements described in the first to fourth embodiments may be appropriately combined.
  • the above-mentioned “unit” can be read as “means” or “circuit”.
  • the control unit can be read as control means or a control circuit.
  • input / output is described in RGB (primary colors).
  • CMY complementary colors
  • the image data is transmitted to the image processing apparatus via the transmission cable.
  • the image data need not be wired and may be wireless.
  • image data or the like may be transmitted to the image processing apparatus in accordance with a predetermined wireless communication standard (for example, Wi-Fi (registered trademark) or Bluetooth (registered trademark)).
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • wireless communication may be performed according to other wireless communication standards.
  • the light source device and the image processing device are separately formed.
  • the present invention is not limited to this.
  • the image processing device and the light source device are integrated. It is good also as a formed structure.
  • the simultaneous endoscope has been described as an example.
  • the present invention can also be applied to a field sequential endoscope.
  • the embodiment of the present invention can be applied to an endoscope that can irradiate a predetermined narrow band light in addition to the narrow band light.
  • the embodiments of the present invention can be applied to flexible endoscopes (vertical endoscopes), sinus endoscopes, and capsule endoscopes in addition to rigid endoscopes. .
  • the endoscope is inserted into the subject.
  • the present invention can also be applied to, for example, a capsule endoscope or an imaging device that images the subject.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる画像処理装置、画像処理方法およびプログラムを提供する。画像処理装置は、R画像データ、G画像データおよびB画像データそれぞれを輝度成分Yと色差成分Cb,Crに変換する第1色空間変換部514と、NB画像データに含まれる第1特定周波数成分を抽出する抽出部513と、輝度成分Yと第1特定周波数成分とを合成する合成部515と、合成部515が合成した合成結果と、色差成分Cb,Crと、に基づいて、カラー画像データを生成するカラー画像生成部517と、を備える。

Description

画像処理装置、画像処理方法およびプログラム
 本発明は、被検体の体内画像を撮像する内視鏡が生成した画像データに対して画像処理を行う画像処理装置、画像処理方法およびプログラムに関する。
 近年、内視鏡の観察方式として、青色および緑色の波長帯域にそれぞれ含まれる二つの狭帯域光からなる照明光(以下、「特殊光」という)を用いた狭帯域光観察方式が知られている。
 このような狭帯域光観察方式を行う内視鏡として、白色光で撮像した通常光観察画像に、特殊光で撮像した特殊光観察画像の情報を合成することによって、一つの観察画像で生体の粘膜表層に存在する毛細血管および粘膜微細模様等を観察する技術が知られている(特許文献1参照)。この技術では、特殊光観察画像に対して、ハイパスフィルタやバンドパスフィルタ等を用いて、特殊光観察画像から毛細血管および粘膜微細模様等の特徴情報を抽出し、この抽出した特徴情報を通常光観察画像に合成した合成画像を生成する。
特許第5501210号公報
 しかしながら、上述した特許文献1では、フィルタによって抽出した特徴情報を通常光観察画像に合成しているため、通常光観察画像の輝度情報に、特徴情報に含まれる輝度情報を加算しているため、合成画像の色味が本来の通常光観察画像から変わってしまうという問題点があった。
 本発明は、上記に鑑みてなされたものであって、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得部と、と、前記取得部が取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成部と、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換部と、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出部と、前記色空間変換部が変換した前記輝度成分と前記第1抽出部が抽出した前記第1特定周波数成分とを合成する合成部と、前記合成部が合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成部と、を備えることを特徴とする。
 また、本発明に係る画像処理方法は、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれを受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、画像処理装置に、赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、を実行させることを特徴とする。
 本発明によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができるという効果を奏する。
図1は、本発明の実施の形態1に係る内視鏡システムの全体構成を模式的に示す図である。 図2は、本発明の実施の形態1に係る内視鏡システムの要部の機能を示すブロック図である。 図3は、本発明の実施の形態1に係るカラーフィルタの構成を模式的に示す図である。 図4は、本発明の実施の形態1に係るカラーフィルタを構成する各広帯域フィルタの透過率と波長との関係を示す図である。 図5は、本発明の実施の形態1に係るカラーフィルタを構成する狭帯域フィルタNBの透過率と波長との関係を示す図である。 図6は、本発明の実施の形態1に係る抽出部を構成するフィルタの特性を模式的に示す図である。 図7は、本発明の実施の形態1に係るプロセッサが実行する処理の概要を示すフローチャートである。 図8は、本発明の実施の形態1の変形例に係る抽出部の構成を模式的に示す図である。 図9は、本発明の実施の形態1の変形例に係る抽出部を構成するフィルタの特性を模式的に示す図である。 図10は、本発明の実施の形態2に係る内視鏡システムの要部の機能を示すブロック図である。 図11は、本発明の実施の形態2に係るプロセッサが実行する処理の概要を示すフローチャートである。 図12は、本発明の実施の形態3に係る内視鏡システムの要部の機能を示すブロック図である。 図13は、本発明の実施の形態3に係るプロセッサが実行する処理の概要を示すフローチャートである。 図14は、本発明の実施の形態4に係る内視鏡システムの要部の機能を示すブロック図である。 図15は、本発明の実施の形態4に係るカラーフィルタの構成を模式的に示す図である。 図16は、本発明の実施の形態4に係るカラーフィルタを構成する狭帯域フィルタNBおよび狭帯域フィルタNGの透過率と波長との関係を示す図である。 図17は、本発明の実施の形態4に係るプロセッサが実行する処理の概要を示すフローチャートである。
 以下、本発明を実施するための形態(以下、「実施の形態」という)を説明する。本実施の形態では、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムを例に説明する。また、以下の実施の形態により本発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付して説明する。
(実施の形態1)
 〔内視鏡システムの構成〕
 図1は、本発明の実施の形態1に係る内視鏡システムの全体構成を模式的に示す図である。図1に示す内視鏡システム1は、被検体の体腔内に挿入することによって被検体の体内を撮像する内視鏡2と、内視鏡2の先端から出射する照明光を発生する光源装置3と、内視鏡2が撮像して生成した画像データに対応する画像を表示する表示装置4と、内視鏡2が撮像して生成した画像データに所定の画像処理を施して表示装置4に表示させるとともに、内視鏡システム1全体の動作を統括的に制御するプロセッサ5と、を備える。
 内視鏡2は、可撓性を有する細長形状をなす挿入部21と、挿入部21の基端側に接続され、各種の操作信号の入力を受け付ける操作部22と、操作部22から挿入部21が延びる方向と異なる方向に延び、プロセッサ5および光源装置3と接続する各種ケーブルを内蔵するユニバーサルコード23と、を備える。
 挿入部21は、後述する撮像装置(撮像部)を内蔵した先端部24と、複数の湾曲駒によって構成された湾曲自在な湾曲部25と、湾曲部25の基端側に接続され、可撓性を有する長尺状の可撓管部26と、を有する。
 操作部22は、湾曲部25を上下方向および左右方向に湾曲させる湾曲ノブ221と、体腔内に生体鉗子、レーザメスおよび検査プローブ等の処理具を挿入する処置具挿入部222と、光源装置3、プロセッサ5に加えて、送気手段、送水手段、送ガス手段等の周辺機器の操作指示信号を入力する操作入力部である複数のスイッチ223と、を有する。処置具挿入部222から挿入される処置具は、先端部24を経由して開口部(図示せず)から表出する。
 ユニバーサルコード23は、ライトガイドと、集合ケーブルと、を少なくとも内蔵している。ユニバーサルコード23は、光源装置3に着脱自在なコネクタ部27を有する。コネクタ部27は、コイル状のコイルケーブル27aが延設し、コイルケーブル27aの延出端にプロセッサ5と着脱自在な電気コネクタ部28を有する。コネクタ部27は、内部にFPGA(Field Programmable Gate Array)を用いて構成される。
 光源装置3は、例えばハロゲンランプや白色LED(Light Emitting Diode)等を用いて構成される。光源装置3は、プロセッサ5の制御のもと、内視鏡2の挿入部の先端側から被写体に向けて照明光を照射する。
 表示装置4は、プロセッサ5の制御のもと、プロセッサ5が画像処理を施した画像信号に対応する画像および内視鏡システム1に関する各種情報を表示する。表示装置4は、液晶や有機EL(Electro Luminescence)等の表示パネル等を用いて構成される。
 プロセッサ5は、内視鏡2から入力されたRAW画像データに対して所定の画像処理を施して表示装置4へ出力する。プロセッサ5は、CPU(Central Processing Unit)等を用いて構成される。
 次に、内視鏡システム1の要部の機能について説明する。図2は、内視鏡システム1の要部の機能を示すブロック図である。図2を参照して内視鏡システム1の各部の詳細および内視鏡システム1内の電気信号の経路について説明する。
 〔内視鏡の構成〕
 まず、内視鏡2の構成について説明する。
 図2に示すように、内視鏡2は、光学系201と、撮像部202と、を備える。
 光学系201は、光源装置3が出射した照明光の反射光を撮像部202の撮像面に受光して被写体像を結像する。光学系201は、1つまたは複数のレンズおよびプリズム等を用いて構成される。
 撮像部202は、プロセッサ5の制御のもと、光学系201が受光面に結像した被写体像を受光して光電変換を行うことによって、被写体の画像データ(RAW画像データ)を生成し、この生成した画像データをプロセッサ5へ出力する。具体的には、撮像部202は、基準のフレームレート、例えば60fpsのフレームレートによって被検体を撮像して被検体の画像データを生成する。撮像部202は、撮像素子211と、カラーフィルタ212と、を有する。
 撮像素子211は、2次元格子状に配置された複数の画素がそれぞれ受光した光を光電変換し、電気信号を生成するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像センサを用いて構成される。
 カラーフィルタ212は、赤色の波長帯域の光を透過する広帯域フィルタRと、緑色の波長帯域の光を透過する広帯域フィルタGと、青色の波長帯域の光を透過する広帯域フィルタBと、青色の波長帯域であって、青色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNBと、を含むフィルタユニットを用いて構成され、このフィルタユニットを撮像素子211の画素に対応させて配置してなる。
 図3は、カラーフィルタ212の構成を模式的に示す図である。図3に示すように、カラーフィルタ212は、赤色の成分を透過する2つの広帯域フィルタR、緑色の成分を透過する8つの広帯域フィルタG、青色の成分を透過する2つの広帯域フィルタBおよび狭帯域の光を透過させる4つの狭帯域フィルタNBを1組とする所定の配列パターンを形成したフィルタユニットを用いて構成される。カラーフィルタ212は、上述した配列パターンを形成する個々のフィルタが2次格子状に配列された撮像素子211の複数の画素のいずれかに対応する位置に配置される。ここで、本実施の形態1における狭帯域の光は、粘膜表層の毛細血管観察用の青色の狭帯域光(390~445nm)である。このように構成されたカラーフィルタ212を用いて撮像素子211で生成された画像データは、後述するプロセッサ5によって所定の画像処理が行われることによって、カラー画像に変換される。
 図4は、カラーフィルタ212を構成する各広帯域フィルタの透過率と波長との関係を示す図である。図5は、カラーフィルタ212を構成する狭帯域フィルタNBの透過率と波長との関係を示す図である。図4および図5において、横軸が波長(nm)を示し、縦軸が透過率を示す。また、図4において、曲線Lが広帯域フィルタBの透過率と波長との関係を示し、曲線Lが広帯域フィルタGの透過率と波長との関係を示し、曲線Lが広帯域フィルタRの透過率と波長との関係を示す。また、図5において、曲線LNBが狭帯域フィルタNBの透過率と波長との関係を示す。さらに、図5において、狭帯域フィルタNBのピーク波長が390nmから445nmの範囲にある場合について説明する。
 図4および図5に示すように、狭帯域フィルタNBの分光特性は、広帯域フィルタBよりも狭く、広帯域フィルタBの波長帯域に含まれる。なお、以下においては、広帯域フィルタRが配置されてなる画素をR画素(第1画素)、広帯域フィルタGが配置されてなる画素をG画素(第2画素)、広帯域フィルタBが配置されてなる画素をB画素(第3画素)、狭帯域フィルタNBが配置されてなる画素をNB画素(第4画素)という。
 〔プロセッサの構成〕
 次に、プロセッサ5の構成について説明する。
 プロセッサ5は、図2に示すように、画像処理部51と、入力部52と、記録部53と、制御部54と、を備える。
 画像処理部51は、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)等を用いて構成される。画像処理部51は、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51は、取得部511と、画像生成部512と、抽出部513と、第1色空間変換部514と、合成部515と、第2色空間変換部516と、カラー画像生成部517と、を有する。なお、本実施の形態1では、画像処理部51が画像処理装置として機能する。
 取得部511は、内視鏡2が撮像して生成した画像データを取得し、取得した画像データを画像生成部512へ出力する。具体的には、取得部511は、内視鏡2が生成した画像データに対応する画像を構成するR画素、G画素、B画素およびNB画素それぞれの画素値(画素値R、画素値G、画素値Bおよび画素値NB)を撮像素子211から取得し、取得した各画素の画素値を画像生成部512へ出力する。
 画像生成部512は、取得部511から入力された各画素(各チャンネル)の画素値に基づいて、画素値が欠損する画素の画素値を補完する周知のデモザイキング処理を行うことによって、赤色の波長帯域の光に対応するR画像(第1補間画像データ)、緑色の波長帯域の光に対応するG画像(第2補間画像データ)、青色の波長帯域の光に対応するB画像(第3補間画像データ)および狭帯域光に対応するNB画像(第4補間画像データ)の各々を生成する。画像生成部512は、R画像、G画像およびB画像を第1色空間変換部514へ出力し、かつ、NB画像を抽出部513へ出力する。
 抽出部513は、画像生成部512から入力された狭帯域画像であるNB画像に対して、第1特定周波数成分を抽出し、この抽出した第1特定周波数成分を合成部515へ出力する。具体的には、抽出部513は、NB画像に対して、所定の閾値より高い高周波成分を抽出する。より具体的には、図6に示すように、抽出部513は、NB画素を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出し、この高周波成分を合成部515へ出力する。なお、抽出部513は、3×3のハイパスフィルタである必要はなく、適宜変更することができ、例えば4×4や5×5のハイパスフィルタであってもよい。もちろん、抽出部513は、複数のフィルタを組み合わせて構成してもよい。
 第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、周知の色空間変換処理、例えばYCrCb変換処理を行うことによって、輝度成分Y、色差成分Crおよび色差成分Cbそれぞれに変換し、輝度成分Yを合成部515へ出力し、かつ、色差成分Crおよび色差成分Cbを第2色空間変換部516へ出力する。
 合成部515は、抽出部513から入力された高周波成分NB_highと、第1色空間変換部514から入力された輝度成分Yと、を合成し、この合成した輝度成分Y’(Y’=Y+NB_high)を第2色空間変換部516へ出力する。
 第2色空間変換部516は、合成部515から入力された輝度成分Y’、第1色空間変換部514から入力された色差成分Crおよび色差成分Cbに対して、周知の色空間変換処理、例えばRGB変換処理を行うことによって、広帯域画像に狭帯域画像の特徴成分を付加した新たな観察画像R’、観察画像G’および観察画像B’の各々を生成する。第2色空間変換部516は、観察画像R’、観察画像G’および観察画像B’をカラー画像生成部517へ出力する。
 カラー画像生成部517は、第2色空間変換部516から入力された観察画像R’、観察画像G’および観察画像B’に基づいて、カラー画像データを生成して表示装置4へ出力する。具体的には、カラー画像生成部517は、R’画像を構成する各画素の画素値、G’画像を構成する各画素の画素値およびB’画像を構成する各画素の画素値を合成してカラー画像を生成し、このカラー画像を表示装置4へ出力する。
 入力部52は、ボタンやスイッチ等を用いて構成され、内視鏡システム1が実行する各種の処理を指示する指示信号やパラメータ等を変更する変更信号の入力を受け付ける。
 記録部53は、ROM(Read Only Memory)やRAM(Random Access Memory)等を用いて構成され、内視鏡2が生成した画像データ、および内視鏡システム1が実行するプログラムや処理中の情報を記録する。また、記録部53は、内視鏡システム1が実行するプログラムを記録するプログラム記録部53aを有する。
 制御部54は、CPU等を用いて構成され、内視鏡システム1を構成する各部を統括的に制御する。制御部54は、光源装置3の照明光の出射タイミングや内視鏡2の撮像部202の撮像タイミング等を制御する。
 〔プロセッサの処理〕
 次に、プロセッサ5が実行する処理について説明する。図7は、プロセッサ5が実行する処理の概要を示すフローチャートである。
 図7に示すように、まず、取得部511は、内視鏡2から画像データを取得する(ステップS101)。
 続いて、画像生成部512は、取得部511から入力された各画素の画素値に基づいて、デモザイキング処理を行うことによって各色の画像を生成する(ステップS102)。
 その後、第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、色空間変換処理を行う(ステップS103)。具体的には、第1色空間変換部514は、画像生成部512から入力されたR画像、G画像およびB画像に対して、YCrCb変換処理を行うことによって、輝度成分Y、色差成分Crおよび色差成分Cbそれぞれに変換する。
 続いて、抽出部513は、画像生成部512から入力された狭帯域画像であるNB画像に対し、第1特定周波数成分を抽出する(ステップS104)。具体的には、抽出部513は、NB画素を構成する各画素の画素値に対して、上述した図6に示すハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出する。
 その後、合成部515は、第1色空間変換部514から入力された輝度成分Yに、抽出部513から入力された第1特定周波数成分を合成する(ステップS105)。具体的には、合成部515は、第1色空間変換部514から入力された輝度成分Yに、抽出部513から入力されたNB画像の特徴成分である高周波成分NB_highを合成する。
 続いて、第2色空間変換部516は、合成部515から入力された輝度成分Y’、第1色空間変換部514から入力された色差成分Crおよび色差成分Cbに対して、RGBに変換する色空間変換処理を行う(ステップS106)。
 その後、カラー画像生成部517は、第2色空間変換部516から入力された観察画像R’、観察画像G’および観察画像B’に基づいて、カラー画像を生成する(ステップS107)。
 続いて、内視鏡システム1による検査の終了を指示する指示信号が入力された場合(ステップS108:Yes)、プロセッサ5は、本処理を終了する。これに対して、内視鏡システム1による検査の終了を指示する指示信号が入力されていない場合(ステップS108:No)、プロセッサ5は、上述したステップS101へ戻る。
 以上説明した本発明の実施の形態1によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
 また、本発明の実施の形態1によれば、通常光観察画像と特殊光観察画像を合成する場合であっても、特殊光画像の特徴が高いコントラストで描写される新たな観察画像を得ることができる。
 また、本発明の実施の形態1では、合成部515がNB画像の高周波成分NB_highに対して入力部52によって入力された重み係数αを乗算した値に、第1色空間変換部514から入力された輝度成分Yを合成してもよい(Y’=Y+α×NB_high)。
 また、本発明の実施の形態1では、青色の狭帯域光(390~445nm)を例に説明したが、深部の太い血管を強調するために緑色の狭帯域光(530~550nm)であってもよい。 
(実施の形態1の変形例)
 次に、本発明の実施の形態1の変形例について説明する。本実施の形態1の変形例は、上述した実施の形態1に係る抽出部513と構成が異なる。以下においては、本実施の形態1の変形例に係る抽出部の構成のみを説明する。なお、上述した実施の形態1に係る内視鏡システム1と同一の構成には同一の符号を付して説明を省略する。
 図8は、本実施の形態1の変形例に係る抽出部の構成を模式的に示す図である。図8に示す抽出部513aは、低周波成分抽出部600と、算出部601と、を有する。
 低周波成分抽出部600は、狭帯域画像であるNB画像から低周波成分NB_lowを抽出する。低周波成分抽出部600は、例えば図9に示す5×5のローパスフィルタF2を用いて構成される。
 算出部601は、狭帯域画像であるNB画像から低周波成分抽出部600によって抽出された低周波成分NB_lowを減算することによって、狭帯域画像であるNB画像から第1特定周波数成分である高周波成分NB_highを算出する。
 以上説明した本発明の実施の形態1の変形例によれば、上述した実施の形態1と同様に、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
(実施の形態2)
 次に、本発明の実施の形態2について説明する。本実施の形態2に係る内視鏡システムは、上述した実施の形態1に係る内視鏡システム1と構成が異なる。具体的には、本実施の形態2は、上述した実施の形態1に係るプロセッサ5と構成が異なる。さらに、本実施の形態2に係る内視鏡システムは、上述した実施の形態1に係るプロセッサ5が実行する処理と異なる。以下においては、本実施の形態2に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態1に係る内視鏡システム1と同一の構成には同一の符号を付して説明を省略する。
 〔内視鏡システムの構成〕
 図10は、本実施の形態2に係る内視鏡システムの要部の機能を示すブロック図である。図10に示す内視鏡システム1aは、上述した実施の形態1に係る内視鏡システム1のプロセッサ5に換えて、プロセッサ5aを備える。
 〔プロセッサの構成〕
 図10に示すプロセッサ5aは、上述した実施の形態1に係る画像処理部51に換えて、画像処理部51aを備える。
 画像処理部51aは、GPUやFPGA等を用いて構成され、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51aは、取得部511と、画像生成部512と、第1抽出部513bと、第2抽出部513cと、第1色空間変換部514と、加算部518と、減算部519と、合成部520aと、第2色空間変換部516と、カラー画像生成部517と、を有する。なお、本実施の形態2では、画像処理部51aが画像処理装置として機能する。
 第1抽出部513bは、画像生成部512から入力された狭帯域画像であるNB画像に対して、第1特定周波数成分を抽出し、この抽出した第1特定周波数成分を加算部518へ出力する。具体的には、第1抽出部513bは、NB画像に対して、所定の第1閾値より高い高周波成分を抽出する。より具体的には、第1抽出部513bは、NB画素を構成する各画素の画素値に対して、例えば上述した実施の形態1と同様の3×3のハイパスフィルタF1を用いて、NB画像の高周波成分NB_highをNB画像の特徴成分として抽出し、この高周波成分NB_highを加算部518へ出力する。
 第2抽出部513cは、第1色空間変換部514から入力された広帯域画像の輝度成分Yに対して、第2特定周波数成分を抽出し、この抽出した第2特定周波数成分を加算部518および減算部519へ出力する。具体的には、第2抽出部513cは、広帯域画像の輝度成分Yに対して、所定の第2閾値より高い高周波成分を抽出する。より具体的には、第2抽出部513cは、輝度成分Yに対して、例えば上述した実施の形態1と同様の3×3のハイパスフィルタF1を用いて、広帯域画像の輝度成分Yの高周波成分Y_highを抽出し、この高周波成分Y_highを加算部518および減算部519へ出力する。なお、第1抽出部513bおよび第2抽出部513cが用いるハイパスフィルタの特性は、同じであってもよいし、互いに異なる特性であってもよいが、透過特性の近いものが好ましい。
 加算部518は、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を、制御部54を介して入力部52によって入力された高周波成分NB_highと、高周波成分Y_highとを加算する際の重み付け係数αと、に基づいて、加算成分である輝度成分Y’_highを算出し、この輝度成分Y’_highを合成部520aへ出力する。具体的には、以下の式(1)によって、加算成分である輝度成分Y’_highを算出する。
 Y’_high=α×Y’_high+(1-α)×NB_high ・・・(1)
ここで、重み付け係数αは、0から1の自然数である。
 減算部519は、第1色空間変換部514から入力された輝度成分Yと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highとに基づいて、低周波成分Y_lowを算出し、この低周波成分Y_lowを合成部520aへ出力する。具体的には、減算部519は、第1色空間変換部514から入力された輝度成分Yから第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highを減算した差分成分(残差成分)である低周波成分Y_lowを算出する。より具体的には、減算部519は、以下の式(2)によって、低周波成分Y_lowを算出する。
 Y_low=Y-Y_high   ・・・(2)
 合成部520aは、加算部518から入力された加算成分である輝度成分Y’_highと、減算部519から入力された差分成分である低周波成分Y_lowと、に基づいて、輝度成分Y’を算出し、この輝度成分Y’を第2色空間変換部516へ出力する。
 〔プロセッサの処理〕
 次に、プロセッサ5aが実行する処理について説明する。図11は、プロセッサ5aが実行する処理の概要を示すフローチャートである。図11において、ステップS201は、上述した図7のステップS101に対応する。
 ステップS202において、第1抽出部513bは、画像生成部512から入力されたNB画像に対して、第1の特定周波数成分を抽出する。具体的には、第1抽出部513bは、NB画像の高周波成分NB_highを抽出する。
 続いて、第2抽出部513cは、第1色空間変換部514から入力された広帯域画像の輝度成分Yに対して、第2特定周波数成分を抽出する(ステップS203)。具体的には、第2抽出部513cは、広帯域画像の輝度成分Yの高周波成分Y_highを抽出する。
 その後、加算部518は、入力部52によって入力された重み付け係数αに従って、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を加算することによって輝度成分Y’_highを算出する(ステップS204)。
 続いて、減算部519は、第1色空間変換部514から入力された輝度成分Yと、第2抽出部513cから入力された広帯域画像の高周波成分Y_highとに基づいて、低周波成分Y_lowを算出する(ステップS205)。
 その後、合成部520aは、加算部518から入力された輝度成分Y’_highと、減算部519から入力された低周波成分Y_lowと、に基づいて、輝度成分Y’を算出する(ステップS206)。
 ステップS207~ステップS209は、上述した図7のステップS106~ステップS108それぞれに対応する。
 以上説明した本発明の実施の形態2によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
 なお、本発明の実施の形態2では、加算部518が入力部52によって入力された重み付け係数αに従って、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を加算して加算成分の輝度成分Y’_highを算出していたが、重み付け係数αを考慮することなく、第1抽出部513bから入力されたNB画像の高周波成分NB_highと、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_highと、を単に加算して、加算成分の輝度成分Y’_highを算出してもよい。
(実施の形態3)
 次に、本発明の実施の形態3について説明する。本実施の形態3に係る内視鏡システムは、上述した実施の形態2に係る内視鏡システム1aと構成が異なる。具体的には、本実施の形態3は、上述した実施の形態2に係るプロセッサ5aと構成が異なる。さらに、本実施の形態3に係る内視鏡システムは、上述した実施の形態2に係るプロセッサ5aが実行する処理と異なる。具体的には、上述した実施の形態2では、入力部52を介して重み付け係数αの値を入力していたが、本実施の形態3では、重み付け係数αを自動的に算出する。以下においては、本実施の形態3に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態2に係る内視鏡システム1aと同一の構成には同一の符号を付して説明を省略する。
 〔内視鏡システムの構成〕
 図12は、本実施の形態3に係る内視鏡システムの要部の機能を示すブロック図である。図12に示す内視鏡システム1bは、上述した実施の形態2に係る内視鏡システム1aのプロセッサ5aに換えて、プロセッサ5bを備える。
 〔プロセッサの構成〕
 図12に示すプロセッサ5bは、上述した実施の形態2に係る画像処理部51aに換えて、画像処理部51bを備える。
 画像処理部51bは、GPUやFPGA等を用いて構成され、内視鏡2から画像データを取得し、取得した画像データに対して所定の画像処理を施して表示装置4へ出力する。画像処理部51bは、上述した実施の形態2に係る画像処理部51aの構成に加えて、係数算出部521をさらに有する。
 係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、加算部518が狭帯域画像の高周波成分NB_highと、広帯域画像の高周波成分Y_highとを加算する際の重み付け係数αを算出する。
 〔プロセッサの処理〕
 次に、プロセッサ5bが実行する処理について説明する。図13は、プロセッサ5bが実行する処理の概要を示すフローチャートである。図13において、ステップS301~ステップS303は、上述した図11のステップS201~ステップS203それぞれに対応する。
 ステップS304において、係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、1フレーム毎の重み付け係数αを算出する。具体的には、係数算出部521は、狭帯域画像における各画素の高周波成分NB_highの総和をWa_NB_high、広帯域画像における各画素の高周波成分Y_highの総和Wa_Y_highとした場合、以下の式(3)~(5)によって、重み付け係数αを算出する。
Figure JPOXMLDOC01-appb-M000001
(i,j)は、画素の位置を示す。
 ステップS305~ステップS310は、上述した図11のステップS204~ステップS209それぞれに対応する。
 以上説明した本発明の実施の形態3によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
 なお、本発明の実施の形態3では、係数算出部521は、第1抽出部513bから入力される狭帯域画像における各画素の高周波成分NB_high(i,j)と、第2抽出部513cから入力される広帯域画像における各画素の高周波成分Y_high(i,j)と、に基づいて、1フレーム毎の重み付け係数αを算出していたが、例えば画素毎に重み付け係数αを算出してもよい。具体的には、以下の式(6)によって、重み付け係数α(i,j)を算出する。
Figure JPOXMLDOC01-appb-M000002
加算部518は、画素毎に係数算出部521によって算出された重み付け係数α(i,j)に従って、第1抽出部513bから入力されたNB画像の高周波成分NB_high(i,j)と、第2抽出部513cから入力された広帯域画像の輝度成分Yの高周波成分Y_high(i,j)と、を加算することによって輝度成分Y’_high(i,j)を算出することができる。
(実施の形態4)
 次に、本発明の実施の形態4について説明する。本実施の形態4に係る内視鏡システムは、上述した実施の形態2に係る内視鏡システム1aと構成が異なるうえ、実行する処理が異なる。具体的には、上述した実施の形態2では、カラーフィルタが1種類(1バンド)の狭帯域光を透過していていたが、本実施の形態4では、カラーフィルタが少なくとも2種類(2バンド)の狭帯域光を透過する。以下においては、本実施の形態4に係る内視鏡システムの構成を説明後、プロセッサが実行する処理について説明する。なお、上述した実施の形態2に係る内視鏡システム1aと同一の構成には同一の符号を付して説明を省略する。
 〔内視鏡システムの構成〕
 図14は、本実施の形態4に係る内視鏡システムの要部の機能を示すブロック図である。図14に示す内視鏡システム1cは、上述した実施の形態2に係る内視鏡システム1aの内視鏡2およびプロセッサ5aに換えて、内視鏡2cおよびプロセッサ5cを備える。
 〔内視鏡の構成〕
 まず、内視鏡2cの構成について説明する。
 内視鏡2cは、上述した実施の形態2に係る内視鏡の撮像部202に換えて、撮像部202cを備える。撮像部202cは、上述した実施の形態2に係るカラーフィルタ212に換えて、カラーフィルタ212cを有する。
 カラーフィルタ212cは、赤色の波長帯域の光を透過する広帯域フィルタRと、緑色の波長帯域の光を透過する広帯域フィルタGと、青色の波長帯域の光を透過する広帯域フィルタBと、青色の波長帯域であって、青色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNBと、緑色の波長帯域であって、緑色の波長帯域よりも狭い波長帯域の光を透過する狭帯域フィルタNGと、を含むフィルタユニットを用いて構成され、このフィルタユニットを撮像素子211の画素に対応させて配置してなる。
 図15は、カラーフィルタ212cの構成を模式的に示す図である。図15に示すように、カラーフィルタ212cは、赤色の成分を透過する2つの広帯域フィルタR、緑色の成分を透過する8つの広帯域フィルタG、青色の成分を透過する2つの広帯域フィルタBおよび狭帯域の光を透過させる2つの狭帯域フィルタNBと、緑色の波長帯域よりも狭い波長帯域の光を透過する2つの狭帯域フィルタNGと、を1組とする所定の配列パターンを形成したフィルタユニットを用いて構成される。カラーフィルタ212cは、上述した配列パターンを形成する個々のフィルタが2次格子状に配列された撮像素子211の複数の画素のいずれかに対応する位置に配置される。
 図16は、カラーフィルタ212cを構成する狭帯域フィルタNBおよび狭帯域フィルタNGの透過率と波長との関係を示す図である。図16において、横軸が波長(nm)を示し、縦軸が透過率を示す。また、図16において、曲線LNBが狭帯域フィルタNBの透過率と波長との関係を示し、曲線LNGが狭帯域フィルタNGの透過率と波長との関係を示す。さらに、図16において、狭帯域フィルタNBのピーク波長を390nmから445nmの範囲、狭帯域フィルタNGのピーク波長を530nmから550nmの範囲にある場合について説明する。
 図16に示すように、狭帯域フィルタNBの分光特性は、広帯域フィルタBよりも狭く、広帯域フィルタBの波長帯域に含まれる。また、狭帯域フィルタNGの分光特性は、広帯域フィルタGよりも狭く、広帯域フィルタGの波長帯域に含まれる。なお、以下においては、狭帯域フィルタNGが配置されてなる画素をNG画素という。
 〔プロセッサの構成〕
 次に、プロセッサ5cの構成について説明する。
 図14に示すプロセッサ5cは、上述した実施の形態2に係るプロセッサ5aの画像処理部51aに換えて、画像処理部51cを備える。画像処理部51cは、画像処理部51bの構成に加えて、第3抽出部513dをさらに有する。
 画像生成部512cは、取得部511から入力された各画素(各チャンネル)の画素値に基づいて、画素値が欠損する画素の画素値を補完する周知のデモザイキング処理を行うことによって、赤色の波長帯域の光に対応するR画像(第1補間画像データ)、緑色の波長帯域の光に対応するG画像(第2補間画像データ)、青色の波長帯域の光に対応するB画像(第3補間画像データ)、狭帯域光に対応するNB画像(第4補間画像データ)および狭帯域光に対応するNG画像(第5補間画像データ)の各々を生成する。画像生成部512cは、R画像、G画像およびB画像を第1色空間変換部514、NB画像を第1抽出部513bおよびNG画像を第3抽出部513dそれぞれに出力する。
 第3抽出部513dは、画像生成部512cから入力されたNG画像に対して、特定周波数成分を抽出し、この抽出した特定周波数成分を加算部518cへ出力する。具体的には、第3抽出部513dは、NG画像に対して、所定の閾値より高い高周波成分を抽出する。より具体的には、第3抽出部513dは、NG画像を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタを用いて、NG画像の高周波成分NG_highをNG画像の特徴成分として抽出し、この高周波成分NG_highを加算部518cへ出力する。
 加算部518cは、狭帯域画像NBの高周波成分NB_highと、狭帯域画像NGの高周波成分NG_highと、広帯域画像の高周波成分Y_highと、入力部52を介して入力される重み付け係数α,βと、に基づいて、輝度成分Y’_highを算出する。具体的には、加算部518cは、以下の式(7)によって輝度成分Y’_highを算出する。
 Y’_high=(1-α-β)Y_high+α×NB_high+β×NG_high 
                             ・・・(7)
 〔プロセッサの処理〕
 次に、プロセッサ5cの処理について説明する。図17は、プロセッサ5cが実行する処理の概要を示すフローチャートである。図17において、ステップS401~ステップS403は、上述した図13のステップS301~ステップS303それぞれに対応する。
 ステップS404において、第3抽出部513dは、画像生成部512cから入力されたNG画像に対して、第3の特定周波数成分を抽出する。具体的には、第3抽出部513dは、NG画像を構成する各画素の画素値に対して、例えば3×3のハイパスフィルタを用いて、NG画像の高周波成分NG_highをNG画像の特徴成分として抽出し、この高周波成分NG_highを加算部518cへ出力する。
 ステップS405~ステップS410は、上述した図13のステップS305~ステップS310それぞれに対応する。
 以上説明した本発明の実施の形態4によれば、通常光観察画像に特殊光観察画像の特徴情報を合成した場合であっても、合成画像の色味が変わることを防止することができる。
(その他の実施の形態)
 また、本発明の実施の形態1~4では、内視鏡システム1,1a~1cに、内視鏡2,2c、表示装置4、記録部53および制御部54の各々を設けていたが、これらの構成要素は発明の要旨を逸脱しない範囲内で削除してもよい。また、上述した実施の形態1~4に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態1~4に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した実施の形態1~4で説明した構成要素を適宜組み合わせてもよい。
 また、本発明の実施の形態では、上記してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。
 また、本発明の実施の形態では、入出力をRGB(原色)で説明していたが、これに限定されることなく、入出力をCMY(補色)であっても適用することができる。
 また、本発明の実施の形態では、伝送ケーブルを介して画像データを画像処理装置へ送信していたが、例えば有線である必要はなく、無線であってもよい。この場合、所定の無線通信規格(例えばWi-Fi(登録商標)やBluetooth(登録商標))に従って、画像データ等を画像処理装置へ送信するようにすればよい。もちろん、他の無線通信規格に従って無線通信を行ってもよい。
 また、本発明の実施の形態では、光源装置と画像処理装置(プロセッサ)とが別体で形成されていたが、これに限定されることなく、例えば画像処理装置と光源装置とが一体的に形成された構成としてもよい。
 また、本発明の実施の形態では、同時式の内視鏡を例に説明したが、面順次の内視鏡であっても適用することができる。さらに、本発明の実施の形態では、狭帯域光以外にも、所定の狭帯域光を照射可能な内視鏡であっても適用することができる。さらにまた、本発明の実施の形態では、硬性内視鏡以外にも、軟性内視鏡(上下内視鏡)、副鼻腔内視鏡およびカプセル型内視鏡であっても適用することができる。
 また、本発明の実施の形態では、被検体に挿入される内視鏡であったが、例えばカプセル型の内視鏡または被検体を撮像する撮像装置であっても適用することができる。
 なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いて各処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。
 以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
 1,1a~1c 内視鏡システム
 2,2c 内視鏡
 3 光源装置
 4 表示装置
 5,5a~5c プロセッサ
 21 挿入部
 22 操作部
 51,51a~51c 画像処理部
 52 入力部
 53 記録部
 53a プログラム記録部
 54 制御部
 201 光学系
 202,202c 撮像部
 211 撮像素子
 212,212c カラーフィルタ
 511,512c 取得部
 513,513a 抽出部
 513b 第1抽出部
 513c 第2抽出部
 513d 第3抽出部
 514 第1色空間変換部
 515,520a 合成部
 516 第2色空間変換部
 517 カラー画像生成部
 518,518c 加算部
 519 減算部
 601 算出部
 521 係数算出部
 600 低周波成分抽出部

Claims (9)

  1.  赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得部と、
     前記取得部が取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成部と、
     前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換部と、
     前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出部と、
     前記色空間変換部が変換した前記輝度成分と前記第1抽出部が抽出した前記第1特定周波数成分とを合成する合成部と、
     前記合成部が合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成部と、
     を備えることを特徴とする画像処理装置。
  2.  前記第1抽出部は、所定の第1閾値より高い高周波成分を前記第1特定周波数成分として抽出することを特徴とする請求項1に記載の画像処理装置。
  3.  前記合成部が前記輝度成分と前記第1特定周波数成分とを合成する際の重み付け係数の入力を受け付ける入力部をさらに備え、
     前記合成部は、前記重み付け係数に従って、前記輝度成分と前記第1特定周波数成分とを合成することを特徴とする請求項1または2に記載の画像処理装置。
  4.  前記輝度成分に含まれる第2特定周波数成分を抽出する第2抽出部と、
     前記輝度成分から前記第2抽出部が抽出した前記第2特定周波数成分を減算した差分成分を算出する算出部と、
     前記第1抽出部が抽出した前記第1特定周波数成分と、前記第2抽出部が抽出した前記第2特定周波数成分を加算した加算成分を算出する加算部と、
     をさらに備え、
     前記合成部は、前記算出部が算出した前記差分成分と、前記加算部が算出した加算成分と、を合成することを特徴とする請求項2に記載の画像処理装置。
  5.  前記第1抽出部および前記第2抽出部は、所定の第2閾値より高い高周波成分を前記第1特定周波数成分または前記第2特定周波数成分として抽出することを特徴とする請求項4に記載の画像処理装置。
  6.  前記第1特定周波数成分と前記第2特定周波数成分とを加算する際の重み付け係数の入力を受け付ける入力部をさらに備え、
     前記加算部は、前記重み付け係数に従って、前記第1特定周波数成分と前記第2特定周波数成分とを加算して前記加算成分を算出することを特徴とする請求項5に記載の画像処理装置。
  7.  前記第1特定周波数成分と前記第2特定周波数成分とに基づいて、前記第1特定周波数成分と前記第2特定周波数成分とを加算する際の重み付け係数を算出する係数算出部をさらに備え、
     前記加算部は、前記重み付け係数に従って、前記第1特定周波数成分と前記第2特定周波数成分とを加算して前記加算成分を算出することを特徴とする請求項5に記載の画像処理装置。
  8.  画像処理装置が実行する画像処理方法であって、
     赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれを受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、
     前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、
     前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、
     前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、
     前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、
     前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、
     を含むことを特徴とする画像処理方法。
  9.  画像処理装置に、
     赤色の波長帯域の光を受光する第1画素と、緑色の波長帯域の光を受光する第2画素と、青色の波長帯域の光を受光する第3画素と、少なくとも前記赤色、前記緑色および前記青色のいずれよりも狭い波長帯域の狭帯域光を受光する第4画素と、を用いて所定の配列パターンを形成してなる撮像素子が生成した画像データを取得する取得ステップと、
     前記取得ステップで取得した前記画像データに対して、画素値を補間するデモザイキング処理を行って、前記赤色の波長帯域の光に対応する第1補間画像データ、前記緑色の波長帯域の光に対応する第2補間画像データ、前記青色の波長帯域の光に対応する第3補間画像データおよび前記狭帯域光に対応する第4補間画像データを生成する画像生成ステップと、
     前記第1補間画像データ、前記第2補間画像データおよび前記第3補間画像データそれぞれを輝度成分と色差成分に変換する色空間変換処理を行う色空間変換ステップと、
     前記第4補間画像データに含まれる第1特定周波数成分を抽出する第1抽出ステップと、
     前記色空間変換ステップで変換した前記輝度成分と前記第1抽出ステップで抽出した前記第1特定周波数成分とを合成する合成ステップと、
     前記合成ステップで合成した合成結果と、前記色差成分と、に基づいて、カラー画像データを生成するカラー画像生成ステップと、
     を実行させることを特徴とするプログラム。
PCT/JP2016/086633 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム WO2018105089A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018555405A JPWO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム
PCT/JP2016/086633 WO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム
US16/391,159 US10863149B2 (en) 2016-12-08 2019-04-22 Image processing apparatus, image processing method, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086633 WO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/391,159 Continuation US10863149B2 (en) 2016-12-08 2019-04-22 Image processing apparatus, image processing method, and computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2018105089A1 true WO2018105089A1 (ja) 2018-06-14

Family

ID=62490798

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086633 WO2018105089A1 (ja) 2016-12-08 2016-12-08 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US10863149B2 (ja)
JP (1) JPWO2018105089A1 (ja)
WO (1) WO2018105089A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282168B2 (en) * 2017-10-23 2022-03-22 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
TW202044798A (zh) * 2019-01-30 2020-12-01 日商索尼股份有限公司 密碼化裝置、密碼化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198794A (ja) * 2004-01-15 2005-07-28 Pentax Corp 内視鏡装置
JP2012125461A (ja) * 2010-12-16 2012-07-05 Fujifilm Corp 画像処理装置
WO2016129062A1 (ja) * 2015-02-10 2016-08-18 オリンパス株式会社 画像処理装置、内視鏡システム、撮像装置、画像処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6943837B1 (en) * 1999-12-31 2005-09-13 Intel Corporation Method and apparatus for colormetric channel balancing for solid state image sensor using time division multiplexed sampling waveforms
US8774519B2 (en) * 2012-08-07 2014-07-08 Apple Inc. Landmark detection in digital images
KR102069533B1 (ko) * 2013-05-03 2020-01-28 삼성전자주식회사 이미지 신호 처리장치 및 방법과 이를 이용한 영상 처리 시스템
KR102159256B1 (ko) * 2013-11-25 2020-09-23 삼성전자 주식회사 픽셀 어레이 및 이를 포함하는 이미지 센서
JPWO2017221335A1 (ja) * 2016-06-21 2019-04-11 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198794A (ja) * 2004-01-15 2005-07-28 Pentax Corp 内視鏡装置
JP2012125461A (ja) * 2010-12-16 2012-07-05 Fujifilm Corp 画像処理装置
WO2016129062A1 (ja) * 2015-02-10 2016-08-18 オリンパス株式会社 画像処理装置、内視鏡システム、撮像装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US20190253675A1 (en) 2019-08-15
US10863149B2 (en) 2020-12-08
JPWO2018105089A1 (ja) 2019-10-24

Similar Documents

Publication Publication Date Title
CN108109134B (zh) 图像处理装置及其工作方法
JP6495539B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
US10070771B2 (en) Image processing apparatus, method for operating image processing apparatus, computer-readable recording medium, and endoscope device
JP6121368B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
US10694100B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP5485215B2 (ja) 内視鏡装置
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
WO2016117036A1 (ja) 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラムおよび内視鏡装置
WO2016084257A1 (ja) 内視鏡装置
WO2017022324A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム
JP6463512B2 (ja) 画像信号処理装置、画像信号処理方法および画像信号処理プログラム
WO2018105089A1 (ja) 画像処理装置、画像処理方法およびプログラム
WO2018150627A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2017203996A1 (ja) 画像信号処理装置、画像信号処理方法および画像信号処理プログラム
JP7068438B2 (ja) 画像処理装置、内視鏡システム、画像処理方法およびプログラム
JP7234320B2 (ja) 画像処理装置および画像処理装置の作動方法
JP6383829B2 (ja) 医用画像処理装置及びその作動方法並びに内視鏡システム
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
WO2017017735A1 (ja) 画像処理装置、表示制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16923479

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018555405

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16923479

Country of ref document: EP

Kind code of ref document: A1