WO2019239854A1 - 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム - Google Patents

内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム Download PDF

Info

Publication number
WO2019239854A1
WO2019239854A1 PCT/JP2019/020678 JP2019020678W WO2019239854A1 WO 2019239854 A1 WO2019239854 A1 WO 2019239854A1 JP 2019020678 W JP2019020678 W JP 2019020678W WO 2019239854 A1 WO2019239854 A1 WO 2019239854A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
endoscopic
endoscope
image quality
quality
Prior art date
Application number
PCT/JP2019/020678
Other languages
English (en)
French (fr)
Inventor
正明 大酒
麻依子 遠藤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020525396A priority Critical patent/JP7130038B2/ja
Publication of WO2019239854A1 publication Critical patent/WO2019239854A1/ja
Priority to JP2022132527A priority patent/JP7350954B2/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to an endoscopic image processing apparatus, an endoscopic image processing method, and an endoscopic image processing program, and in particular, an endoscopic image processing apparatus and an endoscope that perform image recognition on an endoscopic image.
  • the present invention relates to an image processing method and an endoscope image processing program.
  • Patent Documents 1 and 2 There are known techniques for detecting a lesion part by image recognition from an endoscopic image photographed by an endoscope apparatus and classifying a lesion by type (for example, Patent Documents 1 and 2).
  • Non-Patent Document 1 machine learning of images (Non-Patent Document 1) including deep learning (Deep Learning) is widely used.
  • image recognition such as classification and detection can be performed by learning a large amount of images according to a problem.
  • the present invention has been made in view of such circumstances, and provides an endoscope image processing apparatus, an endoscope image processing method, and an endoscope image processing program capable of recognizing an image without considering a difference in image quality. For the purpose.
  • An endoscopic image acquisition unit that acquires an endoscopic image captured by an endoscopic device, an image conversion processing unit that performs a process of converting the endoscopic image into an image of a standard image quality, and a standard image quality
  • An endoscope image processing apparatus comprising: an image recognition unit that performs image recognition on a converted image.
  • the acquired endoscopic image is converted into an image having a standard image quality, and image recognition is performed.
  • the image can be recognized without considering the difference in image quality of the captured endoscopic image.
  • the endoscope image is converted into an image of the standard image quality based on the adjustment value of the image quality set in the endoscope apparatus.
  • image recognition can be performed without considering the difference in image quality set in the endoscope apparatus.
  • the image conversion processing unit converts the endoscopic image into a reference quality image based on an image quality adjustment value set in the endoscopic device when the endoscopic image is output to the display device.
  • the endoscopic image when outputting an endoscopic image to a display device, the endoscopic image is converted into an image having a standard image quality based on an adjustment value of image quality set by the endoscopic device.
  • the image quality may be adjusted according to the operator's preference. According to this aspect, even when the image quality is adjusted, the image can be recognized with high accuracy.
  • the image conversion processing unit converts the endoscopic image into a reference quality image based on an image quality adjustment value set in the endoscopic device when the endoscopic image is stored as a still image.
  • the endoscopic image when the endoscopic image is stored as a still image, the endoscopic image is converted into an image of the standard image quality based on the image quality adjustment value set by the endoscopic device.
  • the image quality may be adjusted and stored. According to this aspect, even when the image quality is adjusted, the image can be recognized with high accuracy.
  • the endoscope image is converted into an image of the standard image quality based on the adjustment value.
  • the image conversion processing unit performs processing for converting an endoscopic image into a reference image quality image based on an adjustment value of an image quality change due to a light amount set in the endoscope apparatus. Endoscopic image processing device.
  • the endoscope image is converted into an image of the standard image quality based on the adjustment value.
  • the image conversion processing unit processes the endoscope image with a numerical value set for each endoscope apparatus in which the endoscope image is photographed, and converts the endoscope image into a reference image quality image
  • the endoscope image processing device according to (1), wherein:
  • the endoscopic image is processed with the numerical value set for each endoscopic device, and the endoscopic image is converted into an image of the standard image quality.
  • the image recognition unit is configured by a convolutional neural network learned from an image converted into the reference image quality.
  • processing for detecting a region of interest such as a lesion and / or classification of a recognition target such as a lesion is performed by image recognition.
  • a step of acquiring an endoscopic image photographed by the endoscopic device a step of performing a process of converting the endoscopic image into an image of a reference image quality, and an image for the image converted to the reference image quality Recognizing an endoscopic image processing method.
  • the acquired endoscopic image is converted into an image having a standard image quality, and image recognition is performed.
  • the image can be recognized without considering the difference in image quality of the captured endoscopic image.
  • a function for acquiring an endoscopic image photographed by an endoscope apparatus, a function for performing processing for converting an endoscopic image into an image of a reference image quality, and an image for an image converted to the reference image quality An endoscope image processing program for causing a computer to realize a function of performing recognition.
  • the acquired endoscopic image is converted into an image having a standard image quality, and image recognition is performed.
  • the image can be recognized without considering the difference in image quality of the captured endoscopic image.
  • FIG. 1 is a block diagram showing an overall system configuration of an endoscope system including an endoscope apparatus and an endoscope image processing apparatus.
  • Conceptual block diagram of an endoscopic device External view as an example of the endoscope apparatus shown in FIG. Schematic representation of blood vessels on the surface of the mucous membrane of living tissue
  • the figure which shows the example of a display of the observation image at the time of using narrow-band light as illumination light The figure which shows the example of a display of the observation image at the time of using white light as illumination light
  • Block diagram showing functions of an endoscope image processing apparatus The figure which shows an example of the display of a recognition result
  • the flowchart which shows the procedure of the process of the image recognition implemented with an endoscope image processing apparatus A flowchart showing a processing procedure from acquisition of an image signal to output to a display device
  • FIG. 1 is a block diagram showing an overall system configuration of an endoscope system including an endoscope apparatus and an endoscope image processing apparatus.
  • an endoscope system 1 includes an endoscope apparatus 10, an endoscope image processing apparatus 100 that performs image recognition on an endoscope image captured by the endoscope apparatus 10, Is provided.
  • the endoscope apparatus 10 and the endoscope image processing apparatus 100 are connected via a network 2 such as a LAN (Local Area Network).
  • a network 2 such as a LAN (Local Area Network).
  • FIG. 2 is a conceptual block diagram of the endoscope apparatus.
  • FIG. 3 is an external view as an example of the endoscope apparatus shown in FIG.
  • the endoscope apparatus 10 of the present embodiment is configured as an endoscope apparatus capable of performing narrow band light observation using narrow band light in addition to normal observation using white light.
  • the endoscope apparatus 10 includes an endoscope 11 and an endoscope control device 13 to which the endoscope 11 is connected.
  • the endoscope 11 is an electronic endoscope (soft endoscope), and is detachably connected to the endoscope control device 13 via a connection unit 27.
  • a display device 21 and an input device 23 are connected to the endoscope control device 13.
  • the display device 21 is composed of a liquid crystal monitor, for example.
  • the input device 23 is composed of, for example, a keyboard and a mouse.
  • the endoscope 11 is connected to an endoscope insertion unit 15 to be inserted into a subject, an operation unit 25 for performing various operations, and an endoscope control device 13.
  • a connection unit 27 is provided.
  • the endoscope insertion part 15 is composed of a flexible soft part 31, a bending part 33, and a distal end hard part 35 in order from the operation part 25 side.
  • the distal end hard portion 35 is provided with a pair of illumination windows 37A and 37B, an observation window 38, and the like on the distal end surface.
  • An image sensor 17 is provided inside the observation window 38 via a photographing optical system 39.
  • the image sensor 17 includes a color image sensor having a predetermined color filter array (for example, a Bayer array), and includes a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, and the like. .
  • the bending portion 33 is provided between the soft portion 31 and the distal end hard portion 35, and is bent according to the operation of the angle knob 41 provided in the operation portion 25. By operating the bending portion 33, the direction of the distal end hard portion 35, that is, the observation direction can be changed.
  • the operation unit 25 includes various operation members 43 such as a button for switching an observation mode (observation mode switching button) and a button for shooting a still image (shutter button). .
  • the connecting portion 27 is composed of a flexible cord, and has a light guide connector 19A and a video connector 19B for connecting to the endoscope control device 13 at the tip.
  • the endoscope control device 13 includes a light source device 47 that generates illumination light and a processor device 49 that processes an image signal from the image sensor 17.
  • the endoscope control device 13 is connected to the endoscope 11 via a light guide connector 19A and a video connector 19B. Connected. Further, the display device 21 and the input device 23 are connected to the processor device 49.
  • the processor device 49 processes an imaging signal transmitted from the endoscope 11 based on an instruction from the operation unit 25 and the input device 23 of the endoscope 11 and generates image data (endoscopic image data). And output to the display device 21.
  • the light source device 47 includes a first laser light source LD1 that is a semiconductor light emitting element having a central wavelength of 445 nm and a second laser light source LD2 that is a semiconductor light emitting element having a central wavelength of 405 nm as light sources. Light emission of the first laser light source LD1 and the second laser light source LD2 is individually controlled by the light source control unit 51.
  • the first laser light source LD1 and the second laser light source LD2 a broad area type InGaN laser diode can be used, and an InGaNAs laser diode, a GaNAs laser diode, or the like can also be used.
  • the structure using light-emitting bodies, such as a light emitting diode may be sufficient as the said light source.
  • Laser beams emitted from the first laser light source LD1 and the second laser light source LD2 are respectively input to optical fibers by a condensing lens (not shown), and a combiner 53 as a multiplexer and a coupler 55 as a demultiplexer. Then, the light is guided to the light guide connector 19A.
  • the laser beam obtained by combining the blue laser beam having the central wavelength of 445 nm and the purple laser beam having the central wavelength of 405 nm supplied to the light guide connector 19A is guided to the distal end hard portion 35 by the optical fibers 57A and 57B.
  • the blue laser light excites the phosphor 59 that is a wavelength conversion member disposed at the light emitting ends of the optical fibers 57A and 57B of the hard end portion 35 to generate fluorescence. Further, a part of the blue laser light passes through the phosphor 59 as it is and is emitted as white light illumination light together with the above-described fluorescence.
  • the violet laser light is transmitted without strongly exciting the phosphor 59 and is emitted as illumination light having a narrow band wavelength (narrow band light).
  • white light as used in the present specification is not limited to one that includes all the wavelength components of visible light, but is red (Red, R), green (Green, G), blue (Blue, B). It is only necessary to include light in a specific wavelength band. For example, light including a wavelength component from green to red, light including a wavelength component from blue to green, and the like are broadly included.
  • the phosphor 59 includes a plurality of types of phosphors (for example, phosphors including YAG phosphors or BAM (BaMgAl10O17)) that absorb green light from a part of blue laser light and emit light. Is done. As a result, green to yellow excitation light using blue laser light as excitation light and blue laser light that is transmitted without being absorbed by the phosphor 59 are combined into white (pseudo-white) illumination light.
  • types of phosphors for example, phosphors including YAG phosphors or BAM (BaMgAl10O17)
  • the light source controller 51 individually controls the emitted light amount of the blue laser light from the first laser light source LD1 and the emitted light amount of the violet laser light from the second laser light source LD2, and generates illumination light (white color) generated by the blue laser light.
  • Light) and illumination light (narrowband light) generated by violet laser light is set to a light amount ratio suitable for observation.
  • Illumination light set to a light amount ratio suitable for observation by the light source control unit 51 is emitted toward the observation region of the subject from a pair of illumination windows 37A and 37B provided in the distal end hard portion 35. Then, the region irradiated with the illumination light is imaged by the image sensor 17 from the observation window 38 via the photographing optical system 39.
  • An image signal output from the image sensor 17 is transmitted to an ADC (Analog-to-Digital Converter) 63 through a scope cable 61, converted into a digital signal by the ADC 63, and controlled by the endoscope of the processor device 49. Input to the unit 65.
  • ADC Analog-to-Digital Converter
  • the endoscope control unit 65 sends the input digital image signal to the image processing unit 67.
  • the image processing unit 67 performs necessary signal processing on the digital image signal, and generates image data (endoscopic image data) of an endoscopic image that is an observation image.
  • This image data is data having R, G, and B intensity values (luminance values) in pixel units.
  • the endoscope control unit 65 outputs the generated endoscope image data to the display device 21.
  • the endoscope control unit 65 stores the endoscope image data in the storage unit 69 as necessary. Further, the endoscope control unit 65 outputs endoscope image data to the endoscope image processing apparatus 100 as necessary.
  • the storage unit 69 is provided in the processor device 49.
  • the storage unit 69 may be connected to the processor device 49 via a network or connected to the network. It may be provided in a server or the like.
  • FIG. 4 is a diagram schematically showing blood vessels in the mucous membrane surface layer of a living tissue.
  • the mucosal surface layer of the living tissue is formed between the blood vessel B1 of the deep mucosa and the capillary blood vessel B2 such as a resinous vascular network to the mucosal surface layer, and the lesion of the living tissue is the capillary vessel B2 or the like. It has been reported to appear in the microstructure of Therefore, in endoscopic examinations, capillary blood vessels on the mucosal surface layer are image-enhanced and observed, and early detection of minute lesions, diagnosis of lesion areas, and the like have been attempted.
  • the incident light When illumination light is incident on a living tissue, the incident light propagates diffusively in the living tissue, but the absorption and scattering characteristics of the living tissue have wavelength dependence, and the shorter the wavelength, the stronger the scattering characteristics. Tend. That is, the depth of light changes depending on the wavelength of illumination light. For this reason, blood vessel information from capillary blood vessels on the surface of the mucosa is obtained when the illumination light is in the wavelength region ⁇ a near 400 nm, and blood vessel information including deeper blood vessels is obtained in the wavelength region ⁇ b near the wavelength of 500 nm. . For this reason, a light source having a central wavelength of 360 to 800 nm, preferably 365 to 515 nm, is used for blood vessel observation of a living tissue.
  • a central wavelength of 360 to 470 nm, preferably 400 to 420 nm is used for observation of a surface blood vessel.
  • the light source is used.
  • the fine pattern on the mucosal surface of the living tissue can be highlighted in the same wavelength range as in the case of capillaries.
  • FIG. 5 is a diagram showing a display example of an observation image when narrowband light is used as illumination light. As shown in the figure, when narrow-band light containing many visible short wavelength components is used as illumination light, an image in which fine capillaries on the surface of the mucosa and fine patterns on the surface of the mucosa are clearly projected can be obtained.
  • FIG. 6 is a diagram showing a display example of an observation image when white light is used as illumination light. As shown in the figure, when white light is used as illumination light, an entire image of the affected area where a blood vessel image of a relatively deep mucosa is projected is obtained.
  • the fine blood vessels on the surface of the mucous membrane of the living tissue and the fine pattern on the mucosal surface are emphasized, so that the image of the affected area and the observation position can be easily identified, that is, the affected area
  • the observation image is easy to perform endoscopic diagnosis.
  • the emitted light amounts of white light (blue laser light and phosphor light emission) and narrow band light (purple laser light) emitted from the distal end hard portion 35 are independently set. Controllable so that reflected light from both illumination lights is included in one frame of the captured image.
  • the image quality of the display image particularly the color tone, varies according to the operator.
  • the color tone of the endoscope image data is corrected and output to the display device 21 as necessary.
  • Color correction is performed by the image processing unit 67 based on an instruction from the input device 23 under the control of the endoscope control unit 65.
  • the endoscope apparatus 10 according to the present embodiment is implemented as follows.
  • the endoscope control unit 65 sets a correction matrix for performing matrix correction on R, G, and B intensity values (luminance values) based on the color tone adjustment value input from the input device 23.
  • the image processing unit 67 performs matrix correction on the endoscope image data based on the set correction matrix, and corrects the color tone.
  • the B intensity values are R1, G1, and B1
  • the R, G, and B intensity values R1, G1, and B1 of the pixels of the endoscope image data after the color tone correction are expressed by the following equation (1).
  • the coefficient aij of the correction matrix A is set based on the color tone adjustment value.
  • the endoscope control unit 65 acquires information on color tone adjustment values via the input device 23 and sets the correction matrix A.
  • the image processing unit 67 performs matrix correction on the R, G, and B intensity values of each pixel of the endoscope image data using the set correction matrix A, and corrects the color tone of the endoscope image data. Then, the corrected endoscopic image data is output to the display device 21.
  • FIG. 7 is a flowchart showing a processing procedure from acquisition of an image signal to output to a display device.
  • An image signal (digital image signal) output from the endoscope 11 is acquired (step S1), and image data (endoscopic image data) of an endoscopic image is generated from the acquired image signal (step S2). ). Then, color correction based on the adjustment value is performed on the generated endoscopic image data (step S3), and the endoscopic image data after the color correction is output to the display device 21 (step S4).
  • an endoscopic image can be displayed on the display device 21 with a color tone according to the operator's preference.
  • the endoscopic image is stored in the storage unit 69
  • the endoscope image data after the color tone correction is stored in the storage unit 69.
  • endoscopic image data after color tone correction is output to the endoscopic image processing apparatus 100.
  • Endoscopic image processing device The endoscopic image processing apparatus 100 acquires endoscopic image data from the endoscopic apparatus 10, detects a lesion included in the image by image recognition, classifies the detected lesion for each type, and notifies the classification. I do.
  • CNN convolutional neural network
  • the lesion is classified into a plurality of categories according to, for example, NICE classification or JNET classification.
  • NICE is an abbreviation for NBI International Colorectal Endoscopic.
  • JNET is an abbreviation for "the Japan Japan NBI Expert Expert Team”.
  • NBI registered trademark
  • Narrow band imaging registered trademark
  • NICE classification is classification based on non-enlarging NBI, and is classified into Type1, Type2, and Type3 for each of the three items of lesion color (Color), microvessel pattern (Vessels), and surface pattern (Surface pattern).
  • the Type 1 is a hyperplastic lesion
  • Type 2 is an adenoma to intramucosal cancer
  • Type 3 is a diagnostic index of SM (submucosa) deep invasive cancer.
  • the JNET classification is a classification of NBI magnifying endoscopic findings for colorectal tumors.
  • the JNET classification is classified into Type1, Type2A, Type2B, and Type3 for each item of “vessel pattern” and “surface pattern”.
  • the image recognition process is performed by recognizing two classifications of “cancerous” or “noncancerous” instead of or in combination with detailed classification such as NICE classification. Also good.
  • FIG. 8 is a block diagram showing a hardware configuration of the endoscope image processing apparatus.
  • the endoscopic image processing apparatus 100 is configured by a computer such as a personal computer or a workstation.
  • the computer includes a CPU (Central Processing Unit) 102, a RAM (Random Access Memory) 104, a ROM (read-only memory) 106, a communication interface (interface, I / F) 108, and an input / output interface 110. It is connected to the network 2 via the interface 108. Further, the storage device 112, the input device 114, and the display device 116 are connected via the input / output interface 110.
  • the storage device 112 is constituted by a storage device such as a hard disk drive (Hard Disk Drive, HDD), for example.
  • the input device 114 includes input devices such as a keyboard and a mouse.
  • the display device 116 is configured by a display device such as a liquid crystal monitor.
  • FIG. 9 is a block diagram showing functions of the endoscope image processing apparatus.
  • the endoscopic image processing apparatus 100 executes a predetermined control program (endoscopic image processing program), whereby an endoscopic image acquisition unit 120, an image conversion processing unit 122, and an image recognition unit. Functions as the unit 124 and the display control unit 126.
  • the program is stored in the ROM 106 or the storage device 112.
  • the endoscopic image acquisition unit 120 acquires endoscopic image data from the endoscopic device 10.
  • Endoscopic image data may be either moving image or still image data.
  • the image conversion processing unit 122 performs processing for converting the endoscopic image acquired by the endoscopic image acquiring unit 120 into an image having a standard image quality.
  • “reference image quality” refers to the image quality before the color tone correction performed by the endoscope apparatus 10 is performed.
  • the tone correction of the output image is performed as necessary.
  • a model (learned model) learned by machine learning is used for image recognition.
  • the bias in image quality is also learned.
  • the accuracy decreases when an image having an image quality that deviates from the bias in the image quality of the learned image group is recognized.
  • the learned image group deviates from the bias in image quality, and the accuracy is lowered when the image is recognized.
  • image processing is performed on the endoscope image data acquired from the endoscope apparatus 10, and the image quality is converted to the image quality before color tone correction.
  • the acquired endoscopic image data is subjected to matrix correction using a correction matrix B that is an inverse matrix A ⁇ 1 of the correction matrix A when color tone correction is performed, and converted to image data of reference image quality. .
  • R, G, B intensity values of each pixel of the acquired endoscopic image data are R1, G1, B1
  • correction matrix is B
  • R, G, B of each pixel of the converted endoscopic image data Are R2, G2, and B2
  • the R, G, and B intensity values R2, G2, and B2 of each pixel of the converted endoscopic image data are expressed by the following equation (2).
  • the image conversion processing unit 122 acquires information on the correction matrix A at the time of color tone correction from the endoscope apparatus 10 and sets a correction matrix B that is an inverse matrix thereof. Then, using the set correction matrix B, the R, G, and B intensity values of each pixel of the acquired endoscopic image data are subjected to matrix correction to convert the image quality. That is, the image quality is converted to the image quality before color correction.
  • the image recognition unit 124 performs image recognition processing on the endoscopic image that has been converted into the image of the standard image quality by the image conversion processing unit 122.
  • a lesion region of interest
  • the image recognition unit 124 is configured using a learned model learned by machine learning. This model is composed of, for example, a convolutional neural network (CNN).
  • CNN convolutional neural network
  • the display control unit 126 acquires the recognition result by the image recognition unit 124 and causes the display device 116 to display the recognition result in a predetermined display mode.
  • FIG. 10 is a diagram showing an example of the recognition result display.
  • the recognition result is displayed over the recognized endoscope image.
  • the recognition result is displayed, for example, in a form that surrounds the detected lesion area with a frame. Further, the classification result of the lesion is displayed in the vicinity of the frame.
  • FIG. 11 is a flowchart showing a procedure of image recognition processing performed by the endoscope image processing apparatus.
  • endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S11).
  • step S12 processing for converting the image quality of the recognition target to the standard image quality is performed based on the color tone adjustment value (step S12).
  • This process is performed by the image conversion processing unit 122.
  • the image conversion processing unit 122 converts the image quality of the acquired endoscope image data by performing matrix correction.
  • the correction matrix B used at this time is obtained from the correction matrix A for color tone correction when the endoscope image data to be recognized is generated. That is, it is obtained as an inverse matrix of the correction matrix A.
  • the image recognition unit 124 performs image recognition on the endoscopic image that has been converted to the reference image quality (step S13), and the recognition result is output to the display device 21 (step S14).
  • the image quality of the endoscopic image to be recognized is converted to the reference image quality, and the converted endoscope Image recognition is performed on the image.
  • image recognition can be performed accurately. That is, it is possible to recognize an image without considering a difference in image quality.
  • An endoscope apparatus may automatically correct image quality. For example, a change in image quality due to a change in the amount of illumination light may be automatically corrected.
  • the image quality is converted to a reference image quality based on the correction information, and the image is converted to the converted endoscopic image. Recognize.
  • the amount of illumination light that is, the emission of the first laser light source LD1 and the second laser light source LD2, according to the imaging distance (distance from the imaging surface of the image sensor to the subject).
  • the amount of light is controlled automatically.
  • the endoscope control unit 65 controls the amount of light emitted from the first laser light source LD1 and the amount of light emitted from the second laser light source LD2 so as to obtain an optimum light amount ratio according to the photographing distance.
  • the shooting distance information is acquired using, for example, autofocus information.
  • the light quantity ratio is set by, for example, preparing a table representing the relationship between the shooting distance and the optimum light quantity ratio in advance and referring to this table.
  • the endoscope control unit 65 refers to the table and changes the amount of light emitted from the second laser light source LD2 to the amount of light emitted from the first laser light source LD1 so as to emphasize the capillaries and the like on the mucous membrane surface layer as the imaging distance is shorter. Set relatively larger than. Moreover, in order to ensure the brightness of a distant view as the shooting distance increases, the amount of light emitted from the first laser light source LD1 is relatively larger than the amount of light emitted from the second laser light source LD2 so that the illumination light has high illuminance. Set larger.
  • the emitted light from the first laser light source LD1 is finally irradiated to the subject as white light
  • the emitted light from the second laser light source LD2 is irradiated to the subject as narrowband light.
  • the color of illumination light will change.
  • the illumination light becomes bluish.
  • the color tone of the endoscopic image that is the observation image changes according to the light amount ratio.
  • the color tone correction of the endoscope image is performed in accordance with the color of the illumination light that changes depending on the set light amount ratio so that the endoscope image is not affected by the color change of the illumination light.
  • the endoscope control unit 65 corrects the endoscope image data based on the set light amount ratio information so that there is no change in the color tone of the image.
  • the correction is performed, for example, by preparing a color tone correction table for each light quantity ratio in advance and referring to this color tone correction table.
  • the color tone correction table can be represented, for example, as a correction matrix for performing matrix correction on R, G, and B intensity values for each pixel of an endoscopic image.
  • the R, G, B intensity values of each pixel of the endoscope image data obtained by photographing are R3, G3, B3, the correction matrix is C, the R, G of each pixel of the endoscope image data after color tone correction.
  • B intensity values R4, G4, and B4 the R, G, and B intensity values R4, G4, and B4 of the pixels of the endoscopic image data after color correction are expressed by the following equation (3). .
  • the coefficient cij of the correction matrix C is set so as to cancel the color change of the illumination light due to the change in the light amount ratio, and a plurality of types of correction matrices C corresponding to the plurality of types of light amount ratios are facilitated in advance.
  • the image processing unit 67 performs matrix correction on the R, G, and B intensity values of each pixel of the endoscopic image data using the set correction matrix C, and corrects the color tone of the endoscopic image data. Then, the corrected endoscopic image data is output to the display device 21.
  • FIG. 12 is a flowchart showing a processing procedure from acquisition of an image signal to output to a display device.
  • the image signal output from the endoscope 11 is acquired (step S21), and image data (endoscopic image data) of the endoscopic image is generated from the acquired image signal (step S22). Then, the generated endoscopic image data is subjected to color tone correction based on a change in light amount (step S23), and the endoscopic image data after the color tone correction is output to the display device 21 (step S24).
  • endoscopic image data after color correction is output to the endoscopic image processing apparatus 100.
  • the endoscopic image processing apparatus 100 converts the image quality to the reference image quality based on the correction information, and after the conversion Image recognition is performed on the endoscopic image.
  • FIG. 13 is a flowchart showing a procedure of image recognition processing performed by the endoscope image processing apparatus.
  • endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S31).
  • processing for converting the image quality of the recognition target to the reference image quality is performed based on the correction information of the color tone correction based on the change in the light amount (step S32).
  • the image conversion processing unit 122 converts the image quality of the acquired endoscope image data by performing matrix correction.
  • the correction matrix used at this time is obtained from the correction matrix C when the endoscopic image data to be recognized is color-tone corrected based on the change in the light amount. That is, it is obtained as an inverse matrix C ⁇ 1 of the correction matrix C.
  • the image recognition unit 124 performs image recognition on the endoscopic image after conversion to the reference image quality (step S33), and the recognition result is output to the display device 21 (step S34).
  • the image can be recognized with high accuracy. That is, it is possible to recognize an image without considering a difference in image quality.
  • FIG. 14 is a flowchart illustrating a processing procedure from acquisition of an image signal to output to a display device.
  • the image signal output from the endoscope 11 is acquired (step S41), and image data of the endoscopic image (endoscopic image data) is generated from the acquired image signal (step S42).
  • image data of the endoscopic image is generated from the acquired image signal (step S42).
  • color correction based on a change in the amount of light is performed on the generated endoscopic image data (step S43).
  • color tone correction is performed (step S44).
  • the endoscopic image data after color tone correction is output to the display device 21 (step S45).
  • endoscopic image data after color correction is output to the endoscopic image processing apparatus 100.
  • FIG. 15 is a flowchart illustrating a procedure of image recognition processing performed by the endoscope image processing apparatus.
  • endoscope image data is acquired from the endoscope apparatus 10 by the endoscope image acquisition unit 120 (step S51).
  • processing for converting the image quality of the recognition target is performed based on the correction information of the color tone correction based on the change in the light amount (step S52).
  • processing for converting the image quality of the recognition target is performed based on the correction information of the color correction based on the color tone adjustment value (step S53).
  • the image recognition unit 124 performs image recognition on the endoscopic image that has been converted to the reference image quality (step S54). Then, the recognition result is output to the display device 21 (step S55).
  • the image is converted into a standard image quality by performing conversion processing corresponding to each image quality correction. Then, the image can be recognized with high accuracy by converting the image into the image of the standard image quality and recognizing the image.
  • the image is converted into a reference image by performing an inverse conversion process according to the content of the image quality correction.
  • the image quality correction method is not limited to this.
  • the image quality may be corrected by performing image processing using an image processing parameter that adjusts a change in the image quality due to a preset amount of light.
  • the color tone may be corrected by performing image processing with an image processing parameter for adjusting the color tone.
  • the endoscopic image processing apparatus performs image recognition by converting the image quality of the endoscopic image to be recognized into the reference image quality.
  • the process of converting to the reference image quality is performed based on the content of the image quality correction performed on the endoscopic image to be recognized. That is, based on the content of the image quality correction, the image is converted into an image of the standard image quality by performing an inverse conversion process. At this time, for example, by acquiring information on the adjustment value of the image quality set in the endoscope apparatus, it can be easily converted into an image of the reference image quality.
  • an endoscopic device adjustment of image quality such as color tone is usually performed when displaying an endoscopic image, which is an observation image, on a display device. Therefore, when outputting an endoscopic image to a display device, it is preferable to perform processing of acquiring information on an adjustment value of image quality set in the endoscopic device and converting it to an image of reference image quality.
  • an endoscope apparatus when an endoscopic image is stored as a still image, image quality adjustment for the still image may be performed. In this way, when performing still image quality adjustment, when recognizing a still image of an endoscopic image, information on the adjustment value of the still image quality set in the endoscope apparatus is acquired. Thus, it is preferable to perform a process of converting the image into a standard image quality.
  • the content of the image quality correction differs depending on the endoscopic device in which the endoscopic image is taken. Therefore, the endoscopic image is processed with the numerical value set for each endoscopic device, and the endoscopic image It is preferable to perform a process of converting the image into a standard image quality.
  • the adjustment value varies depending on the operator, so it is preferable to perform image conversion processing according to the setting for each operator and convert the image into a reference image quality.
  • the image recognition unit is configured by a convolutional neural network learned by machine learning.
  • the configuration of the image recognition unit is not limited to this.
  • the image recognition unit can be configured by a learned model generated by machine learning using a known method.
  • the “reference image quality” can also be referred to as the image quality of the learning image group when the image recognition unit is generated.
  • the “process for converting to the reference image quality” can also be referred to as a process for converting to the image quality of the learning image group when the image recognition unit is generated.
  • the endoscope image to be recognized is directly acquired from the endoscope apparatus, but the acquisition destination of the endoscope image is not limited to this.
  • an endoscopic image stored in another storage device connected via a network, an endoscopic image recorded in a server, or the like may be acquired as an endoscopic image to be recognized.
  • the endoscopic image to be recognized may be either a moving image or a still image.
  • the moving image is configured as a time-series image including a plurality of frames.
  • ⁇ ⁇ Hardware configuration of endoscopic image processing apparatus can be realized by various processors.
  • Various processors are processors whose circuit configuration can be changed after manufacturing, such as a CPU (Central Processing Unit) and a FPGA (Field Programmable Gate Array), which are general-purpose processors that execute programs and function as various processing units. Examples include a dedicated electric circuit that is a processor having a circuit configuration specifically designed to execute a specific process such as a programmable logic device (PLD) or an application specific integrated circuit (ASIC).
  • PLD programmable logic device
  • ASIC application specific integrated circuit
  • One processing unit may be configured by one of these various processors, or may be configured by two or more processors of the same type or different types.
  • one processing unit may be configured by a plurality of FPGAs or a combination of a CPU and an FPGA.
  • the plurality of processing units may be configured by one processor.
  • configuring a plurality of processing units with one processor first, as represented by a computer such as a client or a server, one processor is configured with a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units.
  • SoC system-on-chip
  • a form of using a processor that realizes the functions of the entire system including a plurality of processing units with a single IC (integrated circuit) chip. is there.
  • various processing units are configured using one or more of the various processors as a hardware structure.
  • the hardware structure of these various processors is more specifically an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the function of the endoscope image processing device can be mounted on a processor device constituting the endoscope device.
  • Endoscope The electronic endoscope is not limited to a flexible endoscope but may be a rigid endoscope. Further, it may be a capsule endoscope.
  • the “specific wavelength band” is a band narrower than the white wavelength band. A specific example regarding a specific wavelength band is shown below.
  • the first example of the specific wavelength band is, for example, a visible blue band or a green band.
  • the wavelength band of the first example includes a wavelength band of 390 nm to 450 nm or a wavelength band of 530 nm to 550 nm, and the light of the first example is within a wavelength band of 390 nm to 450 nm or 530 nm to 550 nm. It has a peak wavelength in the wavelength band.
  • the second example of the specific wavelength band is, for example, a red band in the visible range.
  • the wavelength band of the second example includes a wavelength band of 585 nm to 615 nm or a wavelength band of 610 nm to 730 nm, and the light of the second example is within a wavelength band of 585 nm to 615 nm or 610 nm to 730 nm. It has a peak wavelength in the wavelength band.
  • the third example of the specific wavelength band includes a wavelength band in which the absorption coefficient differs between oxyhemoglobin and reduced hemoglobin, and the light in the third example peaks in a wavelength band in which the absorption coefficient differs between oxyhemoglobin and reduced hemoglobin. Has a wavelength.
  • the wavelength band of the third example includes a wavelength band of 400 ⁇ 10 nm, a wavelength band of 440 ⁇ 10 nm, a wavelength band of 470 ⁇ 10 nm, or a wavelength band of 600 nm to 750 nm, and the light of the third example includes the above 400 ⁇ It has a peak wavelength in a wavelength band of 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm.
  • the fourth example of the specific wavelength band is used for observation of fluorescence emitted from the fluorescent substance in the living body (fluorescence observation), and is a wavelength band of excitation light that excites the fluorescent substance, for example, 390 nm to 470 nm.
  • the fifth example of the specific wavelength band is a wavelength band of infrared light.
  • the wavelength band of the fifth example includes a wavelength band of 790 nm to 820 nm or a wavelength band of 905 nm to 970 nm, and the light of the fifth example is within a wavelength band of 790 nm to 820 nm or 905 nm to 970 nm. It has a peak wavelength in the wavelength band.
  • ⁇ Switching illumination light> As the type of the light source, a laser light source, a xenon light source, an LED light source (LED: Light-Emitting Diode), or an appropriate combination thereof can be adopted.
  • the type of light source, wavelength, filter presence / absence, etc. are preferably configured according to the type of subject, the purpose of observation, etc., and during observation, the wavelength of the illumination light according to the type of subject, the purpose of observation, etc. Are preferably combined and / or switched.
  • switching the wavelength for example, by rotating a disk-shaped filter (rotary color filter) provided in front of the light source and provided with a filter that transmits or blocks light of a specific wavelength, the wavelength of light to be irradiated is changed. You may switch.
  • the image sensor used for the endoscope is not limited to a color image sensor in which a color filter is provided for each pixel, and may be a monochrome image sensor.
  • a monochrome image sensor it is possible to pick up an image in a surface sequence (color sequence) by sequentially switching the wavelength of illumination light.
  • the wavelength of the emitted illumination light may be sequentially switched between purple, blue, green, and red, or illumination light emitted by a rotary color filter (red, green, blue, etc.) by irradiating white light
  • the wavelength may be switched.
  • the narrowband light may be infrared light having two or more wavelengths different from each other.
  • the processor device 49 may generate a special light image having information on a specific wavelength band based on a normal light image obtained by imaging using white light.
  • the processor device 49 converts a signal in a specific wavelength band into red (R), green (G) and blue (B), cyan (Cyan, C), magenta (Magenta, M), and normal light image. It can be obtained by performing calculations based on yellow (Yellow, Y) color information.
  • a program that causes a computer to realize the functions of the endoscope image processing apparatus described in the above embodiment is recorded on a computer-readable medium that is a non-transitory information storage medium such as an optical disk, a magnetic disk, or a semiconductor memory.
  • the program can be provided through this information storage medium.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)

Abstract

画質の差異を考慮せずに画像認識できる内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラムを提供する。内視鏡装置(10)で撮影された内視鏡画像に対して画像認識を行う内視鏡画像処理装置(100)は、内視鏡画像を取得する内視鏡画像取得部(120)と、内視鏡画像を基準画質の画像に変換する処理を行う画像変換処理部(122)と、基準画質に変換された画像に対して画像認識を行う画像認識部(124)と、認識結果を表示装置(114)に出力する出力制御部(126)と、を備える。画像変換処理部(122)は、内視鏡装置で設定されている画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う。これにより、内視鏡装置で設定された画質の差異を考慮せずに画像認識できる。

Description

内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム
 本発明は、内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラムに係り、特に、内視鏡画像に対して画像認識を行う内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラムに関する。
 内視鏡装置で撮影された内視鏡画像から画像認識によって病変部を検出したり、病変を種別ごとに分類したりする技術が知られている(たとえば、特許文献1、2等)。
 画像認識には、深層学習(Deep Learning)をはじめとする画像の機械学習(非特許文献1)が広く使用されている。機械学習では、問題に応じた画像を大量に学習させることで分類、検出といった画像認識が可能となる。
特開2000-155840号公報 国際公開第2017/175282号
A. Krizhevsky、 I. Sutskever、 and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS、 2012
 機械学習では、学習用の画像群に画質の偏りがあると、画質の偏りも学習してしまう。このため、学習した画像群の画質の偏りから外れた画質の画像を画像認識させた場合に精度が低下するという問題がある。内視鏡装置による検査では、一般に術者の好みに応じた画質で撮影及び検査が行われるため、撮影した画像の画質が、学習した画像群の画質と異なると、画像認識の精度が低下するという問題がある。その一方ですべての画質について学習することも困難である。
 本発明は、このような事情に鑑みてなされたもので、画質の差異を考慮せずに画像認識できる内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラムを提供することを目的とする。
 上記課題を解決するための手段は、次のとおりである。
 (1)内視鏡装置で撮影された内視鏡画像を取得する内視鏡画像取得部と、内視鏡画像を基準画質の画像に変換する処理を行う画像変換処理部と、基準画質に変換された画像に対して画像認識を行う画像認識部と、を備えた内視鏡画像処理装置。
 本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。
 (2)画像変換処理部は、内視鏡装置で設定されている画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡装置で設定されている画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。これにより、内視鏡装置で設定された画質の差異を考慮せずに画像認識できる。
 (3)画像変換処理部は、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。内視鏡画像を表示装置に出力する場合、術者の好みに応じて画質が調整される場合がある。本態様によれば、画質が調整された場合であっても、精度よく画像認識できる。
 (4)画像変換処理部は、内視鏡画像を静止画として保存する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡画像を静止画として保存する場合に内視鏡装置で設定される画質の調整値に基づいて、内視鏡画像が基準画質の画像に変換される。内視鏡画像を静止画として保存する場合、画質を調整して保存する場合がある。本態様によれば、画質が調整された場合であっても、精度よく画像認識できる。
 (5)画像変換処理部は、内視鏡装置で設定されている色調の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡装置で色調の調整が行われる場合、その調整値に基づいて、内視鏡画像が基準画質の画像に変換される。
 (6)画像変換処理部は、内視鏡装置で設定されている光量による画質変化の調整値に基づいて、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡装置で光量による画質変化の調整が行われる場合、その調整値に基づいて、内視鏡画像が基準画質の画像に変換される。
 (7)画像変換処理部は、内視鏡画像が撮影された内視鏡装置ごとに設定された数値で内視鏡画像を処理して、内視鏡画像を基準画質の画像に変換する処理を行う、上記(1)の内視鏡画像処理装置。
 本態様によれば、内視鏡装置ごとに設定された数値で内視鏡画像が処理されて、内視鏡画像が基準画質の画像に変換される。これにより、異なる内視鏡装置で撮影された内視鏡画像に対して画像認識する場合であっても、画質の差異を考慮せずに画像認識できる。
 (8)画像認識部は、基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される、上記(1)から(7)のいずれか一の内視鏡画像処理装置。
 本態様によれば、画像認識部が、基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される。
 (9)画像認識部が行う画像認識には、注目領域を検出する処理、及び/又は、認識対象を分類する処理が含まれる、上記(1)から(7)のいずれか一の内視鏡画像処理装置。
 本態様によれば、画像認識により、病変等の注目領域を検出する処理、及び/又は、病変等の認識対象を分類する処理が行われる。
 (10)内視鏡装置で撮影された内視鏡画像を取得するステップと、内視鏡画像を基準画質の画像に変換する処理を行うステップと、基準画質に変換された画像に対して画像認識を行うステップと、を含む内視鏡画像処理方法。
 本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。
 (11)内視鏡装置で撮影された内視鏡画像を取得する機能と、内視鏡画像を基準画質の画像に変換する処理を行う機能と、基準画質に変換された画像に対して画像認識を行う機能と、をコンピュータに実現させる内視鏡画像処理プログラム。
 本態様によれば、取得された内視鏡画像が、基準画質の画像に変換されて、画像認識が行われる。これにより、撮影された内視鏡画像の画質の差異を考慮せずに画像認識できる。
 本発明によれば、画質の差異を考慮せずに画像認識できる。
内視鏡装置及び内視鏡画像処理装置を含む内視鏡システムの全体のシステム構成を示すブロック図 内視鏡装置の概念的なブロック構成図 図2に示す内視鏡装置の一例としての外観図 生体組織の粘膜表層の血管を模式的に表した図 狭帯域光を照明光として使用した場合の観察画像の表示例を示す図 白色光を照明光として使用した場合の観察画像の表示例を示す図 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャート 内視鏡画像処理装置のハードウェア構成を示すブロック図 内視鏡画像処理装置の機能を示すブロック図 認識結果の表示の一例を示す図 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャート 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャート 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャート 画像信号の取得から表示装置への出力までの処理の手順を示すフローチャート 内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャート
 以下、添付図面に従って本発明の好ましい実施形態について詳説する。
 ◆◆第1の実施の形態◆◆
 図1は、内視鏡装置及び内視鏡画像処理装置を含む内視鏡システムの全体のシステム構成を示すブロック図である。
 同図に示すように、内視鏡システム1は、内視鏡装置10と、内視鏡装置10で撮影された内視鏡画像に対して画像認識を行う内視鏡画像処理装置100と、を備える。内視鏡装置10及び内視鏡画像処理装置100は、LAN(Local Area Network)等のネットワーク2を介して接続される。
 《内視鏡装置》
 図2は、内視鏡装置の概念的なブロック構成図である。図3は、図2に示す内視鏡装置の一例としての外観図である。
 本実施の形態の内視鏡装置10は、白色光を用いた通常観察に加えて、狭帯域光を用いた狭帯域光観察が可能な内視鏡装置として構成される。
 図2及び図3に示すように、内視鏡装置10は、内視鏡11及び内視鏡11が接続される内視鏡制御装置13を備える。内視鏡11は、電子内視鏡(軟性内視鏡)であり、接続部27を介して、内視鏡制御装置13に着脱自在に接続される。内視鏡制御装置13には、表示装置21及び入力装置23が接続される。表示装置21は、たとえば、液晶モニタで構成される。入力装置23は、たとえば、キーボード、マウス等で構成される。
 内視鏡11は、図3に示すように、被検体内に挿入される内視鏡挿入部15、各種操作を行うための操作部25、及び、内視鏡制御装置13に接続するための接続部27を備える。
 内視鏡挿入部15は、操作部25の側から順に、可撓性を有する軟性部31、湾曲部33及び先端硬質部35で構成される。
 先端硬質部35には、その先端面に、一対の照明窓37A、37B及び観察窓38等が備えられる。観察窓38の内側には、撮影光学系39を介してイメージセンサ17が備えられる。イメージセンサ17は、所定のカラーフィルタ配列(たとえば、ベイヤ配列等)を有するカラーイメージセンサで構成され、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等で構成される。
 湾曲部33は、軟性部31及び先端硬質部35との間に設けられ、操作部25に備えられたアングルノブ41の操作に応じて湾曲する。この湾曲部33の操作によって、先端硬質部35の向き、すなわち、観察方向を変えることができる。
 操作部25には、上記のアングルノブ41の他、観察モードを切り替えるためのボタン(観察モード切替ボタン)、静止画を撮影するためのボタン(シャッターボタン)等の各種の操作部材43が備えられる。
 接続部27は、可撓性を有するコードで構成され、内視鏡制御装置13に接続するためのライトガイドコネクタ19A及びビデオコネクタ19Bを先端に有する。
 内視鏡制御装置13は、照明光を発生する光源装置47、イメージセンサ17からの画像信号を処理するプロセッサ装置49を備え、ライトガイドコネクタ19A及びビデオコネクタ19Bを介して、内視鏡11と接続される。また、プロセッサ装置49には、上記の表示装置21及び入力装置23が接続される。
 プロセッサ装置49は、内視鏡11の操作部25及び入力装置23からの指示に基づいて、内視鏡11から伝送されてくる撮像信号を処理し、画像データ(内視鏡画像データ)を生成して表示装置21に出力する。
 光源装置47は、中心波長445nmの半導体発光素子である第1レーザ光源LD1、及び、中心波長405nmの半導体発光素子である第2レーザ光源LD2を発光源として備える。第1レーザ光源LD1及び第2レーザ光源LD2の発光は、光源制御部51により個別に制御される。
 第1レーザ光源LD1及び第2レーザ光源LD2は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオード、GaNAs系レーザダイオード等を用いることもできる。また、上記光源として、発光ダイオード等の発光体を用いた構成であってもよい。
 第1レーザ光源LD1及び第2レーザ光源LD2から出射されるレーザ光は、集光レンズ(不図示)により、それぞれ光ファイバに入力され、合波器であるコンバイナ53及び分波器であるカプラ55を介して、ライトガイドコネクタ19Aに導光される。
 ライトガイドコネクタ19Aに供給された中心波長445nmの青色レーザ光、及び、中心波長405nmの紫色レーザ光が合波されたレーザ光は、光ファイバ57A、57Bによって、それぞれ先端硬質部35まで導光される。そして、青色レーザ光は、先端硬質部35の光ファイバ57A、57Bの光出射端に配置された波長変換部材である蛍光体59を励起して蛍光を生じさせる。また、一部の青色レーザ光は、そのまま蛍光体59を透過し、上記の蛍光と共に白色光の照明光として出射される。一方、紫色レーザ光は、蛍光体59を強く励起させることなく透過し、狭帯域波長の照明光(狭帯域光)として出射される。
 なお、本明細書でいう「白色光」とは、厳密に可視光の全ての波長成分を含むものに限らず、赤(Red,R)、緑(Green,G)、青(Blue,B)等、特定の波長帯の光を含むものであればよく、たとえば、緑色から赤色にかけての波長成分を含む光、青色から緑色にかけての波長成分を含む光等も広義に含むものとする。
 蛍光体59は、青色レーザ光の一部を吸収して緑色~黄色に励起発光する複数種の蛍光体(たとえば、YAG系蛍光体又はBAM(BaMgAl10O17)等を含む蛍光体等)を含んで構成される。これにより、青色レーザ光を励起光とする緑色~黄色の励起光と、蛍光体59により吸収されず透過した青色レーザ光とが合成されて、白色(疑似白色)の照明光となる。
 光源制御部51は、第1レーザ光源LD1からの青色レーザ光の出射光量及び第2レーザ光源LD2からの紫色レーザ光の出射光量を個別に制御し、青色レーザ光により生成される照明光(白色光)及び紫色レーザ光により生成される照明光(狭帯域光)を観察に適した光量比に設定する。
 光源制御部51によって観察に適した光量比に設定された照明光は、先端硬質部35に備えられた一対の照明窓37A、37Bから被検体の観察領域に向けて照射される。そして、この照明光が照射された領域が、観察窓38から撮影光学系39を介してイメージセンサ17に撮像される。
 イメージセンサ17から出力される画像信号は、スコープケーブル61を通じてADC(Analog to Digital Converter;アナログ-デジタル変換器)63に伝送され、ADC63でデジタル信号に変換されて、プロセッサ装置49の内視鏡制御部65に入力される。
 内視鏡制御部65は、入力されたデジタル画像信号を画像処理部67に送る。画像処理部67は、デジタル画像信号に所要の信号処理を施して、観察画像である内視鏡画像の画像データ(内視鏡画像データ)を生成する。この画像データは、画素単位でR、G及びBの各強度値(輝度値)を有するデータである。
 内視鏡制御部65は、生成された内視鏡画像データを表示装置21に出力する。また、内視鏡制御部65は、必要に応じて、内視鏡画像データを記憶部69に記憶させる。また、内視鏡制御部65は、必要に応じて、内視鏡画像データを内視鏡画像処理装置100に出力する。
 なお、本実施の形態では、記憶部69がプロセッサ装置49に備えられているが、記憶部69は、プロセッサ装置49にネットワークを介して接続されていてもよいし、また、ネットワークに接続されたサーバ等に備えられていてもよい。
 図4は、生体組織の粘膜表層の血管を模式的に表した図である。同図に示すように、生体組織の粘膜表層は、粘膜深層の血管B1から樹脂状血管網等の毛細血管B2が粘膜表層までの間に形成され、生体組織の病変は、その毛細血管B2等の微細構造に現れることが報告されている。そこで、内視鏡診察においては、粘膜表層の毛細血管を画像強調して観察し、微小病変の早期発見及び病変範囲の診断等が試みられている。
 生体組織に照明光が入射されると、入射光は生体組織内を拡散的に伝播するが、生体組織の吸収及び散乱特性は波長依存性を有しており、短波長ほど散乱特性が強くなる傾向がある。つまり、照明光の波長によって光の深達度が変化する。このため、照明光が400nm付近の波長域λaでは、粘膜表層の毛細血管からの血管情報が得られ、波長500nm付近の波長域λbでは、更に深層の血管を含む血管情報が得られるようになる。このため、生体組織の血管観察には、中心波長360~800nm、好ましくは、365~515nmの光源が用いられ、特に、表層血管の観察には、中心波長360~470nm、好ましくは、400~420nmの光源が用いられる。また、生体組織の粘膜表面の微細模様についても、上記波長範囲において、毛細血管と同様に強調表示できる。
 図5は、狭帯域光を照明光として使用した場合の観察画像の表示例を示す図である。同図に示すように、可視短波長成分を多く含む狭帯域光を照明光とした場合は、粘膜表層の微細な毛細血管や粘膜表面の微細模様が鮮明に映出された画像が得られる。
 図6は、白色光を照明光として使用した場合の観察画像の表示例を示す図である。同図に示すように、白色光を照明光とした場合は、比較的粘膜深層の血管像が映出された患部の全体像が得られる。
 つまり、白色光と狭帯域光とを同時に照射した観察画像では、生体組織の粘膜表層の微細血管や粘膜表面の微細模様が強調され、患部の性状や観察位置を特定しやすい画像、すなわち、患部の内視鏡診断がしやすい観察画像となる。
 そこで、本実施の形態の内視鏡装置10では、先端硬質部35から出射する白色光(青色レーザ光及び蛍光体の発光)及び狭帯域光(紫色レーザ光)の各出射光量を独立して制御可能とし、双方の照明光による反射光が1フレームの撮像画像内で共に含まれるようにしている。
 白色光と狭帯域光との出射光量の比率は、たとえば、[白色光:狭帯域光=1:4~1:8]等の適宜な比率に設定する。これにより、白色光で観察部位を明瞭に映出させつつ、狭帯域光により表層血管及び粘膜表面の微細模様を強調でき、微細血管構造及びピットの観察に適した画像を取得できる。
 次に、撮像された内視鏡画像の画質を変えて表示装置21に表示する場合について説明する。
 内視鏡画像を表示装置21に表示させる場合において、表示画像の画質、特に、色調は術者によって好みが分かれる。
 そこで、本実施の形態の内視鏡装置10では、必要に応じて、内視鏡画像データの色調を補正し、表示装置21に出力する。
 色調の補正は、内視鏡制御部65による制御の下、入力装置23から指示に基づいて、画像処理部67で実施される。本実施の形態の内視鏡装置10では、次のように実施される。
 内視鏡制御部65は、入力装置23から入力される色調の調整値に基づいて、R、G、Bの各強度値(輝度値)をマトリクス補正する補正マトリクスを設定する。画像処理部67は、設定された補正マトリクスに基づいて、内視鏡画像データをマトリクス補正し、色調を補正する。
 色調補正前の内視鏡画像データの各画素のR、G、Bの強度値をR0、G0、B0、補正マトリクスをA、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値をR1、G1、B1とすると、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値R1、G1、B1は、次式(1)で表わされる。
Figure JPOXMLDOC01-appb-M000001
 補正マトリクスAの係数aijは、色調の調整値に基づいて設定される。内視鏡制御部65は、入力装置23を介して色調の調整値の情報を取得し、補正マトリクスAを設定する。
 画像処理部67は、設定された補正マトリクスAを用いて、内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、内視鏡画像データの色調を補正する。そして、補正後の内視鏡画像データを表示装置21に出力する。
 図7は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。
 内視鏡11から出力される画像信号(デジタル画像信号)が取得され(ステップS1)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS2)。そして、生成された内視鏡画像データに対して、調整値に基づく色調補正が行われ(ステップS3)、色調補正後の内視鏡画像データが表示装置21に出力される(ステップS4)。
 このように、色調補正を行うことにより、術者の好みに応じた色調で内視鏡画像を表示装置21に表示できる。
 なお、内視鏡画像を記憶部69に記憶する場合は、この色調補正後の内視鏡画像データが記憶部69に記憶される。同様に、内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。
 《内視鏡画像処理装置》
 内視鏡画像処理装置100は、内視鏡装置10から内視鏡画像データを取得し、画像認識により、画像に含まれる病変を検出し、検出した病変を種別ごとに分類して報知する処理を行う。
 画像認識の処理には、たとえば、畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)が用いられる。
 病変の分類は、たとえば、NICE分類又はJNET分類などに従って複数のカテゴリーに分類する処理が行われる。「NICE」は、NBI International Colorectal Endoscopic の略語である。「JNET」は、「the Japan NBI Expert Team」の略語である。「NBI」(登録商標)は、Narrow band imaging(登録商標)の略語である。
 NICE分類は、非拡大のNBIによる分類であり、病変の色調(Color)、微小血管 模様(Vessels)、及び表面模様(Surface pattern)の3項目の各項目について、Type1、Type2及びType3に分類される。Type1は過形成病変、Type2は腺腫~粘膜内癌、Type3はSM(submucosa)深部浸潤癌の診断指標である。JNET分類は、大腸腫瘍に対するNBI拡大内視鏡所見の分類である。JNET分類は、「vessel pattern」と「surface pattern」の各項目について、Type1、Type2A、Type2B、及びType3に分類される。
 なお、画像認識の処理は、NICE分類などの詳細な分類に代えて、又は、これと組み合わせて、単に「癌性」であるか「非癌性」であるかの2分類の認識を行ってもよい。
 図8は、内視鏡画像処理装置のハードウェア構成を示すブロック図である。
 内視鏡画像処理装置100は、たとえば、パーソナルコンピュータ、ワークステーション等のコンピュータで構成される。このコンピュータには、CPU(Central Processing Unit)102、RAM(Random Access Memory)104、ROM(read-only memory)106、通信インターフェイス(interface,I/F)108及び入出力インターフェイス110が備えられ、通信インターフェイス108を介してネットワーク2に接続される。また、入出力インターフェイス110を介して記憶装置112、入力装置114及び表示装置116が接続される。記憶装置112は、たとえば、ハードディスクドライブ(Hard Disk Drive,HDD)等のストレージデバイスで構成される。入力装置114は、キーボード及びマウス等の入力デバイスで構成される。表示装置116は、液晶モニタ等の表示デバイスで構成される。
 図9は、内視鏡画像処理装置の機能を示すブロック図である。
 同図に示すように、内視鏡画像処理装置100は、所定の制御プログラム(内視鏡画像処理プログラム)を実行することにより、内視鏡画像取得部120、画像変換処理部122、画像認識部124、及び表示制御部126として機能する。プログラムは、ROM106又は記憶装置112に格納される。
 内視鏡画像取得部120は、内視鏡装置10から内視鏡画像データを取得する。内視鏡画像データは、動画及び静止画のいずれの画像データであってもよい。
 画像変換処理部122は、内視鏡画像取得部120で取得された内視鏡画像を基準画質の画像に変換する処理を行う。ここで、本実施の形態において、「基準画質」とは、内視鏡装置10で行われた色調補正を行う前の画質をいう。
 上記のように、本実施の形態の内視鏡装置10では、必要に応じて、出力画像の色調補正が行われる。一方、後述するように、画像認識は、機械学習によって学習したモデル(学習済みモデル)が用いられる。機械学習では、学習用の画像群に画質の偏りがあると、画質の偏りも学習する。この結果、学習した画像群の画質の偏りから外れた画質の画像を画像認識させた場合に精度が低下する。色調が補正されると、学習した画像群の画質の偏りから外れ、画像認識させた場合に精度が低下する。
 そこで、本実施の形態では、内視鏡装置10から取得した内視鏡画像データに対して画像処理を行い、その画質を色調補正前の画質に変換する。具体的には、取得した内視鏡画像データに対して、色調補正した際の補正マトリクスAの逆行列A-1となる補正マトリクスBを用いてマトリクス補正し、基準画質の画像データに変換する。
 いま、取得した内視鏡画像データの各画素のR、G、Bの強度値をR1、G1、B1、補正マトリクスをB、変換後の内視鏡画像データの各画素のR、G、Bの強度値をR2、G2、B2とすると、変換後の内視鏡画像データの各画素のR、G、Bの強度値R2、G2、B2は、次式(2)で表わされる。
Figure JPOXMLDOC01-appb-M000002
 画像変換処理部122は、色調補正の際の補正マトリクスAの情報を内視鏡装置10から取得し、その逆行列となる補正マトリクスBを設定する。そして、設定された補正マトリクスBを用いて、取得した内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、画質を変換する。すなわち、色調補正前の画質に変換する。
 画像認識部124は、画像変換処理部122によって基準画質の画像に変換された後の内視鏡画像に対して画像認識の処理を行う。本実施の形態では、取得した内視鏡画像から病変(注目領域)を検出し、かつ、検出された病変をNIEC分類又はJNET分類などに従い分類する処理を行う。画像認識部124は、機械学習によって学習した学習済みモデルを用いて構成される。このモデルは、たとえば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成される。モデル生成の際は、基準画質に変換された内視鏡画像群で学習する。
 表示制御部126は、画像認識部124による認識結果を取得し、所定の表示態様で認識結果を表示装置116に表示させる。
 図10は、認識結果の表示の一例を示す図である。
 同図に示すように、病変が検出された場合、画像認識した内視鏡画像に重ねて、認識結果が表示される。認識結果は、たとえば、検出された病変の領域を枠で囲う形式で表示される。また、その枠に近接して、病変の分類結果が表示される。
 図11は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。
 まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS11)。
 次に、色調の調整値に基づいて、認識対象の画質を基準画質に変換する処理が行われる(ステップS12)。この処理は、画像変換処理部122によって行われる。画像変換処理部122は、取得された内視鏡画像データをマトリクス補正することにより、その画質を変換する。この際に使用する補正マトリクスBは、認識対象の内視鏡画像データを生成した際の色調補正の補正マトリクスAから求められる。すなわち、補正マトリクスAの逆行列として求められる。
 次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われ(ステップS13)、その認識結果が表示装置21に出力される(ステップS14)。
 このように、本実施の形態の内視鏡画像処理装置100では、内視鏡画像を画像認識する際、認識対象の内視鏡画像の画質を基準画質に変換し、変換後の内視鏡画像に対して画像認識が行われる。これにより、内視鏡装置10において、独自の色調補正を行った場合であっても、精度よく画像認識を行うことができる。すなわち、画質の差異を考慮せずに画像認識できる。
 ◆◆第2の実施の形態◆◆
 内視鏡装置では、画質を自動的に補正する場合がある。たとえば、照明光の光量変化による画質の変化を自動的に補正する場合がある。本実施の形態では、認識対象である内視鏡画像が、画質補正されている場合、その補正情報に基づいて、画質を基準画質に変換し、変換後の内視鏡画像に対して、画像認識を行う。
 《画質の自動補正》
 ここでは、光量変化に基づく画質の自動補正について説明する。なお、内視鏡装置のハードウェア構成は、上記第1の実施の形態と同じである。したがって、ハードウェア構成についての説明は省略する。
 〈光量制御〉
 まず、照明光の光量の制御について説明する。本実施の形態の内視鏡装置では、撮影距離(イメージセンサの撮像面から被検体までの距離)に応じて、照明光の光量、すなわち、第1レーザ光源LD1及び第2レーザ光源LD2の出射光量が自動で制御される。内視鏡制御部65は、撮影距離に応じて、最適な光量比となるように、第1レーザ光源LD1からの出射光量及び第2レーザ光源LD2からの出射光量を制御する。撮影距離の情報は、たとえば、オートフォーカスの情報などを利用して取得される。この他、露出情報(シャッタ速度、絞り値、明るさ(EV値(Exposure Value))等)と、光源制御部51が設定する照明光量の情報とに基づいて推定する等の方法を採用することもできる。光量比の設定には、たとえば、撮影距離と最適光量比との関係を表すテーブルをあらかじめ用意しておき、このテーブルを参照することにより行われる。
 内視鏡制御部65は、テーブルを参照し、撮影距離が近いほど、粘膜表層の毛細血管等を強調するように、第2レーザ光源LD2からの出射光量を第1レーザ光源LD1からの出射光量よりも相対的に大きく設定する。また、撮影距離が遠いほど、遠景の輝度を確保するため、高照度の照明光となるように、第1レーザ光源LD1からの出射光量を第2レーザ光源LD2からの出射光量よりも相対的に大きく設定する。
 〈画質補正〉
 上記のように、第1レーザ光源LD1からの出射光は最終的に白色光として被検体に照射され、第2レーザ光源LD2からの出射光は、狭帯域光として被検体に照射される。このため、第1レーザ光源LD1及び第2レーザ光源LD2の出射光の光量比が変更されると、照明光の色味が変化する。たとえば、第2レーザ光源LD2の光量が、第1レーザ光源LD1の光量に対して増加すると、青味を帯びた照明光となる。この結果、光量比に応じて観察画像である内視鏡画像の色調が変化する。
 そこで、設定した光量比によって変化する照明光の色味に応じて内視鏡画像の色調補正を行い、内視鏡画像が照明光の色味変化の影響を受けないようにする。
 内視鏡制御部65は、設定された光量比の情報に基づいて、画像の色調変化がなくなるように、内視鏡画像データを補正する。補正は、たとえば、光量比ごとに色調補正テーブルをあらかじめ用意し、この色調補正テーブルを参照して行う。
 色調補正テーブルは、たとえば、内視鏡画像の各画素に対して、R、G、Bの強度値をマトリクス補正する補正マトリクスとして表すことができる。
 撮影により得られた内視鏡画像データの各画素のR、G、Bの強度値をR3、G3、B3、補正マトリクスをC、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値をR4、G4、B4とすると、色調補正後の内視鏡画像データの各画素のR、G、Bの強度値R4、G4、B4は、次式(3)で表わされる。
Figure JPOXMLDOC01-appb-M000003
 補正マトリクスCの係数cijは、光量比の変化による照明光の色味変化をキャンセルするように設定され、複数種の光量比に対応する複数種の補正マトリクスCが、あらかじめ容易される。
 画像処理部67は、設定された補正マトリクスCを用いて、内視鏡画像データの各画素のR、G、Bの強度値をマトリクス補正し、内視鏡画像データの色調を補正する。そして、補正後の内視鏡画像データを表示装置21に出力する。
 図12は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。
 内視鏡11から出力される画像信号が取得され(ステップS21)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS22)。そして、生成された内視鏡画像データに対して、光量変化に基づく色調補正が行われ(ステップS23)、色調補正後の内視鏡画像データが表示装置21に出力される(ステップS24)。内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。
 《画像認識》
 認識対象の内視鏡画像が、光量変化に基づいて自動的に色調補正されている場合、内視鏡画像処理装置100は、その補正情報に基づいて、画質を基準画質に変換し、変換後の内視鏡画像に対して、画像認識を行う。
 図13は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。
 まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS31)。次に、光量変化に基づく色調補正の補正情報に基づいて、認識対象の画質を基準画質に変換する処理が行われる(ステップS32)。画像変換処理部122は、取得された内視鏡画像データをマトリクス補正することにより、その画質を変換する。この際に使用する補正マトリクスは、認識対象の内視鏡画像データを光量変化に基づいて色調補正した際の補正マトリクスCから求められる。すなわち、補正マトリクスCの逆行列C-1として求められる。
 次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われ(ステップS33)、その認識結果が表示装置21に出力される(ステップS34)。
 このように、基準画質の画像に変換して、画像認識することにより、内視鏡装置10で自動的に色調が補正された場合であっても、精度よく画像認識を行うことができる。すなわち、画質の差異を考慮せずに画像認識できる。
 ◆◆第3の実施の形態◆◆
 術者によって出力画像の色調が調整され、更に、光量変化に応じて色調が自動補正される場合は、次のように処理される。
 《内視鏡装置での処理》
 図14は、画像信号の取得から表示装置への出力までの処理の手順を示すフローチャートである。
 内視鏡11から出力される画像信号が取得され(ステップS41)、取得された画像信号から内視鏡画像の画像データ(内視鏡画像データ)が生成される(ステップS42)。生成された内視鏡画像データに対して、まず、光量変化に基づく色調補正が行われる(ステップS43)。次いで、色調の調整値に基づいて、色調補正が行われる(ステップS44)。この後、色調補正後の内視鏡画像データが、表示装置21に出力される(ステップS45)。内視鏡画像を内視鏡画像処理装置100に出力する場合は、色調補正後の内視鏡画像データが、内視鏡画像処理装置100に出力される。
 《内視鏡画像処理装置での処理(内視鏡画像処理方法)》
 図15は、内視鏡画像処理装置で実施される画像認識の処理の手順を示すフローチャートである。
 まず、内視鏡画像取得部120によって内視鏡装置10から内視鏡画像データが取得される(ステップS51)。
 次に、光量変化に基づく色調補正の補正情報に基づいて、認識対象の画質を変換する処理が行われる(ステップS52)。次に、色調の調整値に基づく色調補正の補正情報に基づいて、認識対象の画質を変換する処理が行われる(ステップS53)。この二段階の変換処理を施すことにより、認識対象の画質が基準画質に変換される。
 次に、基準画質に変換された後の内視鏡画像に対して画像認識部124によって画像認識が行われる(ステップS54)。そして、その認識結果が表示装置21に出力される(ステップS55)。
 このように、認識対象の内視鏡画像に複数の画質補正が施されている場合は、各画質補正に対応した変換処理を実施することにより、基準画質の画像に変換する。そして、このように基準画質の画像に変換して、画像認識することにより、精度よく画像認識を行うことができる。
 ◆◆変形例◆◆
 《内視鏡装置で行われる画質補正》
 上記実施の形態では、内視鏡装置において色調を補正する場合を例に説明したが、内視鏡装置で行われる画質補正の種類は、これに限定されるものではない。この他、明るさの補正、コントラストの補正、シャープネスの補正等、種々の画質補正を行うことができる。
 画質補正された内視鏡画像を画像認識する場合は、画質補正の内容に応じた逆変換の処理を行うことで、基準画質の画像に変換する。
 また、上記実施の形態では、色調補正の手法として、マトリクス補正を採用しているが、画質補正の手法は、これに限定されるものではない。たとえば、光量変化による画質変化を調整する場合は、あらかじめ設定されている光量による画質変化を調整する画像処理パラメーターを用いて画像処理し、画質を補正してもよい。また、術者の好みの色調に調整する場合は、色調を調整する画像処理パラメーターで画像処理を行って、色調を補正してもよい。画像認識する際は、補正の際に使用した画像処理パラメーターを基にして、画像処理を行い、基準画質の画像に変換する。
 《内視鏡画像処理装置で行われる画像変換処理》
 上記のように、内視鏡画像処理装置では、認識対象の内視鏡画像の画質を基準画質に変換して、画像認識を行う。
 基準画質に変換する処理は、認識対象の内視鏡画像に施された画質補正の内容に基づいて行われる。すなわち、その画質補正の内容を基に、逆変換の処理を施すことにより、基準画質の画像に変換する。この際、たとえば、内視鏡装置で設定されている画質の調整値の情報を取得することにより、容易に基準画質の画像に変換することができる。
 内視鏡装置では、通常、観察画像である内視鏡画像を表示装置に表示する場合に色調等の画質の調整が行われる。したがって、内視鏡画像を表示装置に出力する場合に内視鏡装置で設定される画質の調整値の情報を取得して、基準画質の画像に変換する処理を行うことが好ましい。
 また、内視鏡装置では、内視鏡画像を静止画として保存する場合、静止画用の画質調整が行われる場合がある。このように、静止画用の画質調整を行う場合において、静止画の内視鏡画像を画像認識する場合は、内視鏡装置で設定される静止画用の画質の調整値の情報を取得して、基準画質の画像に変換する処理を行うことが好ましい。
 また、一般に画質補正の内容は、内視鏡画像が撮影された内視鏡装置ごとに異なるので、内視鏡装置ごとに設定された数値で内視鏡画像を処理して、内視鏡画像を基準画質の画像に変換する処理を行うことが好ましい。特に、色調調整する場合は、術者ごとに調整値が異なるので、術者ごとの設定に応じた画像変換処理を行って、基準画質の画像に変換することが好ましい。
 《画像認識部の変形例》
 上記実施の形態では、画像認識部が、機械学習によって学習した畳み込みニューラルネットワークで構成される場合を例に説明したが、画像認識部の構成は、これに限定されるものではない。この他、公知の手法で機械学習することによって生成した学習済みモデルで画像認識部を構成することができる。
 なお、機械学習の際には、基準画質に変換された画像群で学習する。したがって、「基準画質」とは、画像認識部を生成した際の学習用の画像群の画質ということもできる。そして、「基準画質に変換する処理」とは、画像認識部を生成した際の学習用の画像群の画質に変換する処理ということもできる。
 《認識対象とする内視鏡画像の取得方法》
 上記実施の形態では、認識対象とする内視鏡画像を内視鏡装置から直接取得する構成としているが、内視鏡画像の取得先は、これに限定されるものではない。たとえば、ネットワークを介して接続された他の記憶装置に保存されている内視鏡画像、サーバに記録されている内視鏡画像等を認識対象の内視鏡画像として取得してもよい。
 また、認識対象の内視鏡画像は、動画と静止画のいずれであってもよい。動画は、複数のフレームを含む時系列画像として構成される。
 ◆◆その他の変形例◆◆
 《内視鏡画像処理装置のハードウェア構成について》
 内視鏡画像処理装置の機能は、各種のプロセッサ(processor)で実現できる。各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。たとえば、1つの処理部は、複数のFPGA、又は、CPU及びFPGAの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、内視鏡画像処理装置の機能は、内視鏡装置を構成するプロセッサ装置に搭載することもできる。
 《内視鏡》
 電子内視鏡は、軟性内視鏡に限らず、硬性内視鏡であってもよい。また、カプセル内視鏡であってもよい。
 《内視鏡装置の照明光について》
 照明光は、白色光、あるいは、1又は複数の特定の波長帯域の光、あるいは、これらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。「特定の波長帯域」は、白色の波長帯域よりも狭い帯域である。特定の波長帯域に関する具体例を以下に示す。
 〈第1例〉
 特定の波長帯域の第1例は、たとえば、可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下の波長帯域又は530nm以上550nm以下の波長帯域を含み、かつ、第1例の光は、390nm以上450nm以下の波長帯域内又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
 〈第2例〉
 特定の波長帯域の第2例は、たとえば、可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下の波長帯域又は610nm以上730nm以下の波長帯域を含み、かつ、第2例の光は、585nm以上615nmの波長帯域内以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
 〈第3例〉
 特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nmの波長帯域、470±10nmの波長帯域、又は600nm以上750nm以下の波長帯域を含み、かつ、第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域内にピーク波長を有する。
 〈第4例〉
 特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ、かつ、この蛍光物質を励起させる励起光の波長帯域、たとえば、390nmから470nmである。
 〈第5例〉
 特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下の波長帯域又は905nm以上970nm以下の波長帯域を含み、かつ、第5例の光は、790nm以上820nm以下の波長帯域内又は905nm以上970nm以下の波長帯域内にピーク波長を有する。
 《照明光の切り替えについて》
 光源の種類は、レーザ光源、キセノン光源、若しくは、LED光源(LED:Light-Emitting Diode)、又は、これらの適宜の組み合わせを採用できる。光源の種類、波長、フィルタの有無等は被写体の種類、観察の目的等に応じて構成することが好ましく、また、観察の際は、被写体の種類、観察の目的等に応じて照明光の波長を組み合わせ、及び/又は、切り替えることが好ましい。波長を切り替える場合、たとえば、光源の前方に配置され、特定波長の光を透過又は遮光するフィルタが設けられた円板状のフィルタ(ロータリカラーフィルタ)を回転させることにより、照射する光の波長を切り替えてもよい。
 内視鏡に用いるイメージセンサは、各画素に対しカラーフィルタが配設されたカラーイメージセンサに限定されるものではなく、モノクロイメージセンサでもよい。モノクロイメージセンサを用いる場合、照明光の波長を順次切り替えて面順次(色順次)で撮像することができる。たとえば、出射する照明光の波長を、紫色、青色、緑色、及び赤色の間で順次切り替えてもよいし、白色光を照射してロータリカラーフィルタ(赤色、緑色、青色等)により出射する照明光の波長を切り替えてもよい。また、1又は複数の狭帯域光を照射してロータリカラーフィルタにより出射する照明光の波長を切り替えてもよい。狭帯域光は、波長の異なる2波長以上の赤外光でもよい。
 《特殊光画像の生成例》
 プロセッサ装置49は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。プロセッサ装置49は、特定の波長帯域の信号を、通常光画像に含まれる赤(R)、緑(G)及び青(B)、又は、シアン(Cyan,C)、マゼンタ(Magenta,M)及びイエロー(Yellow,Y)の色情報に基づく演算を行うことで得ることができる。
 《コンピュータに内視鏡画像処理装置の機能を実現させるプログラムについて》
 上記の実施形態で説明した内視鏡画像処理装置の機能をコンピュータに実現させるプログラムを光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 また、上記の実施形態で説明した内視鏡画像処理装置の機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。
 《実施形態及び変形例等の組み合わせについて》
 上記実施形態で説明した構成要素、及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
1 内視鏡システム
2 ネットワーク
10 内視鏡装置
11 内視鏡
13 内視鏡制御装置
15 内視鏡挿入部
17 イメージセンサ
19A ライトガイドコネクタ
19B ビデオコネクタ
21 表示装置
23 入力装置
25 操作部
27 接続部
31 軟性部
33 湾曲部
35 先端硬質部
37A 照明窓
37B 照明窓
38 観察窓
39 撮影光学系
41 アングルノブ
43 操作部材
47 光源装置
49 プロセッサ装置
51 光源制御部
53 コンバイナ
55 カプラ
57A 光ファイバ
57B 光ファイバ
59 蛍光体
61 スコープケーブル
65 内視鏡制御部
67 画像処理部
69 記憶部
100 内視鏡画像処理装置
106 ROM
108 通信インターフェイス
110 入出力インターフェイス
112 記憶装置
114 入力装置
116 表示装置
120 内視鏡画像取得部
122 画像変換処理部
124 画像認識部
126 表示制御部
λa 400nm付近の波長域
λb 波長500nm付近の波長域
S1-S4 画像信号の取得から表示装置への出力までの処理の手順
S11-S14 内視鏡画像処理装置で実施される画像認識の処理の手順
S21-S24 画像信号の取得から表示装置への出力までの処理の手順
S31-S34 内視鏡画像処理装置で実施される画像認識の処理の手順
S41-S45 画像信号の取得から表示装置への出力までの処理の手順
S51-S55 内視鏡画像処理装置で実施される画像認識の処理の手順

Claims (12)

  1.  内視鏡装置で撮影された内視鏡画像を取得する内視鏡画像取得部と、
     前記内視鏡画像を基準画質の画像に変換する処理を行う画像変換処理部と、
     前記基準画質に変換された画像に対して画像認識を行う画像認識部と、
     を備えた内視鏡画像処理装置。
  2.  前記画像変換処理部は、前記内視鏡装置で設定されている画質の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  3.  前記画像変換処理部は、前記内視鏡画像を表示装置に出力する場合に前記内視鏡装置で設定される画質の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  4.  前記画像変換処理部は、前記内視鏡画像を静止画として保存する場合に前記内視鏡装置で設定される画質の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  5.  前記画像変換処理部は、前記内視鏡装置で設定されている色調の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  6.  前記画像変換処理部は、前記内視鏡装置で設定されている光量による画質変化の調整値に基づいて、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  7.  前記画像変換処理部は、前記内視鏡画像が撮影された前記内視鏡装置ごとに設定された数値で前記内視鏡画像を処理して、前記内視鏡画像を前記基準画質の画像に変換する処理を行う、
     請求項1に記載の内視鏡画像処理装置。
  8.  前記画像認識部は、前記基準画質に変換された画像で学習した畳み込みニューラルネットワークで構成される、
     請求項1から7のいずれか一項に記載の内視鏡画像処理装置。
  9.  前記画像認識部が行う前記画像認識には、注目領域を検出する処理、及び/又は、認識対象を分類する処理が含まれる、
     請求項1から7のいずれか一項に記載の内視鏡画像処理装置。
  10.  内視鏡装置で撮影された内視鏡画像を取得するステップと、
     前記内視鏡画像を基準画質の画像に変換する処理を行うステップと、
     前記基準画質に変換された画像に対して画像認識を行うステップと、
     を含む内視鏡画像処理方法。
  11.  内視鏡装置で撮影された内視鏡画像を取得する機能と、
     前記内視鏡画像を基準画質の画像に変換する処理を行う機能と、
     前記基準画質に変換された画像に対して画像認識を行う機能と、
     をコンピュータに実現させる内視鏡画像処理プログラム。
  12.  非一時的かつコンピュータ読取可能な記憶媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
     内視鏡装置で撮影された内視鏡画像を取得する機能と、
     前記内視鏡画像を基準画質の画像に変換する処理を行う機能と、
     前記基準画質に変換された画像に対して画像認識を行う機能と、
     を含む内視鏡画像処理機能をコンピュータに実現させる記憶媒体。
PCT/JP2019/020678 2018-06-12 2019-05-24 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム WO2019239854A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020525396A JP7130038B2 (ja) 2018-06-12 2019-05-24 内視鏡画像処理装置、内視鏡画像処理装置の作動方法、内視鏡画像処理プログラム及び記憶媒体
JP2022132527A JP7350954B2 (ja) 2018-06-12 2022-08-23 内視鏡画像処理装置、内視鏡システム、内視鏡画像処理装置の作動方法、内視鏡画像処理プログラム及び記憶媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-111829 2018-06-12
JP2018111829 2018-06-12

Publications (1)

Publication Number Publication Date
WO2019239854A1 true WO2019239854A1 (ja) 2019-12-19

Family

ID=68842861

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/020678 WO2019239854A1 (ja) 2018-06-12 2019-05-24 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム

Country Status (2)

Country Link
JP (2) JP7130038B2 (ja)
WO (1) WO2019239854A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013860A1 (ko) * 2021-08-06 2023-02-09 주식회사 메타플바이오 멀티스펙트럼 내시경 및 이를 포함하는 내시경 시스템
WO2023199923A1 (ja) * 2022-04-11 2023-10-19 アナウト株式会社 手術画像処理プラットフォーム及びコンピュータプログラム
WO2024024411A1 (ja) * 2022-07-28 2024-02-01 Hoya株式会社 電子内視鏡システムの画像補正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11504739A (ja) * 1995-07-25 1999-04-27 ホルス ゼラピーティクス,インコーポレイテッド コンピュータ援用疾病診断方法
JP2016533782A (ja) * 2013-10-11 2016-11-04 マウナ ケア テクノロジーズ 映像医療機器により取得した画像を特徴づける方法およびシステム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
WO2018020558A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4895204B2 (ja) * 2007-03-22 2012-03-14 富士フイルム株式会社 画像成分分離装置、方法、およびプログラム、ならびに、正常画像生成装置、方法、およびプログラム
JP5940604B2 (ja) * 2014-07-30 2016-06-29 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及びプログラム
EP3274915A1 (en) * 2015-03-27 2018-01-31 Siemens Aktiengesellschaft Method and system for automated brain tumor diagnosis using image classification
JPWO2017017722A1 (ja) * 2015-07-24 2018-05-24 オリンパス株式会社 処理装置、処理方法及びプログラム
US10803582B2 (en) * 2016-07-04 2020-10-13 Nec Corporation Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11504739A (ja) * 1995-07-25 1999-04-27 ホルス ゼラピーティクス,インコーポレイテッド コンピュータ援用疾病診断方法
JP2016533782A (ja) * 2013-10-11 2016-11-04 マウナ ケア テクノロジーズ 映像医療機器により取得した画像を特徴づける方法およびシステム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム
WO2018020558A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013860A1 (ko) * 2021-08-06 2023-02-09 주식회사 메타플바이오 멀티스펙트럼 내시경 및 이를 포함하는 내시경 시스템
WO2023199923A1 (ja) * 2022-04-11 2023-10-19 アナウト株式会社 手術画像処理プラットフォーム及びコンピュータプログラム
WO2024024411A1 (ja) * 2022-07-28 2024-02-01 Hoya株式会社 電子内視鏡システムの画像補正方法

Also Published As

Publication number Publication date
JP2022162028A (ja) 2022-10-21
JPWO2019239854A1 (ja) 2021-07-01
JP7350954B2 (ja) 2023-09-26
JP7130038B2 (ja) 2022-09-02

Similar Documents

Publication Publication Date Title
US9675238B2 (en) Endoscopic device
JP6495539B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5460506B2 (ja) 内視鏡装置の作動方法及び内視鏡装置
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP7350954B2 (ja) 内視鏡画像処理装置、内視鏡システム、内視鏡画像処理装置の作動方法、内視鏡画像処理プログラム及び記憶媒体
JP5757891B2 (ja) 電子内視鏡システム、画像処理装置、画像処理装置の作動方法及び画像処理プログラム
JP5789280B2 (ja) プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
JP5485215B2 (ja) 内視鏡装置
US9072453B2 (en) Endoscope apparatus
JP5762344B2 (ja) 画像処理装置及び内視鏡システム
WO2019235195A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6259747B2 (ja) プロセッサ装置、内視鏡システム、プロセッサ装置の作動方法、及びプログラム
JP5766773B2 (ja) 内視鏡システムおよび内視鏡システムの作動方法
JP2016174976A (ja) 内視鏡システム
JP6556076B2 (ja) 内視鏡画像信号処理装置および方法並びにプログラム
JP5631757B2 (ja) 電子内視鏡システム
JP6396717B2 (ja) 感度調整方法および撮像装置
JP6454755B2 (ja) 内視鏡システム
JP6669539B2 (ja) 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP6580778B2 (ja) 内視鏡画像信号処理装置およびプログラム
JP5965028B2 (ja) 内視鏡システム
JP6694046B2 (ja) 内視鏡システム
JP6970777B2 (ja) 内視鏡システム
JP2022009755A (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19820262

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020525396

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19820262

Country of ref document: EP

Kind code of ref document: A1